/breezy/unstable

To get this branch, use:
bzr branch https://code.breezy-vcs.org/breezy/unstable

« back to all changes in this revision

Viewing changes to breezy/tests/test_tuned_gzip.py

  • Committer: Jelmer Vernooij
  • Date: 2017-05-24 01:39:33 UTC
  • mfrom: (3815.3776.6)
  • Revision ID: jelmer@jelmer.uk-20170524013933-ir4y4tqtrsiz2ka2
New upstream snapshot.

Show diffs side-by-side

added added

removed removed

Lines of Context:
17
17
 
18
18
"""Tests for tuned_gzip."""
19
19
 
20
 
 
21
 
# do not use bzrlib test cases here - this should be suitable for sending
22
 
# upstream.
23
 
from cStringIO import StringIO
 
20
import gzip
 
21
from io import BytesIO
24
22
import zlib
25
23
 
26
 
 
27
 
from bzrlib import (
28
 
    symbol_versioning,
 
24
from .. import (
29
25
    tuned_gzip,
30
26
    tests,
31
27
    )
32
28
 
33
29
 
34
 
class FakeDecompress(object):
35
 
    """A fake decompressor for testing GzipFile."""
36
 
 
37
 
    def __init__(self):
38
 
        self.unused_data=''
39
 
 
40
 
    def decompress(self, buf):
41
 
        """Return an empty string as though we are at eof."""
42
 
        # note that the zlib module *overwrites* unused data
43
 
        # on writes after EOF.
44
 
        self.unused_data = buf
45
 
        return ''
46
 
 
47
 
 
48
 
class TestFakeDecompress(tests.TestCase):
49
 
    """We use a fake decompressor to test GzipFile.
50
 
 
51
 
    This class tests the behaviours we want from it.
52
 
    """
53
 
 
54
 
    def test_decompress(self):
55
 
        # decompressing returns no data.
56
 
        decompress = FakeDecompress()
57
 
        self.assertEqual('', decompress.decompress('0'))
58
 
 
59
 
    def test_unused_data(self):
60
 
        # after decompressing, we have 1 unused byte.
61
 
        # this is normally set by decompressors when they
62
 
        # detect the end of a compressed stream.
63
 
        decompress = FakeDecompress()
64
 
        decompress.decompress('0')
65
 
        self.assertEqual('0', decompress.unused_data)
66
 
        # decompressing again (when the short read is read)
67
 
        # will give us the latest input in the unused_data
68
 
        # this is arguably a bug in zlib but ...
69
 
        decompress.decompress('1234567')
70
 
        self.assertEqual('1234567', decompress.unused_data)
71
 
 
72
 
 
73
 
class TestGzip(tests.TestCase):
74
 
 
75
 
    def test__read_short_remainder(self):
76
 
        # a _read call at the end of a compressed hunk should
77
 
        # read more bytes if there is less than 8 bytes (the
78
 
        # gzip trailer) unread.
79
 
        stream = StringIO('\0\0\0\0\0\0\0\0')
80
 
        myfile = self.applyDeprecated(
81
 
            symbol_versioning.deprecated_in((2, 3, 0)),
82
 
            tuned_gzip.GzipFile, fileobj=stream)
83
 
        # disable the _new_member check, we are microtesting.
84
 
        myfile._new_member = False
85
 
        myfile.crc = zlib.crc32('')
86
 
        myfile.decompress = FakeDecompress()
87
 
        myfile.size = 0
88
 
        myfile._read(1)
89
 
        # all the data should have been read now
90
 
        self.assertEqual('', stream.read())
91
 
        # and it should be new member time in the stream.
92
 
        self.assertTrue(myfile._new_member)
93
 
 
94
 
    def test_negative_crc(self):
95
 
        """Content with a negative crc should not break when written"""
96
 
        sio = StringIO()
97
 
        gfile = self.applyDeprecated(
98
 
            symbol_versioning.deprecated_in((2, 3, 0)),
99
 
            tuned_gzip.GzipFile, mode="w", fileobj=sio)
100
 
        gfile.write("\xFF")
101
 
        gfile.close()
102
 
        self.assertEqual(gfile.crc & 0xFFFFFFFFL, 0xFF000000L)
103
 
        self.assertEqual(sio.getvalue()[-8:-4], "\x00\x00\x00\xFF")
104
 
 
105
 
 
106
30
class TestToGzip(tests.TestCase):
107
31
 
108
32
    def assertToGzip(self, chunks):
109
 
        raw_bytes = ''.join(chunks)
 
33
        raw_bytes = b''.join(chunks)
110
34
        gzfromchunks = tuned_gzip.chunks_to_gzip(chunks)
111
35
        gzfrombytes = tuned_gzip.bytes_to_gzip(raw_bytes)
112
36
        self.assertEqual(gzfrombytes, gzfromchunks)
113
 
        decoded = self.applyDeprecated(
114
 
            symbol_versioning.deprecated_in((2, 3, 0)),
115
 
            tuned_gzip.GzipFile, fileobj=StringIO(gzfromchunks)).read()
 
37
        decoded = gzip.GzipFile(fileobj=BytesIO(gzfromchunks)).read()
116
38
        lraw, ldecoded = len(raw_bytes), len(decoded)
117
39
        self.assertEqual(lraw, ldecoded,
118
40
                         'Expecting data length %d, got %d' % (lraw, ldecoded))
119
41
        self.assertEqual(raw_bytes, decoded)
120
42
 
121
43
    def test_single_chunk(self):
122
 
        self.assertToGzip(['a modest chunk\nwith some various\nbits\n'])
 
44
        self.assertToGzip([b'a modest chunk\nwith some various\nbits\n'])
123
45
 
124
46
    def test_simple_text(self):
125
 
        self.assertToGzip(['some\n', 'strings\n', 'to\n', 'process\n'])
 
47
        self.assertToGzip([b'some\n', b'strings\n', b'to\n', b'process\n'])
126
48
 
127
49
    def test_large_chunks(self):
128
 
        self.assertToGzip(['a large string\n'*1024])
129
 
        self.assertToGzip(['a large string\n']*1024)
 
50
        self.assertToGzip([b'a large string\n'*1024])
 
51
        self.assertToGzip([b'a large string\n']*1024)
130
52
 
131
53
    def test_enormous_chunks(self):
132
 
        self.assertToGzip(['a large string\n'*1024*256])
133
 
        self.assertToGzip(['a large string\n']*1024*256)
 
54
        self.assertToGzip([b'a large string\n'*1024*256])
 
55
        self.assertToGzip([b'a large string\n']*1024*256)