Re: Вопрос: Какие алгоритмы сжимаютбинарные данные без потерь и насколько?
Сайт о сжатии >> Форум #Компрессор# >> [Ответить] [Ответы]
Автор: Maxim Smirnov, <msmirn@newmail.ru>
SPb, 30 августа 2002 года в 12:55:21
В ответ на : Вопрос: Какие алгоритмы сжимаютбинарные данные без потерь и насколько? от Alex
в 29 августа 2002 года в 18:35:36:
> Необходимо сжать бинарный файл без потерь. Кол-во бит равных "1" - не более 25%, остальные равны "0" (естественно).Практически что угодно подойдет. Например, арифметик. Если частоты символов стабильны или около того, то могут и обычные префиксные коды типа Хаффмана подойти. Возможно, с предварительным объединением битов в блоки с помощью, скажем, RLE. Зависимости между битами есть или нет? Это можно выяснить с помощью, скажем, rkuc или ppmd: выставляем разные порядки моделирования и смотрим, что происходит со сжатием. Если с увеличением порядка сжатие заметно растет, то простым кодированием не обойтись, если хочется выжать коэффициент сжатия, близкий к принципиально достижимому для данного уровня развития науки и техники :-)
|