Re: Вопрос: Какие алгоритмы сжимаютбинарные данные без потерь и насколько?


Сайт о сжатии >> Форум #Компрессор# >> [Ответить] [Ответы]

Автор: Maxim Smirnov, <msmirn@newmail.ru>
SPb, 30 августа 2002 года в 12:55:21

В ответ на : Вопрос: Какие алгоритмы сжимаютбинарные данные без потерь и насколько? от Alex в 29 августа 2002 года в 18:35:36:


> Необходимо сжать бинарный файл без потерь. Кол-во бит равных "1" - не более 25%, остальные равны "0" (естественно).

Практически что угодно подойдет.
Например, арифметик. Если частоты
символов стабильны или около того, то
могут и обычные префиксные коды типа
Хаффмана подойти. Возможно, с
предварительным объединением битов
в блоки с помощью, скажем, RLE.

Зависимости между битами есть или
нет?
Это можно выяснить с помощью,
скажем, rkuc или ppmd: выставляем
разные порядки моделирования и
смотрим, что происходит со сжатием.
Если с увеличением порядка сжатие
заметно растет, то простым
кодированием не обойтись, если
хочется выжать коэффициент сжатия,
близкий к принципиально достижимому
для данного уровня развития науки
и техники :-)

Ответы:



Ответить на это сообщение

Тема:

Имя (желательно полное):

E-Mail:

URL:

Город:

Страна:

Вежливый и подробный комментарий:
(Форматируйте его, пожалуйста, как почту - короткими строками
Еnter в конце строки, пустая строка между параграфами).

Пожалуйста, заполните все поля.
И не нажимайте по два раза на кнопку! Дождитесь ответа сервера.