Войти
ФлеймФорумОбщее

Алгоритм сжатия информации 2:1

Страницы: 1 2 374 75 Следующая »
#0
21:39, 25 ноя. 2012

Сабж краток.
Опираясь на собственные изыскания, я почти завершил создание алгоритма сжатия/распаковки информации, осталось исследование частных случаев, которые редко, но попадаются.
Примечательной особенностью алгоритма является степень сжатия 2:1 для _любых_файлов_, будь то текстовый файл или видеофайл. При этом ничто не мешает сжатый файл сжать ещё раз до некоторого предела после которого начнётся потеря информации... Алгоритм вычисления предела ещё несовершенный, много тонкостей, но как показала практика, большинство файлов выдерживают 3 прохода (размер уменьшается в 8 раз) без потерь информации.

Вопроса два: Данный алгоритм имеет смысл патентовать? Имеет смысл писать архиватор и продавать его?


#1
21:46, 25 ноя. 2012

Pilix

> 2:1 для _любых_файлов_

Такого не бывает в принципе.

#2
21:48, 25 ноя. 2012

Pilix
Сожми файл, заполненный случайными числами, хотя бы на 1%.

#3
21:49, 25 ноя. 2012

Pilix
> степень сжатия 2:1 для _любых_файлов_, будь то текстовый файл или видеофайл
> Данный алгоритм имеет смысл патентовать?
> Имеет смысл писать архиватор и продавать его?
Конечно, ведь устроившись работать в гугл в подразделение ютуба, ты сэкономишь им миллионы серверов и всю связанную с ними инфраструктуру, а это миллиарды долларов.

#4
21:50, 25 ноя. 2012

Тут уже предлагали одну гениально-бредовую идею с заменой половины данных на случайные значения с таким же рандомным их "восстановлением" :D "пересылать данные банковских счетов таким методом я бы не стал" (с) автор той идеи. Думаю здесь что-то похожее, иначе такой алгоритм уже давно бы придумали и использовали.

#5
21:52, 25 ноя. 2012

ASD
>Думаю здесь что-то похожее
это очевидно из фразы "до некоторого предела после которого начнётся потеря информации" :)

#6
21:56, 25 ноя. 2012

CStalker

Всё может быть =) Вдруг автор предлагает половину файла оставить на одном компе, другую на другом :D Сжали же в 2 раза? Да! Ну а с увеличением количества компов собрать файл всё труднее :D

#7
21:58, 25 ноя. 2012

Pilix
> степень сжатия 2:1 для _любых_файлов_

Даже для файлов, полученных потём сжатия твоим алгоритмом?

Pilix
> При этом ничто не мешает сжатый файл сжать ещё раз до некоторого предела после
> которого начнётся потеря информации..

А, так он с потерей... Не интересно.

#8
21:58, 25 ноя. 2012

ASD
> Всё может быть =) Вдруг автор предлагает половину файла оставить на одном
> компе, другую на другом :D Сжали же в 2 раза? Да! Ну а с увеличением количества
> компов собрать файл всё труднее
Этот метод уже запатентован Мавроди.

#9
22:02, 25 ноя. 2012

ASD
а ведь хорошая идея. Под предлогом борьбы с пиратством потребовать постоянный коннект к интернету для нашего архиватора (ну как в Диябло 3). Потом, части запаковываемого файла отсылаем к себе на сервер - и чудо, он сжимается в несколько раз. Хотя конечно скорость распаковки/запаковки будет зависеть от толщины канала.

#10
22:04, 25 ноя. 2012

1. сжимаем файл на 50%
2. сжимаем сжатый файл на 50%
...
получаем один байт!
profit!

#11
22:05, 25 ноя. 2012

Жора Монтировка
согласно алгоритму, после третьего сжатия пойдет потеря данных.

#12
22:09, 25 ноя. 2012

8 ответов, 1 по делу... Вывод: 7 троллей.

ASD
> Конечно, ведь устроившись работать в гугл в подразделение ютуба, ты сэкономишь
> им миллионы серверов и всю связанную с ними инфраструктуру, а это миллиарды
> долларов.
Во всём есть подводные камни. Так и в моём алгоритме. Из-за некоторых частных случаев, для которых я пока не могу найти закономерности, приходится грузить 4 таблицы при старте программы и "прогонять" эти моменты в цикле по всем таблицам, чтобы получить один единственный верный агрумент. Это очень сильно тормозит процесс распаковки (к сжатию это не относится), особенно в случае длинных участков единиц или нулей в исходной информации.

Для всех остальных: тролльте, господа, тролльте, мне как раз нужно отвлечся, а то засыпаю с трудом, столько мыслей в голове.

#13
22:11, 25 ноя. 2012

CStalker
> получаем один байт!
> profit!
Нет, такого не получится... Предел "проходов" для каждого файла - разный. Но, сколько бы проходов не было, конечная величина файла никогда не будет равна 1 байту.

#14
22:12, 25 ноя. 2012

CStalker
> согласно алгоритму, после третьего сжатия пойдет потеря данных.
Не для всех файлов.

Страницы: 1 2 374 75 Следующая »
ФлеймФорумОбщее

Тема в архиве.

Тема закрыта.