Хронология теории информации - Timeline of information theory
Хронология событий, связанных с
теория информации,
квантовая теория информации и статистическая физика,
Сжатие данных,
коды исправления ошибок и связанные предметы.
- 1872
– Людвиг Больцманн представляет его H-теорема, а вместе с ней и формула Σпя бревно пя для энтропии отдельной частицы газа - 1878
– Дж. Уиллард Гиббс определяет Энтропия Гиббса: вероятности в формуле энтропии теперь принимаются как вероятности состояния весь система - 1924
– Гарри Найквист обсуждает количественную оценку «интеллекта» и скорость, с которой он может быть передан системой связи. - 1927
– Джон фон Нейман определяет энтропия фон Неймана, распространяя энтропию Гиббса на квантовую механику - 1928
– Ральф Хартли вводит Информация о Хартли как логарифм количества возможных сообщений, при этом информация передается, когда получатель может отличить одну последовательность символов от любой другой (независимо от любого связанного значения) - 1929
– Лео Сцилард анализы Демон Максвелла, показывая, как Двигатель Szilard может иногда преобразовывать информацию в извлечение полезной работы - 1940
– Алан Тьюринг вводит децибан как мера информации о немецком Энигма машина настройки шифра Банбуризм процесс - 1944
– Клод Шеннон теория информации в значительной степени завершена - 1947
– Ричард В. Хэмминг изобретает Коды Хэмминга для обнаружения и исправления ошибок (для защиты патентных прав результат не публикуется до 1950 года) - 1948
– Клод Э. Шеннон издает Математическая теория коммуникации - 1949
– Клод Э. Шеннон издает Общение в присутствии шума – Теорема выборки Найквиста – Шеннона и Закон Шеннона – Хартли - 1949
– Клод Э. Шеннон с Коммуникационная теория секретных систем рассекречен - 1949
– Роберт М. Фано издает Передача информации. M.I.T. Press, Кембридж, Массачусетс - Кодирование Шеннона – Фано - 1949
- обнаруживает Леон Г. Крафт. Неравенство Крафт, который показывает пределы коды префиксов - 1949
– Марсель Дж. Э. Голей вводит Коды Голея за упреждающее исправление ошибок - 1951
– Соломон Кульбак и Ричард Лейблер представить Дивергенция Кульбака – Лейблера - 1951
– Дэвид А. Хаффман изобретает Кодирование Хаффмана, метод поиска оптимального коды префиксов за без потерь Сжатие данных - 1953
– Август Альберт Сардины и Джордж Паттерсон изобрели Алгоритм Сардин-Паттерсона, процедура определения того, код переменной длины однозначно декодируемый - 1954
– Ирвинг С. Рид и Дэвид Э. Мюллер предлагать Коды Рида – Маллера - 1955
– Питер Элиас вводит сверточные коды - 1957
– Юджин Прейндж сначала обсуждает циклические коды - 1959
– Алексис Хоквенгем, и самостоятельно в следующем году Радж Чандра Бос и Двиджендра Кумар Рэй-Чаудхури, обнаружить Коды BCH - 1960
– Ирвинг С. Рид и Гюстав Соломон предлагать Коды Рида – Соломона - 1962
– Роберт Г. Галлагер предлагает коды с низкой плотностью проверки четности; они не используются в течение 30 лет из-за технических ограничений - 1965
– Дэйв Форни обсуждает составные коды - 1966
– Фумитада Итакура (Нагойский университет ) и Сюдзо Сайто (Nippon Telegraph and Telephone ) развивать кодирование с линейным предсказанием (LPC), форма кодирование речи[1] - 1967
– Эндрю Витерби показывает Алгоритм Витерби, что делает возможным декодирование сверточных кодов - 1968
– Элвин Берлекамп изобретает Алгоритм Берлекампа-Месси; его применение для декодирования кодов BCH и Рида – Соломона указано в Джеймс Л. Мэсси в следующем году - 1968
– Крис Уоллес и Дэвид М. Бултон публикуют первую из многих статей по Минимальная длина сообщения (MML ) статистический и индуктивный вывод - 1970
– Валерий Денисович Гоппа вводит Коды гоппы - 1972
– Йорн Юстесен предлагает Коды Justesen, усовершенствование кодов Рида – Соломона - 1972
– Насир Ахмед предлагает дискретное косинусное преобразование (DCT), которую он разрабатывает совместно с Т. Натараджаном и К. Р. Рао в 1973 г .;[2] DCT позже стал наиболее широко используемым сжатие с потерями алгоритм, основа для мультимедийных форматов, таких как JPEG, MPEG и MP3 - 1973
– Давид Слепян и Джек Вольф открыть и доказать Кодирование Слепяна – Вольфа лимиты на распределенные исходное кодирование[3] - 1976
– Готфрид Унгербёк дает первую статью о решетчатая модуляция; более подробное описание в 1982 году приводит к появлению аналоговых модемов. Горшки скорость от 9,6 кбит / с до 33,6 кбит / с - 1976
- Ричард Паско и Йорма Дж. Риссанен разработать эффективный арифметическое кодирование техники - 1977
– Авраам Лемпель и Джейкоб Зив развивают компрессию Лемпеля – Зива (LZ77 ) - 1989
– Фил Кац издает в .zipформат включая ВЫПУСКАТЬ (Кодирование LZ77 + Хаффмана); позже стал наиболее широко используемым архивным контейнером - 1993
– Клод Берру, Ален Главье и Пунья Титимайшима вводить Турбо коды - 1994
– Майкл Берроуз и Дэвид Уиллер опубликовать Преобразование Барроуза – Уиллера, позже найти применение в bzip2 - 1995
– Бенджамин Шумахер монеты срок кубит и доказывает квантовую теорему бесшумного кодирования - 2006
- первый Асимметричные системы счисления энтропийное кодирование: с 2014 года популярная замена Хаффман и арифметическое кодирование в компрессорах, таких как Facebook Zstandard или же Яблочный LZFSE - 2008
– Эрдал Арыкан вводит полярные коды, первая практическая конструкция кодов, обеспечивающая пропускную способность для широкого спектра каналов.
Рекомендации
- ^ Грей, Роберт М. (2010). «История цифровой речи в режиме реального времени в пакетных сетях: часть II линейного предсказательного кодирования и Интернет-протокола» (PDF). Найденный. Тенденции сигнального процесса. 3 (4): 203–303. Дои:10.1561/2000000036. ISSN 1932-8346.
- ^ Насир Ахмед. "Как я пришел к дискретному косинусному преобразованию". Цифровая обработка сигналов, Vol. 1, вып. 1, 1991, стр. 4-5.
- ^ Слепян, Дэвид С.; Вольф, Джек К. (Июль 1973 г.). «Бесшумное кодирование коррелированных источников информации». IEEE Transactions по теории информации. IEEE. 19 (4): 471–480. Дои:10.1109 / TIT.1973.1055037. ISSN 0018-9448.