проект:    архи.всё -> энтропия
   О термине действие-энтропия-информация
Центр Исследования Хаоса Энтропия
Архитектурный журнал
прессслужба


Лекции
Строительство

 

Существование цели передачи сообщений - главная особенность теории информации

Математическая формализация понятия об информации, которую ввели в первой половине ХХ века Л. Хартли и К. Шеннон относится к  числу величайших достижений науки. Как и для всех достижений науки, в её основе простые наглядные соображения, которые абстрагированы от обиходных понятий и "переведены" на универсальный язык науки - математику.

Для человека, его поведения и разума характерна предварительная постановка цели. Далее человек совершает действия, с помощью которых достигает этой цели. Первично в их основе случайные попытки найти путь достижения поставленной цели . Человек обладает памятью. У него есть языки и письменность, позволяющие передавать запомненное другим людям. Итогом истории явилось слово - информация , которым обозначается то запомненное, что освобождает от повторения множества случайных проб и ошибок, а потому упрощает достижение цели. Отсюда наиболее глобальное, что превращает слово информация в научный термин - информация есть устранённая неопределённость для достижения цели . Первая часть этого определения общепринятая (см., например, учебники [7], [8]). Вторая его часть (о понятии цели) в связи с очевидностью создателями теории информации явно не подчёркивалась. В последние годы множатся попытки использовать классическую теорию информации в биологии. При этом возникают заблуждения и грубые ошибки, так как в биологию не может быть перенесено понятие цели, на котором основана классическая теория информации.

Определение информации, как и введение любой терминологии в науке, аксиоматично. Оно подразумевает участие не определённых явно таких слов, как сообщение, исходы, средства и способы передачи сообщений и подобных - обычной для узких областей науки своей специфической терминологии. При введении понятия - информация производится абстрагирование от способов передачи сообщений, от причин, вызывающих неопределёность, от условий, ограничивающих диапазон неопределённости. Например, адрес, по которому можно найти нужного человека или предмет, может быть передан словом, письмом, электронными кодами. Этот адрес ограничен условиями. Например, он может относится к странам, городам, улицам, домам. Адресом будет и указание места на складе деталей или для поиска материалов в компьютерах и на интернете. Без определения условий адрес смысла не имеет и не может быть использован. В шестидесятые годы ХХ века сочетание символов httр://www. воспринималось бы как абракадабра и не устраняло бы никакой неопределённости. Напоминание ребёнку - иди делай уроки или передача команд космическому аппарату на Марсе тождественно являются информацией. Не важно устранена ли в результате неопределённость получения двойки или открыта внеземная жизнь.

Кстати, информация во вполне человеческом смысле существует у животных и тем более высших. Человек отличается от животных в этом более изощрёнными целями и способами их достижения. Цель, например сорвать и съесть банан, жизненно важна для обезьян. Наблюдение их детёнышами в стаде примеров достижения этой цели есть получение ими информации. В данном случае языком явлются сами действия старших.

Человеческие языки (включая их отображение письменностью и математикой, кодами компьютеров и цифровых методов передачи и приёма сообщений) настолько расширяют возможности использования понятия об информации, что в литературе говорят о качественном отличии информации для человека. Конечно, в наглядном обиходном выражении разница настолько значительна, что многим хочется считать её безоговорочной истиной. Однако это не так. Мышление и человека, и животных (вплоть до самых простых их форм) в равной степени основано на иррациональной абстракции, когда окружающему и внутренним процессам организма сопоставляются экстремумы энтропии и её производства для состояний и связей нейронов [3] - [5]. Отличают человека от животных не какие-то принципиальные особенности, а объём и количество уровней иерархии структур мозга.

Определение информации как устранённой неопределённости автоматически и исчерпывающе обобщает и формализует многочисленные вненаучные обиходные определения информации из прошлого типа:  информация есть сведения о ...;  знания, переданные другим;  сведения в данном сообщении;  то, что имеет на себе сигнал;  отражение в сознании людей;  план строения и подобные. Встречающиеся в литературе попытки реанимировать прошлое ничего, кроме вреда, принести не могут.

Формализация понятия о неопределенности в теории информации

Теория информации возникла для описания передачи и приёма сообщений в процессе деятельности человека. Во всех её задачах присутствуют понятия передатчика и приёмника, сигнала-сообщения, событий и их вероятностей. Существование цели передачи информации в теории информации выражается тем, что вводится понятие известного заданного события. Для него может быть определена вероятность р 0  наступления до приёма сообщения и  р 1  после приёма.

В силу определения информации как устранённой неопределённости в достижении цели строгая (то есть математическая) формализация понятия об информации требует выразить математическим соотношением, что есть неопределённость в достижении цели.

Существование неопределённости связано с участием вероятностей в осуществлении событий. Устранение неопределённости есть увеличение вероятности наступления того, что задано как цель. Поэтому вероятности должны участвовать в математической формулировке величины устранённой неопределённости.  

Первая удачная попытка реализовать определение информации на такой основе осуществлена в 1928 г . Л. Хартли. Пусть возможно в данных условиях  n  вариантов некоторого результата. Целью является один из них. Хартли предложил характеризовать неопределённость логарифмом числа  n.  То есть  log n  является количественной мерой неопределённости. Выбор основания логарифма связан с понятием об алфавитах для описания информации. Этот выбор существенен для экономичности кодирования в технических устройствах или живых системах (сокращения потоков импульсов или аналоговых сигналов), но не меняет самого количества информации как устранённой неопределённости за счёт того, что перед логарифмом вводится безразмерный множитель, выражаемый модулем перехода между основаниями логарифмов. От него зависят названия единиц информации.

При математическом описании неопределённости (например способом Хартли) в случае равновероятных результатов можно перейти от их числа  n  к обратной величине - вероятности  р  одного из них. В терминах связи конкретно говорят о вероятности переданного сообщения   р 0   у приёмника до приёма сообщения. Устранение неопределённости выражается тем, что вероятность переданного сообщения у приёмника после приёма сигнала возрастает и становится   р 1 .  Тогда количественная мера  s  полученной информации (устранённой неопределённости) выражается логарифмом отношения вероятностей

  . страницы:
1  6
2 7
3 8
4  
5  
  . содержание:
       архи. трансформер ( развернуть и cвернуть )
      
  . архи.поиск:
  . архи.другое:
Эффект Ёлки
  . архи.дизайн:
 
  Семён Расторгуев ©  рaдизайн ©


    © А.М. Хазен. 2003г.

    © 2007—2015, проект АрхиВсё,  ссылайтесь...
Всё.