→ По полноте информация бывает. Феномен информации. Прагматические свойства информации

По полноте информация бывает. Феномен информации. Прагматические свойства информации

Информация - это сведения о чем-либо

Понятие и виды информации, передача и обработка, поиск и хранение информации

Развернуть содержание

Свернуть содержание

Информация - это, определение

Информация - это любые сведения, принимаемые и передаваемые, сохраняемые различными источниками. Информация - это вся совокупность сведений об окружающем нас мире, о всевозможных протекающих в нем процессах, которые могут быть восприняты живыми организмами, электронными машинами и другими информационными системами.

- это значимые сведения о чём-либо, когда форма их представления также является информацией, то есть имеет форматирующую функцию в соответствии с собственной природой.

Информация - это все то, чем могут быть дополнены наши знания и предположения.

Информация - это сведения о чём-либо, независимо от формы их представления.

Информация - это психический продукт любого психофизического организма, производимый им при использовании какого-либо средства, называемого средством информации.

Информация - это сведения, воспринимаемые человеком и (или) спец. устройствами как отражение фактов материального или духовного мира в процессе коммуникации.

Информация - это данные, организованные таким образом, что имеют смысл для имеющего с ними дело человека.

Информация - это значение, вкладываемое человеком в данные на основании известных соглашений, используемых для их представления.


Информация - это сведения, разъяснения, изложение.

Информация - это любые данные или сведения, которые кого-либо интересуют.

Информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей - в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.


В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «прямая», «плоскость» через более простые понятия).


Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.


Понятие информации

В современной науке рассматриваются два вида информации:

Объективная (первичная) информация - свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.

Субъективная (семантическая, смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе.


В бытовом смысле информация - сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Согласно концепции К. Шеннона, информация - это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.


С точки зрения Грегори Бетона элементарная единица информации это "небезразличное различие" или действенное различие для какой-то большей воспринимающей системы. Те различия, которые не воспринимаются, он называет "потенциальными", а воспринимаемые - "действенными". "Информация состоит из небезразличных различий» (с) "Любое восприятие информации с необходимостью является получением сведений о различии». С точки зрения информатики, информация обладает рядом фундаментальных свойств: новизна, актуальность, достоверность, объективность, полнота, ценность и др. Анализом информации занимается, прежде всего, наука логика. Слово «информация» происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. Далее рассматривать вопросы теории информации стала новая на то время наука кибернетика.

Иногда для того, чтобы постичь суть какого-то понятия, полезно подвергнуть анализу значение слова, которым это понятие обозначается. Прояснение внутренней формы слова и изучение истории его употребления может пролить неожиданный свет на его смысл, затмеваемый привычным "технологическим" использованием этого слова и современными коннотациями.

Слово информация вошло в русский язык в Петровскую эпоху. Впервые фиксируется в "Духовном регламенте" 1721 г. в значении "представление, понятие о чем-л.". (В европейских языках оно закрепилось раньше - около XIV в.)

Исходя из этой этимологии, информацией можно считать всякое значимое изменение формы или, другими словами, любые материально зафиксированные следы, образованные взаимодействием предметов или сил и поддающиеся пониманию. Информация, таким образом, это превращенная форма энергии. Носителем информации является знак, а способом ее существования - истолкование: выявление значения знака или последовательности знаков.

Значением может быть реконструируемое по знаку событие, послужившее причиной его возникновения (в случае "природных" и непроизвольных знаков, таких, как следы, улики и проч.), либо сообщение (в случае условных знаков, свойственных сфере языка). Именно вторая разновидность знаков составляет тело человеческой культуры, которая, согласно одному из определений, есть "совокупность не наследственно передающейся информации".

Сообщения могут содержать информацию о фактах или интерпретацию фактов (от лат. interpretatio, истолкование, перевод).

Живое существо получает информацию с помощью органов чувств, а также посредством размышления или интуиции. Обмен информацией между субъектами есть общение или коммуникация (от лат. communicatio, сообщение, передача, производное в свою очередь от лат. communico, делать общим, сообщать, беседовать, соединять).

С практической точки зрения информация всегда представляется в виде сообщения. Информационное сообщение связано с источником сообщения, получателем сообщения и каналом связи.


Возвращаясь к латинской этимологии слова информация, попробуем ответить на вопрос, чему именно придается здесь форма.

Очевидно, что, во-первых, некоторому смыслу, который, будучи изначально бесформенным и невыраженным, существует лишь потенциально и должен быть "построен", чтобы стать воспринимаемым и передаваемым.

Во-вторых, человеческому уму, который воспитывается мыслить структурно и ясно. В-третьих, обществу, которое именно благодаря тому, что его члены разделяют эти смыслы и совместно их используют, обретает единство и функциональность.

Информация как выраженный разумный смысл есть знание, которое может храниться, передаваться и являться основой для порождения другого знания. Формы консервации знания (историческая память) многообразны: от мифов, летописей и пирамид до библиотек, музеев и компьютерных баз данных.

Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.

Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений».


В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).


Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.


Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит. Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации. Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке. Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.


Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит. Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.


Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени. Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив. А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.


Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации. Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.


Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».


В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги». Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы. Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

Информацию можно разделить на виды по разным критериям: по истинности: истинная и ложная;

по способу восприятия:

Визуальная - воспринимается органами зрения;

Аудиальная - воспринимается органами слуха;

Тактильная - воспринимается тактильными рецепторами;

Обонятельная - воспринимается обонятельными рецепторами;

Вкусовая - воспринимаемая вкусовыми рецепторами.


по форме представления:

Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка;

Числовая - в виде цифр и знаков, обозначающих математические действия;

Графическая - в виде изображений, предметов, графиков;

Звуковая - устная или в виде записи передача лексем языка аудиальным путём.


по назначению:

Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума;

Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация;

Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам;

Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.


по значению:

Актуальная - информация ценная в данный момент времени;

Достоверная - информация, полученная без искажений;

Понятная - информация, выраженная на языке понятном тому, кому она предназначена;

Полная - информация, достаточная для принятия правильного решения или понимания;

Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.


Значение информации в различных областях знаний

В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.


Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право. Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики. Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.


Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.Понятие «информация» используется в различных науках, при этом в каждой науке понятие «информация»связано с различными системами понятий. Информация в биологии: Биология изучает живую природу и понятие «информация» связывается с целесообразным поведением живых организмов. В живых организмах информация передается и храниться с помощью объектов различной физической природы (состояние ДНК), которые рассматриваются как знаки биологических алфавитов. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Филосовский подход: Информация – это взаимодействие, отражение, познание. Кибернетический подход: Информация – это характеристики управляющего сигнала, передаваемого по линии связи.

Роль информации в философии

Традиционализм субъективного постоянно доминировал в ранних определениях информации, как категории, понятия, свойства материального мира. Информация существует вне нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация не материальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявлений. Информация - свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.


С материальной точки зрения информация - это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т.д. и т.п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Необходимые условия:

Наличие не менее двух различных объектов материального или нематериального мира;

Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации;

Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга;

Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге - это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.


Достаточное условие одно: наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т.д. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения. С математической точки зрения информация - это последовательность целых чисел, которые записаны в вектор. Числа - это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных.

Роль информации в физике

Информация – это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (включая хранение, передачу и т.д.) и используются для выработки поведения, для принятия решения, для управления или для обучения.


Характерными чертами информации являются следующие:

Это наиболее важный ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии. Так, например, обладая умением архивировать свои файлы (т.е. имея такую информацию), можно не тратиться на покупку новых дискет;

Информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;

Информация является товаром, причем продавец информации ее не теряет после продажи. Так, если студент сообщит своему товарищу сведения о расписании занятий в течение семестра, он эти данные не потеряет для себя;

Информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним.


Как следует из определения, с информацией всегда связывают три понятия:

Источник информации – тот элемент окружающего мира (объект, процесс, явление, событие), сведения о котором являются объектом преобразования. Так, источником информации, которую в данный момент получает читатель настоящего учебного пособия, является информатика как сфера человеческой деятельности;

Потребитель информации – тот элемент окружающего мира, который использует информацию (для выработки поведения, для принятия решения, для управления или для обучения). Потребитель настоящей информации – сам читатель;

Сигнал – материальный носитель, который фиксирует информацию для переноса ее от источника к потребителю. В данном случае сигнал носит электронный характер. Если же студент возьмет данное пособие в библиотеке, то та же информация будет иметь бумажный носитель. Будучи прочитанной и запомненной студентом, информация приобретет еще один носитель – биологический, когда она “записывается” в память обучаемого.


Сигнал является важнейшим элементом в данной схеме. Формы его представления, а также количественные и качественные характеристики содержащейся в нем информации, важные для потребителя информации, рассматриваются далее в данном разделе учебника. Основные характеристики компьютера как основного инструмента, выполняющего отображение источника информации в сигнал (связь 1 на рисунке) и “доведение” сигнала до потребителя информации (связь 2 на рисунке), приводятся в части Компьютер. Структура процедур, реализующих связи 1 и 2 и составляющих информационный процесс, является предметом рассмотрения в части Информационный процесс.

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта, всегда приводит к изменению состояния, некоторого другого объекта окружающей среды. Это явление, вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться, как передача сигнала от одного объекта, другому. Изменение состояния объекта при передаче ему сигнала, называется регистрацией сигнала.


Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации. Сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых сигнала в терминологии азбуки Морзе - это буква де (или D), в терминологии БИОС от фирмы AWARD - неисправность видеокарты.

Роль информации в математике

В математике теория информации (математическая теория связи) - раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации - кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.


Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится аксиоматически (аксиома), т.е. без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах – собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами – случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире – как свойство материальных объектов. Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.


"Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке." К. Шеннон.

Роль информации в кибернетике

Основоположник кибернетики Нор берт Винер говорил об информации так:

Информация - это не материя и не энергия, информация - это информация". Но основное определение информации, которое он дал в нескольких своих книгах, следующее: информация - это обозначение содержания, полученное нами из внешнего мира, в процессе приспосабливания к нему нас и наших чувств.

Информация - это основное понятие кибернетики, точно так же экономическая И. - основное понятие экономической кибернетики.


Определений этого термина много, они сложны и противоречивы. Причина, очевидно, в том, что И. как явлением занимаются разные науки, и кибернетика лишь самая молодая из них. И. - предмет изучения таких наук, как наука об управлении, математическая статистика, генетика, теория средств массовой И. (печать, радио, телевидение), информатика, занимающаяся проблемами научно-технической И., и т. д. Наконец, последнее время большой интерес к проблемам И. проявляют философы: они склонны рассматривать И. как одно из основных универсальных свойств материи, связанное с понятием отражения. При всех трактовках понятия И. она предполагает существование двух объектов: источника И. и потребителя (получателя) И. Передача И. от одного к другому происходит с помощью сигналов, которые, вообще говоря, могут не иметь никакой физической связи с ее смыслом: эта связь определяется соглашением. Напр., удар в вечевой колокол означал, что надо собираться на площадь, но тем, кто не знал об этом порядке, он не сообщал никакой И.


В ситуации с вечевым колоколом человек, участвующий в соглашении о смысле сигнала, знает, что в данный момент могут быть две альтернативы: вечевое собрание состоится или не состоится. Или, выражаясь языком теории И., неопределенное событие (вече) имеет два исхода. Принятый сигнал приводит к уменьшению неопределенности: человек теперь знает, что событие (вече) имеет только один исход - оно состоится. Однако, если заранее было известно, что вече состоится в таком-то часу, колокол ничего нового не сообщил. Отсюда вытекает, что чем менее вероятно (т. е. более неожиданно) сообщение, тем больше И. оно содержит, и наоборот, чем больше вероятность исхода до совершения события, тем меньше И. содержит сигнал. Примерно такие рассуждения привели в 40-х гг. XX в. к возникновению статистической, или “классической”, теории И., которая определяет понятие И. через меру уменьшения неопределенности знания о свершении какого-либо события (такая мера была названа энтропией). У истоков этой науки стояли Н. Винер, К. Шеннон и советские ученые А. Н. Колмогоров, В. А. Котельников и др. Им удалось вывести математические закономерности измерения количества И., а отсюда и такие понятия, как пропускная способность канала И., емкость запоминающих И. устройств и т. п., что послужило мощным стимулом к развитию кибернетики как науки и электронно-вычислительной техники как практического применения достижений кибернетики.


Что касается определения ценности, полезности И. для получателя, то здесь еще много нерешенного, неясного. Если исходить из потребностей экономического управления и, следовательно, экономической кибернетики, то И. можно определить как все те сведения, знания, сообщения, которые помогают решить ту или иную задачу управления (т. е. уменьшить неопределенность ее исходов). Тогда открываются и некоторые возможности для оценки И.: она тем полезнее, ценнее, чем скорее или с меньшими затратами приводит к решению задачи. Понятие И. близко понятию данные. Однако между ними есть различие: данные - это сигналы, из которых еще надо извлечь И. Обработка данных есть процесс приведения их к пригодному для этого виду.


Процесс их передачи от источника к потребителю и восприятия в качестве И. может рассматриваться как прохождение трех фильтров:

Физического, или статистического (чисто количественное ограничение по пропускной способности канала, независимо от содержания данных, т. е. с точки зрения синтактики);

Семантического (отбор тех данных, которые могут быть поняты получателем, т. е. соответствуют тезаурусу его знаний);

Прагматического (отбор среди понятых сведений тех, которые полезны для решения данной задачи).

Это хорошо показано на схеме, взятой из книги Е. Г. Ясина об экономической информации. Соответственно выделяются три аспекта изучения проблем И. - синтаксический, семантический и прагматический.


По содержанию И. подразделяется на общественно-политическую, социально-экономическую (в том числе экономическую И.), научно-техническую и т. д. Вообще же классификаций И. много, они строятся по различным основаниям. Как правило, из-за близости понятий точно так же строятся и классификации данных. Напр., И. подразделяется на статическую (постоянную) и динамическую (переменную), и данные при этом - на постоянные и переменные. Другое деление - первичная, производная, выходная И. (так же классифицируются данные). Третье деление - И. управляющая и осведомляющая. Четвертое - избыточная, полезная и ложная. Пятое - полная (сплошная) и выборочная. Эта мысль Винера дает прямое указание на объективность информации, т.е. её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре. Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы.

В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации. Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения.

Роль информации в информатике

Предметом изучения науки являются именно данные: методы их создания, хранения, обработки и передачи. Контент (также: «наполнение» (в контексте), «наполнение сайта») - термин, означающий все виды информации (как текстовой, так и мультимедийной - изображения, аудио, видео), составляющей наполнение (визуализированное, для посетителя, содержимое) веб-сайта. Применяется для отделения понятия информации, составляющей внутреннюю структуру страницы/сайта (код), от той, что будет в итоге выведена на экран.

Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.


Можно выделить следующие подходы к определению информации:

Традиционный (обыденный) - используется в информатике: Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

Вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.


Информация храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной форме:

Знаковой письменной, состоящей из различных знаков среди которых выделяют символьную в виде текста, чисел, спец. символов; графическую; табличную и тд.;

Виде жестов или сигналов;

Устной словесной форме (разговор).


Представление информации осуществляется с помощью языков, как знаковых систем, которые строятся на основе определенного алфавита и имеют правила для выполнения операций над знаками. Язык – определенная знаковая система представления информации. Существуют:

Естественные языки – разговорные языки в устной и письменной форме. В некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык специальных знаков (например, дорожных);

Формальные языки – специальные языки для различных областей человеческой деятельности, которые характеризуются жестко зафиксированным алфавитом, более строгими правилами грамматики и синтаксиса. Это язык музыки (ноты), язык математики (цифры, математические знаки), системы счисления, языки программирования и т.д. В основе любого языка лежит алфавит – набор символов/знаков. Полное число символов алфавита принято называть мощностью алфавита.


Носители информации – среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и тд.)

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Для обеспечения информационного процесса необходим источник информации, канал связи и потребитель информации. Источник передает (отправляет) информацию, а приемник её получает (воспринимает). Передаваемая информация добивается от источника до приемника с помощью сигнала (кода). Изменение сигнала позволяет получить информацию.

Будучи объектом преобразования и использования, информация характеризуется следующими свойствами:

Синтаксис – свойство, определяющее способ представления информации на носителе (в сигнале). Так, данная информация представлена на электронном носителе с помощью определенного шрифта. Здесь же можно рассматривать такие параметры представления информации, как стиль и цвет шрифта, его размеры, междустрочный интервал и т.д. Выделение нужных параметров как синтаксических свойств, очевидно, определяется предполагаемым способом преобразования. Например, для плохо видящего человека существенным является размер и цвет шрифта. Если предполагается вводить данный текст в компьютер через сканер, важен формат бумаги;


Семантика – свойство, определяющее смысл информации как соответствие сигнала реальному миру. Так, семантика сигнала “информатика” заключается в данном ранее определении. Семантика может рассматриваться как некоторое соглашение, известное потребителю информации, о том, что означает каждый сигнал (так называемое правило интерпретации). Например, именно семантику сигналов изучает начинающий автомобилист, штудирующий правила дорожного движения, познавая дорожные знаки (в этом случае сигналами выступают сами знаки). Семантику слов (сигналов) познаёт обучаемый какому-либо иностранному языку. Можно сказать, что смысл обучения информатике заключается в изучении семантики различных сигналов – суть ключевых понятий этой дисциплины;


Прагматика – свойство, определяющее влияние информации на поведение потребителя. Так прагматика информации, получаемой читателем настоящего учебного пособия, заключается, по меньшей мере, в успешной сдаче экзамена по информатике. Хочется верить, что этим прагматика данного труда не ограничится, и он послужит для дальнейшего обучения и профессиональной деятельности читателя.

Следует отметить, что различные по синтаксису сигналы могут иметь одинаковую семантику. Например, сигналы “ЭВМ” и “компьютер” означают электронное устройство для преобразования информации. В этом случае обычно говорят о синонимии сигналов. С другой стороны, один сигнал (т.е., информация с одним синтаксическим свойством) может иметь разную прагматику для потребителей и разную семантику. Так, дорожный знак, известный под названием “кирпич” и имеющий вполне определенную семантику (“въезд запрещен”), означает для автомобилиста запрет на въезд, а на пешехода никак не влияет. В то же время, сигнал “ключ” может иметь разную семантику: скрипичный ключ, родниковый ключ, ключ для открытия замка, ключ, используемый в информатике для кодирования сигнала с целью его защиты от несанкционированного доступа (в этом случае говорят об омонимии сигнала). Есть сигналы - антонимы, имеющие противоположную семантику. Например, "холодный" и "горячий", "быстрый" и "медленный" и т.д.


Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога - геологическая, предпринимателя - коммерческая и т.п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Семиотика - наука о информации

Информацию нельзя себе представить без ее получения, обработки, передачи и т.д., то есть вне рамок обмена информацией. Все акты информационного обмена осуществляются посредством символов или знаков, с помощью которых одна система воздействует на другую. Поэтому основной нayкой, изучающей информацию, является семиотика - наука о знаках и знаковых системах в природе и обществе (теория знаков). В каждом акте информационного обмена можно обнаружить три его «участника», три элемента: знак, объект, который он обозначает, и получателя (использователя) знака.


В зависимости от того, отношения между какими элементами рассматриваются, семиотику разделяют на три раздела: синтактику, семантику и прагматику. Синтактика изучает знаки и отношения между ними. При этом она абстрагируется от содержания знака и от его практического значения для получателя. Семантика изучает отношения между знаками и обозначаемыми ими объектами, отвлекаясь при этом от получателя знаков и ценности последних: для него. Понятно, что изучение закономерностей смыслового отображения объектов в знаках невозможно без учета и использования общих закономерностей построения любых знаковых систем, изучаемых синтактикой. Прагматика изучает отношения между знаками и их использователями. В рамках прагматики изучаются все факторы, отличающие один акт информационного обмена от другого, все вопросы практических результатов использования информации и ценности ее для получателя.


При этом неизбежно затрагиваются многие аспекты отношений знаков между собой и с объектами, ими обозначаемыми. Таким образом, три раздела семиотики соответствуют трем уровням абстрагирования (отвлечения) от особенностей конкретных актов обмена информацией. Изучение информации во всем ее многообразии соответствует прагматическому уровню. Отвлекаясь от получателя информации, исключая его из рассмотрения, мы переходим к изучению ее на семантическом уровне. С отвлечением от содержания знаков анализ информации переводится на уровень синтактики. Такое взаимопроникновение основных разделов семиотики, связанное с различными уровнями абстрагирования, можно представить с помощью схемы «Три раздела семиотики и их взаимосвязь». Измерение информации осуществляется соответственно так же в трех аспектах: синтактическом, семантическом и прагматическом. Потребность в таком различном измерении информации, как будет показано ниже, диктуется практикой проектирования и организации работы информационных систем. Рассмотрим типичную производственную ситуацию.


В конце смены планировщик участка подготавливает данные о выполнении графика производства. Эта данные поступают в информационно-вычислительный центр (ИВЦ) предприятия, где обрабатываются, и в виде сводок о состоянии производства на текущий момент выдаются руководителям. Начальник цеха на основании полученных данных принимает решение об изменении плана производства на следующий плановый период или принятии каких-либо других организационных мер. Очевидно, что для начальника, цеха количество информации, которое содержала сводка, зависит от величины экономического аффекта, полученного от ее использования при принятии решений, от того, насколько полезны были полученные сведения. Для планировщика участка количество информации в том же сообщении определяется точностью соответствия его фактическому положению дел на участке и степенью неожиданности сообщаемых фактов. Чем они неожиданней, тем быстрее нужно сообщить о них руководству, тем больше информации в данном сообщении. Для работников ИВЦ первостепенное значение будет иметь количество знаков, длина сообщения, несущего информацию, поскольку именно она определяет время загрузки вычислительной техники и каналов связи. При этом ни полезность информации, ни количественная мера смысловой ценности информации их практически не интересует.


Естественно, что организуя систему управления производством, строя модели выбора решения, мы в качестве меры информативности сообщений будем использовать полезность информации. При построении системы учета и отчетности, обеспечивающей руководство данными о ходе производственного процесса за меру количества информации следует принимать новизну полученных сведений. Организация же процедур механической переработки информации требует измерения объема сообщений в виде количества обрабатываемых знаков. Три таких существенно различных подхода к измерению информации не противоречат и не исключают друг друга. Наоборот, измеряя информацию в разных шкалах, они позволяют полнее и всестороннее оценить информативность каждого сообщения и эффективнее организовать систему управления производством. По меткому выражению проф. Н.Е. Кобринского, когда речь идет о рациональной организации потоков информации, количество, новизна, полезность информации оказываются между собой так же связанными, как количество, качество и стоимость продукции в производстве.

Информация в материальном мире

Информация - одно из общих понятий, связанных с материей. Информация существует в любом материальном объекте в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия. Существование информации как объективного свойства материи логически вытекает из известных фундаментальных свойств материи - структурности, непрерывного изменения (движения) и взаимодействия материальных объектов.


Структурность материи проявляется как внутренняя расчленённость целостности, закономерный порядок связи элементов в составе целого. Иными словами, любой материальный объект, от субатомной частицы Мета вселенной (Большой взрыв) в целом, представляет собой систему взаимосвязанных подсистем. Вследствие непрерывного движения, понимаемого в широком смысле как перемещение в пространстве и развитие во времени, материальные объекты изменяют свои состояния. Состояния объектов изменяется и при взаимодействиях с другими объектами. Множество состояний материальной системы и всех её подсистем представляет информацию о системе.


Строго говоря, в силу неопределенности, бесконечности, свойства структурности, количество объективной информации в любом материальном объекте бесконечно. Эта информация называется полной. Однако можно выделять структурные уровни с конечными множествами состояний. Информация, существующая на структурном уровне с конечным числом состояний, называется частной. Для частной информации смысл понятие количества информации.

Из приведенного представления логично и просто вытекает выбор единицы измерения количества информации. Представим себе систему, которая может находиться всего в двух равновероятных состояниях. Присвоим одному из них код «1», а другому - «0». Это минимальное количество информации, которое может содержать система. Оно и является единицей измерения информации и называется бит. Существуют и другие, более сложно определяемые, способы и единицы измерения количества информации.


В зависимости от материальной формы носителя, информация бывает двух основных видов - аналоговая и дискретная. Аналоговая информация изменяется во времени непрерывно и принимает значения из континуума значений. Дискретная информация изменяется в некоторые моменты времени и принимает значения из некоторого множества значений. Любой материальный объект или процесс является первичным источником информации. Все возможные его состояния составляют код источника информации. Мгновенное значение состояний представляется как символ («буква») этого кода. Для того чтобы информация могла передаваться от одного объекта другому как к приемнику, необходимо, чтобы был какой-то промежуточный материальный носитель, взаимодействующий с источником. Такими переносчиками в природе, как правило, являются быстро распространяющиеся процессы волновой структуры - космические, гамма и рентгеновские излучения, электромагнитные и звуковые волны, потенциалы (а может быть и ещё не открытые волны) гравитационного поля. При взаимодействии электромагнитного излучения с объектом в результате поглощения или отражения изменяется его спектр, т.е. изменяются интенсивности некоторых длин волн. Изменяются при взаимодействиях с объектами и гармоники звуковых колебаний. Информация передаётся и при механическом взаимодействии, однако механическое взаимодействие, как правило, приводит к большим изменениям структуры объектов (вплоть до их разрушения), и информация сильно искажается. Искажение информации при её передаче называется дезинформация.


Перенос информации источника на структуру носителя называется кодированием. При этом происходит преобразование кода источника в код носителя. Носитель с перенесенным на него кодом источника в виде кода носителя называется сигналом. Приемник сигнала имеет свой набор возможных состояний, который называется кодом приемника. Сигнал, взаимодействуя с объектом-приемником, изменяет его состояния. Процесс преобразования кода сигнала в код приёмника называется декодированием.Передачу информации от источника приемнику можно рассматривать как информационное взаимодействие. Информационное взаимодействие кардинально отличается от других взаимодействий. При всех других взаимодействиях материальных объектов происходит обмен веществом и (или) энергией. При этом один из объектов теряет вещество или энергию, а другой получает их. Это свойство взаимодействий называется симметричностью. При информационном взаимодействии приемник получает информацию, а источник не теряет её. Информационное взаимодействие несимметрично.Объективная информация сама по себе не материальна, она является свойством материи, как, например, структурность, движение, и существует на материальных носителях в виде своих кодов.

Информация в живой природе

Живая природа сложна и разнообразна. Источниками и приемниками информации в ней являются живые организмы и их клетки. Организм обладает рядом свойств, отличающих его от неживых материальных объектов.


Основные:

Непрерывный обмен веществом, энергией и информацией с окружающей средой;

Раздражимость, способность организма воспринимать и перерабатывать информацию об изменениях окружающей среды и внутренней среды организма;

Возбудимость, способность реагировать на действие раздражителей;

Самоорганизация, проявляемая как изменения организма для адаптации к условиям внешней среды.


Организм, рассматриваемый как система, имеет иерархическую структуру. Эта структура относительно самого организма подразделяется на внутренние уровни: молекулярный, клеточный, уровень органов и, наконец, собственно организм. Однако организм взаимодействует и над организменными живыми системами, уровнями которых являются популяция, экосистема и вся живая природа в целом (биосфера). Между всеми этими уровнями циркулируют потоки не только вещества и энергии, но и информации.Информационные взаимодействия в живой природе происходят так же, как и в неживой. Вместе с тем, живая природа в процессе эволюции создала широкое разнообразие источников, носителей и приёмников информации.


Реакция на воздействия внешнего мира проявляется у всех организмов, поскольку она обусловлена раздражимостью. У высших организмов адаптация к внешней среде носит характер сложной деятельности, которая эффективна лишь при достаточно полной и своевременной информации об окружающей среде. Приёмниками информации из внешней среды у них являются органы чувств, к которым относят зрение, слух, обоняние, вкус, осязание и вестибулярный аппарат. Во внутренней структуре организмов имеются многочисленные внутренние рецепторы, связанные с нервной системой. Нервная система состоит из нейронов, отростки которых (аксоны и дендриты) представляют собой аналог каналов передачи информации. Главными органами, обеспечивающими хранение и обработку информации у позвоночных, являются спинной мозг и головной мозг. В соответствии с особенностями органов чувств информацию, воспринимаемую организмом, можно классифицировать как визуальную, слуховую, вкусовую, обонятельную и тактильную.


Попадая на сетчатку человеческого глаза, сигнал особым образом возбуждает составляющие её клетки. Нервные импульсы клеток через аксоны передаются в мозг. Мозг запоминает это ощущение в виде определенной комбинации состояний составляющих его нейронов. (Продолжение примера - в секции "Информация в человеческом обществе"). Накапливая информацию, мозг создает на своей структуре связанную информационную модель окружающего мира. В живой природе для организма - приёмника информации важной характеристикой является её доступность. Количество информации, которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 с.

Исследование организмов затруднено их сложностью. Допустимая для неживых объектов абстракция структуры как математического множества вряд ли допустима для живого организма, потому что для создания более или менее адекватной абстрактной модели организма необходимо учесть все иерархические уровни его структуры. Поэтому сложно ввести меру количества информации. Очень сложно определяются связи между компонентами структуры. Если известно, какой орган является источником информации, то что является сигналом и что приемником?


До появления вычислительных машин биология, занимающаяся исследованиями живых организмов, применяла только качественные, т.е. описательные модели. В качественной модели учесть информационные связи между компонентами структуры практически невозможно. Электронно-вычислительная техника позволила применить в биологических исследованиях новые методы, в частности, метод машинного моделирования, предполагающий математическое описание известных явлений и процессов, происходящих в организме, добавление к ним гипотез о некоторых неизвестных процессах и расчет возможных вариантов поведения организма. Полученные варианты сравниваются с реальным поведением организма, что позволяет определить истинность или ложность выдвинутых гипотез. В таких моделях можно учесть и информационное взаимодействие. Чрезвычайно сложными являются информационные процессы, обеспечивающие существование самой жизни. И хотя интуитивно понятно, что это свойство прямо связано с формированием, хранением и передачей полной информации о структуре организма, абстрактное описание этого феномена представлялось до некоторых пор невозможным. Тем не менее, информационные процессы, обеспечивающие существование этого свойства, частично раскрыты благодаря расшифровке генетического кода и прочтению геномов различных организмов.

Информация в человеческом обществе

Развитие материи в процессе движения направлено в сторону усложнения структуры материальных объектов. Одна из самых сложных структур – человеческий мозг. Пока это единственная известная нам структура, обладающая свойством, которое сам человек называет сознанием. Говоря об информации мы, как мыслящие существа, априорно подразумеваем, что информация, кроме её наличия в виде принимаемых нами сигналов, имеет ещё и какой-то смысл. Формируя в своем сознании модель окружающего мира как взаимосвязанную совокупность моделей его объектов и процессов, человек использует именно смысловые понятия, а не информацию. Смысл - сущность любого феномена, которая не совпадает с ним самим и связывает его с более широким контекстом реальности. Само слово прямо указывает, что смысловое содержание информации могут формировать только мыслящие приемники информации. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание.


Пример (продолжение). Испытав такое ощущение, человек присваивает объекту понятие – «помидор», а его состоянию понятие - «красный цвет». Кроме того, его сознание фиксирует связь: «помидор» – « красного цвета». Это и есть смысл принятого сигнала. (Продолжение примера: ниже в этой секции). Способность мозга создавать смысловые понятия и связи между ними является основой сознания. Сознание можно рассматривать как саморазвивающуюся смысловую модель окружающего мира.Смысл это не информация. Информация существует только на материальном носителе. Сознание человека считается нематериальным. Смысл существует в сознании человека в виде слов, образов и ощущений. Человек может произносить слова не только вслух, но и «про себя». Он также «про себя» может создавать (или вспоминать) образы и ощущения. Однако, он может восстановить информацию, соответствующую этому смыслу, произнеся слова или написав их.

Пример (продолжение). Если слова «помидор» и «красный цвет» - смысл понятий, то где же тогда информация? Информация содержится в мозге в виде определенных состояний его нейронов. Она содержится также в напечатанном тексте, состоящем из этих слов, и при кодировании букв трехразрядным двоичным кодом её количество равно 120 бит. Если произнести слова вслух, информации будет значительно больше, но смысл останется тем же. Наибольшее количество информации несёт зрительный образ. Это отражается даже в народном фольклоре - "лучше один раз увидеть, чем сто раз услышать".Восстановленная таким образом информация называется семантической информацией, поскольку она кодирует смысл некоторой первичной информации (семантика). Услышав (или увидев) фразу, произнесенную (или написанную) на языке, которого человек не знает, он получает информацию, но не может определить её смысл. Поэтому для передачи смыслового содержания информации необходимы некоторые соглашения между источником и приемником о смысловом содержании сигналов, т.е. слов. Такие соглашения могут быть достигнуты в процессе общения. Общение является одним из важнейших условий существования человеческого общества.

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга. Возрастающая сложность задач научных исследований привела к необходимости привлечения к их решению больших коллективов ученых разных специальностей. Поэтому практически все рассматриваемые ниже теории являются междисциплинарными. Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки - кибернетика и информатика.


Современная кибернетика - это мульти дисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:

Человеческое общество (социальная кибернетика);

Экономика (экономическая кибернетика);

Живой организм (биологическая кибернетика);

Человеческий мозг и его функция - сознание (искусственный интеллект).


Информатика, сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации. Обе эти отрасли используют несколько основополагающих научных теорий. К ним относятся теория информации, и её разделы - теория кодирования, теория алгоритмов и теория автоматов. Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика.Теория информации - комплексная, в основном математическая теория, включающая в себя описание и оценки методов извлечения, передачи, хранения и классификации информации. Рассматривает носители информации как элементы абстрактного (математического) множества, а взаимодействия между носителями как способ расположения элементов в этом множестве. Такой подход дает возможность формально описать код информации, то есть определить абстрактный код и исследовать его математическими методами. Для этих исследований применяет методы теории вероятностей, математической статистики, линейной алгебры, теории игр и других математических теорий.


Основы этой теории заложил американский учёный Э. Хартли в 1928 г., который определил меру количества информации для некоторых задач связи. Позднее теория была существенно развита американским учёным К. Шенноном, российскими учёными А.Н. Колмогоровым, В.М Глушковым и др.Современная теория информации включает в себя как разделы теорию кодирования, теорию алгоритмов, теорию цифровых автоматов (см. ниже) и некоторые другие.Существуют и альтернативные теории информации, например "Качественная теория информации", предложенная польским учёным М. Мазуром.C понятием алгоритма знаком любой человек, даже не подозревая об этом. Вот пример неформального алгоритма:«Помидоры нарезать кружочками или дольками. Положить в них нашинкованный лук, полить растительным маслом, затем посыпать мелко нарезанным стручковым перцем, перемешать. Перед употреблением посыпать солью, уложить в салатник и украсить зеленью петрушки». (Салат из помидоров).


Первые в истории человечества правила решения арифметических задач были разработаны одним из известных учёных древности Аль - Хорезми в IX веке нашей эры. В его честь формализованные правила для достижения какой-либо цели называют алгоритмами.Предметом теории алгоритмов является нахождение методов построения и оценки эффективных (в том числе и универсальных) вычислительных и управляющих алгоритмов для обработки информации. Для обоснования таких методов теория алгоритмов использует математический аппарат теории информации.Современное научное понятие алгоритмов как способов обработки информации введено в работах Э. Поста и А. Тьюринга в 20-х годах ХХ века (Машина Тьюринга). Большой вклад в развитие теории алгоритмов внесли русские ученые А. Марков (Нормальный алгоритм Маркова) и А. Колмогоров.Теория автоматов - раздел теоретической кибернетики, в котором исследуются математические модели реально существующих или принципиально возможных устройств перерабатывающих дискретную информацию в дискретные моменты времени.


Понятие автомата возникло в теории алгоритмов. Если существуют некоторые универсальные алгоритмы решения вычислительных задач, то должны существовать и устройства (пусть и абстрактные) для реализации таких алгоритмов. Собственно, абстрактная машина Тьюринга, рассматриваемая в теории алгоритмов, является в то же время и неформально определённым автоматом. Теоретическое обоснование построения таких устройств является предметом теории автоматов.Теория автоматов использует аппарат математических теорий – алгебры, математической логики, комбинаторного анализа, теории графов, теории вероятностей и др.Теория автоматов вместе с теорией алгоритмов являются основной теоретической базой для создания электронных вычислительных машин и автоматизированных управляющих систем.Семиотика - комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики - семантике. Предметом исследований семантики является смысловое содержание информации.


Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, – номинант). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839-1914), Ч. Моррис (р. 1901), Р. Карнап (1891-1970) и др.Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом. Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов - раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность - графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.


В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и база знаний.

Передачей семантической информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) - ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы - наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.


Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации - электромагнитные колебания (электрические колебания, радиоволны, свет). Реализация этих способов требует:

Предварительного переноса информации, содержащейся в сообщении, на носитель - кодирования;

Обеспечения передачи полученного таким образом сигнала адресату по специальному каналу связи;

Обратного преобразования кода сигнала в код сообщения - декодирования.

Использование электромагнитных носителей делает доставку сообщения адресату почти мгновенной, однако требует дополнительных мер по обеспечению качества (достоверности и точности) передаваемой информации, поскольку реальные каналы связи подвержены воздействию естественных и искусственных помех. Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Обработка информации

Поскольку информация не материальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными. Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления, необходимо преобразование аналоговой информации. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.


Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры - смысл либо есть, либо его нет. А сколько его, если он есть - установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.


Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин. Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.

Аналоговая и цифровая информация

Звук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения.


Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:

U(t)=K(P(t)-P_0),

где U(t) – электрическое напряжение, P(t) – давление воздуха, P_0 – среднее давление воздуха, а K – коэффициент преобразования.

И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции U(t) и P(t) являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.


Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по-разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.

Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т.д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.

Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное приимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете хранится в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.

Количество информации

Человек или какой нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность – получили информацию.


Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, насколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.

Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру. Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:

I = -(p_1 \log_{2}p_1 + p_2 \log_{2}p_2 + ... +p_N \log_{2}p_N), где

I – количество информации;

N – количество исходов;

p_1, p_2, ..., p_N- вероятности исхода.

Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.

Для равновероятных событий формулу можно упростить:

I = \log_{2}N, где

I – количество информации;

N – количество исходов.

Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили \log_{2}2=1 бит информации.

Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней – шесть равновероятных событий. Получаем: \log_{2}6 \approx 2,6. После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.


Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?

-\left({{1 \over {10^{10}}} \log_2{1 \over {10^{10}}} + \left({ 1 - {1 \over {10^{10}}}} \right) \log_2 \left({ 1 - {1 \over {10^{10}}} }\right)} \right) \approx 3,4 \cdot 10^{-9} бита.

Предположим, что мы бросили 8 монет. У нас 2^8 вариантов падения монет. Значит после броска монет мы получим \log_2{2^8}=8 бит информации.

Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос мы получаем один бит информации.


Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность – бесконечное количество информации.

Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «Войне и мир», с помощью двухзначных цифр - их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» - код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).

Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы. Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации». В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть отверстие – нет отверстия, заряжено – не заряжено, отражает свет – не отражает свет, высокий электрический потенциал – низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое – цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.


Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт - 1 из 256 (2^8). Для измерения количества информации также принято использовать более крупные единицы:

1 Кбайт (один килобайт) 210 байт = 1024 байта

1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

1 Гбайт (один гигабайт) 210 Мбайт = 1024 Мбайта

Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 10^3, 10^6 и 10^9, соответственно, но исторически сложилась практика использования множителей со степенями двойки.


Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации. Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.

Дезинформация - заведомо ложная информация, предоставляемая противнику или деловому партнёру для более эффективного ведения боевых действий, сотрудничества, проверки на утечку информации и направление её утечки, выявление потенциальных клиентов чёрного рынка.Также дезинформацией (также дезинформированные) называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, искажения контекста, искажения части информации.


Цель такого воздействия всегда одна - оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель - это действие, которое будет предпринято оппонентом.

Дезинформация, таким образом, - это продукт деятельности человека, попытка создать ложное впечатление и, соответственно подтолкнуть к желаемым действиям и/или бездействию.

Виды дезинформации:

Введение в заблуждение конкретного лица или группы лиц (в том числе и целой нации);

Манипулирование (поступками одного человека или группы лиц);

Создание общественного мнения относительно какой-то проблемы или объекта.

Введение в заблуждение - это не что иное, как прямой обман, предоставление ложной информации. Манипулирование - это способ воздействия, направленный непосредственно на изменение направления активности людей. Выделяют следующие уровни манипулирования:

Усиление существующих в сознании людей выгодных манипулятору ценностей (идей, установок);

Частичное изменение взглядов на то или иное событие или обстоятельство;

Кардинальное изменение жизненных установок.

Создание общественного мнения - это формирование в обществе определённого отношения к выбранной проблеме.


Источники и ссылки

ru.wikipedia.org – свободная энциклопедия Википедия

youtube.com - видеохостинг ютуб

images.yandex.ua - картинки яндекс

google.com.ua - картинки гугл

ru.wikibooks.org - викиучебник

inf1.info – Планета Информатики

old.russ.ru – Русский Журнал

shkolo.ru – Информационный справочник

5byte.ru – Сайт информатики

ssti.ru – Информационные технологии

klgtu.ru - Информатика

informatika.sch880.ru - сайт учителя информатики О.В. Подвинцевой

bibliofond.ru - электронная библиотека Библиофонд

life-prog.ru - программирование

Информация о совершенных хозяйственных операциях (фактах
хозяйственной деятельности), отраженная в первичных оправдатель
ных документах, должна быть отражена на счетах (в регистрах бухгал
терского учета) методом двойной записи. Счета и двойная запись -
важнейшие, ключевые элементы бухгалтерской методологии.
Бухгалтерский счет (как метод) представляет собой способ груп
пировки и текущего отражения информации об однородных объектах
бухгалтерского учета. Метод бухгалтерского счета и двойной записи
применяется на стадии накопления и обобщения информации об объ
ектах бухгалтерского учета организации. В бухгалтерских счетах ин
формация об объектах бухгалтерского учета отражается в денежном
выражении, в валюте Российской Федерации - рублях и копейках.

На каждый элемент (объект) хозяйственной деятельности откры
вается отдельный счет. По внешнему виду счет представляет собой
таблицу, состоящую из двух частей.

Номер и название счета

Дебет (Д)
Сальдо начальное (Сн) отражается по
дебету на активных счетах
мых по дебету счета
Обороты по дебету (Од)
Сальдо конечное (Ск) отражается по
дебету на активных счетах

Кредит (К)
Сн отражается по кредиту на пассив
ных счетах
Информация об операциях, отражае
мых по кредиту счета
Обороты по кредиту (Ок)
Ск отражается по кредиту на пассив
ных счетах

В начале таблицы указываются номер и название счета, которые
соответствуют, как правило, названию объекта учета, информация
о котором будет отражаться на данном счете. Например, счет 01 «Ос
новные средства», счет 50 «Касса», счет 80 «Уставный капитал», счет
20 «Основное производство» и др.
Левая часть бухгалтерского счета называется дебет (от лат. debet -
он должен, сокращенно Д), правая часть - кредит (от лат. creditum -
ссуда, долг, сокращенно К). «Дебет» и «кредит» являются условными
техническими терминами, означающими название сторон счета. Сум
ма операций, отраженных за отчетный период по дебету счета, называ
ется оборотами по дебету (Од), и соответственно сумма операций,
отраженных за отчетный период по кредиту счета, называется оборо
тами по кредиту (Ок).
Для обозначения остатков на счетах бухгалтерского учета пользу
ются термином сальдо (от итал. saldo - расчет). Обычно сальдо на на
чало месяца (отчетного периода) обозначается как Сн, а сальдо на ко
нец месяца (отчетного периода) - Ск. Конечное сальдо по каждому
счету переносится на этот же счет как сальдо начальное для последу
ющего учета в новом отчетном периоде, и, таким образом, реализуется
принцип непрерывности учета.
Открыть счет - значит отразить на нем сальдо начальное либо хо
тя бы одну операцию. Закрыть счет означает свести его сальдо к нулю.
Иными словами, если на счете определяется нулевое сальдо, то следу
ет говорить о закрытии данного счета.
Бухгалтерские счета можно классифицировать по различным ос
нованиям в зависимости от целей учета.
По экономическому содержанию счета делятся на: счета учета
внеоборотных активов, производственных запасов, затрат на произ
водство, учета готовой продукции и товаров, денежных средств, расче

тов, капитала, финансовых результатов. Данная классификация ис
пользуется для группировки счетов в Плане счетов бухгалтерского
учета финансово хозяйственной деятельности организаций.
По степени детализации информации об объектах учета счета
подразделяются на синтетические, субсчета и аналитические.
По отношению к балансу (по принадлежности имущества и обя
зательств) - на балансовые и забалансовые.
По отношению к сторонам баланса балансовые счета делятся на
активные, пассивные и активно пассивные.
Синтетические счета служат для отражения информации только
в денежном выражении об укрупненных объектах бухгалтерского учета.
На синтетических счетах бухгалтерского учета ведется синтетиче
ский учет, который в соответствии с Законом о бухгалтерском учете
представляет собой учет обобщенных данных бухгалтерского учета
о видах имущества, обязательств и хозяйственных операций по опре
деленным экономическим признакам.
Названия и номера синтетических счетов унифицированы и сгруп
пированы в Плане счетов бухгалтерского учета.
Отдельные синтетические счета (счета первого порядка) даны
в Плане счетов в разрезе субсчетов (счетов второго порядка). На суб
счетах детализируется информация внутри синтетического (главного)
счета. На субсчетах информация отражается только в денежном выра
жении. Субсчета - это синтетические счета второго порядка. Остатки
(сальдо) синтетических счетов группируются в форме № 1 бухгалтер
ской отчетности организации - бухгалтерском балансе.
Аналитические счета открываются в развитие синтетических сче
тов (или субсчетов) под каждый конкретный, принадлежащий данно
му предприятию объект бухгалтерского учета. Учет, который ведется
на аналитических счетах, называется аналитическим учетом. В соот
ветствии с Законом о бухгалтерском учете аналитический учет ведет
ся в лицевых, материальных и иных аналитических счетах бухгалтер
ского учета, группирующих детальную информацию об имуществе,
обязательствах и о хозяйственных операциях внутри каждого синте
тического счета.
На аналитических счетах учет ведется как в натуральных, так
и в денежных измерителях.
Разработка системы аналитических счетов осуществляется каждой
организацией самостоятельно. Перечень используемых организацией
аналитических счетов содержится в рабочем плане счетов бухгалтер
ского учета, который является важнейшим элементом учетной поли
тики организации.
Рабочий план счетов представляет собой перечень используемых
в данной организации синтетических счетов с их детальной разбивкой
на субсчета и аналитические счета.

4.3. Понятие бухгалтерского счета. Порядок отражения информации на счетах бухучета

Аналитическим счетам произвольно дают названия и присваивают
номера. Состав аналитических счетов организации зависит от многих
факторов, прежде всего от вида деятельности. Так, в развитие синтети
ческого счета 01 «Основные средства» в организации, основной вид
деятельности которой строительство, могут быть открыты субсчета
«Строительные машины», «Легковые автомобили» и др. В свою оче
редь, в развитие субсчетов на каждый инвентарный объект основных
средств открывается аналитический счет. Например, к субсчету
«Строительные машины» могут быть открыты субсчета «Подъемный
кран», «Бетономешалка» и т. д. В торговле к счету 01 «Основные сред
ства» могут быть открыты субсчета «Холодильные установки», «Кас
совые аппараты» и др. И уже к каждому субсчету будут открыты ана
литические счета для учета конкретной холодильной установки или
кассового аппарата.
На практике информация о совершенных хозяйственных операци
ях, зафиксированная в документах, прежде отражается в аналитичес
ком счете в натуральных и денежных измерителях, а затем уже обоб
щается в соответствующем синтетическом счете только в денежном
выражении. Таким образом, между синтетическими и аналитическими
счетами существует взаимосвязь, которая выражается в следующем.
Аналитические счета ведутся для детализации информации, отра
жаемой на синтетическом счете.
На синтетическом счете информация об укрупненных объектах
учета записывается общей суммой, а на аналитических счетах - част
ными суммами, дающими в итоге ту же сумму, что и на синтетическом
счете.
Балансовые и забалансовые счета. Балансовые счета предназна
чены для учета информации об объектах, принадлежащих данной ор
ганизации, а забалансовые - для учета информации об объектах, не
принадлежащих ей, но временно ею используемых. Балансовые синте
тические счета имеют двухзначный номер и сгруппированы в восьми
разделах Плана счетов. Информация о конечных остатках балансовых
счетов группируется в активе или пассиве бухгалтерского баланса.
На балансовых счетах учет ведется методом двойной записи.
Забалансовые синтетические счета в Плане счетов представлены
обособленно. Они имеют трехзначный номер, и при отражении на них
информации не применяется метод двойной записи. В бухгалтерском
балансе итоговая информация по забалансовым счетам отражается в ви
де Справки о наличии ценностей, учитываемых на забалансовых счетах.
В свою очередь, балансовые счета в зависимости от того, что на них
отражается и каков характер сальдо, бывают активными, пассивными
и активно пассивными.
Активные счета предназначены для отражения информации об
имуществе организации. Активные синтетические счета сгруппирова

Глава 4. Основы методологии бухгалтерского учета

ны в основном в разделах с первого по пятый (включительно) Плана
счетов бухгалтерского учета.
Пассивные счета предназначены прежде всего для отражения ин
формации о капиталах и резервах организации, о займах и кредитах,
о размерах начисленной заработной платы. Пассивные синтетические
счета сгруппированы (в основном) в седьмом разделе Плана счетов.
Активно пассивные счета предназначены для отражения информа
ции о расчетах с различными контрагентами (о выявленной дебитор
ской либо кредиторской задолженности), о финансовых результатах
деятельности организации (доходах, расходах, прибылях, убытках).
Активно пассивные синтетические счета сгруппированы в основном
в шестом разделе Плана счетов - «Расчеты», а также это счета 84
«Нераспределенная прибыль (непокрытый убыток)», 90 «Продажи»,
91 «Прочие доходы и расходы», 99 «Прибыли и убытки».
Существуют правила отражения информации на балансовых ак
тивных, пассивных и активно пассивных счетах.
Так, на активных счетах:
1) сальдо начальное всегда отражается в дебете (и на синтетичес
ких, и на аналитических счетах);
2) информация об увеличении имущества отражается по дебету
счета;
3) информация об уменьшении (списании) имущества отражается
по кредиту счета;
4) дебетовые обороты по активным счетам увеличивают конечное
сальдо, а кредитовые - уменьшают;
5) сальдо конечное может быть только дебетовым либо нулевым
(счет закрыт), так как имущество не может выбывать в размерах боль
ших, чем оно имеется. Сальдо конечное рассчитывается по формуле
Ск = Сн + Од – Ок,

где Ск
Сн
Од
Он

-
-
-
-

сальдо конечное;
сальдо начальное по данному активному счету;
обороты по дебету данного счета;
обороты по кредиту данного счета;

6) дебетовые конечные сальдо активных счетов в конце отчетного
периода отражаются в активе баланса по соответствующим статьям.

Еще по теме 4.3. ПОНЯТИЕ БУХГАЛТЕРСКОГО СЧЕТА. ПОРЯДОК ОТРАЖЕНИЯ ИНФОРМАЦИИ НА СЧЕТАХ БУХГАЛТЕРСКОГО УЧЕТА:

  1. 4.1 Понятие о счетах бухгалтерского учета как элементе метода бухгалтерского учета
  2. 5.2 Классификация счетов бухгалтерского учета по структуре
  3. 1.2 Глобализация в мировой системе и ее влияние на учетные концепции бухгалтерского учета
  4. 2.4 Институциональная преемственность в бухгалтерском учете (эволюция концепций и практики)
  5. 3.3 Анализ тенденций развития теории бухгалтерского учета
  6. 3.5 Взаимосвязь теории и методологии бухгалтерского учета
  7. 1.18. ОСНОВНЫЕ НОРМАТИВНЫЕ ДОКУМЕНТЫ, ОПРЕДЕЛЯЮЩИЕ МЕТОДОЛОГИЧЕСКИЕ ОСНОВЫ, ПОРЯДОК ОРГАНИЗАЦИИ И ВЕДЕНИЯ БУХГАЛТЕРСКОГО УЧЕТА В ОРГАНИЗАЦИЯХ РОССИЙСКОЙ ФЕДЕРАЦИИ
  8. 6.2. Порядок отражения в бухгалтерской отчетности событий после отчетной даты
  9. 4.1. РОЛЬ И ЗНАЧЕНИЕ ДОКУМЕНТОВ В СИСТЕМЕ БУХГАЛТЕРСКОГО УЧЕТА. ПОРЯДОК ИСПРАВЛЕНИЯ ОШИБОК В ДОКУМЕНТАХ
  10. 4.3. ПОНЯТИЕ БУХГАЛТЕРСКОГО СЧЕТА. ПОРЯДОК ОТРАЖЕНИЯ ИНФОРМАЦИИ НА СЧЕТАХ БУХГАЛТЕРСКОГО УЧЕТА
  11. Пример отражения информации на активном синтетическом счете
  12. Пример отражения информации на пассивном синтетическом счете

- Авторское право - Адвокатура - Административное право - Административный процесс - Антимонопольно-конкурентное право - Арбитражный (хозяйственный) процесс - Аудит - Банковская система - Банковское право - Бизнес - Бухгалтерский учет - Вещное право - Государственное право и управление - Гражданское право и процесс - Денежное обращение, финансы и кредит - Деньги - Дипломатическое и консульское право -

ОБЩИЕ ПОЛОЖЕНИЯ

Глава 1. Информационное право как отрасль права

Создание современных сложных информационных технологий нового поколения обусловило почти безграничные возможности общества и государства в получении и использовании информации. В результате информация превратилась в важнейший ресурс государства наряду с его другими основными ресурсами – природными, экономическими, трудовыми, материальными.

В философской литературе сложилась устойчивая традиция рассмотрения информации на основе философских категорий отражения и различия (разнообразия). Информация не существует без отражения, как и отражение без информации. Свойство отражения заключается в способности любого объекта воспроизводить некоторые особенности воздействующих на него объектов. Однако для определения понятия информации одной категории отражения недостаточно. Информация имеет место только там, где среди некоторого тождества существует определенное различие. Единицей измерения информации может считаться элементарное различие, т.е. различие между двумя объектами в каком‑либо одном фиксированном свойстве. Чем больше в совокупности отличных друг от друга элементов, тем больше эта совокупность содержит информации. Таким образом, информация в философии определяется как отраженное разнообразие, а именно разнообразие, которое отражающий объект содержит об отражаемом.

Выделяются четыре вида отражения : в неживой естественной природе (элементарное отражение), в живой природе (биологическое отражение), в обществе (социальное отражение) и в искусственной природе.

Основным формам отражения соответствуют четыре вида информации :

– элементарная (в неживой природе);

– биологическая (в объектах живой природы);

– социальная (в обществе);

– технико‑кибернетическая (в автоматизированных устройствах).

Как отмечает И.А. Юрченко, особенностью информации является то, что ее невозможно представить без какой‑либо материальной основы, она является атрибутом (свойством) материи и неотделима от нее. Даже тогда, когда информация отражается сознанием человека, она существует лишь в единстве с определенными нейрофизиологическими процессами, т.е. имеет свой материальный носитель. Следует отметить, что в идеалистическом представлении допускается существование информации самостоятельно, без носителя, например душа человека, информационное поле Земли и т.п.

Социальная информация – это информация, получаемая и используемая людьми . Она существует в двух формах – материальная и идеальная. Материальная социальная информация – это «потенциальная» информация, существующая как «вещь в себе». Она присутствует в объектах, испытавших на себе воздействие человека (это, например, техника, другие предметы, созданные человеком, новые сорта растений и породы животных и т.п.). Информация, которую человек извлекает из окружающей среды и отображает своим сознанием, превращается в идеальную социальную информацию.



Идеальная социальная информация – это воспринятое содержание сообщения относительно того или иного факта, передаваемое индивидом или группой таковых в вербальной или любой другой знаковой либо образной форме другому индивиду или группе таковых . Именно этот вид социальной информации является объектом правового регулирования. То есть правовое регулирование информации как предмета возможно, только если эта информация отображена человеком.

В конце 50‑х гг. один из основоположников кибернетики Н. Виннер определил информацию как «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств. Процесс получения и использования информации является процессом нашего приспособления к случайностям внешней среды и нашей жизнедеятельности в этой среде». В данном определении ученый впервые затрагивает проблему неполноты получаемой индивидом информации, с одной стороны, а с другой – необходимость защиты сведений от «случайностей внешней среды».

Развитие информационных технологий заставляет интенсивно совершенствовать законодательную базу, вводит в юридическую сферу понятия, ранее применявшиеся в кибернетике и информатике.

Кроме того, для того чтобы информацию можно было подвергнуть правовому регулированию, она должна обладать соответствующими так называемыми юридическими свойствами.

К юридическим свойствам информацииотносятся следующие.

1. Физическая неотчуждаемость – информацию невозможно отделить от материального носителя. Например, если человек сочинил стихотворение или написал рассказ и хочет его продать, эта информация не исчезнет у него после совершения сделки, как если бы он продал машину или шкаф; таким образом, отчуждение информации заменяется передачей прав на ее использование.

2. Обособленность – информация для включения в гражданский оборот используется в виде символов, знаков, таким образом обособляется от производителя и существует отдельно.

3. Двуединство информации и носителя – заключается в том, что информация – это вещь на материальном носителе.

4. Распространяемость (тиражируемость) – возможность распространения неограниченного количества экземпляров без изменения содержания информации.

5. Организационная форма информации – документ.

6. Экземплярность – существование информации на отдельном материальном носителе, отсюда учет количества экземпляров через учет количества носителей.

Конечно, правовое понятие информации несколько у́же, чем философское. Так, ст. 2 Федерального закона от 20 февраля 1995 г. № 24‑ФЗ «Об информации, информатизации и защите информации» дает следующее определение: «Информация – сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления» . Новый Федеральный закон № 149‑ФЗ от 27 июля 2006 года «Об информации, информационных технологиях и о защите информации»(далее – Закон об информации) в ст. 2 расширил понятие «информация»: «Информация – сведения (сообщения, данные) независимо от формы их представления). В приведенном контексте термин „информация“ становится универсальным, он обозначает любые сведения о ком‑либо или о чем‑либо, получаемые из любого источника в любой форме: письменной, устной, визуальной и т.п. В данном определении сведения понимаются как реальные объекты социальной жизни: лица, предметы, факты, события, явления, процессы. Эти сведения могут служить и объектом познания, и ресурсом пополнения информационной базы: с одной стороны, сведения могут быть получены в результате исследования окружающей действительности и приобщены к уже существующей объективной системе знаний о мире, а с другой – быть объектом поиска, производимого конкретным потребителем для достижения его целей.

Каждый день мы узнаем массу информации разными способами: видим, слышим, ощущаем на вкус и запах, трогаем, читаем, общаемся, думаем, осмысливаем. Информация есть повсюду! Казалось бы, все просто, информация – это сведения, которые мы получаем из окружающего мира. Но если взглянуть на понятие информации шире, можно узнать много разных нюансов этого вопроса, о которых Вы могли раньше не знать. Поэтому давайте рассмотрим понятие информации, свойства информации и ее виды в науке более подробно.

Определение информации

Информация – достаточно объемное понятие, которое можно определить по-разному. Если рассматривать информацию широко, то она будет иметь абстрактный смысл со множеством значений, а конкретику можно будет определить только в контексте.

В более узком смысле информация – это сведения (данные, сообщения), представленные в разных формах, которые воспринимает человек или специальное устройство.

Есть и такое определение информации: это сведения и данные, которые осведомляют людей о состоянии и положении дел (ярчайший пример – СМИ: радио, печать, телевидение, кино, Интернет).

Также информацию можно определить как совокупность данных, которые хранятся на материальном носителе и распространяются в пространстве и времени.

Если подходить к понятию информации с чисто научной точки зрения, то произведения искусства не будут считаться чистой информацией. Также, в зависимости от конкретной области науки, можно дать различные определения информации. Например, в философии информацией считается познание, отражение и взаимодействие, в биологии информация связана с поведением живых организмов.

Особенности информации

С определением информации мы разобрались, теперь переходим к основным свойствам информации. Их можно выделить много, мы же рассмотрим несколько наиболее значимых. На информацию влияют свойства исходных данных (содержание информации) и свойства методов, которые фиксируют информацию. Начнем по порядку.

Объективность

В свойства информации на первое место нужно поставить объективность. Объективность информации заключается в ее независимости от субъективного человеческого мнения, то есть, объективная информация для всех одинакова.

Например, выражение: «Эти брюки дорого стоят» не может быть признано информацией в узком научном понимании, потому что в нем отражается субъективное мнение. Для одного они дорогие, для другого – вполне по карману, а третий их вообще считает дешевыми. А вот выражение «Эти брюки стоят три тысячи рублей» является объективной информацией, так как воспринимается всеми одинаково. И тому, для кого брюки будут дороги, и тому, кто может себе их позволить, и тому, кто считает брюки совсем недорогими – всем им предоставлены одинаковые данные: брюки стоят три тысячи.

Достоверность

В свойства информации также входит ее достоверность. По-другому достоверность можно определить как правдивость и истинность. Объективная информация всегда будет достоверной, но достоверная не всегда будет объективной, она может носить и субъективный характер.

Например: «Этот фильм очень хороший!» - это субъективная информация, ведь одному может понравиться этот фильм, а другому – нет (в этом примере рассматриваем информацию в широком смысле, поэтому признаем ее возможность быть субъективной). Если человек, говоривший эту фразу, действительно думал так, как говорил, то это выражение считается достоверной информацией, то есть, правдивой. Получается, что наш пример является субъективной и достоверной информацией.

Недостоверной информация становится в том случае, когда ее смысл искажен по разным причинам: преднамеренно или непреднамеренно, из-за недостаточной точности, вследствие воздействия различных помех.

Точность и полнота

Какие свойства информации еще можно выделить? Несомненно, это точность и полнота информации. Точность – это степень близости информации к реальному состоянию вещей, явлений, процессов, объектов. Чем точнее информация, тем она лучше. Также с понятием точности информации связано понятие о ее полноте. Информация считается полной, если ее количества достаточно для правильного осмысливания и понимания, для верного принятия решений. Неполная информация способна привести к ошибочному пониманию и к неправильным выводам.

Допустим, парень идет по улице со своей родной сестрой и встречает по пути свою девушку, с которой строит отношения. Все останавливаются и начинают разговаривать. Если парень представит незнакомку своей девушке неточно и неполно, например: «Знакомься, это Ира», то она может подумать, что он ей изменяет с Ирой, встречается с ней за ее спиной, начнет ревновать и требовать объяснений. Если он скажет: «Знакомься, это Ира, моя родная сестра, приехала погостить на пару дней», то девушка точно будет знать, что Ирина не опасна для их отношений и является просто близкой родственницей парня. Таким образом, она получит точную и полную информацию о новой знакомой и сделает правильные выводы.

Актуальность

К свойствам информации нужно отнести и ее актуальность – важность, значимость, насущность в настоящий момент. Актуальность информации особо важна для новостных СМИ, так как новость всегда должна быть свежей, иметь непосредственное отношение к настоящему.

Приведем пример неактуальной информации. Выражение «В прошлом году я чистил снег около дома» уже неактуально этой зимой, так как выпал новый снег и нужно убирать уже его, снег в прошлом году уже никого не интересует.

Ценность

К основным свойствам информации относится ее ценность. Ценность информации – это ее полезность. Она определяется в соответствии с нуждами конкретных людей, с тем, насколько хорошо информация удовлетворяет потребности отдельного человека. Например, у мужчины заболел желудок, и он ищет в Интернете информацию о том, почему болит желудок. Если он найдет хорошо написанную статью с объяснением причин, по которым болит желудок, то такая информация будет для него ценной. Если же он найдет статью, где, допустим, будет объясняться, почему болит печень, то такая информация будет для него бесполезной, так как она не интересует его и не нужна в данный момент.

Мы рассмотрели основные, наиболее общие свойства информации. Но информация может иметь и ряд дополнительных свойств. Кратко перечислим их:

  • Атрибутивные – непрерывность (возможность постоянно накапливать данные) и дискретность (деление на отдельные части и знаки).
  • Динамические – копирование информации, передача к потребителю от источника, перевод на разные языки, перенесение на другие носители информации, старение информации.
  • Практические – плотность и объем информации.

Виды информации

Информация может быть представлена в разных видах, формах, способах хранения и кодирования.

  • По способу восприятия информация может быть визуальной (я вижу), аудиальной (я слышу), тактильной (я трогаю, ощущаю на ощупь), обонятельной (я чувствую запах), вкусовой (я ощущаю вкус).
  • По форме представления: текстовая (в виде текста), графическая (в виде рисунка, схемы, фото и т.д.), музыкальная (в форме музыки, звука), числовая (в виде чисел), видео (в форме видеофайла), комбинированная (сочетает в себе разные формы представления, например, музыкальный клип – формы видео и аудио) и т.д.
  • По специальности: научная, техническая, производственная и т.д. информация.
  • По значению для общества: массовая, ориентированная на отдельного человека, экономическая, политическая, эстетическая и т.д.

В этой статье мы рассмотрели виды и свойства информации, а также некоторые определения информации. Здесь был представлен краткий анализ понятия об информации в конкретных аспектах. Если Вы хотите узнать об информации больше, то Вам следует обратиться к отдельным наукам, изучающим ее, например, к информатике.


Дуальность окружающего мира

События, происходящие вокруг нас, можно разделить на два класса: изменения и целенаправленные действия. В соответствии с этим и объекты, окружающие нас, можно подразделить на те, которые могут только изменяться, и те, которые могут действовать целенаправленно. Ко второму классу относятся события из мира живой природы .

Изменениями обычно называют все, что происходит с окружающими нас объектами и с нами самими с течением времени, независимо от особенностей и скорости отклонения от того состояния, которое мы можем зафиксировать в некоторый данный момент. Изменяется все: "Ничто не вечно под луной". Происходят изменения в соответствии с законами физики и химии, которые, таким образом, и управляют изменениями окружающего нас мира. Физическая и химическая природа объектов и условий, в которых они находятся, с неизбежностью определяют направления, характер и скорость их изменений, будь то атом, человек или Вселенная. Конечным итогом таких изменений всегда и неизбежно является гибель, распад или иная форма превращения материального объекта. Но некоторые объекты способны так изменяться во внешней среде, что одни процессы в них идут чаще, другие реже, адекватно условиям среды.

Рассмотрим по одному примеру из первого и второго классов объектов: рост кристаллов и размножение бактерий. Кристаллы могут расти и размножаться, присоединяя к "матрице" –кристаллу все новые молекулы из исходного раствора. Этот процесс является равновесным. Кристаллы не могут разлагать окружающие их вещества на составные части, а уж из этих частей строить дальше самих себя или свое подобие. Но именно так поступают живые организмы, – в данном примере бактерии, – они разлагают окружающие их вещества и уже из полученных "элементарных кирпичиков" строят заново те молекулы, которые используют для своего роста и размножения.

Кристаллы для своего роста используют то, что уже есть, живые организмы создают то, что им нужно, используя окружающие их вещества для получения строительного материала и свободной энергии.

Различные живые организмы, попав в ту или иную среду, всегда вызывают в ней изменения, так или иначе различающиеся между собой – различия эти не случайны, а определяются природой организма, и всегда подчинены достижению некоторой цели. Здесь будущее как бы доминирует над прошлым. При этом последовательность таких целенаправленных действий, как бы ни казалась она простой или сложной, всегда имеет в виду конечную цель – размножение данного организма. Когда эта цель достигнута, все начинается сначала и завершается тем же, т. е. новым циклом размножения. Таким образом, конечная цель деятельности любого живого организма – его самовоспроизведение.

Чтобы понять природу того или иного изменения, достаточно ответить на вопрос: "Почему?". Вопросы типа "Почему светит Солнце?", "Почему ржавеет железо?", "Почему орел может летать?" полностью исчерпываются, если рассмотреть химическую и физическую природу соответствующих явлений. Но вопросы типа "Для чего светит Солнце?" или "Для чего идет дождь?" лишены смысла и ответов не имеют, тогда как вопросы типа "Для чего летает орел?" вполне осмысленны и предполагают тот или иной ответ.

Дело в том, что полет орла, как и другие действия живых объектов, относятся к типу целенаправленных. Когда же речь идет о целенаправленных действиях, доминирующее значение приобретает вопрос "Для чего?". Ответ на вопрос "Почему?" здесь не может объяснить природу события, он может позволить понять лишь механизм его осуществления. "Для чего цветут розы?", "Для чего поют соловьи?" – вопросы всем понятные и, кстати сказать, давно получившие ответы. Осуществляют же растения и животные те или иные действия потому, что они устроены так, а не иначе, для того, чтобы их осуществлять...

Казуальность и телелогичность – вот те два принципа, которые управляют окружающей нас действительностью. Царство казуальности, или причинно-следственных связей, где настоящее определяется прошедшим, охватывает всю Вселенную, но полностью подвластны ему лишь объекты неживой природы. В должном месте и в должное время в этом царстве возникают и развиваются островки иного мира, где настоящее подчиняется будущему, где те или иные события происходят не только "потому, что...", но также "для того, чтобы...". Этот вторичный по отношению к миру косной материи мир жизни становится все могущественнее, он постепенно как бы вбирает, трансформирует в себя окружающую среду, все в большей степени контролируя происходящие в ней изменения, направляя их в нужное ему русло.

Чтобы избежать возможных недоразумений, заметим, что антропоморфизм таких терминов, как "контролирует", "стремится" и т. п., отнюдь не означает, что весь органический мир наделен свободой воли или способностью осознавать свои действия. Просто нет других терминов, более адекватно отражающих те свойства, которые являются общими для всех живых существ, от вирусов до человека, независимо от того, осознаются они соответствующими объектами или нет.


Целенаправленность и целесообразность

Таким образом, мы наметили свойство, необходимо присущее всем живым организмам. Свойство это – осуществлять целенаправленные действия. Обеспечивается это тем, что живые организмы устроены так, а не иначе, для того, чтобы иметь возможность это делать, т. е. организованы соответствующим образом, или целесообразно.

Сопоставим теперь два термина – "целенаправленность" и "целесообразность". Термин "целенаправленность" характеризует действие в предположении, что цель его известна или может быть установлена. Термин же "целесообразность" допускает двоякую интерпретацию: такую организацию, которая делает возможным достижение данной цели, и такую организацию, которая соответствует заранее намеченной цели. Эти две интерпретации термина "целесообразность" не противоречат одна другой, а друг друга дополняют: целесообразность есть такая организация какого-либо объекта, которая предусматривает возможность осуществления им целенаправленного действия.

Очевидно, что обеспечить такую организацию какого-либо объекта можно только одним способом – построить его в соответствии с заранее намеченным планом. Это очень важное утверждение. Смысл его состоит в том, что целесообразно устроенные или организованные объекты не могут возникать случайно, в силу удачного стечения обстоятельств. Интуитивно человек пришел к такому заключению давно, что и получило свое отражение в этимологии терминов, используемых для описания специфики устройства и функционирования живых систем. Интуитивность этого заключения и породила существовавшую вплоть до середины XIX века веру в присущую живым организмам "жизненную силу", или "энтелехию", вызывающую их из небытия и управляющую их жизнедеятельностью и размножением.


Целенаправленное действие. Его компоненты и характеристики.

Специфичность целенаправленного действия для живых организмов, причем для всех без исключения, заставляет обратить на это понятие особое внимание. Определение понятия "целенаправленное действие" попытаемся дать, вычленив то, что есть у него общего с изменениями, происходящими при спонтанном течении событий, а что – специфического.

Пусть s – "исходная ситуация" или пространство режимов, в котором могут происходить различные события. Пусть Z - одно из таких событий, вероятность осуществления которого 0? р?1. Тогда спонтанное осуществление Z можно описать преобразованием (10)

где w - другие изменения исходной ситуации, неизбежно сопутствующие осуществлению Z.

Назовем событие Z "целью". Будем так воздействовать на процессы, протекающие в s, чтобы вероятность осуществления Z увеличилась до значения Р. Это и будет "целенаправленное действие". Описать его можно как (11)

где R - ресурсы, содержащиеся в s и идущие на осуществление действия; Q – "механизм", или оператор, применение которого в условиях s приводит к желаемому результату; I – информация, на основании которой этот оператор построен; и w – события, неизбежно сопутствующие осуществлению Z, или "побочные продукты" достижения цели.

Назовем R, S, Q, I, Z и w компонентами целенаправленного действия, а р и Р – его характеристиками. Можно утверждать, что преобразование (11) есть полное определение целенаправленного действия: любое действие, сколь бы ни было оно простым или сложным, можно полностью описать, задав его компоненты и характеристики.

Сопоставляя выражения (10) и (11), мы видим, что целенаправленные действия отличаются от спонтанных изменений лишь в одном отношении – наличием компонента Q, или оператора. Собственно, целенаправленность воздействия Q на s, приводящая к увеличению вероятности достижения цели Z, обусловливается только тем, что оператор Q организован так, чтобы его "вмешательство" в спонтанный ход событий приводило к такому результату. Именно поэтому структуру или устройство оператора можно назвать целесообразным.


Информация

Итак, основное наше утверждение, относящееся к оператору как единственному компоненту целенаправленного действия, отличающему его от спонтанного течения событий, можно сформулировать следующим образом: оператор не может возникнуть случайно, сам по себе, а должен быть построен в соответствии с I, т. е. заранее имеющейся программой или планом. Совокупность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией . Обозначать информацию будем символом I. Запись Q(I) будет означать, что данный оператор Q построен в соответствии с данной информацией I. Информацию можно также определить как совокупность закодированных сведений, необходимых для принятия решений и их реализации.

Таким образом, мы определили информацию как "руководство к действию", как то, что необходимо для построения любого оператора . Естественно возникают вопросы о правомочности и адекватности такого определения.

Мы используем операционное определение понятия "информация", а по ходу изложения дополним его перечислением свойств того, что это понятие отображает. Выбор такого способа не произволен: опыт показывает, что понятие "информация" невозможно вывести из представлений, относящихся к миру вещей, – ведь, как отмечал Н. Винер , "информация есть информация, а не материя и не энергия". Определение информации через описание форм ее проявления и ее свойств представляется вполне правомочным. Формой проявления информации, как мы видели, и является оператор – необходимый компонент целенаправленного действия.

Посмотрим теперь, насколько наше определение информации адекватно тем представлениям, которые обычно связывают с этим термином.

Обыденное понимание слова "информация" наиболее близко к его исходному значению: это либо "сведения, содержащиеся в сообщении" (имя существительное), либо "процесс передачи сведений" (глагол). В обоих случаях слово "информация" отражает тесную связь между "сведениями" (собственно "информация") и содержащими их сообщениями. Этот термин отражает также то, что сообщения служат для передачи сведений от "отправителя" (источника информации) к "адресату" (ее приемнику), которому, следовательно, они для чего-то нужны. Нужность информации предполагает возможность ее использования, а специфика использования информации определяется ее семантикой. Предполагается при этом, что одни и те же сведения – т. е. информация, обладающая одной и той же семантикой, – могут быть переданы от источника к адресату только в виде сообщений, представляющих собой некий физический феномен, т. е. материальный объект. Само собой разумеется, что природа этого феномена может быть самая разнообразная, вне зависимости от семантики информации, или, что то же самое, что с помощью сообщений одной и той же физической природы можно передавать самую разную информацию.

Таким образом, информацию можно создавать, принимать, использовать и передавать. Информацию можно также сохранять. Хранение информации, как необходимый промежуточный этап между ее приемом и использованием или приемом и передачей, позволяет также "запасать информацию впрок", про запас, на всякий случай. Физическая природа сообщений или записей, содержащих информацию, в случаях ее приема, хранения, передачи и использования может быть – и, по существу, всегда бывает – разная.

Прием или создание информации, ее хранение, передачу и использование будем называть элементарными информационными актами, а осуществление всей совокупности таких актов – информационным процессом. Из повседневного опыта мы знаем, что ни один из информационных актов не может осуществляться сам по себе, спонтанно, – для этого требуются специальные механизмы или устройства. Совокупность механизмов, обеспечивающих полное осуществление информационного процесса, будем называть информационной системой. Элементарной информационной системой будем называть такую, дальнейшее подразделение которой приведет к расчленению механизмов, обеспечивающих осуществление отдельных элементарных информационных актов. Вне информационной системы информация может лишь сохраняться в виде записей на тех или иных физических носителях, но не может быть ни принятой, ни переданной, ни использованной.

Ниже мы увидим, что все эти особенности информации, хорошо знакомые нам из повседневного опыта, являются следствиями из ее свойств, общих для всех известных нам видов информации.

Посмотрим теперь, какие реальные объекты окружающей нас действительности могут быть названы информационными системами. При этом мы все время должны иметь ввиду, что информация может существовать только в какой-либо информационной системе, в виде "записи" на том или ином "носителе"; что семантика информации не связана со способом ее записи и физической природой носителя.

Так как слово "информация" первоначально использовалось только для обозначения содержательной стороны сообщений, которыми обмениваются между собой люди, то естественно, что первой ставшей нам известной информационной системой был также человек. Сообщества людей представляют собой информационные системы высокого ранга, сложнейшим образом переплетающиеся между собой и входящие в единую общечеловеческую информационную суперсистему. Специфическую для человека информацию, которой обмениваются люди при помощи устной и письменной речи, обычно называют знанием.

Информацией называют также те сведения, которыми обмениваются между собой животные и которые, будучи восприняты, существенно влияют на их поведение. Такая информация передается от индивида к индивиду посредством различных сигналов, в ходе обучения (например, родителями детенышей), путем подражания другим особям или создается в мозгу животного заново, на основе собственного жизненного опыта. Это –поведенческая информация. Информационными системами, оперирующими с такой информацией, являются все многоклеточные животные, включая человека, а возможно, и некоторые одноклеточные.

Третий известный нам вид биологической информации – генетическая. Генетическая информация записана в нуклеиновых кислотах (обычно ДНК) клеток последовательностью оснований и определяет фенотипические особенности всех без исключения живых существ - животных, растений, грибов, бактерий и вирусов. Специфическими для этой информации системами являются все генетические компоненты живых организмов.

Утверждение о том, что информация обязательно присуща всем живым объектам, можно дополнить утверждением, что вне живых систем нет и не может быть биологической информации, которая не была бы создана каким-либо живым объектом.

На последнем утверждении стоит дополнительно остановиться. У любого живого объекта может измениться количество и семантика содержащейся в нем информации. Есть только три пути таких изменений: получение новой информации, создание ее и утеря тех или иных фрагментов. Для биологических систем очень характерны передача и утеря информации. Получение информации неразрывно связано с получением сообщения, эту информацию содержащего, с последующим ее хранением или перекодировкой и использованием. Использование информации, очевидно, может быть в том случае, если она попадает в иерархически подобную или более высокую информационную систему. Включение ее в систему будет облегчено в семантически родственных системах. Получение информации бывает связано со случайным или неслучайным изменением носителей информации. Это относится к генетической, поведенческой и особенно к логической информации. Утеря фрагментов информации, например генетической, может иметь разные последствия для организмов, в том числе и положительные, но в определенных ситуациях она может попадать во внешнюю среду вне своей информационной системы и будет там находиться до полного разрушения своих носителей. Она может быть также случайно подобрана из внешней среды и включиться в другую информационную систему (горизонтальный перенос генетической информации, см., например ), но роль такого рода процессов в эволюции информации никто специально не рассматривал. Изменение окружающей среды является поводом для создания, но никак не источником новой информации. В любом случае, однако, совершенно ясно, что возникать самостоятельно, вне живых организмов, биологическая информация не способна .

Однако как в обыденной жизни, так и в научной литературе "информацией" нередко называют все, что может воздействовать на живой организм извне, независимо от его физической и химической природы и независимо от того, являются ли источниками таких воздействий живые или неживые объекты . В подобном контексте к информации можно свести все виды взаимодействия живых и неживых объектов. Здесь опять исчезают различия между совокупностью сигналов, обладающей семантикой, родственных источнику и приемнику, и "слепым" воздействием одного объекта на другой.

Чтобы отличать сигналы или воздействия, содержащие информацию, от сигналов, таковыми не являющихся, нужно всегда помнить об условности фиксации информации на ее носителях. Это отражается в строении записывающего и считывающего устройств соответствующих информационных систем, в особенностях материала носителя, способа фиксации, выбора языка и кода и т. д. Имея это в виду, можно отделять носителей реальной информации от информационно пустых, независимо от того, известен их источник или нет. Действительно, какая информация может содержаться в грохоте грома, вспышке молнии или горном обвале? Кем вписана она в эти физические феномены, кому предназначена и о чем повествует? Другое дело, что, будучи восприняты живыми организмами, подобные "сигналы" могут быть использованы для создания информации о той или иной стороне действительности. Лишь в таком переносном смысле их можно именовать "источниками" информации, – и подобными источниками, действительно, могут служить любые объекты и явления. Это же относится к результатам наблюдений, измерений и т. п. процедур, производимых человеком: обработку их нередко называют "обработкой информации", хотя на самом деле это есть один из этапов создания новой информации в человеческом мозге, а не "извлечение" ее из наблюдений и измерений.

Таким образом, внешние воздействия, воспринимаемые живыми организмами, можно подразделить на два класса: сообщения, или "носители информации", источниками которых могут служить только другие живые организмы, и просто воздействия, информации не содержащие, источниками которых могут быть любые объекты или явления. Можно думать, что различные рецепторы живых организмов формировались первоначально для восприятия и дифференцировки именно таких воздействий и лишь позже, в ходе эволюции, некоторые из них были дополнительно адаптированы для приема или передачи информации. Такое различение информационных и неинформационных воздействий, которым подвергаются живые организмы, весьма существенно для ясного понимания того, что именно представляет собой информацию.

Выше мы видели три вида биологической информации, и четвертого нам не известно. Это – генетическая информация, поведенческая и логическая, или человеческое знание. Для каждого из этих видов информации характерны свои носители, свои записывающие и считывающие устройства, свои информационные системы. Однако, как бы ни различались эти виды информации, всем им присущи общие свойства, характерные именно для информации как таковой, независимо от ее вида или особенностей ее носителей.


Фиксируемость информации. Её носители.

Свойства, присущие всем видам информации, можно разделить на две группы, внутри каждой из которых они тесно связаны между собой. Ключевым свойством для одной из этих групп является фиксируемость информации, а для другой – ее действенность. Иные свойства, входящие в эти группы, являются как бы раскрытием, проявлением ключевых особенностей в доступных для регистрации формах.

Фиксируемостью мы будем называть ту особенность любой информации, что, не будучи "ни материей, ни энергией", она может существовать только в зафиксированном состоянии. Никто никогда нигде не встречался с информацией, которая была бы в "свободном виде", а не в виде "записи" на том или ином физическом носителе. При этом способы записи или фиксации информации на том или ином носителе всегда условны, т. е. не имеют никакого отношения к ее семантике.

Условность способов фиксации информации означает, что любой из таких способов, никак не связанных с семантикой, тем не менее однозначно обусловливается двумя факторами, также не имеющими к семантике информации никакого отношения, – это физическая природа носителя и специфика "считывающего устройства" той информационной системы, к которой данная информация относится. Фиксация информации всегда представляет собой ту или иную деформацию носителя, среднее время релаксации которого должно превышать среднее время считывания, что и ограничивает способы записи информации на том или ином носителе.

Адекватность способа фиксации информации способу ее считывания означает, что способ записи, носитель и считающее устройство взаимно обусловлены друг другом и могут возникать только совместно. Все эти способы, однако, должны подчиняться одному требованию: запись информации должна иметь апериодическую форму. Это требование может быть реализовано, если носитель информации способен принимать не менее двух различных состояний. Другими словами, для фиксации информации можно использовать не менее двух различных знаков или букв.

Важнейшей особенностью фиксации любой информации является возможность последовательной нумерации использованного для этого множества знаков или символов. Эта особенность отражает тот факт, что любая информация осмысленна, что бессмысленной информации не бывает. Простейшей реализацией этой особенности является линейная последовательность символов или сигналов, используемых для фиксации и передачи информации, или возможность считывания их в линейной последовательности.

Все это позволяет сформулировать требования к физическим носителям информации, или, точнее, к тем объектам, которые могут служить таковыми. Потенциальным носителем информации может служить любой физический объект, который может существовать не менее чем в двух последовательно различимых состояниях, выступающих в роли знаков или символов, пригодных для фиксации информации. А так как простейшим вариантом различимых состояний физического объекта может быть его наличие или отсутствие, то из этого следует, что потенциальным носителем информации может быть любой феномен окружающего нас мира, наличие или отсутствие которого можно регулировать произвольным образом.

Следует, однако, проводить строгое различие между потенциальными носителями информации и ее реальными носителями. Первые могут содержать информацию, а могут и не содержать, а вторые всегда ее содержат. Это подводит нас к вопросу о том, как можно различать, содержит ли данный объект информацию или нет.

Однако, прежде чем рассмотреть возможности распознавания информации, остановимся коротко на двух вопросах, тесно с этим связанных: каковы могут быть виды носителей информации и могут ли они существовать вне своих информационных систем?

Пользуясь уже устоявшейся терминологией, можно сказать, что формой фиксации информации являются предложения, составленные на том или ином языке в виде последовательности букв того или иного алфавита, нанесенных тем или иным способом на тот или иной физический объект. Таким образом, собственно носителем информации является предложение, составленное на том или ином языке. В соответствии с этим можно различать четыре вида физических носителей: язык, алфавит, способ "печати" и природу "подложки". Каждый из этих видов носителей может варьировать, разрушаться и исчезать независимо один от другого. Очевидно, однако, носители информации должны быть адекватны системам записи. Поэтому в любой полной информационной системе следует различать: систему записи, систему считывания, систему перекодирования информации и носители, которые могут ее содержать.

Физические объекты, содержащие информацию, могут находиться как "внутри" своих информационных систем, так и вне их, выпадая оттуда в процессе передачи информации или в результате разрушения содержавших их информационных систем. Таким путем информация может получать независимое от информационной системы, ее породившей, существование, правда, существование весьма убогое. Действительно, вне информационной системы любая информация обречена лишь на более или менее быстрое разрушение, деградацию. Деградация – удел любой информации, "вырвавшейся" из своей информационной системы. Поэтому, если мы и обнаруживаем информацию вне информационной системы, все равно должны быть твердо убеждены, во-первых, в том, что возникла-то она обязательно в какой-либо из информационных систем, а во-вторых, в том, что сама по себе она лишь "деградирует", но не "существует".

Теперь мы вплотную подошли к проблеме распознавания. Если имеется некий физический объект и мы хотим выяснить, содержит ли он информацию, то ответ на этот вопрос предполагает хотя бы потенциальную возможность ответить на три следующих вопроса: к какой информационной системе он относится или может относиться? какие способы фиксации информации здесь использованы? и какова семантика этой информации? Естественно, что здесь предполагается искусственное фиксирование информации на данной подложке, а не спонтанное ее возникновение, проистекающее из самой природы объекта. Ведь сведения, которые мы "получаем", анализируя какой-либо объект, могут быть использованы для создания информации об этом объекте, а это не следует смешивать со считыванием информации, в данном объекте содержащейся, – если, конечно, она там имеется.


Инвариантность информации по отношению к носителям

С фиксируемостью информации теснейшим образом связано такое ее свойство, как инвариантность по отношению к физической природе носителей . Это важнейшее свойство информации, и представлять его себе следует очень ясно.

Свойство, или, точнее, принцип, инвариантности информации означает, что одна и та же информация, независимо от ее семантики, может быть "записана" на любом языке, любым алфавитом, т. е. системой знаков, наносимых любыми способами на любые носители. Другими словами, ни количество, ни семантика никакой информации не зависят от того, какая система записи избрана для ее фиксации и какой для этого использован носитель. Инвариантность информации как бы подчеркивает ее внутреннюю независимость от ее материальных оков, ее автономность и суверенность, которые сохраняются как бы наперекор судьбе, обрекающей информацию быть вечным узником мира вещей – ее физических носителей.

Инвариантность информации обусловливает возможность использовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных актов – создания, передачи, приема, хранения и использования информации. Для "перевода" информации с одной системы записи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвариантности. Таким образом, именно инвариантность лежит в основе возможности понимания информации – перевода ее с чуждого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инвариантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой.

Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом.


Количество информации и емкость информационной тары

Инвариантность информации по отношению к носителям создает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т. е. как бы "сведения ее к единому знаменателю". Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой (12)

где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц измерения количества информации и основания логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р 1 = р о = 0,5) величина Н м = М. Другими словами, количество информации, выраженное в битах, равно числу знаков бинарного алфавита, необходимому для ее записи.

Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по отношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измерения этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно.

Свойство инвариантности, как мы уже видели, позволяет утверждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации – языки, алфавиты, способы фиксации и подложки – выступают как бы в роли "информационной тары", которая может содержать информацию, причем любую. Если представление о количестве информации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной тары должна быть одной и той же. Полагая элементарные носители информации – отдельные буквы алфавита – дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по существу означает, что для записи этого сообщения бинарным кодом требуется М букв.

Формулу (1) можно записать несколько иначе, а именно (13):

Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данного количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может "вместиться" в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары.

Итак, мы пришли к выводу, что информационная емкость i-го символа любого алфавита, выраженная в битах, равна –log 2 p i , где p i есть частота встречаемости этого символа в данном языке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона.

Заметим, однако, что в работах самого К. Шеннона речь идет не об информационной емкости, а о количестве информации. Справедливо полагая, что количество информации, связанной с каким-либо сообщением, не должно зависеть от его семантики, К. Шеннон формулировал вопрос так: сколько информации получает адресат, воспринимая каждую из букв сообщения? Количество такой информации он и предложил выражать через величину Н и постулировал аддитивность этой величины по отношению к любому числу символов, составляющих сообщение. При этом непроизвольно произошла подмена терминов: понятие об информации, как о содержательной стороне сообщения, было подменено понятием о количестве информации, представляющем собой функцию статистических характеристик составляющих сообщение символов. Эта подмена терминов не имела никаких последствий для развития математической теории связи и даже оказалась для нее благотворной: ведь по каналам связи передают не информацию, а ее носителей, и для оптимизации работы систем связи безразлично, какую именно информацию эти носители содержат и содержат ли они ее вообще. Однако для теории информации эти различия весьма существенны, и вот почему.

Рассмотрим два сообщения: "Каин убил Авеля" и "инилА ваКу лебя". Оба они состоят из одинаковых 15 знаков, но первое – вполне осмысленно, т. е. содержит информацию, а второе представляет собой случайную последовательность букв и никакой информации не содержит. Согласно формуле (8), однако, с ними обоими связано одно и то же количество информации –около 45 битов. Если принять это утверждение за истинное, то отсюда следует, что информация может быть лишена семантики, что на самом деле нонсенс, ибо бессмысленной информации не бывает. Но возможен другой выход из этого противоречия: считать, что формула (8) является мерой не количества информации, а емкости информационной тары. Первая фраза – это тара, "полностью загруженная информацией", а вторая фраза это совершенно пустая тара. Очевидно, что емкость тары не зависит от того, загружена она или нет, полностью загружена или частично, а также от того, чем именно она загружена. Если тара заполнена, то ее емкость может служить мерой количества содержащегося в ней груза. Эти простые соображения позволяют сделать три вывода. Во-первых, если H-функцию считать емкостью информационной тары, то ее в равной мере можно прилагать и к осмысленным, и к бессмысленным наборам символов, которые могут служить носителями информации. Во-вторых, одни и те же единицы измерения, биты, можно применять для оценки и емкости тары, и количества информации, которая в ней может содержаться. В-третьих, при измерении в битах количество информации В, содержащейся в сообщении, заключено в интервал 0?В?Н, где Н – емкость составляющих сообщение носителей информации. Н сообщения, таким образом, – это верхняя граница того количества информации, которое может в нем содержаться, причем В = Н только при абсолютно компактном тексте.

К этим же выводам можно прийти и другим путем, рассматривая смысловое содержание понятия "избыточности", или условную вероятность встречаемости i- ro символа после 1-го, 2-го и т. д., а также после разных сочетаний двух, трех и т. д. символов . При таком подходе легко показать, что величина Н имеет максимальное значение только при совершенно случайном расположении символов в сообщении, а при возрастании его осмысленности величины pi независимо от i, стремятся к единице, а Я стремится к нулю. В нашей интерпретации это выглядит вполне естественным: по мере заполнения тары информацией свободного места в ней остается все меньше. Если перед правыми частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер , то величина Н будет меньше или равной нулю и будет обозначать количество недостающей в таре информации до ее полного заполнения. Естественно, что эта величина имеет минимальное значение лишь при совершенно случайном расположении составляющих сообщение букв.

Теперь вернемся опять к вопросу о дискретности и непрерывности информации. То обстоятельство, что элементарные единицы носителей информации – буквы – дискретны, ничего не говорит ни в пользу дискретности, ни в пользу континуальности самой информации. Дискретность носителей информации и различия в информационной емкости элементарных носителей в разных системах записи таковы, что в общем случае емкость разных носителей не является кратной какому-либо определенному числу, которое можно было бы принять за элементарную единицу количества самой информации. Это же относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех случаях, когда сообщения записаны бинарным кодом, их информационная емкость выражается целым числом битов, в подавляющем же большинстве других случаев она может быть выражена любым дробным числом. Это приводит к интересному следствию: переводя информацию с одной системы записи на другую, мы, как правило, вынуждены использовать тару разного объема. Действительно, если для некоторого сообщения, записанного 24-х буквенным алфавитом, H = 78,37 бит, то при записи его 2-х буквенным алфавитом, мы в лучшем случае можем использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при переводе с одной системы записи на другую изменяется и количество самой информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и это неравенство хорошо соответствует описанной ситуации.

И вообще, имеем ли мы основания говорить о дискретности или непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли говорить о "полной" или "неполной" информации, имея в виду достаточность или недостаточность данной информации для построения какого-либо оператора. Однако, как это будет специально рассмотрено ниже, ни об одном операторе не может существовать полностью исчерпывающей информации. Это обстоятельство (или, точнее, принцип) делает весьма шатким и такие категории, как "полнота" и "неполнота". Поэтому о количественных аспектах информации (как, впрочем, и о других) можно судить лишь по тем или иным формам ее проявления (например, по степени заполненности ею носителей), но не по самой информации, как таковой. Ведь "информация есть информация, а не материя и не энергия", и этого не следует забывать.

Теперь, учитывая сделанные выше замечания, еще раз вернемся к правилу Шеннона, выраженному формулой (10). Очевидно, что формула эта выражает идеальный вариант, который в действительности проявляется лишь как тенденция, а не как абсолютное равенство. Тенденция эта будет тем ярче выражена, чем больше величина Н, т. е. с увеличением Н разность между М теоретическим и М действительным должна стремиться к нулю. Это, по-видимому, справедливо и для записи информации разными алфавитами на одном и том же языке и на разных языках, хотя во втором случае различия между теоретическим и действительным значениями М при относительно малых значениях Н должны быть, видимо, выражены значительно ярче, чем в первом. Жаль, что подобного рода данные в литературе отсутствуют.

Таким образом, располагая каким-либо сообщением и зная статистические веса слагающих язык букв в соответствующем языке, можно весьма точно рассчитать, какова емкость Н этой информационной тары, и на этом основании утверждать, что в данном сообщении содержится или может содержаться не более Н битов информации. Заметим, что определяемое таким путем количество информации полностью обусловливается двумя ипостасями ее носителей? языковой и алфавитной. Способ фиксации информации и природа ее носителя, столь важные для сохранения информации и ее репликации, здесь никакой роли не играют. Никак не связано количество информации и с ее семантикой, – т. е. семантика информации в пределах любого заданного ее количества может быть любой.


Бренность информации

Итак, каждая данная информация, – точнее, каждый ее экземпляр - всегда зафиксирована на каком-либо физическом носителе. Поэтому сохранность и само существование информации целиком и полностью определяется судьбой ее носителя. Это обусловливает, прежде всего, такое свойство информации, как ее бренность, т. е. возможность (или, скорее, неизбежность) ее разрушения и исчезновения в результате изменения или разрушения ее носителей. Бренность позволяет говорить о сроке жизни информации, точнее – о средней продолжительности ее жизни, что определяется особенностями не самой информации, а того носителя, который использован для ее фиксации. Пока носитель остается в недеформированном состоянии, сохраняется и сама информация, независимо от того, используется она для каких-то целей или нет; с деформацией же носителя зафиксированная на нем информация изменяется или разрушается, т. е. исчезает. Таким образом, информация погибает только со своими носителями...


Транслируемость, размножаемость и мультипликативность информации

Бренности информации противостоит такое ее свойство, как транслируемость, т. е. возможность быть переданной с одного носителя на другой, такой же или иной физической природы, в той же или иной системе записи.

Пусть V p - средняя скорость размножения информации в результате трансляции, a V r – средняя скорость ее гибели. Тогда отношение (14)

будет характеризовать "жизнеспособность" информации. Действительно, при L < 1 данная информация обречена на вымирание, независимо от абсолютного значения V p ; L = 1 – нестабильное состояние, соответствующее "прозябанию" информации ; a L>1означает, что число копий данной информации будет неуклонно возрастать, также независимо от скорости единичного акта удвоения.

Таким образом, когда скорость транслируемости превосходит скорость разрушения и гибели информации, это приводит к ее размножаемости. Следствием размножения информации является ее мультипликативность, т. е. возможность одновременного существования одной и той же информации в виде некоторого числа идентичных копий на одинаковых или разных носителях. Следует отметить, что число таких копий, в принципе, не ограничено, т. е. может быть сколь угодно большим.


Изменчивость информации

Деформируемость физических носителей, а также ошибки при трансляции могут приводить не только к гибели информации, но и к ее изменениям.

Если под гибелью информации понимать как ее исчезновение или разрушение, так и "обессмысливание", то под изменчивостью будем понимать такие ее изменения, которые затрагивают количество и/или семантику информации, но не лишают ее смысла. Как к первому, так и ко второму результату могут приводить сходные события: выпадение отдельных символов, использованных для записи информации, добавление новых символов или замена одних символов на другие. Масштабы таких событий (т. е. число выпавших, встроенных или замененных символов), а также причины, к ним приводящие, могут быть самыми разными. Однако других путей изменчивости информации нам не известно. Информация, следовательно, может изменяться только вследствие изменений, совершающихся с ее носителями.

Подчеркнем, что транслируемость, изменчивость и мультипликативность информации – вот те "три кита", на которых базируются динамика и эволюция любой информации.


Действенность информации. Операторы.

Выше мы перечислили ряд свойств, производных от первой ключевой особенности информации – ее фиксируемости. Это – инвариантность информации по отношению к носителям, ее измеряемость, бренность, транслируемость, размножаемость, мультипликативность и изменчивость. Вторым ключевым свойством информации является ее действенность, на чем мы сейчас и остановимся.

Действенность информации может выявляться лишь в адекватной ей информационной системе, – вне таковой любая информация, не будучи "ни материей, ни энергией", абсолютно пассивна. Однако, будучи включена в свою информационную систему, информация, соответственно ее семантике, может быть использована для построения того или иного оператора, который, в свою очередь, будучи помещен в подходящее пространство режимов, может совершать те или иные целенаправленные действия. Оператор, таким образом, выступает в роли посредника, необходимого для проявления действенности информации. В связи с этим сам оператор может рассматриваться как реализованная или материализованная информация.

Действенность информации, проявляющаяся при посредстве оператора, является необходимым условием ее существования. "Бездеятельная" информация обречена на гибель и разрушение. Вот почему можно утверждать, что каждая информация стремится материализоваться - воплотиться в соответствующий оператор. Ведь информация, лишенная такой способности или утратившая ее, обречена на гибель.


Семантика информации. Понятие цели.

С действенностью информации тесно связано, прежде всего, такое ее свойство, как содержательность, или семантика. Из сказанного выше уже ясно, что семантика информации может проявляться лишь одним путем – в специфике кодируемого ею оператора. Возможность быть использованной – в ее материализованном виде, т. е. в качестве оператора, – для достижения той или иной цели обусловливает ценность информации. То очевидное обстоятельство, что любой оператор, вообще говоря, может быть использован для достижения разных целей, определяет важнейшее свойство информации, которое может быть названо полипотентностью.

Действенность информации, как мы уже отмечали, может проявиться только через оператор – материальный объект, машину, созданную на ее основе. Заметим, что при реализации информации в оператор никакой "материализации" информации в том смысле, что информация исчезает, а вместо нее возникает оператор, не происходит. Но независимо от способа реализации справедливо утверждение, согласно которому каждая данная информация однозначно определяет оператор, для построения которого она использована. Однозначность здесь понимается в таком же смысле, как однозначность определения фенотипа генотипом. Определенность информации и позволяет ей проявить свою семантику.

Это отнюдь не тривиальное определение семантики информации требует более тщательного рассмотрения. В ходе этого рассмотрения выявится, что такое представление о семантике отражает, если можно так сказать, лишь "средний слой" этого понятия, имеющего как бы трехслойную структуру. Но этот средний слой реален и осязаем, тогда как верхний и нижний, или базовый, как бы размыты и не всегда очевидны.

Верхним наружным слоем семантики можно называть то, что обычно и связывают с этим словом, – ответ на вопрос "О чем повествует данная информация?". Этот слой легко выявляется в том виде информации, который мы называем логической, труднее – в поведенческой информации, и почти не выявляем в генетической информации. Верхний слой, однако, сам по себе не имеет смысла без возможности обеспечения организации оператора, что довольно ясно проступает в случае поведенческой информации и доминирует в случае информации генетической. Однако средний слой также отступает на второй план перед вопросом "Для чего нужен данный оператор?" – а ответ на этот вопрос, даваемый нижним слоем, и проясняет суть дела.

Вспомним, что свойство бренности означает, что данная информация неизбежно погибнет, если не будет вовремя ретранслирована или размножена. Сама по себе информация размножаться не в состоянии. Реплицирует информацию только соответствующее устройство, входящее во включающую его информационную систему. Об осознанности, преднамеренности подобного действия не может быть и речи, – оно осуществляется как бы само по себе, автоматически, при переходе информационной системы в соответствующее состояние. Все это позволяет утверждать, что семантика любой информации должна определять такие особенности оператора, благодаря которым хотя бы в некоторых ситуациях происходило повышение вероятности репликации данной информации. Третий слой семантики любой информации и представляет собой сведения о путях ее воспроизведения в некотором пространстве режимов. Собственное воспроизведение – цель, достижение которой обязательно "заложено" в семантику любой информации.

Здесь, как и в случае с вопросом о дискретности или непрерывности информации, мы опять сталкиваемся с зыбкостью, расплывчатостью ряда понятий, казавшихся в мире вещей ясными и определенными. Сделанное выше утверждение не следует понимать дословно, будто всякая информация свидетельствует только о том, как можно ее воспроизвести. Ни в коем случае. Представим себе множество информации, последовательно поступающих в универсальный автомат фон Неймана (см. ниже, главу 3). Пусть большинство из них непригодны для того, чтобы включить механизм их воспроизведения, и по мере старения их носителей со временем погибнут. Лишь та информация, которая в данной системе и в данном пространстве режимов окажется обладающей такой семантикой, которая прямо или косвенно пригодна для включения реплицирующего режима, окажется воспроизведенной в виде одной или нескольких копий, и ее существование продлится постольку, поскольку ее воспроизведение будет опережать гибель ее носителей. Это не означает, что семантика других, погибающих, информации была иной природы, – просто она не соответствовала в этом, решающем для продления существования информации, смысле тем условиям, в которых она оказалась; в другой ситуации результат мог бы быть совершенно иным. Поэтому по отношению к тем условиям, в которых информация регулярно подвергается воспроизведению, утверждение о том, что сущность семантики информации есть способ и условия ее воспроизведения, приобретает оттенок тривиальности. Однако отнюдь не тривиально утверждение, что эволюция семантики всегда и неизбежно направлена в эту и только в эту сторону, – утверждение, которое, по существу, будет следствием рассмотрения закономерностей динамики информации (глава 6).

В заключение этой главы можно сказать следующее. Именно семантика информации обусловливает специфику оператора и тем самым того целенаправленного действия, которое данный оператор может осуществить. Но при этом природа целенаправленного действия всегда и неизбежно такова, что его осуществление должно прямо или косвенно повышать вероятность воспроизведения кодирующей его информации. Именно в этом смысле семантика информации всегда представляет собой отражение тех условий, которые необходимы и достаточны для ее (информации) воспроизведения.

Тут уместно напомнить, что принцип самоорганизации материи основан на кооперировании элементов в систему, в которой свойства ее в целом будут отличны от суммы свойств ее элементов. Флуктуации в открытых системах и дарвиновский отбор помогут найти вариант, свойства которого позволят повысить выживаемость информационной системы или эффективность использования внешней среды. Из этого можно заключить, что целенаправленность на выживание является принципиальным свойством любой самоорганизующейся системы.

Таким образом, полезность – свойство информации содействовать осуществлению в определенном месте и в определенное время некоторого события, которое естественным путем там не произошло. Когда же говорят об истинности информации, то имеют в виду адекватность отражения данной информацией той или иной уже существующей ситуации. Однако единственным критерием такой адекватности может служить только успешность осуществления в этой ситуации какого-либо целенаправленного действия. Таким образом, если полезность – как бы потенциальное свойство информации, то ее истинность выявляется в ходе реализации этого ее свойства.

Так мы подошли к одному из классических гносеологических утверждений, согласно которому критерием истины является практика, т. е. реальная вещественная деятельность. При этом из полипотентности информации следует как возможность существования большого числа в равной мере истинных, но не совпадающих друг с другом информации, так и возможность градаций степени истинности, а также ее относительность, т. е. зависимость от ситуации и цели.

Рассмотрим теперь случай, когда целью является трансляция самой информации, – то, что в явном или неявном виде предполагается семантикой любой информации. В таком случае в роли субъекта будет выступать эта информация, а ее истинность окажется условием ее собственного успешного существования. Здесь практика (т. е. осуществление целенаправленного действия) будет уже не только критерием истинности, но и критерием жизнеспособности информации. Таким образом, мы пришли к интересному и отнюдь не тривиальному выводу, что жизнеспособность информации обусловливается в конечном счете ее истинностью.

Истинность информации – необходимое, но еще не достаточное условие ее жизнеспособности. Если какая-либо информация никому не нужна и никем не используется, то истинность ее просто не сможет быть выявлена. Такая информация обречена на гибель не ввиду ошибочности, а из-за ее ненужности. Следовательно, для обеспечения жизнеспособности информации требуется не только ее истинность, но и ее нужность, ее полезность, т. е. гармония объективного и субъективного аспектов информации, отражаемых этими терминами.


Полипотентность информации

"Ничто не возникает в теле для того, чтобы мы могли воспользоваться этим: напротив, тому, что возникло, находится применение", – писал Тит Лукреций Кар около двух тысяч лет тому назад. Это высказывание как нельзя лучше отражает то свойство информации, которое мы назвали полипотентностью . Проявляется полипотентность в том, что оператор, представляющий собой продукт реализации семантики данной информации, может быть использован для осуществления самых разных целенаправленных действий, т. е. как для достижения разных целей в данном пространстве режимов, так и для достижения одинаковых или разных целей в разных пространствах режимов, или в разных ситуациях. Так, одним и тем же молотком можно вбить гвоздь, разбить стекло и проломить голову.

Свойство полипотентности, которое означает, что одна и та же информация может быть использована для решения самых разных задач, легче проиллюстрировать, чем доказать, – поэтому его следует рассматривать как аксиому. Свойство полипотентности не отражает семантическую неоднородность информации – семантика любой информации всегда совершенно определенно и однозначно отображается в операторе. Полипотентность не означает также, что на основании одной и той же информации могут быть созданы несколько разных операторов, – такое представление коренным образом противоречит определению информации, приведенному выше (см. главу 1). Все это следует учитывать, обсуждая полипотентность информации.

Из свойства полипотентности следует два вывода, имеющих кардинальное значение для общей теории информации. Проследим эти выводы подробнее, ибо ниже нам неоднократно придется к ним обращаться.

Вывод первый. Располагая некоторой информацией или созданным на ее основе оператором и даже зная, для достижения какой цели эти информация и оператор предназначались, невозможно перечислить все ситуации и цели, для достижения которых с той или иной вероятностью они могут оказаться пригодными. Множество комбинаций "ситуация-цель" можно считать бесконечным, как и то подмножество, в пределах которого данную информацию можно использовать для осуществления целенаправленных действий. Если семантику рассматривать как сущность информации, а результат целенаправленного действия – как проявление этой сущности в данных условиях, то полипотентность будет естественным следствием зависимости этого проявления от условий, т. е. от ситуации и цели. Хорошо известно, что одна и та же сущность может обусловливать множество разных свойств.

Таким образом, любая информация и оператор, на ней основанный, всегда могут получить априори не предполагавшиеся применения. Такое непредсказуемое заранее использование информации может подчас оказаться даже более эффективным и ценным, нежели то, для которого она первоначально предназначалась. В математике подобную ситуацию античные мыслители называли поризмом .

Вывод второй. Основываясь на свойстве полипотентности, можно утверждать, что для достижения одной и той же цели в данной ситуации с тем или иным эффектом может быть использовано множество разных информации и основанных на них операторов. Это множество всегда будет открытым, так как априори невозможно перечислить все существующие и все возможные информации, а тем более предугадать, какова будет эффективность их использования в некоторой ситуации.

Принципиальная невозможность перечислить все ситуации и цели, где может получить применение данная информация, а также перечислить все информации, которые могут получить применение для достижения данной цели даже в данной определенной ситуации, и тем более невозможность предугадать последствия этих применений – это характернейшая особенность мира, где царствует информация. С другой стороны, свойство полипотентности – вернейший залог жизнеспособности информации, которая не только сама подвергается постоянной изменчивости, но и, будучи использована для осуществления целенаправленных действий, всегда и неизбежно вызывает непредвидимые изменения самого пространства режимов. Как мы увидим ниже, свойство полипотентности, наряду с изменчивостью, играет важнейшую роль в эволюции информации.


Ценность информации

Помимо количества информации, измерять и выражать в цифрах можно и такое ее свойство, как ценность. В основе определения количества информации, как мы помним, лежат ее фиксируемость и инвариантность, а также "правило Шеннона", задающее емкость информационной тары. В основе определения ценности информации лежат такие ее свойства, как действенность и полипотентность, а также предложенный А. А. Харкевичем способ исчисления ценности через приращение вероятности достижения той цели, для чего данная информация используется. Приращения вероятности, однако, могут быть рассчитаны по-разному, и нам предстоит сделать выбор между возможными вариантами.

Если, согласно определению целенаправленного действия (см. ), через Р обозначить осуществление события цели в данном пространстве режимов при использовании данной информации, а через р? спонтанное осуществление этого же события, то "приращение вероятности достижения цели" можно выразить и как Р-р, и как Р/р, и как log(P/ p). Учитывая, что Р и р могут изменяться от 0 до 1, мы увидим, что в первом случае ценность информации С может варьировать в пределах от плюс 1 до минус 1, во втором – от нуля до бесконечности, а в третьем – от минус бесконечности до плюс бесконечности. Исходя из удобства дальнейшего изложения, примем такой способ исчисления ценности информации, чтобы ее величина изменялась от 0 до плюс 1. Для этого ценность можно выразить через отношение (15)

Казалось бы, этого же интервала изменчивости С можно достигнуть, положив Р < р и выражая С = Р-р или С = Р. В первом из этих случаев, однако, при приближении р к Р величина С будет стремиться к 0, даже если р = 1 и, следовательно, далее возрастать вообще не может. Во втором же случае нижнее значение С будет определяться величиной Р, а не свойствами информации.

Против определения (15) ценности информации можно возразить, что она не принимает отрицательных значений, т. е. не учитывает ситуацию с дезинформацией, когда Р <р. Но такая ситуация может возникнуть лишь в двух случаях. Один из них – это когда объект, поставляющий или использующий информацию, стремится уменьшить вероятность осуществления некоторого события. Тогда цель для него неосуществление Z, спонтанная вероятность чего p" = 1- p, и в этом случае Р, которое меньше, чем р, будет превышать значение р", и, следовательно, требование С? 0 будет соблюдено. Второй случай – это ошибочное использование неподходящей информации, что требует коррекции, а не логического анализа. Ситуация с "сознательным обманом" целиком включается в первый случай.

Обосновав таким образом избранную нами меру ценности информации, рассмотрим более внимательно содержание этого понятия.

Во-первых, и это чрезвычайно важно, можно утверждать, что в отличие от количества ценность информации невозможно задать одним единственным числом. Ценность каждой информации имеет определенное значение лишь по отношению к некоторой данной ситуации и данной цели. Из свойства же полипотентности следует, что по отношению к разным парам "ситуация-цель" ценность любой информации может варьировать в самых широких пределах, от 0 до 1. Тогда разные информации, следовательно, различаются не единичными значениями их ценности, а распределением этих величин по множествам ситуаций и целей, а ценность некоторой данной информации может быть полностью задана только в форме такого распределения. Распределение это будет представлено множеством точек, а не непрерывной поверхностью, так как множества ситуаций и целей всегда будут оставаться открытыми. Следовательно, мы никогда не сможем иметь исчерпывающие сведения о ценности какой-либо информации, – сколь бы ни представлялась она ничтожной, всегда остается надежда, что могут существовать такие ситуации и цели, где эта ценность близка к максимальной, т. е. к 1.

Посмотрим теперь, как ценность информации может быть связана с ее количеством. Очевидно, что этот вопрос может иметь определенный ответ тоже лишь по отношению к определенной паре "ситуация-цель", причем для разных информации такие ответы могут быть разными. В общем же виде ответ на этот вопрос можно представить себе как множество точек в системе координат (С, В), которое будет иметь определенное расположение только по отношению к данной паре "ситуация-цель" или в данном "информационном поле" (рис. 1).

Будем рассуждать следующим образом. Примем, что чем сложнее преобразование (12), описывающее целенаправленное действие, т. е. чем больше "шагов" (или операций) требуется для осуществления события цели в данной ситуации, тем большее суммарное количество информации должно быть использовано для его осуществления. Отсюда следует, что хотя в общем случае С не зависит от В, для каждого конкретного информационного поля должна существовать такая область значений С, которые могут быть достигнуты только при В, равных или превышающих некоторую критическую величину. Зависимость от В максимально возможных (для данных В) значений ценности С для любого информационного поля будет описываться кривой, монотонно возрастающей от 0 до 1. Эта кривая разделит данное информационное поле на две зоны: "пустую", расположенную слева, и "заселенную", расположенную справа, где располагаются значения ценностей информации, в той или иной степени пригодных для осуществления данного целенаправленного действия (т. е. для которых 0<С<1). Очевидно, что разные значения С для информации, имеющих одно и то же количество В, будут обусловлены различиями в их семантике.

Существование зависимости, описываемой на рис. 1 кривой С(В), позволяет поставить вопрос о формах связей между степенью сложности целенаправленного действия, с одной стороны, и спецификой оператора, с другой, а также между структурными особенностями оператора и количеством кодирующей его информации. Ниже мы обсудим эти вопросы, хотя окончательное их решение вряд ли получим. Сейчас же ограничимся предположением, которое выглядит довольно правдоподобно. Допустим, что количество информации В определяет степень сложности оператора независимо от специфики его устройства, обусловливаемой семантикой. Другими словами, чем больше количество информации В, необходимой для построения данного оператора, тем сложнее он устроен.



Рис. 1. Схема, показывающая зависимость ценности информации С от ее количества В.


Эффективность информации

Введем теперь понятие "эффективность информации" , которую определим как (16)

Очевидно, что, как и в случае с ценностью, эффективность любой информации может быть полностью задана только в форме распределения на множестве информационных полей. Для каждого информационного поля должна существовать кривая А(В), имеющая один максимум и две (левую и правую) нисходящие ветви, стремящиеся к нулю (рис. 2). Такова форма кривой, под которой располагаются значения эффективности информации, "обитающих" в данном информационном поле. Эта зона "заселена" информациями, пригодными для достижения соответствующей цели в данной ситуации. Так как форма этой зоны имеет принципиальное значение для проблемы динамики информации, рассмотрим ее более внимательно.

Можно утверждать, что для всех возможных информационных полей "кривая эффективности" А(В) обязательно имеет максимум и притом только один. Это позволяет для каждого информационного поля выделить информацию, для которой А = А max . Будем называть оптимальной как такую информацию, так и соответствующее ей значение В. Это позволяет утверждать, что информация, количество которой меньше или больше B opt , в данном информационном поле оптимальной быть не может.


Рис. 2. Схема зависимости Эффективности информации А от ее количества В


Еще раз о бренности информации и её изменчивости

Как уже отмечалось, свойство бренности информации обусловливается материальностью, – а следовательно, и бренностью – ее носителей. Следовательно, бренность разных информации определяется только и исключительно свойствами тех носителей (а также их окружения), которые были использованы для их записей и хранения. Соответственно бренность одной и той же информации, но зафиксированной на разных носителях, может сильно различаться: так, носители, с которых считывается информация, могут иметь короткий период полужизни, а используемые для ее хранения – очень длинный.

Исчезновение информации, благодаря ее бренности, может быть описано "кривыми отмирания", параметры которых будут определяться свойствами носителей.

Улвем неограниченно-длительного существования иформации из-за ее бренности является только периодическая ее репликация или, точнее, требование, чтобы скорость репликации была не меньше (а точнее – больше) скорости ее деградаии.

Из последнего заключения можно сделать интересный вывод. Если принять, что скорость репликации одного и того же количества информации не зависит от ее семантики и в среднем есть величина постоянная, то условием длительного существования информации будет уменьшение бренности носителей с возрастанием количества зафиксированной в них информации. Носители вместе с компонентами информационных систем, обеспечивающими их сохранность, можно характеризовать степенью надежности. Тогда можно сформулировать такое утверждение: надежность носителей информации должна возрастать с увеличением их информационной емкости (что может происходить как монотонно, так и ступенчато). Нетрудно видеть, что это утверждение связывает количество информации с требованиями к физическим свойствам носителей, используемых для ее фиксации.

И еще одно следствие из бренности информации. Исчезать данная информация может двояко – разрушаясь и изменяясь. Во втором случае каждый акт изменчивости будет, с одной стороны, актом гибели старой информации, а с другой – актом рождения новой, чем-то отличающейся от исходной. Можно сформулировать положение, согласно которому изменение информации совершается только по одному из трех способов: замена одних букв на другие без изменения их общего числа; выпадение одной или нескольких букв; вставка одной или нескольких букв. Такие изменения могут иметь разные механизмы, в зависимости от специфики информационных систем. Вклад разных видов изменчивости и разных ее механизмов в общий процесс изменения информации также зависит от специфики информационных систем. Однако, так как специфика информационных систем сама определенным образом связана с количеством кодирующей их информации, можно утверждать, что характер и механизмы инфоационной изменчивости должны закономерно изменяться с ростом количества инормации.

Изменяться информация может, будучи в двух разных состояниях – и в "покоящемся" состоянии, и в состоянии репликации. В первом случае причиной изменчивости могут быть различные повреждения ее носителей, а во втором, помимо этого, и "ошибки репликации". Таким образом, репликация играет в жизни информации двоякую роль: и как способ продления ее существования, и как фактор, повышающий ее изменчивость, с последующим продлением существования уже новой информации.

То обстоятельство, что без репликации достаточно продолжительное существование информации невозможно, а с другой стороны, тот факт, что редупликация информации в результате редупликации содержащего ее носителя может осуществиться лишь в ходе соответствующего целенаправленного действия, – означает, что любая информация всегда и прежде всего есть информация о способе своей редупликации в том или ином пространстве режимов. Следовательно, новые видоизмененные информации будут жизнеспособными тогда и только тогда, если и когда эти изменения относятся к способам редупликации и/или к условиям, где она может осуществляться. Любые другие изменения семантики информации нежизнеспособны и рано или поздно будут элиминированы.

Учитывая вышесказанное, можно сформулировать следующее утверждение. Любая информация неизбежно обречена на гибель. Бесконечно долго может существовать лишь последовательность вновь и вновь возникающих информации с изменяющейся семантикой, определяющей или способ редупликации этой информации, или те условия, при которых такая редупликация может осуществляться.


Полезность и истинность информации

Термины "полезность" и "истинность" обычно применяют по отношению к тому виду информации, которую мы назвали логической, но в равной мере они приложимы и к поведенческой информации, и к генетической. Посмотрим, какие особенности информации эти термины отображают и как они связаны между собой.

Полезность информации предполагает, что она кому-нибудь нужна, может быть для чего-то использована. Это "что-то", конечно, есть целенаправленное действие. Полезность информации, следовательно, проявляется в возможности ее использования для достижения той или иной цели. Из свойства полипотентности следует, что для чего-нибудь полезной может оказаться любая информация. Это делает вполне оправданным добычу и хранение информации про запас; авось для чего-нибудь пригодится... Любопытство, присущее не только человеку, но и многим другим животным, – это эмоция, удовлетворение которой и обеспечивает "запасание информации впрок".

Полезность информации предполагает существование некоторого объекта, который может этой информацией воспользоваться. Очевидно, что именно по отношению к такому объекту имеет смысл понятие "цель": ведь то, что для такого объекта является целью его деятельности, для других может быть совершенно не нужным. Информация же, точнее, ее полезность, связана не с выбором цели, а с ее достижением: на выбор конечной цели или на целеполагание сама по себе информация влиять не может. Таким образом, можно сказать, что полезность информации определяется возможностью ее использовать для достижения какой-либо цели. Из полипотентности следует, что для чего-нибудь полезной может быть любая информация, хотя это далеко не всегда очевидно.


Операции над информацией

Как отмечал еще Л. Н. Серавин , информация, не будучи "ни материей, ни энергией", не подчиняется законам сохранения. Так, реализация или трансляция информации не обязательно сопровождается исчезновением ее исходного образца, а в случае гибели информация может просто исчезать, не превращаясь в другую информацию. Такое неподчинение законам сохранения ярко проявляется и при осуществлении над информацией двух операций – суммирования и деления. Это является следствием того, что информация характеризует всю систему в целом. Следует подчеркнуть, что информация поддается только этим двум операциям, ибо никаких других операций над ней производить невозможно.

Будем называть суммированием объединение двух или более записей информации в единый текст, а делением – разбивку какого-либо текста на два или более фрагмента. Очевидно, что и то, и другое предполагает, прежде всего, осуществимость соответствующих операций над носителями информации и, следовательно, идентичность природы этих носителей. Другими словами, можно утверждать, что прежде чем осуществлять суммирование нескольких информации, их следует перевести в единую систему записи. Очевидно также, что как при суммировании, так и при делении информации общая емкость тары должна оставаться постоянной, т. е. Н 1 + Н 2 + ... = (Н 1 + Н 2 + …). Аддитивность емкости тары, однако, отнюдь не означает аддитивности количества самой информации. Вопрос, следовательно, можно сформулировать так: что происходит при суммировании или делении информации с их количеством, ценностью, эффективностью и семантикой, с их полезностью и истинностью?

Очевидно, что при суммировании общее количество информации может заключаться в интервале от общей емкости информационной тары до нуля, аддитивность же самой суммированной информации может встречаться лишь как частный случай. Особый интерес представляет ситуация, когда суммарная информация оказывается большей, чем сумма информации, содержащихся в слагаемых, т. е. когда как бы возникает некая добавочная информация. На самом деле, однако, никакого возникновения информации "из ничего" не происходит, – просто информация, не будучи "ни материей, ни энергией", не подчиняется принципу аддитивности, в отличие от емкости ее носителей. Крайний вариант этой ситуации, когда в суммируемых компонентах информации вообще не содержалось, т. е. ни в одном из них ее не было, а в сумме она появляется, – этот вариант относится уже к проблеме возникновения информации и для своего рассмотрения требует, прежде всего, умения отличать информацию, содержащуюся в сообщении, от пустой последовательности букв. При суммировании возможно также исчезновение информации, хотя в суммированных фрагментах она содержалась в достаточном количестве.

Сходные ситуации могут наблюдаться и при делении какого-либо сообщения, содержащего информацию, на фрагменты: количество информации в каждом фрагменте может оказаться равным любой величине, заключенной между емкостью соответствующей информационной тары и нулем. Сумма информации, содержащихся в фрагментах, может быть большей, а может быть и меньшей, вплоть до нуля, по сравнению с количеством информации, содержащейся в исходных сообщениях.

Таким образом, и суммирование, и деление информации может приводить как к ее уменьшению, вплоть до полного исчезновения, так и к увеличению ее количества, вплоть до полного заполнения ею информационной тары. Обе эти операции, следовательно, могут рассматриваться как возможные пути возникновения дополнительной информации.

Очевидно, что к ценности и эффективности информации принцип аддитивности вообще неприложим, можно говорить лишь об изменениях форм распределений, описывающих то и другое. На этот счет можно высказать лишь одно утверждение: никаких предсказаний здесь априори делать нельзя, и каждый конкретный случай требует своего рассмотрения. Это же полностью относится к семантике, полезности и истинности информации – все эти характеристики, как и рассмотренные выше, при суммировании или делении информации могут изменяться во всем характерном для них диапазоне значений, вне какой бы то ни было зависимости одна от другой. Это еще раз подтверждает сделанное выше утверждение, что суммирование и деление, т. е. операции над информацией, – один из возможных путей возникновения новой информации. Априорная непредсказуемость характеристик новой информации, образующейся при суммировании или делении, играет важную роль в ее эволюции.


Классификация информации

Приступая к проблеме классификации информации, прежде всего, по-видимому, следует раз и навсегда отказаться от попыток выделить элементарные единицы информации: понятие дискретности или непрерывности к информации, скорее всего, вообще неприложимо. Из всего сказанного выше следует, что информацию можно классифицировать лишь по особенностям проявления тех или иных ее свойств, и в первую очередь ее фиксируемости и действенности.

По фиксируемости или, точнее, в соответствии с природой носителей мы различали уже три вида информации – генетическую, "записанную" в молекулах нуклеиновых кислот; поведенческую, фиксируемую генетическими компонентами нервных клеток, и логическую, проявляющую себя в форме человеческого знания или в форме идей, носителем которых помимо нервных клеток служит язык, т. е. устная или письменная речь. Количественно каждая из этих информации может быть ограничена только сверху: никакой носитель не может содержать больше информации, нежели позволяет его емкость. Поэтому верхней границей генетической информации служит максимально-возможное содержание в клетках ДНК, поведенческой – максимальное содержание в одном организме нервных клеток, а логической – максимально возможная суммарная емкость носителей информации тех технических систем, которые используются человеком для ее записи и хранения. Каждый из этих трех видов информации может существовать в форме независимых дискретных субъединиц: хромосомы в живой клетке, нервная система того или иного животного, отдельные экземпляры книг в библиотеке. Все это свидетельствует о возможности разделить тот или иной вид информации на отдельные фрагменты, что, однако, отнюдь не отражает дискретность самой информации.

По своей действенности информация, относящаяся к каждому из этих трех видов, может быть как завершенной, так и незавершенной. Это, конечно, также не свидетельствует ни о ее дискретности, ни о ее континуальности. Завершенной будем называть такую информацию, которой достаточно для построения какого-либо оператора. Незавершенная – это информация, на основе которой построить целостный оператор невозможно; незавершенная информация, следовательно, может кодировать лишь какой-либо фрагмент оператора или какой-либо этап его построения. Условность такой классификации, однако, связана с тем, что никакая информация не может сама построить кодируемый ею оператор, – для этого она должна быть включена в соответствующую информационную систему. Поэтому в одной информационной системе какая-либо информация может проявлять себя как завершенная, а в другой – как незавершенная, и далеко не всегда просто решить, является ли это отражением особенностей самой информации или воспринявшей ее информационной системы.

Необходимость для использования информации адекватных ей информационных систем предполагает возможность классификации и по этому признаку, т. е. по особенностям таких информационных систем. Однако этот подход к классификации информации предполагает достаточные знания о самих информационных системах, о чем речь пойдет только в следующей главе.

Наконец, остается еще одна возможность классификации информации через специфику кодируемых ею операторов. Это, пожалуй, будет наиболее объективный подход к классификации информации, так как он включает в себя и все другие выше-рассмотренные подходы. Реализован этот подход будет ниже, при рассмотрении проблем, связанных с возникновением и эволюцией информации. Забегая вперед, можно лишь сказать, что результатом такой классификации будут все те же три вида информации, которые мы выделили в самом начале этой работы.


Информация и объекты материального мира

Теперь, когда мы достаточно знаем о свойствах и особенностях информации, рассмотрим взаимоотношения между информацией и теми объектами окружающего нас мира, которые мы называем "материальными" или "физическими", т. е. телами и потоками энергии. Напомним, что между этими объектами и информацией существует та принципиальная разница, что все материальные объекты могут восприниматься нашими органами чувств (либо непосредственно, либо с помощью специальных приборов), информация же сама по себе органами чувств не воспринимается, а "считывается" лишь соответствующим блоком ее собственной информационной системы.

Нетрудно видеть, что между материальными объектами нашего мира и информацией могут быть три вида отношений, благодаря чему эти объекты можно подразделить на три класса. Класс А – это объекты, являющиеся носителями информации. Класс Б – объекты, о которых имеется или может быть создана информация. Класс В – объекты, для создания которых требовалась или требуется информация. Такая классификация условна в том смысле, что объекты из каждого класса могут, вообще говоря, относиться (и, как правило, относятся) еще к одному или двум другим классам. В то же время эта классификация в каждом данном отношении совершенно определенна. Действительно, никакая информация не может существовать, не будучи зафиксирована в каком-либо из объектов класса А. Объекты класса Б являются первичными по отношению к той информации, которая может быть о них создана, но существуют независимо от какой бы то ни было информации. Объекты класса В являются вторичными по отношению к описывающей их информации и не могут возникать без ее участия, – соответствующая же информация в своем существовании от них не зависит.

Связь объектов всех трех классов с информацией можно рассматривать в трех аспектах: в аспекте первичности (о чем уже шла речь), в аспекте количества и в аспекте качества или семантики.

Действительно, вполне правомочно поставить вопрос, как связана степень упорядоченности или сложности физических объектов с той информацией, которая может быть в них зафиксирована; может быть о них создана; требуется для создания таких объектов. Особый интерес при этом приобретает ситуация, когда к классу Б относятся объекты, принадлежащие к классу В, т. е. когда искусственно созданные объекты служат для того, чтобы воссоздать информацию, которая была использована при их построении.

Прежде всего посмотрим, как связаны с информацией объекты класса А – ее носители. Первое утверждение относительно объектов класса А можно сформулировать так: физические свойства носителя непосредственно определяют его информационную емкость (или верхнюю границу количества той информации, которую он может содержать).

Второе утверждение непосредственно следует из способа фиксации информации на носителях и состоит в том, что каждый данный носитель в пределах данного количества может содержать информацию любой семантики. Это – другая сторона свойства инвариантности информации по отношению к физическим носителям (см. глава 2. "Инвариантность информации по отношению к носителям").

Третье утверждение непосредственно относится к продолжительности жизни информации, зафиксированной на данном носителе, и рассматривалось в разделе о бренности информации (глава 2. "Бренность информации"). Смысл его состоит в том, что продолжительность жизни каждой данной информации (точнее, данного ее экземпляра) определяется только физическими особенностями носителя и внешними по отношению к нему условиями. Здесь, однако, есть один аспект, заслуживающий особого внимания: чем больше количество данной информации, тем большим по размерам (или протяженности) должен быть ее носитель. Это, по крайней мере, в некоторых случаях может влечь за собой большую уязвимость (или хрупкость) носителя и тем самым влиять на степень бренности содержащейся в нем информации. Но и в этом случае увеличение бренности информации с ростом ее количества будет определяться свойствами носителя, требующегося для ее записи, а не самой информацией как таковой.

Таким образом, физические особенности объектов класса А -носителей информации – определяют то количество информации, которое может в них содержаться, и ее бренность. Первое обстоятельство объясняет, почему для измерения количества информации можно использовать величины, характеризующие именно те свойства таких объектов, которые допускают их использование в качестве носителей информации. Мы уже видели (см. глава 2. "Фиксируемость информации. Ее носители"), что в качестве таковых могут выступать любые физические объекты –формальных ограничений здесь нет.

Связь с информацией объектов класса Б издавна анализируется той областью философии, которую называют "теорией познания". В самом общем виде эту связь можно выразить так: объекты класса Б полностью и однозначно определяют количество и семантику той информации, которая может быть о них создана. Это утверждение, однако, внутренне порочно: ведь мы знаем о разных объектах лишь то, что мы о них знаем, а это и есть созданная о них информация. Мы должны, следовательно, допустить существование некоторого множества свойств, присущих какому-либо объекту, которые нам еще не известны. В этом случае можно утверждать, что создаваемая о подобных объектах информация асимптотически стремится к этому множеству. Но мы никогда не сможем узнать, насколько она к нему приблизилась! Решение этого вопроса тесно связано с принятием посылки либо о неисчерпаемости, либо об исчерпаемости познания, т. е. посылки о существовании или несуществовании абсолютной истины. Приняв посылку о неисчерпаемости познания и, что равносильно этому, об относительности всех истин, мы придем к выводу, что о любом объекте может быть создано бесконечное количество семантически определенной информации, что бессмысленно. Более эвристичной выглядит посылка об исчерпаемости познания любого объекта и, следовательно, о существовании абсолютных истин, – посылка, хорошо отражающая системный подход к анализу объектов материального мира. Полной информацией о том или ином объекте можно называть такую информацию, располагая которой можно этот объект воссоздать в принципе неограниченное число раз. Следовательно, полная информация и есть тот предел, к которому стремится как количественно, так и семантически информация, создаваемая об объектах класса Б. Алгоритмическое представление об информации , следовательно, предполагает исчерпаемость познания любого конкретного физического (или материального) объекта.

Теперь нам остается рассмотреть связь с информацией объектов класса В – так называемых искусственных объектов, существование которых определяется кодирующей их информацией. Утверждение, согласно которому сложность строения и специфика таких объектов однозначно определяется количеством и семантикой этой информации, будет верным лишь отчасти, ибо большую роль здесь должно играть то устройство, которое реализует информацию в данный объект. Следовательно, такой объект всегда и неизбежно структурой своей отображает несколько большую по количеству и семантически более богатую информацию, нежели та, которая была использована для его создания – или, точнее, которая представляет собой алгоритм его построения. Это позволяет высказывать утверждение, что объекты класса Б определяются информацией лишь в той мере, в какой они соответствуют цели, для которой их создают, – ибо такие объекты, являющиеся искусственными, создаются всегда и только с какой либо целью. Это же приводит нас к вопросу о существенных свойствах таких объектов.

Возможность создания полной информации о естественных объектах означает принципиальную возможность их искусственного построения. Такую ситуацию по отношению к нашей Вселенной рассматривал С. Лем в книге "Сумма технологий" . Феноменологическая неразличимость искусственного и естественного миров, однако, не означает их принципиальной неразличимости: искусственное создание физических объектов предполагает предсуществование отображающей их информации, а естественно возникающие объекты далеко не всегда в этом нуждаются.

Таковы в основных чертах соотношения между информацией и объектами материального мира.

 

 

Это интересно: