На главную

 

 

Сайт основан 1 марта 2003 года

= Информация. Информационные процессы. Информационная система =

  • Поняття інформації.
  • Інформаційні процеси.
  • Види інформації.
  • Поняття повідомлення. Форми подання повідомлень. Поняття мови.
  • Вимірювання інформації.
  • Оцінка інформації.
  • Повідомлення і інформація. Шум і інформація. Властивості інформаційних повідомлень.

  • Жизнь начинается там, где начинается информация.
    А.А.Харкевич
    Поняття інформації.

    Мы живём в мире информации. Информация всегда была непременным спутником развития человека, его жизни и деятельности. Без информации он обречён на смерть. Обмен информацией живому существу так же необходим, как и обмен энергией и веществом. Своеобразие информации состоит в том, что она не является ни материей, ни энергией. Что же такое информация?
    Слово “информация” происходит от латинского слова informare – изображать, разъяснять, излагать что-либо, составлять понятие о чём-либо.
    В философии, понятие информация рассматривается как общенаучная познавательная категория: "Информация — это результат взаимодействия материальных систем. Она объективно существует в любой материальной системе. Источниками информации являются реальные материальные системы, процессы, явления, события. Высшая, наиболее развитая форма информации — это отображение в человеческом сознании организации материальных систем или параметров реальных процессов окружающего мира в виде понятий, представлений разного рода теорий, моделей, описаний и схем этих систем и процессов."
    Информация имеет количественную (вимірювання інформації) и качественную (оцінка інформації) характеристику.

    Вернуться к меню

    Інформаційні процеси.

    Действия, которые можно производить с информацией, называют информационными процессами. Всё, что мы наблюдаем, слышим, осязаем, ощущаем, делаем, говорим, пишем, считаем есть не что иное как получение, обработка, накопление, хранение, поиск, использование, передача, защита информации. Любая, сколь угодно сложная информационная деятельность человека сводится к трем основным видам действий с информацией: сохранению, приему/передаче, обработке. Обычно вместо “прием-передача” говорят просто “передача”, понимая этот процесс как двусторонний: передача от источника к приемнику (синоним — “транспортировка”).
    Форма, в которой информация движется между источниками и потребителями, называется сообщением.
    Хранение, передача и обработка информации — основные виды информационных процессов.

    Вернуться к меню

    Види інформації.

    Всё многообразие окружающей нас информации можно сгруппировать по различным признакам.
    По признаку "область возникновения": элементарная - информация, отражающая процессы, явления неодушевлённой природы; биологическая - информация о процессах животного и растительного мира; социальная - информация о процессах в человеческоом обществе.
    Всю информацию об окружающем мире человек получает с помощью пяти чувств - вкуса, обоняния, осязания, слуха и зрения. Различают виды информации по способу передачи и восприятия. Информацию, передаваемую видимыми образами и символами, называют визуалной, звуками - аудиальной (звуковой), ощущениями - тактильной, запахами и вкусом - органолептической (обонятильная и вкусовая).
    Информацию, создаваемую и используемую человеком, по общественному назначению делят на массовую (общественно-политическая, научно-популярная), специальную (техническая, экономическая, управленческая), личную.
    Выделяют виды информации, которые обрабатывает компьютер - это текстовая, числовая, графическая, звуковая, комбинированная.

    Вернуться к меню

    Поняття повідомлення. Форми подання повідомлень. Поняття мови.

    Информация передаётся посредством сообщений. Сообщение - это последовательность сигналов (слово сигнал имеет общий корень с sign (англ), что в переводе означает "знак", "символ") различной природы: звуков, текста, чисел, графических изображений, жестов и т.д. Сообщение можно представить в различных формах, используя различные языки.
    Язык - это специальная знаковая система или общепринятые символы.
    В языке есть алфавит, граматика, синтаксис: Грамматика – правила по которым из символов алфавита строятся слова. Синтаксис – правила, по которым из слов строятся предложения.
    Различают языки естественные и формальные.
    Язык челевеческого общения (русский, украинский, английский и другие). Язык позволяет представить сообщение и в звуковой форме (усная речь) и в текстовой (письмо).
    Язык жестов и движений. Таким языком пользуются глухонемые, матросы на речных и морских судах, дежурные на железной дороге, дрессировщики, тренеры спортсменов.
    Язык звуков. Это могут быть звуковые сигналы на транспорте, музыкальные произведения.
    Язык графических изображений. Пиктограммы, обозначения на географических картах, блок-схемы, организационные диаграммы.
    Язык световых сигналов. Светофоры, автомобильные фари поворотов, маяки на дорогах.
    Язык специальных обозначений. Азбука Морзе, музыкальная азбука - ноты, цифры для записи чисел, математические символы, обозначения в химии, шрифт Брайля для слепых, язык цветов, знаки генетического кода.
    Язык специальных команд. Такими языками пользуются для управления роботами, автоматами, компьютерами. Примером такого языка может быть язык программирования.

    Вернуться к меню

    Вимірювання інформації.

    Содержательный подход. Количественную теорию информации разработал немецкий учёный К.Шеннон в 40-х годах ХХ века Шеннон впервые ввёл в теорию информации единицу измерения количества информации - бит. Она соответствует минимальному объёму информации, полученной в виде ответа на вопрос “да” или “нет” в том случае, когда событие может иметь два равновероятных исхода. Например "Эта стена – зеленая? Да", "Дверь открыта? Нет."

    По количественной теории информация выступает мерой снятой неопределённости, т.е. чем больше человек получит информации, тем меньше становится степень неопределённости в отношении того или иного объекта, явления или процесса. Считается, что вероятность очевидного сообщения равна единице, а количество информации в нём равно нулю (т.е. сообщение о том, что произойдёт событие, которое не может не произойти, несёт нулевую информацию).
    Если обозначить буквой i количество информации в сообщении о том, что произошло одно из N равновероятных событий, то величины i и N связаны между собой формулой Хартли:

    2i = N                                                                    (1)

    Величина i измеряется в битах. Отсюда следует вывод:

    1 бит — это количество информации в сообщении об одном из двух равновероятных событий

    Формула Хартли — это показательное уравнение. Если i — неизвестная величина, то решением уравнения (1) будет:

    i = log2N                                                                (2)

    Формулы (1) и (2) тождественны друг другу. Иногда в литературе формулой Хартли называют формулу (2).

    Количество информации - величина, обратно пропорциональная степени вероятности того события, о котором идёт речь в сообщении. Чем более вероятно событие, тем меньше информации несёт сообщение о его наступлении, и наоборот.

    Если вероятность некоторого события равна p, а i (бит) — это количество информации в сообщении о том, что произошло это событие, то данные величины связаны между собой формулой:

    2i = 1/p                                                                 (3)

    Решая показательное уравнение (3) относительно i, получаем:

    i = log2(1/p)                                                             (4)

    Формула (4) была предложена К.Шенноном, поэтому ее называют формулой Шеннона.

    Но количество, рано или поздно, переходит в качество и с получением какого-то количества информации неопределённость может не только не уменьшатся, но даже увеличиваться. Данное обстоятельство привело к созданию качественных теорий информации Оцінка інформації

    Алфавитный (кибернетический) подход. Алфавитный подход используется для измерения количества информации в тексте, представленном в виде последовательности символов некоторого алфавита. Такой подход не связан с содержанием текста. Иногда данный подход к измерению информации называют объемным подходом. Все множество различных символов, используемых для записи текстов, называется алфавитом. Размер алфавита — целое число, которое называется мощностью алфавита. Следует иметь в виду, что в алфавит входят не только буквы определенного языка, но все другие символы, которые могут использоваться в тексте: цифры, знаки препинания, различные скобки, пробел и пр.
    Количество информации, которую несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2i = N, где N — мощность алфавита. Величину i можно назвать информационным весом символа.

    Зная информационный вес одного символа ( i ) и размер текста, выраженный количеством символов ( K ), можно вычислить информационный объем текста по формуле: I = K · i , при этом считается все символы имеют одинаковый информационный вес.

    С позиции алфавитного подхода к измерению информации 1 бит — это информационный вес символа из двоичного алфавита, а 1 байт - информационный вес символа из алфавита мощностью 256.

    Вернуться к меню

    Оцінка інформації.

    В качественных теориях информации понятие информации связывают с понятием ценности, практической значимости. Информация - ключ ко всем знаниям, источникам энергии, сырья, машинам, технологиям; информация - дорогой продукт труда, имеет общественную потребительскую стоимость, является товаром, который при продаже остаётся у продающего.
    Ценность информации зависит от места и времени её потребления (получения), от самого потребителя. Ценность информации прямо зависит от цели, которую ставит перед собой её потребитель. Ценность информации связана с её новизной. Информация, которая не несёт новизны, перестаёт быть информацией в текущий момент, теряя цену, но может стать таковой и ценной в другое время, для другого потребителя. Причём к восприятию новой информации потребитель должен быть готовым. Мы воспринимаем то, что знаем, то что понимаем. Информация должна быть достоверной, т.е. она не должна искажать действительность, истинное положение дел. Информация должна быть полной, т.е. её должно быть достаточно для понимания и принятия решения.
    Ценность информации определяется реальным процессом её передачи и восприятия.

    Вернуться к меню

    Повідомлення і інформація. Шум і інформація. Властивості інформаційних повідомлень.

    Сообщения в течение длительного времени отождествлялись с информацией. Теперь соответствие между сообщением и информацией не является взаимоодназначным.
    Одну и ту же информацию можно представить с помощью различных сообщений (пример). Одно и тоже сообщение может нести разную информацию взависимости от того, как её воспринимает потребитель (пример). Не всякое сообщение несёт информацию. Если сообщение не нужно потребителю, сообщение теряет практическую ценность, то это сообщение несёт шум, а не информацию (пример). Сообщение может нести шум с точки зрения потребителя информации. Возможно, это же сообщение, полученное в другое время или другим адресатом, может быть информацией. Любая закодированная информация без знания кода превращается в шум. Одно и то же сообщение может нести в себе в одном случае - информацию, в другом случае - шум.
    Во время передачи сообщения может произойти искажение информации, и она частично или полностью превратиться в шум. Если известны воздействия, которым подверглась информация во время передачи, то можно попытаться снять результаты этого воздействия, и шум преобразовать в информацию. Таким образом, информация может преобразовываться в шум и шум - в информацию. Если информационное сообщение обладает свойствами: достоверности, полноты, полезности, понятности, актуальности, то оно несёт информацию, которая может способствовать принятию правильного решения.

    Вернуться к меню