Kлассификация информации. Формы передами информации

1. Информацию можно подразделить по форме представления на 2 вида:

Дискретная форма представления информации - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

Аналоговая или непрерывная форма представления информации - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).

2. По области возникновения можно выделить информацию:

Элементарную (механическую), которая отражает процессы, явления неодушевленной природы;

Биологическую, которая отражает процессы животного и растительного мира;

Социальную, которая отражает процессы человеческого общества.

3. По способу передачи и восприятия различают следующие виды информации:

Визуальную, передаваемую видимыми образами и символами;

Аудиальную, передаваемую звуками;

Тактильную, передаваемую ощущениями;

Органолептическую, передаваемую запахами и вкусами;

Машинную, выдаваемую и воспринимаемую средствами вычислительной техники.

4. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:

Личную, предназначенную для конкретного человека;

Массовую, предназначенную для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.) ;

Специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.

5. По способам кодирования выделяют следующие типы информации:

Символьную, основанную на использовании символов - букв, цифр, знаков и т. д. Она является наиболее простой, но практически применяется только для передачи несложных сигналов о различных событиях. Примером может служить зеленый свет уличного светофора, который сообщает о возможности начала движения пешеходам или водителям автотранспорта.

Текстовую, основанную на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. Однако информация заложена не только в этих символах, но и в их сочетании, порядке следования. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Благодаря взаимосвязи символов и отображению речи человека текстовая информация чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме.

Графическую, основанную на использовании произвольного сочетания в пространстве графических примитивов. К этой форме относятся фотографии, схемы, чертежи, рисунки, играющие большое значение в деятельности человек.

3. Единицы измерения информации

Единицы измеренияинформации служат для измерения объёмаинформации- величины, исчисляемойлогарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состоянийперемножается, а количество информации -складывается. Не важно, идёт речь ослучайных величинахв математике,регистрахцифровой памяти в технике или дажеквантовых системахв физике.

Чаще всего измерение информации касается объёма компьютерной памятии объёма данных, передаваемых поцифровым каналам связи.

Впервые объективный подход к измерению информации был предложен американским инженером Р. Хартли в 1928 году, затем в 1948 году обобщен американским учёным К. Шенноном. Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Вероятность - численная мера достоверности случайного события, которая при большом числе испытаний близка к отношению числа случаев, когда событие осуществилось с положительным исходом, к общему числу случаев. Два события называют равновероятными, если их вероятности совпадают.

Примеры равновероятных событий

1.при бросании монеты: «выпала решка», «выпал орел»; 2. на странице книги: «количество букв чётное», «количество букв нечётное»; 3. при бросании игральной кости: «выпала цифра 1»,«выпала цифра 2»,«выпала цифра 3»,«выпала цифра 4»,«выпала цифра 5»,«выпала цифра 6».

Неравновероятные события

Определим, являются ли равновероятными сообщения «первой из дверей здания выйдет женщина» и «первым из дверей здания выйдет мужчина». Однозначно ответить на этот вопрос нельзя. Во-первых, как известно количество мужчин и женщин неодинаково. Во-вторых, все зависит от того, о каком именно здании идет речь. Если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Логарифм числа a по основанию b (log b a) равен показателю степени, в которую надо возвести число b, чтобы получить число a. Широкое применение в информатике получили логарифмы по основанию два, которые называют двоичными логарифмами.

Формула Хартли:

I = log 2 N

Шеннон предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I=P1log21/P1+P2log21/P2+…+PNlog21/PN,

где pi – вероятность i-го сообщения

Поскольку каждый регистр арифметического устройства и каждая ячейка памяти состоит из однородных элементов, а каждый элемент может находиться в одном из двух устойчивых состояний (которые можно отождествить с нулем и единицей), то К. Шенноном была введена единица измерения информации – бит.

Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

Широко используются также еще более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт,

1 Гигабайт (Гбайт) = 1024 Мбайт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт,

1 Петабайт (Пбайт) = 1024 Тбайт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Очень часто, многие люди, начиная ещё с раннего возраста, задаются вопросом о том, что же такое информация? И, действительно, информация является одним из самых фундаментальных понятий человечества и без раскрытия её смысла будет невозможно в полной мере постигать все те процессы, которые с ней связаны. Но до появления такого предмета, как , понятие информации было очень размытым, а сведения о её сущности разрозненны.

С другой стороны, все мы, так или иначе, в целом понимаем общий смысл, что такое информация . Мы постоянно воспринимаем информацию из окружающего нас мира с помощью органов чувств. Без постоянного приёма информации , мозг человека не сможет существовать.

Понятие информации

У такой науки, как информатика, подход к пониманию информации, особый. Основополагающим будет утверждение, что любое происходящее событие и явление служит для нас источником информации.


В общем, под информацией понимают те сведения, которые принимаемы и передаваемы, сохраняемы различными источниками. Таким образом, информация - является некоторой совокупностью сведений об окружающем нас мире, о всевозможных протекающих в нем процессах, которые способны воспринимать живые организмы, электронно-вычислительные машины и другие виды информационных систем.


Существует определение понятия информации, которое впервые было предложено математиком Клодом Шенноном (основателем количественного подхода к информации и человека, который научил измерять людей информацию), согласно которой:


Информация - это мера снятой неопределенности или сведения, которые нужно снять в той или иной степени существующую у потребителя до их получения неопределенности, с цель. расширения его понимание объекта полезными сведениями.


Также информацию можно рассмотреть как третью составляющую основ мироздания, наряду с веществом и энергией.

Информация и информационные процессы

С понятием информации тесно связано множество остальных фундаментальных понятий и процессов.


Однако стоит отметить, что предметом изучения информатики, как науки, является не сама информация, а данные: методы их создания, хранения, обработки и передачи и т.д.

Классификация информации

В зависимости от выбранного критерия информацию можно разделить на различные виды. Приведем основные из них.

По объектам информационного взаимодействия:

  • Человек - человек
  • Человек - автомат.
  • Автомат - автомат.


Также под информацией можно понимать обмен сигналами в животном и растительном мире

  • посредством передачи признаков от клетки к клетке;
  • через передачу признаков от организма к организму.

По способу восприятия информацию подразделяют на:

  • Визуальную - та, часть информации, которую мы воспринимаем органами зрения.
  • Звуковую - та, часть информации, которую мы воспринимаем органами слуха.
  • Тактильную - та, часть информации, которую мы воспринимаем тактильными рецепторами.
  • Обонятельную - та, часть информации, которую мы воспринимаем обонятельными рецепторами.
  • Вкусовую - та, часть информации, которую мы воспринимаем вкусовыми рецепторами.

По форме своего представления, информация может быть:

  • Текстовой - передаваемой в виде символов, предназначенных обозначать лексемы языка.
  • Числовой - в виде цифр и знаков, обозначающих математические действия.
  • Графической - в виде изображений, предметов, графиков.
  • Звуковой - устная или в виде записи и передачи лексем языка аудиальным путём.
  • Видеоинформацией - передаваемой в виде видеозаписи.


По своему назначению:

  • Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
  • Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

По своему значению информация может быть:

  • Актуальная - та информация, которая нужна и тем ценна в данный момент времени.
  • Достоверная - информация, полученная без искажений.
  • Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная - информация, достаточная для принятия правильного решения или понимания.
  • Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

По истинности, информацию можно разлить на:

  • истинную - является достоверной;
  • ложную - является недостоверной.

Дезинформация

В мире существует понятие противоположное по смыслу информации. В этом случае данные о каком-либо событии предоставляется в неполном или искаженном виде. Причем, это делается целенаправленно. Так нередко поступают в политике или ситуациях, на которых можно извлечь большую выгоду.

Термин «информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом , автоматом и автоматом; обмен сигналами в животном и растительном мире ; передачу признаков от клетки к клетке, от организма к организму (например, генетическая информация); одно из основных понятий кибернетики .

Энциклопедичный YouTube

    1 / 5

    ✪ Упорядоченная Информация - основа Вселенной

    ✪ Лекция 1 | Введение в теорию информации | Андрей Ромащенко | Лекториум

    ✪ КОФЕ. Знай это о Кофе. Внимание ВСЕМ! Жизненно важная информация! Вред Кофе. Фролов Ю А

    ✪ Что такое теория информации?

    ✪ Информация, количество информации

    Субтитры

    В первой половине ХVII века Николай Каперник предположил, что Земля имеет форму шара, который вращается не только вокруг своей оси, но и вокруг Солнца. Развивая его идеи английский астроном Томас Диггес высказал предположение, что пространство бесконечно и заполнено звездами. Итальянский философ Джордано Бруно впервые стал отождествлять звезды с далекими солнцами. В 1775 году в своем трактате Иммануил Кант предположил, что Галактика может быть вращающимся телом в виде закрученной спирали, состоящем из огромного количества звезд, удерживаемых силами гравитации. Наблюдая за Галактикой с точки находящейся внутри нее, в частности из нашей Солнечной Системы, получившийся диск будет виден на ночном небе как светлая полоса. Современная космология продолжает пополнятся уникальной информацией. Ученые выдвинули теорию Большого взрыва, изучают так называемое реликтовое излучение, наблюдают расширение вселенной, появляются версии о существовании темной материи и темной энергии. Относительно недавно появилась информация о черных дырах, сформировали версию их происхождения. Ученые делают всё больше открытий и получают всё больше информации. Ну а на самом деле - существует ли темная материя? Что такое Черные дыры и есть ли предел Вселенной? И вообще, как на самом деле образовалось все мироздание? А что если вся Вселенная - это не что иное, как иллюзия... И суть ее - Информация? Кто я настоящий? Зачем я здесь? В чём моя цель? Где найти ответы? А что если?.. Над этими и другими интересными вопросами о мироздании мы задумались, прочитав книгу "АллатРа". И как у многих людей, у нас родилось множество вопросов. Давайте искать ответы вместе! А что если кроме мира материального, в котором мы живем, существует мир нематериальный, мир первичный? Ведь науке уже давно известно, что человеческий глаз далеко не совершеннен, он воспринимает электромагнитные волны в диапазоне от 400 до 700 нанометров. Конечно, благодаря современным технологиям, наука может видеть больше, чем человеческий глаз. Но не смотря на множества уже известных волн самой различной природы даже они, по спектру занимают самый малый промежуток излучений. Сегодня люди зачастую пытаются объяснить невидимое на примерах видимого. Но на скрипучей телеге чисто материалистического мировоззрения в настоящей науке далеко не уедешь. Потому у современных учёных до сих пор нет четкого представления о том, например, чем на самом деле является электрический ток, или что такое гравитация и черная дыра. Для того чтобы понять и вникнуть в природу этих явлений, нужно иметь иное, отличное от материального, мировоззрение. А что если эти явления лишь проявляются в мире материи, а берут своё начало в мире духовном? "В начале было Слово, и Слово было у Бога и слово было Бог" (Евангелия от Иоанна) В разных духовных учениях и религиозных сказаниях народов мира есть общая суть. Из мира Бога, который именуется в легендах по разному, например, мировые воды, мировой океан, мир Изначального, мир Творца, появился первичный звук. Тот самый звук, который именуется по разному: мифическая Птица, Звук, Первый Логос, Слово Бога. В современном научном мире договорились использовать лишь одну теорию. Эта теория “Большого Взрыва”. Известно, что наша Вселенная в какой то момент времени, но если быть более конкретным 15 млрд лет назад была рождена… скажем так, имела очень маленькие размеры (10 минус 33 степени сантиметра). Представьте себе Сейчас человечество может Размер атома - это где-то порядка 10 минус 8 сантиметра, размер ядра 10 минус 13 сантиметров. Далее, мы с помощью всякого рода экспериментов можем проникнуть вглубь и рассматривать масштабы порядком в 10 минус 16 степени (-17, - 18), но мы говорим о масштабах 10 в минус 33 степени. То есть, ноль, а затем 33 нуля ещё после запятой, сантиметров. Вот вселенная началась с такой очень маленькой области пространства-времени. Эта область очень бурно расширялась. Была так называемая инфляционная стадия. Расширение вселенной произошло очень быстро, то есть, вселенная от размером 10 в минус 33 сантиметра увеличилась до размеров ну, порядка 10 в 20 степени сантиметра. Родились элементарные частицы, они начали друг с другом взаимодействовать. И далее начались процессы образования. Сначала образовались ядра, далее из ядер образовались атомы. Ну и пошло образование планет, галактик, и так далее, и тому подобное. А что если и вовсе не было никакого "Большого взрыва"? А что если это всего лишь теория, которая, благодаря современным технологиям, в ближайшем будущем будет пересмотрена? Помните? Это как и история с молекулами и атомами, когда их считали целыми и неделимыми, и плохо представляли их внутреннее строение и их возникновение. Чем дальше ученые углубляются в материю, тем больше они находят в ней пустоты. А что если вся материя есть пустота? А что если это иллюзия, созданная Богом, мыслью Бога? То есть духовным миром. Но для каких целей? Ученые смогли углубится в микромир. Выяснили, что тело состоит из клеток, клетки из молекул, молекулы из простых химических элементов. А что же на самом деле химический элемент? Химический элемент – это определённый вид атомов, который характеризуется числом протонов, нейтронов и электронов. Между ядром атома и электронами, которые находятся на различных арбеталях, существуют большие огромнейшие расстояния. Условно говоря – пустые. Потому что ядро атома сформировано из протонов и нейтронов, нейтроны – нейтрально заряжены, протоны - положительно заряжены, а электроны отрицательно заряжены, находятся на различных стационарных орбитах. Есть ближе к ядру, есть более отдалённые от ядра и (они) формируют различные облака. Так называемые плотности электрона. Но важно отметить, что живая материя, например, состоит из органов, тканей и клеток. А клетки уже, если их более детально изучать на микроуровне состоят из молекул. Но между отдельными молекулами находятся огромные пустые пространства, если так можно выразиться. И молекулы, в свою очередь, состоят из атомов, которые так же разделены огромными пустыми промежутками. Итак, одна мелкая частица, делится на другие более мелкие частицы. А что если это деление заканчивается абсолютной пустотой. Она существует везде, как в микромире, так и в макромире. А что если это и есть чистая энергия? Так называемая энергия По, составляющая единое поле разновидностей всех энергий и возникающих из них материи. И тогда становится понятным выражение: "Бог вездесущ". Импульсы энергии По порождают волны, изменяющие пространство и время. То есть по своей сути материя существует по законам волновой природы. Тот факт, что материя является порождением великой пустоты, "дао", был известен еще четыре тысячи лет назад индийским философам и около двух с половиной тысяч лет назад китайским мудрецам. Они наглядно представляли абсолютную пустоту как гладкую поверхность озера в отсутствие ветра. Возникающая частица материи из пустоты сопоставлялась с появлением на глади озера ряби под действием ветра. "Ветер" в данном ключе - это и есть божественная сущность, которой Он все создает и разрушает. В 1897 году английский физик Томсон открыл электрон. Электрон стали считать первой элементарной частицей. То есть первокирпичеком материи. Однако является ли действительно эта важнейшая частица бесструктурной? Сегодня ученые вывели гипотетическую частицу "гравитон", которая экспериментально не доказана, но теоретически вычислено, что из нее состоит гравитация. Гравитон наиболее подходит для обозначения частички По и поэтому чисто гипотетически можно утверждать, что из всех "фундаметнальных" частиц истинно таковым является только гравитон. А что если всем известный неделимый электрон состоит аж из 13 частиц По, нейтрино из пяти По, остальные состоят из 3, 5, 7, 12, 33, 70 и так далее частичек По. Причем многие так называемые фундаментальные частички, состоящие из одного и того же числа По, но имеющие разные формы и знаки заряда, соответственно играют и разные роли в этом театре материи. Получается, что все мироздание соткано из частиц По. А это значит, что во всей огромной Вселенной нет ни одного места, куда можно было бы воткнуть самую тонкую иглу, да так, чтобы её кончик во что-то да не уперся, с чем-то да не соприкоснулся. А что же такое на самом деле частичка По? Да и как была создана Вселенная? А что если в этом материальном мире всё, в том числе и то, что известно на сегодняшний день людям, от субатомных частиц до атома, от пылинок на туфлях до скопления галактик в далеком космосе, все существует благодаря упорядоченной информации. Именно упорядоченная информация создает материю, задает ей свойства, объем, форму, массу и другие характеристики. Сейчас не идет речь о привычном для человеческого мозга понятии "информация", мы говорим о несколько другом её проявлении. Хотя даже в привычном для человека понимании слово "информация" имеет несколько значений, в том числе "мыслить, обучать, разъяснять", "придавать вид, форму, формировать, создавать". Для простоты понимания, условно назовём эту упорядоченную информацию - "информационными кирпичиками". Что же такое информационные кирпичики? Давайте рассмотрим на следующем примере. Представьте, что одна девушка решила провести своеобразный эксперимент. Для этого ей понадобились: стеклянный аквариум, вода и маленькие кирпичики для сложения формы. В пустом стеклянном аквариуме девушка собирает из пенопластовых прозрачных кирпичиков замок по типу детского конструктора. При соединении одного прозрачного кирпичика с другим проявляется определенный окрас, видимый человеческому глазу. То есть у неё в голове есть план, как сделать замок, есть воля это сотворить, и есть силы, приложив которые, она и строит из этого необычного материала. Девушка собрала замок, который при таком соединении стал видимым, она любуется его красотой, объемом, сложностью архитектуры. Затем девушка, продолжая эксперимент, заполняет аквариум водой. Вода заполняет аквариум с такой силой, что разрушает построенный замок. При этом пенопластовые кирпичики, некогда бывшие элементами этого замка, будут всплывать на поверхность воды, некоторые отдельно, некоторые группами, которые по прежнему остаются видимыми глазу. В конце концов вся конструкция под напором воды распадается на отдельные кирпичики, и от замка не остается и следа. Если она удалит всю воду из аквариума, пенопластовые прозрачные кирпичики опустятся на дно. Сами по себе они, без её плана, воли и приложения силы, не сложатся в упорядоченно построенный замок. Это будет всего лишь хаотичная кучка пенопластовых кирпичиков. Можно сколько угодно трясти аквариум, хоть вечность, перемешивая их, замком они никогда не станут, пока она не построит его заново. Так вот, именно эти условные невидимые кирпичики и есть образное сравнение с информацией, которая создает материю, задавая ей определенные параметры, формы, объема, массы и так далее. А видимый замок из нашего примера - это уже есть один из материальных продуктов упорядоченной информации, из которой образуются элементарные субчастицы, составляющие атомы, молекулы, химические соединения, то есть всё материю Вселенной. Ну и, наконец, воля, план сооружения и сила приложения - это основные составляющие мира духовного, который проявляются в этом миру. А что если в основе всей материи действительно лежит информация. И так чего не коснись во всей Вселенной. Но достаточно будет убрать информацию, как то, что мы называем материей, исчезнет, как дырка от бублика после того как его съешь. Ведь пока бублик есть - есть и дырка, только бублик съели - исчезла и дырка. Так исчезает и материя, нет информации - нет и проявления материи. Количество материи во Вселенной постоянно изменяется, то её количество значительно увеличивается, то уменьшается. При этом - информация всегда стабильна, благодаря чему общая масса Вселенной со дня её Сотворения и по сей день не изменилась ни на одну миллиардную грамма. Но если бы хотя бы один информационный кирпичик исчез, то исчезла бы и вся Вселенная. Исчезнет часть - исчезнет целое. Не прекращающая свое движение Вселенная дойдет до определённого расширения и исчезнет. Всё гениальное, как всегда просто. Эти информационные кирпичики мироздания никогда и никуда не исчезают, то есть, не покидают пределы Вселенной, как в нашем примере с аквариумом, и существуют в нём в строго упорядоченном виде. А что если все в этом мире строго упорядоченно, существует по определенному плану, воле и силе Строящего? А что если человек в этом плане, как главное творение играет самую важную роль? Готовит себя для дальнейшего существования. А что если это всё правда? В фильме были использованы материалы из книги Анастасии Новых «АллатРа» Фильм создан участниками международного общественного движения «АЛЛАТРА» Огромная благодарность за содействие в съёмках директору музея истории главной астрономической обсерватории НАН Украины Ковальчуку Георгию Ульяновичу. Отдельное спасибо за разъяснение физических процессов космоса современной наукой заведующему кафедры квантовой теории поля Киевского национального университета им. Т.Г. Шевченка д.ф.-н.м. профессору Вильчинскому Станиславу Йосифовичу.

Суть и границы явления

Согласно современным представлениям информация считается нематериальной, а то, что содержится в структуре объектов, принято называть данными (representation form - ISO/IEC/IEEE 24765:2010).

История понятия

Слово «информация» происходит (от лат. informatio , что в переводе обозначает сведение, разъяснение, ознакомление .) Понятие информации рассматривалось ещё античными философами .

Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексные отрасли науки - кибернетика и информатика .

Информатика, сформировавшаяся как наука в середине XX века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации.

Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика [ ] .

Классификация информации

Информацию можно разделить на виды по различным критериям:

  • По способу восприятия :
    • Визуальная - воспринимаемая органами зрения .
    • Звуковая - воспринимаемая органами слуха .
    • Тактильная - воспринимаемая тактильными рецепторами.
    • Обонятельная - воспринимаемая обонятельными рецепторами.
    • Вкусовая - воспринимаемая вкусовыми рецепторами.
  • По форме представления :
    • Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка.
    • Числовая - в виде цифр и знаков, обозначающих математические действия.
    • Графическая - в виде изображений, предметов, графиков.
    • Звуковая - устная или в виде записи и передачи лексем языка аудиальным путём.
    • Видеоинформация - передаваемая в виде видеозаписи .
  • По назначению :
    • Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума .
    • Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
    • Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
    • Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

Информация в различных областях знания

В математике

В математике информация - это общее наименование фундаментальных понятий в информатике, теории информации, кибернетике, а также в математической статистике, в которых обобщённое интуитивное представление об информации относительно каких-либо величин или явлений конкретизируется и формализуется .

В информатике

Предметом изучения информатики являются именно данные : методы их создания, хранения, обработки и передачи . Данные представляют собой информацию в формализованном виде (в цифровой форме), позволяющем автоматизировать её сбор, хранение и дальнейшую обработку в ЭВМ. С этой точки зрения информация является абстрактным понятием, рассматриваемым безотносительно к её семантическому аспекту, а под количеством информации обычно понимается соответствующий объём данных . Однако одни и те же данные могут быть закодированы различным образом и иметь при этом различный объём, поэтому иногда рассматривается также понятие "ценность информации", которое связано с понятием информационной энтропии и является предметом изучения теории информации .

В теории информации

С теорией информации связаны радиотехника (теория обработки сигналов) и информатика , относящиеся к измерению количества передаваемой информации, её свойства и устанавливающие предельные соотношения для систем. Основные разделы теории информации - кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах - собственная информация и взаимная информация , относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами - случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире - как свойство материальных объектов [ ] .

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию . Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки [ ] .

В теории управления (кибернетике)

Основоположник кибернетики Норберт Винер дал следующее определение информации: «Информация - это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств» .

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код или код источника . Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. Информация - это характеристика объекта.

В теории алгоритмов

В семиотике

В физике

Квантовая теория информации рассматривает общие закономерности передачи, хранения и преобразования информации в системах, изменяющихся по законам квантовой механики

Современная наука насчитывает более восьмидесяти различных определений понятия «информация». Классификация информации содержит в себе множество видов и типов знания, но именно с ее помощью очень легко разобраться в любой науке или сфере деятельности. Ни один ученый не смог вывести такого которое бы полностью отражало ее суть и значение для современного общества.

Это фундаментальная основа знаний, которая в сочетании с энергией и материей «поддерживает» весь мир. Для того чтобы понять, зачем были созданы классификация и необходимо найти и усвоить хотя бы одно определение данной категории.

Чаще всего информацию определяют как определенные сведенья о конкретном объекте, предмете, фактах, явлениях или процессах, которые происходят в окружающем нас мире.

Первая классификация информации делит ее по определенному типу знания, которое приобретается. Декларативные знания - общеизвестные факты, которые доступны каждому. К примеру, такими знаниями считается следующая информация: «Киев - это столица Украины», «Луна - это спутник нашей планеты Земля» и так далее. Таким образом, декларативные знания могут содержать в себе следующие типы информации: об объектах, событиях, свойствах объектов, о математических и других зависимостях. Процедурные знания - описывают последовательность действия для выполнения определенного задания, то есть дают инструкции. Такая информация чаще всего предоставляет возможность найти ответы на различные вопросы, например, «Как сварить кашу?» или «Как сшить юбку?».

Вторая классификация делит всю информацию по способам ее восприятия, ведь большинство новых фактов и явлений мы познаем именно через Современные ученые высчитали, что более 80% информации человек получает при помощи зрения, 10% - слуха, 4% - обоняния, 3% - вкусовых ощущений, 2% - осязания. Но при этом не стоит забывать, что каждый человек представляет собой индивидуальность, а это значит, что у художников будет намного лучше развит именно зрительный канал, а у музыкантов эффективнее будет работать на восприятие слуховой канал.

Классификация средств защиты информации также использует сортировку по способу представления данных. Исходя из этого, выделяют следующие группы: текстовую, числовую, графическую, видео и звуковую информацию.

Четвертая классификация информации делит в зависимости от его общественного значения. Таким образом, информация может быть общественной, специальной и личной. В свою очередь, общественная делится на обыденную, общественно-политическую, научно-популярную, новостную, эстетическую. Специальная информация тоже имеет свои подвиды: производственная, управленческая, техническая и научная. Личная информация может определяться как знания, интуиция, умения или навыки.

1. Полнота (достаточность). Достаточно ли полученных данных для понимания ситуации и принятия определенного решения.

2. Объективность. Информация не должна зависеть от чьего-либо мнения, суждения или влияния других внешних факторов. Например, суждение «этот цветок называется ромашка» - объективное, а «этот цветок очень красивый» - субъективное, ведь отражает отношение человека к данному предмету.

3. Понятность. Полученные данные должны быть понятны человеку, для которого они предназначены. Ведь если отправить на подписание контракт своему российскому партнеру на китайском языке, он не сможет понять суть и документ станет для него бесполезным.

4. Достоверность. Информация обязательно должна отражать истинное положение дел, чтобы помочь в принятии решения.

5. Актуальность. Данные должны соответствовать настоящему положению дел и иметь ценность для их получателя.

6. Полезность. Информация полезна, если есть возможность ее использовать для достижения определенных целей.

Классификация информации, ее правильное дальнейшее использование может помочь достичь успеха в любом начинании, ведь самое главное - это уметь использовать то, что имеешь.

Рассматриваются вопросы определения понятия “информация”

1.1. Определение информации
1.2. Количественная мера информации (- Что такое величина или количество информации; - Формула Шеннона; - Бит и байт; - Экспертные методы оценки информации и становление новых мер информации)
1.3. Классификация информации (- По способу кодирования; - По сфере возникновения; - По способу передачи и восприятия; - По общественному назначению)
1.4. Свойства информации (- Атрибутивные свойства информации; - Прагматические свойства информации; - Динамические свойства информации)
2. Что такое информатика
2.1. Определение информатики
2.2. Основные составляющие (- Теоретическая информатика; - Симеотика; - Кибернетика; - Аналоговая и цифровая обработка информации)
2.3. Некоторые определения.

Введение

Проблема обучения информатике на начальном этапе как в старших классах среднеобразовательных школ, так и на первых курсах высшей школы вызывает многочисленные споры. До последнего времени считалось одной из основных задач общее знакомство с компьютерной техникой и умение программировать на одном из простейших языков (как правило “Школьный алгоритмический язык”, “Бейсик” или “Паскаль”). Такая ориентация наметила уклон в сторону программирования. У обучаемого появилась ассоциация слова “информатика” со словом “программирование”. В данной методическом пособии сделана попытка раскрыть понятия информатики и информации с целью использования их специалистами гуманитарных направлений. Обучаемые должны получить возможность оперировать с информацией любого вида: лингвистической, изобразительной, музыкальной. Пособие поможет им приступит к получению навыков обработки и систематизации информации, ориентации в информационных сетях.



1.1. Определение информации


Понятие “Информация” достаточно широко используется в обычной жизни современного человека, поэтому каждый имеет интуитивное представление, что это такое. Но когда наука начинает применять общеизвестные понятия, она уточняет их, приспосабливая к своим целям, ограничивает использование термина строгими рамками его применения в конкретной научной области. Так физика определила понятие силы, и физический термин силы это уже совсем не то, что имеется в виду, когда говорят: сила воли, или сила разума. В то же время наука, занимаясь изучением явления, расширяет представление человека о нем. Поэтому, например, для физика понятие силы, даже ограниченное его строгим физическим значением, гораздо более богаче и содержательнее, чем для несведущих в физике. Так понятие информации, становясь предметом изучения многих наук, в каждой из них конкретизируется и обогащается. Понятие информация является одним из основных в современной науке и поэтому не может быть строго определено через более простые понятия. Можно лишь, обращаясь к различным аспектам этого понятия, пояснять, иллюстрировать его смысл . Деятельность людей связана с переработкой и использованием материалов, энергии и информации. Соответственно развивались научные и технические дисциплины, отражающие вопросы материаловедения, энергетики и информатики. Значение информации в жизни общества стремительно растет, меняются методы работы с информацией, расширяются сферы применения новых информационных технологий. Сложность явления информации, его многоплановость, широта сферы применения и быстрое развитие отражается в постоянном появлении новых толкований понятий информатики и информации. Поэтому имеется много определений понятия информации, от наиболее общего философского - “Информация есть отражение реального мира” до узкого, практического - “Информация есть все сведения, являющееся объектом хранения, передачи и преобразования”.


Приведем для сопоставления также некоторые другие определения и характеристики:


  1. Информация (Information)- содержание сообщения или сигнала; сведения, рассматриваемые в процессе их передачи или восприятия, позволяющие расширить знания об интересующем объекте .

  2. Информация - является одной из фундаментальных сущностей окружающего нас мира (акад. Поспелов).

  3. Информация - первоначально - сведения, передаваемые одними людьми другим людям устным, письменным или каким - нибудь другим способом (БСЭ).

  4. Информация - отраженное разнообразие, то есть нарушение однообразия .

  5. Информация - является одним из основных универсальных свойств материи .

Под информацией необходимо понимать не сами предметы и процессы, а их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов. Сама по себе информация может быть отнесена к области абстрактных категорий, подобных, например, математическим формулам, однако работа с ней всегда связана с использованием каких-нибудь материалов и затратами энергии. Информация хранится в наскальных рисунках древних людей в камне, в текстах книг на бумаге, в картинах на холсте, в музыкальных магнитофонных записях на магнитной ленте, в данных оперативной памяти компьютера, в наследственном коде ДНК в каждой живой клетке, в памяти человека в его мозгу и т.д. Для ее записи, хранения, обработки, распространения нужны материалы (камень, бумага, холст, магнитная лента, электронные носители данных и пр.), а также энергия, например, чтобы приводить в действие печатающие машины, создавать искусственный климат для хранения шедевров изобразительного искусства, питать электричеством электронные схемы калькулятора, поддерживать работу передатчиков на радио и телевизионных станциях. Успехи в современном развити информационных технологий в первую очередь связаны с созданием новых материалов, лежащих в основе электронных компонентов вычислительных машин и линий связи.


1.2. Количественная мера информации


Что такое величина или количество информации


Каждый предмет или явление человек пытается охарактеризовать, для сравнения с подобными, его величиной. Не всегда это можно просто и однозначно сделать. Даже величины физических предметов можно оценивать по-разному: по объему, весу, массе, количеству составляющих его элементов, стоимости. Поэтому, например, понятно, что даже на простой вопрос: ”Что больше, килограммовая гиря или детский воздушный шарик?”- можно ответить по разному. Чем явление более сложно и многопланово и чем больше характеристик у этого явления, тем труднее подобрать для него удовлетворяющее всех, кто занимается этим явлением, определение его величины. Так и количество информации можно мерить по-разному: в количествах книг, страниц, знаков, метрах кинопленки, тоннах архивных материалов, килобайтах оперативной памяти ЭВМ, а также оценивать по эмоциональному восприятию человека, по полученной пользе от обладания информацией, по необходимым затратам на обработку, систематизацию информации и т.д. Попробуйте оценить, где больше информации: в формуле Энштейна E=mc2, лежащей в основе физики водородной бомбы, в картине Айвазовского “Девятый вал” или в ежедневной телевизионной передаче “Новости”. Видимо проще всего оценить количество информации по тому, сколько необходимо места для ее хранения, выбрав какой-нибудь единый способ представления и хранения информации. С развитием ЭВМ таким единым способом стало кодирование информации с помощью цифр 1 и 0. Кодированием мы здесь называем перезапись информации из одного способа представления в другой. Количество позиций (называемых двоичными), в которых находятся только цифры 1 или 0, необходимое для прямой записи сообщения, является одним из критериев количества информации и называется объемом информации в битах. Для записи одного символа (буквы, цифры, пробела между словами, знаков препинания) в ЭВМ чаще всего используют 8 двоичных позиций, и это называется байтом. Таким образом фраза: ”белоснежка и семь гномов” состоит из 21 буквы (без кавычек) и двух пробелов между словами и будет занимать в памяти ЭВМ 23 байта или 184 бита. Возможна не прямая, а сжатая запись информации, т.е. кодирование его меньшим количеством бит. Это производится за счет специальной обработки и анализа частоты появления, расположения и количества символов в сообщении. На практике человек применяет также сжатие сообщение, исходя из его смысла. Например длинное сообщение объемом в 37 байт “тысяча девятисот девяносто шестой год” можно сжать до четырех символов “1996” Впервые, как научное понятие, информация стала применяться в библиотековедении, теории журналистики. Затем еe стала рассматривать наука об оптимальном кодировании сообщений и передаче информации по техническим каналам связи.


Формула Шеннона


Клод Элвуд Шеннон предложил в 1948 году теорию информации , которая дала вероятностно-статистическое определение понятия количества информации. Каждому сигналу в теории Шеннона приписывается вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. Шеннон предложил следующую формулу для измерения количества информации:



I = -S p i log 2 p i



где I - количество информации; p i - вероятность появления i-го сигнала;


N - количество возможных сигналов.


Формула показывает зависимость количества информации от числа событий и от вероятности появления этих событий. Информация равна нулю, если возможно только одно событие. С ростом числа событий информация увеличивается. I=1 - единица информации, называемая “бит”. Бит - основная единица измерения информации.


Бит и байт


В технике возможны два исхода, которые кодируются следующим образом: цифрой один “1” - “да”, “включено”, “ток идет” ... цифрой ноль “0” - “нет”, “выключено”, “ток не идет”. Цифры 1 и 0 являются символами простейшей знаковой системы исчисления. В каждом знаке или символе двоичной системы исчисления содержится один бит информации. Особое значение для измерения объемов символьной информации имеет специальная единица - байт. 1 байт = 8 битов, что соответствует восьми разрядам двоичного числа. Почему именно 8? Так сложилось исторически. Объем информации измеряется также в производных от байта единицах: Кбайтах, Мбайтах и Гбайтах, только приставки “К”, “М” и “Г” не означают, как в физике “кило”, “мега” и “гига”, хотя их часто так и называют. В физика “кило” означает 1000 , а в информатике “К” означает 1024, так как это число более естественно для вычислительных машин. Они в основе своей арифметики используют число 2, как человек в основе своей арифметики применяет число 10. Поэтому числа 10, 100, 100 и т.д. удобны для человека, а числа 2, 4, 8, 16 и наконец число 1024, получающееся перемножением двойки десять раз, “удобны” для ЭВМ.


1 Кбайт (КБ) = 1024 байта = 8192 бита


1 Мбайт (МБ) = 1024 Кбайта = 2 20 байта = 2 23 бита


1 Гбайт (МБ) = 1024 Мбайта = 2 20 Кбайта = 2 30 байта = 2 33 бита.


Введенное таким образом понятие количество информации не совпадает с общепринятым понятием количества информации, как важности полученных сведений, но оно с успехом используется в вычислительной технике и связи.


Экспертные методы оценки информации и становление новых мер информации


Поскольку у информации имеются разнообразные характеристики, практическое значение которых в различных приложениях информатики различно, то не может быть единой меры количества информации, удобной во всех случаях. Например, количеством меры информации может служить сложность вычисления при помощи некоторого универсального алгоритма. Следует ожидать, что дальнейшее проникновение информатики в те направления человеческой деятельности, где она еще слабо применяется, в том числе в искусство, приведет к разработке новых научных определений количества информации. Так восприятие произведения искусства, которое нравится нам, приносит ощущение наполнения новой, неизведанной ранее информацией. Не даром часто эффект, произведенный на человека великим музыкальным произведением, полотном художника, а иногда просто созерцанием природы: живописных гор, глубокого неба, - характеризуют словом “откровение”. Поэтому могут появиться характеристики количества информации, характеризующие ее эстетическое и художественное значение. Пока не созданы простые, математически выраженные определения меры количества того или иного свойства информации, для оценки его величины служат так называемые экспертные оценки, т.е. заключения специалистов в данной области. Они свои оценки дают на основании личного, часто очень субъективного опыта. Профессиональное общение между экспертами и творческое обсуждение предмета анализа приводит к выработке более или менее общепринятых критериев оценки, которые могут в конечном счете стать основой для создания формальной меры, однозначной, как международный эталон метра. Примерами становления будущих мер информации, в ее разных проявлениях, могут служить следующие экспертные оценки и другие уже применяемые показатели:



баллы,даваемые судьями соревнований за художественность исполнения, например, по фигурному катанию;
обзоры кинофильмов в прессе с проставлением балов по степени их интереса кинозрителю;

стоимость произведений живописи;

оценка работы ученого по количеству опубликованных статей;

оценка работы ученого по количеству ссылок на его работы в работах других ученых (индекс реферируемости);

индексы популярности музыкальных произведений и их исполнителей, публикуемые в прессе;

оценки студентов, выставляемые преподавателями колледжа.



Кроме измерения объема памяти в битах и байтах, в технике применяются и другие единицы измерения, характеризующие работу с информацией:



количество операций в секунду, характеризующее скорость обработки информации вычислительной машиной;

количество байт или бит в секунду, характеризующее скорость передачи информации;

количество знаков в секунду, характеризующие скорость чтения, набора за компьютером текстов или быстродействие печатающего устройства.



1.3. Классификация информации


Информацию можно условно делить на различные виды, основываясь на том или ионом ее свойстве или характеристике, например по способу кодирования, сфере возникновения, способу передачи и восприятия и общественному назначению и т.д..


По способу кодирования


По способу кодирования сигала информацию можно разделить на аналоговую и цифровую. Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число. Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Поэтому для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3)напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас в конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.


По сфере возникновения


По сфере возникновения информацию можно классифицировать следующим образом. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе - социальной. В природе, живой и неживой, информацию несут: цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей возникла другая разновидность информации - произведения искусств. Кроме эстетической информации в человеческом обществе создается семантическая информация, как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой эстетическая.


По способу передачи и восприятия


По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной; ощущениями - тактильной; запахами - вкусовой. Информация, воспринимаемая оргтехникой и компьютерами называется машинно-ориентированной информацией. Количество машинно-ориентированной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.


По общественному назначению


По общественному назначению информацию можно подразделять на массовую, специальную и личную. Массовая информация подразделяется в свою очередь на общественно-политическую, обыденную и научно-популярную. Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации:

Станкостроительная,

Машиностроительная,

Инструментальная...

Научная информация подразделяется на биологическую, математическую, физическую...


1.4. Свойства информации


Информация имеет следующие свойства:

Атрибутивные;

Прагматические;

Динамические.

Атрибутивные - это те свойства, без которых информация не существует. Прагматические свойства характеризуют степень полезности информации для пользователя, потребителя и практики. Динамические свойства характеризуют изменение информации во времени.


Атрибутивные свойства информации


Неотрывность информации от физического носителя и языковая природа информации


Важнейшими атрибутивными свойствами информации являются свойства неотрывности информации от физического носителя и языковая природа информации. Одно из важнейших направлений информатики как науки является изучение особенностей различных носителей и языков информации, разработка новых, более совершенных и современных. Необходимо отметить, что хотя информация и неотрывна от физического носителя и имеет языковую природу она не связана жестко ни с конкретным языком, ни с конкретным носителем.


Дискретность


Следующим атрибутивным свойствам информации, на которое необходимо обратить внимание, является свойство дискретности. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.


Непрерывность


Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым способствуя поступательному развитию и накоплению. В этом находит свое подтверждение еще одно атрибутивное свойство информации - непрерывность.


Прагматические свойства информации


Смысла и новизна


Прагматические свойства информации проявляются в процессе использования информации. В первую очередь к данной категории свойств отнесем наличие смысла и новизны информации, которое характеризует перемещение информации в социальных коммуникациях и выделяет ту ее часть, которая нова для потребителя.


Полезность


Полезной называется информация, уменьшающей неопределенность сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации. Встречается применение термина полезности информации для описания, какое влияние на внутреннее состояние человека, его настроение, самочувствие, наконец здоровье, оказывает поступающая информация. В этом смысле полезная или положительная информация - это та, которая радостно воспринимается человеком, способствует улучшению его самочувствия, а отрицательная информация угнетающе действует на психику и самочувствие человека, может привести к ухудшению здоровья, инфаркту, например.


Ценность


Следующим прагматическим свойством информации является ее ценность. Необходимо обратить внимание, что ценность информации различна для различных потребителей и пользователей.


Кумулятивность


Свойство кумулятивности характеризует накопление и хранение информации.


Динамические свойства информации


Динамические свойства информации, как следует из самого названия, характеризуют динамику развития информации во времени.


Рост информации


Прежде всего необходимо отметить свойство роста информации. Движение информации в информационных коммуникациях и постоянное ее распространение и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам.


Старение


Среди динамических свойств необходимо также отметить свойство старения информации.


2. Что такое информатика


2.1. Определение информатики


Еще не очень давно под информатикой понимали научную дисциплину, изучающей структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации - от неформальных процессов обмена научной информацией при непосредственном устном и письменном общении ученых и специалистов до формальных процессов обмена путем научной литературы . Это понимание было близко к таким, как “библиотековедение”, “книговедение”. Синонимом понятия “информатика” иногда служил термин “документация” Стремительное развитие вычислительной техники изменило понятие “информатика”, придав ему значительно более направленный на вычислительную технику смысл. Поэтому имеются до сих пор различные толкования этого термина. В Америке, как аналогичный европейскому пониманию информатики, применяется термин “Computer Science” - наука о компьютерах. Близким к понятию информатика является термин “системотехника”, для которого также часто словари дают перевод “Computer Science”. Информатика - это наука, изучающая все аспекты получения, хранения, преобразования, передачи и использования информации.


2.2. Основные составляющие


Составляющие данной науки являются: теоретическая информатика, симеотика, кибернетика. Практически информатика реализуется в программировании ивычислительной технике.


Теоретическая информатика


Теоретическая информатика является фундаментом для построения общей информатики. Данная дисциплина занимается построением моделей, построением дискретных множеств, которые описывают эти модели. Неотъемлемой частью теоретической информатики является логика. Логика - совокупность правил, которым подчиняется процесс мышления. Математическая логика изучает логические связи и отношения, лежащие в основе дедуктивного (логического) вывода.


Симеотика


Симеотика исследует знаковые системы, составляющие которых - знаки - могут иметь самую разнообразную природу, лишь бы в них можно было выделить три составляющие, связанные между собой договорными отношениями: синтаксис (или план выражения), семантику (или план значения) и прагматику (или план использования). Симеотика позволяет установить аналогии в функционировании различных систем как естественного, так и искусственного происхождения. Ее результаты используются в компьютерной лингвистике, искусственном интеллекте, психологии и других науках.


Кибернетика


Кибернетика возникла в конце 40-х годов, когда Н.Винер выдвинул идею, что правила управления живыми, неживыми и искусственными системами имеют много общих черт. Актуальность выводов Н.Винера была подкреплена появлением первых компьютеров. Кибернетика сегодня может рассматриваться как направление информатики, рассматривающее создание и использование автоматизированных систем управления разной степени сложности.


Аналоговая и цифровая обработка информации


Информатика, как наука об обработке информации, реализуется в аналоговой и цифровой обработке информации. К аналоговой обработке информации можно отнести непосредственные действия с цветом, светом, формой, линией и т.д. Смотреть на мир через розовые очки (буквально) - это аналоговая обработка визуальной информации. Возможны и аналоговые вычислительные устройства. Они широко применялись раньше в технике и автоматике. Простейшим примером такого устройства является логарифмическая линейка. Раньше в школах учили с ее помощью производить умножения и деления и она была всегда под рукой любого инженера. Сейчас ее заменили цифровые устройства - калькуляторы. Под цифровой обработкой информацией обычно понимают действия с информацией посредством цифровой вычислительной техники. В настоящее время традиционные аналоговые способы записи звуковой и телевизионной информации заменяются цифровыми способами, однако они еще не получили широкое распространение. Однако мы уже все чаще используем цифровые устройства для управления традиционными “аналоговыми” устройствами. Например, сигналы, подающиеся от переносного устройства управления телевизором или видеомагнитофоном являются цифровыми. Появившиеся в магазинах весы, выдающие на табло вес и стоимость покупки, также являются цифровыми. Естественные способы отображения и обработки информации в природе являются аналоговыми. Отпечаток следа животного является аналоговым сигналом о величине животного. Крик является аналоговым способом передать внутреннее состояние: чем громче - тем сильнее чувство. Физические процессы выполняют аналоговую обработку сигналов в органах чувств: фокусировку изображения на сетчатке глазного яблока, спектральный анализ звуков в ушной улитке. Системы аналоговой обработки сигналов более быстродействующие, чем цифровые, но выполняют узкие функции, плохо перестраиваются на выполнение новых операций. Поэтому сейчас так стремительно развились числовые ЭВМ. Они универсальны и позволяют обрабатывать не только численную, но и любую другую информацию: текстовую, графическую, звуковую. Цифровые ЭВМ способны принимать информацию от аналоговых источников, используя специальные устройства: аналогово-цифровые преобразователи. Также информация, после обработки на цифровой ЭВМ, может переводиться в аналоговую форму на специальных устройствах: цифро-аналоговых преобразователях. Поэтому современные цифровые ЭВМ могут говорить, синтезировать музыку, рисовать, управлять машиной или станком. Но может не так заметно для всех, как цифровые ЭВМ, но развиваются и аналоговые системы обработки информации. А некоторые устройства аналоговой обработки информации до сих пор не нашли и видимо в ближайшем будущем не найдут себе достойной цифровой замены. Таким устройством, например, является объектив фотоаппарата. Вероятно, что будущее техники за так называемыми аналогово-цифровыми устройствами, использующими преимущества тех и других. Повидимому органы чувств, нервная система и мышление также построены природой как на аналоговой, так и цифровой основе. При проектировании человеко-машинных сис тем важно учитывать характеристики человека по восприятию того или иного вида информации. При чтении текстов, например, человек воспринимает 16 бит в 1 сек, одновременно удерживая 160 бит . Удобный дизайн в кабине самолета, на пульте управления сложной системой, значительно облегчает работу человека, повышает глубину его информированности о текущем состоянии управляемого объекта, влияет на быстроту и эффективность принимаемых решений.


2.3.Некоторые определения.


Наука - социальная сфера создания и использования информации как знания объективного мира человека.


Искусство - социальная деятельность по созданию и использованию источников информации, влияющих в первую очередь на чувства, во вторую на сознание.


Творчество - производство человеком новой информации. Педагогика - организация информационного процесса, связанного с максимальным усвоением информации.


Обучение - передача информации с целью приобретения знания и умения.

Литература

1. Информатика. Энциклопедический словарь для начинающих. под ред. Д.А.Поспелова - М. Педагогика-Пресс, 1994


2. Я.Л.Шрайберг, М.В.Гончаров - Справочное руководство по основам информатики и вычислительной техники - М.Финансы и статистика, 1995


3. Информатика и культура. Сборник научных трудов. - Новосибирск, Наука, Сибирское отделение, 1990


4. Д.И.Блюменау - Информация и информационный сервис - Ленинград, Наука, 1989


5. Информационная технология: Вопросы развития и применения. - Киев.:Наук.думка,1988


6. Концепция информатизации образования // Информатика и образование. - 1990 - N1


7. Терминологический словарь по основам информатики и вычислительной техники/ А.П.Ершов и др.; под ред. А.П.Ершова, Н.М.Шанского.- М.:Просвещение, 1991.-159 с.


8. Заварыкин В.М. и др. Основы информатики и вычислительной техники: Учеб. пособие для студентов пед. ин-тов по физ.-мат. спец.- М.: Просвещение, 1989.-207 с.


9. Энциклопедия кибернетики. - Главная редакция украинской советской энциклопедии. Киев, 1974.


ГОНЧАРЕНКО ЕЛЕНА АЛЕКСАНДРОВНА
ЗНАМЕНСКИЙ ВАСИЛИЙ СЕРАФИМОВИЧ


МНО КБР
НАЛЬЧИКСКИЙ КОЛЛЕДЖ ДИЗАЙНА
Нальчик-1996