Базовым понятием всех информационных технологий является информация. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.
Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени - человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию.
Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса. По современным представлениям информация является одной из исходных категорий мироздания наряду с материей и энергией. Эти категории тесно взаимосвязаны между собой. Эти связи можно усмотреть и в природе и процессах, порожденных человеком. Прогресс человечества неизбежно влечет увеличение общего объема информации, которым оно располагает, причем объем этот растет гораздо быстрее, чем население земного шара и его материальные потребности.
Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств. Хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или нас самих и связана с событиями, происходящими в окружающем нас мире.
Слово “информация” происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов [5; с. 32]. Затем, понятие информации стало активно использоваться в технических и гуманитарных науках. В середине ХХ века рассматривать вопросы теории информации стали новые на то время науки: теория передачи информации и кибернетика.
Первоначально смысл слова “информация” трактовался как нечто присущее только человеческому сознанию и общению - знания, сведения, известия. Затем смысл этого слова начал расширяться и обобщаться. Так, с позиций материалистической теории познания одним из всеобщих свойств материи (наряду с движением, развитием, пространством, временем и др.) было признано отражение, заключающееся в способности адекватно отображать одним реальным объектом другие реальные объекты, а сам факт отражения одного объекта в другом и означает присутствие в нем информации об отражаемом объекте. Таким образом, как только состояния одного объекта находятся в соответствии с состояниями другого объекта (например, соответствие между положением стрелки вольтметра и напряжением на его клеммах или соответствие между нашим ощущением и реальностью), это значит, что один объект отражает другой, т. е. содержит информацию о другом [3; с. 42].
Особенностью понятия “информация” является его универсальность - оно используется во всех без исключения сферах человеческой деятельности: в философии, естественных и гуманитарных науках, в биологии, медицине, в психологии человека и животных, в социологии, искусстве, в технике и экономике и, конечно, в повседневной жизни.
В настоящее время среди людей не существует единого определения термина информация, так как каждый понимает ее чисто интуитивно, не имея представления о ее научном определении. С точки зрения различных прикладных областей деятельности, данное понятие описывается своим специфическим набором признаков, конкретизированных для частного применения.
В информатике широко используется такое определение: “информация — сведения, передаваемые источником получателю (приёмнику)” [7; с. 27]. Информация всегда связана с материальным носителем, с материальными процессами и имеет некоторое представление (форму). Информация, представленная в какой-либо законченной (системной) форме и передаваемая из одного места в другое, называется сообщением. Сообщения представляются в виде сигналов и данных. Сигналы используются для передачи информации в пространстве между источником и получателем, а данные — для хранения (то есть для передачи во времени).
Рассмотрим ряд понятий, связанных с информацией. Информация - категория нематериальная и атрибутивная, то есть она является неотъемлемым свойством какого либо материального объекта или процесса. следовательно, она должна быть связана с какой основой, сущностью, одним из свойством которого она является. Без этого она просто не сможет существовать. При этом хранение информации связано с фиксацией состояния носителя (например, уже напечатанный текст на бумаге), а распространение информации - с процессом, который протекает в среде-носителе. Сообщение и сигналы, таким образом, служат переносчиком информации, а информация является содержанием сообщения.
Понятие “информация” предполагает наличие двух объектов - источника и приемника информации. Информация передается от источника к приемнику в материально-энергетической форме, в форме сигналов, распространяющихся в определенной среде. Источник информации – это субъект или объект, порождающий информацию и представляющий ее в виде сообщения. Получатель информации - это субъект или объект, принимающий сообщение. Совокупность технических средств, используемых для передачи сообщений от источника к получателю, называется системой связи. Канал связи - совокупность технических устройств или физическая среда, обеспечивающие передачу сигнала от передатчика к приемнику. Кодирующее устройство предназначено для преобразования информации исходного сообщения от источника к виду, необходимому для передачи информации). Декодирующее устройство предназначено для преобразования полученного сообщения в исходное, пригодное для его последующей обработки [3; с. 48].
Данные — это и текст книги или письма, и картина художника, и ДНК. Данные, являющиеся результатом фиксации некоторой информации, сами могут выступать как источник информации. Информация, извлекаемая из данных, может подвергаться обработке, и результаты обработки фиксируются в виде новых данных. Общая схема взаимоотношений между понятиями “информация” и “данные” в информационных системах может выглядеть следующим образом:
процессы внешнего мира → I1 →D1 → I2 → D2 → I3 → …
Характерными чертами информации являются следующие:
1) это наиболее важный ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии. Так, например, обладая умением архивировать свои файлы (т.е. имея такую информацию), можно не тратиться на покупку новых дисков;
2) информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;
3) информация является товаром, причем продавец информации не теряет семантическую информацию (объем данных, сведений, знаний) после продажи, но лишь прагматическую меру (цену) информации (к примеру, монополию на "ноу-хау"). Так, если студент сообщит своему товарищу сведения о расписании занятий в течение семестра (семантическую информацию), он эти данные не потеряет для себя; если человек разгласит пин-код своей банковской карточки или какой-либо секрет (прагматическую информацию), то он может потерять деньги или стоимость секрета.
4) информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним [2; с. 37].
Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:
- репрезентативность - правильность отбора информации в целях адекватного отражения источника информации;
- содержательность - семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в статистической мере;
- достаточность (полнота) - минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации;
- доступность - простота (или возможность) выполнения процедур получения и преобразования информации;
- актуальность - зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования;
- своевременность - поступление не позже заранее назначенного срока;
- точность - степень близости информации к реальному состоянию источника информации;
- достоверность - свойство информации отражать источник информации с необходимой точностью;
- устойчивость - способность информации реагировать на изменения исходных данных без нарушения необходимой точности [7; с. 31].
- прагматичность - выгодность информации, ее полезность.
Информацию нельзя считать лишь техническим термином, это фундаментальная философская категория, которой присущи такие свойства как запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемость. Можно дать следующее определение:
Без информации не может существовать не только жизнь в любой форме и не могут функционировать созданные человеком любые информационные системы, но и физический мир вообще. Любой физический (механический) процесс идет только потому, что любой физический процесс есть процесс обмена, взаимодействия материальных объектов, в котором каждый участник физического процесса получает информацию о другом участнике процесса через физические воздействия (силы, импульсы, волны и пр.) и изменяет свои параметры точно в соотвествии с данными силами, их конфигурацией. Это есть основной физический закон - закон причинности физического мира.
Общение, коммуникации, обмен информацией присущи всем живым существам, но в особой степени — человеку. Будучи аккумулированной и обработанной с определенных позиций, информация дает новые сведения, приводит к новому знанию. Получение информации из окружающего мира, ее анализ и генерирование составляют одну из основных функций человека, других живых организмов и автоматных информационно-технических систем, отличающую их от остального косного (неживого) мира.
Распространенным заблуждением является мнение о том, что информация присуща лишь людям и их творениям (технике), живому миру. На самом деле информация есть обязательный атрибут физического мира, начиная от элементарных частиц и молекул, что ясно показал классик физики Людвиг Больцман, объяснив сущность энтропии и дав ее статистическую меру (см. комментарии К.А. Хайдарова в теме "Информация в неживой природе".
1. Информация подразделяется по форме представления на 2 вида:
- дискретная форма представления информации - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);
- аналоговая или непрерывная форма представления информации - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).
2. По области возникновения выделяют информацию:
- элементарную (механическую), которая отражает процессы, явления неодушевленной природы;
- биологическую, которая отражает процессы животного и растительного мира;
- социальную, которая отражает процессы человеческого общества.
3. По способу передачи и восприятия различают следующие виды информации:
- визуальную, передаваемую видимыми образами и символами;
- аудиальную, передаваемую звуками;
- тактильную, передаваемую ощущениями;
- органолептическую, передаваемую запахами и вкусами;
- машинную, выдаваемую и воспринимаемую средствами вычислительной техники [4; с. 52].
4. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:
- личную, предназначенную для конкретного человека;
- массовую, предназначенную для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.);
- специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.
По способам кодирования, представления, можно выделить следующие иерархически упорядоченные информационные среды (медиа):
Подробнее см. в курсе "Мультимедиа технологии"
Информация не является простым и "плоским" явлением, каким его представляют многие. Она имеет иерархическую, многоуровневую структуру.
Сегодня видятся такие, возрастающие по сложности, и вытекающие один из другого ее уровни.
Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен — 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Единица, соответствующая числу 3 (трит), равна log23 = 1,585 бита, числу 10 (хартли) — log210 = 3,322 бита. Такая единица как нит (nit), соответствующая натуральному логарифму применяется в вычислительной технике в инженерных и научных расчётах. Основание натуральных логарифмов не является целым числом.
Целые количества бит отвечают количеству состояний, равному степеням двойки. Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре. Следующей по порядку популярной единицей информации является 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.
Такие величины как машинное слово и т.п., составляющие несколько байт, в качестве единиц измерения почти никогда не используются.
Для измерения больших количеств байтов служат единицы “килобайт” = 1000 байт и “Кбайт” = 210 байт. Единицы “мегабайт” = 1.000 килобайт = 1.000.000 байт, применяются для измерения объёмов носителей информации. Единицы “гигабайт” = 1000 мегабайт = 1.000.000.000 байт и “Гбайт” = 230 байт, Мбайт = 220 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %. Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4.295 Мегабайт. Такой же порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт. Для исчисления ещё больших объёмов информации имеются единицы терабайт — тебибайт (1012 байт и 240 соответственно), петабайт — пебибайт (1015 и 250 байт соответственно) и т.д. [1; с. 115].
Для конкретного компьютера как минимальный шаг адресации памяти определяется термин "слово" (word), который на старых машинах не обязательно был равен 8 двоичным разрядам, но часто полубайту, то есть 4 двоичным разрядам, а на более поздних модификациях - 16, 32, 64 двоичных разряда, то есть двум, четырем и 8 байтам. В таких обозначениях как байт (русское) или B (английское) под байт (B) подразумевается 8 двоичных разрядов, а не 8 бит, как пишут в некоторых учебниках. Дело в том, что бит - это единица статичтической меры информации, равная H = log2(p1)+log2(p2)=1, при p1=0,5 и p2=0,5 в двуальтернативном эксперименте, то есть для двоичной ячейки памяти (данные) и двоичных логических элементов (сигнал). Для ячеек памяти машин (устройств хранения данных) и логических элементов (обработчиков сигналов) вероятности при определении комбинаторной информации никак не регламентируются.
В случае определения объема памяти двоичных систем удобнее применять степени двойки, то есть 1024 байта =1Кбайт, нежели 1000 байт = 1 килобайту. Во избежание недоразумений следует чётко понимать различие между: двоичными кратными единицами, обозначаемыми согласно ГОСТ 8.417-2002 как “Кбайт”, “Мбайт”, “Гбайт” и т.д. (два в степенях кратных десяти); единицами килобайт, мегабайт, гигабайт и т.д., понимаемыми как научные термины (кратных десятичной тысяче). Последние по определению равны соответственно 103, 106, 109 байт. В качестве терминов для “Кбайт”, “Мбайт”, “Гбайт” и т.д. МЭК предлагает “кибибайт”, “мебибайт”, “гибибайт” и т. д., однако эти термины критикуются за непроизносимость и не встречаются в устной речи.
В различных областях информатики предпочтения в употреблении десятичных и двоичных единиц тоже различны. Причём, хотя со времени стандартизации терминологии и обозначений прошло уже несколько лет, далеко не везде стремятся прояснить точное значение используемых единиц. В английском языке для “киби”=1024 иногда используют прописную букву K, дабы подчеркнуть отличие от обозначаемой строчной буквой приставки СИ кило. Однако, такое обозначение не опирается на авторитетный стандарт, в отличие от российского ГОСТа касательно “Кбайт”.
В связи со сложностью самого понятия информации в настоящее время не принято единого определения термина "информация". С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. В информатике широко используется такое определение: информация — сведения, передаваемые источником получателю (приёмнику). Без информации не может существовать жизнь в любой форме, и не могут функционировать созданные человеком любые информационные системы.
Свойства информации можно рассматривать в трех аспектах: техническом - это точность, надежность, скорость передачи сигналов и т.д.; семантическом - это передача смысла текста с помощью кодов и прагматическом - это насколько эффективно информация влияет на поведение объекта.
Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Объёмы информации можно представлять как логарифм количества состояний. Наименьшее целое число, логарифм которого положителен есть два.