Первая концепция (концепция К.Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации в нем содержится. При таком понимании информация – это снятая неопределенность или результат выбора из набора возможных альтернатив.
Шенноном были решены вопросы исчисления пропускной способности каналов связи, энтропии источников сообщений и т.д.
Совокупность этих представлений, названная К. Шенноном "математической теорией связи"[3], и явилась основой классической теории информации. Отличительной чертой этой работы было отсутствие определения понятия "информация", т.к. считалось очевидным, что по каналам связи передают осмысленные сообщения, т.е. информацию. Таким образом, классическая теория информации отвлекается от требований осмысленности информации. Этот подход, хотя и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике, послужил основой для измерения информации и оптимального кодирования сообщений.
Впоследствии появилась обобщенная теория информации – система представлений, стремящаяся использовать шенноновскую формулу для определения "количества информации", связанной с событиями, а не только с появлением на выходе канала связи очередного символа.
Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или прибором. Наиболее ярко и образно эта концепция выражена академиком, д-ром физ.-мат. наук Виктором Михайловичем Глушковым. Вообще академик Глушков относится к плеяде выдающихся советских и украинских ученых, оказавших влияние не только на отечественную, но и на мировую науку. Именно Глушков дал современной кибернетике и информатике импульс дальнейшего развития по сравнению с Винером. В работе "Об информационных возможностях современных электронных вычислительных машин" еще в 1960 году он писал: "Под информацией в современной науке принято понимать меру неоднородности распределения материи и энергии в пространстве и во времени. При таком понимании информации, оказывается возможным говорить, например, об информации, которую несет солнечный луч, шум горного обвала, шорох листвы и т.д. Во всяком случае при этом необязательно требовать осмысленности, с которой неразрывно связывается понятие информации в ее обычном, житейском понимании".
Третья концепция основана на логико-семантическом подходе (семантика – изучение текста с точки зрения смысла), при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия и управления. Иными словами, информация – это действующая, полезная часть знаний. Представитель этой концепции доктор философских наук, проф., академик РАН Виктор Григорьевич Афанасьев, развивая логико-семантический подход, дает определение социальной информации: "Информация, циркулирующая в обществе, используемая в управлении социальными процессами, является социальной информацией. Она представляет собой знания, сообщения, сведения о социальной форме движения материи и обо всех других формах в той мере, в какой она используется обществом…"