русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Понятие «информация».


Дата добавления: 2015-06-12; просмотров: 862; Нарушение авторских прав


Этимологически «информация» (лат. informatio - разъяснение, изложение, осведомление) - термин обыденного языка, относящийся к познавательно-коммуникативной сфере человеческой деятельности и обозначающий совокупность сведений о каких-либо событиях или фактах. Таким образом, информация в обыденном смысле есть прежде всего определенное содержание, однако именно содержательная сторона информации остается до настоящего времени наиболее неясной.

В стремлении дать определение понятию информации ученые прошли за последние 50 лет эволюцию от формальных (преимущественно теоретико-математических) дефиниций того, что собой представляет и как может измеряться количество информации, до новейших попыток построения универсальных концепций информационного общества, универсального метаязыка, всеобщей метатеории и т. п. Парадоксальность многих из этих концепций заключается в том, что само понятие информации в них не определяется, а принимается на интуитивном уровне. Отсюда понятен профессиональный интерес к осмыслению феномена информации среди философов.

Разработки в области теории информации содействовали сдвигам в методологии научного познания, которые нашли выражение в смещении акцентов от вещи к отношению, от поисков универсальной первоосновы мира к признанию разнообразия в качестве базового принципа научного исследования. Именно эти категории философии - отношение и разнообразие - занимают сегодня центральное место в попытках определить природу информационных явлений. Вместе с тем многочисленные исследования феномена информации обнаружили его связь с организацией, системностью, упорядоченностью, структурой, а также с функциональными состояниями и процессами в сложных системах управления. И тогда информации предстает как функциональное свойство процессов управления, неотделимое от последних, а теория информации - как раздел кибернетики. Из научно-технических разработок по теории информации родилась такая специализированная научная дисциплина, как информатика (комбинация из слов «информация» и «автоматика») - область изучения научно-технической информации, ориентирующаяся на автоматизированную обработку данных, массивов знаний производственно-технического и социального назначения с использованием вычислительной техники, средств связи и математико-программного обеспечения.



В науку это понятие введено в 1928 г. американским ученым Р. Хартлидля обозначения количественного измерения сведений, распространяемых по техническим каналам связи (безотносительно к содержанию этих сведений). Последние, ввиду ограниченных возможностей фиксации и передачи устной речи, преобразуются источником информации сначала в форму языкового (знакового) сообщения, а затем передатчиком во вторичную, удобную для трансляции по техническим каналам связи форму сигнала, что предполагает операцию кодирования с последующим декодированием на стороне приемника. Тем самым получатель имеет на выходе приемника сообщение, которое при минимизации помех («шума») представляет собой, с определенной степенью соответствия, копию сообщения на стороне источника. Следует иметь в виду, что доведение информации до адресата (получателя), если эта информации не является дезинформацией, всегда приводит к уменьшению неопределенности в знаниях и действиях последнего. Хартли предложил логарифм при основании два для вычисления количества информации как меры неопределенности, устраняемой в результате получения информации у того, кто эту информации получает. Так возникла единица информации - бит, или «одно из двух»; либо «да», либо «нет» по отношению к вопросу, фиксирующему неопределенность знаний или сведений получателя о чем-либо его интересующем.

Освоение общих свойств информации разных иерархических уровней, дает возможность понять природу информации - природу взаимоотношений между информацией и объектами материального мира и убедиться, что информация становится активной, лишь фиксируясь на материальных носителях.

 



<== предыдущая лекция | следующая лекция ==>
Понятие «информатика». Место информатики как науки в ряду других наук. | Теория информации К. Шеннона.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.706 сек.