русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Понятие «информация» и свойства информации


Дата добавления: 2015-08-14; просмотров: 1468; Нарушение авторских прав


Информация. Кодирование информации

Вопросы для зачёта

1. Почему невозможно дать определение понятию « информация », используя более «простые» понятия?

2. В каких науках используется понятие «информация» и какой смысл в каждой из них оно имеет?

3. Какие социально значимые свойства информации можно выде­лить?

 

Понятие «информация». Слово «информация» происхо­дит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информа­ция» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» поня­тия. В геометрии, например, невозможно выразить содержа­ние базовых понятий «точка», «луч», «плоскость» через бо­лее простые понятия. Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием дру­гих понятий.

В случае с понятием «информация» проблема его опреде­ления еще более сложная, так как оно является общенауч­ным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связа­но с различными системами понятий.

Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (антиэнтропия) является ме­рой упорядоченности и сложности системы. По мере увеличе­ния сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся ве­ществом и энергией с окружающей средой, саморазвиваю­щихся систем живой природы (белковых молекул, организ­мов, популяций животных и так далее).



<== предыдущая лекция | следующая лекция ==>
МетодикаГинзбурга М.Р. | Таким образом, в физике информация рассматривается как антиэнтропия или энтропия с обратным знаком.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.003 сек.