русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Таким образом, в физике информация рассматривается как антиэнтропия или энтропия с обратным знаком.


Дата добавления: 2015-08-14; просмотров: 1006; Нарушение авторских прав


Информация в биологии. В биологии, которая изуча­ет живую природу, понятие «информация» связывается с целесообразным поведением живых организмов. Такое пове­дение строится на основе получения и использования орга­низмом информации об окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Ге­нетическая информация передается по наследству и хранит­ся во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие ин­формацию о строении живых организмов. Последнее обстоя­тельство позволило проводить научные эксперименты по клонированию, то ееть созданию точных копий организмов из одной клетки.

Информация в кибернетике. В кибернетике (науке об управлении) понятие «информация» связано с процесса­ми управления в сложных системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование техническо­го устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значе­ния их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информа­ции. (Ответ на оценку – какие устройства отвечают в компьютере за данные процессы?)

Социально значимые свойства информации. Человек — существо социальное, для общения с другими людьми он должен обмениваться с ними информацией, причем обмен информацией всегда производится на определенном язы­ке — русском, английском и так далее. Участники дискус­сии должны владеть тем языком, на котором ведется обще­ние, тогда информация будет понятной всем участникам обмена информацией.

Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информа­ция создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некото­рые конференции и чаты в Интернете.( Ответ на оценку – какая наука занимается искоренением бесполезной информации?).



Широко известен термин «средства массовой информа­ции» (газеты, радио, телевидение), которые доводят инфор­мацию до каждого члена общества. Такая информация дол­жна быть достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и мо­жет быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому ни­кто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точ­ной. Задача получения полной и точной информации стоит перед наукой. Овладение научными знаниями в процессе обучения позволяют человеку получить полную и точную информацию о природе, обществе и технике.

2. Количество информации как мера уменьшения неопределенности знаний

Вопросы для зачёта

1. Приведите примеры уменьшения неопределенности знаний после получения информации о произошедшем событии.

2. В чем состоит неопределенность знаний в опыте по бросанию мо­неты?

3. Как зависит количество информации от количества возможных событий:

2.1. Какое количество информации получит второй игрок после пер­вого хода первого игрока в игре в «Крестики-нолики» на поле размером 4x4?

2.2. Каково было количество возможных событий, если после реали­зации одного из них мы получили количество информации, равное 3 битам? 7 битам?

 

Информация и знания. Человек получает информацию из окружающего мира с помощью органов чувств, анализи­рует ее и выявляет существенные закономерности с помо­щью мышления, хранит полученную информацию в памя­ти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения процесса познания информация мо­жет рассматриваться как знания.

Процесс познания можно наглядно изобразить в виде рас­ширяющегося круга знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек (чем шире круг знаний), тем больше он ощущает недостаток знаний (тем больше граница нашего не­знания, мерой которого в этой модели является длина окружности)

Так, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника, однако и граница его не­знания существенно больше. Действительно, первоклассник ничего не знает о законах физики и поэтому не осознает не­достаточности своих знаний, тогда как выпускник школы при подготовке к экзаменам по физике может обнаружить, что существуют физические законы, которые он не знает или не понимает.

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некото­рое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение со­держит информацию.

Например, после сдачи экзамена по информатике вы му­чаетесь неопределенностью, вы не знаете какую оценку по­лучили. Наконец, экзаменационная комиссия объявляет ре­зультаты экзамена, и вы получаете сообщение, которое приносит полную определенность, теперь вы знаете свою оценку. Происходит переход от незнания к полному зна­нию, значит, сообщение экзаменационной комиссии содер­жит информацию.

Уменьшение неопределенности знаний. Подход к информа­ции как мере уменьшения неопределенности знаний позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количе­ства информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ров­ную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из Двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и так далее. В итоге при очень большой серии опытов количества выпаде­ний «орла» и «решки» практически сравняются.

Перед броском существует неопределенность наших зна­ний (возможны два события), и, как упадет монета, предска­зать невозможно. После броска наступает полная определен­ность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном по­ложении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска — только одно, то есть в два раза меньше

В окружающей действительности достаточно часто встре­чаются ситуации, когда может произойти некоторое количе­ство равновероятных событий. Так, при бросании равносто­ронней четырехгранной пирамиды существуют 4 равновероятных события, а при бросании шестигранного иг­рального кубика — 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность и соответственно тем большее количество информации будет содержать сообщение о резуль­татах опыта.

Единицы измерения количества информации. Для коли­чественного выражения любой величины необходимо опре­делить единицу измерения. Так, для измерения длины в ка­честве единицы выбран метр, для измерения массы — килограмм и так далее. Аналогично, для определения коли­чества информации необходимо ввести единицу измерения.

За единицу количества информации принимает­ся такое количество информации, которое содер­жит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит». (Вопрос – с точки зрения информиации, обрабатываемой компьютером как трактуется бит?)

Если вернуться к опыту с бросанием монеты, то здесь не­определенность как раз уменьшается в два раза и, следова­тельно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информа­ция является бит, а следующей по величине единицей явля­ется байт, причем

1 байт = 23 бит = 8 бит

В информатике система образования кратных единиц из­мерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют ко­эффициент , где п = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в дво­ичной системе счисления, поэтому в кратных единицах из­мерения количества информации используется коэффици­ент .

Так, кратные байту единицы измерения количества ин­формации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информа­ции.

Существует формула, которая связывает между собой количество возможных событий N и количество информа­ции I:

N =

По этой формуле можно легко определить количество возможных событий, если известно количество информа­ции. Например, если мы получили 4 бита информации, то количество возможных событий составляло:

N = = 16.

Наоборот, для определения количества информации, если известно количество событий, необходимо решить показатель­ное уравнение относительноI. Например, в игре «Крести­ки-нолики» на поле 8x8 перед первым ходом существует 64 возможных события (64 различных варианта расположения «крестика»), тогда уравнение принимает вид:

64 = 21.

Так как 64 = 26, то получим:

26 = 21.

Таким образом, / = 6 битов, то есть количество информа­ции, полученное вторым игроком после первого хода перво­го игрока, составляет 6 битов.

 



<== предыдущая лекция | следующая лекция ==>
Понятие «информация» и свойства информации | Алфавитный подход к определению количества информации


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.008 сек.