Что понимают под информацией в кибернетике

Информация (в кибернетике)

Центральное положение понятия И. в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в «памяти», передавать по «каналам связи» и перерабатывать её в «сигналы», направляющие их деятельность в соответствующую сторону.

Пример 1. В классической механике знание положения и скорости частицы, движущейся в силовом поле, в данный момент времени даёт И. о её положении в любой будущий момент времени, притом полную в том смысле, что это положение может быть предсказано точно. Знание энергии частицы даёт И., но, очевидно, неполную.

Пример 2. Равенство

даёт И. относительно вещественных переменных a и b. Равенство

даёт меньшую И. [так как из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство

равносильное (1), даёт ту же И., то есть (1) и (3) ‒ это различные формы задания одной и той же И.

Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.

Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.

В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1‒3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).

С помощью значительно более глубоких теорем выясняется роль количества И. (4) в вопросах передачи И. по каналам связи. Основная информационная характеристика каналов, так называемая пропускная способность (или ёмкость), определяется через понятие «И.» (подробнее см. Канал ).

где буквами р и q обозначены плотности вероятности Х и Y соответственно. При этом энтропии Н ( X ) и Н ( Y ) не существуют, но имеет место формула, аналогичная (5),

Таким образом, количество И. в «принятом сигнале» Y относительно «переданного сигнала» X стремится к нулю при возрастании уровня «помех» q (т. е. при s 2 q ® ¥) и неограниченно возрастает при исчезающе малом влиянии «помех» (т. е. при s 2 q ® 0).

В задачах математической статистики также пользуются понятием И. (сравни примеры 3 и 3а). Однако как по своему формальному определению, так и по своему назначению оно отличается от вышеприведённого (из теории И.). Статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием некоторых сводных характеристик. Иногда при такой замене происходит потеря И., но при некоторых условиях сводные характеристики содержат всю И., содержащуюся в полных данных (разъяснение смысла этого высказывания даётся в конце примера 6). Понятие И. в статистике было введено английским статистиком Р. Фишером в 1921.

где параметры a и s 2 (среднее и дисперсия) неизвестны и должны быть оценены по результатам наблюдений. Достаточными статистиками (т. е. функциями от результатов наблюдении, содержащими всю И. о неизвестных параметрах) в этом примере являются среднее арифметическое

и так называемая эмпирическая дисперсия

Если параметр s 2 известен, то достаточной статистикой будет только X (сравни пример 3 а выше).

Лит.: Крамер Г., Математические методы статистики, пер. с англ., М., 1948; Ван-дер-Варден Б. Л., Математическая статистика, пер. с нем., М., 1960; Кульбак С., Теория информации и статистика, пер. с англ., М., 1967.

Источник

Глава 1. Введение в информатику


1.1. Что такое инфоpматика?

Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

Таким образом, информатика базируется на компьютерной технике и немыслима без нее.

Российский академик А.А. Дородницин выделяет в информатике три неразрывно и существенно связанные части — технические средства, программные и алгоритмические.

Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово Software (буквально — «мягкие изделия»), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться.

Программированию задачи всегда предшествует разработка способа ее решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brainware (англ. brain — интеллект).

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни.

Прогрессивное увеличение возможностей компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д.

1.2. Что такое информация?

Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то.

Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Люди обмениваются информацией в форме сообщений. Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

1.3. В каком виде существует информация?

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

1.4. Как передаётся информация?


1.5. Как измеряется количество информации?

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

Подходы к определению количества информации. Формулы Хартли и Шеннона.

Формула Хартли: I = log 2 N

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»—»решка», «чет»—»нечет» и т.п.).

В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная ( дит ) единица информации.

1.6. Что можно делать с информацией?

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

1.7. Какими свойствами обладает информация?

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

1.8. Что такое обработка информации?

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

1.9. Что такое информационные ресурсы и информационные технологии?

Информационные ресурсы — это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

1.10. Что понимают под информатизацией общества?

Цель информатизации — улучшение качества жизни людей за счет увеличения производительности и облегчения условий их труда.

Информатизация — это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьёзных усилий на многих направлениях, включая ликвидацию компьютерной неграмотности, формирование культуры использования новых информационных технологий и др.

1.11. Вопросы для самоконтроля

1.1. Что означает термин «информатика» и каково его происхождение?

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978 года?

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика?

1.4. Назовите основные составные части информатики и основные направления её применения.

1.5. Что подразумевается под понятием «информация» в бытовом, естественно-научном и техническом смыслах?

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день.

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию?

1.8. Где и как человек хранит информацию?

1.9. Что необходимо добавить в систему «источник информации — приёмник информации», чтобы осуществлять передачу сообщений?

1.10. Какие типы действий выполняет человек с информацией?

1.11. Приведите примеры ситуаций, в которых информация

а) создаётся;д) копируется;и) передаётся;
б) обрабатывается;е) воспринимается;к) разрушается;
в) запоминается;ж) измеряется;л) ищется;
г) делится на части;з) принимается;м) упрощается.

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?

1.14. Назовите системы сбора и обработки информации в теле человека.

1.15. Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации.

1.16. От чего зависит информативность сообщения, принимаемого человеком?

1.17. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

1.18. Как определяется единица измерения количества информации?

1.19. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении?

1.20. Почему в формуле Хартли за основание логарифма взято число 2?

1.21. При каком условии формула Шеннона переходит в формулу Хартли?

1.22. Что определяет термин «бит» в теории информации и в вычислительной технике?

1.23. Приведите примеры сообщений, информативность которых можно однозначно определить.

1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.

1.12. Упражнения

1.1. Запишите множество вариантов загорания двух светофоров, расположенных на соседних перекрёстках.
[ Ответ ]

1.2. Три человека, Иванов, Петров и Сидоров, образуют очередь. Запишите все возможные варианты образования этой очереди.
[ Ответ ]

1.3. Назовите все возможные комбинации из двух различных нот (всего нот семь: до, ре, ми, фа, соль, ля, си).
[ Ответ ]

1.4. Пусть голосуют 3 человека (голосование «да»/»нет»). Запишите все возможные исходы голосования.
[ Ответ ]

1.5. Предположим, что имеются 3 автомобильные дороги, идущие от Парижа до Тулузы, и 4 — от Тулузы до Мадрида. Сколькими способами можно выбрать дорогу от Парижа в Мадрид через Тулузу? Попытайтесь найти систематический метод для последовательного нахождения решения так, чтобы можно было составить список способов, не пропустив ни одного из них.
[ Ответ ]

1.6. Поезд находится на одном из восьми путей. Сколько бит информации содержит сообщение о том, где находится поезд?
[ Ответ ]

1.7. Сколько существует различных двоичных последовательностей из одного, двух, трех, четырёх, восьми символов?
[ Ответ ]

1.8. Каков информационный объём сообщения «Я помню чудное мгновенье» при условии, что один символ кодируется одним байтом и соседние слова разделены одним пробелом?
[ Ответ ]

1.10. Сколько бит необходимо, чтобы закодировать оценки: «неудовлетворительно», «удовлетворительно», «хорошо» и «отлично»?
[ Ответ ]

1.12. Сколько байт памяти необходимо, чтобы закодировать изображение на экране компьютерного монитора, который может отображать 1280 точек по горизонтали и 1024 точек по вертикали при 256 цветах?
[ Ответ ]

1.13. Решите уравнение: 8 x (бит) = 32 (Кбайт).
[ Ответ ]

1.14. Решите систему уравненийж 2 х+2 (бит) = 8 y-5 (Кбайт),
н
и 2 2y-1 (Мбайт) = 16 x-3 (бит).

[ Ответ ]

1.15. Определите правила формирования приведённых ниже последовательностей и вставьте пропущенные числа [49] :

Источник

Информация в кибернетике

Основоположник кибернетики Норберт Винер говорил об информации так:

Информация есть информация, а не материя и не энергия. То есть Винер относил информацию (в теоретико-информационном понимании этого термина) к фундаментальным понятиям, не выводимым через более простые. Что, впрочем, не мешает нам пояснять смысл понятия информация на конкретных примерах и описывать её свойства. Например, если в ходе взаимодействия между объектами один объект передаёт другому некоторую субстанцию, но при этом сам её не теряет, то эта субстанция называется информацией, а взаимодействие — информационным.

Свойства информации

Качество информации — степень её соответствия потребностям потребителей. Свойства информации являются относительными, так как зависят от потребностей потребителя информации.

Объективность

Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.

Полнота

Информацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.

Достоверность

— преднамеренное искажение (дезинформация);

— непреднамеренное искажение субъективного свойства;

— искажение в результате воздействия помех;

— ошибки фиксации информации;

— В общем случае достоверность информации достигается:

— указанием времени свершения событий, сведения о которых передаются;

— сопоставлением данных, полученных из различных источников;

— своевременным вскрытием дезинформации;

— исключением искажённой информации и др.

Адекватность

Адекватность — степень соответствия реальному объективному состоянию дела.

Доступность

Доступность информации — мера возможности получить ту или иную информацию.

Актуальность

Актуальность информации — это степень соответствия информации текущему моменту времени.

Эмоциональность

Эмоциональность— свойство информации вызывать различные эмоции у людей. Это свойство информации используют производители медиаинформации. Чем сильнее вызываемые эмоции, тем больше вероятности обращения внимания и запоминания информации.

Классификация информации

Информацию можно разделить на виды по разным критериям.

Способ восприятия

Визуальная — воспринимаемая органами зрения.

Аудиальная — воспринимаемая органами слуха.

Тактильная — воспринимаемая тактильными рецепторами.

Обонятельная — воспринимаемая обонятельными рецепторами.

Вкусовая — воспринимаемая вкусовыми рецепторами.

Форма представления

Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.

Числовая — в виде цифр и знаков, обозначающих математические действия.

Графическая — в виде изображений, событий, предметов, графиков.

Звуковая — устная или в виде записи передача лексем языка аудиальным путём.

Предназначение

Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

Личная — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

Информация и энтропия

Информация и энтропия характеризуют сложную систему с точки зрения упорядоченности и хаоса, причем если информация — мера упорядоченности, то энтропия — мера беспорядка. Эта мера простирается от максимальной энтропии, т.е. хаоса, полной неопределенности до высшего уровня порядка.

Если система эволюционирует в направлении упорядоченности, то ее энтропия уменьшается. Итак, уровень организованности определяется уровнем информации, на котором находится система. Следовательно, количество информации, необходимое для перехода из одного уровня организации в другой (качественно более высокий), можно определить как разность энтропии. Уменьшение энтропии происходит в результате информационно-управленческого процесса за счет обмена с внешней средой веществом, энергией и информацией. Человек постоянно борется с энтропии ей информацией: «Мы плывем вверх по течению, борясь с огромным потоком дезорганизованности, которая в соответствии со вторым законом термодинамики стремится все свести к тепловой смерти — всеобщему равновесию и одинаковости, т.е. энтропии. В мире, где энтропия в целом стремится к возрастанию, существуют местные временные островки уменьшающейся энтропии — это области прогресса».

Заключение

В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков.

Источник

Глава 1. Введение в информатику


1.1. Что такое инфоpматика?

Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

Таким образом, информатика базируется на компьютерной технике и немыслима без нее.

Российский академик А.А. Дородницин выделяет в информатике три неразрывно и существенно связанные части — технические средства, программные и алгоритмические.

Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово Software (буквально — «мягкие изделия»), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться.

Программированию задачи всегда предшествует разработка способа ее решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brainware (англ. brain — интеллект).

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни.

Прогрессивное увеличение возможностей компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д.

1.2. Что такое информация?

Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то.

Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Люди обмениваются информацией в форме сообщений. Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

1.3. В каком виде существует информация?

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

1.4. Как передаётся информация?


1.5. Как измеряется количество информации?

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

Подходы к определению количества информации. Формулы Хартли и Шеннона.

Формула Хартли: I = log 2 N

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»—»решка», «чет»—»нечет» и т.п.).

В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная ( дит ) единица информации.

1.6. Что можно делать с информацией?

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

1.7. Какими свойствами обладает информация?

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

1.8. Что такое обработка информации?

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

1.9. Что такое информационные ресурсы и информационные технологии?

Информационные ресурсы — это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

1.10. Что понимают под информатизацией общества?

Цель информатизации — улучшение качества жизни людей за счет увеличения производительности и облегчения условий их труда.

Информатизация — это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьёзных усилий на многих направлениях, включая ликвидацию компьютерной неграмотности, формирование культуры использования новых информационных технологий и др.

1.11. Вопросы для самоконтроля

1.1. Что означает термин «информатика» и каково его происхождение?

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978 года?

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика?

1.4. Назовите основные составные части информатики и основные направления её применения.

1.5. Что подразумевается под понятием «информация» в бытовом, естественно-научном и техническом смыслах?

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день.

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию?

1.8. Где и как человек хранит информацию?

1.9. Что необходимо добавить в систему «источник информации — приёмник информации», чтобы осуществлять передачу сообщений?

1.10. Какие типы действий выполняет человек с информацией?

1.11. Приведите примеры ситуаций, в которых информация

а) создаётся;д) копируется;и) передаётся;
б) обрабатывается;е) воспринимается;к) разрушается;
в) запоминается;ж) измеряется;л) ищется;
г) делится на части;з) принимается;м) упрощается.

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?

1.14. Назовите системы сбора и обработки информации в теле человека.

1.15. Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации.

1.16. От чего зависит информативность сообщения, принимаемого человеком?

1.17. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

1.18. Как определяется единица измерения количества информации?

1.19. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении?

1.20. Почему в формуле Хартли за основание логарифма взято число 2?

1.21. При каком условии формула Шеннона переходит в формулу Хартли?

1.22. Что определяет термин «бит» в теории информации и в вычислительной технике?

1.23. Приведите примеры сообщений, информативность которых можно однозначно определить.

1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.

1.12. Упражнения

1.1. Запишите множество вариантов загорания двух светофоров, расположенных на соседних перекрёстках.
[ Ответ ]

1.2. Три человека, Иванов, Петров и Сидоров, образуют очередь. Запишите все возможные варианты образования этой очереди.
[ Ответ ]

1.3. Назовите все возможные комбинации из двух различных нот (всего нот семь: до, ре, ми, фа, соль, ля, си).
[ Ответ ]

1.4. Пусть голосуют 3 человека (голосование «да»/»нет»). Запишите все возможные исходы голосования.
[ Ответ ]

1.5. Предположим, что имеются 3 автомобильные дороги, идущие от Парижа до Тулузы, и 4 — от Тулузы до Мадрида. Сколькими способами можно выбрать дорогу от Парижа в Мадрид через Тулузу? Попытайтесь найти систематический метод для последовательного нахождения решения так, чтобы можно было составить список способов, не пропустив ни одного из них.
[ Ответ ]

1.6. Поезд находится на одном из восьми путей. Сколько бит информации содержит сообщение о том, где находится поезд?
[ Ответ ]

1.7. Сколько существует различных двоичных последовательностей из одного, двух, трех, четырёх, восьми символов?
[ Ответ ]

1.8. Каков информационный объём сообщения «Я помню чудное мгновенье» при условии, что один символ кодируется одним байтом и соседние слова разделены одним пробелом?
[ Ответ ]

1.10. Сколько бит необходимо, чтобы закодировать оценки: «неудовлетворительно», «удовлетворительно», «хорошо» и «отлично»?
[ Ответ ]

1.12. Сколько байт памяти необходимо, чтобы закодировать изображение на экране компьютерного монитора, который может отображать 1280 точек по горизонтали и 1024 точек по вертикали при 256 цветах?
[ Ответ ]

1.13. Решите уравнение: 8 x (бит) = 32 (Кбайт).
[ Ответ ]

1.14. Решите систему уравненийж 2 х+2 (бит) = 8 y-5 (Кбайт),
н
и 2 2y-1 (Мбайт) = 16 x-3 (бит).

[ Ответ ]

1.15. Определите правила формирования приведённых ниже последовательностей и вставьте пропущенные числа [49] :

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *