Содержание
- Закономерности 7-8 лет
- Как установить закономерность
- Закономерность событий
- Числовые закономерности
- Закономерности с фигурами и символами
- Играй и учись!
- Закономерность что это простыми словами для детей
- Как понять найти закономерность
- Выбирайте игру для старта
- Что такое закономерность в математике?
- Последовательность букв
- Закономерности 5-6 лет
- Подготовка к игре
- Закономерность это в математике
- Выбирайте игру для старта
- Что такое закономерность в математике?
Закономерности 7-8 лет
Учимся узнавать закономерности расположения чисел и фигур, определять логическую последовательность действий и состояний в природе.
Игры на поиск закономерностей интересны в любом возрасте. Дети 7-8 лет уже знакомы с закономерностями в природе. Первоклашки умеют складывать и вычитать в пределах 20, делают вычисления в уме, поэтому задания для этого возраста будут содержать сюжетные картинки, комбинации чисел, геометрических фигур и символов.
Как установить закономерность
Установить закономерность – значит найти правило, по которому составлена последовательность элементов, продолжить или восстановить пропущенные элементы.
Закономерность событий
Для развития логики и речи предложите ребенку игру на установление закономерности в последовательности событий. Задания помогают раскрыть причинно–следственные связи и воссоздать временную последовательность: раньше — позже. Ребенок научится понимать взаимосвязь событий и выстраивать логическую цепочку действий или превращений.
Числовые закономерности
Закономерность, в которой числа увеличиваются называется возрастающая, а закономерность, где числа уменьшаются — убывающая.
Числа в циклической закономерности повторяются снова и снова, как лампочки на гирлянде.
Пример: 1 2 2 1 2 2 ? 2 2 1 2 2.
Прежде, чем приступать к заданиям — разберите с ребенком несколько примеров, которые доступно объясняют как устанавливать числовые закономерности.
Пример 1. Продолжи закономерность чисел 1,3,5,7, ? Сначала найдем разность соседних чисел — из большего числа вычтем меньшее (предыдущее): 7-5=2 5-3=2 3-1=2
Вывод: числа закономерно увеличиваются на одно и тоже значение, каждое последующее число на 2 больше, чем предыдущее, значит неизвестное число будет на 2 больше, чем 7. 7+2=9 Ответ: 1,3,5,7,9.
В числовой закономерности должно быть не меньше трех чисел. Иногда одно число может быть суммой или произведением других двух чисел.
Пример 2. Продолжи ряд чисел 2,3,5,8, ?
Сначала найдем разность соседних чисел.
3-2=1 5-3=2 8-5=3
Какую закономерность можно отметить?
Вывод: разность соседних чисел увеличивается на 1, значит, чтобы узнать искомое число нужно предыдущее увеличить на 4(8+4=12). Ответ: 12.
Чтобы установить числовую закономерность найди разницу между соседними числами, определи правило составления последовательности и примени его к пропущенному числу.
Закономерности с фигурами и символами
Закономерности с фигурами и символами развивают внимание, зрительную память, учат сравнивать и анализировать.
Детям 7-8 лет будет посильно и интересно выполнять задания, в которых «спрятано» несколько закономерностей одновременно.
После определения последовательности картинок попросите ребенка составить рассказ о происходящих событиях.
Играй и учись!
Установи порядок событий и составь рассказ о том, что изображено на картинках в логичной последовательности.
Проанализируй закономерности и найди числа, которых не хватает.


Продолжи ряд, выбери подходящую фигуру.

Источник
Закономерность что это простыми словами для детей
Как объяснить ребенку понятие закономерность? понятие ребенок закономерность
а как объяснить решее задачи, заданной на лето/1 класс/ продолжить ряд чисел не нарушая закономерноси: 5,2005,3005.
Еще, 50 лет назад, когда моя дочь пошла в 1-й класс, подобные задачки тоже ей задавали. Я, возмущаясь, говорил: один дурак может задать столько вопросов, что сто умных на них не ответят. И это продолжается. к сожалению.
Закономерности бывают разные. Если ваш ребенок школьник, могу предположить, что нужна математическая закономерность. Тут задачи на закономерности решаются логически. Самый простой пример. 1,2,3,4,5,6. Продолжить по закономерности ряд чисел. Логично же что дальше будет 7,8,9 и так далее..
формула событий. развитие событий на основе анализа предыдущих событий и свойств природы. Законов Вселенной… Гроза. Гром. Молния. Идёт дождь. Снегопад…. Отсутствие денег в бюджете при неразумном расходовании.. покупка игрушки любимой при правильном поведении.
На примере существования/наступления дня и ночи или времени года. Также постараться объяснить как и почему это происходит и желательно при этом использовать какие нибудь наглядные пособия. Это будет убедительным примером объективной закономерности.
Людмила, начните объяснять прямо сейчас. Спросите, что сейчас-день, ночь, потом, что будет? И так далее, лучше про дни рождения,праздники. Вот тут то и вставьте-это закономерность, дальше-сложнее. Удачи вам.
Всё вокруг нас подчиняется порядку. После лета осень, после осени зима. Не будет порядка, будет ералаш. Закономерность, это подчинение общим законам.
Можете ему показать на примере:-Налейте в чашку с водой немного масла и покажите ему что оно плавает на поверхности. Это закономерность.
НАШКОДИЛ ПРОВЕРИТЬ РЕМЕШКОМ ОТ КУДА НОГИ РАСТУТ ХОРОШО СЕБЯ ВЕЛ ПОЛУЧИ МОРОЖЕНОЕ ЭТО С МАЛОЛЕТСТВА А ДАЛЬШЕ ПРОЦЕСС САМ ПОЙДЕТ
после детского сада ребёнок идёт в школу это есть закономерность, закончив школу идет в армию или снова учится
Терпеливо объяснить,привести примеры,продемонстрировать. Взрослым это тоже полезно,кто не усвоил в детстве.
пусть сам на себе это прочувствует, всунув два пальца в розетку над которой написано НЕ ВЛАЗЬ,! УБЬЕТ!
Источник
Как понять найти закономерность
Тема: Закономерности в числах и фигурах
Всё в нашей жизни подчиняется каким-то правилам. Есть правила и в математике. Например, посмотрите на такой ряд чисел: 1, 2, 3. Числа стоят по порядку. Или такой ряд: 1, 3, 5: числа стоят через 1 число. 10, 20, 30: каждое следующее число больше предыдущего на 10. То есть при составлении какого-то последовательного ряда соблюдается какое-то правило. Это правило называется закономерность.
Закономерность – это правило, по которому что-то повторяется время от времени.
Повторяться могут изображения, буквы, числа и любые другие символы. Но обязательно в ряду должно быть не менее трёх чисел.
Например, 2, 3. Есть ли в этом ряду закономерность? Этого мы утверждать не можем. А если ряд 3, 6, 9, то какое число мы можем поставить дальше? Конечно. 12. Мы должны поставить это число по правилу данной закономерности (каждое число в ряду больше другого на 3).
В закономерности всегда не менее 3-х элементов!
На первых двух мы обычно предполагаем закономерность, а на третьем проверяем. Два элемента могут находиться рядом абсолютно случайно. А три – это уже правило.
Как находить закономерности?
1. Внимательно смотрим на ряд чисел, фигур или других картинок.
2. Если в этом ряду есть закономерность, то думаем, какая.
3. Проверяем, соблюдается ли это правило во всей последовательности чисел.
4. Вставляем числа (или фигуры), которые должны эту закономерность продолжить.

Как решать задания на закономерности, вы подробно можете посмотреть на сайте заочных школ на Методической страничке в пособии «Закономерности в цифрах и фигурах. Аналогичная закономерность». Скачайте и просмотрите. Там есть примеры аналогичных заданий.
Будьте очень внимательны при решении этих последовательностей!
КОНТРОЛЬНАЯ РАБОТА № 3 по предмету «Математическая мозаика» для 1 класса
Фамилия _______________________________ Имя __________________
Школа _______________ Класс ______________
Задание 1. Назовите следующее число в ряду:
Задание 2. Помогите коту Мурзику выбрать из предлагаемых вариантов геометрическую фигуру, которую нужно поместить в пустую клетку.
Задание 3. Машенька – ужасная модница. У нее два ящика с красивыми косынками. В первом ящике: красная косынка, синяя косынка в белый горошек, желтая косынка в мухоморчик, красная косынка в рыбку, зеленая косынка с птичкой, зеленая косынка в мороженку. Во втором ящике: синяя косынка в белочку, красная косынка в горошек, зеленая косынка в мухоморчик. Сколько различных по цвету косынок у Машеньки? Ответ: ________
Задание 4. Определи, какую картинку надо вставить в пустую клетку.

Задание 5. Найдите числа, которых не хватает каждой змейке. Впишите цифры в ответе.

Жёлтая змейка (верхняя) – ____
Зелёная змейка (средняя) – ______
Малиновая змейка (нижняя) – _____
Задание 6. Какая фигура лишняя?
3 4 5 Ответ: _______
Задание 7. Какой пример соответствует картинке?

Задачи на поиск закономерностей развивают логическое мышление ребёнка, учат сравнивать, рассуждать, классифицировать и делать выводы.
Выбирайте игру для старта
На платформе LogicLike.com дети с удовольствием развивают логику и способности к математике (смотреть отзывы). У нас 3500 занимательных заданий с ответами и пояснениями!
Что такое закономерность в математике?
Математическая закономерность – это определенное правило, по которому в числовом, фигурном или другом ряду элементов происходит повторение или изменение самих элементов или их свойств в соответствии с заданным правилом.
Из учебных материалов с картинками и видео, подготовленных опытными педагогами, ваш ребёнок узнает:
Очень часто в головоломках на закономерность встречаются буквы и цифры. Иногда могут встречаться и геометрические фигуры, и различные картинки, но это очень редко. Именно исходя из представленных букв и цифр, необходимо найти закономерность и додумать, какое же число или буква будет идти следующим. Очень часто в таких головоломках на закономерность буквы означают какие либо количественные признаки, а цифры – наоборот, зачастую обозначают буквы, или даже целые слова.
Последовательность букв
Автор получил 7 рублей за добавление этой Головоломки на сайт
Хочу так же
Источник
Закономерности 5-6 лет
Нахождение закономерностей – один из способов развития логического мышления. Игры на поиск логических закономерностей научат ребенка анализировать, сравнивать, обобщать и делать выводы. Такие задания тренируют ум, развивают смекалку и находчивость.
Логическая закономерность – это правило, по которому происходит повторение или изменение свойств предметов, чисел или других элементов в соответствии с заданным правилом.
Подготовка к игре
Прежде, чем приступать к игровым заданиям, наглядно объясните ребенку, что такое закономерность. Для этого возьмите три- четыре предмета и составьте ряд, в котором будет прослеживаться закономерность. Попросите ребенка рассмотреть предметы и выдвинуть гипотезу: по какой закономерности составлен ряд. После этого ребенок сам сможет правильно продолжить ряд предметов.
Закономерность наглядно показывают с помощью предметов, чисел, фигур или других элементов.
Расскажите ребенку, что признак может закономерно добавляться или уменьшаться. Предложите малышу внимательно посмотреть на божьих коровок и сказать, что изменяется. Верно, количество точек увеличивается на одну. Уточните, какой рисунок спрятался под вопросом. Малыш наверняка догадался – это божья коровка с 4-мя точками.
Решая логическую задачу, ребенок научится устанавливать разнообразные связи, выявлять причину по следствию и комбинировать исходные элементы.
Играя в игру «Найди закономерность» ребенок научится устанавливать логические связи, выявлять причину по следствию и комбинировать исходные элементы. Рассматривайте картинки и находите логические закономерности вместе с ребенком.




Если ваш ребенок смог самостоятельно выполнить последнее задание — смело переходите на страницу для детей 6-7 лет со следующим уровнем сложности игры!
Источник
Закономерность это в математике
Задачи на поиск закономерностей развивают логическое мышление ребёнка, учат сравнивать, рассуждать, классифицировать и делать выводы.
Выбирайте игру для старта
На платформе LogicLike.com дети с удовольствием развивают логику и способности к математике (смотреть отзывы). У нас 3500 занимательных заданий с ответами и пояснениями!
Что такое закономерность в математике?
Математическая закономерность – это определенное правило, по которому в числовом, фигурном или другом ряду элементов происходит повторение или изменение самих элементов или их свойств в соответствии с заданным правилом.
Из учебных материалов с картинками и видео, подготовленных опытными педагогами, ваш ребёнок узнает:
Тема: Закономерности в числах и фигурах
Всё в нашей жизни подчиняется каким-то правилам. Есть правила и в математике. Например, посмотрите на такой ряд чисел: 1, 2, 3. Числа стоят по порядку. Или такой ряд: 1, 3, 5: числа стоят через 1 число. 10, 20, 30: каждое следующее число больше предыдущего на 10. То есть при составлении какого-то последовательного ряда соблюдается какое-то правило. Это правило называется закономерность.
Закономерность – это правило, по которому что-то повторяется время от времени.
Повторяться могут изображения, буквы, числа и любые другие символы. Но обязательно в ряду должно быть не менее трёх чисел.
Например, 2, 3. Есть ли в этом ряду закономерность? Этого мы утверждать не можем. А если ряд 3, 6, 9, то какое число мы можем поставить дальше? Конечно. 12. Мы должны поставить это число по правилу данной закономерности (каждое число в ряду больше другого на 3).
В закономерности всегда не менее 3-х элементов!
На первых двух мы обычно предполагаем закономерность, а на третьем проверяем. Два элемента могут находиться рядом абсолютно случайно. А три – это уже правило.
Как находить закономерности?
1. Внимательно смотрим на ряд чисел, фигур или других картинок.
2. Если в этом ряду есть закономерность, то думаем, какая.
3. Проверяем, соблюдается ли это правило во всей последовательности чисел.
4. Вставляем числа (или фигуры), которые должны эту закономерность продолжить.

Как решать задания на закономерности, вы подробно можете посмотреть на сайте заочных школ на Методической страничке в пособии «Закономерности в цифрах и фигурах. Аналогичная закономерность». Скачайте и просмотрите. Там есть примеры аналогичных заданий.
Будьте очень внимательны при решении этих последовательностей!
КОНТРОЛЬНАЯ РАБОТА № 3 по предмету «Математическая мозаика» для 1 класса
Фамилия _______________________________ Имя __________________
Школа _______________ Класс ______________
Задание 1. Назовите следующее число в ряду:
Задание 2. Помогите коту Мурзику выбрать из предлагаемых вариантов геометрическую фигуру, которую нужно поместить в пустую клетку.
Задание 3. Машенька – ужасная модница. У нее два ящика с красивыми косынками. В первом ящике: красная косынка, синяя косынка в белый горошек, желтая косынка в мухоморчик, красная косынка в рыбку, зеленая косынка с птичкой, зеленая косынка в мороженку. Во втором ящике: синяя косынка в белочку, красная косынка в горошек, зеленая косынка в мухоморчик. Сколько различных по цвету косынок у Машеньки? Ответ: ________
Задание 4. Определи, какую картинку надо вставить в пустую клетку.

Задание 5. Найдите числа, которых не хватает каждой змейке. Впишите цифры в ответе.

Жёлтая змейка (верхняя) – ____
Зелёная змейка (средняя) – ______
Малиновая змейка (нижняя) – _____
Задание 6. Какая фигура лишняя?
3 4 5 Ответ: _______
Задание 7. Какой пример соответствует картинке?

Недавно, решая какую-то математическую задачу, ко мне в голову вдруг вклинилась мысль о том, что надо найти какую-нибудь закономерность в каких-то числах. С чего бы вдруг это – я не знаю.
Закономерность долго не заставила себя ждать. Я вывел интересную на мой взгляд, но при этом абсолютно бесполезную закономерность(хотя может, когда-нибудь её и доведут до чего-нибудь полезного).
Вся суть в квадратах чисел. Между квадратами соседних чисел существует определённый порядок, закономерность. Например:
0) 0^2 = 0
1) 1^2 = 1
2) 2^2 = 4
3) 3^2 = 9
4) 4^2 = 16
5) 5^2 = 25
.
Каждое следующее число(результат) увеличивается на определённое значение, а именно: 1,3,5,7,9,11 и т.д.
Так, к примеру, разница между 5^2 и 6^2 составляет 11, между 6^2 и 7^2 – 13.
Скорее всего кто-то когда-то уже и до меня додумался до этого, но я нигде не встречал)) Может у кого-то из этого и получится что-то полезное сделать)
Источник
ЗАКОНОМЕРНОСТИ СЛУЧАЙНЫХ СОБЫТИЙ
- Авторы
- Руководители
- Файлы работы
- Наградные документы
Шустрова Ю.П. 1
1МБОУ СОШ №12
Жукова Л.М. 1
1МБОУ СОШ №12
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке «Файлы работы» в формате PDF
Введение.
Как говорил Бертран Рассел: «Математика заключает в себе не только истину, но и высочайшую красоту – красоту холодную и строгую, подобную красоте скульптуры».
В окружающем нас мире всё время происходят явления, которые заранее невозможно предсказать: это и ядерные реакции, и передача наследственных признаков, и солнечные вспышки… Можно ли какими-либо точными методами изучать случайность? Кажется, что одно исключает другое. Однако существует теория вероятностей, которая всецело посвящена именно теории случайных явлений. Меня заинтересовала эта тема, и я решила провести исследовательскую работу «Закономерности случайных событий».
Актуальность темы:
Теория вероятностей и закон больших чисел утверждают: иногда нужно пытаться снова и снова, чтобы получить желаемый результат. Чем больше пытаешься, тем скорее получится. Если проще: иногда надо просто не сдаваться.
Гипотеза:
С помощью теории вероятностей можно реально оценить происходящие события.
Цель:
Выявить закономерности возникновения вероятностных событий в повседневной жизни.
Задачи:
Изучить историю появления теории вероятностей как науки.
Рассмотреть вероятностные события в жизни, приводящие к возникновению закономерностей.
Обосновать выдвинутую гипотезу эмпирическим способом.
Подвести итоги полученных результатов.
История возникновения. По одной из версий в 17 веке был один азартный игрок, француз де Мере, который очень хотел разбогатеть. Однажды он обратился к своему другу, известному математику и философу Б. Паскалю с вопросом: «Сколько раз надо бросать две игральные кости, чтобы случаев выпадения сразу двух шестерок было больше половины от общего числа бросаний?». Паскаль попросил помощи у математика П. Ферма и они вместе стали заниматься этой проблемой. Таким образом и появилась теория вероятностей. Полное обоснование она получила в 1922 году. Этому способствовали русские математики, а именно П.Л. Чебышев, А.М. Ляпунов и А.А. Марков. В наши дни она широко применяется во многих областях: при прогнозировании погоды, в статистике, биологии, экономике и т. д.
«Метод решения хорош, если с самого начала мы можем предвидеть — и далее подтвердить это, — что, следуя этому методу, мы достигнем цели» — Г. Лейбниц. Это высказывание иллюстрирует теорию вероятностей.
Основная часть.
Теория вероятностей — математическая наука, изучающая закономерности в случайных явлениях.
Виды событий:
Достоверное событие – событие, которое обязательно произойдёт.
Случайное событие – событие, которое может произойти, а может и не произойти.
Невозможное событие – событие, которое не может произойти.
Классическая формула для вычисления вероятности случайного события: P=m/n, где m – число благоприятных исходов, а n – число всех возможных исходов.
Вероятность события никогда не будет больше 1 или меньше 0. Она равна 0 у событий, которые не могут произойти.
Вероятность равна 1, если мы говорим о событиях, которые точно произойдут. В нашем примере это вероятность того, что «все числа будут делиться на 1»
Рассмотрим теорию вероятностей на примере задачи из ОГЭ по математике.
Задача:
Витя выбрал трёхзначное число. Нужно найти вероятность того, что оно делится на 5.
Решение: Вычислим вероятность с помощью формулы.
Общее число всех возможных исходов: 900 (всего существует трёхзначных чисел). Число благоприятных для события «А» исходов: 180 (количество чисел, делящихся на 5).
P(A)=180/900=0,2
Ответ: 0,2
Закон больших чисел (ЗБЧ) — это обобщённое название нескольких теорем, описывающих результат выполнения одного и того же опыта много раз. К ним относятся теоремы Чебышева (наиболее общий закон больших чисел) и Бернулли (простейший). Согласно закону, среднее значение конечной выборки из фиксированного распределения близко к математическому ожиданию этого распределения. В основе доказательства теорем лежит неравенство Чебышева:
Примером этого закона может служить обычное бросание монетки. Теоретически и орел, и решка могут выпасть с одинаковой вероятностью 50%. Например, если бросить монетку 20 раз, 10 из них должен выпасть орёл и 10 – решка. Но на практике это обычно не работает, ведь частота выпадения может быть 4 к 6, 3 к 7 и т.д. Однако с увеличением количества бросков монетки, к примеру, до 1000, вероятность выпадения орла или решки будет 12. Согласно закону больших чисел, если бросать монетку бесконечно, вероятность выпадения орла или решки всегда будет стремиться к 50%.
Также задания на эту тему присутствуют в ЕГЭ по математике.
Теория вероятности в жизни.
Многие боятся летать на самолётах, потому что считают, что они опасны. Но на самом деле машины намного опаснее. Вероятность того, что человек, погибнет в авиакатастрофе составляет примерно 1/8000000. Таким образом, если пассажир будет садиться каждый день на случайный рейс, ему понадобится 21000 лет, чтобы погибнуть. На самом деле опаснее переходить дорогу по зебре, чем лететь на самолете.
Или другой пример – от падения кокосов погибает около 150 человек в год. Это в десятки раз больше, чем от укуса акул. Но почему-то фильма «Кокос-убийца» пока не снято. Подсчитано, что шанс человека встретиться с акулой составляет 1 к 11,5 миллионам, а шанс погибнуть от такой встречи 1 к двумстам шестидесяти четырём миллионам. За прошлый год от акул в США погиб только 1 человек.
Теория вероятностей может ответить на многие вопросы. Например, почемув плюсе всегда остаётся только казино? Давайте решим простую задачку:
С какой вероятностью вы выиграете в рулетке в казино, поставив на чёрное?
Всего в рулетке 18 чёрных чисел, но общее количество клеток – 37 (18 чёрных, 18 красных и зеро). Так что вероятность выигрыша получается приблизительно 0,49.
Азартные игры. Это игры в кости, лотереи, карточные игры и т.д. В их основе лежит вероятность. По подсчётам, вероятность выиграть в «Гослото 5 из 36» равна одному к трёмстам семидесяти семи тысячам, в «Гослото 6 из 45» — одному к восьми миллионам, в Евроджекпот – одному к пятидесяти девяти миллионам, а в международную лотерею «PowerBall» — одному к ста семидесяти пяти миллионам.
Практическая часть.
Существует один парадокс: «Представьте группу из 23 человек. Какова вероятность того, что хотя бы два человека из них отмечают день рождения в один день?»
Интуитивное мышление сразу подсказывает, что это можно легко проверить по формуле теории вероятностей: Р(А)=23/365=0,063…
Но на самом деле всё далеко не так. Вероятность такого события равна чуть меньше 0,51. Давайте разберёмся, почему.
Дело в том, что если взять двоих человек, то вероятность совпадения дней рождения действительно равна Р(А)=1/365=0,003, но если людей больше, то их уже нужно учитывать не по отдельности, а попарно. Таким образом, из 23 человек можно составить 253 пары. Вероятность того, что хотя бы в одной паре дни рождения совпадут, конечно, намного больше, и рассчитывается она именно так: Учтём, что существует только 2 исхода: либо у кого-то дни рождения совпадают, либо вообще все родились в разные дни (ни у кого дни рождения не совпадают). Точно будет либо так, либо так. Тогда давайте найдём вероятность второго исхода, вычтем результат из единицы и получим искомое (хотя бы у двоих человек день рождения будет в один день).
Начнём с 2 человек, там всё просто. Первый может родиться в любой день в году. Тогда второму остаётся 364 дня, ведь 1 уже занят. Вероятность несовпадения дней рождения у них составляет P(A)=364/365. Если человека 3, то второму остаётся 364 дня, а третьему 363 (ведь 2 уже занято). Всё это должно произойти одновременно, поэтому общая вероятность находится умножением (364/365 * 363/365), то есть для троих человек вероятность несовпадения дней рождения Р=0,9917…
Таким образом, можно наращивать вероятность, и каждому человеку будет доставаться на 1 день меньше. Когда мы дойдём до 23 человек, не совпадать дни рождения будут в 0,4927. Значит в остальных случаях (0,5073) хотя бы у двоих из них дни рождения совпадут. Что интересно, растёт эта вероятность очень быстро. Когда в группе 60 человек, она достигает уже 0,99.
Мы решили проверить этот парадокс в нашей школе. Таблицу вы можете видеть на слайде. Красным отмечены классы, в которых более 2 совпадений, жёлтым – ровно 2. Всего у нас 37 классов. Из них в 15 дни рождения совпадают у двоих человек, а в 7 – более чем у двоих человек. Значит, вероятность совпадения дней рождения в классах нашей школы составляет примерно 0,68 (22 из 37). Также мы решили проверить группы из 3 классов (более 60 человек) и в каждой группе дни рождения совпадали у двоих, 4, а то и у 6 человек.
Конечно, в наших классах не ровно 23 человека, поэтому мы решили проверить составы команд сборных Чемпионата мира по футболу 2018 года. Там в каждой команде ровно по 23 человека. Из 32 команд в 12 дни рождения совпадают у двоих человек, а в 6 – более чем у двоих человек. Таким образом, вероятность равна примерно пятидесяти шести сотым (18 из 32).
Парадокс Монти Холла.
Парадокс назван в честь ведущего популярной американской телепередачи 2-ой половины 20-ого века. Передача называется «Let’s make a deal», что переводится как «Давайте заключим сделку».
Эта задача звучит так: «Представьте, что вы участник игры, в которой вам нужно выбрать одну из трёх дверей. За одной дверью находится автомобиль, за двумя другими — козы. Допустим, вы выбираете дверь номер 1, после этого ведущий, который знает, где находится автомобиль, а где — козы, открывает одну из оставшихся дверей, например, номер 2, за которой находится коза. После этого он спрашивает вас — хотите ли вы изменить свой выбор и выбрать дверь номер 3? Увеличатся ли ваши шансы выиграть автомобиль, если вы примете предложение ведущего и измените свой выбор?»
Вот типичный ход рассуждений: после того, как ведущий открыл одну из дверей и показал козу, игроку остается выбрать между двумя дверями. Машина находится за одной из них, значит, вероятность ее угадать составляет ½. Так что нет разницы — менять свой выбор или нет. И тем не менее, теория вероятностей гласит, что можно увеличить свои шансы на выигрыш, изменив решение. Разберемся, почему это так.
Для начала давайте вернёмся на шаг назад. В тот момент, когда мы сделали свой изначальный выбор, мы разделили двери на две части: выбранная нами и две остальные. Очевидно, что вероятность того, что автомобиль прячется за «нашей» дверью, составляет ⅓ — соответственно, автомобиль находится за одной из двух оставшихся дверей с вероятностью ⅔. Когда ведущий показывает, что за одной из этих дверей — коза, получается, что эти ⅔ шанса приходятся на вторую дверь. А это сводит выбор игрока к двум дверям, за одной из которых (изначально выбранной) автомобиль находится с вероятностью ⅓, а за другой — с вероятностью ⅔. Выбор становится очевидным. Что, разумеется, не отменяет того факта, что с самого начала игрок мог выбрать дверь с автомобилем.
Статистика показывает, что игроки, изменившие свой выбор на другую дверь, выигрывали автомобиль чаще, чем те, кто предпочёл открыть первоначальную дверь. Также этот парадокс описывается в фильме «Двадцать одно».
Ещё более наглядной ситуация становится, если представить, что дверей не 3, а, скажем 1000, и после выбора игрока ведущий убирает 998 лишних, оставляя 2 двери: ту, которую выбрал игрок и ещё одну. Представляется более очевидным, что вероятности нахождения приза за этими дверями различны, и не равны ½. Вероятность того, что автомобиль находится за изначально выбранной дверью, равно 1/1000, а за другой – 999/1000. В случае с 3 дверьми логика сохраняется, но вероятность выигрыша при смене решения соответственно 2⁄3, а не 999⁄1000.
Результаты
В ходе моей исследовательской работы я расширила свои знания по математической статистике, что позволило мне реально оценить происходящие события. Также я проверила гипотезу о днях рождения на статистических данных по нашей школе и ещё раз подтвердила её на данных составов команд, участвующих в Чемпионате Мира по футболу 2018 года. Я выяснила, что теория вероятностей позволяет выявить закономерности возникновения вероятностных событий в повседневной жизни; проверила и подтвердила гипотезу. Цель достигнута, задачи выполнены. В дальнейшем я продолжу работу по данной теме.
Выводы
Во время работы над проектом, я увидела, насколько широко применяется теория вероятности и как она влияет на нашу жизнь. Данный материал можно использовать на уроках математики при изучении темы «Элементы комбинаторики и теории вероятностей», а также при подготовке к итоговой аттестации.
Список используемых источников
1. Скороход, А. В. Вероятность вокруг нас / А. В. Скороход // Советский математик. – 1980. – С. 1
2. Балдин, К. В. Теория вероятностей и математическая статика / К. В. Балдин, В. Н. Башлыков, А. В. Рукосуев // – 2009. – С. 9
3. Денежкина, И. Е. Теория вероятностей и математическая статика в вопросах и задачах / И. Е. Денежкина, С. Е. Степанов, И. И. Цыганок // – 2019. – С. 13
Приложение.
9
Просмотров работы: 491
Теория вероятностей — это математическая наука, которая изучает закономерности случайных явлений. Случайные явления определяются как явления с неопределенным исходом, возникающие при многократном воспроизведении определенного набора условий.
На данной странице находится курс лекций по теории вероятности по всем темам предмета «Теория вероятностей«.
Лекции по теории вероятностей содержат большое количество примеров решения задач и выполнения заданий.
Содержание:
Основные понятия о теории вероятностей
Теория вероятностей — это математическая наука, изучающая закономерности случайных явлений. Случайные явления определяются как явления с неопределенным исходом, возникающие при многократном воспроизведении (повторении) одного и того же опыта в одних и тех же условиях.
В природе и технике, экономике и спорте нет ни одного физического явления, не содержащего элементов случайности. Разработка и изучение методов теории вероятностей и вероятностных моделей позволяет понять различные свойства случайных явлений на абстрактном и обобщенном уровне, не прибегая к экспериментам.
Цель вероятностных методов — обойти чрезмерно сложное (и часто невозможное) изучение одного случая, исследовать закономерности массовых случайных явлений, предсказать их характеристики, повлиять на ход этих явлений, контролировать их, ограничить масштаб случайности.
Фундамент каждой науки — ее важные понятия, основа красивого здания, которое пригодится на всю жизнь.
Предмет теории вероятностей
Рассмотрим некоторый эксперимент, в результате которого может появиться или не появиться событие А. Примерами такого эксперимента могут быть:
- а) эксперимент — изготовление определенного изделия, событие А — стандартность этого изделия;
- б) эксперимент — подкидывание монеты, событие А — выпал герб;
- в) эксперимент — стрельба пятью выстрелами в мишень, событие А — выбито 30 очков;
- г) эксперимент — введение программы в компьютер, событие А — безошибочный ввод.
Общим для всех экспериментов является то, что каждый из них может реализовываться в определенных условиях сколько угодно раз. Такие эксперименты называют испытаниями.
События бывают достоверные, случайные и невозможные.
Достоверным называют такое событие, которое при рассмотренных условиях обязательно случится.
Невозможным называют такое событие, которое при рассмотренных условиях не может случится.
Случайным называют такое событие, которое при рассмотренных условиях может случится, а может и не случится.
например, если в урне есть только белые шары, то добывание белого шара из урны — достоверное событие, а добывание из этой урны шара другого цвета -невозможное событие.
Если бросить монету на плоскость, то появление герба будет случайным событием, потому что вместо герба может появиться надпись.
Случайные события обозначают большими буквами, например
Каждое случайное событие является следствием многих случайных или неизвестных нам причин, которые влияют на событие. Поэтому невозможно предсказать исход однофакторного испытания.
Но если рассматривать случайное событие много раз при одинаковых условиях, то можно выявить определенную закономерность его появления или не появления. Такую закономерность называют возможной закономерностью массовых случайных событий.
В теории вероятностей под массовыми однородными случайными событиями понимают такие события, которые осуществляются многократно при одинаковых условиях или много одинаковых событий.
Например, бросить одну монету 1000 раз или 1000 одинаковых монет бросить один раз в теории вероятностей считают одинаковыми событиями.
Предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий.
Основные понятия, методы, теоремы и формулы теории вероятностей эффективно применяются в науке, технике, экономике, в теориях надежности и массового обслуживания, в планировании и организации производства, в страховом и налоговом делах, в социологии и политологии, в демографии и охране здоровья.
Краткая история о теории вероятностей
Первые работы, в которых возникли основные понятия теории вероятностей, появились в
Следующий этап (конец 

Я. Бернулли сделал первые теоретические обоснования накопленных ранее фактов.
В 
Только в конце 
Дальнейшим развитием теории вероятностей и случайных процессов обязаны таким математикам, как С.Н. Бернштейн, А.М. Колмогоров, Б.В. Гниденко, А.В. Скороход, В.С. Королюк, Ю. Нейман, И.И. Гихман, И.М. Коваленко.
Алгебра случайных событий
сначала познакомимся с разновидностями случайных событий.
Определение 1. События называют несовместными, если появление одного из них исключает появление других событий в одном и том же испытании.
Пример №1
Среди однородных деталей есть стандартные и нестандартные. Наугад берут из ящика одну деталь.
События
А — взята стандартная деталь,
В — взята нестандартная деталь
несовместны потому, что взята только одна деталь, которая не может быть одновременно стандартной и нестандартной.
Определение 2. События называют совместными, если появление одного из них не исключает возможности появления других (не обязательно одновременно).
Пример №2
Два стрелка стреляют в мишень.
События


будут совместными случайными событиями.
Определение 3. Случайные события 
Пример №3
Бросают шестигранный кубик. Обозначим события так






События 
В примере 2 события 




Определение 4. События называют равновозможными, если нет причин утверждать, что любое из них вероятнее другого.
Пример №4
События — появление 1, 2, 3, 4, 5 или 6 очков при бросании шестигранного кубика — равновозможные, при условии, что центр его тяжести не смещенный.
Определение 5. Два несовместных события , которые образуют полную группу , называют противоположными.
Событие, противоположное событию А, обозначается
Пример №5
Если обозначить через А событие, при котором при стрельбе по мишени выбито 8 очков, то событие — при котором при стрельбе по мишени выбито любое другое число очков.
Теперь рассмотрим важное понятие пространства элементарных исходов.
Путь выполняется некоторый эксперимент, который имеет элементы случайности. Каждое испытание может иметь разные исходов.
Так, при бросании монеты могут быть два возможных исхода: герб или надпись
При бросании игрального кубика могут быть шесть возможных исходов.
В испытании «выстрел в мишень» можно рассматривать такие исходы, как попадание в цель, или количество выбитых очков, или координаты точки попадания.
Следовательно, что принимать за исход испытания, зависит от условия задачи.
Определение 6. Элементарными исходами называют такие события, которые невозможно разделить на более простые.
Множество всех возможных элементарных исходов называют пространством элементарных исходов.
Пространство элементарных исходов может содержать конечное, счетное, или несчетное множество элементов.
В роли элементарных исходов можно рассматривать точки 


В большинстве случаев, которые рассматриваются, допускают, что элементарные исходы равновозможные.
Пример №6
а) При двукратном бросании монеты пространство элементарных исходов содержит 4 точки
где 

б) Пусть в мишень стреляют одиночными выстрелами до первого попадания. Возможные такие элементарные события:



и т.д.
В этом случае пространство элементарных исходов может иметь бесконечное количество точек, которые можно путем нумерации перечислить. Поэтому пространство элементарных исходов будет счетным.
в) При производстве кинескопов возникают неодинаковые условия технологического процесса, поэтому время работы кинескопа отличается от его номинального значения, то есть будет случайным событием.
Пространство элементарных исходов в этом случае будет бесконечным несчетным множеством, элементы которого невозможно пронумеровать.
Теперь ознакомимся с алгеброй случайных событий.
Пусть 

Объединением (суммой) случайных событий 

А или В
или
А и В.
Если А и В — несовместимы, то 
Рис. 1а и 1б. Событие В и противоположное ему
Рис. 1г. Заштрихованная площадь — произведение событий АВ.
Рис. 1д. Заштрихованная площадь — сумма событий
Рис. 1е. Заштрихованная площадь — разность событий
Аналогично определяют объединение (сумму) большего количества случайных событий.
Определение 7. Объединением (суммой) случайных событий 
Если события парно несовместимы, то их сумма заключается в том, что должно появиться событие 


Пример №7
Стрелок совершает один выстрел в мишень, разделенную на три области. Обозначим
событие 
событие 
событие 
событие 
событие 
событие 
Тогда получим
Отметим, что события 

Определение 8. Разностью 


Произведением (пересечением) 

Если А и В — несовместимые, то произведение 
Таким образом, в случае несовместимости событий 
Определение 9. Произведением (пересечением) конечного количества случайных событий 
Событие 

Указанные соотношения между событиями являются обычными соотношениями между множествами, которые можно представить графически (см. рис.1).
Пример №8
Стрелок стреляет дважды в мишень. Описать пространство элементарных исходов. Записать, событие, которое заключается в том, что:
а) стрелок попал в мишень хотя бы один раз (событие С); б) стрелок попал ровно один раз (событие 

Решение.
Обозначим
Событие 
событие 
Пространство элементарных исходов состоит из четырех событий
а) Если стрелок попал в мишень хотя бы один раз, то это означает, что он попал или с первого выстрела 

То есть,
б) Ровно одно попадание может быть только тогда, когда стрелок с первого выстрела попал, а со второго — нет, или с первого выстрела не попал, а со второго — попал.
Поэтому,
в) Если стрелок не попал в мишень, то это означает, что он не попал с обоих выстрелов,
То есть,
Определение и свойства вероятности и частоты
Для сравнения случайных событий по степени их возможности необходимо каждое событие связать с определенным числом, которое должно быть тем больше, чем более возможно событие. Такое число 
Определение 1. Вероятностью события является мера степени объективной возможности этого события.
Это определение вероятности определяет философскую суть вероятности, но не показывает закон нахождения вероятности любого события.
Определение 2 (классическое). Вероятность события А равна отношению числа элементарных исходов, которые способствуют появлению события А, к общему числу всех единственно возможных и равновозможных элементарных исходов.
Вероятность события 

где 


Пример №9
В урне 6 одинаковых по размеру шаров: 2 красных, 3 синих, 1 белый. Найти вероятность появления красного шара, если берут один шар из урны наугад.
Решение. Пусть событие 


Замечание 1. При решении многих задач нахождение чисел 

Замечание 2. Классическое определение вероятности имеет место только тогда, когда 

Если множество элементарных исходов бесконечно или элементарные исходы не равновозможные, то формулой (1) пользоваться нельзя.
Если множество всех элементарных исходов бесконечно и, как следствие, занимает некоторую область 



Определение 3 (геометрическое). Вероятность случайного события А равна отношению меры 
Замечание 3. Если область 






В общем случае меры области определяют аксиомами.
Пример №10
Два туристических парохода должны причалить к одному причалу. Время прибытия обоих пароходов равновозможное в течение суток.
Определить вероятность того, что одному из пароходов придется ждать освобождения причала, если время стоянки первого парохода равно одному часу, а второго — двум часам.
Решение. Пусть 

Возможные значения 

Благоприятные значения:
Построим эту область (см. рис. 2)
Отношение площади заштрихованной фигуры 
Определение 4. Относительной частотой или частостью события А называют отношение числа испытаний, в которых событие А появилось, к числу фактически выполненных испытаний.
Относительную частоту события А обозначают 

где 

Пример №11
Отдел технического контроля среди 100 изделий выявил 8 нестандартных. Чему равна относительная частота появления нестандартных изделий?
Решение. Обозначим через 
Замечание 4. Подчеркнем, что вероятность 

Частота имеет свойство стойкости: при большом количестве испытаний частота изменяется очень мало, колеблясь около некоторого постоянного числа — вероятности появления этого события, то есть
Определение 5. Статистическая вероятность — это относительная частота (частость) или число, близкое к ней.
Теперь рассмотрим основные свойства вероятности, используя формулу (1) классического определения вероятности события А.
- Если событие А достоверно, то его вероятность равна единице, то есть
- Если событие А невозможно, то его вероятность равна нулю, то есть
- Если событие А случайное, то его вероятность удовлетворяет соотношение
Действительно, при рассматриваемых условиях достоверное событие обязательно появится, как вследствие, все возможные элементарные исходы способствуют событию А, то есть 
Если при условиях, которые рассматриваются, событие А невозможно, тогда среди всех возможных исходов нет тех, которые способствуют событию А, то есть 
Если событие А случайное то среди всех 


Замечание 5. Последнее свойство вероятности случайных событий используется для осуществления самоконтроля при решении многих задач теории вероятностей.
Основные понятия и принцип комбинаторики
Часто для нахождения чисел 


Классификация и свойства таких соединений, а также формулы для вычисления количества разных соединений разработаны математиками и содержатся в разделе «Комбинаторика» курса алгебры.
Ознакомимся с основными понятиями и формулами комбинаторики.
Определение 1. Разные группы, составленные из любых элементов, которые отличаются элементами или порядком этих элементов, называют соединениями или комбинациями этих элементов.
Пример №12
Из цифр 

Все возможные соединения целесообразно классифицировать. Соединения бывают трех видов:
— перестановка;
— размещение;
— сочетание.
Определение 2. Соединения из 
Количество перестановок из 

Обозначение 

По определению
Пример №13
Сколько пятизначных чисел можно записать, используя пять разных цифр (кроме нуля)?
Решение. Соединения, которые образуют из пяти разных цифр пятизначные числа, могут отличаться только порядком цифр, поэтому такие соединения будут перестановкой из 5 элементов. Согласно формуле (1) их количество будет
Определение 3. Размещением из 




Количество размещений из 


Пример №14
Студенты второго курса согласно учебного плана изучают 10 дисциплин. На один день можно планировать занятия по 4 дисциплинам. Сколькими способами можно составить расписание занятий на один день?
Решение. Все возможные расписания занятий на один день — это соединения из 10 по 4, которые могут отличаться дисциплинами или их порядком, то есть эти соединения — размещение. Количество таких размещений согласно формуле (2) будет
Определение 4. Сочетанием из 



Количество сочетаний из 


Замечание 1. Перестановку можно рассматривать как частный случай размещения
Между количеством перестановок, размещений и сочетаний сцуществует простая связь
Часто целесообразно использовать такие свойства соединений:
Пример №15
В ящике 10 изделий, из которых 2 нестандартные. Наугад берут 6 изделий. Какая вероятность того, что все взятые изделия будут стандартными?
Решение. Обозначим событие 
Поэтому количество всех возможных элементарных исходов будет
Событию 
Следовательно, согласно классическому определению вероятности события А, получим
Теперь ознакомимся с основными принципами комбинаторики.
Принцип суммы. Если множество 






Доказательство. Осуществляется простым подсчетом элементов множества
Сначала считаем все элементы множества А. Они получат номера от 1 до 

Теперь будем считать элементы множества 


Таким подсчетом все элементы множества 



Замечание 2. Принцип суммы имеет место для суммы 
Принцип произведения. Если множество 






Доказательство. Множество С разобьем на подмножества
Поскольку 



Аналогично получаем, что 
Теперь докажем, что
Действительно, пусть 







Пример №16
В корзине 4 яблока первого сорта и 5 яблок второго сорта. Наугад берут 2 яблока. Найти вероятность того, что будут взяты яблоки разных сортов.
Решение. Пусть событие А — наугад взятые 2 яблока разных сортов.
Всего яблок 9, из них сочетаний по 2 будет 
Событию А будут способствовать сочетания, созданные из пар, элементами которых будут яблоки разных сортов. Согласно принципу умножения, количество таких пар будет равно
Используя классическое определение вероятности, получим искомую вероятность события А
Основные теоремы теории вероятностей
Основными теоремами теории вероятностей являются две: теорема сложения вероятностей и теорема умножения вероятностей. Обе эти теоремы являются теоремами и могут быть доказаны только для событий, сводящихся к схеме случаев.
Сложение вероятностей несовместных событий
Теорема 1. Вероятность объединения двух случайных несовместных событий равна сумме их вероятностей
Доказательство. Пусть число всех возможных элементарных исходов появления событий А и В равно 



то есть утверждение теоремы доказано.
Совсем аналогично можно доказать следующее утверждение.
Теорема 2. Если случайные события 
Пример №17
Вероятность попадания стрелком в первую область мишени равна 0,45, во вторую область — 0,35, в третью — 0,15. Найти вероятность того, что с одного выстрела стрелок попадет в первую или вторую область мишени.
Решение. Обозначим событием 

С одного выстрела события 

Теорема 3. Сумма вероятностей полной группы случайных событий равна единице
Доказательство. Если случайные события 
Вероятность достоверного события равна единице, поэтому
Левые части равенств (2) и (3) одинаковые, поэтому правые части будут равными, то есть имеет место равенство (1). Теорема доказана.
Следствие. Два противоположных события 

из которого получаем формулу
нахождения вероятности противоположного события.
Пример №18
Вероятность получить сообщение от определенного лица в течение суток равна 0,25. Найти вероятность того, что сообщение в течение суток от этого лица не будет получено.
Решение. Обозначим событием А — сообщение от этого лица в течение суток поступит. По условию задачи имеет место соотношение 

В страховом деле необходимо высчитывать, например, такую задачу.
Пример №19
По статистическим показателям государства можно сделать вывод, что 68% мужчин, которые достигли 60-тилетия, достигают также и 70-тилетия. Какая вероятность того, что 60-тилетний мужчина не достигнет своего 70-тилетия?
Решение. Если событие А — 60-тилетний мужчина достигает своего 70-тилетия, то противоположное событие 

Следовательно, используя статистические данные государства, можно вычислить вероятность того, что 32% 60-тилетних мужчин умрет в течение 10 лет.
Зависимые и независимые события, условные вероятности
Определение 1. Случайные события А и В называют зависимыми, если вероятность появления одного из них зависит от появления или непоявления второго события.
Если вероятность появления одного события не зависит от появления или непоявления второго, то такие события называют независимыми.
Определение 2. Вероятность события В, вычисленная при условии появления События А, называют условной вероятностью события В и обозначают 
Пример №20
В урне 10 шаров: 3 белых и 7 черных. Наугад берут два шара. Пусть событие А — взят белый шар; событие В — взят черный шар.
Если шар, который взяли первым, возвращают в урну, то вероятность появления второго шара не зависит от того, какой взят первый шар.
Если первый шар не возвращается в урну, то вероятность второго события зависит от результата первого испытания.
Если первым взяли белый шар, то в урне осталось 2 белых шара и 7 черных, поэтому
Если первым взяли черный шар, то в урне осталось 3 белых шара и 6 черных шаров, поэтому
Следовательно, вероятность события В зависит от появления или непоявления события А.
Замечание. Если события А и В независимые, то условная вероятность равна безусловной вероятности, то есть
Умножение вероятностей
Теорема 4. Вероятность совместного появления двух случайных событий А и В равна произведению вероятностей одного из этих событий и условной вероятности второго события при условии, что первое событие появилось
Доказательство. Все элементарные исходы изобразим в виде точек (рис. 3).
Пусть появлению события А способствуют 




Так как
то
что и требовалось доказать.
Соотношения (1) называют формулой умножения вероятностей зависимых случайных событий.
Следствие. В случае независимых случайных событий А и В формула (1) принимает вид
и называется формулой умножения вероятностей независимых случайных событий.
В случае конечного количества независимых случайных событий Формула (2) принимает вид
Пример №21
В некотором сообществе людей 70% курят, 40% болеют раком легких и 25% курят и имеют рак легких. Найти вероятность того, что наугад взятое человек из этого общества:
а) не курит, но имеет рак легких;
б) курит, но не имеет рак легких;
в) никогда не курит и не имеет рак легких;
г) или курит или имеет рак легких.
Решение. Обозначим события: А — человек курит; В — человек болеет раком легких. Тогда по условию задачи получим
Пример №22
Привести иллюстративную диаграмму свойства
Ответ. См. рис. 4.
Вероятность появления хотя бы одного случайного события
Пусть существует 





Отсюда получим
По этой формуле необходимо вычислять вероятность появления хотя бы одного случайного события из 
Пример №23
Вероятность попадания в мишень первого стрелка равна 0,7, второго стрелка — 0,8, а третьего стрелка — 0,9. Найти вероятность попадания в мишень хотя бы одного стрелка.
Решение. Обозначим события




По условию задачи события 



Согласно формуле (1) и формуле умножения вероятностей независимых событий получим
Так как
то по формуле (2) получим
Теорема сложения вероятностей совместных событий
Теорема 5. Если случайные событие А и В совместные, то вероятность их объединения равна сумме их вероятностей без вероятности их совместного появления, то сеть
Доказательство. Согласно условию теоремы события А и В совместные, поэтому 

Согласно теореме сложения вероятностей несовместных событий получим
Событие А появится, если появится одно из двух несовместных событий 
Согласно теореме сложения вероятностей несовместных событий
Аналогично получим
Подставим (3) и (4) в формулу (2), тогда получим равенство (1), которое требовалось доказать.
Замечание. Если события А и В независимые, то формула (1) принимает вид
Для зависимых случайных событий получим
Пример №24
В зависимости от наличия сырья предприятие может производить и отправлять заказчикам ежедневно количество определенной продукции от 1 до 100. Какая вероятность того, что полученное количество продукции можно распределить без остатка
а) трем заказчикам;
б) четырем заказчикам;
в) двенадцати заказчикам;
г) трем или четырем заказчикам?
Решение. Обозначим события
А — полученное количество изделий делится на 3 без остатка;
В — полученное количество изделий делится на 4 без остатка.
Используя классическое определение вероятности, находим
События А и В — совместные, поэтому по формуле (1) получим
Надежность системы
Определение 1. Надежностью системы называют вероятность ее безотказной работы в определенное время 
Системы состоят из элементов, соединенных последовательно
или параллельно
При вычислении надежности систем необходимо выразить надежность системы через надежность элементов и блоков.
Надежность элементов считается известной, так как она связана с технологией их производства.
Обозначим 




Рассмотрим блок, все элементы которого независимые и соединенные последовательно (см. рис. 5).
Такой блок будет работать безотказно только в то время, когда все элементы работают безотказно. Согласно теореме умножения вероятностей независимых событий вероятность 
Теперь рассмотрим блок, элементы которого соединенные параллельно (см. рис. 6).
Такой блок будет работать безотказно, если хотя бы один элемент не выйдет из строя. Поэтому вероятность 
Любую сложную систему можно рассматривать как последовательное или параллельное соединение блоков, надежность которых вычисляют по формулам (1) и (2).
Пример №25
Прибор собран из двух блоков, соединенных последовательно и независимо работающих. Вероятность отказа блоков равна 0,05 и 0,08. Найти вероятность отказа прибора.
Решение. Отказом прибора является событие противоположное его безотказной работе. Вероятности безотказной работы блоков составят
Вероятность безотказной работы прибора составит согласно формуле (1)
Поэтому вероятность отказа прибора составит
Формулы полной вероятности и Байеса
Теорема 6. Если случайное событие А может появится только совместно с одним из несовместных между собой событий 
Доказательство. По условию теоремы появление события А означает появление одного из событий 
События 

События А и 

Подставим (3) в формулу (2) и получим равенство (1), которое требовалось доказать.
Формулу (1) называют формулой полной вероятности.
Пример №26
В первом ящике 20 деталей, из которых 15 стандартных. Во втором ящике 0 деталей, из которых 9 стандартных. Из второго ящика берут наугад одну деталь и перекладывают ее в первый ящик. Найти вероятность того, что взятая после этого наугад деталь из первого ящика стандартная.
Решение. Обозначим такие события: А — из первого ящика взята стандартная деталь; 

Согласно условия задачи, из первого ящика модно взять деталь только после того, как произойдет событие 
События 

Найдем нужные вероятности
Подставим эти значения в формулу (4) и получим
Теперь познакомимся с формулами Байеса.
По условиям Теоремы 1 неизвестно, с каким событием из несовместных событий 



Если испытание проведено и в результате его событие А появилось, то условная вероятность 
Сравнение вероятностей 

Для получения условной вероятности используем теорему умножения вероятностей зависимых событий
Подставим в формулу (5) вместо 
Формулы (6) называют формулами Байеса. Они позволяют переоценить вероятности гипотез. Это важно при контроле или ревизиях.
Пример №27
Детали, изготовленные цехом завода, попадают для проверки их стандартности к одному из двух контролеров. Вероятность того, что деталь попадет к первому контролеру равна 0,6, а ко второму — 0,4. Вероятность того, что пригодная деталь будет признана стандартной первым контролером равна 0,94, а вторым — 0,98.
Пригодная деталь при проверке признана стандартной. Найти вероятность того, что деталь проверял первый контролер.
Решение. Обозначим такие события: А — пригодная деталь признана стандартной; 

По формуле Байеса (6) при 
Отметим, что до появления события А вероятность 

Пример №28
Вероятность уничтожения самолета с одного выстрела для первой пушки равна 0,2, а для второй пушки — 0,1. Каждая пушка делает по одному выстрелу, причем было одно попадание в самолет. Какая вероятность того, что попала первая пушка?
Решение. Обозначим такие события: А — уничтожение самолета с первого выстрела первой пушкой; В — уничтожение самолета с первого выстрела второй пушкой; С — одно попадание в самолет. Имеем четыре гипотезы
которые образуют полную группу событий. Вероятностями этих гипотез будут
Так как сумма
является достоверным событием, то
Условные вероятности события С будут
Теперь по формуле Байеса находим искомую вероятность
Последовательности испытаний
Схемой Бернулли или последовательностью независимых одинаковых испытаний, или биномиальной схемой испытаний называют последовательность n испытаний, удовлетворяющих условиям.
Схема и формула Бернулли
Во многих задачах теории вероятностей, статистике и повседневной практике необходимо исследовать последовательность (серию) 
Определение 1. Если все 
Пусть случайное событие А может появится в каждом испытании с вероятностью 
Поставим задачу: найти вероятность того, что при 


Сначала рассмотрим появление события А три раза в четырех испытаниях. Возможны такие события
то есть их
Если событие А появилось 2 раза в 4 испытаниях, то возможны такие события
их
В общем случае, когда событие А появляется 

Вычислим вероятность одного сложного события, например
Вероятность совместного появления 
Количество таких сложных событий 
Формулу (1) называют формулой Бернулли .Она позволяет находить вероятность появления события А 

Замечание 1. Вероятность появления события А в 

Вероятность появления события А не менее 
или по формуле
Вероятность появления события А хотя бы один раз в 
Замечание 2. Во многих случаях необходимо находить наиболее вероятное значение 


Число 

Замечание 3. Если вероятность появления события А в каждом испытании равна 


Пример №29
Прибор собран из 10 блоков, надежность каждого из них 0,8. Блоки могут выходить из строя независимо друг от друга. Найти вероятность того, что
а) откажут два блока;
б) откажет хотя бы один блок;
в) откажут не менее двух блоков.
Решение. Обозначим событием А отказ блока. Тогда вероятность события А по условию примера будет

Согласно условию задачи 
Пример №30
За один час автомат производит 20 деталей. За сколько часов вероятность производства хотя бы одной бракованной детали будет не менее 0,952, если вероятность брака любой детали равна 0,01?
Решение. Используя формулу (2), найдем сначала такое количество произведенных деталей, чтобы с вероятностью 
Следовательно, за время 
Пример №31
При новом технологическом процессе 80% всей произведенной продукции имеет наивысшее качество. Найти наиболее вероятное число произведенных изделий наивысшего качества среди 250 произведенных изделий.
Решение. Обозначим искомое число
Согласно Замечанию 2
По условию примера 
Но 
Предельные теоремы в схеме Бернулли
Нахождение вероятностей 




Укажем без доказательства три предельных теоремы, которые содержат приближенные формулы для вероятностей
Теорема 1 (Теорема Пуассона). Если 
для любого постоянного
Следствие. Вероятность появления события А 

где
Формулу (1) целесообразно применять при больших 
Пример №32
Учебник напечатан тиражом 100000 экземпляров. Вероятность неправильной брошюровки учебника равна 0,0001. Найти вероятность того, что тираж имеет 5 бракованных учебников.
Решение. Брошюровку каждого учебника можно рассматривать как испытание. Испытания независимые и имеют одинаковую вероятность неправильной брошюровки, поэтому задача укладывается в схему Бернулли. Согласно условию задачи


Используя формулу Пуассона (1), получим
Для приведения еще двух предельных теорем необходимо сначала определить локальную и интегральную функции Лапласа и ознакомится с их основными свойствами.
Определение 1. Локальной функцией Лапласа называют функцию вида
Эта функция часто используется, поэтому ее значение для разных 

Основные свойства локальной функции Лапласа
- Функция Лапласа
четная, то есть
- Функция
определена для всех
-
когда
-
График локальной функции Лапласа имеет вид, показанный на рис. 7.
Определение 2. Интегральной функцией Лапласа называют функцию
Легко увидеть, что между локальной функцией 

Основные свойства интегральной функции Лапласа
- Интегральная функция Лапласа является нечетной функцией
-
-
График интегральной функции Лапласа изображен на рис. 8.
Интегральная функция Лапласа 
Теорема 2 (Локальная теорема Муавра-Лапласа). Если в схеме Бернулли количество испытаний 


где
Замечание. Формулу (2) целесообразно использовать при 
Пример №33
Игральный кубик бросают 800 раз. Какая вероятность того, что количество очков, кратное трем, появится 267 раз.
Решение. В данном случае 


Следовательно, по формуле (2) получим
Значение 
Теорема 3 (Интегральная теорема Муавра-Лапласа). Если в схеме Бернулли в каждом из 



где 
Пример №34
Игральный кубик бросают 800 раз. Какая вероятность того, что количество очков, кратное трем, появится не меньше 260 и не больше 274 раз?
Решение. Для нахождения вероятности
используем формулы (4) и (3). Получим
Значение интегральной функции Лапласа взято из таблицы и применяется свойство нечетности 
Последовательность испытаний с разными вероятностями
В схеме Бернулли вероятность появления события А во всех испытаниях одинаковая. Но на практике иногда встречаются и такие случаи, когда в 
Тогда вероятности непоявления события А также будут разными
В этом случае нельзя вычислять по формуле Бернулли вероятность появления события А 

Правило. Искомая вероятность 
Пример №35
Вероятности отказа каждого из 4 приборов в 4 независимых испытаниях разные и равны
Найти вероятность того, что вследствие испытаний
а) не откажет ни один прибор;
б) откажут один, два, три, четыре прибора;
в) откажет хотя бы один прибор;
г) откажут не менее двух приборов.
Решение. Вероятности отказа приборов в испытаниях разные, поэтому используем производную функцию (1), которая в данном случае имеет вид
Раскроем скобки и приведем подобные члены. Тогда получим
Согласно Правилу, отсюда получаем ответы на вопросы примера
Пример №36
Работник обслуживает три станка, которые работают независимо друг от друга. Вероятность того, что в течение часа первый станок не потребует внимания работника, равна 0,9, а для второго и третьего станков — 0,8 и 0,85 соответственно. Какой является вероятность того, что в течение часа
а) ни один станок не потребует внимания работника;
б) все три станка потребуют внимания работника;
в) хотя бы один станок потребует внимания работника?
Решение. Этот пример можно решить с использованием теорем умножения и сложения вероятностей (смотри упражнение 15 Раздела 2). Решим теперь этот пример с использованием производной функции, которая в данном случае принимает вид
Следовательно, коэффициент при 

а) вероятность того, что все три станка не потребуют внимания работника равна коэффициенту при 
Теорема Бернулли
Теорема Бернулли устанавливает связь теории вероятностей с ее практическим использованием. Она была доказана Я. Бернулли в конце 
Теорема 4 (Я. Бернулли). Если в 



Согласно определению предела равенство (1) означает, что

Это означает, что событие
практически невозможно. Но тогда противоположное событие
практически достоверно для любого положительного числа
Следствие теоремы Бернулли
Равенство
может отличаться от практически достоверного события

Это значит, что 


Другую формулировку и доказательство теоремы Бернулли смотри в подразделе 4.4.3 Раздела 4.
Замечание. Формулу (1) можно записать, используя интегральную функцию Лапласа 
Отсюда получим важную формулу
которая позволяет решать много задач.
Пример №37
Вероятность появления события в каждом из 625 независимых испытаний равна 0,8. Найти вероятность того, что частота появления события отклоняется от вероятности по абсолютной величине не больше чем на 0,04.
Решение. По условию примера 
По формуле (2) получим
Из таблицы значений функции Лапласа 

Таким образом, искомая вероятность приближенно равна
Пример №38
Вероятность появления события в каждом из независимых испытаний равна 0,5. Найти число испытания 
Решение. По условию задачи
Используем формулу (2). Тогда согласно условию получим
По таблице значений интегральной функции Лапласа найдем
Следовательно, искомая вероятность испытаний
Пример №39
Отдел технического контроля проверяет стандартность 900 изделий. Вероятность того, что изделие стандартное, равна 0,9. Найти с вероятностью 0,9544 границы интервала, который содержит число 
Решение. По условию
По таблице значений интегральной функции Лапласа находим
Следовательно, с вероятностью 0,9544 отклонение частоты количества стандартных изделий от вероятности 0,9 удовлетворяет неравенство
Из последних соотношений следует, что искомое число 
Простой поток событий
Определение 1. Потоком событий называют последовательность таких событий, которые появляются в случайные моменты времени.
Например, заявление в диспетчерский пункт по вызову такси.
Определение 2. Поток событий называется пуассоновским, если он:
- Стационарный, то есть зависит от количества
появлений событий и времени
и не зависит от момента своего начала.
- Имеет свойство отсутствия последействия, то есть вероятность появления события не зависит от появления или не появления события раньше и влияет на ближайшее будущее.
- Ординарный, то есть вероятностью появления больше одного события за малый промежуток времени является величина бесконечно малая по сравнению с вероятностью появления события один раз в этот промежуток времени.
Определение 3. Среднее число 
Теорема 5. Если поток событий пуассоновский, то вероятность появления события А 

где 
Замечание 1. Формулу (1) иногда называют математической моделью простого потока событий.
Пример №40
Среднее количество заказов, которые поступают в комбинат бытового обслуживания каждый час, равно 3. Найти вероятность того, что за два часа поступят
а) 5 заказов;
б) меньше 5 заказов;
в) не меньше 5 заказов.
Решение. Имеем простой поток событий с интенсивностью 
Замечание 2. Примерами простого потока могут быть: появление вызовов на АТС, на пункты скорой медицинской помощи, прибытие самолетов в аэропорт или клиентов на предприятие бытового обслуживания, серия отказов элементов или блоков приборов и так далее.
Случайны величины
Случайные величины бывают:
- непрерывные – значения которых непрерывно заполняют какой-либо промежуток (например: давление крови человека, температура его тела или состав крови);
- дискретные – принимающие отдельные друг от друга значения (например: число звонков на станцию скорой помощи в течение часа или количество очков, выпадающих при бросании игрального кубика).
Виды случайных величин и способы их задания
При исследовании многих проблем возникают такие случайные события, исходом которых является появление некоторого числа, заранее неизвестного. Поэтому такие числовые значения — случайные.
Примером такого события является: количество очков, которое выпадает при бросании игрального кубика; количество студентов, которые придут на лекцию; количество сахарной свеклы, которое ожидают получить с одного гектара.
Случайной величиной называют такую величину, которая вследствие испытания может принять только одно числовое значение, заранее неизвестное и обусловленное случайными причинами.
Случайные величины целесообразно обозначать большими буквами 

Случайные величины бывают дискретными и непрерывными.
Определение 1. Дискретной случайной величиной (ДСВ) называют такую величину, которая может принимать отдельные изолированные друг от друга числовые значения (их можно пронумеровать) с соответствующими вероятностями.
Пример:
Количество попаданий в мишень при трех выстрелах будет 


Количество вызовов такси 


Определение 2. Непрерывной случайной величиной (НСВ) называют величину, которая может принимать любое числовое значение из некоторого конечного или бесконечного интервала 
Пример:
Величина погрешности, которая может быть при измерении расстояния; время безотказной работы прибора; рост человека; размеры детали, которую производит станок-автомат.
Пример:
Рассмотрим случайные величины: количество очков, 


Вероятность появления любого значения 






Таким образом, для полной характеристики случайной величины необходимо указать не только все ее возможные значения, а и закон, по которому находят вероятности каждого значения

Определение 3. Законом распределения случайной величины называют такое соотношение, которое устанавливает связь между возможными значениями случайной величины и соответствующими им вероятностями.
В случае дискретной случайной величины 
В экономических дисциплинах все эти способы задания ДСВ имеют другие названия, поэтому ознакомимся с ними более детально в следующем разделе.
Определение 4. Интегральной функцией распределения (функцией распределения) называют вероятность того, что случайная величина 
Функцию распределения обозначают 
Если НСВ 

Формулу (1) часто называют основной формулой теории вероятностей.
Замечание. Непрерывная случайная величина 






Определение интегральной функции распределения и свойства вероятности 
График функции распределения 
Определение 5. Дифференциальной функцией распределения или плотностью вероятностей непрерывной случайной величины называют производную первого порядка от ее интегральной функции распределения и обозначают
Название «плотность вероятностей» следует из равенства
Из формулы (2) следует, что функция распределения 
Теорема 1. Вероятность того, что непрерывная случайная величина 

Доказательство. Интегральная функция распределения 

Правые части равенств (1) и (4) равные, поэтому и левые их части равные, то есть имеет место равенство (3), которое и требовалось доказать.
Следствие. Если дифференциальная функция распределения (плотность вероятности) 

Дифференциальная функция распределения НСВ 
График плотности вероятности 
Пример №41
Случайная величина имеет плотности вероятностей 

Решение. Параметр 
Следовательно, получим
Функцию распределения найдем по формуле (5)
Пример №42
Случайная величина 
Определить область значений случайной величины 
Решение. Согласно свойствам функции распределения получим
поэтому должны выполняться условия
Если область значений случайной величины 



Но в промежутке 


Теперь найдем вероятность 

Из равенства (6) получаем
Теперь по формуле (7) находим
Законы распределения и числовые характеристики дискретных случайных величин
Законом распределения дискретной случайной величины называют соответствие между полученными на опыте значениями этой величины и их вероятностями.
Способы задания и законы распределения
Пусть случайная дискретная величина 

Задать закон распределения такой случайной величины — это задать равенство 
Поэтому закон распределения 
Чаще всего используют табличный способ задания ДСВ, который называют рядом распределения и изображают в виде
В первом ряду записаны все возможные значения 
Пример №43
Условиями лотереи предусмотрены: один выигрыш — 100 рублей, два — 50 рублей, восемь — 10 рублей, девятнадцать — 1 рубль. Найти закон распределения суммы выигрыша владельцем одного лотерейного билета, если продано 1000 билетов.
Решение. Будем искать закон распределения суммы выигрыша 
где
Замечание 1. Если случайная дискретная величина может принимать бесконечное количество значений, то ее ряд распределения (таблица) будет иметь бесконечное количество элементов в каждом ряду, причем ряд 
Графический способ. Возьмем прямоугольную систему координат. На оси абсцисс будем откладывать возможные значения ДСВ, а на оси ординат — соответствующие значения вероятности. Получим точки с координатами
Соединив эти точки прямыми, получим график (см. рис. 11) в виде многоугольника распределения случайной дискретной величины.
Значение ДСВ, вероятность которой самая большая, называют модой. На рисунке 11 мода —
Аналитический способ задания дискретной случайной величины основан на задании определенной функции, по которой можно найти вероятность 

Укажем некоторые важнейшие законы распределения ДСВ и задачи, в которых они встречаются.
Биномиальный закон распределения
Этот закон имеет вид
и используется в схеме Бернулли, то есть в случае 
Закон распределения Пуассона
ДСВ 

Это распределение используют в задачах статистического контроля качества, в теории надежности, теории массового обслуживания, для вычисления: количества требований на выплату стразовых сумм за год, количества дефектов одинаковых изделий.
Если в схеме независимых повторяющихся событий 





Замечание 2. Если в формулу Пуассона поставить 

Геометрическое распределение
Это распределение имеет вид
где 

Ряд вероятностей этого распределения бесконечно убывающей геометрической прогрессией со знаменателем 
Геометрическое распределение используют в разнообразных задачах статистического контроля качества приборов, в теории надежности и в страховых расчетах.
Гипергеометрическое распределение
Это распределение имеет вид
Оно показывает вероятность появления 



Это распределение используют во многих задачах статистического контроля качества.
Замечание 3. Если объем выборки 


В статистике это означает, что расчеты вероятностей для бесповторной выборки будут мало отличаться от расчетов вероятностей для повторной выборки.
Полиномиальное распределение
Это распределение имеет вид
Оно применяется тогда, когда вследствие каждого из проведенных повторяющихся независимых испытаний может появится 


Числовые характеристики
Законы распределения ДСВ полностью характеризуют случайные величины и позволяют решать все связанные с ними задачи.
Но в практической деятельности не всегда удается получить закон распределения, или закон слишком сложный для практических расчетов. Поэтому появилась необходимость характеризовать ДСВ с помощью числовых характеристик, которые достаточно характеризуют особенности случайных величин.
Чаще всего используют три числовых характеристики: математическое ожидание, дисперсию и среднеквадратическое отклонение от математического ожидания.
Ознакомимся с этими числовыми характеристиками и их свойствами.
Математическое ожидание и его основные свойства
Определение 1. Математическим ожиданием дискретной случайной величины 

Математическое ожидание ДСВ 


Если 
Математическое ожидание ДСВ 

Основные свойства математического ожидания
1. Математическое ожидание постоянной величины равно самой постоянной
2. Постоянный множитель можно выносить за знак математического ожидания
Свойства 1 и 2 следуют непосредственно из Определения 1.
3. Математическое ожидание произведения нескольких взаимно независимых дискретных случайных величин равно произведению их математических ожиданий, то сеть
Доказательство. Если две величины 

(для упрощения выкладок взято только по 2 возможных значения), тогда закон распределения произведения 
По формуле (1) получим математическое ожидание
В случае трех случайных величин получим
Методом математической индукции теперь не сложно завершить доказательство.
Аналогично, но немного сложнее, можно доказать следующее свойство.
4. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий, то есть
Пример №44
Независимые случайные величины 

Найти математическое ожидание случайной величины
Решение. Сначала найдем математические ожидания каждой их этих величин. По формуле (1) получим
Случайные величины 

Пример №45
Найти математическое ожидание суммы числа очков, которые могут появиться при бросании двух игральных кубиков.
Решение. Обозначим количество очков, которые могут появиться на первом кубике 



Согласно свойства 4 математического ожидания, получим
Следовательно, математическое ожидание суммы числа очков, которые могут появиться при бросании двух игральных кубиков равно 7.
Дисперсия и ее свойства
Математическое ожидание характеризует центр распределения дискретной случайной величины. Но этой характеристики недостаточно, так как возможно значительное отклонение возможных значений от центра распределения. Для характеристики рассеивания возможных значений 
Определение 2. Дисперсией дискретной случайной величины 

Дисперсию величины 


Основные свойства
1. Дисперсия любой ДСВ 
Действительно 


2. Дисперсия постоянной величины 
Действительно, если 
3. Постоянный множитель 
Действительно,
поэтому
Постоянный множитель 
4. Дисперсия ДСВ 

Действительно,
Замечание 4. Формула (2) определяет дисперсию случайной величины 
5 Дисперсия алгебраической суммы ДСВ 

Доказательство. Сначала докажем это свойство для 
Теперь рассмотрим дисперсию разности 
Замечание 5. Пятое свойство дисперсии имеет место для алгебраической суммы не только двух, а и конечного числа дискретных случайных величин.
Пример №46
Найти дисперсия случайной величины 
Решение. Будем искать 

Чтобы найти математическое ожидание 


Отметим, что все значения 

По формуле (1) находим
Согласно формуле (4) теперь получаем
Среднеквадратическое отклонение дискретной случайной величины
В большинстве случаев случайная величина 

В практической деятельности целесообразно знать величину рассеивания случайной величины в размерности этой величины. Для этого используют среднеквадратическое отклонение, которое равно квадратом у корню из дисперсии и обозначается
Понятия моментов распределения
Определение 3. Начальным моментом 


Центральным моментом 


Отметим, что
поэтому
Начальные и центральные моменты порядка 


Пример №47
Дискретная случайная величина задана законом
Математическим ожиданием 
Законом распределения 
Поэтому
Следовательно, 


Замечание 6. Целесообразно знать числовые характеристики основных законов распределения дискретных случайных величин, которые можно представить в виде следующей таблицы.
Числовые характеристики законов распределения непрерывных случайных величин
Числовые характеристики непрерывных случайных величин:
В случае непрерывных случайных величин (НСВ) математическое ожидание, дисперсия и среднеквадратическое отклонение имеют такой же смысл и свойства, как и для дискретных случайных величин, но вычисляют их по другим формулам.
Пусть возможные значения непрерывной случайной величины 



В каждой части возьмем точку
Тогда плотность вероятности 




Сумма
характеризует математическое ожидание 




Таким образом доказана
Теорема 2. Если непрерывная случайная величина принимает значение на отрезке 

Аналогично доказывается
Теорема 3. Если 





Замечание 1. Если возможные значения 



и условия нормирования 
Если плотность вероятности 




Как и в случае дискретных случайных величин, дисперсию непрерывных случайных величин 
а вычисляют по формуле
Если возможные значения 

Среднеквадратическое отклонение непрерывной случайной величины определяют и вычисляют так
Пример №48
Найти числовые характеристики случайной величины 
Решение. Сначала найдем дифференциальную функцию распределения, то есть плотность вероятности
Теперь по формуле (1) найдем математическое ожидание
Дисперсию найдем по формуле (4)
Среднеквадратическое отклонение получим по формуле (5)
Законы распределения НСВ и их числовые характеристики
Основные законы распределения непрерывных случайных величин разделяют по виду их дифференциальных функций распределения (плотности вероятностей)
Чаще всего используют следующие законы распределения
Равномерное распределение
Определение 1. Величина 

Величина постоянной 
Если 



Другими словами, вероятность попадания 

Этому распределению отвечают, например, погрешности округления разнообразных расчетов.
График равномерного распределения НСВ 
Числовыми характеристиками НСВ 
Показательное распределение
Определение 2. Случайную величину 
где 
Показательному распределению отвечают: время телефонного разговора, время ремонта техники, время безотказной работы компьютера.
Числовыми характеристиками показательного распределения будут
Следовательно, если НСВ 
Пример №49
Найти числовые характеристики случайной величины, распределенной по закону
Решение. В данном случае случайная величина 

Замечание 2. Если случайная величина 

Пример №50
Величина 
Найти вероятность того, что 
Решение. Случайная величина 

Соответствующее значение 
Нормальное распределение
Определение 3. Случайную величину 
где 

График этой функции 
Полное исследование этой функции методами дифференциального исчисления позволяет построить график нормальной кривой, который изображен на рис. 13.
При 

То сеть это табулированная функция Лапласа.
Замена переменной 
и формул (1), (2) и (5) позволяют получить числовые характеристики нормально распределенной НСВ 
Следовательно, математическое ожидание нормального распределения равно параметру 
Замечание 3. Если случайная величина 



Интегральной функцией нормального закона распределения будет
а для нормированного нормального закона
Вероятность попадания в интервал 

где функция Лапласа 
Пример №51
Случайная величина 

Решение. Согласно условию 
Здесь использованы свойства нечетности интегральной функции Лапласа 

Пример №52
Рост студентов распределен по нормальному закону. Математическое ожидание роста студентов равно 175 см., а среднеквадратическое отклонение — 6 см. Найти вероятность того, что хотя бы один из пяти вызванных студентов будет иметь рост от 170 до 180 см.
Решение. Рост студента 

Обозначим события: А— из 5 вызванных студентов рост хотя бы одного принадлежит промежутку 

Величина 
Используя табличное значение интегральной функции Лапласа, получим
Вероятность того, что рост одного из вызванных студентов не принадлежит промежутку 
Применяя теорему умножения вероятностей независимых событий, найдем вероятность события
Следовательно, вероятность искомого события А будет
Правило трех сигм
Если случайная величина 
то есть вероятность того, что абсолютная величина отклонения 


На практике это правило используют так:
Если закон распределения случайной величины 


Распределение 
Пусть 
распределена по закону 

Если величины

Дифференциальная функция распределения 
где 
Отметим, что распределение 



Распределение Стьюдента
Пусть 



имеет распределение, которое называют 

При увеличении 
Закон больших чисел и центральная предельная теорема
Предельные теоремы теории вероятностей устанавливают соответствие между теоретическими и исследовательскими характеристиками случайных величин или случайных событий при большом количестве испытаний. Предельные теоремы описывают также предельные законы распределения. В подразделах 3.2 и 3.4 мы ознакомились с некоторыми предельными теоремами схемы Бернулли.
Предельные теоремы, которые устанавливают соответствие между теоретическими и исследовательскими характеристиками случайных событий, объединяют общим называнием — закон больших чисел.
Закон больших чисел играет важную роль в разных процессах, связанных с массовым производством.
Предельные теоремы, которые устанавливают предельные законы распределения случайных величин, объединяют общим называнием — центральная предельная теорема.
Необходимость предельных теорем обусловлена потребностью решения, например, таких задач:
- Когда сумма многих случайных величин мало отличается от постоянной величины, то сеть почти перестает быть случайной величиной и поэтому ее поведение может прогнозироваться со значительной вероятностью?
- При каких условиях можно со значительной вероятностью прогнозировать число появлений некоторого случайного события при большом количестве независимых испытаний?
- При каких ограничениях сумма многих случайных величин будет распределена по нормальному закону?
Неравенство Чебышева
При доказательстве разных предельных теорем, а также при решении разных задач важную роль играет неравенство Чебышева, которое имеет две формы.
Первая форма неравенства Чебышева
Для произвольной случайной величины 
Если 
Если 

Следствие. Если 
Действительно,
Неравенство (1) иногда называют неравенством Маркова.
Вторая форма неравенства Чебышева
Если случайная величина 

Доказательство. Сначала рассмотрим противоположное событие 

Теперь вероятность противоположного события 
Пример №53
Дисперсия случайной величины 


Решение. По неравенству Чебышева (3) получим
Неравенства Чебышева позволяют доказать предельную теорему Бернулли (см. подраздел 3.4) и другие важные предельные теоремы про устойчивость средних.
Важные предельные теоремы
Теорема Бернулли. Пусть вероятность появления события А в каждом из 


Доказательство. Частость 

Следовательно, необходимо оценить вероятность отклонения случайной величины 
По неравенству Чебышева (2) получим
Отсюда предельным переходом при 
Теорема Чебышева. Пусть 
для всех
Тогда
Доказательство. Найдем математическое ожидание и дисперсию средней случайных величин, то есть
Применим для случайной величины 
Предел этой вероятности при 
Центральная предельная теорема. Пусть задана последовательность независимых одинаково распределенных случайных величин
Рассмотрим случайную величину 
При 
то есть сумма 
Для доказательства этой теорему нужно найти предел характеристической функции, построенной для нормированной случайной величины
Следствие. При 
Теорема Ляпунова. Пусть задана последовательность независимых случайных величин 

Построим сумму случайных величин 

то сумма 

Доказательство этой теоремы достаточно сложное, но отметим, что в случае, когда 


Пример №54
Сколько приложений нужно взять в теореме Чебышева, чтобы с надежностью 96% и точностью до 0,01 выполнялось приближенное равенство
Решение. В этом примере 

Замечание 1. Пример 2 показывает, что даже в случае не очень больших точности и надежности, нужно брать значительное количество приложений (
Закон распределения и числовые характеристики двумерных случайных величин
Выше рассмотрены случайные величины 

Если возможные значения случайной величины определяются в каждом испытании 

Двумерную случайную величину будем обозначать 




Определение 1. Совокупность 

Систему 



При 




Многомерные случайные величины бывают дискретными и непрерывными (компоненты этих величин соответственно будут дискретными и непрерывными).
Закон распределения вероятностей дискретной двумерной случайной величины
Определение 2. Законом распределения дискретной двумерной случайной величины называют перечень возможных значений этой величины 
Чаще всего закон распределения двумерной дискретной случайной величины задают в виде таблицы с двумя входами.
В первом ряду таблицы записывают все возможные значения компоненты 





События 
Закон распределения двумерной случайной величины позволяет получить законы распределения каждой компоненты.
Действительно, события 



то есть равен сумме вероятностей, которые расположены в 
Аналогично, сложением вероятностей 
Пример №55
Найти законы распределения компонент двумерной случайной величины, закон распределения которой задан таблицей
Решение. Законы распределения 

Вероятности соответствующих значений 

Определение 3. Интегральной функцией функцией распределения (функцией распределения) двумерной случайной величины 



Аналогично определяют функцию распределения системы 
Свойства вероятности 



3) Имеют место предельные соотношения
4) Вероятность попадания случайной точки в прямоугольник
можно найти по формуле
Геометрический смысл функции распределения 


Пример №56
Найти вероятность попадания случайной точки 
если задана функция распределения вида
Решение. В заданном случае
Согласно формуле (1) получим
Непрерывная двумерная случайная величина
Двумерную случайную величину можно задавать функцией распределения 
Определение 4. Дифференциальной функцией распределения (двумерной плотностью вероятностей) 

Аналогично определяют плотность вероятностей 
Таким образом, если функция распределения 

Если известна плотность вероятностей 
то сеть с использованием несобственного двукратного интеграла.
Вероятность попадания случайной точки 

Дифференциальная функция распределения 

Зависимые и независимые случайные величины
Две случайные величины независимы, если закон распределения одной из них не зависит от того, какие значения приняла другая величина.
Случайные величины зависимы, если закон распределения одной величины зависит от того, какие значения приняла другая величина.
В теории вероятностей доказано такое утверждение.
Теорема. Чтобы случайные величины 


Следствие. Чтобы непрерывные случайные величины 


Числовые характеристики двумерной случайной величины
Математическое ожидание двумерной случайной величины 
Дисперсии 




Для описания двумерной случайной величины кроме математического ожидания, дисперсии и среднеквадратичных отклонений 
Для непрерывных величин 
Коэффициент корреляции
Коэффициент корреляции является количественной характеристикой зависимости случайных величин 

Если случайные величины 

Определение 5. Случайные величины 

Свойства коэффициента корреляции
Замечание. Если момент корреляции или коэффициент корреляции не равен нулю, тогда случайные величины 

Из независимости двух величин следует их некоррелированность, но из некоррелированности еще не следует независимость этих величин. В случае нормального распределения величин из некоррелированности случайных величин следует их независимость.
Функции случайной величины и их характеристики
Понятие функции:
Во многих случаях нужно рассматривать две случайные величины 





Определение 2. Если указан закон, по которому каждому возможному значению случайной величины 



Отметим, что иногда разным возможным значениям случайной величины 



Одной из возможных задач теории вероятностей является определение законов распределения и числовых характеристик функций случайного аргумента, закон распределения которого известен. Укажем основные формулы для решения этой задачи.
Закон распределения и числовые характеристики функции дискретного случайного аргумента
Пусть 



В этом случае 
Из события «величина 




Математическое ожидание, дисперсию и среднеквадратическое отклонение функции 
Начальные и центральные моменты распределения находят по формулам
Пример №57
Дискретная случайная величина задана законом распределения
Найти математическое ожидание функции
Решение. Возможными значениями 
По формуле (1) находим математическое ожидание
Закон распределения и числовые характеристики функции непрерывного случайного аргумента
Пусть 

Если 


где 

Если 


где 
Пример №58
Случайная величина 
Решение. Согласно определению нормального распределения непрерывной случайной величины 

Функция 



В данном случае из равенства
то есть
Поэтому формула (2) принимает вид
Для нахождения математического ожидания от 


Но более целесообразно находить математическое ожидание функции непрерывного случайного аргумента 
где 
Если величина 

Пример №59
Непрерывная случайная величина 
Найти математическое ожидание функции
Решение. В данном случае 
Интегрируя частями два раза, получим необходимое математическое ожидание
Следовательно, получили
Дисперсия функции 


В случае, когда 


В формулах (6) и (7) 


Основные понятия о статистическом распределение
Статистическим распределением выборки называется перечень вариант и соответствующих им частот или относительныхчастот. Статистическое распределение можно задать также в виде последовательности интервалов и соответствующих им частот (суммы частот, попавших в этот интервал значений).
Желание и внимательность всегда помогают начать изучение любой науки.
Предмет математической статистики и короткая историческая справка:
Цель каждого научного исследования — выявление закономерности явлений, которые наблюдают, и использование этих закономерностей в повседневной практической деятельности. Для установления этих закономерностей проводят специальные опыты и наблюдают единичные случаи. Далее делают обобщенный вывод в виде закона.
В тех случаях, когда явление находится под воздействием многих факторов и невозможно выявить влияние всех этик факторов, используют другой метод изучения — статистический, то есть систематизация и обработка статистических данных однородных опытов.
Обычно систематический метод изучения используют в экономике, социологии и политологии.
Пусть, например, темп роста промышленного производства за первый период времени равен 5%. Это означает, что в среднем для всей совокупности предприятий показатель 5% является статистической закономерностью роста промышленного производства. Этот средний показатель не исключает, а, наоборот, допускает, что на отдельных предприятиях темп прироста может быть больше или меньше 5%.
Предмет математической статистики заключается в разработке методов сбора и обработки статистических данных для получения научных и практичных выводов.
Укажем основные задачи, которые решает математическая статистика:
- указать способы сбора и группировки (если данных слишком много) статистических сведений;
- определим закон распределения случайной величины или системы случайных величин по симметрическим данным;
- определить неизвестные параметры распределения;
- проверить правдоподобность предположений про закон распределения случайной величины, про форму связи между случайными величинами или про определения параметра, который оценивают.
Можно сказать, что основная задача математической статистики — разработка методов анализа статистических данных в зависимости от цели исследования.
Методы математической статистики эффективно использовать для решения многих задач науки, организации технологического процесса, планирования, управления и ценообразования.
Математическая статистика возникла (


В 
Генеральная и выборочная совокупности
Пусть нужно изучить совокупность объектов относительно некоторого качественного или количественного значения, которые характеризуют эти объекты. Любой объект, который наблюдают, имеет несколько признаков. Рассматривая только один признак каждого объекта, мы допускаем, что другие признаки равноправные, или что множество объектов однородно.
Такие множества однородных объектов называют статистической совокупностью.
Например, если исследуют партию деталей, то качественным признаком может быть стандартность или нестандартность каждой детали, а количественным признаком — размер детали. Количественные признаки бывают прерывными и дискретными.
Проверку совокупности деталей можно совершить двумя способами:
- выполнить проверку (контроль) всех деталей;
- проверить только первую часть деталей.
Если деталей слишком много или проверка связана с разрушением детали (например, испытание детали на прочность), тогда первый способ проверки нецелесообразен. Если исследовать все детали невозможно,тогда выбирают из всей совокупности ограниченное количество деталей и проверяют только их.
Выборочной совокупностью (выборкой) называют совокупность случайно выбранных объектов.
Генеральной называют совокупность объектов, из которых сделана выборка.
Объемом совокупности ( выборки или генеральной) называют количество объектов этой совокупности.
Например, если из 5000 изделий для исследования взяты 50, тогда объем генеральной совокупности 
Приведем примеры выборок.
Первичным результатом статистического наблюдения является перечень членов совокупности и соответственных им значений.
Пример №60
Наблюдают величину урожая пшеницы на 10 исследовательских участках. Результаты наблюдения представлены в таблице 1 (признак 

Таблица 1.
Такие сведения называют рядом вариант или простым статистическим рядом.
Выборки бывают повторные или бесповторные. Повторной называют выборку, при которой выбранный объект возвращается к генеральной совокупности перед выбором другого объекта. Выборку называют бесповторной, если выбранный объект к генеральной совокупности не возвращаются. Чаще используют бесповторные выборки.
Альтернативой выборки является перепись. Переписью называют обследования, у которых цель исследования — изучение каждого элемента совокупности (генеральной совокупности).
Образцами переписи являются перепись населения в стране, отчет о всех производственных показателей всех предприятий в одной отрасли (например, шахт угольной промышленности).
Преимущества изучения выборки по сравнению с переписью: малые затраты, оборудования и времени.
Выборку можно эффективно использовать для изучения общего признака генеральной совокупности только тогда, когда данные выборки верно отображают этот признак. Вкратце это условие формируется таким образом — выборка должна быть репрезентативной, то есть представительской.
Согласно с законом больших чисел теории вероятностей можно утверждать, что выборка будет репрезентативной только тогда, когда ее осуществляют случайно.
В большинстве случаев для математической статистики наиболее подходящим способом использования случайного выбора является простой случайный.
Определение 1. Простым случайным является такой отбор из генеральной совокупности, при котором каждый объект, что выбирается, имеет одинаковую вероятность попасть в выборку.
Выборка, которая сделана с помощью простого случайного отбора, называется простой случайной. Способы выполнения простого случайного отбора рассмотрены в параграфе 5.5.
Важно отметить, что альтернативой для простой случайной выборки в статистике является расслоенная случайная выборка.
Способы выполнения рассмотрены в параграфе 5.4.
Источники данных в статистике
Исследователи и менеджеры получают данные, необходимые для принятия решения в основном из трех источников:
Выборочные обследования, специально поставленные эксперименты и действия, являющиеся результатом повседневной работы в бизнесе.
Рассмотрим примеры использования вышеупомянутых источников.
При случайном обследовании способа выбора данных выборка могут быть индивидуальные опросы (интервью), опросы по почте, телефонные интервью и так далее. Способы организации выборки описаны в параграфе 5.4. Приведем пример выборки.
Пример: Издательство газеты выбирает 1000 потенциальных избирателей для опроса с целью изучения рейтинга первого кандидата на выборах.
На специально спланированном эксперименте у исследователя есть возможность, в определенных рамках, управления процессом. Приведем пример планирования эксперимента и использования его как источника в статистике.
Пример: В одной из японских фирм разработали следующий бланк для оценки по бальной системе способностей руководителя (см. таблицу 2).
Собрав данные про каждом руководящем сотруднику в виде таблицы 2 согласно тестированию, руководитель фирмы может использовать эти данные для объективной оценки работы руководящего состава, для оценки влияния реформы системы управления внедряемое фирмой, на прибыль и так далее.
Часто источником являются данные, что собираются в повседневной, рутинной работы и бизнесе. Приведем примеры.
Пример: Руководитель магазина, анализируя данные уровня продажи «Вид товара — сезон года», можно более оптимально планировать свою работу для получения большей прибыли за счет увеличения объема продаж ходовых видов товаров, уменьшения расходов, которые тратятся на излишки запаса товаров на складе магазина и так далее.
Вторым примеров источников такого рода данных являются разнообразные официальные источники статистических данных.
Пример:
Книга: Народное государство Украины в 1994 году. Статистический ежегодник Украины: ответственный за выпуск В.В. Самченко — Изд.: Техника 1994, 494 ст.
Оценка способностей руководителя.
| 1. Потенциал (возможность совершенствовать способности и результаты работы) | Гибкость мышления, активность, наличие потенциала внутреннего роста. Постоянное стремление к совершенствованию, не останавливается при достигнутом, Желание принять на себя более высокую ответственность | 3-15 |
| 2. Лидерство, мотивация подчиненных | Хороший контакт с подчиненными | 5-25 |
| 3. Результативность работы, прогноз на следующий год | Отношение к планам на продажу, прибыли | 4-20 |
| 4. Умение вести переговоры и взаимодействовать с партнерами | Умение хорошо говорить и слушать. Стремление понять других. Спокойная манера речи, выдержка. Способность к взаимодействию с партнерами | 3-15 |
| 5. Креативность (способность к творчеству в будущем). | Постоянное стремление к решению сложных проблем. Творческий подход к решению проблем | 2-10 |
| Знания и осведомленность | Обеспечение необходимой информацией. Умение работать по плану, вовремя реагируя на изменения. Умение оценивать и прогнозировать ситуацию | 3-15 |
| Всего | 20 -100 |
Источники данных бывают первичными и вторичными.
Первичные данные собираются специально для статистического исследования. Для этих данных есть сведения про методы сборки, точность данных и так далее.
Вторичными данными являются данные, что используются в статистике, но изначально собирались для других целей.
Очевидно, что рутинные записи про деятельность фирм, официальные статистические отчеты являются вторичными данными.
Безусловно, более ценными данными в статистике являются первичные данные, но их не всегда возможно получить, потому часто используются вторичные данные.
Способы отбора
У практичной деятельности используют разнообразные способы отбора объектов из генеральной совокупности. Все способы отбора можно поделить на два вида:
1. Выбор, который не требует разделения генеральной совокупности на части. Для этого вида отбора относят:
- — простой случайный бесповторный отбор;
- — простой случайный повторный отбор.
2. Отбор, при котором генеральная совокупность разделяется на части ( расслоенный случайный отбор). Для этого вида отбора относят:
- — типовой отбор;
- — механический отбор;
- — серийный отбор.
Типовым называют отбор, при котором объекты выбирают не из всей генеральной совокупности, а только из ее типовых частей. Например, если изделия изготовлены на разных станках, то отбор проводят только из изделий каждого станка по-отдельности.
Типовой отбор целесообразно использовать тогда, когда одинаковые изделия изготавливают на станках, среди которых есть большие или меньшие изделия, или в случае изготовления одинаковых, сделанных разными предприятиями.
Механическим называют отбор, при котором генеральная совокупность механично разделяется на столько частей, сколько может быть объектов в выборке. В каждой части случайным образом выбирают один объект. Например, если нужно проверить 25% всех изготовленных станком — автоматом изделий, то выбирают каждое четвертое изделие. Чтобы механический отбор был репрезентативным, нужно учитывать специфику технологического процесса.
Серийным называют отбор, при котором объекты из генеральной совокупности отбирают не по одному, а сериями, которые и исследуются. Серийный отбор используют тогда, когда признак, который исследуют, мало изменяется в разных сериях.
В экономических исследованиях иногда используют комбинированный отбор. Например, сначала используют генеральную совокупность на серии с одинаковым объемом, случайным образом отбирают несколько серий и, в конце, из каждой серии случайным образом отбирают отдельные объекты.
Простая случайная выборка
В этом разделе детально рассматривается попытка построения простой случайной выборки с помощью таблицы случайных чисел. Решение этой задачи с помощью электронной таблицы Excel 97 рассмотрено в параграфе 8.2 раздела 8.
Условия осуществления простой случайной выборки
Для осуществления простой случайной выборки необходима наличие основы выборки, то есть такого представления генеральной совокупности, при котором ее элементы были хотя бы перечислены. Приведем примеры основ выборки.
Пример:
а) Генеральная совокупность — все покупатели магазина. Основой выборки могут быть рабочие списки покупателей, что вел магазин.
б) Генеральная совокупность — все жители города, которые имеют телефон. Основой выборки может быть справочная телефонная книга.
Как правило, данные для образования случайной выборки представляются в виде некоторой таблицы и потому основой выборки является нумерация элементов этой таблицы.
Основа выборки должна полностью отражать признаки генеральной совокупности, что изучается. Нарушение этого условия может сделать выборку не репрезентативной. Объясним это на примере.
Пример:
Нужно проверить все молодые семьи небольшого города на предмет наличия и количества детей дошкольного возраста.
С этой целью, специальный работник отдела. что занимается данным вопросом, случайным образом с помощью телефонного справочника обзванивает семьи с 18:00 до 21:00 каждый день.
Будет ли выборка данных, полученная таким образом, репрезентативной?
Основой выборки в этом случае является телефонный справочник. Простая случайная выборка, что сложенная из этой основы, не будет репрезентативной по целому ряду причин: не все семьи города, что исследуются, имеют телефон, некоторые семьи в этот период не будут находиться дома, или члены этих семей не смогут подойти к телефону, некоторые семьи пользуются телефонами, номера которых не записаны в телефонный справочник и так далее.
Приведем примеры, где может быть использована простая случайная выборка.
Пример:
а) Телефонная компания проверяет счета 10% всех международных телефонных переговоров с целью выявления средней их величины.
б) Аудиторская проверка накладных 20% фирм региона с целью контроля правильности уплаты налогов.
Случайные выборочные числа
Общеизвестно, что кратчайшим способом осуществления простой выборки является использование выборочных чисел.
Эти числа складываются из цифр от 0 до 9, генерируются случайным образом (как правило, с помощью компьютера) и записываются в специальной таблице.
Выражение «генерируется случайным образом» отбивает тот факт, что шанс появления любой цифры в любом месте таблицы не больше и не меньше шанса появления любой другой цифры из десяти названных цифр.
В приложении 4 приведена типовая таблица случайных чисел (таблица 
Использование таблиц случайных чисел гарантирует, что не будет сделана систематическая ошибка (то есть ошибка, что делает данные не репрезентативными).
В следующем подразделе подробно рассмотрена попытка использования таблицы случайных чисел для осуществления, простые случайные выборки.
Осуществление простой случайной выборки и использованием случайных чисел
Опишем процедуру получения простой случайной выборки на следующем примере.
Пример:
В таблице А приведен результат тестирования 180 специальных работников фирмы по первому методу с целью принятия решения про очередное повышение зарплаты. В ней перечислены 180 двузначных цифр — число баллов, что собрал каждый, кто исследовался. Необходимо выполнить простую случайную выборку по таблице А.
Построение простой случайной выборки выполняется в такой последовательности.
- Генеральная совокупность — данные таблицы А. Основы выборки — нумерация элементов таблицы. Объем генеральной совокупности
- Зададим числом
элементов простой случайной выборки, например,
- Для обеспечения случайного выбора используем таблицей 8 приложения 4. Выберем в ней любой ряд или столбец, например, начнем с шестого ряда. Представим тут его часть
Числа баллов, набранных при тестировании 180 сотрудников фирмы мы будем выбирать из этого ряда числа, что образованы тремя цифрами, поскольку нумерация элементов таблицы А не превышает число 180.
Таблица А
По этому принципу удобнее в ряд (1) переписать по три цифры в группе
4. Выбираем из ряда (2) только те числа, что входят в основу выборки, то есть все числа больше 180 игнорируются. (В ряду (2) существует четыре таких числа — они подчеркнуты).
Отобрав таким способом 10 случайных чисел, мы составим простую случайную выборку, приведенную в таблице 3.
Простая случайная выборка объема 
таблица 3
В этой таблице каждому случайному числу (первый столбец) ставиться в соответствие число баллов (третий столбец) соответственно таблицы А. Для удобства использования все элементы простой случайной выборки пронумерованы (второй столбец).
Организация данных: статистическое распределение выборки
Упорядочивание данных:
Данные в статистике, полученные с помощью специальных исследований или из обычных (рутинных) записей в бизнесе, приходят к исследователю или менеджеру в виде неорганизованной массы, независимо от того, являются ли они выборочными данными, или данными генеральной совокупности.
В математической статистике вместо слова «данные» вводится термин «варианты«. Числовую характеристику вариантов при этом называют признаками.
Пусть из генеральной совокупности взята выборка объектов 



Первым шагом обработки является упорядочение вариант. Рассмотрим этот процесс на примере.
Пример №61
В таблице В приведена выборка среднемесячной оплаты 100 сотрудников фирмы 
Таблица В.
В нашем примере признаков является число, что выражает среднемесячную зарплату сотрудников фирмы 
Разместим данные Таблицы Б в порядке возрастания (см. таблицу В.1).
Упорядоченная выборка среднемесячной оплаты 100 сотрудников фирмы ( в порядке возрастание)
Таблица В.1
Варианты, что записаны в таблице по возрастанию (убыванию), называют вариационным рядом. То есть, таблица В.1 с вариационным рядом, что насчитывает 100 вариант.
После упорядочения можно получить больше информации, например, что границы изменения среднемесячной оплаты.
Распределение частот
Пусть в нашей выборке из 






Положительное число, что показывает, сколько раз та или иная варианта встречается в таблице данных, называется частотой.
Ряд
Статистическое разделение выборки устанавливает связь между рядом вариант, что возрастает или убывает и соответственными частотами. Он может быть представлен таблицей
где 
Статистическое разделение выборки, заданный этой таблицей, также называют простым или не группированным статистическим распределением или распределением частоты варианты 

Пример №62
Для изучения потребностей в определенных размерах обуви, проданного на протяжении дня:
Статистическое разделение этой выборки (разделение частоты размера обуви) будет иметь такой вид
Контроль:
Замечание. Свойство элементов ряда частот (смотреть формулу (1)) используют для контроля полученного статистического раздела выборки.
Приведем дальше доскональную выборку, что фигурирует в примере 1 (таблица В.1), преобразив ее в раздел частот среднемесячной оплаты сотрудников фирмы 
Разделение частоты среднемесячной оплаты сотрудников фирмы
Всего: 100.
Таблица В.2
Следующий шаг в обработки данных, что приводит к существенному упрощению исследования, является их группировка.
Как видно в таблице В.2 максимальным и минимальным значениями варианты будут
Разницей этих чисел
называется размахом вариант. В нашем случае 
Каждый интервал называется классом интервалов или классом. всего получим 
Используя данные таблицы В.2, просчитаем частоты для каждого класса интервалов (1), причем значение 
Сгруппированное разделение частоты среднемесячной оплаты сотрудников фирмы
Таблица вида В.3, которая устанавливает связь между сгруппированным рядом вариант, что возрастает или убывает, и суммами их частот по классам, называется сгруппированным разделом частоты варианты
Для каждого класса получаем верхнюю и нижнюю границы
шириной класса 
Введены величины 


Приведем другой пример сгруппированного разделения частоты выборки.
Использовали данные таблицы 1.
Сгруппированное распределение накопленной частоты
Часто, наряду с распределением частоты варианты необходимо иметь разделение накопленной (кумулятивной) частоты. Распределение накопленной частоты получают последовательным добавлением частот очередного интервала, начиная с первого и заканчивая последним (см. таблицу В.4).
Распределение накопленной частоты (обозначается F) позволяет ответить на вопрос: “сколько существует вариантов, которые меньше чем, например, 350?” Из таблицы В.4 находим: таких вариантов 87, что можно записать так:
Сгруппированное разделение накопленной частоты среднемесячной оплаты сотрудников фирмы
Таблица В.4
Распределение относительной частоты выборки
Нередко вместо значений частот используют относительные частоты. Пусть существует 
Отношение частоты 


называется относительной частотой или частотностью, причем сумма всех относительных частот
Зависимость между упорядоченным рядом вариант и соответствующим им относительными частотами также называют статистическим распределением выборки, то есть получим табличное представление распределения.
где 
Пример №63
Задано разделение частоты выборки
Найти распределение частот.
Решение. Объем выборки 
Поэтому распределение частот этой выборки будет
Замечание. Свойство элементов ряда частот (смотреть формулу (2)) используют для контроля полученного статистического распределения выборки.
Проведем дальше организацию выборки, что задана таблицей В.
Рассмотрим таблицу В.4. Если поделить частоты (второй столбик) и накопленной частоты (четвертый столбик) на объем выборки 


Сгруппированное разделение накопленной частоты среднемесячной оплаты сотрудников фирмы
Таблица В.5
Распределение накопленной относительной частоты получается последовательным складыванием относительных частот дежурного интервала, начиная с первого и заканчивая последним.
Распределение накопленной относительной частоты позволяет ответить на вопрос: «Какая пропорция вариант, что меньше чем, например, 350?».
Из таблицы В.5 находим: пропорция этих вариант будет 0,88 то есть это доля среднемесячной оплаты, что меньше 350.
Ряды распределения частоты с переменной шириной классов интервалов
Иногда невозможно, или неудобно выбирать ширину классов интервалов одинаковой. Неровная ширина классов желательна, например, если значения частоты одного или нескольких классов намного больше (меньше) значений частоты других интервалов. Как правило, ширина интервалов возрастает (или убывает) и может содержать интервалы открытого типа «более чем…», «менее чем…».
Например распределение частоты из возрастающей шириной интервалов приведенный в таблице 4.
распределение частоты возраста 30 сотрудников фирмы
Таблица 4.
Сгруппированное разделение плотности частоты и плотности относительной частоты
Если поделить все частоты (второй столбик) таблицы В.3 на ширину интервала 
Если поделить все относительные частоты (второй столбик) таблицы В.5 на ширину интервала 
Чтобы вычислить результаты, которые получены в примере 1, приведем сразу в одной таблице В.6 рассмотренные выше таблицы В.4 и В.5 и основу введенного распределения.
Сгруппированное распределение частоты 





Таблица В.6
Эта таблица знакомит со всеми важными статистическими распределениями выборки.
Распределение частоты и относительной частоты будут использовать в построении полигонов частот и гистограмм (смотреть параграф 5.8).
Распределение накопительной частоты и накопительной относительной частоты будут использованы в построении полигонов накопительных частот и эмпиричной функции распределения (смотреть параграф 5.8).
Приведенные понятия распределения плотности частоты и распределения плоскости относительной частоты выборки имеют глубокое вероятное содержание и будут также использованы в графическом представлении распределений (смотреть пункт 5.8.3 параграфа 5.8).
Общая схема построения сгруппированного распределения частоты
Изложенный алгоритм группировки данных выборки можно предоставить в виде следующей общей схемы последовательности действий:
- Обозначить наибольшее
и наименьшее
значения варианты
и обозначить размах вариант
- Зададим первым числом классов
Число классов
следует принимать непарным, и при общем числе замеров
целесообразно брать
а при
можно брать
- Обозначить ширина класса
Для упрощения расчетов, полученное значение
округлили в любую сторону.
- Вставить границы классов и рассчитать количество вариант
каждого класса. При расчете числа вариант значения
что находится на границе классов, следует относить к одному и тому же классу, например, к тому классу, что является к следующему классу, где это число встречалось ранее. Оно, таким образом, станет нижней границей класса.
- Обозначить частоту для каждого класса и записать ряд распределения.
Эмпирическая функция распределения и ее свойств
Пусть есть статистическое распределение частоты некоторого признака 



Тогда относительная частота (или частность) события 
Если 


Определение 1. Эмпиричной функцией распределения (или функцией распределения выборки) называют функцию 

Математически это определение имеет вид
где 

Таким образом, чтобы найти, например, 

Замечание. Интегральную функцию распределения 


Из теоремы Бернулли выходит, что частность

направляется к вероятности 


Целесообразно использовать 

Эмпирическая функция распределения 
Пример №64
Найти эмпиричную функцию распределения с статистическом распределением выборки
Таблица 5
и построить ее график.
Решение. Объем этой выборки будет 







Значение 




То есть, простой статистическое распределение частоты, что заданны таблицей 5, заменяется сгруппированным распределением частоты (смотреть таблицу 6).
Таблица 6
Тут же построить распределение накопительной частоты. Таким образом, получим эмпиричную функцию распределения вида
График этой функции изображено на рис. 18.
Рисунок 18.
Этот график можно рассмотреть как и приближенный график теоретической функции распределения
Установим связь между эмпиричной функцией распределения 


на каждом классе интервалов
Графическое изображение статистических распределений
Все статистические распределения, что изучались в параграфе 5.6, могут быть представлены графически. Благодаря этому мы можем посмотреть характерные переменные ряда распределения, не пользуясь анализом цифровых данных.
Графическое изображение статистических распределений нужно рассмотреть отдельно для не сгруппированных и сгруппированных данных.
Не сгруппированные данные: полигоны частот и частностей, гистограмма
Если в результате выборки мы получили статистическое распределение признака 


Значение вариант и частот или частностей можно рассмотреть как координаты точек 
Определение 1. Полигоном частот называют ломанную, отрезки которой объединяют точки
Полигоном относительной частоты (частностей) называют ломанную, отрезки которой проходят через точки
Полигоны частот и частностей являются аналогами плотности вероятностей.
Для построения полигона частот на оси абсцисс ставят варианты 


Для построения полигона относительных частот (частностей) на оси ординат ставят частоты 

Пример №65
В результате выборки получили такие значения признака
Построить полигон частот этой выборки.
Решение. В этом случае вариантами будут
Соответственные им частоты
Поставив в системе координат 
и соединяем их отрезками прямых, получим полигон частот этой выборки (смотреть рис. 19).
рисунок 19
Определение 2. Гистограммой частот называют ступенчатую фигуру, которая складывается из прямоугольников, основами которых является долевые интервалы вариант длиной 

Гистограммой относительных частот (частностей) называют ступенчатую фигуру, которая складывается из прямоугольников, основами которых является долевые интервалы вариант, а высоты равны отношению 
Плоскость гистограмм частот равны объему выборки, а плоскость гистограммами частностей — единицы.
Для построения гистограмм частот (частностей) промежуток вариант 












Плоскость такого прямоугольника равна 



В случае гистограмм частностей плоскость прямоугольников будет равны сумме всех частностей
Пример №66
В результате наблюдения получили распределение признака 
Построить гистограмму частот этого распределения.
Решение. В данном случае наименьшее значение варианты 


Для построении гистограмм целесообразно сложить таблицу 7: в первой ряд таблицы записывают полученные отрезки, во второй ряд таблицы записывают сумму частот вариант, что принадлежат соответственному отрезку, в третий ряд записывают высоты соответственных прямоугольников. В этом случае эта таблица будет выглядеть так:
таблица 7.
Отсюда видим, что
По данным таблицы 7 строим соответственную гистограмму частот (см. рисунок 20).
рисунок 20.
Замечание 1. Иногда для построения гистограмм первые два ряда распределения виды таблицы 7 уже заданы. В этом случае нужно учитывать элементы третьего ряда таблицы и построить соответственную гистограмму.
Пример №67
Построить гистограмму частностей заданного распределения
Решение. В этом случае объем выборки
длина долевого интервала варианты
По формуле 
Для построения гистограммы частностей по определению 2, найдем плотность частности
Следует, нужна гистограмма частностей будет иметь вид, который изображен на рисунке 21.
рисунок 21.
Замечание 2. При наблюдении практичных проблем часто выборка имеет значительное количество вариант. Рассмотрим в следующем примере способ их обработки.
Пример №68
Контрольные измерения радиуса 200 цилиндров дали следующие результаты
Построить гистограмму распределения частот выборки.
Решение. В заданном виде варианты не пригодны для контроля. Эти варианты нужно как-либо упорядочить. Простейший способ упорядочения — представить варианты графически: на оси абсцисс поставить результаты измерений, а над каждым значением варианты поставить столько точек, сколько раз встречается эта варианта.
В результате мы получим точечную диаграмму, которая позволяет сложить некоторые представления про выборку и может быть поставлена в основу дальнейшей обработки результатов контроля (см. рисунок 22).
рисунок 22.
Чтобы упростить построение гистограмм, в таблице распределения используют не отрезки, в которых сгруппированы результаты измерений, а их середины. Эти середины обозначают отрезки и отдалены одна от другой на расстоянии 
Действительно, если длина отрезка равно 

Для построения гистограммы частот выборки из рисунка 22 при 
По данным таблицы строим гистограмму частот выборки.
рисунок 23.
Сгруппированные данные: гистограмма и полигон частот
Для сгруппированного распределения частоты, относительной частоты, плотности частоты и плотности относительной частоты могут быть построены специальные диаграммы, сложенные из прямоугольником ступенчатые фигуры, что называются гистограммами.
Для построения гистограмм на горизонтальную ось наносятся классы интервалов. На каждом классе строиться прямоугольник, высота которого равна значению частоты (или относительной частоты, или плотности частоты или плотности относительной частоты) на этом интервале.
рисунок 24. Гистограмма частот среднемесячной зарплаты 100 сотрудников фирмы
Сгруппированное распределение частоты, относительной частоты, плотности частоты и плотности относительной частоты
На рисунке 24 изображена гистограмма частот согласно данным таблицы 8, что построена по таблице В.6 параграфу 5.6.
Далее изобразим заштрихованные контуры гистограмм для плоскости частоты и относительной плотности частоты согласно данных таблицы 8 (смотреть рисунок 25 и 26).
рисунок 25. Контур гистограмм для плотности частоты 
рисунок 26. Контур гистограмм для плотности относительной частоты 
Рассматривая рисунки 24, 25, 26 легко увидеть, что все три гистограммы геометрически подобны и отличаются лишь масштабом вертикальной оси.
Вид способа избрания ширины класса интервалов 


На рисунке 27 и 28 изображены гистограммы для примера 1 при значениях ширины классов интервалов 

рисунок 27. Гистограмма частот среднемесячной зарплаты 100 сотрудников фирмы 

рисунок 28. Гистограмма частот среднемесячной зарплаты 100 сотрудников фирмы 

Сгруппированное распределение частоты среднемесячной оплаты сотрудников фирмы 

таблица 9.
Альтернативой гистограммы для распределения частот является полигон частот. Для построения этого графика над серединой каждого интервала вариант ставится точка на высоте, соответственной частоты этого интервала. После этого эти точки получаются отрезками прямых (смотреть рисунки 29).
рисунок 29. Полигон частот среднемесячной оплаты 100 сотрудников фирмы
На графике, где размещена гистограмма частот (рис. 29), полигон частот изображенный так, что конечные точки графика касаются горизонтальной оси в точках 275 и 395.
Совмещение двух типов графиков на одном рисунке сделано с целью подчеркнуть разное геометрическое содержание этих двух графических изображений распределения частот. Обычно же полигон частот изображается на отдельном чертеже, как это показано на рисунке 30.
рисунок 30. Полигон частот среднемесячной оплаты сотрудников фирмы
рисунок 31. медиана сгруппированного распределения частот, заданного таблицей 8.
С помощью гистограмм удобно обозначить следующее важное понятие.
Определение 3. Медианой сгруппированного распределения частот при постоянной ширине классов интервалов) называется значение или точка на горизонтальной оси гистограммы распределения частот такая, в которой перпендикулярная линия, что проходит через нее, делит эту плоскость гистограммы на две равные части.
Алгоритм нахождения медианы будет рассмотрено в конце этого раздела.
Вероятностное содержание гистограмм и полигона частот
Чтоб выяснить, какое вероятное содержание гистограмм и полигона частот, изобразим на одном рисунке (см. рисунок 32) контур гистограмм для плотности относительной частоты 
Плоскость фигуры, ограниченна полигоном плотности относительных частот приблизительно равна плоскости контура диаграммы, что в свою очередь равна 1. Следует, полигон плоскости относительных частот является приблизительным изображением функции плотности вероятности генеральной совокупности.
Если увеличить объем выборки 
рисунок 32. Контур гистограмм для плотности относительной частоты 
Полигоны накопительных частот и частности. Нахождение их медианы
Для накопительной частоты и накопительной относительной частоты могут быть построены графики похожие на полигон частот. Эти графики называют полигоном накопительной частоты или полигоном накопительной относительной частности. В статистике их так же называют огивой и кумулятивной кривой. Полигон накопительной частоты удобно использовать в целом ряде задач статистики.
Рассмотрим построение полигона накопительной относительной частоты на примере распределения накопительной относительной частоты выборки среднемесячной оплаты 100 сотрудников фирмы 
Сгруппированное распределение накопительной частоты и накопительной относительной выборки среднемесячной оплаты 100 сотрудников фирмы
Для построения полигона мы ставим точку над нижней границей каждого класса интервалов на горизонтальной оси на высоте, что соответствует величины накопительной относительной частоты на предыдущих интервалов.
Так на верхней границе 

На верхней границе 

рисунок 33. Полигон накопительной относительной частоты
В заключение параграфа рассмотрим, как строится медиана сплоченного распределения частоты выборки. Существуют два способа: по формуле и графически.
Рассмотрим графический способ построения медианы сгруппированного распределения частоты выборки.
Вернемся к рисунку 32. В верхней части рисунка изображен полигон накопленной относительной частоты, а в нижней части — гистограмма частот.
Из точки с ординатой 0,5 на оси 
рис. 34 Графическое построение медианы группированного распределения частот с помощью полигона накопительных относительных частот.
Далее из точки 


Рассмотрим построение медианы сгруппированного распределения частоты выборки по формуле.
Точное значение 

где 



Интервал 



Следовательно, получим
После подстановки этих значений в формулу (1) получаем
Сравнивая два способа построения медианы объединенного распределения частоты выборки по формуле или графический, приходим к следующего вывода.
Графическое нахождение медианы группированного распределения частот более наглядное, но дает только приблизительное значение медианы и показывает тот класс интервалов, где находится медиана. Этим обстоятельством можно воспользоваться для нахождения ее точного значения по интерполяционной формуле, что приведена выше.
График эмпиричной функции распределения
Пользуясь данными таблицы 9, запишем эмпиричную функцию распределения 
Очевидно, что функция 

График эмпиричной функции распределения 


рисунок 35. Эмпиричная функция распределения
рисунок 36. Полигон накопительной относительной частоты (кусковая линия) и эмпиричная функция распределения 
На рисунке 36 совмещены графики полигона накопительной относительной частности (рис. 33) и эмпиричной функции распределения 
Из этого графика видно, что распределение накопительной относительной частности может быть изображен двумя разными графиками: ступенчатым графиком или ломанной прямой.
Первому изображению соответствует эмпиричная функция распределения, а во втором — полигон накопительной относительной частоты.
В то же время, ясно, что оба эти графика являются разными, но близкими изображениями теоретичной функции распределения 
Раздел 6. Статистические оценки параметров распределения
Использование математики для обработки выборки позволяет найти числовые характеристики.
Основные требования к статистическим оценкам
В большинстве случаях нужно отследить количественный признак 



Иногда из некоторых рассуждений получается закон распределения 
Например, известно, что случайная величина 
Если 
Необходимо оценить (найти приближенные значения) параметра 



Если 

Исследователь имеет в своем распоряжении только данные выборки полученные в результате наблюдений. Именно через эти данные и нужно выразить нужный параметр случайной величины 
Определение 1. Статистической оценкой неизвестного параметра случайной величины 

Чтобы статистические оценки давали лучшее приближение параметров, они должны соответствовать определенным требованиям. Рассмотрим эти требования.
Пусть 

Предположим, что по выборке с объемом 




Если числа 




Если 

Таким образом, использование статистической оценки, математическое исследование которой не равняется параметру 
Условие 
Определение 2. Статистическую оценку 

Оценку 
Условие про не сдвигаемую оценку 




Если 
Определение 3. Эффективной называют такую статистическую оценку 

При рассматривании выборки большого объема 
Определение 4. Обоснованностью называют статистическую оценку, которая при 
Например, если дисперсия не сдвигаемой оценки при 
Числовые характеристики выборочной совокупности
Выборочные характеристики:
В дополнение к табличным и графическим методам представления данных следующим важнейшим способом обработки данных являются вычисление их числовых характеристик. Важнейшие из них: среднее значение, дисперсия, среднеквадратичное отклонение (стандартное отклонение).
Эти характеристики могут быть вычислены по данным, что находятся в выборке или по данным, что входят в конечную генеральную совокупность.
Числовые характеристики, вычисленные по выборке или те, что используются для описания данных выборки, называют статистиками.
Числовые характеристики, вычисленные по генеральной совокупности или те, что используются для описания данных генеральной совокупности, называют параметрами.
По аналогии с математическими наблюдениями, дисперсию и среднеквадратичным отклонение дискретной случайной величины обозначают выборочные характеристики, изменяя при этом вероятности 
Но в статистике используют и другие числовые характеристики.
Определение 1. Простой среднеарифметической выборкой называют сумму вариант выборки, поделенную на объем выборки. Ее обозначают
где 

Определение 2. Выборочной средней или взвешенной среднеарифметическая называют среднеарифметическую варианту выборки с отклонением их частот и обозначают
где 





Выборочная средняя является аналогом математического наблюдения и выполняется очень часто. Она может принимать разные числовые значения при разных выборках одинакового объема.
Потому можно рассмотреть распределения (теоретический и эмпиричный) выборочной средней и числовые характеристики этого распределения (это распределение называют выборочным).
Основные свойства выборочной средней
1. при умножении всех вариант выборки на одинаковый множитель выборочное среднее также умножается на этот множитель
2. Если прибавить (отнять) к всем вариантам выборки одинаковое число, то выборочная средняя возрастает (уменьшается) на это число
Эти свойства можно объединить в одну формулу, которую называют формулой момента
и используют в статистике.
Замечание 1. Если ввести условную варианту 
Определение 3. Степенной средней выборки называют такую среднюю, которую находят по формуле
При 
При 
При 
Среднюю гармоническую применяют в том случае, когда искомый показатель является величиной, что обратный среднему значению признака.
При 
Эта средняя вычисляется только при условии, что все варианты являются положительными
Средняя геометрическая используется в статистике для обозначения темпа возрастания при наблюдении изменения признаков с течением времени
Замечание 2. Обратная той или иной средней для характеристики распределения связанно с качественным анализом этого распределения.
Замечание 3. Кроме указанных степенных средних, в статистике используются еще структурные средние, которые не зависят от значений варианты, что расположены на краях распределения, и связанны с рядом частот.
К структурным средним относят моду и медиану. Напомним, что модой называют значения варианты, которая имеет наибольшую частоту. Определение медианы и способы ее построение смотреть параграф 5.8.
Определение 4. Выборочной дисперсией 
Замечание 4. Вычисления выборочной дисперсии упрощается, если находить по формуле
Определение 5. Выборочным среднеквадратичным отклонением (стандартом) называют квадратичный корень из выборочной дисперсии
Замечание 5. Выборочная дисперсия дает заниженные значения для дисперсии 


Потому выборочную дисперсию целесообразно исправить таким образом, чтобы она стала не сдвигаемой оценкой. Для этого достаточно 
исправленную выборочную дисперсию обозначают
Тогда исправленным среднеквадратичным отклонением выборки будет 
Из формул (4) и (7) получается, что при больших 




Пример №69
Выборочная совокупность задана таблицей
Найти выборочные характеристики.
Решение. В данном случае объем выборки равен
По формуле (1) находим выборочную среднюю
По формуле (4) находим выборочную дисперсию
По формуле (6) находим выборочные среднеквадратичные отклонения (стандарт)
Вычисления выборочных характеристик методом произведений
Как правило, вычисления 

Дадим необходимые пояснения для этого метода
Алгоритм метода произведений
1) В первый столбец таблицы записывают равноудаленные варианты 
2) Во второй столбец таблицы записывают соответственные частоты 

3) Третий столбец содержит условия варианты 
а) значения варианты выборки с наибольшей частотой 
б) найти разницу 
в) вычислить условные варианты выборки по формуле
Отметим, что условные варианты всегда будут целыми числами.
4) В четвертый столбец записывают произведения частот и соответственных условных вариант 
5) Находят произведения частот и квадратов условных вариант 

6) Находят произведение частот и квадратов условных вариант, увеличенных на единицу, 

7) Проверяют вычисления так: сумма элементов шестого столбца должна удовлетворять тождество

9) Вычисляют выборочную среднюю и дисперсию по формуле
Пример №70
Найти методом произведения выборочной средней 

Решение. Будем использовать расчет таблицы методом произведения. В этом случае: варианты выборки равноудалены 
В первые для столбца расчетной таблицы записываем варианты и частоты заданной выборки, а элементы третьего столбца вычисляем по формуле (8) при указанных 
Для контроля проверяем условие (9)
Найдем условия момента по формуле (10)
По формуле (11) находим искомую выборочную середину и выборочную дисперсию
Статистические моменты распределения
Обозначим аналогично начальному и центральному распределению из теории вероятностей некоторые числовые характеристики выборки.
Определение 6. Моментом порядка 

При 

При 

Моменты порядка 


Примеры нахождения статистики выборки
В случае сгруппированной выборки допускается, что всякое значение варианты, что попали в данный класс интервалов, равно среднему значению варианты в этом классе.
1. Выборочное среднее вычисляется по формуле
где 




2. Для дисперсии получаем формулу
и формулу для вычислений
Для исправленной дисперсии получаем формулу
и формулу для вычислений

Пример №71
Вычислить числовые характеристики выборки сгруппированного распределения частот среднемесячной оплаты сотрудников фирмы 
таблица 11 таблица 12
Перейдем из таблицы 11 к таблице 12, заменяя классы интервалов на средние значения вариант в классе. Пользуясь данными из таблицы 12, по формуле (12) получаем
Сравнивая полученное значение выборочной средней 

Погрешность возникла на счет округления всех вариант в классе к среднему значению. Как показывает практика, погрешность, что получилась ранее, незначительная.
Далее по формулам (13), (14) получим
Для среднеквадратичного отклонения получим
Согласно приведенным выше терминам 
Как видно из формул (13) и (14) дисперсия является мерой рассеивания варианты в выборке вокруг их среднего значения. Объясним это на следующем примере.
Пример №72
Обследованы по 65 случаев выплаты страховых сумм двумя страховыми компаниями 

Распределение частот выплат страховых сумм обоих компаний приведено в таблицах 13 и 14.
Рассчитаем выборочное среднее 

Рассчитаем выборочные дисперсии 
таблица 13 таблица 14
Полигон частот обоих распределений изображений на рисунке 37. Из рисунка 37 видно, что чем меньше дисперсия, тем в большем узком интервале данные выборки группируются около среднего значения ( в нашем случае 
рисунок 37
Точечные и интервальные оценки
Определение 1. Точечными оценками параметров распределение генеральной совокупности называют такие оценки, которые обозначаются одним числом.
Например, выборочная средняя 

Точечные оценки параметров распределения являются случайными величинами, их можно считать первичными результатами обработки выборки потому, что неизвестно, с какой точностью каждая из них оценивает соответственную числовую характеристику генеральной совокупности.
Если объем выборки достаточно большой, то точечные оценки удовлетворяют практичной потребности точности.
Если объем выборки маленький, то точечные оценки могут давать значительные погрешности, потому вопрос точности оценок в этом случае очень важное и используют интервальные оценки.
Определение 2. Интервальной называют оценку, которая обозначается двумя числами — концами интервала.
Интервальные оценки позволяют установить точность и надежность оценок. Познакомьтесь с этими понятиями.
Пусть найдена по данным выборки статистическая оценка 

Ясно, что 


Другими словами, если 



Но статистические методы не позволяют категорично утверждать, что оценка 
Такое утверждения можно сделать только с вероятностью 
Определение 3. Надежностью (доверительной вероятностью) оценки параметра 

с которой выполняется неравенство 
Частое число 
Формулу (1) можно записать в виде
Из этого равенства получается, что интервал 

Определение 4. Интервал 


Замечание 1. Концы доверительного интервала являются случайными величинами.
Доверительный интервал для оценки математического ожидания нормального распределения
Пусть количественный признак 



Согласно свойству нормально распределенной случайной величины 
Поскольку интегральная функция Лапласа Ф. является непарной, то получим
Только 





Используя формулы (3) и (2), получим
то есть надежностью 
покрывает неизвестный параметр 
с использованием таблицы значений интегральной функции Лапласа.
Замечание 2. Из формулы (5) получается, что при возрастании объема выборки 





Пример №73
Случайная величина распределена по нормальному закону с параметром 



Решение. Из равенства
Из таблицы интегральной функции Лапласа Ф найдем число 
Следовательно, доверительный интервал будет 



Замечание 3. Нахождение объема выборки. Пусть признак 






Для надежности 
Теперь, 

Пример №74
Случайная величина распределена по нормальному закону с параметром 




Решение. Для 
Используя формулу (7), найдено 

Следовательно, минимальный объем выборки
Замечание 4. Если неизвестное среднеквадратичное отклонение 


Обработка выборки методом наименьших квадратов
Предположим, что нам известна функциональная зависимость между случайными величинами 


Например, можно рассмотреть зависимость между себестоимостью продукции (признак 

Обычно, при возрастании объема продукции 

Пусть вследствие 


Для нахождения оценок, параметров функциональной зависимости 

Если функция 




Нахождение функциональной зависимости между случайными величинами 

Ниже рассмотрим детальнее оценки параметров линейной и параболической функциональной зависимостей, которые используются чаще всего.
Оценка параметров линейной функции
Пусть между случайными величинами 

параметры 

Согласно формуле (1) получим
Эта функция 


В нашем случае эти равенства имеют вид
Выписанная система является неоднородной линейной системой двух уравнений относительно двух неизвестных 

Если количество значений 




Тогда после некоторых промежуточных выкладок получаем
Формулы (5) позволяют обозначить параметры 

Оценка параметров параболической функциональной зависимости
Пусть между случайными величинами 

Методом наименьших квадратов на основе данных исследований найдем значения неведомых параметров 
Необходимые условия существования минимума функции 
Эту систему можно записать в виде
Система (7) является неоднородной линейной системы трех уравнений с неизвестными 
Система (7) и ее решение намного упрощается, если значения 


Предположим, что указанные условия выполняется, тогда вместо системы (7) получим систему
Решение этой системы можно найти по формуле
Пример №75
Используя метод наименьших квадратов, сложить уравнение параболы (6), которая проходит близко к точкам
Решение. В этом случае значения 
и выполняются условия, которые позволяют найти параметры 


потому что
Таким образом, уравнением искомой параболы будет
Статистическая проверка гипотез
Гипотезы полезны в многих случаях. Они бывают разные. Как их проверить?
Статистические гипотез и из разновидности
Часто необходимо знать закон распределения генеральной совокупности. Если закон распределения неизвестный, только есть рассуждения для предположение его определенного вида 
- генеральная совокупность распределена по закону
В этой гипотезе идет речь про вид неизвестного распределения.
Иногда закон распределения генеральной совокупности известный , но его параметры (числовые характеристики) неизвестны. Если есть рассуждение, допустим, что неведомый параметр 


Возможны так же другие гипотезы: про равенство параметром двух разных распределений, про независимость выборок, про то, что в ноябре 2000 года будет конец света, и много других.
Определение 1. Статистическими называют гипотезы про вид распределения генеральной совокупности или про параметры известных распределений.
Например, статистическими будут гипотезы:
- генеральная совокупность распределена по нормальному закону;
- дисперсии двух совокупностей, распределенных по закона Пуассона, равны между собой.
Известно, что на творческие возможности людей влияют не только гены и условия жизни, но и космос. Рассмотрим гипотезы:
- значительная часть рожденных в первом полугодии имеет более развитую левую часть мозга, которая отвечает за логичное мышление.
- значительная часть людей, рожденных в другом полугодии, имеет более развитую часть мозга, которая отвечает за образное мышление.
Эти гипотезы не статистические, ибо в них идет речь не об вид и не об параметры распределения. Но для указанной ситуации можно сформулировать несколько статистических гипотез.
Вместе с предположенной гипотезой всегда можно рассмотреть противоположной ее гипотезу. Если предположенная гипотеза будет отклонена, то имеет место быть противоположная гипотеза. Следовательно, эти гипотезы значительно отличаются.
Определение 2. Основой (нулевой) называют предположительную гипотезу и обозначают
Определение 3. Альтернативной (конкурентной) называют гипотезу, что противоречит основной, ее обозначают 
Например, если 
Гипотезы могут содержать только одну или больше одного предположения.
Определение 4. Гипотезу зовут простой, если она содержит только одно предположение.
Например, если 

Определение 5. Гипотезу называют сложной, если она складывается из ограниченного или не ограниченного количества простых гипотез.
Например, гипотеза 

Гипотеза 


Погрешности проверки гипотез
Статистическая гипотеза, которая смещена, может быть правильной или неправильной, потому возникает необходимость ее проверки.
Проверка гипотеза выполняется по данным выборки, то есть статистическими методами. Потому проверку гипотезы по данным выборки называют статистической.
При проверке статистической гипотезы по данным случайной выборки можно сделать ложный вывод. При этом могут быть погрешности первого и второго рода.
Определение 1. Если в выводе была отклонена правильная гипотеза, то говорят, что это погрешность первого рода.
Определение 2. Если в выводе была принята не правильная гипотеза, то говорят, что это погрешность второго рода.
Отметим, что последствия этих погрешностей могут быть разными. Например, если откинуть правильную гипотезу «продолжить постройку мясокомбината», то эта погрешность первого рода будут способствовать материальным тратам.
Если принять неправильную гипотезу «продолжить постройку, не учитывая возможность обвала объекта», то в последствии погрешности второго рода могут погибнуть люди.
Определение 3. Вероятность сделать погрешность первого рода обозначают 
Чаще всего уровень значимости принимают равным 0,05 или 0,01. Если принят уровень значимости равный 0,05, то это означает, что в пяти случаях из 100 мы рискуем получить погрешность первого рода (отклонили правильную гипотезу).
Замечание. При контроле качества продукции вероятность признать нестандартные стандартные изделия называют риском производителя, а вероятность признать пригодным бракованные изделия называют риском потребителя.
Критерии координирования проверки гипотез
Статистический критерий проверки основной гипотезы:
Проверку статистической гипотезы можно проверить с использованием данных выборки. Для этого следует выбрать, некоторую случайную статистическую характеристику (выборочная функция), точное или приближенное распределение. который известен, и с помощью этой характеристики проверить основную гипотезу.
Определение 1. Статистическим критерием координирования проверки гипотезы (или просто критерием) называют случайную величину 
Замечание 1. В определении 1 не учитывается вид распределения статистической характеристики.
Если статистическая характеристика распределена нормально, то критерий обозначают не буквой 


В случае распределения статистической характеристики по закону Стьюдента и обозначают 
Например, для проверки гипотез про равенство дисперсии двух нормальных генеральных совокупностей в статистической характеристике 
В разных опытах дисперсия будет принимать разные, изначально известные значения, потому эта величина случайная. Она распределена по закону Фишера-Снедекора.
Определение 2. Наблюдаемым значением критерия согласования называют значение соответственное критерию, вычисленное по данным выборки.
Например, если по данным выборок их двух нормальных генеральных совокупностей найдем исправленные выборочные дисперсии 

Существует много критериев согласования. Например, наиболее точный (асимптотически) критерий Неймана — Пирсона используются неравенства или отношения функции правдоподобности.
Критическая область
После избрания первого критерия согласования, множество всех его возможных значений делят на две подмножества, что не пересекаются: одна из них содержит значения критерия, при которых основная гипотеза отклоняется, а вторая — при которых она принимается.
Определение 3. Критической областью называют совокупность значений критерия, при которых основная гипотеза отклоняется.
Определение 4. Областью принятия гипотезы (областью допустимых значений) называют множество значений критерия, при которых гипотезу принимают.
Критерий согласования 
Определение 5. Критическими точками критерия 

Различают одностороннюю (правостороннюю и левостороннюю) и двустороннюю критические области.
Определение 6. Правосторонней называют критическую область, что обозначается неравенством 

Определение 7. Левосторонней называют критическую область, что обозначается неравенством 

Нахождение критических областей
Чтобы найти одностороннюю критическую область нужно найти критическую точку 

в случае правосторонней критической области, или
в случае левосторонней критической области
В случае двусторонней критической области должно получится тождество
Для каждого критерия согласования являются соответственные таблицы, которые позволяют находить такую точку 
При нахождении критической области целесообразно учитывать мощность критерия.
Определение 8. Мощность критерия называют вероятность принадлежности критерия критической области при условии, что является правильная альтернативная гипотеза.
Другими словами, мощность критерия является вероятность того, что основная гипотеза будет отклонена, если альтернативная гипотеза правильная.
Если уровень значимости 
Замечание 2. Единственный способ одновременного уменьшения погрешностей первого и второго рода — увеличение объема выборки.
Порядок действий при проверке статистических гипотез
Для проверки правильности основной статистической гипотезы 
- обозначить гипотезу
альтернативную к гипотезе
;
- выбрать статистическую характеристику проверки;
- обозначить допустимую вероятность погрешности первого рода, то есть уровень значимости
- найти по соответственной таблице критическую область (критическую точку) для выбранной статистической характеристики.
К критической области принадлежат такие значения статистической характеристики, при которых гипотеза 
Подчеркнем, что между уровнем значимости 

Так, при проверке гипотезы про равенство дисперсий двух нормальных совокупностей при альтернативной 
а потом из таблицы критических точек этого распределения по заданному уровню значимости 


если 



Некоторые критерии проверки статистических гипотез
Проверка гипотезы про равенство математических ожиданий нормальных генеральных совокупностей:
Пусть две нормально распределенные генеральные совокупности имеют равные дисперсии, а математические ожидания могут быть разными.
Из совокупностей сделали выборку объема 





Нужно проверит гипотезу 
Альтернативная гипотеза будет
Для проверки гипотезы в качества статистической характеристики (выборочной функции) возьмем функцию
которая распределена по закону Стьюдента со степенями вольности, что равны
Для заданного уровня значимости 

Пример №76
Предприятие изготовляет одинаковые детали двумя способами. Первым способом изготовлено 10 деталей, траты сырья были такими
Вторым способом изготовлено 6 деталей, траты сырья были такими
Предположим, что дисперсия трат сырья одинаковая, при уровне значимости 

Решение. Нужно проверить гипотезу про равенство математических ожиданий двух нормальных генеральных совокупностей. Согласно с гипотезой 


Из таблицы критических значений 
По данным выборки можно найти
Теперь по формуле (1) получим
Следовательно 

Критерий дисперсионного анализа
Пусть есть 
Из каждой совокупности делаем выборку объема


Обозначим 




а средняя всей выборки будет
При уровне значимости 
При равенстве дисперсий статистическая характеристика будет иметь распределение Фишера с 

Критическую область в этом случае находят с учетом условия
где 
Пример №77
Есть данные про стоимость (пример приведен в тысячах гривен) проданных трех видов изделий первым магазином в некоторые дни недели
Предполагая нормальный закон распределения полученной суммы каждого дня и равенство дисперсий, проверить гипотезу 

Решение. Условие примера позволяют использовать для решения задачи критерий дисперсионного анализа.
В этом случае получаем:
По формулам (2) и (3) находим:
Сделаем вычисление сумм, что исходят из формулы (4)
Теперь по формуле (4) найдем значения статистической характеристики
Из таблицы критических значений распределения значений Фишера со степенями вольности 


Получили, что 

Критерий согласования Пирсона x2
Критерий согласования Пирсона
Критерий согласования Пирсона 
Ограничимся применением этого критерия для проверки гипотезы про нормальное распределение генеральной совокупности.
Пусть выборка имеет такое распределение объема
или
нужно с уровнем значимости 

Критерием проверки этой гипотезы берут случайную величину 
Критическое значение этой случайной величины зависят от уровня значимости 
Эти критические значения представлены в виде таблицы (таблица 5 в приложении) для разных 
для распределения генеральной совокупности по нормальному закона степень вольности будет
где 
Правило Пирсона. Чтобы при заданном уровне значимости 

1)вычислить теоретическую частоту 
2) вычислить наблюдаемое значение критерия 
3) найти степень вольности 
4) найти из таблицы критическую точку 

5) уравнять 

Пример №78
При равной значимости проверить

Решение. В данном случае теоретические частоты 

Из таблицы критических точек распределения 


Для вычисления 
Таким образом, 


Нахождение теоретических частот нормального распределения
Согласно с классическим определением вероятности
Следовательно для нахождения теоретических частот
нужно найти вероятность
соответственно.
Вероятность 

где
варианты 
Вероятность 

б) если число 
в) если число 
Объединим случаи а) — в): если правая часть уравнения (91) имеет вид (92), то частичное решение этого уравнения нужно искать в виде
где 





где 




где 






Кроме того, если правая часть уравнения (91) имеет вид
где 
где 


Замечание. 1. Искомые многочлены 






Замечание 2. Если правая часть уравнения (91) является суммой нескольких разных по структуре функций вида (92) или (98), то для поиска частичного решения нужно искать теорему про наложение решений (п. 3.4).
Замечание 3. Использованный метод подбора отдельного частичного решения уравнения (91) можно использовать только в определенных дифференциальных уравнений, а именно для линейных уравнений с постоянными коэффициентами и со специальной правой частью вида (92) или (98). В других случаях частичное решение нужно искать методом вариации произвольных постоянных.
Пример №79
Решить уравнение











Приравнивая коэффициенты при одинаковых степенях, получим систему уравнений
откуда 

искомое общее решение.
Лекции по предметам:
- Математика
- Алгебра
- Линейная алгебра
- Векторная алгебра
- Геометрия
- Аналитическая геометрия
- Высшая математика
- Дискретная математика
- Математический анализ
- Математическая статистика
- Математическая логика
Учебник онлайн:
- Комбинаторика — правила, формулы и примеры
- Классическое определение вероятности
- Геометрические вероятности
- Теоремы сложения и умножения вероятностей
- Формула полной вероятности
- Повторные независимые испытания
- Простейший (пуассоновский) поток событий
- Случайные величины
- Числовые характеристики случайных величин
- Нормальный закон распределения
- Основные законы распределения вероятностей
- Асимптотика схемы независимых испытаний
- Функции случайных величин
- Центральная предельная теорема
- Ковариация в теории вероятности
- Функциональные преобразования двухмерных случайных величин
- Правило «трех сигм» в теории вероятности
- Производящие функции
- Теоремы теории вероятностей
- Основные законы распределения дискретных случайных величин
- Непрерывные случайные величины
- Закон больших чисел
- Генеральная и выборочная совокупности
- Интервальные оценки параметров распределения
- Алгебра событий — определение и вычисление
- Свойства вероятности
- Многомерные случайные величины
- Случайные события — определение и вычисление
- Системы случайных величин
- Вероятность и риск
- Определения вероятности событий
- Предельные теоремы теории вероятностей

В грамм добыча, в годы труды.
Изводишь единого слова ради
Тысячи тонн словесной руды.
Но как испепеляюще слов этих жжение
Рядом с тлением слова-сырца.
Эти слова приводят в движение
Тысячи лет миллионов сердца.
Владимир Маяковский
Напомню, что наша ближайшая задача — показать алгоритм универсального обобщения. Такое обобщение должно удовлетворять всем требованиям, сформулированным ранее в десятой части. Кроме того, оно должно быть свободно от традиционных для многих методов машинного обучения недостатков (комбинаторный взрыв, переобучение, схождение к локальному минимуму, дилемма стабильности-пластичности и тому подобное). При этом механизм такого обобщения должен не противоречить нашим знаниям о работе реальных нейронов живого мозга.
Сделаем еще один шаг в сторону универсального обобщения. Опишем идею комбинаторного пространства и то, как это пространство помогает искать закономерности и тем самым решать задачу обучения с учителем.
Задача контекстного сдвига текстовой строки
Сейчас мы покажем, как очень сложно решить очень простую задачу. Мы научимся сдвигать на одну позицию произвольную текстовую строку.
Предположим, что у нас есть длинный текст. Мы последовательно читаем его от начала к концу. За один шаг чтения мы смещаемся на один символ. Предположим, что у нас есть скользящее окно шириной N символов и в каждый момент времени нам доступен только фрагмент текста, помещающийся в это окно. Введем циклический идентификатор позиции (описан в конце четвертой части), указывающий на позицию символов в тексте. Период идентификатора обозначим K. Пример текста с наложенным идентификатором позиции и сканирующим окном приведен на рисунке ниже.
Фрагмент текста. Числами обозначен циклический идентификатор позиции. Период идентификатора K=10. Вертикальными линиями выделено одно из положений скользящего окна. Размер окна N=6
Основная идея такого представления в том, что если размер окна N меньше периода идентификатора K, то набор пар «буква — идентификатор позиции» позволяет однозначно записать строку внутри скользящего окна. Ранее похожий метод записи мы упоминали, когда говорили о том, как можно закодировать звуковую информацию. Подставьте вместо букв коды неких условных фонем, и вы получите запись звукового фрагмента.
Введем систему понятий, позволяющую описать все, что появляется в скользящем окне. Для простоты не будем делать разницы между заглавными и строчными буквами и не будем учитывать знаки препинания. Так как потенциально любая буква может встретиться нам в любой позиции, то нам понадобятся все возможные сочетания букв и позиций, то есть 26 x K понятий. Условно эти понятия можно обозначить как
{a0,a1⋯a(K-1),b0,b1⋯b(K-1),z0,z1⋯z(K-1)}
Мы можем записать любое состояние скользящего окна как перечисление соответствующих понятий. Так для окна, показанного на рисунке выше, это будет
{s1,w3,e4,d6}
Сопоставим каждому понятию некий разреженный бинарный код. Например, если взять длину кода в 256 бит и отвести 8 бит для кодирования одного понятия, то кодирование буквы «a» в различных позициях будет выглядеть как показано на рисунке ниже. Напомню, что коды выбираются случайным образом, и биты у них могут повторяться, то есть одни и те же биты могут быть общими для нескольких кодов.
Пример кодов буквы a в позициях от 0 до 9. Бинарные вектора показаны вертикально, единицы выделены горизонтальными светлыми линиями
Создадим бинарный код фрагмента логическим сложением кодов составляющих его понятий. Как уже писалось ранее, такой бинарный код фрагмента будет обладать свойствами фильтра Блума. Если разрядность бинарного массива достаточна высока, то с достаточно высокой точностью можно выполнить обратное преобразование и получить из кода фрагмента набор исходных понятий.
На рисунке ниже приведен пример того, как будут выглядеть коды понятий и суммарный код фрагмента для предыдущего примера.
Пример сложения бинарных кодов понятий в код фрагмента
Описание, составленное таким образом, хранит не только набор букв фрагмента текста, но и их последовательность. Однако и набор понятий, и суммарный код этой последовательности зависит от того, в какой позиции находился циклический идентификатор на момент, когда последовательность появилась в тексте. На рисунке ниже приведен пример того, как описание одного и того же фрагмента текста зависит от начального положения циклического идентификатора.
Изменение кодировки текста при разном начальном смещении
Первому случаю будет соответствовать описание
{s1,w3,e4,d6}
Второй случай будет записан, как
{s9,w1,e2,d4}
В результате текст один и тот же, но совсем другой набор понятий и, соответственно, совсем другой описывающий его бинарный код.
Тут мы приходим к тому, о чем так много говорили в предыдущих частях. Варианты, получаемые при смещении текста, – это возможные трактовки одной и той же информации. При этом контекстами выступают все возможные варианты смещения. И хотя суть информации неизменна, ее внешняя форма, то есть описание через набор понятий или через его бинарное представление, меняется от контекста к контексту, то есть, в нашем случае, при каждом изменении начальной позиции.
Чтобы иметь возможность сравнивать фрагменты текста инвариантно к их смещению, надо ввести пространство контекстов смещений. Для этого понадобится K контекстов. Каждый контекст будет соответствовать одному из вариантов возможного начального смещения.
Напомню, что контексты определяются правилами контекстных преобразований. В каждом контексте задается набор правил относительно того, как меняются понятия в этом контексте.
Контекстными преобразованиями в случае с текстом будут правила изменения понятий при переходе к соответствующему контексту смещению. Так, например, для контекста с нулевым смещением правила переходов будут переходами сами в себя
a0→a0, a2→a2⋯z(K-1)→z(K-1)
Для контекста со смещением на 8 позиций при длине кольцевого идентификатора K=10, что соответствует нижней строке примера с рисунка выше, правила будут иметь вид
a0→a8, a1→a9, a2→a0⋯z9→z7
При таких правилах в контексте со смещением 8 описание окна из первой строки примера перейдет в описание окна из второй строки, что, собственно, вполне очевидно и без долгих пояснений
{s1,w3,e4,d6}→{s9,w1,e2,d4}
В нашем случае контексты, по сути, выполняют вариацию смещения текстовой строки по всем возможным позициям кольцевого идентификатора. В результате если две строки совпадают или похожи друг на друга, но сдвинуты одна относительно другой, то всегда найдется контекст, который нивелирует это смещение.
Позже мы подробно разовьем мысль о контекстах, сейчас же нас будет интересовать один частный, но при этом очень важный вопрос: как изменяются бинарные коды описаний при переходе от одного контекста к другому?
В нашем примере мы имеем текст и знаем позиции букв. Задав требуемое смещение, мы всегда можем пересчитать позиции букв и получить новое описание. Не представляет труда вычислить бинарные коды для исходного и смещенного состояния. Например, на рисунке ниже показано, как будет выглядеть код строки «arkad» в нулевом смещении и код той же строки при смещении на одну позицию вправо.
Код исходной строки и ее смещения
Так как у нас есть алгоритм пересчета описаний, мы без труда можем для любой строки получить ее исходный бинарный код (в нулевом контексте) и код в смещении на одну позицию (в контексте «1»). Взяв длинный текст, мы можем создать сколь угодно много таких примеров, относящихся к одному смещению.
А теперь возьмем сгенерированные примеры и представим, что перед нами черный ящик. Есть бинарное описание на входе, есть бинарное описание на выходе, но нам ничего не известно ни про природу входного описания, ни про правила, по которым происходит преобразование. Можем ли мы воспроизвести работу этого черного ящика?
Мы пришли к классической задаче обучения с учителем. Есть обучающая выборка и по ней требуется воспроизвести внутреннюю логику, связывающую входные и выходные данные.
Такая постановка задачи типична для ситуаций, с которыми часто сталкивается мозг, решая вопросы контекстных преобразований. Например, в прошлой части было описано, как сетчатка глаза формирует бинарные коды, соответствующие зрительной картинке. Микродвижения глаз постоянно создают обучающие примеры. Так как движения очень быстрые, то можно считать, что мы видим одну и ту же сцену, но только в разных контекстах смещения. Таким образом мозг получает исходный код изображения и код, в который это изображение переходит в контексте проделанного глазом смещения. Задача обучения зрительных контекстов – это вычисление правил, которым подчиняются зрительные трансформации. Знание этих правил позволяет получать трактовки одного и того же изображения одновременно в различных вариантах смещений без необходимости глазу физически эти смещения совершать.
В чем сложность?
Когда я учился в институте, у нас была очень популярна игра «Быки и коровы». Один игрок загадывает четырехзначное число без повторов, другой пытается его угадать. Тот, кто пытается, называет некие числа, а загадавший сообщает, сколько в них быков, то есть угаданных цифр, стоящих на своем месте, и сколько коров, цифр, которые есть в загаданном числе, но стоят не там, где им положено. Вся соль игры в том, что ответы загадавшего не дают однозначной информации, а создают множество допустимых вариантов. Каждая попытка порождает такую неоднозначную информацию. Однако совокупность попыток позволяет найти единственно верный ответ.
Что-то похожее есть и в нашей задаче. Выходные биты не случайны, каждый из них зависит от определенного сочетания входных битов. Но так как во входном векторе может содержаться несколько понятий, то неизвестно, какие именно биты отвечают за срабатывание конкретного выходного бита.
Так как в кодах понятий биты могут повторяться, то один входной бит ничего не говорит о выходе. Чтобы судить о выходе, требуется анализировать сочетание нескольких входных битов.
Поскольку один и тот же выходной бит может относиться к кодам разным понятий, то срабатывание выходного бита еще не говорит о том, что на входе появилось то же сочетание бит, которое заставило этот выходной бит сработать ранее.
Иначе говоря, получается достаточно сильная неопределенность, как со стороны входа, так и со стороны выхода. Эта неопределенность оказывается серьезной помехой и затрудняет слишком простое решение. Одна неопределенность перемножается на другую неопределенность, что в результате приводит к комбинаторному взрыву.
Для борьбы с комбинаторным взрывом требуется «комбинаторный лом». Есть два инструмента, позволяющие на практике решать сложные комбинаторные задачи. Первый – это массовое распараллеливание вычислений. И тут важно не только иметь большое количество параллельных процессоров, но и подобрать такой алгоритм, который позволяет распараллелить задачу и загрузить все доступные вычислительные мощности.
Второй инструмент – это принцип ограниченности. Основной метод, использующий принцип ограниченности – это метод «случайных подпространств». Иногда комбинаторные задачи допускают сильное ограничение исходных условий и при этом сохраняют надежду, что и после этих ограничений в данных сохранится достаточно информации, чтобы можно было найти требуемое решение. Вариантов того, как можно ограничить исходные условия, может быть много. Не все из них могут быть удачными. Но если, все же, вероятность, что удачные варианты ограничений есть, то тогда сложная задача может быть разбита на большое количество ограниченных задач, каждая из которых решается значительно проще исходной.
Комбинируя эти два принципа, можно построить решение и нашей задачи.
Комбинаторное пространство
Возьмем входной битовый вектор и пронумеруем его биты. Создадим комбинаторные «точки». В каждую точку сведем несколько случайных битов входного вектора (рисунок ниже). Наблюдая за входом, каждая из этих точек будет видеть не всю картину, а только ее малую часть, определяемую тем, какие биты сошлись в выбранной точке. Так на рисунке ниже крайняя слева точка с индексом 0 следит только за битами 1, 6, 10 и 21 исходного входного сигнала. Создадим таких точек достаточно много и назовем их набор комбинаторным пространством.
Комбинаторное пространство
В чем смысл этого пространства? Мы предполагаем, что входной сигнал не случаен, а содержит определенные закономерности. Закономерности могут быть двух основных типов. Что-то во входном описании может появляться несколько чаще чем другое. Например, в нашем случае отдельные буквы появляются чаще чем их сочетания. При битовом кодировании это означает, что определенные комбинации битов встречаются, чаще чем другие.
Другой тип закономерностей – это когда кроме входного сигнала есть сопутствующий ему сигнал обучения и что-то, содержащееся во входном сигнале, оказывается связано с чем-то, что содержится в сигнале обучения. В нашем случае активные выходные биты – это реакция на комбинацию определенных входных битов.
Если искать закономерности «в лоб», то есть глядя на весь входной и весь выходной векторы, то не очень понятно, что делать и куда двигаться. Если начинать строить гипотезы на предмет того, что от чего может зависеть, то моментально наступает комбинаторный взрыв. Количество возможных гипотез оказывается чудовищно.
Классический метод, широко используемый в нейронных сетях, — градиентный спуск. Для него важно понять, в какую сторону двигаться. Обычно это несложно, когда выходная цель одна. Например, если мы хотим обучить нейронную сеть написанию цифр, мы показываем ей изображения цифр и указываем, что за цифру она при этом видит. Сети понятно «как и куда спускаться». Если мы будем показывать картинки сразу с несколькими цифрами и называть все эти цифры одновременно, не указывая, где что, то ситуация становится значительно сложнее.
Когда создаются точки комбинаторного пространства с сильно ограниченным «обзором» (случайные подпространства), то оказывается, что некоторым точкам может повезти и они увидят закономерность если не совсем чистой, то, по крайней мере, в значительно очищенном виде. Такой ограниченный взгляд позволит, например, провести градиентный спуск и получить уже чистую закономерность. Вероятность для отдельной точки наткнуться на закономерность может быть не очень высока, но всегда можно подобрать такое количество точек, чтобы гарантировать себе, что всякая закономерность «где-то да всплывет».
Конечно, если делать размеры точек слишком узкими, то есть количество битов в точках выбирать приблизительно равным тому, сколько битов ожидается в закономерности, то размеры комбинаторного пространства начнут стремиться к количеству вариантов полного перебора возможных гипотез, что возвращает нас к комбинаторному взрыву. Но, к счастью, можно увеличивать обзор точек, снижая их общее количество. Это снижение не дается бесплатно, комбинаторика «переносится в точки», но до определенного момента это не смертельно.
Создадим выходной вектор. Просто сведем в каждый бит выхода несколько точек комбинаторного пространства. Какие это будут точки выберем случайным образом. Количество точек, попадающих в один бит, будет соответствовать тому, во сколько раз мы хотим уменьшить комбинаторное пространство. Такой вектор выхода будет хэш-функцией для вектора состояния комбинаторного пространства. О том, как это состояние считается, мы поговорим чуть позже.
В общем случае, например, как показано на рисунке выше, размер входа и выхода могут быть различны. В нашем примере с перекодированием строк эти размеры совпадают.
Кластеры рецепторов
Как искать закономерности в комбинаторном пространстве? Каждая точка видит свой фрагмент входного вектора. Если в том, что она видит, оказывается достаточно много активных битов, то можно предположить, что то, что она видит, и есть какая-либо закономерность. То есть, набор активных битов, попадающий в точку, можно назвать гипотезой о наличии закономерности. Запомним такую гипотезу, то есть зафиксируем набор активных битов, видимых в точке. В ситуации, показанной на рисунке ниже, видно, что в точке 0 надо зафиксировать биты 1, 6 и 21.
Фиксация битов в кластере
Будем называть запись номера одного бита рецептором к этому биту. Это подразумевает, что рецептор следит за состоянием соответствующего бита входного вектора и реагирует, когда там появляется единица.
Набор рецепторов будем называть кластером рецепторов или рецептивным кластером. Когда предъявляется входной вектор, рецепторы кластера реагируют, если в соответствующих позициях вектора стоят единицы. Для кластера можно подсчитать количество сработавших рецепторов.
Так как информация у нас кодируется не отдельными битами, а кодом, то от того, сколько битов мы возьмем в кластер, зависит точность, с которой мы сформулируем гипотезу. К статье приложен текст программы, решающий задачу с перекодировкой строк. По умолчанию в программе заданы следующие настройки:
- длина входного вектора — 256 бит;
- длина выходного вектора – 256 бит;
- отдельная буква кодируется 8 битами;
- длина строки — 5 символов;
- количество контекстов смещения — 10;
- размер комбинаторного пространства – 60000;
- количество битов, пересекающихся в точке – 32;
- порог создания кластера – 6;
- порог частичной активации кластера — 4.
При таких настройках практически каждый бит, который есть в коде одной буквы, повторяется в коде другой буквы, а то и в кодах нескольких букв. Поэтому одиночный рецептор не может надежно указать на закономерность. Два рецептора указывают на букву значительно лучше, но и они могут указывать на сочетание совсем других букв. Можно ввести некий порог длины, начиная с которого можно достаточно достоверно судить о том, есть ли в кластере нужный нам фрагмент кода.
Введем минимальный порог по количеству рецепторов, необходимых для формирования гипотезы (в примере он равен 6). Приступим к обучению. Будем подавать исходный код и код, который мы хотим получить на выходе. Для исходного кода легко подсчитать, сколько активных битов попадает в каждую из точек комбинаторного пространства. Выберем только те точки, которые подключены к активным битам выходного кода и у которых количество попавших в нее активных битов входного кода окажется не меньше порога создания кластера. В таких точках создадим кластеры рецепторов с соответствующими наборами битов. Сохраним эти кластеры именно в тех точках, где они были созданы. Чтобы не создавать дубликаты, предварительно проверим, что эти кластеры уникальны для этих точек и точки еще не содержат точно таких же кластеров.
Скажем то же другими словами. По выходному вектору мы знаем, какие биты должны быть активны. Соответственно, мы можем выбрать связанные с ними точки комбинаторного пространства. Для каждой такой точки мы можем сформулировать гипотезу о том, что то, что она сейчас видит на входном векторе, – это и есть закономерность, которая отвечает за активность того бита, к которому эта точка подключена. Мы не можем сказать по одному примеру, верна или нет эта гипотеза, но выдвинуть предположение нам никто не мешает.
Обучение. Консолидация памяти
В процессе обучения каждый новый пример создает огромное количество гипотез, большинство из которых неверны. От нас требуется проверить все эти гипотезы и отсеять ложные. Это мы можем сделать, наблюдая за тем, подтвердятся ли эти гипотезы на последующих примерах. Кроме того, создавая новый кластер, мы запоминаем все биты, которые видит точка, а это, даже если там и содержится закономерность, еще и случайные биты, которые попали туда от других понятий, не влияющих на наш выход, и которые в нашем случае являются шумом. Соответственно, требуется не только подтвердить или опровергнуть, что в запомненной комбинации битов содержится нужная закономерность, но и очистить эту комбинацию от шума, оставив только «чистое» правило.
Возможны разные подходы к решению поставленной задачи. Опишу один из них, не утверждая, что он лучший. Я перебрал множество вариантов, этот подкупил меня качеством работы и простотой, но это не значит, что его нельзя улучшить.
Удобно воспринимать кластеры, как автономные вычислители. Если каждый кластер может проверять свою гипотезу и принимать решения независимо от остальных, то это очень хорошо для потенциального распараллеливания вычислений. Каждый кластер рецепторов после создания начинает самостоятельную жизнь. Он следит за поступающими сигналами, накапливает опыт, меняет себя и принимает если необходимо решение о самоликвидации.
Кластер – это набор битов, про который мы предположили, что внутри него сидит закономерность, связанная со срабатыванием того выходного бита, к которому подключена точка, содержащая этот кластер. Если закономерность есть, то скорее всего она затрагивает только часть битов, причем мы заранее не знаем, какую. Поэтому будем фиксировать все моменты, когда в кластере срабатывает существенное количество рецепторов (в примере не менее 4). Возможно, что в эти моменты закономерность, если она есть, проявляет себя. Когда накопится определенная статистика, мы сможем попробовать определить, есть ли в таких частичных срабатываниях кластера что-то закономерное или нет.
Пример статистики показан на рисунке ниже. Плюс в начале строки показывает, что в момент частичного срабатывания кластера выходной бит также был активен. Биты кластера сформированы из соответствующих битов входного вектора.
Хроника частичного срабатывания кластера рецепторов
Что нас должно интересовать в этой статистике? Нам важно, какие биты чаще других срабатывают совместно. Не спутайте это с самыми частыми битами. Если посчитать для каждого бита частоту его появления и взять самые распространенные биты, то это будет усреднение, которое совсем не то, что нам надо. Если в точке сошлись несколько устойчивых закономерностей, то при усреднении получится средняя между ними «не закономерность». В нашем примере, видно, что 1,2 и 4 строки похожи между собой, также похожи 3,4 и 6 строки. Нам надо выбрать одну из этих закономерностей, желательно самую сильную, и очистить ее от лишних битов.
Наиболее распространенная комбинация, которая проявляется как совместное срабатывание определенных битов, является для этой статистики первой главной компонентой. Чтобы вычислить главную компоненту, можно воспользоваться фильтром Хебба. Для этого можно задать вектор с единичными начальными весами. Затем получать активность кластера, перемножая вектор весов на текущее состояние кластера. А затем сдвигать веса в сторону текущего состояния тем сильнее, чем выше эта активность. Чтобы веса не росли бесконтрольно, после изменения весов их надо нормировать, например, на максимальное значение из вектора весов.
Такая процедура повторяется для всех имеющихся примеров. В результате вектор весов все больше приближается к главной компоненте. Если тех примеров, что есть, не хватает, чтобы сойтись, то можно несколько раз повторить процесс на тех же примерах, постепенно уменьшая скорость обучения.
Основная идея в том, что по мере приближения к главной компоненте кластер начинает все сильнее реагировать на образцы, похожие на нее и все меньше на остальные, за счет этого обучение в нужную сторону идет быстрее, чем «плохие» примеры пытаются его испортить. Результат работы такого алгоритма после нескольких итераций показан ниже.
Результат, полученный после нескольких итераций выделения первой главной компоненты
Если теперь подрезать кластер, то есть оставить только те рецепторы, у которых высокие веса (например, выше 0.75), то мы получим закономерность, очищенную от лишних шумовых битов. Эту процедуру можно повторить несколько раз по мере накопления статистики. В результате можно понять, есть ли в кластере какая-либо закономерность, или мы собрали вместе случайный набор битов. Если закономерности нет, то в результате подрезания кластера останется слишком короткий фрагмент. В этом случае такой кластер можно удалить как несостоявшуюся гипотезу.
Кроме подрезки кластера надо следить за тем, чтобы была поймана именно нужная закономерность. В исходной строке смешаны коды нескольких букв, каждый из них является закономерностью. Любой из этих кодов может быть «пойман» кластером. Но нас интересует код только той буквы, которая влияет на формирование выходного бита. По этой причине большинство гипотез будут ложными и их необходимо отвергнуть. Это можно сделать по тем критериям, что частичное или даже полное срабатывание кластера слишком часто будет не совпадать с активностью нужного выходного бита. Такие кластеры подлежат удалению. Процесс такого контроля и удаления лишних кластеров вместе с их «подрезкой» можно назвать консолидацией памяти.
Процесс накопления новых кластеров достаточно быстрый, каждый новый опыт формирует несколько тысяч новых кластеров-гипотез. Обучение целесообразно проводить этапами с перерывом на «сон». Когда кластеров создается критически много, требуется перейти в режим «холостой» работы. В этом режиме прокручивается ранее запомненный опыт. Но при этом не создается новых гипотез, а только идет проверка старых. В результате «сна» удается удалить огромный процент ложных гипотез и оставить только гипотезы, прошедшие проверку. После «сна» комбинаторное пространство не только оказывается очищено и готово к приему новой информации, но и гораздо увереннее ориентируется в том, что было выучено «вчера».
Выход комбинаторного пространства
По мере того, как кластеры будут накапливать статистику и проходить консолидацию, будут появляться кластеры, достаточно похожие на то, что их гипотеза либо верна, либо близка к истине. Будем брать такие кластеры и следить за тем, когда они будут полностью активироваться, то есть когда будут активны все рецепторы кластера.
Далее из этой активности сформируем выход как хеш комбинаторного пространства. При этом будем учитывать, что чем длиннее кластер, тем выше шанс, что мы поймали закономерность. Для коротких кластеров есть вероятность, что сочетание битов возникло случайно как комбинация других понятий. Для повышения помехоустойчивости воспользуемся идеей бустинга, то есть будем требовать, чтобы для коротких кластеров активация выходного бита происходила только когда таких срабатываний будет несколько. В случае же длинных кластеров будем считать, что достаточно и единичного срабатывания. Это можно представить через потенциал, который возникает при срабатывании кластеров. Этот потенциал тем выше, чем длиннее кластер. Потенциалы точек, подключенных к одному выходному биту, складываются. Если итоговый потенциал превышает определенный порог, то бит активируется.
После некоторого обучения на выходе начинает воспроизводиться часть, совпадающая с тем, что мы хотим получить (рисунок ниже).
Пример работы комбинаторного пространства в процессе обучения (порядка 200 шагов). Сверху исходный код, в середине требуемый код, снизу код, предсказанный комбинаторным пространством
Постепенно выход комбинаторного пространства начинает все лучше воспроизводить требуемый код выхода. После нескольких тысяч шагов обучения выход воспроизводится с достаточно высокой точностью (рисунок ниже).
Пример работы обученного комбинаторного пространства. Сверху исходный код, в середине требуемый код, снизу код, предсказанный комбинаторным пространством
Чтобы наглядно представить, как это все работает, я записал видео с процессом обучения. Кроме того, возможно, мои пояснения помогут лучше разобраться во всей этой кухне.
Усиление правил
Для выявления более сложных закономерностей можно использовать тормозные рецепторы. То есть вводить закономерности, блокирующие срабатывание некоторых утвердительных правил при появлении некой комбинации входных битов. Это выглядит как создание при определенных условиях кластера рецепторов с тормозными свойствами. При срабатывании такого кластера он будет не увеличивать, а уменьшать потенциал точки.
Несложно придумать правила проверки тормозных гипотез и запустить консолидацию тормозных рецептивных кластеров.
Так как тормозные кластеры создаются в конкретных точках, то они влияют не на блокировку выходного бита вообще, а на блокировку его срабатывания от правил, обнаруженных именно в этой точке. Можно усложнить архитектуру связей и ввести тормозные правила, общие для группы точек или для всех точек, подключенных к выходному биту. Похоже, что можно придумать еще много чего интересного, но пока остановимся на описанной простой модели.
Случайный лес
Описанный механизм позволяет найти закономерности, которые в Data Mining принято называть правилами типа «if-then». Соответственно, можно найти что-то общее между нашей моделью и всеми теми методами, что традиционно используются для решения таких задач. Пожалуй, наиболее близок к нам «random forest».
Этот метод начинается с идеи «случайных подпространств». Если в исходных данных слишком много переменных и эти переменные слабо, но коррелированы, то на полном объеме данных становится трудно вычленить отдельные закономерности. В таком случае можно создать подпространства, в которых будут ограничены как используемые переменные, так и обучающие примеры. То есть каждое подпространство будет содержать только часть входных данных, и эти данные будут представлены не всеми переменными, а их случайным ограниченным набором. Для некоторых из этих подпространств шансы обнаружить закономерность, плохо видимую на полном объеме данных, значительно повышаются.
Затем в каждом подпространстве на ограниченном наборе переменных и обучающих примеров производится обучение решающего дерева. Решающее дерево – это древовидная структура (рисунок ниже), в узлах которой происходит проверка входных переменных (атрибутов). По результатам проверки условий в узлах определяется путь от вершины к терминальному узлу, который принято называть листом дерева. В листе дерева находится результат, который может быть значением какой-либо величины или номером класса.
Пример дерева принятия решений
Для решающих деревьев существуют различные алгоритмы обучения, которые позволяют построить дерево с более-менее оптимальными атрибутами в его узлах.
На завершающем этапе применяется идея бустинга. Решающие деревья формируют комитет для голосования. На основании коллективного мнения создается наиболее правдоподобный ответ. Главное достоинство бустинга – это возможность при объединении множества «плохих» алгоритмов (результат которых лишь немного лучше случайного) получить сколь угодно «хороший» итоговый результат.
В нашем алгоритме, эксплуатирующем комбинаторное пространство и кластеры рецепторов, используются те же фундаментальные идеи, что и в методе случайного леса. Поэтому нет ничего удивительного, что наш алгоритм работает и выдает неплохой результат.
Биология обучения
Собственно, в этой статье описана программная реализация тех механизмов, которые были описаны в предыдущих частях цикла. Поэтому не будем повторять все с самого начала, отметим лишь основное. Если вы забыли о том, как работает нейрон, то можно перечитать вторую часть цикла.
На мембране нейрона располагается множество различных рецепторов. Большинство этих рецепторов находится в «свободном плавании». Мембрана создает для рецепторов среду, в которой они могут свободно перемещаться, легко меняя свое положение на поверхности нейрона (Sheng, M., Nakagawa, T., 2002) (Tovar K. R.,Westbrook G. L., 2002).
Мембрана и рецепторы
В классическом подходе на причинах такой «свободы» рецепторов обычно акцент не делается. Когда синапс усиливает свою чувствительность, это сопровождается перемещением рецепторов из внесинаптического пространства в синаптическую щель (Malenka R.C., Nicoll R.A., 1999). Этот факт негласно воспринимается как оправдание подвижности рецепторов.
В нашей модели можно предположить, что основная причина подвижности рецепторов – это необходимость «на лету» формировать из них кластеры. То есть картина выглядит следующим образом. По мембране свободно дрейфуют самые разные рецепторы, чувствительные к различным нейромедиаторам. Информационный сигнал, возникший в миниколонке, вызывает выброс нейромедиаторов аксонными окончаниями нейронов и астроцитами. В каждом синапсе, где испускаются нейромедиаторы, кроме основного нейромедиатора присутствует своя уникальная добавка, которая идентифицирует именно этот синапс. Нейромедиаторы выплескиваются из синаптических щелей в окружающее пространство, за счет чего в каждом месте дендрита (точках комбинаторного пространства) возникает специфический коктейль нейромедиаторов (ингредиенты коктейля указывают на биты, попадающие в точку). Те свободно блуждающие рецепторы, которые находят в этот момент свой нейромедиатор в этом коктейле (рецепторы конкретных битов входного сигнала), переходят в новое состояние – состояние поиска. В этом состоянии у них есть небольшое время (до того момента, пока не наступит следующий такт), за которое они могут встретить другие «активные» рецепторы и создать общий кластер (кластер рецепторов, чувствительных к определенному сочетанию битов).
Метаботропные рецепторы, а речь идет о них, имеют достаточно сложную форму (рисунок ниже). Они состоят из семи трансмембранных доменов, которые соединены петлями. Кроме того, у них есть два свободных конца. За счет разных по знаку электростатических зарядов свободные концы могут через мембрану «залипать» друг на друга. За счет таких соединений рецепторы и объединяются в кластеры.
Одиночный метаботропный рецептор
После объединения начинается совместная жизнь рецепторов в кластере. Можно предположить, что положение рецепторов относительно друг друга может меняться в широких пределах и кластер может принимать причудливые формы. Если допустить, что рецепторы, срабатывающие совместно, будут стремиться занять место ближе друг к другу, например, за счет электростатических сил, то получится интересное следствие. Чем ближе будут оказываться такие «совместные» рецепторы, тем сильнее будет их совместное притяжение. Сблизившись они начнут усиливать влияние друг друга. Такое поведение воспроизводит поведение фильтра Хебба, который выделяет первую главную компоненту. Чем точнее фильтр настраивается на главную компоненту, тем сильнее оказывается его реакция, когда она появляется в примере. Таким образом, если после ряда итераций совместно срабатывающие рецепторы окажутся вместе в условном «центре» кластера, а «лишние» рецепторы на удалении, на его краях, то, в принципе, такие «лишние» рецепторы могут в какой-то момент самоликвидироваться, то есть просто оторваться от кластера. И тогда мы получим поведение кластера, аналогичное тому, что описано выше в нашей вычислительной модели.
Кластеры, которые прошли консолидацию, могут переместиться куда-нибудь «в тихую гавань», например, в синаптическую щель. Там существует постсинаптическое уплотнение, за которое кластеры рецепторов могут якориться, теряя уже ненужную им подвижность. Поблизости от них будут находиться ионные каналы, которыми они смогут управлять через G-белки. Теперь эти рецепторы начнут влиять на формирование локального постсинаптического потенциала (потенциала точки).
Локальный потенциал складывается из совместного влияния расположенных рядом активирующих и тормозящих рецепторов. В нашем подходе активирующие отвечают за узнавание закономерностей, призывающих активировать выходной бит, тормозящие за определение закономерностей, которые блокируют действие локальных правил.
Синапсы (точки) расположены на дендритном дереве. Если где-то на этом дереве находится место, где на небольшом участке срабатывает сразу несколько активирующих рецепторов и это не блокируется тормозными рецепторами, то возникает дендритный спайк, который распространяется до тела нейрона и, дойдя до аксонного холмика, вызывает спайк самого нейрона. Дендритное дерево объединяет множество синапсов, замыкая их на один нейрон, что очень похоже на формирование выходного бита комбинаторного пространства.
Объединение сигналов с разных синапсов одного дендритного дерева может быть не простым логическим сложением, а быть сложнее и реализовывать какой-нибудь алгоритм хитрого бустинга.
Напомню, что базовый элемент коры – это кортикальная миниколонка. В миниколонке около ста нейронов расположены друг под другом. При этом они плотно окутаны связями, которые гораздо обильнее внутри миниколонки, чем связи, идущие к соседним миниколонкам. Вся кора мозга – это пространство таких миниколонок. Один нейрон миниколонки может соответствовать одному выходному биту, все нейроны одной кортикальной миниколонки могут быть аналогом выходного бинарного вектора.
Кластеры рецепторов, описанные в этой главе, создают память, ответственную за поиск закономерностей. Ранее мы описывали, как с помощью кластеров рецепторов создать голографическую событийную память. Это два разных типа памяти, выполняющие разные функции, хотя и основанные на общих механизмах.
Сон
У здорового человека сон начинается с первой стадии медленного сна, которая длится 5-10 минут. Затем наступает вторая стадия, которая продолжается около 20 минут. Еще 30-45 минут приходится на периоды третей и четвертой стадий. После этого спящий снова возвращается во вторую стадию медленного сна, после которой возникает первый эпизод быстрого сна, который имеет короткую продолжительность — около 5 минут. Во время быстрого сна глазные яблоки очень часто и периодически совершают быстрые движения под сомкнутыми веками. Если в это время разбудить спящего, то в 90% случаев можно услышать рассказ о ярком сновидении. Вся эта последовательность называется циклом. Первый цикл имеет длительность 90-100 минут. Затем циклы повторяются, при этом уменьшается доля медленного сна и постепенно нарастает доля быстрого сна, последний эпизод которого в отдельных случаях может достигать 1 часа. В среднем при полноценном здоровом сне отмечается пять полных циклов.
Можно предположить, что во сне происходит основная работа по расчистке кластеров рецепторов, накопившихся за день. В вычислительной модели мы описали процедуру «холостого» обучения. Старый опыт предъявляется мозгу, не вызывая формирования новых кластеров. Цель – проверка уже существующих гипотез. Такая проверка состоит из двух этапов. Первый — вычисление главной компоненты закономерности и проверка того, что количество битов, отвечающих за нее, достаточно для четкой идентификации. Второй – проверка истинности гипотезы, то есть того, что закономерность оказалась в нужной точке, связанной с нужным выходным битом. Можно предположить, что часть стадий ночного сна связана с такими процедурами.
Все процессы, связанные с изменениями в клетках, сопровождаются экспрессией определенных белков и транскрипционных факторов. Есть белки и факторы про которые показано, что они участвут в формировании нового опыта. Так вот, оказывается, что их количество сильно увеличивается во время бодрствования и резко уменьшается во время сна.
Увидеть и оценить концентрацию белков можно через окрашивание среза мозговой ткани красителем, избирательно реагирующим на требуемый белок. Подобные наблюдения показали, что наиболее масштабные изменения для белков, связанных с памятью, происходят именно во время сна (Chiara Cirelli, Giulio Tononi, 1998) (Cirelli, 2002) (рисунки ниже).
Распределение белка Arc в теменной коре крысы после трех часов сна (S) и после трех часов спонтанного бодрствования (W) (Cirelli, 2002)
Распределение транскрипционного фактора P-CREB в корональных участках теменной коры крысы после трех часов сна (S) и в случае лишения сна на три часа (SD) (Cirelli, 2002)
В такие рассуждения о роли сна хорошо укладывается известная каждому особенность – «утро вечера мудренее». Утром мы гораздо лучше ориентируемся в том, что еще вчера было не особо понятно. Все становится четче и очевиднее. Возможно, что этим мы обязаны именно масштабной расчистке кластеров рецепторов, произошедшей во время сна. Удаляются ложные и сомнительные гипотезы, достоверные проходят консолидацию и начинают активнее участвовать в информационных процессах.
При моделировании было видно, что количество ложных гипотез во многие тысячи раз превышает количество истинных. Так как отличить одни от других можно только временем и опытом, то мозгу не остается ничего другого, кроме как копить всю эту информационную руду в надежде найти в ней со временем граммы радия. При получении нового опыта количество кластеров с гипотезами, требующими проверки, постоянно растет. Количество кластеров, формирующихся за день и содержащих руду, которую еще предстоит обработать, может превышать количество кластеров, отвечающих за кодирование накопленного за всю предыдущую жизнь проверенного опыта. Ресурс мозга по хранению сырых гипотез, требующих проверки должен быть ограничен. Похоже, что за 16 часов дневного бодрствования кластерами рецепторов практически полностью забивается все доступное пространство. Когда наступает этот момент, мозг начинает принуждать нас перейти в режим сна, чтобы позволить ему выполнить консолидацию и расчистить свободное место. Видимо, процесс полной расчистки занимает около 8 часов. Если разбудить нас раньше, то часть кластеров останется необработанной. Отсюда происходит феномен того, что усталость накапливается. Если несколько дней недосыпать, то потом придется наверстывать упущенный сон. В противном случае мозг начинает «аварийно» удалять кластеры, что ни к чему хорошему не приводит, так как лишает нас возможности почерпнуть знания из полученного опыта. Событийная память скорее всего сохранится, но закономерности останутся невыявленными.
Кстати, мой личный совет: не пренебрегайте качественным сном, особенно если вы учитесь. Не пытайтесь сэкономить на сне, чтобы больше успеть. Сон не менее важен в обучении, чем посещение лекций и повтор материала на практических занятиях. Недаром дети в те периоды развития, когда накопление и обобщение информации идет наиболее активно, большую часть времени проводят во сне.
Быстродействие мозга
Предположение о роли рецептивных кластеров позволяет по-новому взглянуть на вопрос быстродействия мозга. Ранее мы говорили, что каждая миниколонка коры, состоящая из сотни нейронов – это самостоятельный вычислительный модуль, который рассматривает трактовку поступающей информации в отдельном контексте. Это позволяет одной зоне коры рассматривать до миллиона возможных вариантов трактовки одновременно.
Теперь можно предположить, что каждый кластер рецепторов может работать как автономный вычислительный элемент, выполняя весь цикл вычислений по проверке своей гипотезы. Таких кластеров в одной только кортикальной колонке может быть сотни миллионов. Это значит, что, хотя частоты, с которыми работает мозг, далеки от частот, на которых работают современные компьютеры, тревожиться о быстродействии мозга не стоит. Сотни миллионов кластеров рецепторов, работающих параллельно в каждой миниколонке коры, позволяют успешно решать сложные задачи, находящиеся на границе с комбинаторным взрывом. Чудес не бывет. Но можно научиться ходить по грани.
Текст приведенной программы доступен на GitHub. В коде оставлено достаточно много отладочных фрагментов, я не стал их удалять, а только закомментировал на случай, если кому-то захочется самостоятельно поэкспериментировать.
Алексей Редозубов
Логика сознания. Часть 1. Волны в клеточном автомате
Логика сознания. Часть 2. Дендритные волны
Логика сознания. Часть 3. Голографическая память в клеточном автомате
Логика сознания. Часть 4. Секрет памяти мозга
Логика сознания. Часть 5. Смысловой подход к анализу информации
Логика сознания. Часть 6. Кора мозга как пространство вычисления смыслов
Логика сознания. Часть 7. Самоорганизация пространства контекстов
Логика сознания. Пояснение «на пальцах»
Логика сознания. Часть 8. Пространственные карты коры мозга
Логика сознания. Часть 9. Искусственные нейронные сети и миниколонки реальной коры
Логика сознания. Часть 10. Задача обобщения
Логика сознания. Часть 11. Естественное кодирование зрительной и звуковой информации
Логика сознания. Часть 12. Поиск закономерностей. Комбинаторное пространство
Логика сознания. Часть 13. Мозг, смысл и конец света
В одном из предыдущих уроков ты узнал о свойствах предметов и как они связаны с математикой. На этом уроке ты познакомишься с понятием — математическая закономерность.
Закономерность — постоянно повторяющаяся взаимосвязь явлений, действий или свойств предметов.
Закономерности, как и свойства предметов связаны с математикой и с логикой. Зная закономерность, ты точно можешь знать, что будет дальше. После четверга точно будет пятница, после 10 часов утра будет 11 часов утра. Последовательность действий, явлений, свойств или событий в закономерности всегда определена, то есть мы точно знаем что будет дальше.
Типы закономерностей
Существует несколько типов закономерностей: убывающие, возрастающие, циклические и сложные закономерности. Давайте познакомимся с каждой подробнее.
Возрастающая закономерность
Закономерность, у которой числовое свойство увеличивается согласно некоторому закону или формуле, называется возрастающей.
Например, дерево растет и на его стволе каждый год добавляется одно новое кольцо. Этот процесс называется простой возрастающей закономерностью. В этой закономерности легко вычислить, сколько колец будет через 2 года или через 10 лет. Количество колец в стволе соответствует возрасту дерева.
Приведем пример возрастающей закономерности, которая сложнее чем в примере с деревом. Представьте одноклеточный организм, который каждую минуту делится на две клетки. На картинке хорошо видно, что в первую минуту мы видим 1 клетку, во вторую — уже 2 клетки, а затем 4 клетки, 8, 16. Каждую минуту количество увеличивается в 2 раза. Зная предыдущее количество, можно узнать, сколько будет клеток в следующую минуту. Этот процесс называется тоже возрастающей закономерностью. Для настоящих математиков будет несложно установить формулу увеличения закономерности для этого примера. Эта задача для тебя еще сложная, так как ты только начали изучать математику. Главное сейчас чтобы ты понять, что такое закономерность.
Убывающая закономерность
Закономерность, у которой числовое свойство уменьшается согласно некоторому закону или формуле, называется убывающей.
Представьте соревнования по поеданию сосисок на скорость, в которых участвуют два участника. У каждого по 10 сосисок на тарелке (это столько, сколько у тебя пальцев на руках). Первый съедает одну сосиску за минуту, а второй съедает 2 сосиски за минуту. Ясно, что второй участник соревнований победит, так как он съедает больше сосисок за минуту, чем первый участник. Но нам важно увидеть закономерность. На рисунке мы можем увидеть, как в каждой тарелке уменьшается количество сосисок. Этот процесс называется убывающей закономерностью. Второй участник съел всю тарелку сосисок за пять минут и победил!
Циклическая закономерность
Закономерность, которая повторяется каждый раз, называется циклической. Полный круг в циклической закономерности называется циклом закономерности.
Ты точно знаешь закономерность такого типа — это смена времен года. Весна-Лето-Осень-Зима и потом происходит повторение.
Рассмотрим пример с предметами разной формы. На рисунке ты видишь цепочку из разного количества предметов. Попробуй найти закономерность на рисунке ниже. Продолжи цепочку.
Предметы повторяются через каждые три ячейки. Зная закономерность, мы можем предположить, какие предметы будут дальше. За последним звеном будет треугольник, затем круг, далее квадрат.
Сложные закономерности
Закономерности, которые состоят из нескольких видов закономерностей или имеют несколько свойств, называются сложными.
Рассмотрим пример закономерностей на одной и той же цепочке, но будем искать закономерности в зависимости от свойства звеньев. Попробуй найти следующее звено в примере ниже.
Закономерность по форме
Видим, как чередуются звенья цепочки. Точно знаем, что по форме следующим будет круг, обозначим его как большой круг
Закономерность по размеру
Видим, как чередуются звенья цепочки: большая и затем две маленькие фигуры, то есть следующей будет маленькая фигура.
Закономерность по цвету
Получилась самая длинная закономерность в цепочке, выделим ее и определим, какой будет следующий цвет.
Как видишь, закономерность зависит от свойств элементов цепочки. Для одной и той же цепочки мы нашли различные закономерности в зависимости от свойства. Объединим полученные результаты и узнаем, какое звено будут следующим.
Алгоритм поиска закономерностей
Давайте еще раз повторим все шаги для выявления закономерностей.
- Определяем количество свойств цепочки;
- Определяем закономерность для каждого свойства;
- Сопоставляем закономерности для определения всех свойств следующего звена в цепочке.
Поиск закономерностей — это очень хороший навык для юного математика. В будущем, когда ты будешь изучать цифры, тебе обязательно этот навык пригодится. Мы создали набор тестов, где ты сможешь потренироваться в поиске закономерностей. Попробуй пройти все тесты с хорошим результатом и двигайся дальше в изучении математики.





















































































































































































четная, то есть 
определена для всех 
когда 





















































появлений событий и времени
и не зависит от момента своего начала.








































































































































































































































































элементов простой случайной выборки, например, 









































и наименьшее
значения варианты
и обозначить размах вариант 
Число классов
следует принимать непарным, и при общем числе замеров
целесообразно брать
а при
можно брать 
Для упрощения расчетов, полученное значение
округлили в любую сторону.
каждого класса. При расчете числа вариант значения
что находится на границе классов, следует относить к одному и тому же классу, например, к тому классу, что является к следующему классу, где это число встречалось ранее. Оно, таким образом, станет нижней границей класса. 

























































































































































































альтернативную к гипотезе 
























































































