Здесь, коротко рассмотрим основные
вопросы систематизации (классификации)
случайных процессов.
Случайный процесс, протекающий
(проходящей) в любой физической системе
,
представляет собой случайные переходы
системы из одного состояния в другое.
В зависимости от множества этих состоянийот множества
значений
аргументавсе случайные процессы делят на классы
(группы):
1. Дискретный процесс (дискретное
состояние) с дискретным временем.
2.Дискретный процесс с непрерывным
временем.
3. Непрерывный процесс (непрерывное
состояние) с дискретным временем.
4. Непрерывный процесс с непрерывным
временем.
В 1-м 3-м случаях множестводискретно,
т.е. аргументпринимает дискретные значения
обычно
в
1-м случае множество значений
случайной функцииопределяются равенствами:
,
является дискретное множество(множество
конечно
или счетное).
В третьем случае множество
несчётно,
т.е. сечение случайного процесса в любой
момент временипредставляет
собой непрерывную случайную величину.
Во 2-м и 4-м случаях множество
непрерывно,
во втором случае множество состояний
системыконечно
или счетное, а в четвёртом случае
множествонесчётное.
Приведём некоторые примеры случайных
процессов 1-4 классов соответственно:
1. Хоккеист может забить или не забить
один или несколько шайб в ворота соперника
во время матчей, проводимых в определенные
моменты (согласно расписанию игр) времени
Случайный процесс
есть
число забитых шайб до момента.
2. Случайный процесс
—
количество просмотренных фильмов в
кинотеатре «Звезда»
от
начала работы кинотеатра до момента
времени
.
3. В определённые моменты времени
измеряется
температурабольного в некотором лечебном центре.
—
является случайный процесс непрерывного
типа с дискретным временем.
4. Показатель уровня влажности воздуха
в течение сутки в городе А.
Можно рассматривать и другие более
сложные классы случайных процессов.
Для каждого класса случайных процессов
разрабатываются соответствующие методы
их изучения.
Можно найти ряд разнообразные и интересные
примеры случайных потоков в учебниках
[1], [В. Феллер, ч 1,2 ] и в монографии [C.
Карлин. Основы теории случайных
процессов. Издательство «Мир» Москва
-1971] . Здесь мы на этом ограничимся.
Для случайных процессов также вводятся
простеющие функциональные характеристики,
зависящие от параметра
,
аналогичные основным числовым
характеристикам случайных величин.
Знание этих характеристик, достаточно
для решения многих задач (напомним, что
полная характеристика случайного
процесса даётся её многомерным
(конечномерным) законом распределения.
В отличие числовых характеристик
случайных величин в общем случае
функциональные характеристики
представляют собой определённые функции.
4. Математическое ожидание и дисперсия случайного процесса
Математическим ожиданием случайного
процесса
называется неслучайная функция
определённая при любом фиксированном
значении аргументаравна математическому ожиданию
соответствующего сечения случайного
процесса:
(12)
.
Для
краткого обозначения математического
ожидания с.п. применяют также обозначение
.
Функция
характеризует поведение случайного
процесса в среднем. Геометрический
смысл математического ожиданияистолковывается
как «средняя кривая», около которой
расположены кривые-реализации (см. рис.
60).
(см. рис. 60 Письм.).
На основании свойства математического
ожидания случайной величины и учитывая,
что
случайный процесс, а
неслучайная
функция, получаемсвойства математического
ожиданияслучайного процесса:
1. Математическое ожидание неслучайной
функции равно самой функции:.
2. Неслучайный
множитель (неслучайную функцию) можно
выносить за знак математического
ожидания случайного процесса, т.е..
3. Математическое ожидание суммы
(разности) двух случайных процессов
равно сумме
(разности)
математических ожиданий слагаемых,
т.е.
Отметим,
что если зафиксируем аргумент (параметр)
,
то переходим от случайного процесса к
случайной величине (т.е. переходим к
сечению случайного процесса), можно
найти м.о. этого процесса при этом
фиксированном
Поскольку, если сечение с.п.
при заданном
есть
непрерывная с.в. с плотностьюто
его математическое ожидание можно
вычислить по формуле
(13)
.
Пример 2. Пусть с.п. определяется
формулой,
т.е.с.в.,
распределена
по нормальному закону с
Найти математического ожидания случайного
процесса
Решение. По свойству 2. имеем
,
так как
и следовательно,.
Упражнение. Вычислить математическое
ожидание воспользуюсь, равенствами

,
а затем
на основании формулы (13) вычислить
интеграл и убедиться, что результат
будет тот же самый.
Указание.Воспользоваться равенством

Дисперсия случайного процесса.
Дисперсией случайного процесса
называется неслучайная функция
(14)
.
Дисперсия
с.п. рассматривается, также характеризуют
разброс (рассеяние) возможных значений
с.п. относительно его математического
ожидания.
Наряду с дисперсией с.п. рассматривается
также среднее квадратическое отклонение
(коротко с.к.о.), которое определяется
равенством
(15)
Размерность
функции
равна размерности с.п.
.
Значения реализаций с.п. при каждом
отклоняется
от математического ожиданияна
величину порядка(см. рис 60).
Отметим простейшие свойства дисперсии
случайных процессов.
1. Дисперсия неслучайной функции
равна
нулю, т.е.
2. Дисперсия случайного процесса
неотрицательна
т.е.
3. Дисперсия произведения неслучайной
функции
на случайную функцию
равна произведению квадрата неслучайной
функции на дисперсию случайной функции,
т.е.
.
4. Дисперсия суммы с.п.
и
неслучайной функцииравна дисперсии с.п., т.е.
Пример 3. Пусть с.п. определяется
формулой,
т.е.с.в.
распределена
по нормальному закону с
Найти дисперсию и среднее квадратическое
отклонение с.п.
.
Решение. Вычислим дисперсию на
основании формулы из свойства 3. Имеем
но
,
следовательно, по определению дисперсии
с.в.
Следовательно,
т.е.
и
Содержание:
Случайные процессы:
Пусть T – некоторое множество действительных чисел. Случайной функцией называется совокупность случайных величин
Что такое случайный процесс
При наблюдении случайной функции мы получаем одну из возможных ее реализаций – неслучайную функцию. Поэтому случайную функцию можно рассматривать как совокупность всех ее возможных реализаций (см. рис. 4.1, на котором жирной линией выделена одна из возможных реализаций, а точками отмечены возможные значения случайной величины
Если роль параметра t играет время, то случайную функцию называют случайным процессом. Если параметр дискретный, то соответствующие ему случайные величины образуют случайную последовательность.
С изменением параметра t изменяется и закон распределения случайной величины 
Если функция распределения 
называется функцией плотности вероятности.
Для дискретной случайной величины одномерный закон распределения задается перечислением возможных значений и соответствующих им вероятностей
Конечномерным законом распределения случайной функции 
Проследить за изменениями всех возможных значений случайной величины и соответствующих им вероятностей, как правило, практически невозможно. Поэтому обычно ограничиваются анализом числовых характеристик случайной величины 
Математическим ожиданием случайного процесса 

Дисперсией случайного процесса 

На рис. 4.2 и рис. 4.3 изображены несколько реализаций соответственно случайных процессов 



Для описания этих особенностей процесса существует специальная характеристика, которая называется корреляционной функцией (иногда говорят об автокорреляционной функции).
Корреляционной функцией случайного процесса 



При равных между собой аргументах 
Свойства корреляционной функции
Отметим некоторые свойства корреляционной функции:
1. При перестановке аргументов корреляционная функция не меняется:
2. Прибавление к случайной функции 


3. При умножении случайной функции 



При решении некоторых научно-технических задач приходится иметь дело со случайными процессами, которые удается описать комбинацией простых (элементарных) функций, в которые в качестве параметров входят случайные величины. Такие случайные функции называют элементарными случайными функциями.
Например, 
Пример №1
Элементарная случайная функция имеет вид 




Решение. Обозначим 



Поэтому
так как для показательного закона распределения 
Для показательного закона распределения двукратное интегрирование по частям дает
а
Поэтому и при 

Для вычисления дисперсии возьмем в полученном выражении
Ответ.
Пример №2
Пусть 
Говорят, что последовательность 







Решение. Вычислим
Тогда 
– это геометрический закон распределения.
Но для геометрического закона распределения 



Ответ.
Пример №3
Пусть 

Решение. Так как математические ожидания случайных величин равны нулю, то 
При
При
При остальных s = 2,3,… величина
Ответ. 
Пример №4
Все положения случайной точки (X,Y) равновозможны в области 



Решение. По свойствам математического ожидания
Так как площадь области D равна 



Маргинальная плотность вероятности случайной величины X равна
Поэтому
Аналогично, 
Вычислим дисперсию X. Так как
то 

Вычислим теперь корреляционную функцию процесса:
Вычислим
Но 
С учетом этого получаем
Ответ.
Взаимной корреляционной функцией двух случайных функций X(t) и Y(t) называют неслучайную функцию 
Коррелированными называют две случайные функции, если их взаимная корреляционная функция не равна тождественно нулю. В противном случае говорят о некоррелированных случайных функциях.
Если рассматривать многомерный случайный процесс 

Эти характеристики описывают поведение отдельно взятых координат случайного процесса, но не учитывают взаимодействие между ними. В качестве характеристики взаимозависимости координат случайного процесса используют взаимную корреляционную функцию 



В терминах характеристик второго порядка, например, двумерный случайный процесс 

Наглядным примером двумерного случайного процесса (или случайного поля) может служить поверхность моря.
Пример №5
Даны два случайных процесса
где случайные величины U и V независимы и имеют равные дисперсии 
Решение. Так как 
Аналогично, 
Величины U и V независимы, а значит и некоррелированы. Поэтому 


Ответ.
Пример №6
Даны два случайных процесса 



Решение. Так как
Ответ.
Пусть X(t) и Y(t) – две случайные функции, а случайная функция Z(t) равна 
Математическое ожидание суммы двух случайных функций равно сумме математических ожиданий этих функций:
Заметим, что
Поэтому
Легко видеть, что для процесса 
Пример №7
Случайный процесс 



Решение. Прежде всего вычислим математические ожидания случайных процессов. Случайная величина 


Вычислим величины необходимые для использования формулы (4.1):
Аналогично, 
Ответ.
Стационарные случайные процессы
Случайный процесс называется стационарным, если все его характеристики не зависят от времени.
Определение. Случайная функция X(t) называется строго стационарной (стационарной в узком смысле), если все ее конечномерные законы распределения не изменяются от сдвига параметра (времени) на произвольную величину t0. Это в частности означает, что ее математическое ожидание и дисперсия постоянны, а корреляционная функции зависит только от разности аргументов.
Определение. Случайная функция X(t) называется стационарной в широком смысле, если ее математическое ожидание постоянно, а корреляционная функции зависит только от разности аргументов т.е.
Так как 
Пример 4.8.
Дан случайный процесс 


Решение. Для доказательства необходимо проверить выполнение условий (4.1.1). Найдем математическое ожидание
так как
где 


так как
Итак, 


Ответ. Процесс стационарен в широком смысле.
Пример 4.9.
Значения случайного процесса X(t) изменяются скачками в случайные моменты времени 

В интервале , 

Необходимо найти 
Решение. В произвольный момент времени t значения процесса имеют распределение
Поэтому 
Заметим, что если между моментами t1 и t2 не было скачков процесса (вероятность чего по формуле (4.1.2) равна 

Если же между моментами t1 и t2 скачки были, то величины X(t1) и X(t2) независимы и 
Итак, математическое ожидание и дисперсия процесса постоянны, а корреляционная функция зависит только от разности значений аргументов. Это означает, что процесс стационарен в широком смысле.
Ответ. 
Пример 4.10.
Случайный процесс X(t) строится следующим образом. В некоторый случайный момент времени T появляется прямоугольный импульс длительности t0 и случайной амплитудой A1. В момент времени 
Требуется найти 
Решение. Для любого момента времени t:
Обозначим 


Случайный процесс центрирован 
Если вместе 

Вероятность этого
Если же 

в силу независимости случайных величин 




Постоянное значение математического ожидания процесса и зависимость корреляционной функции 

Ответ. 



Пример 4.11.
Случайный процесс X(t) строится следующим образом. На числовой оси 





Требуется найти математическое ожидание, дисперсию и ковариационную функцию этого случайного процесса.
Решение. Так как моменты изменения знака никак не связаны со значениями процесса X(t), нет оснований считать, что какое либо из значений (

Рассмотрим значения процесса в произвольные моменты времени t1 и t2. Так как 
Произведение 


Вероятность появления за время 
Тогда
Следовательно,
Аналогично, при 
Полученные выражения для 
График этой функции изображен на рис. 4.1.5.
Дисперсия процесса равна
Ответ. 
Пример 4.12.
Случайный процесс X(t) устроен следующим образом. На оси времени реализуется простейший поток событий интенсивности 
Требуется найти математическое ожидание 


Решение. Каждый скачок процесса равен единице. Поэтому значение процесса в момент времени t можно записать в виде
где N(t) – число скачков за время t.
Случайная величина N(t) имеет пуассоновский закон распределения, причем
Поэтому
Так как 
В свою очередь
Так как случайные величины 



В итоге имеем
Аналогично, при 

Нормированная корреляционная функция:
Если 



Ответ.
Пример 4.13.
Случайный процесс X(t) изменяет свое состояние в моменты времени, которые образуют простейший поток интенсивности 
Замечание. Описанный процесс может служить простейшей математической моделью воздействия потока электронов на анод. Поток электронов от катода к аноду близок к простейшему потоку некоторой интенсивности 
Решение. Результат воздействия 





где 


Так как поток скачков простейший, то за время t произойдет случайное число скачков N, распределенных по закону Пуассона с параметром 
Воспользуемся следующим фактом: Простейший поток событий на (0, )t можно представить как совокупность случайного числа точек, каждая из которых равномерно распределена на 
где все 


(Здесь мы воспользовались тем, что математическое ожидание суммы случайного числа одинаково распределенных случайных величин равно произведению математического ожидания числа этих величин на математическое ожидание одной из них.)
Так как число слагаемых N распределено по закону Пуассона, то
Каждая из величин равномерно распределена в 
В итоге
Кроме того,
Рассмотрим два момента времени t1 и t2 


Величины X(t1), и 


Аналогично, при 
Поэтому 
С учетом (4.1.5), (4.1.6) и того, что 
В итоге,
Ответ.
Стационарная в широком смысле функция X(t), представимая во всей области определения в виде
где Uk и Vk – центрированные случайные величины, удовлетворяющие условиям 


Такая случайная функция имеет автокорреляционную функцию
Равенство (4.1.7) называют спектральным разложением случайного процесса, а равенство (4.1.8) спектральным разложением корреляционной функции. Представление (4.1.8) показывает, что дисперсия процесса является суммой дисперсий отдельных гармоник на частотах 
Говорят, что стационарная случайная функция X(t) является случайной функцией с непрерывным спектром, если существует такая действительная неотрицательная функция 

Функцию 




В силу четности корреляционной функции стационарного процесса и
его спектральной плотности формулы (4.1.9) и (4.1.10) можно записать в
виде:
Формулы (4.1.11) и (4.1.12) означают, что корреляционная функция и спектральная плотность связаны взаимно обратными преобразованиями Фурье. Выражения вида (4.1.11) называют интегралом Фурье. Интеграл Фурье является обобщением разложения в ряд Фурье для случая непериодической функции на бесконечном интервале. Это разложение функции на сумму простых гармонических колебаний с непрерывным спектром.
Заметим, что дисперсию стационарного случайного процесса с непрерывным спектром можно выразить в виде интеграла от спектральной плотности:
Пример 4.14.
Корреляционная функция стационарного случайного процесса X(t) имеет вид
Требуется найти спектральную плотность процесса.
Решение. В соответствии с формулой (4.1.12)
Вычислим сначала первый интеграл
Аналогично
Поэтому
Ответ.
Спектральная плотность производной от случайной функции X(t) связана со спектральной плотностью этой функции 
Пример 4.15.
Спектральная плотность случайной функции X(t) имеет вид 
Решение. Согласно (4.1.13) спектральная плотность производной X'(t) имеет вид 
Ответ.
Пусть

Так как
Аналогично
Пример 4.16.
Спектральная плотность случайного стационарного процесса X(t) имеет вид: 


Решение. Так как функция 
Ответ.
Пример 4.17.
Задана спектральная плотность стационарного случайного процесса
Требуется найти корреляционную функцию этого процесса.
Решение. По формуле (4.1.11) получим:
Непосредственно вычислять такой интеграл трудно. Поэтому воспользуемся следующим приемом. Продифференцируем обе части равенства:
Проинтегрируем по частям: 
Тогда 


В итоге обнаружилась возможность найти 
Это уравнение с разделяющимися переменными. Его общее решение:
Для определения произвольной постоянной зададим начальное условие
(Напомним, что интеграл Пуассона 
При таком начальном условии 
Заметим, что и спектральная плотность, и корреляционная функция этого процесса относятся к типу гауссовских кривых.
Ответ.
Преобразование случайных процессов динамическими системами
Для случайных процессов оказалось целесообразным расширить трактовку некоторых понятий математического анализа.
Говорят, что случайная последовательность 
(этот факт записывают кратко 
Случайный процесс X(t) называется стохастически непрерывным в точке 
Случайная величина X'(t) называется среднеквадратической производной случайной функции X(t) в точке 
Пусть имеется некоторая динамическая система. Под динамической системой понимается любое радиотехническое устройство, прибор, прицел, система автоматического управления, автопилот, вычислительное устройство и т.д.
На вход системы непрерывно подаются некоторые данные, система их перерабатывает и выдает результат этой переработки. Иногда входящие в систему данные называют «воздействием» или «сигналом», данные на выходе называют «реакцией» или «откликом» на воздействие. Обычно вместе с полезным сигналом поступают и случайные помехи, которые тоже перерабатываются динамической системой и влияют на отклик. Поэтому в общем виде ставится формальная задача о переработке динамической системой некоторого случайного процесса X(t). На выходе тоже получается случайный процесс Y(t). Схема описанной системы приведена на рисунке 4.2.1.
Естественно возникает вопрос: как по характеристикам X(t), с учетом особенностей динамической системы, найти характеристики сигнала на выходе?
С формальной точки зрения, каждая динамическая система задает некоторое соответствие между сигналами на входе и откликами на выходе.
Правило, по которому функция X(t) на входе преобразуется в функцию Y(t) на выходе, называется оператором. Символически это записывают в виде:
Оператор L называется линейным однородным оператором, если он обладает следующими свойствами:
1.
2. 
Примерами линейных операторов могут служить операторы
где 
Оператор называют линейным неоднородным, если он состоит из линейной части с прибавлением некоторой определенной функции:
Если случайная функция X(t) с математическим ожиданием 

то для нахождения математического ожидания 

А для нахождения корреляционной функции 

Например, если линейный оператор дифференцирования 




Пример 4.18.
Задана 
Решение. Воспользуемся формулой (4.1) для корреляционной функции суммы случайных процессов. Вычислим необходимые для этого величины.
Так как процесс X(t) стационарен, то его математическое ожидание и математическое ожидание его производной равны нулю. Поэтому
Но так как
Аналогично,
Так как 



В итоге по формуле (4.2)
Ответ.
Стационарной линейной динамической системой называется устройство, которое можно описать линейным дифференциальным уравнением с постоянными коэффициентами:
где 
Найдем характеристики Y(t) по характеристикам X(t). Возьмем математическое ожидание от правой и левой частей равенства (4.2.3).Так как X(t) и Y(t) стационарные процессы, то их математические ожидания mx и my постоянны, а производные математических ожиданий равны нулю. Поэтому
Обозначим оператор дифференцирования 

или
Выражение
называют передаточной функцией.
Уравнение (4.2.3) в операторной форме кратко записывается в виде
Частотной характеристикой линейной динамической системы называют функцию, которая получается заменой p на 
Доказано, что спектральные плотности процессов X(t) и Y(t) связаны соотношением
Это означает, что для получения спектральной плотности выходного случайного процесса необходимо умножить спектральную плотность входного процесса на квадрат модуля частотной характеристики динамической системы.
Пример 4.19.
Динамическая система задана уравнением
На вход системы подается стационарный случайный процесс X(t) с корреляционной функцией 
Решение. Вычислим спектральную плотность случайного процесса X(t) по формуле (4.1.12)
В операторной форме уравнение (4.2.8) имеет вид
Поэтому частотная характеристика 
Поэтому
Ответ.
Пример 4.20.
На вход линейной динамической системы, описываемой уравнением
подается стационарный случайный процесс X(t) с математическим ожиданием 

Решение. Вычислим спектральную плотность случайного процесса X(t). По формуле (4.1.12)
Обозначим оператор дифференцирования 

или
Передаточная функция динамической системы имеет вид
а ее частотная характеристика
Спектральная плотность процесса на выходе системы равна, согласно (4.2.7),
Дисперсия процесса на выходе равна
Если динамическая система устойчива, то при достаточно больших значениях t (после переходного периода) функцию Y(t) можно считать стационарной. Так как X(t) и Y(t) стационарны, то математические ожидания их производных равны нулю. Поэтому переход к математическим ожиданиям в равенстве (4.2.9) дает
Ответ.
Пример 4.21.
Пусть X – случайная величина с 
где 
Решение. Решим линейное дифференциальное уравнение (4.2.10) методом Бернулли. Будем искать решение в виде 
Подберем u(t) так, чтобы 





При начальных условиях 


Ответ.
Пример 4.22.
На RC – цепь, схема которой изображена на рис. 4.2.3, подается случайное напряжение X(t) с математическим ожиданием 
Требуется найти математическое ожидание и дисперсию с напряжения Y(t) на выходе.
Решение. Дифференциальное уравнение, связывающее сигнал на выходе Y(t) с сигналом X(t) на входе имеет вид
Решение этого уравнения можно получить, например, методом вариации произвольной постоянной. Однородному уравнению 



Откуда следует, что
Поэтому решение уравнения (4.2.11) имеет вид
Запись (4.2.12) означает, что Y(t) является результатом действия на X(t) линейного оператора:
В соответствии с (4.2.1)
По формуле (4.2.2) при
Аналогично при
Поэтому дисперсия
Ответ.
Процессы «гибели и рождения»
Пусть некоторый объект может в каждый момент времени может находиться в одном из состояний: 
Формально это означает следующее. Если в момент времени t объект находится в состоянии 









Пусть постоянные 


Процесс изменения состояний объекта по приведенной схеме называется процессом гибели и рождения.
Эти процессы могут служить математической моделью для популяции живых организмов. В этом случае под состоянием 




В терминах процессов гибели и размножения можно обсуждать многие технические задачи. Например, для математической модели транспортного предприятия под состоянием можно понимать число автомобилей, которые пригодны для эксплуатации. Тогда выход из стоя автомобиля означает переход в состояние с номером на единицу меньше (т.е. «гибель»), а восстановление машины после ремонта – переход в состояние с номером на единицу больше («рождение»).
Обозначим через 
















Символическая запись этой фразы имеет вид
Перенесем из правой части в левую 
При 
Уравнение для k=0 получается из следующих рассуждений. Объект в момент времени 





Перенос слагаемого 

Уравнения (4.3.2) и (4.3.3) называют системой уравнений гибели и рождения. В общем виде решение этой системы получить сложно, но в отдельных частных случаях это вполне обозримая работа.
Обычно с течением времени влияние начального состояния иссякает и процесс входит в стационарный режим, при котором переходы из состояния в состояние продолжаются, но сами вероятности состояний стабилизируются и перестают зависеть от времени (от начального состояния), т.е. 

Выбрать единственное решение системы позволяет условие нормировки 


Третье уравнение дает равенство 


В итоге получаем, что
Замечание. Если ряд в знаменателе (4.3.4) расходится, то все 


т.е. начиная с некоторого номера n интенсивность гибели должна превосходить интенсивность рождений.
Пример 4.23.
Система состоит из основного блока, одного блока в «горячем» резерве (т.е. работающего одновременно с основным) и одного блока в «холодном» резерве (т.е. этот резервный блок не работает). Длительность безотказной работы работающего блока распределена по показательному закону с параметром 
Решение. 1. Состояния системы будем различать по числу вышедших из строя блоков. Обозначим через 

Происходит переход 


2. Обозначим через 

Любое из уравнений системы можно заменить условием нормировки
Пусть система начинает свою работу из состояния E1, т.е. имеет начальные условия:
3. Перейдем в системе (4.3.5) к преобразованиям Лапласа:
или
Решение системы (4.3.6), например, по формулам Крамера дает:
Остается найти обратное преобразование от 


(Здесь мы пользуемся методом неопределенных коэффициентов для разложения на простые дроби). Имея две равные дроби с равными знаменателями, приравниваем числители этих дробей
Приравнивая в правой и левой частях равенства коэффициенты при равных степенях 

Обращение преобразования Лапласа дает искомую вероятность
Ответ.
Пример 4.24.
На контактном многоканальном телефоне фирмы работает четыре оператора. Каждый свободный оператор независимо от других на интервале времени 



Решение. Состояния контактного телефона будем различать по числу занятых операторов. Пусть Ek – означает, что заняты k из них. Тогда граф состояний имеет вид, изображенный на рис. 4.3.3.
Составим уравнения для вероятностей 
Перенос слагаемого 


На контактном телефоне в момент времени 









Символическая запись этой фразы имеет вид
Перенесем из правой части в левую 

При 
Аналогично выводятся уравнения
С течением времени вероятности состояний стабилизируются и перестают зависеть от времени (от начального состояния), т.е.
Но при этом 
Выбрать единственное решение системы позволяет условие нормировки 

Третье уравнение дает равенство 

Обозначим 

Откуда
Ответ.
Пример 4.25.
Система массового обслуживания состоит из двух обслуживающих устройств. В систему поступает простейший поток требований на обслуживание интенсивности 




Решение. Обозначим через Ek – состояние системы, когда в ней находятся k требований. Если в системе находится 




Составим систему уравнений гибели и размножения
Для стационарного режима 
Эту систему естественно дополнить условием нормировки 






откуда 

где 



Вероятность того, что требование поступит на обслуживание без ожидания в очереди, равна 
Ответ.
Пример 4.26.
Система массового обслуживания состоит из одного обслуживающего прибора и одного прибора в холодном резерве. Интенсивность выхода из строя работающего прибора равна 
Требуется найти долю времени простоя системы из-за выхода из строя приборов. Найти наработку на отказ, т.е. среднее время работы системы между пребываниями в отказных состояниях.
Решение. Состояния системы будем различать по числу вышедших из строя приборов. Обозначим через 

Если считать выход из строя прибора рождением неполадки, а завершение ремонта ее гибелью, то система уравнений гибели и размножения по формулам (4.3.2), (4.3.3) для нашего случая принимает вид
Это система линейных однородных дифференциальных уравнений с постоянными коэффициентами. Любое уравнение системы можно заменить условием нормировки:
С учетом того, что 

Эта система имеет бесконечно много решений. Для выбора приемлемого для нас решения одно из уравнений, например, второе заменим условием нормировки
Из первого уравнения имеем 


где 
Стационарную вероятность P2 можно понимать как долю времени, в течение которой система находится в нерабочем состоянии (оба прибора вышли из строя).
Для вычисления наработки на отказ сделаем состояние E2 поглощающим, т.е. исключим переход 
Этому графу состояний соответствует система уравнений
Зададим начальное состояние. Пусть, например, 



или
Найдем 
и 
Обозначим через 

Заметим, что 
Последний вывод основан на следующих соображениях. Пусть X – неотрицательная случайная величина с функцией распределения 
В нашем случае 
Ответ.
Рассмотрим систему массового обслуживания, в которую поступает простейший поток требований интенсивности 

Замечание. Пусть время обслуживания имеет показательное распределение с функцией распределения 


Под состоянием 

















Формулы (4.3.11) называют формулами Эрланга, который их впервые вывел в 1917 г. В последующем оказалось, что для систем с потерями формулы Эрланга сохраняют свою структуру при любом распределении длительности обслуживания, лишь бы среднее время обслуживания равнялось 
При 
Пример 4.27.
В систему массового обслуживания, состоящую из четырех каналов обслуживания, поступает простейший поток требований интенсивности 
Требование, заставшее все каналы обслуживания занятыми, теряется. Необходимо найти вероятность потери требования и среднее число занятых обслуживанием каналов.
Решение. Пусть V – время обслуживания требования. Вычислим среднее время обслуживания
В формулах Эрланга 






Среднее число занятых каналов равно
Ответ.
Пример 4.28.
На многоканальный контактный телефон фирмы поступает простейший поток звонков интенсивности пять звонков в час. Время разговора с каждым клиентом в среднем занимает 10 минут. Звонки, заставшие все каналы занятыми, теряются. Сколько должно быть каналов для того, чтобы терялось не более 10% звонков?
Решение. Формулы Эрланга сохраняют свою структуру при любом распределении времени обслуживания и зависят только от среднего значения длительности обслуживания. В нашем случае 

даже при известном значении 
По той же формуле при n=3
Вычисления показали, что при двух каналах теряется около 16% звонков, а уже при трех каналах потери составят около 5% звонков.
Ответ. Достаточно трех каналов.
Метод фаз Эрланга
Случайная величина X имеет распределение Эрланга порядка k с параметром 
На рис. 4.4.1 приведены графики распределения Эрланга при значении параметра 
При k=1 получается плотность показательного распределения.
Метод фаз Эрланга применяется тогда, когда наряду с показательными распределениями в стохастической системе встречаются распределения Эрланга.
Математическое описание такой системы возможно с помощью Марковского процесса. Эта возможность основана на том, что случайную величину, имеющую распределение Эрланга порядка k с параметром 

Оказывается, что многие функции распределения допускают хорошую аппроксимацию с помощью линейной комбинации функций распределения Эрланга.
Пример 4.29 (система Энгсета с потерями)
Система обслуживания состоит из одного прибора. Из n независимых источников поступают требования. Время обслуживания любого требования имеет распределение Эрланга 3-го порядка с параметром 

Решение. Выделим состояния системы: 


Для вероятностей состояний системы в момент времени t можно составить систему уравнений:
Тогда для стационарных вероятностей 
из которой 


Ответ.
Марковские процессы с дискретным множеством состояний
Цепи Маркова:
Случайным процессом 



Определение. Случайный процесс Xt называется марковским, если для любого момента времени 

Пусть некоторый физический объект в каждый момент времени может находиться в одном из своих возможных состояний, число которых конечно или счетное. В этом случае иногда говорят о дискретном множестве состояний. Состояния могут быть качественными и описываться словами, или количественными и характеризоваться некоторыми числами. Представление о множестве состояний и о структуре переходов из состояния в состояние дает схема, которая называется графом состояний. Будем стрелками обозначать возможные переходы, а через 
Например, в графе состояний (рис. 4.5.1) E0 означает, что устройство новое и не включено в работу, E1 – устройство работает, E2 – устройство неисправно, E3 – происходит поиск причин неисправности, E4 – производится ремонт, E5 – устройство признано не подлежащим ремонту и утилизировано. Если ремонт удался, то происходит переход в состояние E1.
Взаимное расположение состояний в графе позволяет их классифицировать следующим образом:
- Состояние называется источником, если объект может выйти их него, но попасть вновь в него не может (в приведенном примере состояние E0).
- Состояние называется поглощающим (или концевым), если в него можно войти, но из него выйти нельзя (в приведенном примере состояние E5).
- Состояние Ei называется соседним к состоянию Ej , если возможен непосредственный переход из состояния Ej в состояние Ei . В приведенном примере E3 соседнее состояние по отношению к E2, но E2 не соседнее состояние по отношению к E3.
- Подмножество состояний называется эргодическим (или связным), если из каждого состояния этого подмножества можно попасть в любое другое состояние этого подмножества.
Например, в графе (см. рис. 4.5.2)два эргодических подмножества состояний: 
Случайный процесс изменения состояний объекта можно понимать как процесс блуждания по множеству состояний графа.
С точки зрения описания объекта первостепенный интерес представляют вероятности состояний этого объекта. Обозначим через 
Часто интерес представляет лишь установившийся режим работы (или стационарный режим), в который объект входит после достаточно долгого времени работы. При стационарном режиме процесс перехода из состояния в состояние продолжается, но вероятности состояний не изменяются. Обозначим эти вероятности через Pi . Так что
Величину Pi можно понимать как среднюю долю времени, в течение которой объект находится в состоянии Ei. В общем случае 
Еще раз повторим, что случайный процесс с дискретным множеством состояний называется марковским, если для любого момента времени t0 вероятность каждого из его состояний в будущем (при 
Если переходы из состояния в состояние могут происходить только в определенные моменты времени 
Важными характеристиками марковской цепи являются условные вероятности перехода системы на k-м шаге в состояние Ej, если на предыдущем 


Эту матрицу называют матрицей переходных вероятностей или просто переходной матрицей. Так как на каждом шаге система находиться в одном из своих возможных состояний, то для любой строки матрицы сумма ее элементов равна единице. Матрицы, обладающие этим свойством, называют стохастическими.
Для однозначного в вероятностном смысле описания процесса переходов из состояния в состояние нужно, помимо переходных матриц, указать начальное распределение состояний, т.е. вероятности 


Цепь Маркова называется однородной, если переходные вероятности не меняются от шага к шагу, т.е. 

Заметим, что каждому графу состояний для однородной цепи соответствует определенная переходная матрица.
Графу состояний (рис. 4.5.3) соответствует переходная матрица
где 
Пусть задано распределение состояний в начальный момент времени: 
Используя полученные вероятности, можно по формуле полной вероятности вычислить вероятности состояний на втором шаге:
Продолжение этих рассуждений приводит к рекуррентному соотношению
При определенных условиях цепи Маркова входят в стационарный режим, при котором переходы из состояния в состояние продолжаются, но вероятности переходов не изменяются и не зависят от номера шага. Эти вероятности называют финальными или предельными. Будем обозначать финальные вероятности через
Условия существования финальных вероятностей:
- множество всех состояний должно быть эргодическим;
- цепь должна быть однородной (во всяком случае переходные вероятности должны удовлетворять условию:
- должно быть хорошее перемешивание состояний (не должно быть периодических циклов).
Например, для цепи с графом состояний условие 3) не выполняется, так как при начале из состояния Е1 на нечетном шаге цепь будет находиться в состоянии Е2, а на четном — в состоянии Е1.
Если для однородной цепи финальное распределение существует, то
и равенства (4.5.1) имеют вид
Иногда в этой записи выделяют слагаемые в правой части с 
или
Для определения финальных вероятностей нужно решить систему линейных однородных уравнений (4.5.2). Такая система всегда совместна, (имеет тривиальное решение 
Это равенство можно добавить вместо одного из уравнений системы (4.5.2). Итак, для нахождения финальных вероятностей состояний марковской цепи нужно решить систему уравнений
Пример 4.30.
Граф состояний марковской цепи изображен на рис. 4.5.4. При начальном распределении 
Решение. Переходная матрица этой цепи имеет вид
Найдем вероятности состояний цепи на первом шаге. Воспользуемся формулой (4.5.1), но учтем, что переходные вероятности нам каждом шаге одинаковы (цепь однородная) и поэтому
На втором шаге имеем вероятности состояний:
Для третьего шага получаем вероятности:
Можно, повторяя вывод уравнений (4.5.1), для определения финальных вероятностей записать систему равенств

Решая систему, например, по правилу Крамера, получим 

Ответ. Е2 – наименее вероятное состояние на третьем шаге;
Пример 4.31.
В городе N каждый житель имел одну из профессий A, B или C. Дети в следующем поколении сохраняли профессию отцов с вероятностями соответственно 0,6, 0,2 и 0,4 и с равными вероятностями выбирали любую из двух других профессий. Если в данный момент профессию A имеет 20% жителей города, профессию B – 30%, а профессию C – 50% жителей, то
1) каково распределение по профессиям будет в следующем поколении;
2) каким будет распределение по профессиям через много поколений (финальное распределение)?
Решение. Смену поколений будем считать шагом Марковской цепи. Имеем начальное распределение (на нулевом шаге): 
В соответствии с формулами (4.5.1) получаем распределение вероятностей на первом шаге (в первом поколении):
Для вычисления финальных вероятностей составляем систему уравнений (4.5.2)
Эта система уравнений при условии нормировки 
Ответ.
Пример 4.32.
Устройство состоит из двух блоков (например, двигатель и ходовая часть). Пусть A означает безотказную работу первого блока, B – безотказную работу второго блока. По истечении каждой единицы времени проверяется состояние этих блоков, и в случае неисправности производится их ремонт. Вероятность безотказной работы блоков в течение единицы времени равны соответственно 0,9 и 0,8. Если неисправность блока обнаружена, то вероятность отремонтировать блок в течение единицы времени равна соответственно 0,3 и 0,4. Найти предельные вероятности для состояний устройства: 
Замечание. В сформулированном примере по умолчанию предполагается, что распределение времени безотказной работы и распределение времени ремонта каждого блока не имеют «памяти» о прошлом. Единственным распределением такого сорта является показательное распределение. Если, например, время ремонта распределено по показательному закону и ремонт уже продолжается некоторое время, то оставшаяся часть времени ремонта имеет то же самое распределение, что и в начале ремонта.
Решение. Поскольку состояния блоков наблюдаются в конце каждой единицы времени, то моменты наблюдения можно считать шагами однородной марковской цепи. Учитывая независимость времени безотказной работы и времени ремонта узлов, определим переходные вероятности:
В итоге переходная матрица имеет вид
Составим систему уравнений для определения финальных вероятностей:
Это система линейных однородных уравнений, она имеет бесконечно много решений. Для получения единственного нужного нам решения вместо любого из уравнений запишем условие нормировки 


Ответ. 
Пример 4.33.
В зоне обслуживания бригады ремонтников находится три прибора, работающих в автоматическом режиме. В конце каждого месяца ремонтники проводят профилактический осмотр приборов и, в случае обнаружения неисправных, забирают их для ремонта или замены на новые. Отремонтированный (или новый) прибор возвращают на место при очередном профилактическом осмотре, т.е. через месяц. Вероятность выхода из строя в течение месяца работающего прибора равна 1/3. Требуется найти стационарное распределение вероятностей числа исправных приборов в начале каждого месяца.
Решение. Рассмотрим марковскую цепь, состояния которой будем различать по числу работоспособных приборов. Пусть 

Составим переходную матрицу этой цепи. Если на данном шаге цепь находится в состоянии E0, то на очередном шаге будут доставлены три работоспособных прибора и цепь с вероятностью 1 перейдет в состояние E3. Поэтому
Если на данном шаге цепи имеется только один работоспособный прибор, то следующем шаге будет поставлено два новых прибора и вероятность перехода 


При наличии на данном шаге двух годных приборов в соответствии с формулой Бернулли, имеем переходные вероятности:
Наконец, при трех годных приборах на данном шаге
Запишем переходную матрицу:
Этой переходной матрице соответствует система уравнений (4.5.2) для вычисления стационарных вероятностей:
Решая эту систему уравнений, с учетом условия нормировки 
Ответ.
Марковские процессы с непрерывным временем и дискретным множеством состояний
Пусть переходы процесса из состояния в состояние происходят под воздействием каких-то потоков событий (поток отказов, восстановлений и т.д.). Будем считать, что переход процесса из состояния Еi в состояние Ej происходит под воздействием пуассоновского потока событий интенсивности 



Суммарный поток событий, выводящих процесс из состояния Еi, тоже будет пуассоновским с интенсивностью 

а вероятность сохранить состояние Еi за малый промежуток времени 
Выведем уравнения для вероятностей состояний процесса 










Если перегруппировать слагаемые, разделить равенство на 

Это система уравнений Колмогорова А.Н. Для решения системы нужно задать начальные условия, а вместо одного из уравнений можно использовать условие нормировки
Пример 4.34.
На рис. 4.6.1 дан граф состояний некоторого объекта. Интенсивности переходов из состояния в состояние указаны на этом же рисунке. Записать систему уравнений для вероятностей состояний объекта. При постоянных 

Система уравнений Колмогорова (4.6.1) в рассматриваемом случае имеет вид
Вместо одного из уравнений (например, вместо второго) можно воспользоваться условием нормировки
Если 

Эта система имеет решение
Пример 4.35.
В некотором механизме могут происходить отказы двух типов. Пусть вероятность отказа первого типа в интервале времени 




Решение. Обозначим через 


Система уравнений (4.6.1) для этого случая имеет вид
Условия существования стационарных вероятностей марковского процесса выполнены. Поэтому при 


Из второго и третьего уравнений находим соответственно 

Откуда
Ответ.
Модели управления запасами
В этом разделе мы рассмотрим простейшие математические модели функционирования систем, которые можно назвать хранилищем или складом. На рис. 4.7.1 изображена общая схема такой системы.
И поступление продукции и ее расход могут быть случайными и во времени и по объему.
Простым примером может служить водохранилище, уровень воды в котором зависит от притока (определяемого случайно выпадающими осадками) и расхода воды на разные нужды.
Представляют, например, интерес:
- 1) стационарное распределение запаса и условия его существования;
- 2) оптимальная политика пополнения и расхода запаса;
- 3) распределение периода нулевого уровня и т.д.
Для определенности будем говорить о модели водохранилища. Рассмотрим простейшую модель с дискретным временем, в которой уровень рассматривается в моменты 
1. Приток. Пусть Xk – количество воды, поступившее в водохранилище за единицу времени (год, сутки, час и т.д.) от k до (k +1) моментов. Величины 
2. Сток. Пусть объем водохранилища равен K. Обозначим через Zn размер запаса в момент 


3. Правило расхода воды. В момент времени 





Последовательность 
Упростим задачу еще, полагая приток дискретным. Пусть
В этом случае цепь Маркова имеет конечное число состояний 
Найдем стационарное распределение размера запаса. Для простоты будем считать, что количество воды, расходуемой в момент 
Обозначим производящую функцию распределения вероятностей 
Тогда средний приток в единицу времени равен
Матрица переходных вероятностей для цепи Маркова 
Если все 
которые являются единственным решением уравнений
при условии, что 
Теорема Морана (Moran P.). 1. Если 
не зависят от K.
2. Значения 

Доказательство. Для доказательства первой части теоремы достаточно записать уравнения для финальных вероятностей
Решая последовательно эти уравнения, получим из первого уравнения:
Из второго уравнения получим:
Продолжение этого процесса завершает доказательство первой части. Для доказательства второй части рассмотрим функцию 


Можно показать, что
В самом деле,
Отсюда при
Здесь величина 
Итак, 


Коэффициенты 
если приравнять коэффициенты при одинаковых степенях z в его правой и левой частях. Величины этих коэффициентов совпадают с их значениями по формулам (4.7.4). Этим и завершается доказательство теоремы.
Пример 4.36.
Пусть в хранилище объема K поступление запаса имеет распределение
При переполнении хранилища излишки теряются. Каждую единицу времени из хранилища потребляют единицу запаса. Требуется найти вероятность того, что к моменту очередного расхода запаса хранилище окажется пустым.
Решение. Воспользуемся теоремой Морана. Для этого сначала найдем производящую функцию для распределения случайной величины X.
Имеем
Если 

Из этой записи следует, что
Эти коэффициенты можно преобразовать к виду:
Тогда в соответствии с формулами (4.7.2) имеем
Если объем хранилища неограничен, то из условия нормировки:
Тогда
Если же объем хранилища равен К, то согласно теореме Морана соотношения (4.7.6) остаются в силе, но условие нормировки имеет вид
Поэтому 
Ответ.
Пример 4.37.
Хранилище имеет емкость шести единиц хранения (например, шесть контейнеров, шесть вагонов и т.д.). В течение каждого дня в хранилище поступает случайное количество продукции X. Величины X независимы и одинаково распределены:
При заполнении хранилища избыток поступившей продукции теряется. В конце каждого дня из хранилища отпускается потребителю две единицы продукции (или весь запас, если он меньше двух).
Для стационарного режима требуется найти: вероятность того, что поставляемая продукция будет полностью (без потерь) принята на хранение; вероятность того, что отпуск продукции будет производиться в полном объеме.
Решение. Будем рассматривать состояния хранилища мгновение спустя после очередной отгрузки. Тогда возможных состояний будет пять: 
В нашем примере 

В соответствии с переходной матрицей запишем систему уравнений (4.7.1) для вычисления стационарных вероятностей:
Вместо любого из уравнений можно взять условие нормировки
Структура уравнений системы такова, что позволяет легко выразить все неизвестные величины через одну из них. Например, из последнего уравнения имеем
Подставляя найденное выражение для u3 в предыдущее уравнение, получаем
С учетом (4.7.7) и (4.7.8) из третьего уравнения находим, что
Из первого уравнения и соотношений (4.7.7) – (4.7.9) следует, что
Воспользуемся теперь условием нормировки
откуда 
Поставляемая продукция будет полностью (без потерь) принята на хранение, если в хранилище, после очередной отгрузки, останется не более трех единиц продукции (вероятность чего равна 

Математическое ожидание количества теряемой продукции при каждом ее поступлении равно

Вероятность того, что отпуск продукции будет производиться в полном объеме (в количестве двух единиц), равна
Заметим, что 
Ответ. 0, 906; 0,962.
Пример 4.38.
Хранилище имеет емкость пять единиц хранения. В течение каждого дня в хранилище поступает случайное количество X единиц продукции. Величины X независимы и имеют одинаковое распределение
При заполнении хранилища избыток поступившей продукции теряется. В конце каждого дня из хранилища отпускается потребителю случайное число 


Для стационарного режима найдите: вероятность того, что поставляемая продукция будет полностью (без потерь) принята на хранение; вероятность того, что отпуск продукции будет производиться в полном объеме.
Решение. Если рассматривать состояние хранилища в моменты сразу после очередной отгрузки продукции, то имеется пять возможных состояний: 
Переход 
Переходы 
Переходы 
Хранилище сохранит свое состояние E2 или E3, если поступит столько единиц хранения, сколько и будет отгружено. Поэтому
Переходы 
Для перехода 
Переход 
Если в хранилище четыре единицы продукции, то при любом поступлении новой продукции хранилище будет заполнено целиком. Тогда для перехода 
Хранилище сохранит свое состояние E4, если при поступлении любого количества единиц хранения (хранилище тогда будет заполнено) будет отгружена одна единица хранения. Вероятность этого
Итак, переходная матрица имеет вид:
В соответствии с переходной матрицей запишем систему уравнений (4.7.1) для вычисления стационарных вероятностей:
Это система линейных однородных уравнений. Вместо любого из уравнений можно взять условие нормировки 
Вероятность потери поступающей продукции из-за переполнения склада равна 
Вероятность отгрузки в требуемом объеме равна
Ответ. 0,9275; 0,9153.
Полумарковские процессы
Случайный процесс конечным числом состояний называется полумарковским процессом (ПМП), если время пребывания процесса в каждом из состояний случайно и зависит только от этого состояния и от того, в какое состояние затем перейдет процесс.
Пусть 
- матрицу вероятностей переходов
- матрицу функций распределения
– функция распределения времени пребывания процесса в состоянии
при условии, что следующим состоянием будет
- начальное распределение
(например,
при
– это означает, что процесс начинается из состояния Е1).
Заметим, что марковский процесс с непрерывным временем и конечным числом состояний можно считать ПМП, у которого время пребывания в каждом состоянии распределено показательно. Марковскую цепь можно рассматривать в непрерывном времени как ПМП, у которого время пребывания в каждом состоянии равно 1.
Практический интерес представляют многие характеристики ПМП:
- среднее время достижения состояния
из начального состояния;
- среднее число попаданий в состояние
за время t;
- стационарные вероятности того, что процесс находится в состоянии
.
Рассмотрим способы вычисления некоторых характеристик процесса. Если обозначить функцию распределения времени пребывания в состоянии 

где 


Обозначим через 


или
Откуда в силу (4.8.1) получаем систему уравнений для определения
Аналогично можно провести рассуждения о среднем времени пребывания процесса в множестве состояний M. Обозначим через 

В заключение приведем частичную формулировку одной из важных теорем о ПМП.
Теорема Пайка (Pyke). Стационарные вероятности пребывания процесса в состояниях 
где 



Пример 4.39.
Пусть устройство состоит из трех однотипных приборов. В момент времени t=0 начинает работу прибор №1, который спустя случайное время Т1 выходит из строя. В этот момент начинает работу прибор №2, длительность безотказной работы которого равна Т2, и начинается ремонт прибора № 1, причем время ремонта равно 







Пусть 



Процесс 





Для процесса 
Остается вычислить среднюю длительность пребывания системы в множестве состояний 


С учетом значений вероятностей переходов 

Ответ.
Пример 4.40.
В одноканальную систему с потерями поступает простейший поток требований интенсивности 




Решение. Будем различать состояние E0, в котором обслуживающий прибор исправен и свободен, состояние E1, в котором прибор обслуживает требование, состояние E2, в котором прибор неисправен и ремонтируется. Пусть 
1. Переходные вероятности:


Итак, переходная матрица имеет вид:
Запишем уравнения для финитных вероятностей вложенной цепи:
Из первого и второго уравнений следует, что 

2. Вычислим теперь среднее время пребывания в каждом из состояний. Время пребывания в состоянии E0 равно минимальному из времени паузы и времени безотказной работы свободного прибора. Пусть X – время пребывания в состоянии E0, X0 – время безотказной работы в ненагруженном состоянии, а X1 – время до прихода ближайшего требования. Тогда X имеет функцию распределения
Это показательный закон распределения с параметром 

Это равенство получается из следующих соображений. Если X – неотрицательная случайная величина с функцией распределения 
в этом можно убедиться, взяв по частям интеграл в правой части равенства.
Пусть T – время пребывания системы в состоянии E1, V – время обслуживания, W – время безотказной работы прибора в занятом состоянии. Тогда 



Время пребывания в состоянии E3 равно времени ремонта. Поэтому
Доля времени пребывания в отказном состоянии равна стационарной вероятности состояния E2. По формуле (4.8.4) эта стационарная вероятность равна
Ответ.
Задачи с решением на случайные процессы
Поток требований называется простейшим, если интервалы времени между последовательными моментами прихода требований независимы и имеют показательный закон распределения.
Заметим, что в показательном законе распределения наиболее вероятны малые значения случайной величины. Это означает, что часто будут реализовываться малые интервалы между требованиями и редко – большие. Для наблюдателя это будет выглядеть как локальные сгущения требований и локальные разряжения. Тем самым подтверждается бытующее представление о «полосе везения» и «полосе невезения». Действительно, случайные события, даже будучи независимыми, имеют свойство группироваться во времени.
Задача 5.1 (о времени ожидания).
Отметим одну особенность простейшего потока, связанную с «парадоксом времени ожидания». Предположим сначала, что к остановке с равными интервалами подходят автобусы (поток автобусов детерминированный). Пассажир в случайный момент времени приходит на остановку и ожидает ближайшего по времени автобуса. Каково среднее время ожидания пассажира?
Решение. Пусть интервал между автобусами равен t. Так как равновозможно любое значение времени ожидания Х в пределах от 0 до 
Пусть теперь моменты прибытия автобусов на остановку образуют простейший поток интенсивности 
Интеграл можно взять по частям. Поэтому
Плотность вероятности того, что момент прихода пассажира придется на интервал между автобусами длины 
Согласно (5.1) при интервале между автобусами длиной х среднее время ожидания равно 
(последний интеграл дважды берется по частям). Итак, при регулярном потоке среднее время ожидания равно половине интервала между прибытиями автобусов. При чисто случайном потоке автобусов среднее время ожидания совпадает со средним интервалом между автобусами.
Заметим, что среднее время ожидания пассажира может быть значительно больше среднего интервала между автобусами. Например, пусть автобусы приходят по расписанию, но такому, что сначала подряд с интервалами в две минуты проходят пять автобусов, а шестой приходит через 50 минут. Тогда средний интервал будет равен 
Пассажир может с вероятностью 1/5 попасть на череду коротких интервалов между автобусами и среднее время ожидания для него будет равно 1 мин. На большой интервал можно попасть с вероятностью 5/6 и тогда среднее время ожидания будет 25 мин. Поэтому среднее время ожидания равно 
Проведем рассмотрение в общем случае. Момент, начиная с которого мы начинаем наблюдать поток событий, можно считать случайной точкой 

Найдем плотность вероятности 

Чтобы вычислить эту вероятность, предположим, что имеем дело с большой серией из n интервалов. Среднее число интервалов, имеющих длину в пределах от 




При 
Средняя длина интервала, в который попала точка, равна
Так как 
Например, для показательного закона распределения интервалов (для простейшего потока событий интенсивности 

График этой функции плотности вероятности 

Пусть 

откуда
Задача 5.2 (о наилучшем выборе)
Имеется n однородных предметов различного качества, причем заранее о предметах ничего не известно. Предметы можно выбирать наугад по одному и обследовать. Если качество предмета нас не устраивает, то выбираем очередной предмет, но к отвергнутому предмету вернуться нельзя. Какой стратегии следовать, чтобы вероятность выбрать наилучший предмет была наибольшей? (Эту задачу называют еще задачей о разборчивой невесте. К невесте последовательно сватаются n женихов. Жених, получивший отказ, повторно не сватается.)
Решение. Поскольку качество этих предметов нам неизвестно, то для начала необходимо получить представление о том, чего следует ожидать. Рассмотрим следующий порядок действий: Просмотрим 
Вычислим вероятность выбрать наилучший предмет при таком образе действий, а затем определим оптимальное значение 
Обозначим через 



Выберем число s между 0 и 1 и пусть 

Найдем максимальное значение функции 

Итак, оптимальная стратегия рекомендует просмотреть примерно треть предметов (точнее, 
Задача 5.3.
Вы принимаете участие в телеигре, и Вам предлагают выбрать одну из трех шкатулок, в одной из которых лежат деньги. Вы выбрали некоторую шкатулку (например, шкатулку №1). Ведущий после этого открывает одну из двух других шкатулок (например, шкатулку №3), показывает, что она пуста, и спрашивает: не желаете ли Вы изменить свое решение и выбрать шкатулку №2? Следует ли Вам менять свое решение или нет?
Решение. Будем полагать, что ведущий знает, где деньги лежат, и поэтому открывает именно пустую шкатулку. Насчет шкатулки с деньгами есть три одинаково вероятных предположения: 

Событие A состоит в том, что Вы выбрали шкатулку №1, а ведущий открыл шкатулку №3. При пустой третьей шкатулке в силу симметрии Ваши шансы на выигрыш равны 1/2.
Если деньги действительно находятся в первой шкатулке, то ведущий с вероятностью 1/2 откроет именно шкатулку №3. Поэтому
Если деньги находятся во второй шкатулке, то ведущий с вероятностью 1 откроет именно шкатулку №3
Если деньги в третьей шкатулке, то вероятность выбора ведущим третьей шкатулки нулевая
По формулам Байеса
Если ведущий не знает где деньги лежат, то 
Итак, игроку предварительно следует осведомиться у ведущего, знает ли он где деньги лежат. При положительном ответе следует изменить свой выбор. Если ведущий не знает, в какой шкатулке деньги, то менять выбор смысла нет.
Задача 5.4.
Производитель некоторой продукции затеял рекламную акцию. Объявлено, что в каждый пакет продукта заложен один из n различных типов жетонов. Покупатель, собравший все n типов жетонов, получает дисконтную карту для длительных скидок на этот продукт. Сколько в среднем пакетов продукта придется купить, чтобы собрать полный комплект из n различных жетонов?
Решение. Понятно, что по мере накопления жетонов, шансы найти новый жетон в очередном пакете убывают. Обозначим через 


А математическое ожидание этого числа равно
Вероятность того, что для поиска второго жетона придется вскрыть k пакетов, равна
(имеется в виду, что 

Известно, что это геометрический закон распределения. Но для геометрического закона распределения: 

В нашем случае для 


или
Например, при 
В заключение можно заметить, что при больших n можно воспользоваться асимптотической формулой
Приложения
Таблица П.1
Таблица значений функции
Таблица П.2
Таблица значений функции
Таблица П.3
Значения 


Таблица П.4
Значения 



Таблица П.5
Значения функции 
Определение случайных процессов
Элементы теории случайных процессов:
Пусть задано вероятностное пространство 


Рассмотрим функцию 


Случайным процессом называется случайная величина 



Пусть 




Рассмотрим отсчет 

Если нас интересует только 





Более подробное представление о случайном процессе получается, если рассматривать два отсчета 





Чем больше берется отсчетов и чем ближе они расположены друг к другу, тем подробнее описывается случайный процесс.
В пределе, когда 


Числовые характеристики случайного процесса
При экспериментальном получении случайного процесса можно сравнительно легко указать 

Математическое ожидание случайного процесса (среднее по ансамблю) вводится следующим образом:
В отличие от теории вероятностей 
Оно дает некоторую кривую, около которой группируются все реализации случайного процесса (рис. 13.2).
Дисперсия случайного процесса (средняя по ансамблю):

Дисперсия определяет, насколько сильно отдельные реализации могут отклоняться от математического ожидания. В отличие от теории вероятностей это также не число, а функция времени.
Функция корреляции случайного процесса (средняя по ансамблю)’.

Эта функция является важнейшей характеристикой случайного процесса.
Функция корреляции характеризует степень зависимости между отсчетами случайного процесса, взятыми в разные моменты времени.
Наряду с 

И нормированная функция корреляцию.

Последняя ничем по смыслу не отличается от коэффициента корреляции и определяет степень линейной зависимости отсчетов случайного процесса в моменты времени
Стационарные случайные процессы
Случайный процесс называется стационарным в узком смысле, если для любых 


Смысл определения в следующем.
В левой части равенства стоят отсчеты, берущиеся в моменты времени 






Следствия стационарности:
1. Предположим в (13.7) 
Поскольку 

Поэтому
Отметим, что у стационарных случайных процессов математическое ожидание, дисперсия и плотность распределения от времени не зависят 

2. Полагая в (13.7) 

Тогда функция корреляции принимает вид
Видим, что у стационарных случайных процессов функция корреляции зависит лишь от разности 
Случайный процесс называется стационарным в широком смысле, если его математическое ожидание и дисперсия от времени не зависят, а функция корреляции зависит лишь от разности моментов времени
На рис. 13.3 показан вид стационарного случайного процесса.
Числовые характеристики случайного процесса — средние по времени
Ранее мы рассмотрели числовые характеристики случайного процесса, средние по ансамблю, общий вид которых

Они называются средними по ансамблю потому, что фиксируются моменты времени 

изображены Кривые плотностей распределений 
Для стационарных случайных процессов кроме средних по ансамблю можно ввести еще так называемые средние по времени. В общем виде среднее по времени представляет собой:
Характерным для средних по времени является то, что фиксируются реализации, а «перебираются» все моменты времени. В средних по времени характерно также отсутствие плотности распределения 
Тогда числовые характеристики средние по времени определяются так:
1. Математическое ожидание случайного процесса среднее по времени:

2. Дисперсия случайного процесса средняя по времени:

3. Функция корреляции, средняя по времени (в ней фигурирует произведение значений случайного процесса в два различных момента времени 



Свойства функций корреляции случайного процесса
1. Функция корреляции является симметричной функцией:
Для стационарного случайного процесса — четная функция:
2. Функция корреляции — ограниченная функция. Воспользуемся неравенством
Шварца (неравенство Коши-Буняковского):

Обозначим отсчеты

С учетом определения (13.4), получаем
Тогда
Когда 
3. Для стационарного случайного процесса дисперсия и математическое ожидание могут быть получены через функцию корреляции:
Откуда следует, что

Найдем дисперсию:
Если рассматривать функцию корреляции флуктуаций (13.5), то
4. Функция корреляции является положительно определенной функцией.
Рассмотрим моменты времени 

вычисляя математическое ожидание, получим
Следствие: для любой положительно определенной функции 

5. Время корреляции для стационарного случайного процесса определяется как

Время корреляции определяет, насколько далеко по времени наблюдается корреляционная связь между отсчетами в случайном процессе.
6. При изучении реальных случайных процессов для 
Зависимость 
Зависимость 
Эргодические случайные процессы
Случайный прогресс называется эргодическим, если для него временные средние с вероятностью, равной 1, совпадают с соответствующими средними по ансамблю:
Эргодическим может быть только стационарный случайный процесс, но не всякий стационарный случайный процесс может быть эргодичен. Эргодичность имеет большое значение: она позволяет заменить изучение ансамбля реализаций изучением одной длинной реализации, т. к. каждая реализация (у эргодического случайного процесса) с вероятностью 1 имеет те же характеристики, что и весь ансамбль.
Спектр мощности случайного процесса


Для стационарного случайного процесса
Тогда 

Рассмотрим величину 


ее свойство:

Обозначим 
Тогда запишем среднюю мощность так:

где 
Спектр мощности не является независимой характеристикой случайного процесса. Спектр мощности 

Теорема Винера-Хинчина
Эта теорема устанавливает связь между спектром мощности и функцией корреляции. Запишем функцию корреляции (13.12) через урезанный случайный процесс:
комплексная величина, поэтому запишем 


Таким образом, видим, что функция корреляции является прямым преобразованием Фурье от спектра мощности

Тогда спектр мощности определится через обратное преобразование Фурье:

Запишем спектр мощности через тригонометрические функции, используя формулу Эйлера:

Последний интеграл в (13.24) равен нулю, т. к. 

Отсюда следует, что спектр мощности 

В формулы (13.25), (13.26) входит круговая частота 



В этих формулах фигурируют отрицательные частоты от 


В (13.29) мощность отрицательных частот прибавили к мощности положительных, тогда


Если вместо 


Соотношение неопределенности для стационарных случайных процессов
Шириной спектра случайного процесса называется величина
Время корреляции
Умножая (13.34) на (13.35) получаем
Подставляя в 


Разложение случайного процесса в ряд Котельникова
Пусть 





Теорема: Если 



где 
На рис. 13.7 показана заштрихованная область частот, для которой спектр мощности
Доказательство:
Предположим, что спектр мощности является периодической функцией с периодом 

Коэффициенты 
Подставим 
Определим функцию корреляции, используя (13.37):
Поскольку функция корреляции симметрична, то можно записать
Докажем основное положение теоремы. Используем следующее определение сходимости: Последовательность случайных величин 

Используя (13.38), можно записать
что и является доказательством нашей теоремы.
Классификация случайных процессов
Ранее, в разделе 13.1 мы отмечали, что все случайные процессы делятся на два основных класса: прогрессы с дискретным временем и процессы с непрерывным временем. После описания вероятностных характеристик случайного процесса, в частности 
Иногда стационарные случайные процессы классифицируют по спектральным
характеристикам: различают стационарные случайные процессы в широком смысле — узкополосные, когда спектр мощности сосредоточен в узкой полосе частот возле определенной фиксированной частоты 





Из рис. 13.9 видим, что функция корреляции узкополосного случайного процесса — это быстро осциллирующая функция с частотой 

Следующим классом будут стационарные в широком смысле случайные процессы — широкополосные. Здесь спектр мощности сохраняет постоянное значение 

Тогда стационарный в широком смысле случайный процесс с равномерным спектром мощности на всех частотах называется белым шумом. Функция корреляции белого шума представляет собой 5-функцию, расположенную в начале координат, (рис. 13.11):

Для белого шума характерно то, что два его отсчета, взятые в сколь угод но близкие моменты времени, некоррелированы. Однако на практике белый шум реализовать невозможно, т. к. полная мощность белого шума бесконечна, а реальные случайные процессы имеют конечную мощность. И для реального случайного процесса рядом стоящие отсчеты коррелированы. Поэтому белый шум используют в качестве математической модели случайного процесса, что позволяет упростить анализ прохождения через линейные радиотехнические устройства с конечной полосой пропускания. Отметим, что любой случайный процесс, у которого спектр мощности сохраняет постоянное значение в некоторой полосе частот, может рассматриваться как белый шум. Но таких случайных процессов в природе не существует. Тем не менее такая модель случайного процесса оказывается удобной для анализа различных радиотехнических систем.
Еще одной моделью случайных процессов, которая находит широкое применение в приложениях теории случайных процессов, являются марковские случайные процессы.
Марковские случайные процессы
Марковские случайные процессы делятся на четыре основных типа в зависимости от того, какое множество значений (дискретное или непрерывное) принимает случайный процесс 

(непрерывный процесс с непрерывным временем). Ниже в таблице приведены временные реализации для этих процессов.
Марковскими процессами называются такие, в которых будущее не зависит от прошлого, а определяется только настоящим.
Цепи Маркова
Пусть некоторая физическая система может находиться в состояниях 





Дискретной цепью Маркова называется такой случайный процесс, в котором вероятность того, что система окажется в некотором состоянии 


Можно отметить, что в цепях Маркова зависимость между состояниями простирается лишь на один шаг назад.
Введем понятие переходной вероятности — это вероятность перехода системы из одного состояния в другое:
Если 


Свойства матрицы переходных вероятностей:
1.
2. Сумма по строке — 
Матрицы, удовлетворяющие этим свойствам, называются стохастическими. Величины 




Вероятность перехода за 
















Формула Маркова для цепей
Обозначим через 





Применяя последовательно формулу (13.47), получим
Можно ожидать, что при переходах в п шагов влияние начального распределения с ростом 




Пусть 



Пусть существует предел

Тогда говорят, что существует предельное, финальное, распределение вероятностей 


Пример №8
Дана цепь Маркова, которая описывается матрицей переходных вероятностей

Необходимо определить вероятность 
Решение.
Запишем вероятность перехода за 
Обозначая 

Учтем, что 
Найдем предел при
Тогда искомая вероятность вычисляется так:
Марковские процессы с непрерывным временем
Случайный процесс X(t) называется марковским, если для любого момента времени 





Среди марковских процессов с непрерывным множеством состояний наиболее важными являются процессы, которые имеют 






1. 



2. Плотность любого 



Условная вероятность для марковского процесса
Поскольку вероятностные свойства процесса в момент 


Условную плотность распределения 

Зная, что 

Учитываем свойство марковских цепей:

Тогда 



Отсюда видно, что для задания 


Рассмотрим 3 момента времени: 


Используя (13.49) для 

Подставляя в (13.57) уравнения (13.55) и (13.56), получим
Это уравнение Смолуковского (или Колмогорова-Чепмена) является основным в теории непрерывных марковских процессов.
Уравнения Колмогорова
Введем следующие обозначения:
Запишем переходные вероятности через уравнение Смолуковского в моменты


Вычтем из формулы (13.60) формулу (13.59):

Разложим в ряд Тейлора функцию
Подставляя это разложение в интеграл (13.61), разделим левую и правую часть на 


Это первое уравнение Колмогорова, где


Аналогично выводится втрое уравнение Колмогорова:

Здесь 


Непрерывный марковский процесс, который описывается уравнениями (13.63) и (13.66) называется диффузионным. Коэффициент 

Уравнение (13.66) называется прямым уравнением Колмогорова, а уравнение (13.63) называется обратным уравнением Колмогорова. Уравнения Колмогорова относятся к классу параболических дифференциальных уравнений в частных производных.
- Выборочный метод
- Статистическая проверка гипотез
- Статистические оценки
- Теория статистической проверки гипотез
- Проверка статистических гипотез
- Регрессионный анализ
- Корреляционный анализ
- Статистические решающие функции
Как найти математическое ожидание?
Математическое ожидание случайной величины $X$ (обозначается $M(X)$ или реже $E(X)$) характеризует среднее значение случайной величины (дискретной или непрерывной). Мат. ожидание — это первый начальный момент заданной СВ.
Математическое ожидание относят к так называемым характеристикам положения распределения (к которым также принадлежат мода и медиана). Эта характеристика описывает некое усредненное положение случайной величины на числовой оси. Скажем, если матожидание случайной величины — срока службы лампы, равно 100 часов, то считается, что значения срока службы сосредоточены (с обеих сторон) от этого значения (с тем или иным разбросом, о котором уже говорит дисперсия).
Нужна помощь? Решаем теорию вероятностей на отлично
Спасибо за ваши закладки и рекомендации
Формула среднего случайной величины
Математическое ожидание дискретной случайной величины Х вычисляется как сумма произведений значений $x_i$ , которые принимает СВ Х, на соответствующие вероятности $p_i$:
$$
M(X)=sum_{i=1}^{n}{x_i cdot p_i}.
$$
Для непрерывной случайной величины (заданной плотностью вероятностей $f(x)$), формула вычисления математического ожидания Х выглядит следующим образом:
$$
M(X)=int_{-infty}^{+infty} f(x) cdot x dx.
$$
Пример нахождения математического ожидания
Рассмотрим простые примеры, показывающие как найти M(X) по формулам, введеным выше.
Пример 1. Вычислить математическое ожидание дискретной случайной величины Х, заданной рядом:
$$
x_i quad -1 quad 2 quad 5 quad 10 quad 20 \
p_i quad 0.1 quad 0.2 quad 0.3 quad 0.3 quad 0.1
$$
Используем формулу для м.о. дискретной случайной величины:
$$
M(X)=sum_{i=1}^{n}{x_i cdot p_i}.
$$
Получаем:
$$
M(X)=sum_{i=1}^{n}{x_i cdot p_i} =-1cdot 0.1 + 2 cdot 0.2 +5cdot 0.3 +10cdot 0.3+20cdot 0.1=6.8.
$$
Вот в этом примере 2 описано также нахождение дисперсии Х.
Пример 2. Найти математическое ожидание для величины Х, распределенной непрерывно с плотностью $f(x)=12(x^2-x^3)$ при $x in(0,1)$ и $f(x)=0$ в остальных точках.
Используем для нахождения мат. ожидания формулу:
$$
M(X)=int_{-infty}^{+infty} f(x) cdot x dx.
$$
Подставляем из условия плотность вероятности и вычисляем значение интеграла:
$$
M(X)=int_{-infty}^{+infty} f(x) cdot x dx = int_{0}^{1} 12(x^2-x^3) cdot x dx = int_{0}^{1} 12(x^3-x^4) dx = \
=left.(3x^4-frac{12}{5}x^5) right|_0^1=3-frac{12}{5} = frac{3}{5}=0.6.
$$
Другие задачи с решениями по ТВ
Подробно решим ваши задачи по теории вероятностей
Вычисление математического ожидания онлайн
Как найти математическое ожидание онлайн для произвольной дискретной случайной величины? Используйте калькулятор ниже.
- Введите число значений случайной величины К.
- Появится форма ввода для значений $x_i$ и соответствующих вероятностей $p_i$ (десятичные дроби вводятся с разделителем точкой, например: -10.3 или 0.5). Введите нужные значения (проверьте, что сумма вероятностей равна 1, то есть закон распределения корректный).
- Нажмите на кнопку «Вычислить».
- Калькулятор покажет вычисленное математическое ожидание $M(X)$.
Видео. Полезные ссылки
Видеоролики: что такое среднее (математическое ожидание)
Если вам нужно более подробное объяснение того, что такое мат.ожидание, как она вычисляется и какими свойствами обладает, рекомендую два видео (для дискретной и непрерывной случайной величины соответственно).
Лучшее спасибо — порекомендовать эту страницу
Полезные ссылки
А теперь узнайте о том, как находить дисперсию или проверьте онлайн-калькулятор для вычисления математического ожидания, дисперсии и среднего квадратического отклонения дискретной случайной величины.
Что еще может пригодиться? Например, для изучения основ теории вероятностей — онлайн учебник по терверу. Для закрепления материала — еще примеры решений по теории вероятностей.
А если у вас есть задачи, которые надо срочно сделать, а времени нет? Можете поискать готовые решения в решебнике или заказать в МатБюро:
1. Случайные процессы
Функция X(t) называется случайной, если при каждом значении аргумента t = t* X(t*) является случайной величиной (СВ). Если аргументом t является время, то X(t) называют случайным процессом.
Функция , полученная в результате одного (i — го) опыта , обозначается xi(t) и называется i – й реализацией случайного процесса X(t).
Случайный процесс можно рассматривать либо как совокупность случайных величин,
зависящих от параметра t , либо как ансамбль реализаций.
X(t) — случайный процесс (СП)
x(t) — реализация СП
x(t) x(1)(t) x(2)(t)
t
t* t**
xt* xt**
Xt*- СВ, соответствующая сечению t*.
1.1 Классификация СП
Случайные процессы
Дискретные СП Непрерывные СП
а) непрерывные по времени а) непрерывные по времени
б) дискретные по времени б) дискретные по времени
1.2 Характеристики СП
1.2.1. Математическое ожидание (МО) СП
Математическим ожиданием случайного процесса X(t) называется неслучайная функция времени mx(t), которая при каждом значении аргумента t=t равна математическому ожиданию СВ X(t), соответствующей этому сечению процесса X(t).
(если X(t) – непрерывный СП)
fx(,t) – одномерная плотность распределения X(t).
1.2.2 Корреляционная функция СП
Корреляционной функцией случайного процесса X(t) называется неслучайная функция Rx(t,t) двух переменных t и t, значение которой при всяких t и t равно ковариации случайных величин
и , соответствующих этим сечениям процесса X(t).
, где X(t) – непрерывный СП;
— двумерная плотность распределения случайного процесса X(t).
Автокорреляционная функция – сечения относятся к одному СП . Автокорреляционная функция характеризует степень линейной связи СВ, соответствующим двум сечениям СП. Если Xt и Xt независимы, то
Для автокорреляционной функции справедливо RX(t,t) = RX(t,t).
Взаимно корреляционная функция – берутся сечения двух разных СП: X(t) и Y(t).
1.2.3 Дисперсия СП
Дисперсией случайного процесса X(t) называется неслучайная функция времени Dx(t), которая при каждом значении аргумента t равна дисперсии случайной величины Xt , соответствующей этому сечению процесса X(t):
1.3 Преобразования СП
Центрированный СП:
Это процесс получаемый путем вычитания из СП его МО :
= X(t) – mX(t) M() = 0
Нормированный СП:
M()=0
D()=1
1.3.1 Добавление неслучайной функции
Дано: X(t), mX(t), RX(t,t)
,- неслучайная (детерминированная) функция времени
Определить: mY(t)-? ,RY(t,t)-?
= mX(t)+
RY(t,t)=
1.3.2 Умножение на неслучайную величину
Дано: X(t), mX(t), RX(t,t)
Определить: mY(t)-? ,RY(t,t)-?
Доказательство:
В частности, если то и
1.3.3 Сложение СП
Дано: X1(t), m1(t), RX1(t,t),X2(t), mX2(t), RX2(t,t)
Определить: mY(t)-? ,RY(t,t)-?
Доказательство:
Если и — независимые СП, то RX1X2(t,t) = 0, RX2X1(t,t) = 0 и .
1.3.4 Дифференцирование СП
Дано: X(t), mX(t), RX(t,t)
Y(t)=
Определить: mY(t)=? RY(t,t)=?
mY(t)=
RY(t,t)=
1.3.5 Интегрирование СП
Дано: X(t), mX(t), RX(t,t)
Y(t)=
Определить: mY(t)=? RY(t,t)=?
mY(t)=
RY(t,t)=
1.4 Стационарные СП
Процесс X(t) называется стационарным в широком смысле, если его математическое ожидание не зависит от времени, а корреляционная функция зависит только
от разности аргументов
Свойства RX():
1) RX()=RX(-) — симметрия относительно оси ординат RX()
(четность)
2) max RX() =RX(0)
0
1.5 Свойства эргодичности стационарных СП
Усреднение по ансамблю реализаций: x(t) x(t)
Усреднение по одной реализации:
t t+ T t
1.5.1 Эргодичность по МО
X(t) — обладает свойством эргодичности по М.О. , если с вероятностью равной 1 имеем
mX(T)=mX
1.5.2 Эргодичность по корреляционной функции
X(t) — обладает свойством эргодичности по корреляционной функции, если с вероятностью
равной 1 имеем RX(T)()=RX () .
1.5.3 Достаточное условие эргодичности по М.О.
Стационарный СП является эргодическим по М.О., если
Это условие имеет место, когда
1.5.4 Примеры
Пример1:
Дано: СП ; — константа.
Определить:
Пример 2:
Дано:
A, — СВ (независимые)
Определить:
Следовательно, процесс X(t) является стационарным.
Пример 3:
Дано:
— равномерно распределена в диапазоне (0,2)
mx = 0; процесс стационарный
Анализ эргодичности:
A – константа; — СВ Функция стационарна и эргодична.
1.6 Статистика СП
1.6.1 Оценивание характеристик СП по ансамблю реализаций
Вся совокупность возможных реализаций случайного процесса называется ансамблем реализаций.
Пусть имеем N реализации X(t)
Если tl=tk,то это оценка дисперсии D().
Если процесс стационарный можем получить более точную оценку (если процесс эргодичен):
, n – число сечений
Стремления к истинному значению при n в последних выражениях не будет , если процесс не эргодичен .
1.6.2 Оценивание характеристик СП по одной реализации
(для эргодических СП)
1.6.2.1 Оценка характеристик
Измерения в дискретные моменты t , интервалы все одинаковы.
m = 0,1,…; N – число сечений
1.6.2.2 Построение аппроксимации
корреляционной функции 0 1 2 3 4
Задача заключается в выборе параметров: .
Воспользуемся методом наименьших квадратов.
Так как задача нелинейна по оцениваемым параметрам, то используем логарифмическое преобразование данных:
= , j = 1,2,…,k ;
Целесообразно брать точки, при малых значениях аргумента .
Оценки находим, решая систему линейных уравнений:
1.6.3 Проверка стационарности
— при наличии совокупности реализаций процесса
Если СП X(t) является стационарным, то МО и дисперсии СВ X(t1 ), …. , X(tm), соответствующих различным сечениям процесса, будут одинаковыми. Это условие является необходимым для стационарных процессов.
• при наличии одной реализации
В данном случае можно говорить лишь о «стационарности одной реализации» процесса, т.е. о неизменности во времени МО и корреляционной функции данной реализации процесса. Если полагать , что реализации «почти одинаковые», то убедившись в «стационарности одной реализации», можно делать вывод и о стационарности ансамбля реализаций.
— при использовании непараметрического критерия Крускала и Уоллиса
При его использовании не делается никаких предположений о виде одномерных законов распределения случайного процесса (то есть в данном случае о виде распределений случайных величин X(t1 ), …. , X(tm)). Рассматривая m сечений процесса , в достаточной степени разнесенных во времени (ясно , что вывод о стационарности будет справедлив лишь для интервала (t1,tm)).
Обозначим через xi(tk) значение процесса в i –ой реализации в сечении tk , k=1,2,3,…,m; i=1,2,3,…,n , а общее число наблюдений процесса (nm) через N. Теперь упорядочим N наблюдений, расположив их по убыванию наблюдаемых значений и приписав каждому ранг, равный номеру его места в упорядоченной последовательности. Далее найдем суммы rk , k=1,2,3,…,m рангов для наблюдений из каждого сечения процессаи рассчитаем следующую статистику
Где числитель есть умноженная на n сумма квадратов отклонений средних рангов по каждому сечению от среднего ранга по всей последовательности, а знаменатель- средний квадрат отклонений от среднего ранга всех элементов последовательности.
Отметим, что если в последовательности из N наблюдений имеют место совпадающие числа, то им приписывают одинаковые ранги, равные среднему номеру мест для совпадающих чисел. При этом, если количество совпадающих чисел не очень велико, то знаменатель можно оставить без изменений.
2. Марковские процессы
СП X(t) называется Марковским процессом (МП), если при известном значении x(t*), значения процесса X(t) при t>t*, зависят только от x(t*) и не зависят от значений x(t) при t
0
Сообщающиеся состояния
Si и Sj сообщающиеся, если хотя бы при каких-либо k1 и k2 , pij(k1)>0 и pji(k2)>0
Замкнутое множество состояний
Множество состояний (С) называется замкнутым, если оно состоит из сообщающихся состояний и никакое состояние вне этого множества недостижимо из любого состояния, принадлежащего этому множеству.
Пример:( — замкнутое множество состояний
Поглощающее состояние Это замкнутое множество состояний, состоящее из одного состояния.
Пример: — поглощающее состояние
Возвратные состояния
Si возвратное, если вероятность того, что процесс, выйдя из этого состояния, когда-нибудь в него вернется равна единице.
2.3 Расчет вероятностей состояний цепи Маркова
в стационарном режиме
(стационарных вероятностей)
р(t)
1
p0(t)
p1(t)
t
переходной стационарный
режим режим
Пусть система может находиться в состояниях S0, S1, … Sn
Р- матрица одношаговых переходных вероятностей.
p0 , p1 , … pn — стационарные вероятности состояний.
т.к. вероятности во времени не меняются, то
, i=0,1,2 … n
Получим систему из (n+1) уравнений и (n+1) переменных.
Эта однородная система, она всегда имеет тривиальное решение.
Здесь существует нормирующее условие.
2.4 Однородные дискретные МП с непрерывным временем
S0 ,S1, … , Sn – состояние МП.
Время теперь непрерывное. Переход из состояния в состояние происходит в произвольные моменты времени.
pij(t)- вероятность перехода из i в j за время t.
t- непрерывная величина.
Т.к. МП однородный , то
pij(t0 , t )=pij(t)
текущий интервал
момент времени
2.4.1 Интенсивность перехода из Si в Sj
01
Интенсивность 10
, т.е. ij есть предел отношения 02 21
pij(t) к t, при t0.
Интенсивность – среднее число переходов из i – го состояния в j-ое состояние за единицу времени. Единица измерения (1/ед.времени).
2.4.2 Система уравнений Колмогорова для вероятностей состояний Марковского процесса с непрерывным временем
Рассмотрим дискретный Марковский процесс на интервале t,t + (t – текущее время);
S0 ,…,Sn — состояния МП
— элемент матрицы переходных вероятностей.
Левую и правую части делим на и переходим к пределу, при
, j = 0,1,2…,n;
_______________________________________________________________
Это система дифференциальных уравнений Колмогорова для вероятностей
состояний дискретного МП с непрерывным временем
Для решения (т.е. для нахождения нужно задать начальные условия
2.4.3 Формальное правило записи системы уравнения Колмогорова
i i
Число слагаемых в уравнении для состояния Si –равно числу
дуг связанных с данным состоянием.
i i
Если дуги выходят из Si, то слагаемое берется со знаком «-», если входит, то «+».
Каждое слагаемое равно: произведению интенсивности перехода по дуге на вероятность состояния, из которого дуга выходит:
Решение находится обычно операторным методом (путем перехода от оригиналов – функций
pi(t) – к их изображениям — p0(s) – путем преобразования Лапласа)
2.4.4 Таблица преобразований по Лапласу
Оригинал
p(t)
Изображение по Лапласу
p0(s)
2.4.5 Решение системы уравнений Колмогорова (пример)
Пример:
Дано:
S0 S1 S2
Преобразуем по Лапласу левые и правые части каждого уравнения
из (1) (5)
из (3) (6)
Подставляем (5) и (6) в (4):
s1 и s2 — корни уравнения
Переходим от изображения к оригиналу (см.табл. 2.5.4)
2.5 Предельное поведение МП с непрерывным
временем
2.5.1 Вычисление предельных (стационарных) вероятностей состояний дискретного Марковского процесса с непрерывным временем
В стационарных режимах и
j = 0,1,…,n
2.5.2 Схема “гибели и размножения”
0 1 2 m-1 m n-1
….. …..
1 2 3 m m+1 n
2.5.3 Определение стационарных вероятностей состояний
для схемы “гибели и размножения”
Из (0) :
Из(1) :
Из(k):
Из (n):
3 Потоки событий
Потоки событий – это последовательность однородных событий, следующих одно за другим:
t — это поток событий
• событие
Поток называется случайным, если длительность периода между событиями – СВ.
Существует 2 способа описания случайных потоков:
1) K1 K2 K3 … Kn t
K1,…,Kn — случайные числа событий на последовательных интервалах.
Функция распределения векторной случайной величины
K=( K1,…,Kn) – является характеристикой потока
FK1…Kn(k1…kn) = Вер(K10.
Т.к. поток без последействия, то K1,…,Kn (числа событий на последовательных интервалах) – независимые СВ. Найдем функцию распределения интервалов между событиями простейшего потока.
Функция плотности вероятности при этом
2)Рекурентный поток (поток Пальма)
Это поток с ограниченным последействием, для которого интервалы между событиями независимы и распределены одинаково.
.
3)Поток Эрланга:
простейший поток
x x x x x x x – события простейшего потока
k=1
0 0 0 0 – события потока Эрланга порядка k=1
— случайное время между событиями потока Эрланга порядка k.
Tk — независимые СВ, распределенные по экспоненциальному закону.
Если мы суммируется k независимых стационарных потоков с любым последействием, то
при k результирующий поток, оказывается простейшим с интенсивностью .
x x 1
x x x 2
x x x k
x x x x x x х x результирующий
(суммарный) поток
4 Марковские модели систем массового обслуживания
Теория массового обслуживания изучает системы, предназначенные для выполнения заказов, поступающих от клиентов систем.
4.1 Классификация моделей СМО
Допущения:
1.Поток заявок- случайный (в Марковских системах – простейший).
2.Каждая заявка обслуживается одним прибором и без перерывов.
3.Время обработки одной заявки- СВ (в Марковских системах закон распределения
экспоненциальный).
Классификация моделей СМО может производиться по различным признакам
1) По способу образования очереди:
• очередь не создается (СМО с отказами)
• очередь имеет конечную длину (СМО с отказами)
• очередь неограничена.
2) По способу выхода из очереди (по дисциплине обслуживания):
• прямая очередность (первый пришел, первый попал на обслуживание)
• инверсная очередность (последний пришел, первый попал на обслуживание)
• случайная очередность
• обслуживание по приоритетам (абсолютные и относительные приоритеты).
3) По структуре СМО:
• одноканальные и многоканальные СМО
• разомкнутые и замкнутые СМО
• сети СМО.
4.2 Характеристики СМО
1) Пропускная способность (С) — это максимальное среднее число заявок, которое может быть обслужено системой в единицу времени (интенсивность выходного потока при полной загрузке системы).
2) Коэффициент загрузки (Кз) — это доля времени, когда канал занят обработкой (отношение интенсивности заявок, поступающих на обработку, к пропускной способности).
3) Среднее число занятых каналов ( ).
4) Вероятность отказа от обслуживания ( Pотк ).
5) Среднее время ожидания обслуживания (mw).
6) Средняя длина очереди (Lоч).
7) Среднее число заявок в системе Lсист=Lоч+

Формулы Литтла
число заявок
X(t) Y(t)
6 X(t)- число поступивших в систему заявок
5 к моменту t.
4 Y(t)- число ушедших из системы заявок
3 к моменту t.
2 Z(t)=X(t)-Y(t) — число заявок находящихся
1 в системе в момент t.
T t
Среднее число заявок, находящихся в системе-
L сист
vi — время пребывания в системе i -ой заявки
T- среднее число заявок , поступающих в систему за время T
Мы могли бы рассматривать не систему, а очередь, тогда те же рассуждения привели бы нас к другой формуле.
, – среднее время ожидания обслуживания
4.3 Одноканальные СМО с неограниченной очередью.
(без отказов)
очередь обслуживающий прибор (канал)
поток заявок
олрдр
(простейший) — интенсивность обслуживания
T T
обслуж. прибор
время время
обслуж. обслуж.
T- распределено по экспоненциальному закону с параметром >0 , т.е. плотность распределения Т есть
— интенсивность обслуживания (интенсивность потока событий на выходе СМО при полной загрузке).
Граф состояний этой системы
….. ……
Признак выделения состояний — число заявок, находящихся в системе.
Число состояний может быть бесконечно большим. Состояния все сообщающиеся.
Если бы число n было бы конечно, то всегда существовало бы стационарный режим. В нашем случае возможны ситуации, когда очередь будет постоянно расти; такая ситуация имеет место, когда среднее время обслуживания больше среднего времени между поступающими заявками (т.е. когда > ).
Стационарные вероятности состояний (см. разделы 2.6.2, 2.6.3):
k=0,1,2, … n
— условие существования стационарного режима
Характеристики:
1) С =
2) Кз =
3)
4) Pотк=0
5) (mv получено ниже)
6)

4.4 m — канальная СМО с неограниченной очередью
……
Граф состояний системы
….. ……
2 3 m m m
В этой системе число состояний неограниченно, и возможны ситуации, когда стационарный режим отсутствует.
Вероятности состояния в стационарном режиме:
………………………..
Условие существования стационарного режима: m1
Характеристики:
1) C=m
2)
3)
4) Pотк=0
5) (Lоч получено ниже)
6)
7)

4.5 СМО с отказами
m- канальная СМО с ограниченной очередью
(1- Pотк.)
k
……
Pотк.
….. ……
2 3 m m m
Вероятности состояний в стационарном режиме (стационарный режим всегда имеет место):
Характеристики:
1) C=m
2)
3)
4)
5) (Lоч получено ниже)
6)
7)

4.6 Замкнутая СМО
(СМО с конечным числом пользователей)
В этой системе интенсивность потока заявок, поступающих в очередь, зависит от состояния системы. Полагая, что пользователь, пославший заявку в систему ожидает ответа, (т.е. не посылает следующую заявку до получения ответа на предыдущую).
очередь обслуж.прибор
(канал)
пользователи
N (N-1) (N-2)
………
Вероятности состояний в стационарном режиме (стационарный режим всегда существует):
Расчет среднего времени пребывания заявки в системе (mv)
находим mw:
Состояние системы в момент получения заявки
ср.вр.ожид.
S0
S1
1/
S2
2/
……
…..
…..
…..
SN-1
N-1/
Рассмотрим длительный интервал времени Т
состояния
время
пребывания
число поступающих
заявок
доля заявок
S0
TP0
TP0N
S1
TP1
TP1(N-1)
S2
TP2
TP2(N-2)
…………….
………………………
…………………………
……………………………….
SN-1
TPN-1
TPN-1
SN
TPN
— среднее время ожидания












































































































































































































































































































































































































































































– функция распределения времени пребывания процесса в состоянии
при условии, что следующим состоянием будет 
(например,
при
– это означает, что процесс начинается из состояния Е1).
из начального состояния;
за время t;
.




























































































































































