0

Закон распределения случайных чисел

Содержание

В данном разделе вы найдете формулы по теории вероятностей, описывающие законы распределения дискретных и непрерывных случайных величин: биномиальный, Пуассона, экспоненциальный, равномерный, нормальный.

Каталог формул по теории вероятности онлайн

Законы распределения на этой странице

Дискретные случайные величины

Биномиальное распределение ДСВ

Пусть дискретная случайная величина $X$ – количество "успехов" в последовательности из $n$ независимых случайных экспериментов, таких что вероятность "успеха" в каждом из них равна $p$ ("неуспеха" – $q=1-p$).

Закон распределения $X$ имеет вид:

$x_k$ 1 . k . n
$p_k$ $q^n$ $ncdot p cdot q^$ $C_n^k cdot p^k cdot q^$ $p^n$

Здесь вероятности находятся по формуле Бернулли:

$$ P(X=k) = C_n^k cdot p^k cdot (1-p)^ = C_n^k cdot p^k cdot q^, k=0,1,2. n. $$

Числовые характеристики биномиального распределения:

Примеры многоугольников распределения для $n=5$ и различных вероятностей:

Пуассоновское распределение ДСВ

Распределение Пуассона моделирует случайную величину, представляющую собой число событий, произошедших за фиксированное время, при условии, что данные события происходят с некоторой фиксированной средней интенсивностью и независимо друг от друга.

При условии $p o 0$, $n o infty$, $np o lambda = const$ закон распределения Пуассона является предельным случаем биномиального закона. Так как при этом вероятность $p$ события $A$ в каждом испытании мала, то закон распределения Пуассона называют часто законом редких явлений.

Ряд распределения по закону Пуассона имеет вид:

$x_k$ 1 . k .
$p_k$ $e^<-lambda>$ $lambda e^<-lambda>$ . $frac<lambda^k>cdot e^<-lambda>$ .

Вероятности вычисляются по формуле Пуассона:

Числовые характеристики для распределения Пуассона:

Разные многоугольники распределения при $lambda = 1; 4; 10$.

Геометрическое распределение ДСВ

Пусть происходит серия независимых испытаний, в каждом из которых событие может появится с одной и той же вероятностью $p$. Тогда случайная величина $X$ – количество испытаний до первого появления события, имеет геометрическое распределение вероятностей.

Формула для вероятностей:

$$ P(X=k) = q^k cdot p, k=0,1,2. n. $$

Ряд распределения геометрического закона:

$x_k$ 1 2 . k .
$p_k$ $p$ $qcdot p$ $q^2 cdot p$ . $q^k cdot p$ .

Гипергеометрическое распределение ДСВ

Из урны, в которой находятся $N$ шаров ($K$ белых и $N-K$ чёрных шаров), наудачу и без возвращения вынимают $n$ шаров ($n le N$). Найти закон распределения случайной величины $X$ – равной числу белых шаров среди выбранных.

Случайная величина $X$ может принимать целые значения от $0$ до $K$ (если $n lt K$, то до $n$). Вероятности вычисляются по формуле: $$ P(X=k)=frac^>, quad 0le k le K. $$

$$M(X)=fraccdot n, quad D(X)=fraccdot n cdot frac cdot frac.$$

Непрерывные случайные величины

Показательное распределение НСВ

Экспоненциальное или показательное распределение — абсолютно непрерывное распределение, моделирующее время между двумя последовательными свершениями одного и того же события.

Плотность распределения величины $X$(везде $ lambda gt 0)$:

Функция распределения величины $X$:

Числовые характеристики можно найти по формулам:

Плотность распределения при различных значениях $lambda gt 0$:

Равномерное распределение НСВ

Равномерный закон распределения используется при анализе ошибок округления при проведении числовых расчётов (например, ошибка округления числа до целого распределена равномерно на отрезке), в ряде задач массового обслуживания, при статистическом моделировании наблюдений, подчинённых заданному распределению.

Плотность распределения на отрезке $(a;b)$:

$$ f(x)= left< egin 0, x le a\ frac <1>, a lt x le b, \ 0, x gt b, \ end
ight. $$

$$ F(x)= left< egin 0, x le a\ frac , a lt x le b, \ 1, x gt b, \ end
ight. $$

Числовые характеристики равномерно распределенной случайной величины:

График плотности вероятностей:

Нормальное распределение или распределение Гаусса НСВ

Нормальное распределение, также называемое распределением Гаусса, – распределение вероятностей, которое играет важнейшую роль во многих областях знаний, особенно в физике.

Физическая величина подчиняется нормальному распределению, когда она подвержена влиянию огромного числа случайных помех. Ясно, что такая ситуация крайне распространена, поэтому можно сказать, что из всех распределений в природе чаще всего встречается именно нормальное распределение — отсюда и произошло одно из его названий.

Плотность распределения нормальной случайной величины $X$ имеет вид:

При $a=0$ и $sigma=1$ эта функция принимает вид:

Числовые характеристики для нормального распределения:

Пример графика плотности распределения для различных значений среднего и СКО:

Нормальный закон распределения случайной величины с параметрами $a=0$ и $sigma=1$ называется стандартным или нормированным, а соответствующая нормальная кривая – стандартной или нормированной.

Функция Лапласа определяется как:

Вероятность попадания нормально распределенной случайной величины $X$ в заданный интервал $(alpha, eta)$:

$$ P(alpha lt X lt eta) = Phileft( frac<eta-a> <sigma>
ight) – Phileft( frac<alpha-a> <sigma>
ight). $$

Вероятность отклонения нормально распределенной случайной величины $X$ на величину $delta$ от математического ожидания (по модулю).

Решенные задачи по теории вероятностей

Ищете готовые задачи по теории вероятностей? Посмотрите в решебнике:

  • Главная
  • Репетиторы
  • Учебные материалы
  • Контакты

1.Биномиальный закон распределения.

Биномиальный закон распределения описывает вероятность наступления события А m раз в n независимых испытаниях, при условии, что вероятность р наступления события А в каждом испытании постоянна.

Например, отдел продаж магазина бытовой техники в среднем получает один заказ на покупку телевизоров из 10 звонков. Составить закон распределения вероятностей на покупку m телевизоров. Построить полигон распределения вероятностей.

В таблице m – число заказов, полученных компанией на покупку телевизора. Сn m – число сочетаний m телевизоров по n, p – вероятность наступления события А, т.е. заказа телевизора, q – вероятность не наступления события А, т.е. не заказа телевизора, P m,n – вероятность заказа m телевизоров из n. На рисунке 1 изображен полигон распределения вероятностей.

2.Геометрическое распределение.

Геометрическое распределение случайной величины имеет следующий вид:

P m – вероятность наступления события А в испытание под номером m.
р – вероятность наступления события А в одном испытании.
q = 1 – p

Пример. В компанию по ремонту бытовой техники поступила партия из 10 запасных блоков для стиральных машин. Бывают случаи, что в партии оказывается 1 блок бракованный. Проводится проверка до обнаружения бракованного блока. Необходимо составить закон распределения числа проверенных блоков. Вероятность того, что блок может оказаться бракованным равна 0,1. Построить полигон распределения вероятностей.

Из таблицы видно, что с увеличением числа m, вероятность того, что будет обнаружен бракованный блок, снижается. Последняя строчка (m=10) объединяет две вероятности: 1 – что десятый блок оказался неисправным – 0,038742049 , 2 – что все проверяемые блоки оказались исправными – 0,34867844. Так как вероятность того, что блок окажется неисправным относительно низкая (р=0,1), то вероятность последнего события P m (10 проверенных блоков) относительно высокая. Рис.2.

3.Гипергеометрическое распределение.

Гипергеометрическое распределение случайной величины имеет следующий вид:

Например, составить закон распределения 7-ми угаданных чисел из 49. В данном примере всего чисел N=49, изъяли n=7 чисел, M – всего чисел, которые обладают заданным свойством, т.е. правильно угаданных чисел, m – число правильно угаданных чисел среди изъятых.

Из таблицы видно, что вероятность угадывания одного числа m=1 выше, чем при m=0. Однако затем вероятность начинает быстро снижаться. Таким образом, вероятность угадывания 4-х чисел уже составляет менее 0,005, а 5-ти ничтожно мала.

4.Закон распределения Пуассона.

Случайная величина Х имеет распределение Пуассона, если закон ее распределения имеет вид:

λ = np = const
n – число испытаний, стремящиеся к бесконечности
p – вероятность наступления события, стремящаяся к нулю
m – число появлений события А

Например, в среднем за день в компанию по продаже телевизоров поступает около 100 звонков. Вероятность заказа телевизора марки А равна 0,08; B – 0,06 и C – 0,04. Составить закон распределения заказов на покупку телевизоров марок А,В и С. Построить полигон распределения вероятностей.

Из условия имеем: m=100, λ 1 =8, λ 2 =6, λ 3 =4 ( ≤10 )

(таблица дана не полностью)

Если n достаточно большое и стремится к бесконечности, а значение p стремится к нулю, так что произведение np стремится к постоянному числу, то данный закон является приближением к биномиальному закону распределения. Из графика видно, что чем больше вероятность р, тем ближе кривая расположена к оси m, т.е. более пологая. (Рис.4)

Необходимо отметить, что биномиальный, геометрический, гипергеометрический и закон распределения Пуассона выражают распределение вероятностей дискретной случайной величины.

5.Равномерный закон распределения.

Если плотность вероятности ϕ(х) есть величина постоянная на определенном промежутке [a,b], то закон распределения называется равномерным. На рис.5 изображены графики функции распределения вероятностей и плотность вероятности равномерного закона распределения.

6.Нормальный закон распределения (закон Гаусса).

Среди законов распределения непрерывных случайных величин наиболее распрастраненным является нормальный закон распределения. Случайная величина распределена по нормальному закону распределения, если ее плотность вероятности имеет вид:

где
а – математическое ожидание случайной величины
σ – среднее квадратическое отклонение

График плотности вероятности случайной величины, имеющей нормальный закон распределения, симметричен относительно прямой х=а, т.е х равному математическому ожиданию. Таким образом, если х=а, то кривая имеет максимум равный:

При изменении величины математического ожидания кривая будет смещаться вдоль оси Ох. На графике (Рис.6) видно, что при х=3 кривая имеет максимум, т.к. математическое ожидание равно 3. Если математическое ожидание примет другое значение, например а=6, то кривая будет иметь максимум при х=6. Говоря о среднем квадратическом отклонении, как можно увидеть из графика, чем больше среднее квадратическое отклонение, тем меньше максимальное значение плотности вероятности случайной величины.

Функция, которая выражает распределение случайной величины на интервале (-∞,х), и имеющая нормальный закон распределения, выражается через функцию Лапласа по следующей формуле:

Т.е. вероятность случайной величины Х состоит из двух частей: вероятности где x принимает значения от минус бесконечности до а, равная 0,5 и вторая часть – от а до х. (Рис.7)

7.Показательный закон распределения.

Закон распределения случайной величины Х называется показательным (или экспоненциальным), если плотность вероятности имеет вид:

где λ – параметр обратно-пропорциональный математическому ожиданию.

График плотности вероятности с параметрами
λ = 2, λ = 4, λ =6 изображен на рис.8

Функция распределения случайной величины Х, которая имеет показательное распределение, имеет вид:

График функции изображен на рис.9

Если функцию распределения случайной величины выразить через плотность вероятности при х ≥ а, то она примет вид:

8.Логарифмически-нормальное распределение.

Если логарифм непрерывной случайной величины изменяется по нормальному закону, то случайная величина имеет логарифмически-нормальное распределение. Функция логаривмически-нормального распределения имеет вид.

Из графика видно, что чем меньше σ и больше математическое ожидание а, тем кривая становится более пологая и больше стремится к симметрии. Данный закон, чаще всего, используется для описания распределения поступления денежных средств (доходов), банковских вкладов, износа основных средств и т.д. (Рис.10)

9. χ ² распределение

Сумма квадратов k независимых случайных величин, которые распределены по нормальному закону, называется χ ² распределением.

χ ² распределение имеет вид:

А i – i-ая случайная величина, распределенная по нормальному закону (i = 1,2,3. k).

Плотность вероятности случайной величины, распределенной по распределению χ ² имеет вид:

Из графика видно, что чем больше n=k, тем кривая стремиться к нормальному распределению. Рис.11.

10.Распределение Стьюдента (t – распределение)

Распределение непрерывной случайной величины называется распределением Стьюдента, если оно имеет вид:

Z – случайная величина, распределенная по нормальному закону.
χ ² – случайная величина, имеющая χ ² – распределение с k степенями свободы.

Плотность вероятности распределения Стьюдента имеет вид:

На рис.12 изображена плотность вероятности распределения Стьюдента. Из графика можно увидеть, что чем больше k, тем больше кривая приближается к нормальному распределению.

11. Распределение Фишера-Снедекора.

Распределение случайной величины Фишера-Снедекора имеет вид:

Плотность вероятности случайной величины имеет вид:

При стремлении n к бесконечности распределение Фишера-Снедекора стремится к нормальному закону распределения.(Рис.13)

Генератор случайных чисел во многом подобен сексу: когда он хорош — это прекрасно, когда он плох, все равно приятно (Джордж Марсалья, 1984)

Популярность стохастических алгоритмов все растет. Многие из них базируются на генерации большого количества различных случайных величин. Далеко не всегда равномерно распределенных. Здесь я попытался собрать информацию о быстрых и точных генераторах случайных величин с известными распределениями. Задачи могут быть разными, разными могут быть и критерии. Кому-то важно время генерации, кому-то — точность, кому-то — криптоустойчивость, кому-то — скорость сходимости. Лично я исходил из предположения, что мы имеем некий базовый генератор, возвращающий псевдослучайное целое число, равномерно распределенное от 0 до некого RAND_MAX

и что этот генератор достаточно быстрый. Я имею ввиду, что дешевле сгенерировать с десяток случайных чисел, нежели чем посчитать логарифм или возвести в степень одно из них. Это могут быть стандартные генераторы: std::rand(), rand в MATLAB, Java.util.Random и т.д. Но имейте ввиду, что подобные генераторы редко подходят для серьезной работы. Зачастую они проваливают разные статистические тесты. А также, помните, что вы полностью зависите от них и лучше использовать свой собственный генератор, чтобы иметь представление о его работе.

В статье я буду рассказывать об алгоритмах, суть которых должна быть понятна каждому, кто хоть иногда сталкивался с теорией вероятностей. Совсем необязательно быть знакомым с теорией меры, как правило, достаточно примерно понимать, что из себя представляют функция распределения и функция плотности распределения:

Каждый алгоритм я буду сопровождать кодом, небольшим количеством математики и гистограммой из десятка миллионов сгенерированных случайных величин.

Равномерное распределение

Равномерное распределение может использоваться при генерации почти что любой случайной величины, благо имеется очень простой и универсальный метод инверсии (inverse transform sampling): генерируем случайную величину U, равномерно распределенную от 0 до 1, и возвращаем обратную функцию распределения (квантиль) с параметром U. Действительно:

Проблема в том, что подсчет обратной функции распределения может быть долгим, если вообще аналитически возможен.

С генератором равномерного распределения, я надеюсь, мне не нужно долго останавливаться (при большом количестве генерируемых случайных величин лучше посчитать (b — a) / RAND_MAX только один раз):

Разумеется, непрерывность — это лишь абстракция. В реальном мире и в данном случае конкретно под этим подразумевается достаточно малый шаг дискретизации. Стоит заметить важную вещь. Если вы генерируете случайное число, равномерно распределенное от 0 до 1, то 32 бит недостаточно, чтобы покрыть все значения, которые может принимать на этом диапазоне double (хотя, для float этого более чем достаточно). Для лучшего качества нужно либо генерировать 64-битные целые, либо комбинировать два 32-битных.

Нормальное распределение

Метод инверсии потребует вычисления обратной функции ошибок. Если не использовать специальные аппроксимирующие функции, сложно и невероятно долго. Для нормальной величины существует метод Бокса-Мюллера. Он довольно прост и широко распространен. Его явный недостаток — это вычисление трансцендентных функций. На Хабре уже упоминался полярный метод, помогающий избежать подсчета синуса и косинуса. Но мы все еще должны считать логарифм и корень из него. Куда быстрее работает красиво названный метод Ziggurat, придуманный Джорджем Марсалья, автором того же полярного метода.
Полярный метод — это пример выборки с отклонением (acceptance-rejection sampling). Буквально, вы генерируете величину и принимаете ее, если она подходит, иначе — отклоняете и генерируете еще раз. Основной пример: нужно сгенерировать случайную величину с плотностью f(x), однако это слишком сложно сделать простым методом инверсии. Зато, вы можете сгенерировать случайную величину с плотностью g(x), не очень сильно отличающейся от f(x). В таком случае вы берете наименьшую константу M, такую что M > 1 и почти всюду f(x) Доказательство работы алгоритма:

Воспользовавшись тем, что вероятность происхождения двух событий А и B равна

вычислим вероятность принятия случайной величины X с функцией плотности распределения g(x) и функцией распределения G(x), но уже при условии, что она меньше некого заданного параметра x:

И тогда по теореме Байеса:


Для примера сгенерируем модуль стандартной нормальной величины. В силу симметрии нормального распределения полученную величину можно умножить на случайную величину, принимающую значения +1 и -1 с равными вероятностями, и таким образом получить стандартную нормально распределенную величину X. Любая нормальная величина получается из стандартной умножением на sigma и сдвигом на mu. Функция плотности распределения |X|:

Попытаемся её приблизить функцией плотности стандартного экспоненциального распределения. Я немного забегаю вперед, так как об экспоненциальном распределении еще не говорил. Оно генерируется просто пресловутым методом инверсии — берем равномерно распределенную на [0, 1] величину U и возвращаем -ln(U).

Минимальное значение М, удовлетворяющее условию f(x) 2 ) — то |X| = E, иначе возвращаемся на первый шаг.

  • Генерируем новую U. Если U (E1 — 1) 2 / 2, то принимаем |X| = E1, иначе возвращаемся назад.
  • Генерируем U. Если U 2 / 2 будет также распределена экспоненциально и независимо от E1. Поэтому её можно запомнить и использовать в следующий раз вместо E1.
  • Экспоненциальное распределение обладает свойством отсутствия памяти:

    А это означает, что функция распределения разницы:

    Общая проблема выборки с отклонением заключается в подборе такой случайной величины с плотностью распределения g(x), чтобы отклонений было как можно меньше. Для решения этой проблемы существует множество расширений. Сам же метод является основой для почти все последующих алгоритмов, включая Ziggurat. Суть последнего все та же: пытаемся покрыть функцию плотности нормального распределения похожей и более простой функцией и возвращаем величины, попавшие под кривую. Функция своеобразная и напоминает многоступенчатое сооружение, откуда, собственно, и такое название у алгоритма.


    Зиккурат сооружается следующим образом. У подножья функции f(x) выбираются точки x1 и y = f(x1). Площадь под прямоугольником от (0,0) до (x1, y) + площадь под хвостом функции f(x > x1) = А. Так мы построили базовый слой. Поверх него ставится еще один прямоугольник, такой, что его ширина x1, а высота y1 = A/y и таким образом его площадь будет равна A. Этот прямоугольник уже включает в себя точки, которые лежат выше функции f(x), например (x1, y1). Функцию f(x) второй прямоугольник пересекает в точке (x2, y1) — это будет координата нижней правой точки третьего прямоугольника, который накладывается таким же образом как и второй, чтобы его площадь была равна А. Так продолжается до тех пор, пока мы не построим Зиккурат до вершины функции. Площадь каждой ступени будет равна А. Дальнейший алгоритм (без обработки попадания в базовый слой):

    1. Случайно и равномерно выбирается прямоугольник i и генерируется равномерно распределенная величина X от 0 до xi
    2. Если X E1 2 / 2, то принимаем |X| = E1 + x1, иначе возвращаемся назад.
    3. Генерируем U. Если U Доказательство для хвоста

    Мы знаем, что случайная величина |X| > x1. Постараемся построить для нее алгоритм выборки с отклонением, используя E1+x1, где E1 — экспоненциально распределенная случайная величина с плотностью x1. Функция плотности распределения E1+x1:

    Чтобы знать значение М, нам нужно найти максимум отношения функций:

    Точка x, соответствующая максимуму дроби, будет доставлять максимум степени экспоненты. Приравняв производную степени к нулю, находим, соответствующий x:

    Получаем границу для равномерной случайной величины:

    И тогда условие принятия случайной величины будет:

    Тогда полностью алгоритм будет выглядеть так:

    1. Случайно и равномерно выбирается прямоугольник i и генерируется равномерно распределенная величина X от 0 до xi.
    2. Если X Экспоненциальное распределение

    Уже говорилось, что для экспоненциального распределения можно взять логарифм от равномерно распределенной величины и что можно сделать генерацию быстрее. Так как любая экспоненциальная величина получается из стандартной делением на плотность, генерацию можно сделать пресловутым Ziggurat. В случае попадания в хвост можно запустить алгоритм по новой и прибавить к полученной величине x1:

    Нужно доказать, что при Е > x1 функция распределения E — x1 будет также распределена экспоненциально. Это возможно благодаря ранее упомянутому отсутствию памяти у экспоненциального распределения:

    Еще пара фактов: если использовать таблицу с 255 прямоугольниками, то вероятность принятия с первого раза для экспоненциального распределения — 0.989, для нормального — 0.993. В MATLAB с 5 версии для нормального распределения используется Ziggurat (раньше использовался полярный метод). В R для нормальных величин, насколько мне известно, аппроксимируют полиномами обратную функцию ошибок и используют метод инверсии.

    Гамма-распределение

    Алгоритмы для генерации здесь уже сложнее, поэтому я не буду здесь описывать их доказательства, привожу лишь примеры. Для генерации стандартной величины (theta = 1), используются четыре алгоритма, каждый в зависимости от k.

    • Если k или 2k — целое и k 3 — GO алгоритм.

    Нестандартная случайная величина с гамма-распределением, получается из стандартной умножением на theta.

    Алгоритм GA

    Если сложить две случайные величины с гамма-распределением с параметрами k1 и k2, то получится случайная величина с гамма-распределением и с параметром k1+k2. Еще одно свойство — если theta = k = 1, то легко проверить, что распределение будет экспоненциальным. Поэтому, если k целое — то можно просто просуммировать k случайных величин со стандартным экспоненциальным распределением.

    Если k не целое, но 2k — целое, то можно вместо одной из экспоненциальных случайных величин в сумме использовать половину квадрата нормальной величины. Почему так возможно, станет ясно позднее.

    Алгоритм GS

    Теорема. Пускай U — равномерно распределенная случайная величина на [0, 1] и W — экспоненциально распределенная случайная величина с плотностью 1 / lambda. Пусть:

    Если g(W) >= U, то W имеет гамма-распределение с параметром lambda:

    Доказательство. Функция плотности распределения W:

    Так как U имеет равномерное распределение, то

    Или нет?

    Помните полярный метод Джорджа Марсальи? Он позволял в преобразовании Бокса-Мюллера быстро получать синус или косинус равномерно распределенной случайной величины. Ровно таким же образом можно получить и тангенс. Генерируем две равномерно распределенные случайные координаты x и y на квадрате [-1, 1]x[-1, 1]. Если мы попали в круг с центром в (0, 0) и единичным радиусом — возвращаем x/y, иначе — генерируем x и y еще раз. Вероятность не попасть в круг, скажем, с раза третьего уже меньше чем 0.01.

    Распределение Лапласа


    Распределение Лапласа — это то же экспоненциальное, только со случайным знаком.

    Распределение Леви

    Несмотря на то, как ужасно выглядит функция плотности распределения, сама случайная величина генерируется крайне просто и быстро:

    Распределение хи-квадрат


    Как известно, случайная величина с распределением хи-квадрат с параметром k — это сумма квадратов k стандартных нормальных случайных величин. Менее известно, что при четном k это же и удвоенная сумма k/2 экспоненциальных случайных величин (или же распределение Эрланга). Из этого соотношения и происходит вышеупомянутый алгоритм GA2:

    Этот факт легко доказать, используя характеристическую функцию — обратное преобразование Фурье функции плотности распределения:

    У этой функции есть полезное свойство для суммы двух независимых случайных величин:

    Пусть E — случайная величина с экспоненциальным распределением:

    Тогда её характеристическая функция:

    Нам нужно узнать распределение случайной величины равной удвоенной сумме стандартных экспоненциальных величин:

    Если оно совпадает с распределением хи-квадрат, то его характеристическая функция:

    Докажем это. Ранее было упомянуто также, что для экспоненциального распределения:

    Используя это свойство, получаем:

    Из этого свойства следует примечательный факт: если выбирать точку на плоскости со случайными и нормальными координатами (x, y), то расстояние от (0,0) до этой точки будет распределено экспоненциально.

    Логнормальное распределение


    Люди, работающие с математическими моделями на финансовых рынках, о логнормальном распределении знают не понаслышке. Для логнормального, лог-Коши, лог-логистического распределений есть один простецкий способ — взять экспоненту. К сожалению, способа быстрее я не знаю, однако, возможно, существует способ генерировать подобные величины с помощью распределения Леви и/или распределения хи-квадрат. Посмотрите, как они похожи. А пока так:

    Логистическое распределение


    Логистическое распределение очень похоже на нормальное, но имеет более тяжелый хвост, генерируется довольно легко через стандартное равномерное распределение:

    Напоследок вкратце о не всегда быстрых, но очень простых алгоритмах для других популярных распределений:

    Главная > Учебные материалы > Математика: Основные законы распределения

    22 23 24 25 26 27 28 29 30

    Рис.1

    Рис.2

    Рис.3

    Рис.4

    Рис.5

    Рис.6

    Рис.7

    Рис.8

    Рис.9

    Рис.10

    Рис.11

    Рис.12

    Рис.13

    admin

    Добавить комментарий

    Ваш e-mail не будет опубликован. Обязательные поля помечены *