При построении модели матричной игры в примере 1.4 выигрыши Шерлока Холмса в разных ситуациях были определены равенствами (5.1). По поводу численных значений выигрышей мнения студентов на лекционных занятиях, обычно, разделяются. Выигрыш a21=100 в ситуации, когда Холмс сходит с поезда в Дувре, а Мориарти — в Кентербери, сомнений не вызывает. Как правило, дискуссия разгорается вокруг выигрыша a12=50, (Холмс и Мориарти сходят с поезда в Кентербери и Дувре соответственно). В связи с этим интересно и полезно выяснить влияние элементов матрицы выигрышей (исходных данных) на решение игры, т. е. на оптимальные смешанные стратегии и математическое ожидание выигрыша. Чтобы не усложнять изложение, ограничимся выяснением влияния элемента a12≡a,0≤a≤100, на решение игры Гa с матрицей выигрышей A=(−100a100−100).
Используя формулы (5.2), (5.3), найдем наилучшие гарантированные выигрыши игроков v1=max
При любом значении a из отрезка [0, 100] наилучшие гарантированные выигрыши различны, следовательно, игра Г_а не имеет решения в чистых стратегиях.
Обозначим через H_a(p, q) функцию средних выигрышей в игре Г_a. Используя описанный ранее прием преобразования функции средних выигрышей, получим \begin{array}{ll} H_a(p, q) &= - (a + 300) pq + (a + 100) p + 200 q - 100 = \\ &= -(a + 300) \left[p - p(a)\right]\left[q - q(a)\right] + r(a), \end{array} где p(a)=\frac{200}{a + 300}, q(a)=\frac{a+100}{a+300}, r(a)=\frac{200(a+100)}{a+300}
Найдем области значений функций p(a), q(a) при 0 \leq a \leq 100. Имеем \frac{1}{2} \leq p(a)=\frac{200}{a + 300} \leq \frac{2}{3}\\ \frac{1}{3} \leq q(a)=\frac{a + 100}{a + 300}=1 - p(a) \leq \frac{1}{2}
Поскольку области значений функций лежат на отрезке [0,1], решение игры Г_a примет вид \begin{array}{ll} x^*(a) = \left(p(a), 1 - p(a)\right), \\ y^*(a) = \left(q(a), 1 - q(a)\right), \\ v = r(a). \end{array} ~~~~~~~~(5.19)
Теперь легко оценить уклонение решений (5.18) и (5.19) игр Г_a = 50 и Г_a. Для первых координат оптимальных стратегий при любых a, 0 \leq a \leq 100, находим -\frac{1}{14} = \frac{1}{2} - \frac{4}{7} \leq p(a) - p^* \leq \frac{2}{3} -\frac{4}{7} = \frac{2}{21}\\ -\frac{2}{21} = \frac{1}{32} - \frac{3}{7} \leq q(a) - q^* \leq \frac{1}{2} -\frac{3}{7} = \frac{2}{14}
Аналогично оценивается уклонение по вторым координатам оптимальных стратегий. Максимальное по абсолютной величине уклонение не превосходит числа \varepsilon = \frac{2}{21}. По отношению к числам p^* = \frac{4}{7}, q^* = \frac{3}{7} максимальное уклонение составляет \frac{\varepsilon}{p^*}=\frac{\frac{2}{21}}{\frac{4}{7}}=\frac{7}{42} \approx 0.17,\\ \frac{\varepsilon}{q^*}=\frac{\frac{2}{21}}{\frac{3}{7}}=\frac{14}{63}\approx 0.22, т.е. примерно 17\% и 22\%. Таким образом, при изменении элемента a_{12} \equiv a матрицы выигрышей от 0 до 100 координаты оптимальных стратегий (5.19) меняются не более, чем на 22\% по отношению к координатам стратегий (5.18).
Интерпретация и анализ решения | Проверка знаний. Тема 5 |