У 1998

ФИЛОСОФСКО-МЕТОДОЛОГИЧЕСКИЙ АНАЛИЗ ПОНЯТИЯ
НЕЗАВИСИМОСТИ В ВЕРОЯТНОСТНОЙ ТЕОРИИ ПРИЧИННОСТИ
И В ТЕОРИИ ВЕРОЯТНОСТИ

В.Н.Резников

 

Значимость использования формальных методов для исследования вероятностных аспектов причинности была обоснована нами ранее [1]. В настоящей работе дан анализ понятия независимости в каузальном анализе и в теории вероятности. Понятие независимости в современных теориях причинности используется для описания ложных причин, общих причин для нескольких событий и т.д. Как известно, современные теории причинности не являются фундаменталистскими. Влияние причины на следствие определяется контекстом решаемой задачи, зависит от влияния фоновых факторов. Новая информация меняет оценку исследователя о причинной зависимости.

Первичным понятием в вероятностной теории причинности является понятие “причина prima facie”, что в переводе с латыни означает “причина на первый взгляд”.

В работе Суппеса [2] дано следующее определение причины prima facie. Событие At есть причина события Bt', если и только если:

1) P (At) > 0;

2) t < t';

3) P (Bt'/At) > P (Bt').

Для того, чтобы выделить ложные причины из множества причин prima facie, вводится следующее определение. Событие At" ложная причина события Bt', если и только если: существуют момент времени t < t" и событие Ct, причем:

1) P (Bt'/At") > P (Bt')

2) P (Bt'/At"Ct) = P (Bt'/Ct)

3) P (Bt'/At"Ct) і P (Bt'/At").

Фактически второе условие означает, что события Bt' и At" независимы при условии события Ct.

Теперь рассмотрим понятие общей причины. Оно было введено Рейхенбахом и получило развитие в работах Салмона и Суппеса [3]. Рассмотрим определение общей причины.

X – общая причина событий A и B, если и только если

P (A/X) Ч P (B/X) = P (A, B/X).

Понятие общей причины используется в современных теориях причинности, учитывающих фоновые условия. Учет фоновых условий позволяет дать более реалистическое описание причинно-следственной связи. Отметим, что существует ряд ситуаций, описываемых фоновыми факторами, например, при взаимодействии факторов, которые не позволяют причинному фактору изменять следствие и тем самым проявляться как причинному. В ряде работ исследователи такие причинные факторы не считают причинными и предполагают, что для данной пары причины и следствия имеется неизвестная общая причина [4]. Таким образом, посредством понятия независимости эксплицируются разные понятия из вероятностной теории причинности.

В вероятностных теориях причинности часто понятие общей причины A для событий B и C используется без проверки независимости B и C. По образному выражению Картрайт, “плохая идеализация приводит к плохим научным методам. Более общий урок состоит в том, что плохая идеализация делает плохую науку” [5]. Это замечание связано с интенсивными разработками по расчету причинных цепей, причем наиболее мощные теоремы в этих исследованиях доказаны при допущении общих причин, без проведения соответствующей работы по выявлению независимости следствий, что, как уже говорилось, является необходимым условием для наличия общих причин.

В отечественной литературе проблема исследования независимости как философская проблема в достаточно общей форме не выделена до сих пор. В большей степени она нашла отражение в методологической литературе, посвященной статистической физике и генетике [6].

Некоторые подходы к исследованию понятия независимости имеются в математической статистике. Так, например, создатель современной теории вероятностей А.Н.Колмогоров полагал, что идея независимости является центральной в статистике [7]. В своей книге, посвященной обоснованию теории вероятностей, Коломогоров пишет: “Понятие независимости двух или нескольких опытов занимает в известном смысле центральное место в теории вероятностей... Исторически независимость испытаний и случайных величин явилось тем математическим понятием, которое придало теории вероятностей своеобразный отпечаток... Если в новейших исследованиях часто отказываются от предположения о полной независимости, то оказываются принужденными для получения достаточно содержательных результатов ввести аналогичные ослабленные предположения... Мы приходим, следовательно, к тому, чтобы в понятии независимости видеть, по крайней мере, зародыш своеобразной проблематики теории вероятностей. И, наконец, одной из важнейших задач философии естественных наук после разъяснения пресловутого вопроса о сущности самого понятия вероятности, является выявление и уточнение тех предпосылок, при которых можно какие-либо данные действительные явления рассматривать как независимые” [8].

Несмотря на отмеченную значимость, которую придавал Колмогоров развитию понятия независимости, солидной методологической экспликации внутри общепринятой колмогоровской статистики она не получила. Рассмотрим некоторые основания для такого положения дел.

Во-первых, внутри математики используемые в ней понятия, в том числе и имеющие философско-методологическую значимость, например, случайность, вероятность, независимость и др., не получают логико-философской экспликации, так как целью этих наук являются вычисления, связанные с этими понятиями, а не их анализ как таковой.

В статистике понятие независимости используется для описания разных видов объектов: событий, экспериментов, случайных величин, сигма-алгебр и других. В конечном счете все они редуцируются к понятию независимости событий. Кратко рассмотрим анализ понятия независимости событий [9].

Определение. Два события A и B являются независимыми, если

P(A/B) = P(A) (1)

В другом виде определение для независимости событий таково:

P(AЗ B) = P(A) Ч P(B) (2)

Недостатком данного определения является необходимость учитывать точность выполнения равенства (2). Более корректным является введение точности вычислений. Пусть e – произвольно малое число и означает точность вычислений. В связи в этим условие независимости имеет вид:

Ѕ P(AЗ B) - P( A) Ч P(B)Ѕ < e . (3)

Еще один недостаток определения независимости состоит в том, что оно не учитывает особенности событий, имеющих вероятности, равные 1. Если события A и B таковы, что P(A) = P(B) = 1, то P(AЗ B) = 1 и P(A) Ч P(B) = 1, и тогда согласно определению мы должны считать события A и B независимыми при их полной тождественности. Похожий недостаток имеет место в случае, если одно из событий имеет вероятность, равную 1. Пусть P(A) = 1, P(B) 1. Тогда

P(AЗ B) = P(B)

P(A) Ч P(B) = P(B),

откуда два события независимы всегда, если одно из них имеет единичную вероятность, а второе – меньшее 1.

Более перспективным направлением, чем экспликация независимости внутри теории вероятностей, представляется его анализ в моделях естественных и социальных наук, построенных на основе теоретико-вероятностной идеи независимости. Прежде чем рассмотреть экспликации посредством приложений, обсудим вопрос, почему независимость имеет ценность внутри статистики. Во-первых, независимость существенно упрощает вычисления. Пусть, например, случайная величина X принимает значения x1, x2, ... xn с вероятностями p1, p2, ... pn, а случайная величина Y принимает значения y1, y2, ... ym с вероятностями q1, q2, ... qm. Для совместного распределения случайных величин X и Y в случае их независимости достаточно вычислить (m + n) вероятностей, а в общем случае для зависимых величин их число соответственно равно mЧ n. В случае независимых случайных величин также упрощается вычисление основных характеристик – матожидания, дисперсии – для суммы этих случайных величин.

Так, например, D(е Xi) = е D(Xi). Здесь D – символ оператора дисперсии. Этот факт используется при доказательстве неравенства Чебышева, которое, в свою очередь, необходимо для доказательства знаменитой теоремы закона больших чисел. Суть последней теоремы заключается в том, что вероятность отклонения суммы попарно независимых случайных величин от суммы математических ожиданий этих же величин при стремлении числа слагаемых к бесконечности стремится к нулю, если рассматриваемые величины имеют ограниченную дисперсию. Раньше этой теореме придавали большую эпистемологическую значимость даже за пределами теории вероятностей. На самом деле она не имеет значимости за пределами математики. Так, например, с позиции частотной интерпретации теории вероятностей, любые вероятностные характеристики имеют объективное существование, если частотные характеристики данных являются устойчивыми.

Таким образом, прежде чем говорить о независимости событий, опытов, случайных величин, необходимо убедиться в существовании этих объектов. Несколько слов об основной задаче прикладной математики вообще и математической статистике в частности [10]. Основная функция прикладной математики заключается в отыскании некоторых операторов Ф, которые связывают те или иные интересующие исследователя величины V и W, при этом W = Ф(V). Специфика теории вероятностей сводится к тому, что здесь величины V и W являются статистическими характеристиками. Результаты прикладной математики имеют следующую форму утверждения. Пусть значение исходной величины равно V, тогда значение выходной характеристики равно W. Естественно, если исходные величины V найдены с большой погрешностью, то и результирующая величина W будет неверно вычислена, даже если сам по себе оператор Ф адекватно описывает реальность. Таким образом, роль прикладной математики заключается в определении итоговых характеристик объектов, состояний дел по известным элементарным характеристикам объектов и элементарным состояниям дел. Так, например, одна из задач статистики заключается в вычислении математического ожидания всей выборки при условии, что известны математические ожидания всех подвыборок. Основная идея прикладной математики применительно к статистике наиболее последовательно воплощена в концепции Мизеса-Рейхенбаха. По Мизесу, существуют объекты, характеристики которых являются устойчивыми. Отметим, что теоретические характеристики, например, вероятности и математические ожидания являются предельными характеристиками последовательностей, устойчивых эмпирических характеристик, соответственно, эмпирических частот и эмпирических средних.

Для Мизеса:

P(A) =Wm(A).

Здесь P(A) означает вероятность события A, а Wm(A) – символ частоты события A в серии из m экспериментов. Именно требование бесконечно больших последовательностей определило критическое отношение к мизесовской концепции как в отечественной, так и в почти всей современной Мизесу западной литературе. Отметим, что в западной литературе мизесовско-рейхенбаховская концепция была правильно оценена в работах Рассела [11]. В последние годы в отечественной литературе концепция Мизеса встретила более благожелательное отношение в работах В.Н.Тутубалина [12] и особенно Ю.И.Алимова [13]. Идейная часть концепция Мизеса-Рейхенбаха заключается в требовании устойчивых статистических характеристик для достаточно больших выборок данных, объемы которых соизмеримы с ресурсами исследовательской группы. Концепция Мизеса по существу является вполне современной. По сути дела, теория Мизеса-Рейхенбаха ничего не теряет при отказе от актуальных бесконечностей, и в этом смысле она вполне близка к современной концепции альтернативной теории множеств П.Вопенки [14].

Прежде чем обсудить концепцию независимости у Мизеса, отметим, что не существует математики, свободной от философских установок. Отказ от формулирования каких-либо предпосылочных требований к объектам приложения математики по сути означает, что она приложима к любым объектам. В связи с математической статистикой отсутствие требований к воспроизводимости результатов опытов означает ценность результатов в единичном эксперименте и тем самым платонистскую линию в философии математики. В отличие от колмогоровской статистики, Мизес требует проверки предпосылок для применения математики. Требование независимости предполагает наличие устойчивости. Из всех подходов к описанию независимости в классической статистике наиболее уязвимым является понятие независимых экспериментов. Эксперименты часто называют независимыми, если они осуществляются при одинаковых контролируемых условиях. Как справедливо отмечает Алимов, в общем случае это высказывание ложно, так как ряд существенных факторов может быть не учтен. Эту ситуацию проиллюстрируем открытием Э.Резерфорда радиоактивного вещества радона. Однажды Резерфорд и его сотрудники обнаружили, что результаты эксперимента стали полностью хаотичными, хотя условия эксперимента были такими же, как и раньше. Дело в том, что было открыто новое газообразное радиоактивное вещество. До этого случая все радиоактивные вещества газообразными не были. Условия эксперимента были дополнительно рафинированы. После этого статистическая устойчивость была восстановлена. Мораль этой истории такова, что даже в физике с ее наиболее жесткими требованиями к условиям эксперимента, не всегда обеспечивается необходимый контроль результатов экспериментов. Таким образом, в общем случае верно, что наличие статистической устойчивости является индикатором адекватно контролируемых условий эксперимента, а не наоборот, как это утверждается в некоторых учебниках статистики. Таким образом, классическая статистика не обеспечивает содержательных экспликаций понятия статистической независимости. Для того, чтобы серьезно исследовать понятие независимости на моделях из области естественных наук, эти модели должны быть построены с учетом частотной теории Мизеса-Рейхенбаха [15].

С позиции мизесовской статистики теорема закона больших чисел не имеет прикладного значения в классической статистике, так как в этой статистике не уделяется внимания проверке существования объектов, о которых идет речь, т.е. не проверяется существование случайных величин. Во-вторых, не проверяется их независимость, что, как уже говорилось, является трудоемким процессом при достаточно большом количестве случайных величин. В-третьих, не уделено внимание конструктивному формированию подвыборок из основной выборки, для которых необходима проверка независимости.

Сущностную интерпретацию понятие независимости получает в рамках вероятностной теории причинности. Как уже говорилось, с помощью идеи независимости в вероятностной теории причинностей вводится понятие ложной причины. В более сложных вариантах вероятностных теорий причинности, при учете фоновых условий причинный фактор не считается ложной причиной, если он является независимым по отношению к следствию на фоне некоторых групп фоновых факторов, но при этом, по крайней мере, по отношению к одной группе фоновых факторов он является причинным. Приведем формулировку понятия причинной связи из работы Картрайт.

Определение. Событие C причина prima facie события E, если и только если выполнены следующие условия:

1. P(E/CKj) > P(E/Kj), j = 1, 2n.

2. или $ (j) такое, что:

P(E/CKj) = P(E/Kj) = 1.

3. или $ (j) такое, что:

P(E/CKj) = P(E/Kj) = 0.

При этом хотя бы для одного i

1 Ј i Ј 2n

имеет место: 0 < P(E/Ki) < 1.

Наиболее интересный результат, показывающий связь понятия общей причины и независимости, получен А.Мьюйлоком [16].

Теорема об условной независимости.

Пусть X и Y – случайные величины, описывающие некоторое состояние дел. При этом X – prima facie причины Y. Зафиксируем x О X и при одних и тех же фоновых условиях произведем n наблюдений y1, y2, ... yn над Y. Тогда имеет место

f (y1, y2, ... yn/xi) =f (yk/xi),

где f (y1, y2, ... yn/xi) – совместная функция распределения y1, y2, ... yn при фиксированном xi, а f(yk/xi) – функция распределения yk при том же xi.

В подходе Мьюйлока предполагается, что каждому x О X соответствует единственная функция распределения. При этом мощность множества X не меньше, чем два.

Основные выводы.

1. Таким образом, идея независимости в современной статистике не эксплицирована.

2. Возможности использования идеи независимости за пределами статистики ограничены:

а) тем, что, как правило, не исследуется устойчивость статистических характеристик;

б) слабостью понятия независимости экспериментов;

в) отсутствием внимания к проблеме конструктивного подхода к проблеме независимости.

В то же время, в современной теории вероятностной причинности имеются достаточно интересные интерпретации понятия статистической независимости при определении: – причин prima facie; – ложных причин; – общих причин нескольких событий.

Примечания

1. Резников В.М. Методологические аспекты вероятностных формализаций причинных связей // Препринт № 51. Институт медицинской и биологической кибернетики СО РАМН. Новосибирск. 1995; Карпович В.Н., Резников В.М. Некоторые аспекты формализации причинных связей // Философия науки. № 2. 1996. С. 164 – 175.

2. См.: Suppec P. Probabilistic theory of causality. Amsterdam, 1970.

3. См.: Рейхенбах Г. Направление времени. М.: 1962; Suppec P. Probabilistic metaphysics. Oxford. 1984; Salmon W. Four decades of scientific explanation. Minnesota: 1990.

4. См.: Cartwright N. Causal laws and effective strategies // NOUS. 1979. V. 1, N 13, P. 419 – 436.

5. Cartwright N. False idealizations: A probabilistic threatm to scientific method // Philos. Studies. V. 77, N 3, P. 339 – 352.

6. См.: Сачков Ю.В. Независимость с точки зрения физики // Вопр. философии. 1994, № 4, С. 176 – 172.

7. См.: Колмогоров А.Н. Основные понятия теории вероятностей. М., 1974.

8. Там же. С.18.

9. См.: Тутубалин В.Н. Теория вероятностей. - М., 1972.

10. Mises P., von. Mathematical theory of probability and statistics. London., 1964.

11. Мизес П., фон. Вероятность и статистика. М.-Л., 1960.

12. Рассел Б. Человеческое познание. Киев, 1997.

13. Алимов Ю.И. Альтернатива методу математической статистики. М., 1980; Алимов Ю.И., Кравцов Ю.А. Вероятность как физическая величина // УФН. 1992. Т. 162, № 7, С. 149 – 181.

14. Вопенка П. Математика в альтернативной теории множеств. М., 1983.

15. Reichenbah H. The theory of probability. Calif., 1949; Мизес П., фон. Вероятность и статистика. М.–Л., 1960.

16. Mulak S. Toward a synthesis of determination and probalistic formulation of causal relations // Phil. of sciences. 1986. V. 3, N 53, P. 313 – 332.