Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Обобщение моделей структурных уравнений с латентной переменной и общеизвестные истины измерения
В недавней фундаментальной работе К.Боллена [96 ] представления о самостоятельном значении теоретически обоснованных моделей измерения были использованы для успешной попытки синтеза и обобщения подходов и методов, применяемых в психометрике, эконометрике и социальных науках при описании и анализе отношений между теоретическими и эмпирическими переменными. К моделям структурных уравнений (structural equation models, т.е.. моделям, состоящим из структурных уравнений) относятся и регрессионные, и эконометрические, и факторно-аналитические процедуры. Таким образом, и модели со множественными индикаторами, и модели путевого анализа, и факторные модели с латентными переменными могут быть включены в общий класс структурных моделей с латентными (или ненаблюдаемыми) переменными. Система структурных уравнений, задающих модель, в этом общем случае состоит из двух подсистем: модели латентных переменных, описывающей отношения ненаблюдаемых (неизмеряемых) одномерных конструктов, и модели измерения [96. Р. 11]. Таким образом, предложенное обобщение понятия структурной модели в явной, эксплицитной форме включает модель измерения в проверяемую теоретическую модель. Полная теоретическая модель описывает отношения между зависимыми и независимыми переменными и допускает наличие ошибок измерения и в первых, и во вторых. Демонстрацией продуктивности этого подхода стал систематический критический пересмотр ряда " общеизвестных истин" классической теории тестов, результаты которого изложены, в частности, в работе К.Боллена и Р.Леннокса [97 ]. Так как к теме эффективности моделирующего подхода к измерению для пересмотра ряда некритически принимаемых положений традиционной психометрики мы уже неоднократно обращались (например, при описании многоиндикаторного подхода к конструктной валидности), мы ограничимся лишь описанием некоторых новых результатов, полученных Болленом и Ленноксом. Эти результаты интересны для нас, прежде всего, как еще одна иллюстрация тех радикальных изменений, которые были инициированы возникновением моделирующего подхода к измерению. Боллен и Леннокс поставили своей целью проверить, насколько обоснованны обычные рекомендации, касающиеся отбора индикаторов (чаще всего - тестов или анкетных вопросов) и используемые исследователями в повседневной практике. Эту проверку они осуществили для двух общих моделей измерения. Первая из них - классическая модель теории тестов и факторного анализа, где индикаторы (пункты теста, вопросы) зависят от латентной переменной. Эту модель, вслед за Х.Блейлоком, часто называют моделью измерения с эффект-индикаторами, т.е. индикаторами-следствиями латентной переменной. Для этой модели принимаются все обычные предположения теории тестов, в том числе и предположение о том, что истинные значения латентной переменной определяют значения ее индикаторов. Так как латентная переменная - это чаще всего некоторый теоретический конструкт, то примерами этой общей модели могут служить и многочисленные " черты личности" (от тревожности до макиавеллизма), и способности (например, невербальный интеллект), и диспозиции (политическая активность). Вторая рассматривавшаяся Болленом и Ленноксом общая модель - это модель с причинными индикаторами. Мы уже обращались к примерам причинных индикаторов латентных переменных. В качестве причинных индикаторов используются, например, многие категориальные переменные, описывающие " жизненный путь" респондентов, например, образование или доход родителей (другие примеры можно найти на с.104-110 данной работы). Разумеется, причинными индикаторами они становятся лишь в том случае, если исследователь предполагает, что эти переменные детерминируют значение латентной переменной. Например, социолог может считать, что продолжительность обучения и доход определяют социальный статус (не вкладывая при этом в понятия " определяют" или " служит причиной" буквального физического смысла). Другими примерами могут служить " лишение пищи" как причинный индикатор " голода", " психологическая травма" как причинный индикатор " стресса" и т.п. Не входя в технические подробности (многие из которых, к тому же, обсуждались нами раньше), отметим, что даже простейшая модель латентной переменной с несколькими причинными индикаторами (последние еще называют " формативными") будет очевидным образом отличаться от предыдущей. Например, возрастание значения латентной переменной не обязательно будет сопряжено с возрастанием значений всех ее индикаторов. Одним из фундаментальных понятий теории тестов является понятие внутренней согласованности пунктов теста или батареи вопросов, предназначенных для измерения одной латентной переменной. Это понятие составляет основу для оценки надежности-согласованности, или одномоментной надежности (см., в частности, с.61-64 данной работы), и для применения факторного анализа. Внутренняя согласованность подразумевает положительную корреляцию индикаторов одной переменной (разумеется, при условии, что все пункты-индикаторы сформулированы в одном направлении). Обычно рекомендуется исключать индикаторы, имеющие нулевую или отрицательную корреляцию с остальными. Обоснованность критерия внутренней согласованности для первой модели - с эффект-индикаторами латентной переменной - не вызывает никаких сомнений. При условии стандартизации латентной и наблюдаемых переменных, корреляция между индикаторами будет равна произведению их корреляций с истинным баллом. Если корреляция индика- торов с истинным баллом положительна, то и их корреляции друг с другом также должны быть положительны. Совсем иной будет ситуация для второй модели с причинными индикаторами латентной переменной, так как сама модель не налагает никаких ограничений на попарные корреляции между индикаторами: они могут быть положительными, отрицательными или нулевыми. Скажем, связь между образованием и доходом как индикаторами статуса в некоторых обществах может быть нулевой или отрицательной. Столь же трудно определить заранее направление и величину связи между различными причинными индикаторами стресса, например, потерей работы, смертью супруга и болезнью. Исследователь, использующий рутинные процедуры поиска максимальных значений в матрице корреляций, рискует пропустить самые информативные индикаторы. Таким образом, некритичное использование критерия внутренней согласованности может вести к совершенно ошибочным выводам. Другим распространенным методологическим " рецептом" (не всегда, кстати, согласующимся с критерием внутренней согласованности) является оптимальная корреляция индикаторов. Аргументом в этом случае обычно является необходимость обеспечить гене-рализуемость и валидность выводов, что невозможно для чрезмерно, специфичного и узкого набора высококоррелированных индикаторов. Однако анализ двух вышеописанных элементарных моделей ставит под сомнение и эту рекомендацию. Для модели с эффект-индикаторами латентной переменной предпочтительной все же является высокая корреляция индикаторов. Если же у исследователя есть основания предположить наличие скоррелированных ошибок измерения между индикаторами, то он не имеет никаких оснований предпочитать индикаторы с умеренной корреляцией, так как единственный способ справиться с этой проблемой - это специфицировать предполагаемую модель измерения и внести следующие из нее поправки в процедуру отбора индикаторов. В случае же модели с причинными индикаторами, как уже говорилось, величины корреляций между индикаторами никак не ограничиваются самой моделью и определяются лежащими вне модели (экзогенными) факторами. Конечно, высокие корреляции между причинными индикаторами затрудняют оценку воздействия каждого из них на латентную переменную (проблема мультиколли-неарности), и в этой ситуации низкие корреляции предпочтительнее. Однако никаких общих рекомендаций для причинных индикаторов сделать нельзя, так как оптимальное значение корреляций между индикаторами будет определяться лишь конкретной моделью измерения. При выборе индикаторов одномерного теоретического конструкта часто рекомендуется выбирать индикаторы, представляющие все аспекты (" фасеты") этого конструкта, т.е. латентной переменной (ср. с.37). Боллен и Леннокс, рассмотрев две описанные элементарные модели, пришли к следующему выводу: " В общем итоге, рекомендация делать выборку индикаторов для всех граней конструкта
может вводить в заблуждение. Для эффект-индикаторов одномерного конструкта равно надежные индикаторы в сущности взаимозаменяемы. Если же многогранность означает многомерность, то каждое измерение (dimension) должно рассматриваться отдельно, на основании своего собственного множества эффект-индикаторов. В случае же причинных индикаторов, исключение какого-то индикатора меняет саму латентную переменную, ее состав (и интерпретацию), и, за несколькими исключениями, важно включить каждый причинный индикатор" [97. Р.308 ]. Таким образом, стремление к максимальной представленности всех аспектов одномерного конструкта обоснованно лишь при выборе причинных индикаторов и не имеет никакого смысла в случае эффект-индикаторов. Другие интересные результаты, полученные Болленом и Ленноксом при анализе общих моделей измерения с латентной переменной, мы лишь кратко суммируем, так как их изложение здесь потребовало бы привлечения достаточно специальных деталей. Первый из этих результатов относится к часто используемому правилу сравнения внутриконструктной и межкон-структной корреляции индикаторов. Суть этого правила кажется интуитивно ясной: корреляция между индикаторами одной латентной переменной-конструкта (например, между пунктами одного теста) должна быть выше, чем корреляция между индикаторами разных конструктов. В действительности, данное правило может вести к ошибкам независимо от типа индикаторов. Этот вывод может быть получен приблизительно тем же способом, который был использован при критике " М-М" -матриц Кэмпбелла-Фиске с позиций моделирующего подхода (см. с.82-86 данной работы). Другой распространенной практикой является использование суммарного балла в качестве латентной переменной. Арифметическая сумма значений индикаторов (или линейный сводный показатель) часто подставляется в качестве латентной переменной в регрессионном, дисперсионном анализе и т.п. И в этом случае обоснованность такой практики зависит от того, какого типа индикаторы используются и какова модель измерения. Так, при использовании суммарного балла в качестве независимой переменной в регрессионной модели получаемые оценки коэффициентов могут оказываться смещенными [97. Р.309-310] (см. также: [96. Ch.5]). Использование процедуры взвешивания может несколько улучшить ситуацию. Таким образом, уже только учет направления связи между латентным конструктом и индикатором в самых общих моделях измерения позволяет критически отнестись ко многим правилам отбора индикаторов и оценки шкал и тестов. Разумеется, рассмотренные Болленом и Ленноксом модели измерения существенно упрощены: ошибки измерения в них не скорре-лированы, а между латентными переменными и индикаторами существует взаимнооднозначное соответствие. Кроме того, элементарная модель с причинными индикаторами латентной переменной слишком проблематична и с содержательной - как интерпретировать, не вводя дополнительных факторов, латентную переменную, явля- ющуюся следствием наблюдаемых показателей? - и со статистической точек зрения. В уже упомянутой фундаментальной работе Боллена [96 ] доказывается, что способом интерпретации и статистической идентификации модели измерения с причинными индикаторами является ее включение в более широкую теоретическую модель, где присутствуют и эффекты самой латентной переменной. Мы можем лишь согласиться с выводом, к которому приходят Боллен и Леннокс: использование самих по себе структурных моделей измерения еще не ведет к правильному выбору индикаторов, однако формальная спецификация модели измерения - единственное средство понять, какие из общепринятых правил измерения подходят в данном случае [97. Р.312].
2. Г£ ГЯАО-методология и процедуры автоматического поиска моделей Успехи когнитивной науки и статистического моделирования, подкрепленные достижениями компьютерной революции, сделали осязаемой перспективу создания нормативной теории научного открытия и алгоритмических процедур, обеспечивающих поиск объяснительных моделей для эмпирических данных, полученных неэкспериментальным путем. Такая перспектива вновь оживила надежды на построение строгого метода научного вывода для " нестрогих" и неэкспериментальных наук. Книга К.Глаймура, Р.Шейниса, П.Спиртеса и К.Келли [135] стала первой попыткой создать компьютерные процедуры научного открытия в социологии на основе определенной методологии, которая воплотилась в нормативных критериях отбора и проверки причинных моделей, являющихся, пожалуй, самым популярным типом " мини-теорий" в общественных науках. Разработанные авторами методы и процедуры поиска причинного объяснения реализованы в компьютерной программе TETRAD и имеют довольно долгую и существенную для критической оценки Г/? Г7? АО-методологии предысторию. С краткого описания последней мы и начнем обсуждение возможностей и ограничений TETRAD-анализа. С некоторой долей упрощения можно сказать, что вся история использования прикладной статистики в неэкспериментальных науках сводится к попыткам заменить экспериментальный контроль статистическим, т.е. сделать возможным обоснованный причинный вывод, опирающийся на данные о частотных распределениях, там, где по практическим или этическим соображениям невозможен классический эксперимент с варьированием независимой переменной, контролем иррелевантных факторов и измерением главного эффекта[41]. В основе идей регрессии и корреляции, выдвинутых Ф.Гальтоном и К.Пирсоном в XIX в., лежало стремление вы- вести причину - генетическую наследственность - из ее статистических проявлений. У.Огберн, первым из социологов применивший частную корреляцию для анализа выборочных данных, также стремился выявить истинную причинную структуру, замаскированную смешивающими факторами [122. Р. 134-135]. Методы, используемые в TETRAD, как и эвристические принципы выбора наилучшей объяснительной модели, восходят к одной из наиболее ранних традиций в этой области, которая берет начало в работах английского психометриста Чарльза Спирмена, предложившего концепцию общего фактора интеллекта. Стремясь показать, что во всех тестах интеллекта наличествует общий причинный компонент, объясняющий корреляцию между ними, он открыл чрезвычайно интересное соотношение. Во всех случаях, когда четыре измеряемые переменные х{, *2, х, х восходят к общему фактору, их корреляции будут удовлетворять следующим уравнениям: (1.1.) (1.2) (1.3) (Здесь и далее в подстрочных индексах из соображений простоты Спирмену удалось показать, что предположение о наличии общего фактора вполне объясняет, почему эти ограничивающие условия, наложенные на значения корреляций, будут удовлетворяться в генеральной совокупности, однако, увлеченный идеей " единой интеллектуальной способности", детерминирующей все интеллектуальные проявления человека, он не заметил, что эти ограничения -тетрадные уравнения, или тетрадные разности (от греч. гетрах -четыре) - будут выполняться и в некоторых других случаях, применительно к другим причинным моделям измерения (например, модели с двумя скоррелированными факторами[42]. Иначе говоря, Спирмен ошибался, полагая, что верен и обратный вывод: из выполнения тетрадных уравнений следует, что верна однофакторная модель. Правда, столь незначительный " промах" нисколько не снижает значения того важнейшего и недооцененного вклада, который Спирмен внес в понимание природы объяснения в неэкспериментальной науке. Глаймур и соавторы формулируют суть этого вклада следующим образом: " Ведущая методологическая идея Спирмена, ни разу не сформулированная им вполне отчетливо, видимо, заключалась в том, что наилучшим является такое объяснение, которое порождает ограничения, обнаруживаемые в мерах генеральной совокупности, не предполагая при этом определенных значений параметров. Другими словами, он предпочитал те объяснения, которые являлись бы робастными или упругими при изменениях в спецификации значений свободных параметров" [135. Р.236]. Применительно к, однофакторной модели это означало, что следующие из нее тетрадные разности должны быть нулевыми для генеральной совокупности вне зависимости от того, каковы конкретные значения " нагрузок" отдельных тестов по латентному фактору. Аналогичные рассуждения верны и для любого числа измеряемых переменных в модели общего фактора: если все корреляции между измеряемыми переменными действительно объясняются существованием общего латентного фактора, то все тетрадные уравнения должны выполняться независимо от значений линейных коэффициентов[43]. Как отмечают Глаймур и его коллеги, Спирмен интересовался тетрадами потому, что видел' в них подтверждение своей психологической теории, но его последователей (Дж.Гарнетта, Т.Келлм и К.Холзингера) привлекла в спирменовской идее возможность разработать процедуры и критерии нахождения наилучшей линейной причинной модели, объясняющей данные. Дж.Гарнетт и Т.Келли смогли сформулировать проблему нахождения таких ограничивающих условий для генеральной ковариационной матрицы, которые были бы необходимы и достаточны, чтобы принять какую-то линейную причинную модель. При этом модель будет предполагать их выполнение для всех значений линейных коэффициентов, не налагая никаких иных независимых ограничений. В такой постановке эта проблема непосредственно связана с эвристическими поисковыми процедурами, используемыми в программе TETRAD. Уже к началу 30-х годов проблема была решена для целого ряда важных частных случаев, однако вычислительные сложности при использовании моделей с большим числом измеряемых переменных препятствовали более быстрому прогрессу. Прекращение работы в этом направлении, на четверть века отсрочившее появление эвристических процедур " компьютерного открытия" и причинного анализа моделей измерения, было связано с блестящими успехами в области факторного анализа. Выход терстоуновских " Векторов ума" (1935), содержавших эффективный и простой в вычислительном отношении алгоритм редукции данных, радикально изменил взгляды и интересы абсолютного большинства ученых, занимавшихся психометрикой и математической социологией, а также ведущие способы их исследовательской практики. Сейчас, когда критика бездумного использования эксплораторного факторного анализа в качестве волшебной машинки для обнаружения новых " латентных сущностей" становится общим местом, трудно по достоинству оценить воздействие взглядов Л.Терстоуна на современников. Между тем этот гигант сделал для развития психометрики и психологии XX в. не меньше, чем его учитель Т.Эдисон для развития техники. Как мы уже отмечали выше, он придерживался определенной философии науки, согласно которой основной целью науки является нахождение конструктов, максимально просто и экономно описывающих данные наблюдений. Именно эта концепция стала методологической основой факторного анализа[44], и в этом смысле Терстоун действительно изобрел " почти магическую процедуру, с помощью которой можно было делать науку, открывать теории и двигать прогресс" [135. Р.242]. Спирме-новские тетрады Терстоун рассматривал как частный случай, не представляющий особого интереса: " Спирмен, посредственный математик, грубый и агрессивный спорщик, человек, привязанный к одной теории и лишенный автоматического метода совершения открытий, имел мало шансов в сравнении с Терстоуном" [135. Р.242]. Эффективность факторного анализа тесно связана с жесткостью постулируемой им причинной модели измерения. В отличие от анализа вытекающих из гипотетической модели ограничений на корреляционную матрицу, который практиковали Спирмен и его последователи, факторный анализ " отбрасывает" возможность прямого причинного влияния измеряемых переменных друг на друга либо латентную переменную. Более того, психометрические представления той эпохи (разделявшиеся, впрочем, и Спирменом) исключали возможность причинного влияния латентных черт друг на друга, которая теоретически допускалась формальной моделью факторного анализа. Глаймур и соавторы вполне обоснованно, на наш взгляд, связывают этот факт с верой в генетическую предопределенность способностей и личностных черт и укоренившейся со времен Гальтона и Пирсона ориентацией на биологические редукционистские модели. Таким образом, впервые высказанная Спирменом идея оценивать объяснительный потенциал линейных причинных моделей, исходя из их способности накладывать структурные ограничения на ковариационную матрицу (вне зависимости от значений линейных коэффициентов в этих моделях), была надолго забыта. Глаймур, крупный специалист в области истории и философии науки, ссылаясь на свои более ранние работы[45], и в особенности на анализируемые примеры из истории естественных наук [134], приравнивает открытие Спирменом структурной взаимосвязи между статистическими моделями и причинными процессами, порождающими наблюдаемые значения, к коперниканскому перевороту в методологии социальных наук. Терстоун же, для которого способом выполнения ограничений на выборочную матрицу ковариаций было нахождение линейных коэффициентов (т.е. факторных нагрузок), оказывается " Птолемеем статистического моделирования", провозгласившим главным критерием оценки научной модели возможность упрощенного описания данных [135.Р.242]. Следующий ключевой персонаж в истории разработки компьютерных процедур, обеспечивающих поиск линейных причинных моделей объяснения для неэкспериментальных данных, - известный американский ученый Герберт А.Саймон. Величина его вклада в развитие методов " компьютерного открытия" в социологии вполне соответствует многообразию его исследовательских интересов - искусственный интеллект, методология науки, причинное моделирование, экономика, когнитивная психология, прикладная статистика -и в значительной мере обусловлена этим многообразием. Прежде всего Саймон одним из первых применил структурные уравнения, использовавшиеся в эконометрике, для причинной интерпретации социологических моделей. Он поставил проблему вывода каузальных утверждений из статистических данных о корреляциях на основе отношений идентифицируемости переменных, возродив идеи Спирмена. Помимо этого, Саймон, начиная со второй половины 50-х годов, активно участвовал в самых значительных исследовательских программах по моделированию интеллектуальной деятельности человека. Одна из первых работ в этой области - созданная А.Ньюэллом, Дж.Шоу и Саймоном программа " машина Логик-теоретик", -приобрела очень широкую известность, так как смогла воспроизвести большую честь результатов из " PrinciPia mathematica" Б.Рассела и А.Уайтхеда. В 1987 г. Саймон, совместно с П.Лэнгли, Г.Брэдшоу и Дж.Житкоу, опубликовал весьма впечатляющие результаты многолетней работы по моделированию процессов научного открытия средствами искусственного интеллекта [159]. Системы искусственного интеллекта и программы для ЭВМ (семейство программ BACON, GLOUBER и др.) не только способны находить количественные законы, описывающие " поведение" физических или химических переменных, но и позволяют вводить новые теоретические концепты, фиксирующие качественную сторону процессов. Однако влияние этих разработок на создание программы TETRAD едва ли можно считать непосредственным, так как последняя основана на иных эвристических принципах. Куда более существенно влияние методологических взглядов Саймона и его философии науки, близкой к идеям логического позитивизма, но лишенной таких его недостатков, как крайний эмпиризм и феноменализм. Наиболее полное философское обоснование вычислительного подхода к нормативной теории научного открытия дано Саймоном в книге " Модели открытия" (1977). Здесь он остро критикует К.Поппера, отстаивавшего интуи-тивистскую трактовку научного творчества и полагавшего, вслед за большинством философов науки, что попытки сконструировать нормативную теорию научного открытия, сопоставимую с нормативной теорией процессов проверки научных гипотез, абсолютно бессмысленны, так как реконструировать процессы вдохновения и озарения - задача психологии, а не логики науки[46] Аргументы Саймона весьма убедительны, если, конечно, принять его определение науки и научного открытия. Под логикой науки здесь понимается совокупность нормативных стандартов для сравнительной оценки процессов (действий), используемых в ходе открытия или проверки теорий. Эта совокупность может рассматриваться как логика, поскольку сами нормы выводимы из целей научной деятельности, Такая расширительная трактовка позволяет проводить логический анализ любого целенаправленного поведения (в том числе процессов решения задач), которое всегда может быть описано и, следовательно - по крайней мере потенциально, - допускает формализацию в виде машинной программы. Если познавательные процессы могут быть представлены в качестве процессов вычислений, организованных как системы продукции[47], то нормативная теория (логика) научного открытия может быть формализована как совокупность критериев оценки, используемых человеком в процессе обнаружения законов [216. Р.328-332 ]. Такие " логики" не гарантируют, что открытие состоится, они носят эвристический характер, т.е. позволяют с высокой степенью вероятности получить решение задачи или несколько решений, среди которых находится верное. С точки зрения Саймона, разделяемое многими философами предубеждение против попыток построить нормативную теорию открытия основано на уверенности, что любая логика открытия столкнется с проблемой индукции. Однако проблема индуктивного вывода и предсказания в действительности лежит не в области теории научного открытия, а в области теории проверки и подтверждения: " Отделив выявление закономерностей от предсказания, мы можем создать истинную нормативную теорию научного открытия - логику открытия" [216. Р.335]. Как уже говорилось, в социологии причинный анализ статистических данных приобрел популярность в 1960-е годы, прежде всего благодаря работам Х.Блейлока. В книге " Причинный вывод в неэкспериментальных исследованиях" (1961) он продемонстрировал возможности статистического моделирования и причинного анализа в проверке сложных социологических гипотез, опираясь, в частности, на некоторые идеи Саймона. Блейлок фактически заново изобрел процедуру анализа ограничений, накладываемых линейной моделью на ковариационную матрицу. Модели, рассматривавшиеся им в первых работах, обычно отличались от моделей, изучавшихся в психометрике и эконометрике. Они не содержали общего фактора, поэтому ограничения накладывались на частные корреляции (этот тип моделей соответствует типу причинной связи с промежуточной переменной). Полное " возрождение" спирменовских идей в социологии произошло в конце 60-х годов, после публикации статьи Г.Кос-тнера [113]. В главе II данной работы было показано, как, руководствуясь предложенным Блейлоком причинным подходом к анализу ошибки измерения, Костнер показал, что тетрадные уравнения могут использоваться в качестве критерия согласованности для простейших причинных моделей с двумя скоррелированными неизмеряемыми переменными и четырьмя или шестью индикаторами (напомним, что в статье, опубликованной в том же номере журнала, Блейлок доказал, что эти критерии пригодны для любых рекурсивных моделей с несколькими индикаторами латентных переменных). Идеи, лежащие в основе эмпирического контроля причинной модели измерения, который осуществляется посредством анализа вытекающих из модели структурных ограничений на корреляции (ковариации) наблюдаемых переменных, и составили фундамент многоиндикаторного подхода к оценке качества измерения (см. главу II данной книги). Еще одним важным шагом в расширении возможностей причинного анализа в социологии стало распространение методов путевого анализа на нерекурсивные модели с петлями обратной связи между переменными. Компьютерная революция, ощутимо затронувшая социологию в конце 60-х - начале 70-х годов, упростила решение рутинных вычислительных проблем статистического моделирования. С появлением программ типа LISREL и EQS наметилась тенденция использовать ЭВМ не только для вычислений при оценке параметров или проверке гипотез, но и для активного поиска возможных модификаций предварительно заданной модели. Однако эти программы осуществляли лишь узкий, направленный поиск альтернативных причинных моделей и, кроме того, были основаны на " неспирменовской" стратегии пересмотра исходной модели. TETRAD - первая попытка синтезировать спирменовский метод поиска наилучшего причинного объяснения для неэкспериментальных данных, неопозитивистские представления Саймона о нормативной теории научного открытия, моделирующий подход к социологическому измерению и самые современные разработки в области искусственного интеллекта. Проблема, стоявшая перед создателями программы TETRAD, заключалась в том, чтобы найти общий алгоритм для быстрого вычисления тетрадных уравнений (либо других ограничений, робастно предполагаемых любой линейной причинной моделью) и сравнения этих ограничений с теми, которые приблизительно удовлетворяются в выборочной ковариационной матрице, т.е. в данных. Такой алгоритм, будучи реализованным в компьютерной программе, позволил бы социологу вести эвристический поиск среди сколь угодно большого числа линейных причинных моделей, не ограничиваясь сравнением объяснительного потенциала двух или трех моделей, оказавшихся в поле его зрения. Удалось ли решить эту задачу? Программа TETRAD - это " интеллектуальный партнер" исследователя в построении модельных структур, описывающих поведение переменных, в проверке правильности спецификации модели и, в сущности, в обосновании причинного вывода в эмпирическом социологическом исследовании. Программа может быть использована лишь для определенных типов линейных причинных моделей, однако это подмножество моделей репрезентирует весьма типичные для социологии структурные гипотезы. TETRAD на основании выбороч- ных данных и задаваемой исследователем базовой (скелетной) модели позволяет получить такие ее модификации, которые наилучшим образом соответствуют данным с точки зрения определенных принципов. Последние и являются критериями оценки линейных моделей, т.е., по Саймону, составляют некоторую частную нормативную теорию открытия. К принципам, по которым производится отбор наилучшей модели (или наилучшего дополнения исходной модели), относятся принцип Спирмена, принцип Терстоуна и играющий вспомогательную роль принцип простоты. Первый подразумевает, что предпочтительной при прочих равных является та модель, которая влечет имеющие место в генеральной совокупности ограничения для всех значений своих свободных параметров. Согласно второму, из модели не должны следовать ограничения, не выполняющиеся в выборочных данных[48]. Интуитивно ясный третий принцип довольно трудно поддается формализации. Авторы TETRAD интерпретируют его следующим образом: более простой является причинная модель, содержащая меньшее число связей [135. Р.94-95 ]. Применение упомянутых принципов ведет к разным альтернативам. Принцип Спирмена определяет выбор более простых моделей, из которых следует большее число ограничений. Добавление же ребра или скоррелированной ошибки в ориентированный граф, представляющий причинную модель[49], уменьшает число таких ограничений и, стало быть, увеличивает вероятность ситуации, когда ограничения, выполняющиеся в данных, не " схвачены" объяснительной моделью. Принцип Терстоуна диктует выбор более сложных моделей, поскольку увеличение числа связей в модели (т.е. добавление ориентированных ребер или скоррелированных ошибок) опять-таки уменьшает число подразумеваемых моделью ограничений и делает маловероятной ситуацию избыточной " строгости" модели в отношении структуры данных. Так как любые ограничивающие условия точно выполняются в конечной выборке лишь в редких случаях, минимизация числа ограничений, предполагаемых моделью, будет способствовать соблюдению принципа Терстоуна. Что касается принципа простоты, то это своеобразное средство " оккамизации" объяснительной модели. В отсутствие каких-либо безусловных преимуществ из нескольких моделей будет выбрана та, которая содержит наименьшее количество путей причинного влияния. Модифицируя модель, пользователь получает информацию о том, как этот процесс влияет на соблюдение принципов Спирмена и Терстоуна. При этом он решает, какой " вес" следует приписать каждому из этих принципов. При работе с программой TETRAD необходимо ввести выборочную корреляционную (ковариационную) матрицу и исходную " скелетную" модель[50], а также задать уровень значимости.чтобы проверить, выполняются ли ограничения в выборочных данных. TETRAD предлагает множество переработок исходной модели и таблицу, из которой видно, как каждое предлагаемое дополнение влияет на соблюдение принципов Спирмена и Терстоуна. Исследователь может выбрать оптимальное с точки зрения этих принципов дополнение и снова запустить программу для дополненной модели. Таким образом, дерево поиска решения в TETRAD начинается с самой простой причинной модели, а все более сложные " дочерние" модели проверяются на каждом последующем этапе. Первичные показатели, определяемые TETRAD, включают: 1) число ограничений, предполагаемых исходной моделью (I), 2) число ограничений, предполагаемых выборочными данными на данном уровне значимости (Н), 3) число ограничений, следующих из модели, но не выполняющихся в выборочных данных (I — Н), 4) соответствующее число ограничений, имеющих место для выборочных данных, но не предполагаемых моделью (Н — I). При сравнении исходной модели с дополненными основной мерой соблюдения принципа Спирмена является увеличение числа уравнений, которые выполняются в данных, но не следуют из модели. Лучшей считается модель с наименьшим значением этой величины / (Н — /). Для того, чтобы определить, насколько каждая из переработок исходной модели способствует соблюдению принципа Терстоуна, используются два показателя - уменьшение числа предполагаемых моделью ограничений, не выполняющихся в данных D (/ — Я), и уменьшение " остатков" тетрадных разностей в выборке (TTR), Программа содержит также грубую меру для оценки соответствия модели (индекс Бентлера-Бонетта), используемую для принятия решения о прекращении поиска, если при дальнейших модификациях модели соответствие не улучшается. Число ограничений, которые в принципе могут следовать из линейных причинных моделей, очень велико. В программе TETRAD анализируются лишь два типа таких ограничений: уже упоминавшиеся тетрадные разности и стремящиеся к нулю частные корреляции. Коэффициент частной корреляции будет равен нулю в случае, когда его делитель равен нулю, откуда следует ограничение Pij = PikPjk Причинная структура, соответствующая этому ограничению, достаточно очевидна: между Xi и Xj. нет никакого пути причинного влияния, помимо включающего Xk. Что же касается тетрадных разностей, то, как уже говорилось, типичными моделями, для которых выполняются такие ограничения, являются модели, где измеряемые переменные восходят к общему фактору, либо нескольким скоррелированным факторам, либо образуют причинную " цепочку" (такие модели обычно подразумевают ограничения на частные корреляции). Важная особенность рассмотренных ограничений
9 И.Ф.Девятко 129 заключается в том, что они могут быть выведены непосредственно из ориентированного графа, представляющего элементарную причинную структуру статистической модели. Так как программа TETRAD реализует некоторую эвристику для поиска наилучшей причинной модели, а не строгую алгоритмическую процедуру, эффективность которой может быть обоснована априорно, то оценка полезности этой программы существенно зависит от познавательной ценности и нетривиальности результатов. Авторы TETRAD подвергли вторичному анализу результаты ряда хорошо известных социологических исследований и убедительно продемонстрировали необходимость учитывать альтернативные объяснительные гипотезы и сомнительность некоторых некритически принимаемых допущений. Проиллюстрируем возможности TETRAD как " орудия критики", обратившись к проведенному Глаймуром, Шейнисом, Спиртесом и Келли анализу данных, полученных М.Коном в известном исследовании авторитарности - конформности различных социальных групп американского общества [158 ]. Изучая отношения между социальной принадлежностью, установками и чертами личности, Кон, в частности, рассматривал отношение латентной черты - фактора " Авторитарный консерватизм" - к переменным социальной стратификации. Измеряемыми переменными для определения показателя " Авторитарного консерватизма" были вопросы, имевшие пять вариантов ответа (от " совершенно согласен" до " совершенно несогласен"). Использовались вопросы, разработанные Т.Адорно и его коллегами для классической " Авторитарной личности", которые прошли процедуру селекции, гарантировавшую, по замыслу автора, одномерность каждой шкалы относительно измеряемого конструкта (критерием одномерности было соответствие модели гутмановской шкалы). Кроме того, весь блок вопросов был подвергнут факторному анализу, результаты которого подтвердили специфичность отдельных шкал (в том числе, шкалы авторитарности) относительно различных гипотетических конструктов [158. Р.265-269 ]. Таким образом, Кон выделил в своем исследовании фактор " Авторитарного консерватизма" (АС), по отношению к которому отдельные вопросы служили индикаторами. В более поздних сравнительных обследованиях показано, что существуют " ядерные" пункты АС-шкалы, являющиеся индикаторами авторитарности для разных национальных групп. Моделью измерения всякий раз служила модель латентного фактора. Традиционная для социальной психологии интерпретация этой модели измерения предполагает, что после выделения общего фактора, объясняющего связь между пунктами шкалы, остаточные корреляции пунктов приписываются коррелированным ошибкам, возникающим при ответе. Именно так были проинтерпретированы результаты использования пяти " ядерных" пунктов.АС-шкалы в работе Дж.Миллера и соавторов [179]. Глаймур и его коллеги воспользовались данными о корреляциях этих пяти вопросов, чтобы проверить, нельзя ли скоррелировать модель и найти иное объяснение остаточным корреляциям. Они предположили, что " остатки" можно рассматривать как симптом существования эффекта " закрепления" (anchoring effect) между ответами на вопросы интервью [135. Р.165]. Эффект " закрепления" (или " установки на якорь") известен в экспериментальной психологии и описывает механизм возникновения ситуации, когда результаты одного психического процесса (оценки величины стимула, решения задачи и т.п.) используются как исходная точка, база для другого процесса. Содержательная интерпретация эффекта может основываться на понятиях " уровня адаптации", " стимульного контекста" или " сохранения когнитивного баланса". Последнее объяснение весьма убедительно, когда речь идет о порядке вопросов АС-шкалы. Их смысловая связанность и общая нацеленность обеспечены специальными процедурами (см. выше) и, вероятно, очевидны не только для исследователя, но и для респондента. Стремясь к тому, чтобы его ответы были согласованы и последовательны, респондент будет учитывать свои предыдущие ответы, используя их как исходную точку. Результаты применения TETRAD подтвердили преимущества модели измерения, предусматривающей прямые причинные влияния между вопросами АС-шкалы, т.е. гипотезу о том, что корреляции между ответами, не связанные с их зависимостью от латентного фактора " Авторитарного консерватизма", объясняются причинными отношениями между самими вопросами-индикаторами (а не необъясненными корреляциями их ошибок измерения). На рис.14 представлены исходная модель измерения " Авторитарного консерватизма", пересмотренная модель Дж.Миллера с коррелированными ошибками и одна из двух переработок исходной модели, предложенных TETRAD [51]. Анализ модели измерения для пяти вопросов АС-шкалы проводился до того, как стала известна их временная последовательность в интервью, т.е. вопросы нумеровались условно. Поскольку две модели, найденные TETRAD, ограничивали порядок четырех вопросов из пяти (между которыми вводились прямые причинные связи), то программа фактически " выдала" определенные утверждения о реальной последовательности вопросов. Одно из них, как выяснилось позднее, действительно соответствовало тому порядку, в котором они задавались в исследовании Кона. Статистическая проверка предложенных TETRAD моделей с помощью программы EQS также подтвердила высокую степень их соответствия данным. Этот анализ, наряду с другими вторичными исследованиями, проведенными разработчиками TETRAD, позволяет очертить пределы, в которых практическую применимость программы можно считать в достаточной мере доказанной.
1) TETRAD полезна в поисках правдоподобных и успешно проходящих статистическую проверку моделей, значительно расширяя возможности исследователя в рассмотрении множества альтернативных объяснений. При этом, работая в режиме диалога, исследователь может эффективно использовать в поиске уже имеющиеся знания, содержательные соображения, чтобы исключить противоречащие им гипотезы. 2) TETRAD может быть полезна и в поиске альтернативной исходной модели, в частности при принятии решения о необходимости введения в модель латентных переменных (хотя, разумеется, TETRAD не может подсказать социологу, какой концепт соответствует этой латентной переменной). 3) Для данной исходной модели TETRAD может быть использована с целью различения коррелированных ошибок и прямых причинных связей между переменными-индикаторами. При этом иногдаона может определить направление причинной связи последних. 4) Пространство поиска TETRAD альтернативных моделей многократно шире того, которое доступно при работе " вручную" или даже с помощью программ типа LISREL [135. Р.147]. Не оценивая пока принципы и " образ науки", лежащие в основании TETRAD, обратимся к анализу наиболее очевидных недостатков в их техническом воплощении. Прежде всего, программа никак не использует многие виды ограничений, которые и теоретически, и практически могут быть вычислены. Существенна и ориентированность программы на определенные типы моделей, что делает ее неприменимой в целом ряде случаев. Далее. Так как программа основана на постепенном усложнении базовой модели, она, естественно, не содержит никаких средств для автоматического перехода от одной простой базовой модели к другой, тщательное рассмотрение всех возможных альтернативных базовых моделей зависит от добросовестности и внимательности использующего ее исследователя. Если базовая модель с самого начала не соответствует принципу Спирмена (не содержит ограничений, имеющих место в данных), т она не может помочь в выборе другой модели, поскольку использ., емые в TETRAD ограничения не могут возникнуть в боле^ сложной дополненной модели, если они не содержались в исходной простой. Выбор между различными дополнениями исходной модели в TETRAD основан на оценивании выполнения ограничений для выборочных данных о корреляциях. Как справедливо отмечает С.Хант, обоснованность такого выбора " будет решающим образом зависеть от способности TETRAD правильно оценивать тетрадные разности и частные корреляции" и, следовательно, от таких факторов, как размер выборки, форма распределения выборочных данных и выбор уровня значимости [152. Р.172]. Последнее обстоятельство особенно существенно, так как выбор уровня значимости для принятия или отвержения гипотезы о выполнении ограничений в выборочных данных не обеспечен в программе сколько-нибудь строгими правилами. Выбирая обычный уровень значимости (0, 05), исследователь рискует столкнуться с ситуацией, когда будут тривиально выполняться много ограничений и любые дальнейшие переработки модели окажутся излишними. Авторы рекомендуют выбирать большие значения (например 0, 5), однако они не дают строгого метода для определения уровня значимости. Наконец, использование программы может вызвать те же вычислительные проблемы, которые ранее возникали при многоиндикаторном подходе к оценке качества измерения, где тетрадные разности также использовались для проверки правильности модели измерения. Для социологии весьма типичны маленькие корреляции между переменными, произведения которых столь малы, что тетрадные разности будут очень близки к нулю, даже если это не так для генеральной совокупности. TETRAD-aHcUiH.3 можно рассматривать как весьма успешную попытку передать машине некоторые функции исследователя в процессе идентификации причинной модели (посредством алгоритмизации определенных эвристических стратегий решения этой задачи человеком). Однако помимо уже упоминавшихся технических ограничений, присущих этому типу анализа, существуют и фундаментальные проблемы обоснования используемых здесь нормативных принципов и общих представлений о возможностях и способах научного объяснения в социологии. Если даже считать бесспорной ту умеренную и осторожную трактовку возможностей искусственного интеллекта и статистического моделирования, которую дают авторы TETRAD [135. Р.15-61 ], весьма проблематичными остаются гносеологические и, менее явно, онтологические допущения, лежащие в основании TETRAD-метоцологии. Главная цель TETRAD-анализа - поиск альтернативных объяснений через вторичный (третичный и т.д.) анализ данных. В этом смысле TETRAD продолжает традиции эксплораторной статистики, основания которой подвергались достаточно серьезной критике (см.: [185]). Глаймур и соавторы готовы согласиться с тем, что объяснение, найденное TETRAD, может быть объяснением " к случаю", а теория, сконструированная через поисковый анализ уже имеющихся данных, " будет сконструирована специально, чтобы объяснить эти данные" [135. Р.58]. Однако они полагают, что понятие конструирования теории " под данные" может иметь по крайней мере два смысла. Первый, когда исследователь действительно конструирует, " подгоняя" и " прилаживая" теорию. Найденное таким образом теоретическое объяснение действительно не может считаться подтвержденным данными, для которых оно было сконструировано. И второй, когда сами теории- можно рассматривать как некоторые идеальные объекты, находящиеся " там", т.е. в попперовском третьем мире объективного содержания мышления, и " имеющие такие логические отношения с данными, которые они имеют, независимо от того, случилось ли кому-нибудь о них подумать" [135. Р.59 ]. В этом смысле открыть теорию не означает создать ее. Теория либо находится в правильных логических отношениях к данным (и подтверждается ими), либо нет. И, значит, постоянная забота о разграничении поискового анализа и подтверждения теории оказывается надуманной, так как проверка теории основана отнюдь не на правильном предсказании и прогнозе. Реальная проблема в том, что, поскольку " специально сконструированные" теории также могут быть согласованы с данными, возникает необходимость найти такую концепцию теоретического объяснения, которая требовала бы большего, чем простое соответствие статистическим зависимостям, наблюдаемым в данных. В случае анализа линейных причинных моделей " большее" как раз и заключается в наложении дополнительных ограничений на структуру данных и проверке выполнения этих ограничений. Ограничения, вводимые объяснительной моделью, проверяются относительно самой модели. Общая логика таких процедур носит название бутстреп-методологии[52], которая послужила основой предложенной Глаймуром оригинальной концепции проверки теорий [134 ]. Об этой концепции мы еще будем говорить дальше, здесь же ограничимся замечанием, что ее главная идея состоит в том, что гипотезы получают эмпирическое подтверждение не сами по себе, а лишь относительно вспомогательных предположений или утверждений основной теории. TETRAD-аиалт в сущности является бутстреп-процедурой поиска и проверки гипотез, т.е. гипотетических причинных моделей. Однако глаймуровская логическая теория относительного подтверждения имеет внутренние ограничения, связанные с тем, что правдоподобие относительного подтверждения решающим образом зависит от правдоподобия вспомогательных предположений, используемых при проверке гипотезы. В TЕТRАD-анализе эпистемически привилегированным статусом пользуются причинные модели, соответствующие описанным выше принципам Спирмена и Тер- стоуна, и поэтому строгое обоснование эффективности этого подхода зависит от возможности обоснования нормативных критериев отбора и проверки моделей. Насколько вообще оправдан эпистемический приоритет, который разработчики TETRAD приписывают линейным причинным моделям, накладывающим структурные ограничения на данные? Видимо, можно согласиться с продуктивностью такого подхода, когда соблюдается условие " при прочих равных", т.е. когда в отсутствие иных содержательных, концептуально-теоретических обоснований для выбора предпочтение отдается " моделям, которые не предполагают ошибочных ограничений, но действительно предлагают эмпирически верные ограничения на данные" перед " моделями, которые не предполагают никаких ограничений (и, следовательно, никаких ошибочных ограничений)" [135. Р. 190]. Этот подход явно сродни интуитивно привлекательной идее предпочтительности максимально обязывающих (в смысле возможных импликаций) и содержащих наименьшее число параметров моделей, с использованием которых в определенной мере связаны успехи естественных наук, что неоднократно подчеркивают и авторы. Однако строго обосновать применимость этого принципа можно лишь основываясь на все тех же содержательных соображениях о природе социальной реальности, " генерирующей" наши данные, т.е. на некоторых уже онтологических допущениях, источником которых может быть только социологическая теория. Именно это, вероятно, имеет в виду Г.Саймон, когда в предисловии к " Discovering Causal Structure" пишет: "... данные сами по себе не могут помочь нам (прямо) выбрать правильные структурные уравнения! Мы должны прибавить к данным дополнительную информацию (" наложить дополнительные ограничения", как обычно говорят), чтобы сделать выбор. Они равнозначны эмпирическим предположениям о семантике ситуации, о природе механизмов, в действительности породивших данные. Здесь не существует простой процедуры " поворота рукоятки", которая позволит нам делать автоматическую науку" [135. P.XIV]. Отметим, что существует еще одна возможность обоснования, которую, пожалуй, нельзя назвать строгой. Речь идет об этосе эмпирической науки, иногда определяющем " законность" процедуры или нормативного принципа не только через рациональность или практическую эффективность, но и через соответствие каким-то одобряемым " культурным образцам" и нормативным " стандартам поведения" (например, стандартам методической строгости, избегания " спекулятивных" либо теоретически избыточных объяснений). Эта возможность хорошо известна " после-куновской" и " послемертоновской" социологии и истории науки. Не вдаваясь в обсуждение этих известных соображений, заметим, что эмпирическая социология не только часто использовала возможность обоснования своих принципов через стандарты " методической строгости" (в отсутствие строгости теоретической), но и в значительной мере осознавала неизбежные пределы такого обоснования. Не столько доказать, сколько проиллюстрировать эту мысль может небольшой и не слишком серьезный отрывок из воспоминаний П.Лазарсфельда, приведенный Дж.Конверс в качестве эпиграфа к одной из глав фундаментальной истории социологических исследований в США [109. Р.267 ]: " Рождественский скетч в Бюро[53]. Один из парней играет меня. Я вхожу и распределяю сигары, и кто-то спрашивает: " Это парень или девушка? ". И этот фиктивный Лазар-сфельд останавливается и говорит: " Черт возьми! Откуда я знаю, меня интересует только метод". 3. Критика причинных моделей измерения с латентной переменной Мы уже обсуждали некоторые существенные ограничения, возникающие при использовании множественных индикаторов для измерения латентных переменных. Ограничения, присущие моделирующему подходу, как было показано выше, осознаются большинством исследователей и нередко успешно преодолеваются при решении практических задач. Однако некоторые критики причинных моделей с латентными переменными отвергают саму возможность их использования. " Тотальная" критика моделирующего подхода к измерению ставит под сомнение использование информации о наблюдаемых переменных для выводов о взаимоотношениях между социологическими показателями и теоретическими конструктами. По мнению радикальных критиков, этот подход вообще не может быть обоснован на почве содержательных или эпистемологических соображений. Наиболее типична следующая аргументация. При определении надежности индикаторов в латентных переменных в причинных моделях измерения используются критерии согласованности, выводимые из этих моделей. Критерии согласованности включают в себя корреляции индикаторов и непосредственно измеряемых теоретических переменных (примеры можно найти во второй главе данной книги). В этом случае любые выводы о наличии или отсутствии ошибки измерения в любом данном индикаторе латентной переменной оказываются зависящими от наличия ошибок измерения в гипотетически " правильных" индикаторах других переменных и от правильности теоретической модели, постулируемой исследователем. Иными словами, обоснованность вывода о наличии или отсутствии ошибки измерения в отдельно взятом индикаторе латентной теоретической переменной зависит от правильности спецификации модели в целом, т.е. от правдоподобия всей совокупности допущений, касающихся остальных латентных переменных и их индикаторов. Очевидно, однако, что именно идея невозможности проверки отдельной гипотезы о качестве " вот этого" индикатора составляет ядро концепции взаимосвязи теории и измерения. Как мы неоднократно подчеркивали, " теоретические" и " измерительные" гипотезы в социальных науках могут быть раз- ведены лишь аналитически. Однако, как пишет представитель " радикальной критики" Г.Г.Хоппе: " Ошибка измерения - рог definitionem - это расхождение между наблюденным значением и соответствующим истинным значением данной переменной. Само определение логически предполагает, что наличие ошибки измерения в некой переменной (Y) эпистемологически не зависит от наличия или отсутствия ошибки измерения в любой другой переменной, определяемой независимо от Y, и, более того, что исход < данной проверки> точно так же не зависит от существования или несуществования каких-либо взаимоотношений между этими переменными" [150. Р.505]. Таким образом, Хоппе представляется неприемлемой любая стратегия вывода, для которой проверка " измерительной" гипотезы требует принятия некоторых вспомогательных допущений о том, насколько хорошо измерены другие переменные и каков характер эмпирических взаимоотношений между ними. С его точки зрения, принятие любых вспомогательных гипотез для проверки интересующей нас гипотезы о качестве измерения какой-то переменной - это " эпистемологический абсурд", так как эти гипотезы не соотнесены опять же эпистемологически с интересующей нас гипотезой [Там же]. Однако возможен ли вообще научный вывод, абсолютно независящий от правдоподобия вспомогательных гипотез или допущений, принимаемых исследователем явно и неявно для того, чтобы сделать проверяемой его " главную" гипотезу? Ровно в той мере, в которой возможно абсолютное и беспредпосылочное знание. Другой аргумент, используемый Хоппе в полемике с моделирующим подходом, также неявно основан на идеях и проблемах, впервые сформулированных в рамках этого же подхода. Как уже говорилось, после принятия эксплицитной модели измерения, включающей в себя и отношения между теоретическими переменными, и ошибки измерения, иногда становится очевидной невозможность однозначного " приписывания" результата содержательной гипотезе либо артефакту измерения. Для иллюстрации здесь можно обратиться к рассмотренным нами ранее примерам, в частности к модели " удовлетворенность - заработная плата" (с. 111-113) или к модели " дискриминация меньшинства" (с. 113-116). Казалось бы, возможность идентификации таких " отрицательных образцов" (как и возможность найти частное или компромиссное решение возникающих проблем) гарантирована именно использованием моделирующего подхода. Однако, с точки зрения Хоппе, сама альтернатива приписывания негативного результата либо " непорядку в теории", либо " непорядку в измерении" создает соблазн списывания теоретических ошибок за счет недостатков измерительной процедуры и деморализует исследователей. Таким образом, полагает Хоппе, критикуемый им подход неприемлем не только с логической и эпистемологической точек зрения, но также " нежелателен с психологической точки зрения: использование моделей, допускающих ошибку измерения, приводит к концу процесс проб и ошибок, необходимый для научного прогресса" [150. Р.508 ]. Даже разделяя эволюционную концепцию науки - пусть и не в попперовской радикальной версии - мы можем лишь недоумевать, каким образом можно заменить культуру ясной и отчетливой экспликации всей совокупности теоретических и методических допущений, постепенно получающую признание в социологии под названием " моделирующий подход к измерению", тщательной проверкой данных (" переменная за переменной"), как рекомендует Хоппе [Там же. Р.509 ]. Разумеется, проверка данных чрезвычайно важна, а техника путевого анализа, рассматриваемая Хоппе как единственное орудие моделирующего подхода, имеет целый ряд ограничений, помимо справедливо указанных им. Однако методы и " инструменты", используемые социологом, столь сильно отличаются от искусственных закрытых систем, используемых в качестве инструментов физического измерения, что требование их тщательной проверки может быть истолковано лишь как полезная метафора, а не конкретная рекомендация. Однако первый, " эпистемологический" аргумент, используемый Хоппе, все же заслуживает более подробного рассмотрения, так как адресован к фундаментальной и до недавнего времени не получавшей должного внимания черте моделирующего подхода к измерению - хо-листской трактовке логики научного исследования и проверки гипотез. Мы не можем здесь останавливаться на анализе новейших тенденций в философии науки, но позволим себе кратко рассмотреть те результаты, которые непосредственно связаны с предметом нашего обсуждения. Последние работы в области логики подтверждения научных гипотез относятся преимущественно к проблеме относительного подтверждения, т.е. подтверждения гипотез относительно вспомогательных допущений либо " фоновой" теории. Несмотря на разногласия, существующие между представителями различных концепций (байесианской, гипотетико -дедуктивной и др.), большинство специалистов в этой области согласятся с тем, что при ответе на вопрос о том, при каких условиях некоторое (всегда фрагментарное и частное) эмпирическое доказательство подтверждает теоретическую гипотезу, нельзя изолировать " гипотезу" и " доказательство" из целостного " поля" фоновых знаний и допущений (и, следовательно, нельзя построить чисто логическое объяснение процесса подтверждения гипотезы). Т.е. всякое относительное подтверждение существенно зависит от эпистемического статуса вспомогательных допущений и теорий. Как отмечает автор критического обзора этой области: " То, что кажется сейчас необходимым, это некое холистское объяснение подтверждения всей системы гипотез, возможно, в терминах их подтверждения относительно друг друга. То обстоятельство, что такой холизм становится неизбежен в объяснении < процесса> подтверждения на определенной стадии, не должно вызвать никакого удивления в свете работы, проделанной в философии науки за последнее столетие, хотя это значительно усложняет задачу объяснить подтверждение на языке исключительно логических отношений" [124. Р.266 ]. Этот вывод, возможно, покажется неутешительным сторонникам " сильной" программы логики научного исследования. Но он очевидно подкрепляет наше несогласие с критикой моделирующего подхода, высказанной Хоппе. Интересно отметить, что одна из популярных теорий относительного эмпирического подтверждения, развиваемая известным историком и философом науки К.Глаймуром, обнаружила в моделирующем подходе свою образцовую иллюстрацию. Более того, как мы указывали выше, стратегия научного открытия, предполагаемая этой теорией, недавно получила воплощение в компьютерной системе поиска содержательных и " вспомогательных" теоретических моделей в социологии. К.Глаймур разработал оригинальную и в значительной мере соответствующую реальной истории научных открытий концепцию эмпирического подтверждения теорий [134 ]. Опираясь на взгляды Карнапа и раннего Рейхенбаха, Глаймур считает, что эмпирические доказательства дают примеры теоретических утверждений, которые могут быть дедуцированы из доказательств при помощи других (вспомогательных) теоретических утверждений. Однако (в отличие, например, от Рейхенбаха) Глаймур отрицает существование " привилегированных" утверждений теории - аналитических истин или координирующих определений, - которые привязывали бы доказательство к теории. С его точки зрения, любая теоретическая гипотеза может быть использована для дедукции примера теоретического утверждения из совокупности эмпирических доказательств. Т.е. доказательство подтверждает или не подтверждает гипотезу по отношению к теории [134. Р.110]. В главе, посвященной методологии " неестественных" наук [134. Ch.7 ], Глаймур показывает, что используемые в каузальном моделировании способы проверки гипотез могут рассматриваться как примеры защищаемой им так называемой бутстреп-стра-тегии обоснования научного вывода. Здесь мы не будем возвращаться к тем возможностям (и опасностям), которые открываются в результате конвергенции бутстреп-стратегии проверки теорий и причинного моделирования в социологии. Другая критическая аргументация, прозвучавшая недавно в адрес причинного моделирования и вспомогательных теорий измерения, была развита английским социологом Р.Поусоном в программной книге " Мера для мер: манифест для эмпирической социологии" [196 ]. Анализ этой аргументации представляется нам самым существенным, так как собственная концепция Поусона, как нам кажется, в значительно большей мере опирается на критикуемый подход, чем склонен признать ее автор. Отметим сразу, что критика, высказываемая Поусо-ном, абсолютно справедлива в том, что касается недост
|