2 страница. Сформировавшись в рамках конкретной интенсивно развивающейся дисциплины новые видение мира и методы исследования проникают в другие дисциплины
Сформировавшись в рамках конкретной интенсивно развивающейся дисциплины новые видение мира и методы исследования проникают в другие дисциплины. Раньше физика, теперь кибернетика и биология стали лидирующими, они задают свои методы исследования в качестве универсальных.
Отсюда 2 пути перестройки оснований: 1) внутридисциплинарный; 2) междисциплинарный ("прививка" другой парадигмы).
^ Новые факты и новые приборы. Аномалии и способы их устранения: рост знания.
Внутренние парадоксы. Проверка на прочность понятийного аппарата (примеры Аристотель, Галилей, Эйнштейн).
^ Критическая функция Выход на философский уровень осмысления старых оснований. Конструктивная функция: перестройка картины мира и идеалов познания. Примеры: философский анализ понятий пространства, времени, движения и т.п. (ориентирование).
При переносе парадигмы часто дело обходится без критико-аналитической фазы. Роль философии состоит в обобщении, универсализации новой парадигмы: особенно ярко это видно на примере системного подхода, синергетики. Философия обобщает, упрощает и популяризирует заимствованные, например, в кибернетике модели. Так она способствует междисциплинарной коммуникации.
Конкуренция альтернативных программ: Птоломей-Коперник, Декарт - Ньютон, Пуанкаре-Эйнштейн. Дело не огранивается эмпирическими и операциональными преимуществами. Раньше философия решала вопрос о принятии той или иной программы с точки зрения соответствия онтологии. Сегодня побеждает та программа, которая выражает "дух времени". Философия помогает этому тем, что проводит параллели между изменениями в науке и культуре в целом. Все теории расцениваются как описания мира. Преимущества получает та, чье описание признается лучшим на форуме научной общественности. (Коммуникативная природа обоснования.)
Современный стиль мышления характеризуется признанием "относительности" рациональности, зависимостью ее идеала от социокультурных факторов. (Витгенштейн о математике). Отсюда речь может идти о потенциале различных логических возможностей развития науки. Выбираются те, которые реализуемы в понятийном и экспериментальном инструментарии, в экономических и технических возможностях, в существующих институтах и организациях. Многое зависит от форм коммуникации. Все эти факторы играют роль "фильтров", осуществляющих селекцию возможностей.
Пример: квантовая механика развивалась до системного подхода на основе принципа дополнительности. Сегодня она может интерпретироваться иначе. Но что было бы, если синергетика предшествовала квантовой теории. Скорее всего, не было бы столь сильной конфронтации классической и неклассической физики. Не было бы и "революции".
5. Кризис классической науки во II половине XIX века. Становление квантовой теории. Создание специальной и общей теории относительности. Изменение фундаментальных основ научной картины мира.
В конце XIX века выявилась несостоятельность попыток создать теориюизлучения черного тела на основе законов классической физики. Из законов классической физики следовало, что вещество должно излучать электромагнитные волны при любой температуре, терять энергию и понижать температуру до абсолютного нуля. Иными словами. тепловое равновесие между веществом и излучением было невозможно. Но это находилось в противоречии с повседневным опытом.
Более детально это можно пояснить следующим образом. Существует понятие абсолютно черного тела - тела, поглощающего электромагнитное излучение любой длины волны. Спектр его излучения определяется его температурой. В природе абсолютно черных тел нет. Наиболее точно абсолютно черному телу соответствует замкнутое непрозрачное полое тело с отверстием. Любой кусок вещества при нагревании светится и при дальнейшем повышении температуры становится сначала красным, а затем - белым. Цвет от вещества почти не зависит, для абсолютно черного тела он определяется исключительно его температурой. Представим такую замкнутую полость, которая поддерживается при постоянной температуре и которая содержит материальные тела, способные испускать и поглощать излучения. Если температура этих тел в начальный момент отличалась от температуры полости, то со временем система (полость плюс тела) будет стремиться к термодинамическому равновесию, которое характеризуется равновесием между поглощаемой и измеряемой в единицу времени энергией.
Г.Кирхгоф установил, что это состояние равновесия характеризуется определенным спектральным распределением плотности энергии излучения, заключенного в полости, а также то, что функция, определяющая спектральное распределение (функция Кирхгофа), зависит от температуры полости и не зависит ни от размеров полости или ее форм, ни от свойств помещенных в нее материальных тел. Так как функция Кирхгофа универсальна, т.е. одинакова для любого черного тела, то возникло предположение, что ее вид определяется какими-то положениями термодинамики и электродинамики. Однако попытки такого рода оказались несостоятельными.
Из закона Д.Рэлея следовало, что спектральная плотность энергии излучения должна монотонно возрастать с увеличением частоты, но эксперимент свидетельствовал об ином: вначале спектральная плотность с увеличением частоты возрастала, а затем падала. Решение проблемы излучения черного тела требовало принципиально нового подхода. Он был найден М.Планком.
Квантовая теория получила большое развитие благодаря Планку, в 1900 г. сформулировавшему постулат, согласно которому вещество может испускать энергию излучения только конечными порциями, пропорциональными частоте этого излучения. Данная концепция привела к изменению традиционных положений, лежащих в основе классической физики. Существование дискретности действия указывало на взаимосвязь между локализацией объекта в пространстве и времени и его динамическим состоянием. Л. де Бройль подчеркивал, что "с точки зрения классической физики эта связь представляется совершенно необъяснимой и гораздо более непонятной по следствиям, к которым она приводит, чем связь между пространственными переменными и временем, установленная теорией относительности." Квантовой теории в развитии физики было суждено сыграть огромную роль.
Следующим шагом в развитии квантовой теории было расширение А.Эйнштейном гипотезы Планка, что позволило ему объяснить закономерности фотоэффекта, не укладывающиеся в рамки классической теории. Сущность фотоэффекта заключается в испускании веществом быстрых электронов под действием электромагнитного излучения. Энергия испускаемых электронов при этом от интенсивности поглощаемого излучения не зависит и определяется его частотой и свойствами данного вещества, но от интенсивности излучения зависит число испускаемых электронов. Дать объяснение механизму освобождаемых электронов не удавалось, поскольку в соответствии с волновой теорией световая волна, падая на электрон, непрерывно передает ему энергию, причем ее количество в единицу времени должно быть пропорционально интенсивности волны, падающей на него.
Эйнштейн в 1905 году высказал предположение о том, что фотоэффектсвидетельствует о дискретном строении света, т.е. о том, что излучаемая электромагнитная энергия распространяется и поглощается подобно частице (названной затем фотоном).
Интенсивность падающего света при этом определяется числом световых квантов, падающих на один квадратный сантиметр освещаемой плоскости в секунду. Отсюда число фотонов, которые испускаются единицей поверхности в единицу времени. должно быть пропорционально интенсивности освещения. Многократные опыты подтвердили это объяснение Эйнштейна, причем не только со светом, но и с рентгеновскими и гамма-лучами.
Эффект А.Комптона, обнаруженный в 1923 году, дал новые доказательства существования фотонов - было обнаружено упругое рассеяние электромагнитного излучения малых длин волн (рентгеновского и гамма-излучения) на свободных электронах, которое сопровождается увеличением длины волны. Согласно классической теории, при таком рассеянии длина волны не должна меняться. Эффект Комптона подтвердил правильность квантовых представлений об электромагнитном излучении как о потоке фотонов - он может рассматриваться как упругое столкновение фотона и электрона, при котором фотон передает электрону часть своей энергии, а потому его частота уменьшается, а длина волны увеличивается.
Появились и другие подтверждения фотонной концепции. Особенно плодотворной оказалась теория атома Н.Бора (1913 г.), выявившая связь строения материи с существованием квантов и установившая, что энергия внутриатомных движений может меняться также лишь скачкообразно. Таким образом, признание дискретной природы света состоялось. Но ведь по сути своей это было возрождение отвергнутой ранее корпускулярной концепции света. Поэтому вполне естественно возникли проблемы: как совместить дискретность структуры света с волновой теорией (тем более, что волновая теория света подтверждалась целым рядом экспериментов), как совместить существование кванта света с явлением интерференции, как явления интерференции объяснить с позиции квантовой теории? Таким образом, возникла потребность в концепции, которая увязывала бы корпускулярный и волновой аспекты излучения.
6. 7/ Понимание научного знания в концепциях «первого» позитивизма. (О. Конт, Дж. С. Милль, Г. Спенсер). Критика метафизики.
Позитиви́зм (фр. positivisme, от лат. positivus — положительный) — философское учение и направление вметодологии науки, определяющее единственным источником истинного, действительного знанияэмпирические исследования и отрицающее познавательную ценность философского исследования.Позитивизм — основной тезис: все подлинное (позитивное) знание — совокупный результат специальных наук.
Основоположником позитивизма является ученик Сен-Симона Огюст Конт (1830-е гг.). В программной книге «Дух позитивной философии» (Париж, 1844) Конт представляет человечество как растущий организм, проходящий в своём развитии три стадии: детства, юношества и зрелости. Идеи Конта вдохновили двух английских мыслителей Милля[1] и Спенсера[2]. Этот позитивизм получил названиеПервого, или классического. В России его последователями были Н. Михайловский, В. Лесевич.
На немецких землях позитивизм впитал некоторые элементы кантианства и приобрел свою специфику. Поэтому его стали различать от первого позитивизма и называть вторым позитивизмом[3], илиЭмпириокритицизмом. Его представителями были швейцарец Рихард Авенариус и австриец Эрнст Мах. Согласно Ленину, к взглядам второго позитивизма были близки взгляды Пуанкаре и Дюэма[4]. В августе1900 года Пуанкаре руководил секцией логики Первого Всемирного философского конгресса, проходившего в Париже. Там он выступил с программным докладом «О принципах механики», где изложил свою конвенционалистскую философию. В России ко второму позитивизму примыкает эмпириомонизм А. Богданова, а в США — прагматизм Ч. Пирса:
Со вторым «немецким» позитивизмом тесно связан неопозитивизм, или логический позитивизм Венского кружка, поскольку его лидер Мориц Шлик был непосредственным преемником Маха[6]. Помимо Шлика, центральными фигурами кружка были Карнап и Нейрат. Принимал участие в работе кружка и Людвиг Витгенштейн. Этот кружок нашел в Англии своего активного сторонника и пропагандиста в лице Айера, а в США в лице Куайна. С 1930 Венский кружок издает совместно сберлинской группой Рейхенбаха журнал «Erkenntnis» («Познание»), пропагандирующий идеи логического позитивизма. Неопозитивисты созвали ряд конгрессов: в Праге (1929), Кенигсберге (1930), Праге (1934), Париже (1935), Копенгагене (1936), Париже (1937), Кембридже (1938). В результате Второй мировой войны Вена перестала существовать как центр неопозитивизма, а его представители эмигрировали в англоязычные страны.
«Англоязычный» неопозитивизм обыкновенно называют аналитической философией, поскольку англоязычная философия была уже подготовлена как многовековыми традициями номинализма и эмпиризма, так и непосредственно предшествующими идеям утилитаризма,прагматизма (Моррис) и неореализма (Рассел, Мур). Основное отличие аналитической философии от австрийского неопозитивизма в смещении внимания с логического анализа на лингвистический анализ естественного языка. Если философия логического позитивизма считала себя философией науки и представляла линию сциентизма, сторонники аналитической философии выступали против какого-либо культа научного знания и отстаивают «естественное» отношение к миру, выраженное в обыденном языке. Например, Людвиг Витгенштейнсчитается одновременно и австрийским неопозитивистом, и представителем аналитической традиции. Под влиянием Витгенштейна находился британский философ Рассел, которого считают представителем не только неореализма, но и неопозитивизма[7]. Ключевыми представителями английского неопозитивизма были Гилберт Райл, Джон Уисдом и Джон Остин, американский неопозитивизм был представлен Гудменом, Дэвидсоном, Крипке и Сёрлем
После Второй мировой войны в англоязычных странах появился постпозитивизм. Представители: Карл Поппер, Томас Кун, Имре Лакатос,Пол Фейерабенд, Майкл Полани, Стивен Тулмин.
Основные положения позитивизма[править | править исходный текст]
Позитивисты объединили логический и эмпирический методы в единый научный метод. Сущность единого для всех наук метода, обеспечивающего надежным и достоверным знанием закономерностей природы, была выражена в манифесте «Венского кружка», опубликованного в 1929 г.: «Мы охарактеризовали научное миропонимание, в основном, посредством двух определяющих моментов. Во-первых, оно является эмпиристским и позитивистским: существует только опытное познание, которое основывается на том, что нам непосредственно дано (das unmittelbar Gegebene). Тем самым устанавливается граница для содержания легитимной науки. Во-вторых, для научного миропонимания характерно применение определенного метода, а именно — метода логического анализа»[8].
Основная цель позитивизма — получение объективного знания.
Позитивизм оказал влияние на методологию естественных и общественных наук (особенно второй половины XIX века).
Позитивизм критиковал натурфилософские построения, которые навязывали науке неадекватные умозрительные образы изучаемых ею объектов и процессов. Однако эту критику позитивисты перенесли на всю философию в целом. Так возникла идея очищения науки отметафизики[9]. Сущность позитивистской концепции соотношения философии и науки отражается во фразе О. Конта: «Наука — сама себе философия». Тем не менее, многие позитивисты верили в возможность построения «хорошей», научной философии. Такая философия должна была стать особой сферой конкретно-научного знания, она не должна отличаться от других наук по своему методу. В ходе развития позитивизма на роль научной философии выдвигались разные теории: методология науки (Конт, Милль), научная картина мира (Спенсер), психология научного творчества и научного мышления (Мах, Дюэм), логический анализ языка науки (Шлик, Рассел, Карнап), лингвистический анализ языка (Райл, Остин, поздний Витгенштейн), логико-эмпирическая реконструкция динамики науки (Поппер, Лакатос). Однако все указанные выше варианты позитивной философии были раскритикованы, прежде всего, самими позитивистами, так как, во-первых, как оказалось, они не удовлетворяли провозглашенным самими позитивистами критериям научности, а, во-вторых, опирались на явно (а чаще — неявно) определенные «метафизические» предпосылки[10].
· Позитивная — единственной формой знания становится научное знание. Человечество становится достаточно взрослым, чтобы мужественно признать относительность (релятивность) нашего познания. В этом аспекте позитивизм преодолевает характерный дляНаучной Революции эпохи барокко оптимизм. Второй важной чертой научного знания является эмпиризм — строгое подчинение воображения наблюдению. Здесь Конт повторяет идею Бэкона о том, что фундаментом знания должен стать проверенный опыт. Учёные должны искать не сущность явлений, а их отношение, выражаемое с помощью законов — постоянных отношений, существующих между фактами. Ещё одной чертой научного знания является прагматизм. Учёные перестают быть эрудитами и энциклопедистами. Одним словом, знание становится позитивным: полезным, точным, достоверным и утвердительным.
8// Логический позитивизм. Эмпирический базис. Проблема демаркации научного знания.
Проблема демаркации (лат. demarcatio — разграничение) — проблема поиска критерия, по которому можно было бы отделить теории, являющиеся научными с точки зрения эмпирической науки, от ненаучных предположений и утверждений, метафизики, и формальных наук(логики, математики). Проблема демаркации — это также проблема определения границ науки, отделяющих её от других способов, которыми человек может излагать свои мысли, чувства и убеждения (искусство, литература и религия).
Границы науки часто условны, исторически изменчивы и трудно определяемы аналитически[1][2][3]. Даже после более чем столетнего диалога между философами науки и учёными в различных областях, несмотря на некоторые базовые согласия по основам научной методологии, ряд современных философов и историков науки отклонили эту идею разграничения как псевдопроблему[4][5][6]. В настоящее время в философии науки существует намного больше согласия по частным критериям, чем по общему критерию демаркации между наукой и ненаукой[2].
· Позитивизм утверждает следующие критерии науки: релятивизм (наука выдвигает гипотезы, а не претендует на абсолютную истину),эмпиризм (научные теории опираются на опыт), прагматизм (научное знание полезно).
9/ Концепция роста научного знания К. Поппера. Концепция научных революций Т. Куна. Концепция научного знания И. Лакатоса. Методологический анархизм П. Фейерабенда.
Карл Поппер
В качестве центральной проблемы К. Поппер выдвинул «проблему демаркации» — нахождения критерия, который дал бы нам в руки средства для выявления различия между эмпирическими науками, с одной стороны, и математикой, логикой и «метафизическими» системами — с другой.
Ведь даже очень большое число подтверждающих фактов в отношении того или иного утверждения, полученного путём индуктивного обобщения, делает его лишь весьма вероятным, но всё-таки не твёрдо достоверным. При этом достаточно одного, но вполне бесспорного, опровергающего факта для того, чтобы это индуктивное обобщение было отброшено как негодное. Простой пример этому — превращение утверждения «все лебеди белые» в ложное, когда стало известно, что в Австралии живут и чёрные лебеди. Неодинаковые «силу» и роль в деле проверки осмысленности и истинности научных теорий, которые свойственны подтверждающим и опровергающим факторам, Поппер назвал познавательной «асимметричностью».
На основании этой «асимметричности» Поппер провозгласил замену принципа верификации (то есть положительно осуществляемой проверки, иначе говоря, подтверждения) принципом фальсификации (то есть столь же реально осуществляемого опровержения). Он означает, что проверка научной осмысленности, а затем и истинности научных теорий должна осуществляться не через их подтверждение, а преимущественно (или даже исключительно) через их опровержение[10].
Итак, для решения проблемы демаркации Поппер предлагает свой «дедуктивный» метод «критической проверки теорий».
Из данной теории с помощью других, ранее принятых высказываний выводятся некоторые одиночные высказывания. Затем выбираются высказывания, несводимые к принятой теории, и, особенно, противоречащие ей. Далее выводятся некоторые решения относительно этих (и других) выводимых высказываний путем сравнения их с результатами практических применений и экспериментов. Если такое решение положительно, то теория может считаться в настоящее время выдержавшей проверку. Но если вынесенное решение отрицательное или, иначе говоря, если следствия оказались фальсифицированными, то фальсификация их фальсифицирует и саму теорию, из которой они были логически выведены[11].
С полной уверенностью ни одну систему нельзя назвать научной до тех пор, пока она не фальсифицирована. Из этого следует, что только ретроспективно мы можем отделить науку от ненауки.
Поппер считает, что метафизические системы неопровержимы и, следовательно, ненаучны.
Когда Поппер говорит о «науке», он имеет в виду только эмпирическую или экспериментальную науку. И в этом смысле ненаучной оказывается не только философия, но и математика, и логика. Поппер не только признает осмысленность метафизики, но он постоянно подчеркивает то большое значение, которое она имеет для науки. Почти все фундаментальные научные теории выросли из метафизических представлений. Коперник в своем построении гелиоцентрической системы вдохновлялся неоплатоновским культом Солнца; современный атомизм восходит к атомистическим представлениям древних греков и т. д. И во все периоды развития науки метафизические идеи стимулировали выдвижение смелых научных предположений и разработку новых теорий.
Томас Кун[править | править исходный текст]
В 1962 г. американский физик Томас Кун написал свою книгу «Структура научных революций», где отверг понятия «верификация» и «фальсификация» и ввел понятие «парадигма». Теория Куна произвела переворот в философии науки, но в то же время подверглась жёсткой критике, особенно со стороны Поппера.
Кун не выдвинул чёткого определения парадигмы, очертив скорее границы понятия. По одной из трактовок, парадигма — общепринятое безусловное знание о природе в данный момент. Парадигма задаёт круг проблем, тип научных фактов, согласующихся с ней, предлагает ответы на фундаментальные вопросы. В своём исследовании Кун производил анализ истории науки, а не искал критерий демаркации как универсальный принцип[12].
По мнению Куна, наука развивается не в ходе верификации или фальсификации, а в подтверждении действующей парадигмы. Учёные, создав фундаментальную концепцию, не стремятся к её опровержению и не разбивают её на протокольные предложения — они ищут подтверждения своей теории, решают задачи-головоломки. Это решение задач-головоломок Кун назвал нормальным периодом развития науки.
Но каждая парадигма имеет предел задач-головоломок, после которого учёные начинают выявлять аномалии. Исследование этих аномалий приводит к научной революции и смене парадигм[13].
В «Дополнении 1969 г.» Кун уточнил понятие парадигмы термином «дисциплинарная матрица» — совокупность элементов, определяющая принадлежность исследователей к определенной дисциплине[14]. Этим понятием он закрепил роль научного сообщества в развитии науки и завершил свою теорию.
Таким образом, критерий демаркации у Куна — это парадигма и научное сообщество, работающее в рамках этой парадигмы. Имеет значение лишь мнение учёных в данный момент, а универсального принципа демаркации не существует.
Томас Кун отвергает «объективный» подход к проблеме демаркации, заменяя его «историческим».
Имре Лакатос[править | править исходный текст]
Имре Лакатос — венгерско-британский философ, ученик Карла Поппера. Вслед за Поппером в своих работах Лакатос продолжает рассматривать проблемы демаркации. После выхода в свет в 1962 году работы Куна «Структура научных революций» Лакатос пересматривает своё мнение относительно ряда положений методологического фальсификационизма Поппера и создаёт свой «утончённый методологический фальсификационизм» или методологию «исследовательских программ»[15].
Основным понятием в методологии Лакатоса является ряд или последовательность теорий, которая проверяется на научность или ненаучность. Элементы такого ряда объединены методологическими принципами, что позволяет называть этот ряд исследовательской программой. Исследовательская программа состоит из «жёсткого ядра» и «защитного пояса». «Жёсткое ядро» является каркасом программы и содержит её основные постулаты, вокруг этого ядра образуется защитный пояс, состоящий из вспомогательных гипотез. По мнению Лакатоса, именно «защитный пояс» должен выдержать натиск со стороны проверок, и поэтому он должен приспосабливаться, переделываться или даже полностью изменяться, если это необходимо. Изменениями «защитного пояса» руководят методологические правила, в роли которых выступают отрицательная эвристика (правила-запреты, указывающие на пути, которых следует избегать) и положительная эвристика (правила, которые указывают на пути, которые нужно избирать и по которым стоит идти для разрешения выбранной проблемы). Устойчивость контрпримеров обеспечивается запретом отрицательной эвристики направлять правило «modus tollens» на «жёсткое ядро». Благодаря положительной эвристике развёртывается «защитный пояс», который отражает критику, направленную против ядра. В своих более поздних работах Лакатос отождествляет положительную эвристику с «защитным поясом», которая, по его мнению, определяет проблемы для исследования, выделяет защитный пояс вспомогательных гипотез, предвидит аномалиии победоносно превращает их в подтверждающие примеры. Если рост «защитного пояса» не приносит нового, добавочного эмпирического содержания, то есть не предвосхищает факты, а даёт запоздалые объяснения, исследовательская программа считается регрессивной. О прогрессе программы говорят в том случае, когда она достаточно точно предсказывает новые факты. В ключе прогрессивных и регрессивных исследовательских программ можно говорить о конкуренции между ними. Соответственно, программа, объясняющая большее число аномалий и получившая большее добавочное эмпирическое содержание может считаться более конкурентной и вытесняет другие исследовательские программы.
Согласно утончённому фальсификационизму, теорию Лакатоса можно считать фальсифицированной лишь в том случае, когда новая теория, пришедшая на смену фальсифицируемой, удовлетворяет следующим критериям:
1. она имеет добавочное эмпирическое содержание, то есть предсказывает новые факты, невероятные с точки зрения старой теории;
2. в то же время она объясняет все постулаты предыдущей;
3. некая часть добавочного содержания является подкреплённой.
Таким образом, в науке создаётся последовательность теорий, где каждая новая теория вытесняет предыдущую, добавляя к ней вспомогательные условия[16].
Пол Фейерабенд[править | править исходный текст]
Концепция эпистемологического анархизма Фейерабенда основана на принципах пролиферации и несоизмеримости, то есть он утверждает, что учёным необходимо развивать теории, не согласующиеся с существующими, а сами теории не могут оцениваться или сравниваться с точки зрения «научности».
Фейерабенд не только отвергает верификацию и фальсификацию, он отвергает сам принцип демаркации — философия науки, по его мнению, не должна устанавливать правил исследования. «Для познания подойдёт всё», — Фейерабенд говорит нам о том, что наука — это лишь то, что называется словом наука. И философия науки не может ни описать науку, ни задать правил проведения исследования[17].
Развивая позиции Куна в историческом анализе науки, Фейерабенд приходит к выводу, что государство только вносило религию или другиедогматы в науку, тем самым мешая её развитию. Также как Кун, он уделяет внимание роли метафизики при развитии науки и приходит к выводу, что наука столь же догматична и необоснованна, как религия или философия. И критерий демаркации Фейерабенда уже не относится напрямую к анализу знаний — это принципиально новое предложение по реформации науки. Решение проблемы демаркацииФейерабенд видит только в отделении науки от государства, так как это отделит науку от «мифа».
Учёный называет избавление науки от внешних влияний политики и догматов принципом ненавязываемости, превращая поиски «научного знания» в политическую концепцию. Говоря о демаркации, он говорит уже не о критерии, а о необходимости реформировать науку, чтобы она закончила свой «поиск истины», отвергла существующие правила и могла развиваться с максимальной эффективностью[18].
Фейерабенд приводит философию науки от чёткого разграничения знаний, теорий и фактов к полной неопределённости, отсутствию объективности и предлагает не вмешиваться в развитие науки.
10//Инновации и преемственность в развитии науки (Дж. Холтон, М. Полани, С. Тулмин)
Подход к анализу науки как исторически развивающейся системы остро поставил проблему преемственности в развитии знаний. Акцент в работах Т. Куна и П. Фейерабенда на несоизмеримость парадигм и концептуальных систем требовал углубленного анализа данной проблематики. Ряд важных ее аспектов был раскрыт в работах историка и философа науки Дж. Холтона. Он показал, что в истории науки можно обнаружить сквозные тематические структуры. Они характеризуются чертами постоянства и непрерывности, «которые воспроизводятся даже в изменениях, считающихся революционными, и которые подчас объединяют внешне несоизмеримые и конфронтирующие друг с другом теории»26.
Тематические структуры выступают своеобразной траекторией исторического развития науки. Например, идея атомистического строения вещества, взятая в ее историческом развитии, является, по Холтону, типичной тематической структурой. Она формируется еще в античной философии, а затем развивается в физике и химии. Тема атомизма была представлена в механике Ньютона, в концепции о неделимых корпускулах. Из механики она транслировалась в теорию электричества. Б. Франклин еще в эпоху, когда природа электричества связывалась с представлениями об особой жидкости - «электрическом флюиде», выдвинул идею мельчайшей дискретной порции электричества. Идея заряженных атомов как элементарной порции электричества была основой электродинамики А. Ампера, который строил свою теорию по образу и подобию ньютоновской механики. Последующие разработки темы атомистики в электродинамике были представлены теорией электронов Г. Лоренца, экспериментами Р. Милликена, а затем новыми пониманиями природы электрона в квантовой механике. Эта тематическая траектория продолжается и в современной физике элементарных частиц.
Дата добавления: 2016-06-13; просмотров: 3460;