Невидимые связи
В ХХ век человечество вошло сразу с двумя революциями в физике – появились квантовая теория и теория относительности, которые превращали классическую физику Ньютона в частный случай описания явлений при определенных условиях. Они активно использовались при описании эволюции Вселенной, руку к этому основательно приложил и Эйнштейн. Мощное развитие теории и новые наблюдательные факты приносили поток новых знаний о Вселенной: красное смещение, теория Большого взрыва, черные дыры и нейтронные звезды.
Казалось, как с этими грандиозными открытиями могут быть связаны не столь впечатляющие работы Фрица Цвикки и Яна Оортом? Исследуя галактики, расположенные в области созвездия Волосы Вероники (Цвикки) и нашего Млечного пути (Оорт), они обнаружили, что массы галактик не хватает для удержания периферийных звезд – те должны улетать прочь, как машина с шоссе, которая слишком разогналась, и ей в повороте не хватило сцепления с дорогой. До конца XX века проследить связь всех вышеперечисленных событий не удавалось. Дело в том, что астрономы привыкли искать тела в качестве причин аномального движения видимых объектов. Например, так был обнаружен Нептун еще в середине XIX века! К тому же долгое время казалось, что этот недостаток – должны бы улететь, но не улетают – можно покрыть за счет черных дыр, слабосветящихся коричневых карликов, а позднее – за счет нейтрино. При этом решить задачу не позволяло не просто отсутствие точной наблюдательной техники, а сам уровень знаний о Вселенной.
Темное дело со скрытой массой
Раз звезды не улетают, значит, что-то еще, кроме видимой массы, держит беглецов. Продолжая аналогию с машиной на трассе, выскажем предположение, что, кроме сцепления шин с покрытием, ее могли бы прижимать к дороге мощные магниты под асфальтом. Сначала недостаток массы пытались объяснить наличием межзвездного газа, черными дырами и коричневыми карликами – малосветящимися в оптическом диапазоне объектами. Развитие средств наблюдения, в том числе радиоастрономии, позволяющей наблюдать радиоволны от небесных объектов, показало, что суммарная масса межзвездного газа и пыли действительно велика, но недостаточна, все равно требовалось найти еще 80% массы.
Перелом в отношении к этой проблеме произошел в 70-х годах. Приятно отметить, что одними из первых работы, доказывающие необходимость признать существование темной материи, опубликовала советская группа ученых во главе с Яаном Эйнасто. Противники этой концепции связывали «ненормальные» скорости звезд с неточностью наблюдений и моделей строения галактик. Переубедить их помогла титаническая работа американки Веры Рубин, научная группа которой в течение нескольких лет составляла карту скоростей звезд в 21 космическом объекте. Вывод Цвикки подтверждался – видимой массы галактик не хватает для удержания периферийных звезд, они слишком быстро двигаются и должны были бы сорваться с гравитационной привязи и улететь прочь.
Развитие теории нуклеосинтеза (создание вещества в процессе эволюции Вселенной) позволило сделать вывод, что привычное нам вещество из протонов, нейтронов и электронов (барионная материя) составляет всего около 5% массы Вселенной – не важно в виде ли отдельных элементарных частиц в космосе, в составе звезды или даже черной дыры. Предельные значения получались из соотношения водорода и гелия, второй элемент образуется из первого в термоядерных реакциях внутри звезд, а состав светил достаточно легко определить по спектру их излучения. Скорости реакций превращения водорода в гелий известны, так же, как и время их протекания – это возраст Вселенной. Получаются своеобразные часы, похожие на водяные, только вместо воды «утекает» H, превращаясь в He. Если мы знаем скорость вытекания воды и сколько времени происходит этот процесс, то можем посчитать, сколько было воды в заполненном баке. Примерно так же мы можем посчитать количество водорода (а значит, и протонов, которые являются ядрами самого легкого и распространенного во Вселенной изотопа водорода) в начале процесса. Вот и наша оценка количества барионного вещества. Его совокупная масса оказалась далека от массы Вселенной, полученной по другим наблюдениям.
При этом необходимость наличия темного вещества в 80-е годы стала очевидна не только для динамики движения существующих звезд, но и для формирования структуры Вселенной. Для того чтобы изначальные флуктуации плотности (колебания ее концентрации) сохранились и дали начало ее сгущениям, нужны были частицы, которые быстро вышли бы из взаимодействия с излучением. Из известных частиц на эту роль годились только нейтрино, тем более что их масса на тот момент была точно не известна. Однако компьютерное моделирование показало, что легкие нейтрино, двигающиеся с околосветовой скоростью, не могли бы сформировать столь плотную структуру, как галактики (на самом деле даже соседние звезды отстоят друг от друга на триллионы километров, но структура, которую смогли бы сформировать нейтрино, в любом случае была бы на порядки еще более разреженной). Надо было искать тяжелые и медленно движущиеся частицы.
В созданной к тому времени Стандартной модели, описывавшей все существующие на тот момент элементарные частицы и предсказывавшей несколько новых, в том числе популярный сейчас бозон Хиггса, места для них не было. Ученые получили новый, совершенно неисследованный класс частиц. Но прежде чем перейти к нему, расскажем еще об одной альтернативе темной материи, возможность существования которой также закрыло компьютерное моделирование.
Попытки поправить старика Эйнштейна
Одним из способов, предлагаемых для решения проблемы недостающей массы, было внесение поправок в общую теорию относительности (ОТО) в целом и закон притяжения в частности. Это, кстати, важный довод против рассмотрения многочисленных «фриков», которые якобы ее опровергают. Низвергнуть ее с пьедестала пытались целые десятилетия вполне авторитетные ученые. Не из вражды с Альбертом Эйнштейном, а чтобы разработать теорию, формулы которой точнее описывают наблюдаемые явления. Почти получилось, но лучше всего наблюдаемые факты описывались бы как притяжение неких массивных медленных частиц, взаимодействующих с обычным веществом только посредством гравитационных сил. Как мы отметили выше, места для них среди известных частиц не было. Это были первые гонцы Новой физики. Природа этих частиц до сих пор неизвестна, хотя есть предположения. Характеристики известны в общих чертах. И вот в такого «чертика из табакерки» большинство физиков поверило сильнее, чем в «подправленные» формулы ОТО, которые давали нужные поправки в гравитации. Ведь к 90-м годам ОТО была многократно проверена в астрономических наблюдениях и даже учитывалась в инженерных расчётах таких проектов, как GPS.
Считается, что финальную точку в этом споре поставили наблюдения вкупе с компьютерным моделированием. Из ОТО следовало, что объекты отклоняют свет, притягивая его к себе, а значит, массивные объекты искривляют световой поток, собирая его к себе, – это явление гравитационного линзирования. Галактика вполне может служить линзой, собирая уже расходящиеся лучи от какого-либо дальнего объекта. И если нашей Земле повезет оказаться на их пути, то мы можем увидеть на небе (в телескоп) оба изображения. Более того, найдены даже так называемые «кресты Эйнштейна», когда мы видим на небе 4 изображения одного и того же светящегося объекта. Решив обратную задачу, мы можем найти, галактика какой массы могла искривить лучи нужным нам образом. Обратные задачи – самые сложные в астрофизике, и вручную точно провести грань между двумя теориями было бы сложнее и дольше. А численные расчеты убедили большинство ученых в существовании еще не открытого вида частиц – так называемой темной материи. Хотя точнее ее было бы назвать «материей-невидимкой».
Миллион китайцев вместо компьютера?
Современное развитие науки без компьютеров уже невозможно. Они позволяют не просто ускорить вычисления, а провести их с точностью, недостижимой для ручных расчетов или механических арифмометров. Кроме того, компьютерная обработка данных позволяет находить интересную для ученых информацию, которая иначе затерялась бы в шумах или просто среди массива случайных сигналов.
Современные ученые очень экспрессивно отзываются о необходимости компьютерной техники в научной работе. Так объяснил ее важность к. ф.-м. н. Александр Малиновский, научный сотрудник ФИАН: «На каком-то этапе, наверное, можно обойтись и без компьютеров – статью на механической "пишмашинке" набить, формулы ручкой написать, а графики линейкой начертить, хотя это дико неудобно. Но вот в современных наблюдениях без них в принципе никуда. Потому что при спутниковых наблюдениях компьютеры используют для управления и стабилизации космической обсерватории (в режиме реального времени), а при наземных – например, для обеспечения работы адаптивной оптики, систем коррекции волнового фронта (опять-таки – в реальном времени).
При обработке наблюдений,.. наверное, без компьютеров обойтись в принципе можно. Посадить миллион человек с блокнотами и ручками на миллион лет... Потому что построить теоретическую модель крупномасштабной структуры Вселенной – это просто дикий объем работы, даже с помощью компьютеров».
О структуре Вселенной Александр Малиновский упомянул не зря. На данный момент компьютерный расчет математических моделей позволяет нарисовать картину эволюции Вселенной. Именно темная материя первой начала формировать ее крупномасштабную структуру (если окинуть ее воображаемым взглядом, получатся условные соты: сгустки материи соединены тоненькими мостиками, перекинутыми через значительные участки с низкой плотностью энергии. Частицы темной материи не взаимодействовали с привычным нам веществом, поэтому стали собираться под действием гравитации в будущие центры «сгущений» и послужили зародышами для будущих галактик. Они и сейчас составляют подавляющую часть массы любой галактики, и их сила гравитации надежно удерживает звезды в периферийной части. При таком моделировании можно довольствоваться разной степенью точности, но расчеты на суперкомпьютерах (или в облаках) позволяют объяснить даже распределение газа в галактиках и подсказывают, где искать новые астрономические объекты или какие моменты в теории стоит уточнить и подправить.
Однако даже возможностей самых быстрых суперкомпьютеров мира не хватает, чтобы смоделировать структуру Вселенной. Александр Малиновский напоминает: «В большинстве задач объем вычислений определяется мощностью доступной техники, чем мощнее – тем лучше. Например, японские ученые Tomoaki Ishiyama, Keigo Nitadori и Junichiro Makino моделировали структуру Вселенной триллионом частиц на К-компьютере, который на момент вычислений был самым мощным суперкомпьютером в мире. Но для модели N-body (т. е. просчитывается прямое взаимодействие частиц с целью проследить формирование галактик из первоначальных колебаний плотности вещества. – прим. ред.) триллион частиц – это жалкие 10 тысяч на каждой стороне куба. Это очень далеко до вожделенной цели смоделировать эволюцию структуры Вселенной непрерывным образом – от начальных возмущений до образования непосредственно звезд (чтобы вам была понятнее боль ученого, напомним, что только в нашей галактике Млечный путь около 200 млрд звезд, а ведь надо смоделировать их образование, да еще не забыть про миллиарды других галактик в нашей Вселенной – прим. ред.). Однако увеличив количество частиц всего в 10 раз на каждой стороне, мы увеличиваем объем вычислений на три порядка, а если еще и разрешение по времени улучшать, то на четыре». Даже не принимая во внимание то, что далеко не все суперкомпьютеры создаются для использования в научных целях, повышение их мощности в 10 000 раз, которого жаждет Александр Малиновский, займет еще лет 10–15. Но и тогда точность расчетов не позволит учесть все аспекты влияния темной материи на формирование галактик, не говоря уж о звездах и планетах.
Конечно, окончательную теорию эволюции Вселенной можно будет написать только после обнаружения частиц темной материи. Сейчас мы получаем лишь отдельные сообщения о событиях, которые можно трактовать как ее воздействие, но даже если они подтвердятся, ученым только предстоит узнать их характеристики и создать теорию, описывающую свойства ее частиц. И в этих экспериментах активно используются компьютеры для анализа данных и выделения полезных событий из фона.
Можно ли вообще создать окончательную теорию, описывающую весь мир? Трудный вопрос, зато мы точно знаем, что если бы не произошло развитие вычислительных средств, физика и астрономия, пожалуй, могли бы и не подтвердить существование такого удивительного явления, как «материя-невидимка». А теперь физики знают, что в темной комнате черная кошка есть, и это упрощает ее поиски.
Михаил Васильевич Сажин
доктор физико-математических наук, профессор (Государственный астрономический институт имени П.К. Штернберга)
Экспертное мнение
Хотя сама темная материя физическими методами еще не обнаружена, нет сомнений в том, что она есть во Вселенной и составляет примерно четверть полной массы. Этому есть очень много астрономических свидетельств. Проявления темной материи наблюдаются практически во всех внегалактических структурах и объектах: галактиках, скоплениях галактик, крупномасштабной структуре.
Существует любопытная закономерность: чем больше барионная масса объекта, тем больше и отношение его полной массы (которая включает и темную материю) к барионной. Естественно, речь здесь идет о средних характеристиках. В отдельных объектах это отношение может быть произвольным, вплоть до полного отсутствия темной материи. Кроме того, она проявляет себя в явлении гравитационного линзирования, которое описано в статье.
Хотя некоторые астрономы и физики и развивают альтернативные теории гравитации, которые «обходятся» без «материи-невидимки», подавляющее большинство уверено в правильности стандартной теории гравитации, а следовательно в существовании новых частиц, которые чрезвычайно слабо взаимодействуют со светом (или вообще не взаимодействуют) и носят название «темная материя».