Рассуждающий ИИ скоро замедлится в развитии
Логическим моделям, таким как OpenAI o3, меньше года, но их возможности уже значительно улучшились, и исследователи OpenAI с оптимизмом смотрят на то, что этот прогресс будет продолжаться.1 Но пока неясно, насколько масштабируемыми могут быть методы, используемые для обучения моделей мышления. Изучив этот вопрос, я думаю, что есть возможности для дальнейшего расширения обучения мышлению, но маловероятно, что OpenAI или другие разработчики frontier AI смогут масштабироваться на много порядков.
Если обучение логическому мышлению будет увеличиваться в 10 раз каждые несколько месяцев, в соответствии со скачком с o1 на o3, то вскоре, возможно, в течение года, оно достигнет предела общих вычислений для обучения. На этом этапе скорость масштабирования замедлится и сравняется с общим темпом роста числа обучающих компьютеров, составляющим ~4 раза в год. После этого прогресс в моделях логического мышления также может замедлиться.
Какой объем вычислений используется для обучения основному мышлению?
o3 и другие модели логического мышления OpenAI были разработаны на основе традиционных LLM, которые прошли обучение на огромном объеме человеческих данных в процессе, называемом “предварительной подготовкой”. Затем они проходят этап обучения с подкреплением, на котором получают отзывы о своих решениях сложных задач, что улучшает их логические способности.2 Этот второй этап я называю “тренировкой рассуждения”.
Исторически масштабирование обучающих вычислений было очень важной составляющей прогресса ИИ. Поэтому стоит проанализировать, какой объем вычислений в настоящее время используется, в частности, для обучения логическому мышлению, насколько это может быть масштабируемо и что это означает для улучшения этих моделей.
К сожалению, общедоступная информация о количестве вычислений, необходимых для обучения логическому мышлению для моделей логического мышления, скудна, несмотря на их широкое распространение в индустрии искусственного интеллекта. Вот что мы знаем:
- В OpenAI заявили, что o3 в 10 раз превосходит o1 в обучающих вычислениях, что почти наверняка относится к reasoning training compute. o3 был выпущен всего через четыре месяца после o1.
- Мы не знаем, какие вычислительные средства для обучения reasoning используются в o1, но мы оценили эффективность обучающих вычислений DeepSeek-R1, которая, возможно, является сопоставимой моделью.
- У нас также есть информация о нескольких других моделях reasoning, таких как Phi-4-reasoning от Microsoft и Llama-Nemotron от Nvidia.
- У нас есть потенциально информативное заявление от Дарио Амодея из Anthropic.
Я рассмотрю каждое из них по очереди.
Масштабирование от o1 до o3
OpenAI опубликовал этот график, показывающий производительность o3 и o1 в тесте AIME, сопоставленный с наиболее вероятным объемом вычислений, используемых при обучении reasoning. Он показывает, что окончательная версия o3 была обучена в 10 раз большему объему вычислений, чем o1.
Ось x, скорее всего, показывает вычисления для обучения рассуждениям, а не общие вычисления, потому что первая версия o1, в которой вычислений на четыре порядка меньше, чем в o3, набирает около 25% в AIME, и это было бы маловероятно, если бы ось x означала общие вычисления.3 Эта диаграмма также не имела бы особого смысла, если бы ось x была общей для вычислений, поскольку это означало бы, что OpenAI обучил множество версий o1 с крайне неполными этапами предварительной подготовки.
Если o3 был обучен в 10 раз большему количеству логических вычислений, чем o1, что это говорит о его абсолютном масштабе вычислений? У нас нет точной информации, но мы можем поискать подсказки в других моделях логических вычислений и заявлениях инсайдеров индустрии искусственного интеллекта.
Выводы из DeepSeek-R1
Большинство передовых разработчиков ИИ относительно мало рассказывают о том, как они обучают модели мышления. Главным исключением здесь является DeepSeek и его модель мышления R1.
В предыдущем выпуске этого информационного бюллетеня Эге Эрдил подсчитал, что DeepSeek-R1 был обучен на флопе ~ 6e23 (стоимостью ~ 1 миллион долларов) во время обучения RL reasoning, что потребовало генерации около 2 триллионов токенов. Это составляет около 20% от стоимости предварительной подготовки базовой модели DeepSeek-R1, DeepSeek-V3.
Хотя в этой оценке много неопределенностей, она полезна, потому что DeepSeek-R1 - это логическая модель с очень похожими контрольными показателями, что и o1. Поэтому было бы разумно использовать ее для определения базовой линии для наших оценок вычислений o1.
Однако шкала логических вычислений DeepSeek-R1 может отличаться от шкалы o1 по разным причинам. Вероятно, их количество соответствующих параметров отличается (хотя мы не знаем, насколько).4 И мы не знаем, как сравниваются этапы обучения логическим вычислениям с точки зрения эффективности вычислений.5
Выводы из других логических моделей
Две другие логические модели с подробной информацией об обучении - это Llama-Nemotron Ultra 253B от Nvidia и Phi-4-reasoning от Microsoft.
- Этап разработки RL на Llama-Nemotron Ultra занял 140 000 часов, или около 1 часа 23 минуты, что составляет менее 1% от стоимости предварительной подготовки исходной базовой модели.6
- У Phi-4-reasoning был гораздо меньший этап анализа, он генерировал около ~ 460 миллионов токенов, что стоило менее 1e20 флопа, или <0,01% вычислительных затрат на предварительное обучение.7
Оба устройства имеют впечатляющие показатели, а Llama-Nemotron сравним с DeepSeek-R1 и o1.
Однако эти оценки могут быть неинформативны в отношении моделей рассуждения, которые продвинулись вперед, таких как o1 или o3, из-за синтетических данных. Этапам RL для Llama-Nemotron и Phi-4-reasoning предшествовала контролируемая доводка, в ходе которой участники обучались на примерах высококачественных логических цепочек, и большая часть этих данных была получена на основе синтетических данных из других моделей рассуждения.8
К какому выводу мы можем прийти?
В целом, неясно, проливают ли они много света на обучающие вычисления o1 или o3.
Один из выводов заключается в том, что вычислительные затраты на обучение рассуждениям, по крайней мере на этапе обучения с подкреплением, могут быть относительно низкими для некоторых моделей, таких как Phi-4. Это не означает, что o3 был обучен на столь же малом объеме вычислений, но это означает, что трудно судить о масштабе вычислений reasoning только по тому факту, что модель reasoning хорошо работает в тестовом режиме.
Кроме того, при разработке логических моделей важную роль может сыграть старомодная контролируемая тонкая настройка, и из-за такого разнообразия подходов трудно оценить масштаб обучения логическим рассуждениям для моделей, не раскрывая подробностей обучения. Это также делает неясным, что следует считать “вычислением логических рассуждений” или “обучением логическим рассуждениям”. Обучение с подкреплением, вероятно, является основной движущей силой улучшений на стыке моделей мышления и поэтому должно быть в центре внимания, но я не слишком уверен в этом.
Последний намек на вычислительный масштаб существующих моделей рассуждения содержится в эссе, написанном генеральным директором Anthropic Дарио Амодеем в январе 2025 года, после выхода o1 и DeepSeek-R1 и анонса o3 (выделено мной).:
- Важно отметить, что, поскольку этот тип RL является новым, мы все еще находимся на ранней стадии масштабирования: сумма, затрачиваемая на второй этап RL, невелика для всех игроков. Потратив $ 1 млн вместо $ 0,1 млн, можно получить огромную прибыль. В настоящее время компании очень быстро работают над расширением второго этапа до сотен миллионов и миллиардов человек, но важно понимать, что мы находимся в уникальной “точке пересечения”, где существует мощная новая парадигма, которая находится на ранней стадии масштабирования и, следовательно, может быстро принести большие выгоды.
Я не уверен, отражают ли оценки Amodei в размере 0,1 млн долларов или 1 млн долларов стоимость обучения для какой-либо конкретной модели, такой как o1, o3 или DeepSeek-R1, или это просто общие гипотезы. И убеждения Амодея относительно вычислительного масштаба неантропных моделей, по-видимому, являются всего лишь предположениями, основанными на собственных данных Антропика. Но очевидно, что он считает, что стоимость обучения логически обоснованных моделей на сегодняшний день значительно ниже “сотен миллионов”, что было бы >1э26 ПРОВАЛОМ.9
В целом, эти оценки и намеки свидетельствуют о том, что шкала логических вычислений o1 и, скорее всего, также o3 все еще ниже шкалы крупнейших тренировочных прогонов на сегодняшний день.
Однако они, вероятно, не на много порядков отстают от общего уровня вычислений, который составляет >1э26 сбоев, потому что у нас есть два примера моделей, обученных на более чем 1э23 сбоях на этапе анализа (DeepSeek-R1 и Llama-Nemotron Ultra). o1 и особенно o3 можно было бы обучить еще большему количеству людей.
Что означает масштаб вычислений с помощью рассуждения для прогресса ИИ?
Существующий масштаб вычислений в моделях логического мышления имеет важное значение для прогресса ИИ в ближайшей перспективе. Если уровень обучения логическому мышлению все еще относительно низок, мы можем увидеть быстрое увеличение масштабирования в краткосрочной перспективе, а также реальных возможностей.
Мы знаем, что o3 в 10 раз превосходит o1 по масштабируемости вычислений и обладает значительно большими возможностями, чем o1. Это включает в себя улучшение результатов в стандартных тестах по математике, естественным наукам и программированию. o3 также намного превосходит o1 в наборе программного обеспечения METR для агентурного обеспечения и задач кодирования.
Хотя я не знаю о каких-либо тщательных исследованиях законов масштабирования для обучения рассуждениям, как это делается для законов масштабирования перед обучением, OpenAI показал кривые масштабирования, которые выглядят довольно похожими на классические законы логарифмического линейного масштабирования (см. рис. 3 ниже и рис. 2 выше). На втором рисунке в статье DeepSeek-R1 также показано, что точность увеличивается по мере прохождения этапов обучения логическому мышлению примерно логарифмически линейным образом. Это говорит о том, что эффективность обучения логическому мышлению повышается аналогично предварительной подготовке, по крайней мере, для задач по математике и программированию. Таким образом, в течение следующих нескольких лет мы могли бы увидеть как значительные, так и быстрые улучшения.
Если reasoning compute достигнет масштабов total training compute, темпы его роста сравняются с общими темпами роста, которые в настоящее время составляют около 4 раз в год, а не 10 раз каждые несколько месяцев (как при переходе от o1 к o3).
Таким образом, если уровень подготовки по логическому мышлению всего на несколько (скажем, менее чем на три) порядков ниже общего уровня, этот темп роста может замедлиться в течение года или около того.10
Может ли логическое мышление на самом деле масштабироваться?
Конечно, рассуждать о масштабировании не так просто, как о выделении большего количества графических процессоров. Масштабирование может приостановиться из-за нехватки данных. Обучение логическому мышлению включает в себя обучающие модели для решения сложных задач, но существует не неограниченный набор подходящих задач, и может быть трудно найти, написать или искусственно сгенерировать достаточно разнообразных задач для дальнейшего масштабирования.
Также крайне неясно, насколько хорошо обучение логическому мышлению распространяется на более сложные области, не связанные с математикой и программированием.11 Кроме того, могут возникнуть другие непредвиденные проблемы.
Связанная с этим проблема заключается в том, что общие вычислительные затраты на разработку логических моделей могут быть намного больше, чем прямые затраты на основное обучение. Это может произойти, если лабораториям искусственного интеллекта придется проводить множество параллельных экспериментов, чтобы увидеть, какие проблемы, модели вознаграждения и другие методы действительно работают.
До сих пор я пытался оценить прямые затраты на обучение логическому мышлению в этом посте, но мы на самом деле не знаем, как OpenAI оценивает вычислительную мощность обучения для моделей логического мышления. И у нас нет никакой информации о затратах на исследования, даже от относительно прозрачных разработчиков.
Эти затраты, вероятно, будут несколько снижаться по мере развития логической парадигмы. И стоимость исследований не отменяет взаимосвязи между масштабом прямых вычислений и возможностями. Но если для проведения исследований требуются постоянные накладные расходы, то логические модели могут масштабироваться не так широко, как ожидалось.
С другой стороны, логические модели могут продолжать быстро совершенствоваться даже после замедления роста вычислительной мощности. Возможно, на сегодняшний день большая часть прогресса в логических моделях на самом деле вызвана инновациями в данных или алгоритмах. Но быстрое масштабирование вычислений потенциально является очень важным компонентом для разработки логической модели, поэтому за этим стоит внимательно следить.
Как бы то ни было, исследователи из OpenAI (вместе с Дарио Амодеем, как отмечалось выше) в настоящее время выражают уверенность в том, что они смогут быстро расширить модели мышления и добиться дальнейших улучшений. Поскольку эти инсайдеры непосредственно осведомлены о следующей итерации логических моделей, я думаю, что весьма вероятно, что o3 не достигла предела ни по масштабам, ни по возможностям.
Источник
При использовании материалов с сайта активная ссылка на него обязательна
Отправить донат на поддержку проекта "Аномальные новости"
Меню
Архив материалов
Проекты наших читателей
Контакты исследователей
Подписка на новости
Проекты
Новости криптозоологии
Хроники природных катастроф
Новости
26.02.2002 - 05.07.2002
05.08.2002 - 23.10.2002 (562)
24.10.2002 - 17.01.2003 (585)
20.01.2003 - 07.04.2003 (709)
08.04.2003 - 01.08.2003 (709)
04.08.2003 - 18.11.2003 (763)
19.11.2003 - 31.03.2004 (721)
01.04.2004 - 13.08.2004 (825)
16.08.2004 - 22.11.2004 (782)
23.11.2004 - 28.03.2005 (756)
29.03.2005 - 29.07.2005 (807)
30.08.2005 - 02.12.2005 (927)
05.12.2005 - 21.04.2006 (912)
24.04.2006 - 23.10.2006 (999)
24.10.2006 - 03.05.2007 (999)
04.05.2007 - 28.01.2008 (999)
29.01.2008 - 12.01.2009 (999)
13.01.2009 - 07.07.2009 (966)
22.08.2009 - 21.01.2010 (996)
22.01.2010 - 22.06.2010 (1000)
23.06.2010 - 14.01.2011 (1042)
17.01.2011 - 31.05.2011 (1008)
01.06.2011 - 03.11.2011 (1003)
07.11.2011 - 16.03.2012 (996)
19.03.2012 - 09.06.2012 (1009)
13.06.2012 - 07.09.2012 (988)
10.09.2012 - 19.11.2012 (1004)
20.11.2012 - 14.01.2013 (1015)
15.01.2013 - 22.02.2013 (1000)
23.02.2013 - 08.04.2013 (991)
09.04.2013 - 31.05.2013 (1015)
01.06.2013 - 18.07.2013 (992)
19.07.2013 - 03.09.2013 (1014)
04.09.2013 - 20.10.2013 (1001)
21.10.2013 - 02.12.2013 (1001)
03.12.2013 - 18.01.2014 (997)
19.01.2014 - 07.03.2014 (994)
08.03.2014 - 24.04.2014 (1000)
25.04.2014 - 18.06.2014 (1005)
19.06.2014 - 15.08.2014 (1019)
16.08.2014 - 07.10.2014 (1006)
08.10.2014 - 16.11.2014 (995)
17.11.2014 - 25.12.2014 (1004)
26.12.2014 - 09.02.2015 (989)
10.02.2015 - 20.03.2015 (998)
21.03.2015 - 22.04.2015 (1001)
23.04.2015 - 29.05.2015 (997)
29.05.2015 - 30.06.2015 (995)
30.06.2015 - 29.07.2015 (990)
29.07.2015 - 26.08.2015 (998)
27.08.2015 - 24.09.2015 (988)
25.09.2015 - 22.10.2015 (991)
23.10.2015 - 18.11.2015 (1000)
18.11.2015 - 16.12.2015 (990)
17.12.2015 - 23.01.2016 (1000)
24.01.2016 - 25.02.2016 (1000)
26.02.2016 - 24.03.2016 (1000)
24.03.2016 - 16.04.2016 (990)
17.04.2016 - 19.05.2016 (999)
20.05.2016 - 22.06.2016 (993)
23.06.2016 - 01.08.2016 (995)
02.08.2016 - 12.09.2016 (990)
13.09.2016 - 25.10.2016 (989)
26.10.2016 - 05.12.2016 (995)
06.12.2016 - 15.01.2017 (995)
16.01.2017 - 23.02.2017 (990)
24.02.2017 - 03.04.2017 (994)
04.04.2017 - 18.05.2017 (1000)
19.05.2017 - 05.07.2017 (1000)
06.07.2017 - 24.08.2017 (1000)
25.08.2017 - 06.10.2017 (991)
07.10.2017 - 15.11.2017 (990)
16.11.2017 - 24.12.2017 (1000)
25.12.2017 - 04.02.2018 (990)
05.02.2018 - 17.03.2018 (1000)
18.03.2018 - 02.05.2018 (990)
03.05.2018 - 11.06.2018 (1000)
12.06.2018 - 18.07.2018 (990)
19.07.2018 - 24.08.2018 (1000)
25.08.2018 - 02.10.2018 (1000)
03.10.2018 - 07.11.2018 (990)
08.11.2018 - 13.12.2018 (990)
14.12.2018 - 23.01.2019 (1000)
24.01.2019 - 02.03.2019 (1000)
03.03.2019 - 12.04.2019 (1010)
13.04.2019 - 23.05.2019 (990)
24.05.2019 - 03.07.2019 (1000)
04.07.2019 - 11.08.2019 (1000)
12.08.2019 - 16.09.2019 (990)
17.09.2019 - 26.10.2019 (1000)
27.10.2019 - 12.12.2019 (1000)
13.12.2019 - 25.01.2020 (1000)
26.01.2020 - 06.03.2020 (990)
07.03.2020 - 16.04.2020 (1010)
17.04.2020 - 19.05.2020 (1000)
20.05.2020 - 25.06.2020 (990)
26.06.2020 - 04.08.2020 (995)
05.08.2020 - 16.09.2020 (1005)
17.09.2020 - 26.10.2020 (990)
27.10.2020 - 27.11.2020 (990)
28.11.2020 - 07.01.2021 (990)
08.01.2021 - 15.02.2021 (1000)
16.02.2021 - 31.03.2021 (1000)
01.04.2021 - 12.05.2021 (1000)
13.05.2021 - 14.06.2021 (990)
15.06.2021 - 26.07.2021 (980)
27.07.2021 - 31.08.2021 (990)
01.09.2021 - 07.10.2021 (1000)
08.09.2021 - 07.11.2021 (1000)
08.11.2021 - 10.12.2021 (1000)
11.12.2021 - 24.01.2022 (990)
25.01.2022 - 04.03.2022 (1000)
05.03.2022 - 10.04.2022 (990)
11.04.2022 - 17.05.2022 (1000)
18.05.2022 - 23.06.2022 (980)
24.06.2022 - 31.07.2022 (990)
01.08.2022 - 13.09.2022 (990)
14.09.2022 - 21.10.2022 (990)
22.10.2022 - 29.11.2022 (1000)
30.11.2022 - 22.01.2023 (1000)
23.01.2023 - 02.03.2023 (990)
03.03.2023 - 21.04.2023 (1000)
22.04.2023 - 13.06.2023 (990)
14.06.2023 - 02.08.2023 (1000)
03.08.2023 - 21.09.2023 (1000)
22.09.2023 - 06.11.2023 (990)
07.11.2023 - 24.12.2023 (990)
25.12.2023 - 18.02.2024 (1000)
19.02.2024 - 05.04.2024 (990)
06.04.2024 - 25.05.2024 (1000)
26.05.2024 - 26.07.2024 (1000)
26.07.2024 - 25.08.2024 (990)
26.08.2024 - 28.09.2024 (980)
29.09.2024 - 01.11.2024 (1000)
02.11.2024 - 02.12.2024 (980)
03.12.2024 - 08.01.2025 (990)
09.01.2025 - 09.02.2025 (1000)
10.02.2025 - 20.03.2025 (1000)
21.03.2025 - 03.05.2025 (990)
04.05.2025 - ...
Статьи
Статьи: раздел 1 (1024)
Статьи: раздел 2 (1006)
Статьи: раздел 3 (1000)
Статьи: раздел 4 (1044)
Статьи: раздел 5 (1001)
Статьи: раздел 6 (1000)
Статьи: раздел 7 (1000)
Статьи: раздел 8 (1013)
Статьи: раздел 9 (1000)
Статьи: раздел 10 (1000)
Статьи: раздел 11 (329)
Статьи: раздел 12 (1000)
Статьи: раздел 13 (730)
Лента новостей

Администрация Трампа опубликует записи об НЛО

Два внешних кольца Урана имеют разное происхождение

Джей Ди Вэнсу нужно быть аккуратней с высказываниями

Заменит ли ИИ людей-ученых

Заявления родителей Чандры Леви об НЛО

Зона 51 сотрясается от таинственных землетрясений

Инопланетяне прибыли из обреченного будущего Земли

Лучший способ поиска внеземного разума

Люди могут вырастить новые зубы всего за 4 года

Могла ли Чандра Леви быть убитой из-за НЛО

НЛО обгоняет истребители F-18

Пилоты видели очень странные вещи

Программа исследования НЛО - 'Space Tiger Team'

Разгадали главную тайну обоняния

Разоблачения НЛО и исследования паранормальных явлений

Республиканец делится мыслями о Зоне 51

Скоро будут опубликованы очень интересные файлы об НЛО

Струи черной дыры демонстрируют огромную мощь

Что мы знаем о пропавших и погибших ученых

Эффект домино от солнечных вспышек

Вещи, в которые вы не поверите

Демонические НЛО могут спровоцировать глобальную панику

Загадочные землетрясения вблизи Зоны 51

Закономерность, стоящая за землетрясениями

Комиссия никогда не общалась с пилотами по делу GOFAST

Люди созданы для того, чтобы жить намного дольше

Невероятные наблюдения пилотов привлекают политиков

Пилоты видели такое, во что вы бы не поверили

Полное раскрытие информации об НЛО близко

Призрачные частицы сохраняют массу в скрытом измерении

Разоблачители НЛО заявляют о кампаниях запугивания

Самопроизвольное возгорание человека. Факты и теории

Создан идеальный сценарий для фиксации НЛО

США в ближайшее время опубликуют файлы об НЛО

Тайна Рендлшемского леса

Трамп дразнит публикацией файлов об НЛО

Файлы об НЛО будут опубликованы в ближайшем будущем

Что представляет собой программа ВВС США 'Янки Блю'

Элизондо принимает участие в поиске пропавших ученых

Ярко-оранжевый шар замечен над Сассексом

Администрация США планирует опубликовать данные НЛО

В сообществе футурологов бытует противоречивая идея

Генерала обвиняют в предвзятом отношении к НЛО

Дональд Трамп обещает скорое обнародование файлов НЛО

Загадочный проект 'Янки Блю'

Загадочный случай самовозгорания

Инопланетяне уже живут среди нас

Историк восстановил утраченный отрывок Библии

Как образовались гигантские черные дыры

Количество поддельных сайтов об НЛО растет

НЛО - отвлекающий маневр

НЛО - это не пустяк

Пилот королевских ВВС видит будущее

Погиб очередной военный специалист по НЛО

Президент США дразнит общественность

Президент Трамп раскроет материалы о НЛО

Размышляя о тайне гравитационной постоянной

Трамп в ближайшее время раскроет файлы об НЛО

Ученые ищут внеземную жизнь со времен Аристотеля

Что на самом деле скрывается под Антарктидой

Геймпад Xbox не подключается к приставке или компьютеру

Генерал ВМС называет бывшего шефа AARO лжецом

Глава Anthropic предрёк исчезновение инженерных профессий

Дементор замечен над Астаной

Еврей из НЛО

Загадочное исчезновение экипажа корабля

Инопланетяне, кровь и Белый дом

Кем был уфолог Дэвид Уилкок

Несмотря на конфликт, Белый дом ведёт переговоры с Anthropic

НЛО выводят из строя ядерное оружие с 1960-х годов

Новые откровения о НЛО и почему это не случайность

Общественник предложил создать музей уфологии

Он знал много ядерных секретов

Они маскируются под дроны

Они нашли черную живую слизь внутри корабля

Пентагон купил ИИ Гугла

Сущности предупредили чиновников о начале их войны с Богом

У американцев с инопланетянами всё давно на мази

Уфолог Ник Поуп скончался в возрасте 60 лет

Частое использование ИИ влияет на мозг

Чешуя дракона обнаружена на Марсе

Время может двигаться и быстро, и медленно одновременно

Галактики растут вокруг черных дыр

Древний марсианский океан существовал

Зафиксировано изменение состава кометы 3I-ATLAS

Инопланетная жизнь может скрываться у всех на виду

Камера запечатлела Существо во время ограбления

Крах майя был вызван климатическими колебаниями

Метан выделяется из межзвездной кометы 3I-ATLAS

Метан обнаружен на гигантской экзопланете

Новая группа крови, которая есть только у трех человек

Опасения по поводу сокрытия информации об НЛО

Пентагон согласовывал позиции с Луисом Элизондо

Постоянно меняющаяся многопланетная система

Путешественник во времени прибыл из 2582 года

США десятилетиями проводили эксперименты с НЛО

Тайна НЛО в Уайт-Маунтинс

Темный вулканический пепел Марса

Трехмерная карта меняет представление о Вселенной

Человечество упускает что-то важное об НЛО

Я единственный человек в постапокалиптическом мире

Американская лаборатория изучала НЛО

Гигантская жуткая тень на Марсе сильно выросла

Гравитация подчиняется законам Ньютона и Эйнштейна

Доказательства существования магнетизма в звездах

Дональд Трамп приказал обнародовать досье об НЛО

Инопланетяне могут подтвердить свое существование

Информатор об НЛО умер от передозировки

Источник загадочной дымки в атмосфере Венеры

Как газ превращается в диски, формирующие планеты

Может ли темная материя образоваться из черных дыр

НАСА подтвердило дату сближения с Апофисом

Открытие на острове Пасхи может переписать историю

Планетам требуется больше воды для поддержания жизни

Разоблачитель НЛО скончался накануне дачи показаний

Темная материя объясняет появление ранних черных дыр

Теория заговора привлекает внимание законодателей

Теперь 13 погибших или пропавших без вести

Трамп обещает расследовать гибель ученых-уфологов

Федералы встречались по поводу НЛО в 1990-х годах

Черные дыры вызывают вспышки в триллионы солнц

Бытовки в Москве и модульное строительство. Оперативные решения для бизнеса и частного сектора

Давать показания в Конгрессе США опасно для жизни

Загадочная смерть информатора об НЛО

Изучала ли американская лаборатория НЛО

Информатор конгресса умер от наркотической смеси

Карта мира скоро будет переписана

Конгрессмен предупреждает о разрушительной правде

Кто стоит за исчезновениями и смертями ученых

НАСА обнаружило важный ключ к жизни на Марсе

НЛО раскрывают секреты, искажающие реальность

Правда о Великой пирамиде раскрыта

Пропавшие ученые изучали НЛО

Путешественник во времени из 2118 года

Разоблачитель НЛО скончался перед дачей показаний

Растет число свидетельств того, что они уже здесь

Сообщения об НЛО подпитывают спекуляции

Тайна пропавших и погибших ученых раскрыта

Теория о большой батареи в Великой пирамиде

Ури Геллер предупредил Трампа, что телепортация реальна

Уфо-информатор умер от передозировки

ФБР проводит расследование смерти информатора

Ватикан настаивает на обнародовании данных об НЛО

Всплыло жуткое видео пропавшего ученого

Духовность и религиозная связь с НЛО

Инопланетяне, НЛО и демоны

Конгрессмен видел ошеломляющие данные об НЛО

На одной стороне Земли быстро становится холоднее

Пентагон скрывает инопланетный корабль

Политик видел фотографии и видео НЛО

Последние леденящие душу слова уфолога

Последние моменты жизни уфолога

Предупреждение уфолога перед смертью

Пропавшие ученые. Заговора нет, только подозрения

Ролик фильма Спилберга 'День раскрытия информации об НЛО'

Скандал вокруг смерти уфолога Дэвида Уилкока

Смерти и исчезновения ведущих ученых США

Странная смерть всей семьи ученого НАСА

Тайна происхождения минералов

У пропавших ученых США есть кое-что общее

Уфолог найден мертвым в Колорадо

Уфолог размышлял о недавних смертях своих коллег

Автор статей о паранормальных явлениях скончался

Видеозаписи НЛО, которые не поддаются никакому объяснению

Земляне могут быть хуже инопланетян

Зловещие файлы об НЛО существуют

Исследователь НЛО знал что-то важное

Кем был уфолог Дэвид Уилкок

Конгрессмен поделилась душераздирающей новостью

Кто такой доктор Джон Бранденбург

Лучший друг Дэвида Уилкока ошеломлен его смертью

Разрушили ли кибер-сталкеры жизнь уфолога

Расследование смерти писателя-уфолога

Сообщения о самоубийстве уфолога

Тайна инопланетной жизни вот-вот будет раскрыта

Трагический инцидент с автором книги о НЛО

У Дэвида Уилкока были проблемы с психикой

Уфолог Дэвид Уилкок привлек к себе внимание

Уфолог умер в возрасте 53 лет после самоубийства

Череда смертей известных уфологов

Что стоит за всплеском интереса к уфологии

Электронные письма представителя Пентагона об НЛО

Братья Земли. Между вечной ночью и днем

Грань между человеком и инопланетянином

Действительно ли Луна богата железом

Доказательства существования первых звезд

Наверх
Яндекс.Метрика