所有由lxj1616发布的文章

本人李小坚,男,高校教师。教学之余,仰望广袤天空,以探求宇宙之秘密!俯瞰苍茫大地,以求人间正道真学!正是:路漫漫其修远兮,吾将上下而求索!博文中对自己有过一段说明: 《告别官科,不做民科,回归本行》 一、我本官科 今天算来,从1986年3月到中科院自动化所读博士,整整已经过去30年了。我的学习和研究工作与国家863完全同步。1986年3月邓小平同志批复中科院院士王大珩、王淦昌、杨嘉墀和陈芳允四位老科学家提出的“关于跟踪研究外国战略性高技术发展的建议”,从而启动实施了“高技术研究发展计划(863计划)”,开始了中国科技领域跟踪和赶超国际先进水平的新征程,也整整30年了,到今天该计划已经完成了其历史使命。 我所学习的领域属于863计划中先进制造及机器人技术范围,我所选择的研究问题是工业领域的多级递阶系统结构与算法研究。师从疏松桂、童世璜、郑应平三师团队,很有意思的是我的这三位导师是一个具有三代师生关系的递阶系统。童先生称疏先生教过自己,所以是他的老师,而童先生是郑应平硕士研究生导师。 受郑应平的影响接触的了何毓琦先生开创的嵌套信息结构下的鼓励性决策研究,做出过嵌套信息结构下的多级递阶系统鼓励性决策的工作并在国内国外发表相关论文。我的研究工作在信息结构引导下,进而提出多级递阶系统信息结构、控制结构,到目标结构、功能结构,到组织结构、资源结构,形成了一个多级递阶系统的多元多层立体化的结构研究。该项工作与欧共体的CIM—OSA,有异曲同工之妙。CIM-OSA是欧共体的21家大公司和大学组成的ESPRIT-AMICE组织经过六年多的努力开发出的一个开放体系结构。在导师指导下,基本上凭自己一己之力发展了一个与CIM—OSA类似的CIMS—HOSA体系结构。 学习期间多次参与了钱学森先生组织领导的系统学讨论班,本人与钱老亲自直接对话讨论过系统的层次性、物质的层次性。 89年还到意大利卡拉布里亚大学参与欧共体ESPRIT信息系统建模工作。我走访了卡拉布里亚不远处的那不勒斯的乔尔丹诺·布鲁诺的家乡,还有伽利略的故土,特别是拜访了波兰华沙城外哥白尼的故乡,获赠的哥白尼铜质小胸章是我的心爱之物。 90年-91年前往美国学习了IBM-CIM体系结构,91年6月4日回国参与了863计划项目:递阶系统结构研究。进一步研究和发展了CIMS—HOSA体系结构。 二、自己选择 1995年参加第八届中华全国青年联合会第一次全会,在科学界别组,与同组成员陈章良、冯长根、李建宝、陈肇雄等一起活动挺有意思。他们现在都是部级领导。我忘了是1995年还是2000年,我和谭铁牛等三人代表科学组向国内媒体答记者问,铁牛是我湖南老乡,铁牛侃侃而谈,现在铁牛是中科院副院长。还记得胡锦涛同志在一个小会议厅给坐着的我们百十来人的党外人士,站着给我们上了近2小时的一课:为中华民族的伟大复兴而努力奋斗。 我当时查阅了国内外大量数据,发现我国对教育和科研的投入明显偏低。因此,我的提案是国家应该加强对教育科研的投入。我们科学组与科技部朱丽兰部长直接对话,除了希望国家加大对教育和科研投入,还有与老同志和团队关系,我亲自与朱丽兰部长的直接对话是如何充分利用科研条件,提高投入产出,我的承诺是尽力用最少的钱,办最大的事。 从此,我践行我的承诺,告别官科,不用国家的钱,研究世界上最大的课题。宇宙结构模型—-世界的本质及其客观规律。这个问题,还真是很有意思。 根据钱学森先生开创的系统学理论,我认识到宇宙是一个统一的复杂巨系统。我有幸于1997年1月6—9日作为极少数青年科学家代表之一(4-5名)全程参加了第68次香山科学会议学术讨论,宋健院士作了题为“对系统科学的挑战”的综述报告,并与戴汝为院士、宋健院士讨论交谈关于复杂巨系统的动力学问题,或开放的复杂巨系统问题。我不但参加了此次中国控制学界最高级别的会议,我还被会议主持人戴汝为院士指定收集整理会议报告人的书面报告。因此,我与与会的十多位院士和部级领导人有过工作交流,会后收集整理,将一袋报告资料提交给了大会组织者。我还参加了由钱学森倡导发 起的中国思维科学学会的筹办工作,以及科学思维理论研究探讨。 但没想到的是,我自己选择的对宇宙自然系统的研究,落入了被主流所认定的民科的范畴。 三、回归本行 从第二阶段到现在,也已经20多年了。我已经有所收获。因为,我非常幸运地认识了美籍华裔科学家龚天任博士,我们的学术探索结成了同门情谊。从而,我终于认识了、理解了、明白了这个宇宙。我可以高兴地说:“你太美了”。 从此,我可以不做民科了。我回归我的本行,大学教师。教课,带学生,做做机器人科研与科技活动,与年轻人一起做、一起玩高科技的玩具。 业余还将写写小博客,讲讲科学道理,辅导帮助年轻人成长,是我下一个阶段的任务。 科技评论文章,本人往往会作一小诗加以总结,可能是借用章回小说的做法,也是多年上课的心得体会。尽量简洁凝练,口韵顺口溜,自由兼打油,古风加格律,严肃与戏虐 ,承上并启下,总结出特色,或让行家见笑,但望形成自己的风格: 我本学子出蓝青,精英同聚一家亲,宇宙创生仍未老,人生大道自由行。 本来最后一句可以是:人间正道已看清。一个同音韵到底。但表达个人观点,还是个人一点好,自由一点好。 公元2016年3月

蒸馏技术让AI模型更小更有效

蒸馏技术让AI模型更小更有效

How Distillation Makes AI Models Smaller and Cheaper
Fundamental technique lets researchers use a big, expensive “teacher” model to train a “student” model for less.
Nico H. Brausch for Quanta Magazine
Introduction

ByAmos Zeeberg
Contributing Writer

July 18, 2025
VIEW PDF/PRINT MODE
artificial intelligencecomputer sciencecomputersexplainersmachine learningnatural language processingneural networksAll topics
(opens a new tab)
The Chinese AI company DeepSeek released a chatbot earlier this year called R1, which drew a huge amount of attention. Most of it focused on the fact(opens a new tab) that a relatively small and unknown company said it had built a chatbot that rivaled the performance of those from the world’s most famous AI companies, but using a fraction of the computer power and cost. As a result, the stocks of many Western tech companies plummeted; Nvidia, which sells the chips that run leading AI models, lost more stock value in a single day(opens a new tab) than any company in history.

Some of that attention involved an element of accusation. Sources alleged(opens a new tab) that DeepSeek had obtained(opens a new tab), without permission, knowledge from OpenAI’s proprietary o1 model by using a technique known as distillation. Much of the news coverage(opens a new tab) framed this possibility as a shock to the AI industry, implying that DeepSeek had discovered a new, more efficient way to build AI.

But distillation, also called knowledge distillation, is a widely used tool in AI, a subject of computer science research going back a decade and a tool that big tech companies use on their own models. “Distillation is one of the most important tools that companies have today to make models more efficient,” said Enric Boix-Adsera(opens a new tab), a researcher who studies distillation at the University of Pennsylvania’s Wharton School.

Dark Knowledge
The idea for distillation began with a 2015 paper (opens a new tab)by three researchers at Google, including Geoffrey Hinton, the so-called godfather of AI and a 2024 Nobel laureate(opens a new tab). At the time, researchers often ran ensembles of models  — “many models glued together,” said Oriol Vinyals(opens a new tab), a principal scientist at Google DeepMind and one of the paper’s authors — to improve their performance. “But it was incredibly cumbersome and expensive to run all the models in parallel,” Vinyals said. “We were intrigued with the idea of distilling that onto a single model.”

Distillation is one of the most important tools that companies have today to make models more efficient.

Enric Boix-Adsera

The researchers thought they might make progress by addressing a notable weak point in machine-learning algorithms: Wrong answers were all considered equally bad, regardless of how wrong they might be. In an image-classification model, for instance, “confusing a dog with a fox was penalized the same way as confusing a dog with a pizza,” Vinyals said. The researchers suspected that the ensemble models did contain information about which wrong answers were less bad than others. Perhaps a smaller “student” model could use the information from the large “teacher” model to more quickly grasp the categories it was supposed to sort pictures into. Hinton called this “dark knowledge,” invoking an analogy with cosmological dark matter.

After discussing this possibility with Hinton, Vinyals developed a way to get the large teacher model to pass more information about the image categories to a smaller student model. The key was homing in on “soft targets” in the teacher model — where it assigns probabilities to each possibility, rather than firm this-or-that answers. One model, for example, calculated(opens a new tab) that there was a 30% chance that an image showed a dog, 20% that it showed a cat, 5% that it showed a cow, and 0.5% that it showed a car. By using these probabilities, the teacher model effectively revealed to the student that dogs are quite similar to cats, not so different from cows, and quite distinct from cars. The researchers found that this information would help the student learn how to identify images of dogs, cats, cows and cars more efficiently. A big, complicated model could be reduced to a leaner one with barely any loss of accuracy.

Explosive Growth
The idea was not an immediate hit. The paper was rejected from a conference, and Vinyals, discouraged, turned to other topics. But distillation arrived at an important moment. Around this time, engineers were discovering that the more training data they fed into neural networks, the more effective those networks became. The size of models soon exploded, as did their capabilities, but the costs of running them climbed in step with their size.

Many researchers turned to distillation as a way to make smaller models. In 2018, for instance, Google researchers unveiled a powerful language model called BERT, which the company soon began using to help parse billions of web searches. But BERT was big and costly to run, so the next year, other developers distilled a smaller version sensibly named DistilBERT, which became widely used in business and research. Distillation gradually became ubiquitous, and it’s now offered as a service by companies such as Google(opens a new tab), OpenAI(opens a new tab), and Amazon(opens a new tab). The original distillation paper, still published only on the arxiv.org preprint server, has now been cited more than 25,000 times(opens a new tab).

RELATED:
How Can AI ID a Cat? An Illustrated Guide.
Why Do Researchers Care About Small Language Models?
Why Language Models Are So Hard To Understand
Considering that the distillation requires access to the innards of the teacher model, it’s not possible for a third party to sneakily distill data from a closed-source model like OpenAI’s o1, as DeepSeek was thought to have done. That said, a student model could still learn quite a bit from a teacher model just through prompting the teacher with certain questions and using the answers to train its own models — an almost Socratic approach to distillation.

Meanwhile, other researchers continue to find new applications. In January, the NovaSky lab at the University of California, Berkeley, showed that distillation works well for training chain-of-thought reasoning models(opens a new tab), which use multistep “thinking” to better answer complicated questions. The lab says its fully open-source Sky-T1 model cost less than $450 to train, and it achieved similar results to a much larger open-source model. “We were genuinely surprised by how well distillation worked in this setting,” said Dacheng Li,(opens a new tab) a Berkeley doctoral student and co-student lead of the NovaSky team. “Distillation is a fundamental technique in AI.”

Share this article
(opens a new tab)
Newsletter
Get Quanta Magazine delivered to your inbox

Subscribe now
Recent newsletters
(opens a new tab)

Newsletter
Get Quanta Magazine delivered to your inbox

Subscribe now
Recent newsletters
(opens a new tab)

物理学如何使现代人工智能成为可能

每周《全态》杂志解释了推动现代研究的最重要的思想之一。本周,计算机科学特约撰稿人本·布鲁贝克文章解释了物理学中的理念如何塑造了人工智能的发展,以及这些理念如今如何仍在激发进步。

物理学如何使现代人工智能成为可能
作者:本·布鲁贝克

物理学家以大胆的想法闯入其他科学领域而闻名,但这些想法并不总是奏效。(这是一位正在康复的物理学家的话。)但有时他们的见解确实被证明是革命性的——也许最能体现在人工智能的研究上。

乍看之下,物理学和人工智能似乎不太搭调。物理学家通常研究与“智力”无关的自然现象,无论如何定义。在人工智能的早期研究中,大部分工作都集中在“符号”方法上,即研究人员致力于构建能够以新颖方式结合预定义概念的人工智能系统。这个符号化的方法利用了心理学和数理逻辑的研究,几乎看不到一个物理学家。

随后在1980年代,一些特立独行的研究人员重新提出了基于数学结构——即所谓的神经网络——的另一种人工智能方法。神经网络由仿照人脑结构设计的人工“神经元”组成,结构较为松散。神经网络研究人员不是从预定义的概念开始,而是想了解他们的系统如何通过在邻近神经元之间形成连接,从头开始“学习”概念。

这就是物理学的作用。物理学中有一个成熟的分支,叫统计力学,研究许多简单系统之间的相互作用产生的集体行为,比如磁性材料中的原子。网络中的神经元也是具有复杂集体行为的简单系统。1982年,受这个类比的启发,物理学家约翰·霍普菲尔德基于一个非同寻常的磁性材料的数学模型创建了一种神经网络。霍普菲尔德的网络可以学习存储神经元活动的模式,并在以后再现它们,赋予它一种简单的记忆。这是一个新颖而优雅的解决方案,旨在解决困扰许多AI研究人员的难题。

几年后,计算机科学家杰弗里·辛顿等人基于霍普菲尔德的研究成果,设计出了至今仍被用于训练人工智能系统的方法。在2024年,这对搭档被授予了诺贝尔物理学奖,这充分证明了该领域对人工智能研究产生了多么深远的影响。伊莉斯·卡茨探索他们工作的影响力4月作为一部分量子‘系列文章人工智能时代的科学.

新事物和值得注意的事项

自霍普菲尔德和欣顿的开创性工作以来,人工智能研究人员已经找到许多新方法,以重新利用来自物理学的理念。计算机科学家伦卡·兹德博罗娃通过相变这一视角来分析人工智能模型——相变是物理系统在特定温度下发生的显著行为变化,例如水在沸点时从液态转变为气态。约翰·帕夫柳斯专访德博罗去年十月,她在ChatGPT等语言模型中的相变方面的工作。

其他物理现象已经影响到了旨在生成图像的AI系统。最广泛使用的AI图像生成器,即所谓的扩散模型,是基于描述一滴牛奶如何在咖啡杯中扩散的方程式构建的。2023年1月,阿尼尔·安纳塔斯瓦米探索扩散模型是如何工作的并叙述了导致其广泛采用的一系列突破。那年9月,史蒂夫·纳迪斯写了一篇关于新方法基于描述电荷流动的方程式进行AI图像生成。正如韦伯·赖特上个月报道的那样,研究人员最近认为,扩散模型所显示的明显创造性可以用它们受物理启发的建筑来解释。

AI研究人员还从与日常生活相去甚远的更抽象的物理领域中汲取灵感。2020年1月,帕夫柳斯写下了一种新型图像识别网络基于基本粒子的数学对称性。“我一直有种感觉,机器学习与物理学在做的事情非常相似,”人工智能研究员塔科·科恩告诉帕夫卢斯,“随着我们不断改进系统,我们逐渐揭示出了越来越多的关联。”

龚学终极万物理论新版-The Final ToE (Theory of Everything)

The Great Vindications Read on blog or Reader

The Final ToE (Theory of Everything)

Theory of Everything (ToE) is a groundbreaking and comprehensive work which integrates physics, mathematics, biology, linguistics, social sciences, philosophy, and theology into a unified framework. This theory, developed by Tienzen (Jeh-Tween) Gong, is structured into five interconnected sub-books addressing foundational principles across disciplines, aiming to resolve longstanding scientific and philosophical challenges through axiomatic and epistemological innovations.

Unified Structure of the Theory of Everything

The ToE is divided into five major components:

  • Physics ToE: Establishes axiomatic physics based on the First Principle of eternal nothingness, introducing Prequark Chromodynamics, deriving fundamental constants, and unifying forces including quantum gravity.
  • Math ToE: Explores the essence of mathematics, distinguishing reachable and unreachable numbers, disproving the Continuum Hypothesis, and deriving physical laws from mathematical foundations.
  • Bio-lives ToE: Examines the emergence of biological life, intelligence, and consciousness as weak emergences from physics under suitable boundary conditions.
  • Linguistics ToE: Develops a universal language framework called PreBabel, encoding all natural languages with a closed set of root words, enabling universal translation and efficient language acquisition.
  • Social Science ToE: Applies physical and linguistic principles to economics, political science, free will, and theology, culminating in a metaphysical and physical theory of creation and existence.

Book one: Physics ToE: Axiomatic Foundations and Prequark Model

At the core of the physics ToE is the First Principle, positing the universe’s essence as eternal nothingness, formalized via Real/Ghost symmetry where every entity has a ghost counterpart, maintaining a net zero sum. Time is four-dimensional and folded into a complex “time hose,” leading to an 11-dimensional spacetime incorporating internal dimensions corresponding to particle properties.

The theory introduces the Interlocking Thesis, ensuring all natural constants and dimensions are recursively defined and invariant under unit changes, and the Existential Principle, which preserves lower-tier attributes at higher levels, allowing biological life as a weak emergence.

Prequark Chromodynamics posits two fundamental prequarks—Angultron carrying electric charge and Vacutron representing vacuum—arranged in color-coded “seats” to form quarks and leptons. This model explains particle interactions, decay processes (e.g., neutron beta decay, muon decay), neutrino oscillations, proton stability, and mass generation without relying on unverified mechanisms like the Higgs field. It also resolves the matter-antimatter asymmetry by identifying antimatter as dark mass.

Fundamental constants such as the fine structure constant (Alpha), cosmological constant (CC), and cosmic microwave background (CMB) parameters are precisely derived from the axiomatic system, including the proportions of dark energy, dark mass, and visible matter, and the “dark flow” phenomenon explaining cosmic expansion discrepancies.

Quantum gravity is unified with other forces through a Super Unified force equation expressing force in terms of quantum time and space intervals, with gravity interpreted as the force transitioning the universe between quantum states. The uncertainty principle emerges naturally from this framework, and classical Newtonian gravity is recovered as a macroscopic limit. Black holes are reinterpreted without singularities, featuring a “spaghettification zone” where particles become ring-strings preserving information.

This theory rigorously excludes supersymmetry, sterile neutrinos, and other beyond-Standard Model particles, consistent with recent experimental results such as the Fermilab Muon g-2 anomaly nullification.

Derivation of Fundamental Constants

• Fine Structure Constant (Alpha): Calculated via a sequence of intrinsic unit angles and mixing angles, yielding a value of  1/137.0359, incorporating the Cabibbo and Weinberg angles.

• Planck CMB Data: The theory derives the proportions of dark energy (~69.2%), dark mass (~25.8%), and visible matter (~4.82%) using models like the Iceberg and Amphitheater, incorporating a dark flow parameter (~9%) verified by Hubble measurements.

• Cosmological Constant (CC): Defined as the share per quantum action of the universe, derived as ~2.242×10^-120, consistent with observations and serving as a litmus test for any physics theory.

Prequark Chromodynamics (AP(0))

This framework models quarks and leptons as composed of prequarks—Angultrons (carrying 1/3 electric charge) and Vacutrons (vacuum states)—arranged in colored seats, explaining particle charges and generations.

The model predicts no additional particles beyond the Standard Model zoo, ruling out sterile neutrinos, supersymmetric particles, and other hypothesized entities.

Unified Forces and Quantum Gravity

The theory presents a unified force equation (the EDGE equation):

[

F = K h/(delta S x delta T)

]

where (h-bar ) is Planck’s constant, ( Delta t ) and ( Delta s ) are quantum time and space intervals, and ( K ) is a coupling constant. This quantum gravity force arises from the real-ghost symmetry, describing the universe’s expansion from “Here (now)” to “Here (next)”.

Newtonian gravity emerges as a classical limit of this quantum gravity, with mass arising from self-bouncing between real and ghost states.

The uncertainty principle is derived as a consequence of this unified force, not fundamental but emergent.

Key applications include:

• Neutron Beta Decay: A detailed mechanism involving vacuum-generated quark pairs and quark color conservation, surpassing the Standard Model’s phenomenological description.

• Muon Decay and Neutrino Oscillations: Explained via genecolor dynamics, predicting neutrino oscillations naturally.

• Proton Stability: Proton decay is an internal process requiring high vacuum energy, explaining its extraordinary longevity beyond the universe’s age.

• BaryonGenesis: Anti-matter coexists as a necessary partner with matter, resolving the baryon asymmetry problem.

• Bio-cpu: Protons and neutrons function as universal Turing machines (gliders), providing the physical basis for biological life emergence.

Critique of Mainstream Theories

• Supersymmetry (SUSY): Declared dead due to lack of experimental evidence, internal conceptual flaws, and failure to address key physics issues.

• String (M-) Theory: Failed to achieve its goals including unification and explaining the Standard Model; lacks testable predictions and relies on now-disfavored SUSY.

• Multiverse Hypothesis: Refuted by the derivation of nature constants and their bubble-independence; constants are universal and fixed.

• Higgs Mechanism: Not experimentally verified; the discovered vacuum boson mass matches the vacuum boson predicted by Prequark Chromodynamics, challenging the Higgs mechanism.

New Physics Epistemology: Beauty-Contest Epistemology (BCE)

Gong proposes a novel epistemology contrasting with traditional hypothesis-verification and Popperian falsifiability. BCE treats physics theories as contestants in a beauty contest between designed universes (formal axiomatic systems) and the discovered universe (empirical reality). The designed universe wins by deriving nature constants, unifying forces, and explaining phenomena better than the discovered universe’s free parameters.

Five contest rounds evaluate simplicity, explanation power, unification, inclusion, and indispensability. The Final ToE (AP(0)) accumulates at least 17 Occam’s Happy Coincidences, yielding a Truth Index of 99.999237%.

Resolution of Open Questions and Predictions

Physics ToE addresses all major open questions in physics:

• Derivation of fundamental constants and particle zoo.

• Explanation of dark matter, dark energy, and cosmic acceleration.

• Origin of mass without Higgs mechanism.

• Baryon asymmetry and neutrino oscillations.

• Emergence of biological life and intelligence.

Predictions include the non-existence of new particle species beyond the Standard Model, confirmed by the absence of SUSY and sterile neutrinos.

For

  1. Book two: Math ToE
  2.  Book three: Bio-lives ToE
  3. Book four: linguistics, the PreBabel, universal language
  4. Book five: Social science ToE (including philosophy, theology, economics, political science, etc.)

See the book {The Final ToE} below.

下载:新版Final—TOE: final-toe

龚学语言学万物理论- Linguistics ToE

The Great Vindications Read on blog or Reader

Linguistics ToE

“Linguistics Theory of Everything (ToE)” aims to unify linguistics with physics, mathematics, biology, and social sciences into a grand unified framework. It articulates a novel theory that positions linguistics not merely as a tool for communication but as a foundational discipline that governs and interlinks all complex systems, including life and physical universe systems.

Overview of Linguistics ToE and Its Integration with Other Sciences

The Linguistics ToE is part of a broader Theory of Everything encompassing five sub-books: Physics ToE, Math ToE, Bio-Lives ToE, Linguistics ToE, and Social Science ToE. The linguistics component is designed to unify all human languages and provide a basis for a universal, perfect language called PreBabel. This theory emphasizes the essence of intelligence as expressed through language and proposes that linguistics principles are universal, applying across disciplines.

Core Principles

  • Spider Web Principle (SWP): Describes language creation starting from total freedom, which is broken as soon as the first linguistic element is established, leading to a Gödel system with internal consistency and frameworks unique to each language.
  • Martian Language Law (MLL): States that all human languages share an identical metalanguage, allowing communication even with hypothetical Martian languages. All language structures are subsets of a universal language structure, characterized by permanent confinement, infinite flexibility, and total freedom.
  • Three-Tier Hierarchies: Linguistics is modeled as a hierarchy of Formal Systems (consistency), Gödel Systems (incompleteness and leaks), and Life Systems (mutual immanence and permanent confinement), paralleling structures in mathematics and physics.
  • Large Complex System Principle (LCSP): Asserts that principles governing large complex systems (numbers, physics, life, linguistics) correspond to each other, leading to the Linguistics Occam’s Razor which states that any final theory must be encompassed by linguistics principles.

Super Unified Linguistic Theory (SULT)

SULT constructs a “linguistic universe” with precise definitions of languages, words, phrases, and sentences, governed by operators and six axioms that determine language types ranging from “type 0” (conceptual languages like Chinese) to “type 1” (perceptual languages like English). It introduces operators of pidginning and creoling to describe language evolution along a linear spectrum.

Language Types and Axioms

  • Axioms: Include similarity transformation, predicative, inflection, redundancy, non-communicative (word order), and exception axioms, each active or inactive, defining language structure.
  • Type 0 and Type 1 Languages: English is classified as type 1 with all axioms active, while Chinese is type 0′ with some axioms inactive and fuzzy word order.
  • Functional Equivalence: Major natural languages are functionally equivalent in word and syntax sets, allowing mutual translation and encoding with a universal root word set.

PreBabel: The Universal Language

PreBabel is the proposed universal language emerging from encoding natural languages with a closed set of root words (PB set). It is an oligosynthetic root set capable of encoding all natural languages, forming a logically linked linear chain of vocabulary that preserves meaning and pronunciation. PreBabel is silent and ideographic, allowing pronunciation to be assigned by user communities, and supports dialects corresponding to natural languages.

Construction and Features

  • Root Word Set: Comprises 241 ideographic root words representing universal concepts such as energy, human faculties, natural and manmade objects, qualities, and abstract notions.
  • Encoding Process: Words are encoded regressively via root words forming generations of vocabulary with mnemonic properties, facilitating easier language acquisition.
  • Phonemics: Root words are mute but can be assigned phonemes by language communities; phonetic alphabets are constructed to ensure pronunciation consistency.
  • Grammar: PreBabel grammar is based on fractal self-similarity transformations ensuring unique sentence meanings without requiring traditional inflections or punctuation.
  • Numerals: Introduces an extended numeral system addressing mathematical completeness and continuity issues, including “dark moment numbers” and additional glyphs beyond Arabic numerals.

Benefits and Applications

  • Language Acquisition: PreBabel revolutionizes learning, especially second languages, by reducing vocabulary learning effort by about 95% and providing mnemonic anchors.
  • Translation: Enables true auto-translation machines by mapping vocabulary through PreBabel root words, facilitating syntax, semantic, cultural, and situational translation paths.
  • AI Guidelines: Provides foundational principles for artificial intelligence language processing.

Essence and Framework of Linguistics in ToE

Linguistics is framed as an FGL (Formal-Gödel-Life) system, where:

  • Formal Systems represent ordered, consistent systems.
  • Gödel Systems incorporate incompleteness and self-referential loops.
  • Life Systems embrace contradictions and renormalization, reflecting intelligence and language essence.

This framework explains the hierarchical and self-referential nature of language, the coexistence of contradictions (mutual immanence), and the management of infinities (renormalization) within linguistic systems, paralleling biological processes such as DNA replication.

Scope of Linguistics and the Concept of Perfect Language

Linguistics extends beyond human natural languages to any system capable of describing a universe. Languages are defined as systems (T) describing universes (U), with varying complexity from computable to uncountable infinite universes. Human natural languages possess the capacity to describe even “weird” universes such as theological or paradoxical concepts, qualifying them as ideal languages.

Perfect Language Attributes

  • Finite number of tokens constructing unlimited vocabulary.
  • Pronunciation and meaning discernible from word form.
  • Efficiency in learning and usage.

The traditional Chinese written system is argued to be a perfect language, possessing these attributes through its root word system and phonetic modules, contrary to prior assumptions of its complexity.

New Paradigm of Linguistics: Language Acquisition and Linguistics Occam’s Razor

The new paradigm challenges traditional beliefs by categorizing languages into three types based on data set complexity:

  • Type A: Chaotic data sets with arbitrary vocabulary.
  • Type B: Axiomatic data sets derived from finite roots and rules.
  • Type C: Hybrid types.

It posits that second language learners can acquire Type B languages more easily than their first language or native speakers can. The paradigm also introduces Linguistics Occam’s Razor, stating that any final scientific theory must be encompassed by linguistics principles, underscoring linguistics as a foundational science.

Implications for Physics

The linguistics framework predicts that the Higgs boson and mechanism do not align with the “bottoming” principle of linguistics and thus cannot represent final physical theories. It also identifies four fundamental numbers (3, π, 7, 64) as essential pillars for renormalization in physics (see book one).

Conclusion

The Linguistics ToE presents a unified, axiomatic, and hierarchical framework integrating linguistics with other scientific domains. It introduces PreBabel as a theoretically and practically viable universal language, grounded in a closed root word set and self-similar grammatical structures. The theory redefines language acquisition, translation, and cognitive processing, asserting linguistics principles as fundamental to all valid theories in science and society.

For {Linguistics ToE}, see the pdf below.

龚学社会学万物理论-Social Sciences ToE

The Great Vindications Read on blog or Reader

Social Sciences ToE

Philosophy and Metaphysics in The Final ToE

Critique of Hume’s Guillotine and Morality as Science

Gong challenges Hume’s is-ought problem, arguing that normative statements (“ought”) emerge naturally from descriptive realities (“is”) through processes of creation and degeneration, making traditional separations between facts and values nonsensical. Morality is framed as an empirical human behavior and a legitimate subject of scientific inquiry, despite current scientific limitations.

Metaphysical Necessity and Concreteness

A novel metaphysical framework is proposed, defining “concreteness” and “ultimate concreteness” as foundational realities. The “Law of Metaphysical Necessity” states that every concreteness has a metaphysical necessity, and only the ultimate concreteness can be self-necessary. This framework reconciles metaphysical necessity with observed reality and supports a unified ontology.

Human Faculties and Spirituality

Human nature is described as comprising three faculties: rationale, emotion, and a powerful spiritual faculty distinct from religion. The spiritual faculty can override reason and emotion, influencing belief systems and actions. This triadic model informs understanding of cognition, belief, and cultural phenomena.

Free Will and Quantum Mechanics

Mutual Immanence of Superdeterminism and Free Will

Free will and determinism are not mutually exclusive but coexist in a state of mutual immanence and permanent confinement. This reconciles apparent contradictions in physics and philosophy, supported by mathematical analogies and quantum theories.

Bell’s Theorem and Cellular Automaton Interpretation

The work revisits Bell’s theorem, highlighting loopholes such as superdeterminism and experimental biases. It supports a deterministic quantum mechanics interpretation via cellular automata models, aligning with Gerard ‘t Hooft’s proposals but emphasizing coexistence with free will. The “Mickey Mouse principle” is introduced to assert the reality of sociological entities like free will.

God and Theism in The Final ToE

Scientific and Metaphysical Proof of God

The concept of “Ghost Singularity” in physics ToE is equated with God, providing an active and demonstrable foundation for God’s reality. The derivation of fundamental constants from a single principle refutes multiverse arguments and atheistic claims, positioning God as an inevitable ontological reality rather than a mere hypothesis.

Distinctions from Traditional Religions

Unlike traditional theisms that rely on faith or metaphysical arguments, this ToE grounds God in scientific and linguistic unification. It distinguishes between omni-theistic, aesthetic deistic, and pantheistic conceptions of God, and compares Christian, Buddhist, and Confucian views, emphasizing a unified metaphysical source.

New Economics Theory

Large Complex System Principle (LCSP)

Economics is re-envisioned through the LCSP, which posits universal principles governing all large complex systems. The Real/Ghost symmetry from physics is applied to economic systems, explaining phenomena such as price dynamics, market hyperspace, and financial derivatives as “ghosts,” “tails,” and “flags” influencing base economic values.

Concept Description
Ghost An attribute of a product (e.g., price) that roams in economic hyperspace with greater freedom
Tail Small market fractions that influence the entire market
Flag Market indicators directing trends

Cheating Principle and Market Dynamics

The “Cheating Principle” states that no participant can gain by cheating in a large complex system. Market failures and financial crises, such as the 2008 crash, are analyzed as breakdowns in self-referential loops between base economy and hyperspace dynamics.

Currency, Trade, and Global Monetary Dynamics

The US dollar’s role as the Global Monetary Token (GMT) allows unlimited printing of money backed by real value, creating “free lunches” for US citizens while spreading inflation globally. Mechanisms to reclaim outflowing dollars include fair methods (exports, investment visas, T-bills) and “coyote” strategies (forced exchange rates, financial crises). The sustainability and threats to the dollar’s GMT status are discussed in geopolitical context.

New Political Science

Transforming Political Science into a Physics-Like Science

Political phenomena are modeled analogously to physics with defined entities, charges, fields, and interactions. Challenges such as ambiguous terminology (e.g., religion as both entity and charge) are addressed through clear definitions and the Prequark Model, which allows entities to also act as fields carrying charges.

Types of Charges and Religious Dynamics

Three charge types—unitary, binary, and ternary—are introduced to model political and religious interactions. Binary charges represent exclusiveness vs. inclusiveness in religions, influencing civilizational conflicts. The root religions are categorized into Semitic-prophetic, Indian-mystic, and Sinic-moral systems, forming a hierarchy for modeling.

Political Force Equation and War Probability

A political force equation quantifies interactions between charges, factoring in spatial and temporal distances. Quantum probability concepts are applied to model war likelihood, incorporating motives, accelerators, and decelerators. A hypothetical USA-China war scenario illustrates this approach, emphasizing the role of intelligence and free will in influencing outcomes.

Epilogue: The Creation and Law of Creation

Immortal Sphere and Timeless World

The universe coexists with many possible universes in a timeless realm called the Immortal Sphere, embodying perfect symmetry and serving as the foundation for free will and moral philosophy. Physical laws break down in this timeless world, which follows its own initial-condition laws.

Zero-Infinity Symmetry and Creation of Time

Zero and infinity form a symmetry that defines timelessness and immortality. Time is created not within time but simultaneously with the universe through the transformation of uncountable infinity into finite existence, represented mathematically by Archimedes’ spiral and Equation Zero.

Emergence of Mass, Electric Charge, and Quarks

Fundamental constants and particles arise from the transformation of countable infinity into finite values via a trisecting angle process, leading to the Prequark Model with Vacutron and Angultron as basic building blocks. This explains particle masses, electric charge, and the existence of three particle generations.

Biological Life as Computational Gliders

Life is characterized by information processing, with protons and neutrons represented as gliders in Conway’s Life Game, supporting universal computation. This links biology to fundamental physics and computation.

Totality, Indivisibility, and Law of Creation

Totality is indivisible, and its division creates mutually immanent parts, enabling creation from nothingness. The law of creation involves symmetry breaking dividing totality into three components, producing all phenomena through a ball-to-donut Unilogical transformation, unifying mathematics, physics, and life.

Mathematical Formulation and Unification Theorems

Creation is formalized topologically: systems satisfying E – H = 0 (Euler number minus holes) are indivisible and represent creation from nothingness. Systems describable with seven colors correspond to topological donuts, unifying quark systems, biological life, and arithmetic into a single framework.

This summary captures the core ideas of Tienzen Gong’s Final Theory of Everything, which integrates diverse scientific and philosophical domains through innovative metaphysical and mathematical frameworks, offering a holistic understanding of reality, life, society, and creation .

Proof of God

Gong asserts the reality of God through several arguments and concepts

Ghost Singularity in Physics ToE

Gong argues that in the physics Theory of Everything (ToE), the concept of “Ghost Singularity” plays a central role in the foundation of physics laws. By changing the spelling of “Ghost Singularity” to “God,” Gong claims that the physics ToE has proven the reality of God.

Proof of God in Math ToE

In the Math ToE, Gong argues for the reality of God in a chapter titled “Proof of God”.

Ideal Language

Gong introduces the concept of an “ideal language” (IL), which can describe entities beyond the largest known universe (U4). He claims that human natural language can be this ideal language, capable of describing even the Christian God or Buddha’s Nirvana.

Law of Existential Reality

Gong proposes the “Law of Existential Reality,” which states that if a system (L(x)) can describe a complex system (U), then (U) is an existential reality. This law is used to argue that if human natural language can describe God, then God is an existential reality.

Corollaries

Gong provides two corollaries to support his argument:

  1. If something is incomprehensible or indescribable, it is a psychological image, not an existential reality.
  2. Without a Theory of Everything (ToE) that unifies all pantheism gods (e.g., god of physics, god of math), no ideal language (L) can be constructed.

{He was, therefore I am}

With a ToE (invented or discovered), this ToE was here long before the human inventor. That is, someone invented this ToE long before this new ToE.

Furthermore, by knowing this new ToE, Gong is unable to create a new universe while an old universe was created long before the emerging of humanity.

For Social Sciences ToE, see the pdf below.

Videos are not displayed in this email and must be viewed on the website.

 

转:发改委低空经济司成立——推动低空经济迈向新高度

据通航委消息,2024 年 12 月 25 日,国家发改委召集交通、民航、工信、公安等部门相关会议,宣布低空经济司挂牌成立,该举措旨在进一步推动低空经济发展。低空经济司的成立背景包括政策推动、市场潜力和产业协同需求。政策方面,国家已将低空经济写入国家规划,并重视其发展。
综合各方信息了解到,在市场方面,随着技术发展,低空经济展现出巨大潜力,如无人机在多个领域得到广泛应用,预测市场规模将持续扩大。产业协同方面,低空经济涉及多个领域,需多部门协同合作,发改委成立低空经济司能更好地发挥协调作用。
低空经济司的职责与意义包括统筹协调发展、规范行业秩序、推动创新发展和促进区域协调发展。它将负责统筹低空经济整体发展规划,协调解决空域管理、安全监管等实际问题,避免政策冲突和管理混乱。同时,制定和完善相关法规、标准,加强市场监管,规范企业行为,提高准入门槛,保障高质量发展。
此外,低空经济司还将通过政策引导和资金支持,鼓励企业加大研发投入,推动技术创新突破,促进低空经济与新兴技术的深度融合,培育新经济增长点和产业业态。根据不同地区条件,指导各地合理布局低空经济产业,推动区域协调发展,形成优势互补的发展格局,带动区域经济转型升级,缩小发展差距。低空经济司的成立将为我国低空经济的健康发展提供有力保障。
———————————————————————————
2025:透过全球视角,看低空经济的未来发展
当前,全球低空经济处于发展阶段,技术逐渐成熟,产品逐渐多元化,2021 年至今,低空经济开始扩大普及范围,市场与商业模式逐渐成熟。未来,世界主要经济体还将持续关注这一经济发展新引擎,采取更多措施以促进低空经济产业发展,主要完善的方向包括加大政策支持力度、完善低空经济法律体系、加快技术创新、完善低空经济产业链等。

图片

主要国家与地区低空经济市场:
未来发展路在何方?

01. 无人机产业将主导美国航空产业的未来

无人机商业化运营。美国凭雄厚资金储备与通用航空先发优势,率先在通用航空获全球领先地位。据美联邦航空管理局预测,无人机产业将主导美国航空业未来,消费级无人机市场扩张使商用无人机成其发展主线。美空军 “敏捷至上” 项目积极推动 eVTOL 飞行器发展以达初步商业运营,意在推动军事物流任务并借与私企合作加速 UAM 技术成熟与商业化。

美国商用无人机的监管和法律框架也逐渐完善,例如逐渐开放的豁免,这能够扩大该公司在美国各地开展基于无人机的检查、调查服务和视觉数据管理方面的业务。未来,美国商用无人机将有更加广阔的发展空间。

以空中出租车为代表的无人机商业应用领域拓展。美国基础设施发达,交通拥堵严重,空中出租车有望破局并成为低空经济重要增长点。其是最早采用飞行出租车之地,诸多全球飞行出租车公司在此占据重要地位推动市场增长。

Archer 发布旧金山湾区空中交通网络计划,连接五个战略地点,且与吉劳埃地产合作,将牡蛎项目设为关键枢纽,该网络可大幅缩短湾区周边城市通行时间,2024 年 8 月又计划推出洛杉矶空中交通网络,以 Midnight 飞机助力乘客快速抵达目的地。

空中出租车除了能解决交通问题,还能为应急服务和文化旅游等项目添砖加瓦。空中出租车的运输效率高,未来能够在应急救援、医疗等方面发挥更大的作用。在飞行旅游方面,空中出租车也有着巨大的潜力。

无人机军事化。2023 年 9 月,美国国防部提出“复制者”计划,这一计划的推出标志着美军开始运用政策行政手段推动低成本、可消耗且智能化的无人平台大规模部署应用。通过这样的举措,美军期望在未来与势均力敌的对手发生军事冲突时能够占据优势。在美国国防部接受 Midnight 的军用适航评估之后,2024 年 8 月 Archer 宣布,向美国空军交付第 1 架 Midnight 飞机,这表明 Midnight 已准备好接受军方的进一步试飞,以验证其作战和执行军事特定任务的能力。

从全球低空经济区域发展格局来看,美国因为通用航空发展的领先奠定了其低空经济的先发优势。相较之下,我国在无人机领域拥有与美国一较上下、比拼手腕的可能性。

02. 日本城市空中交通:开发推进、企业合作与技术攻坚助力低空经济

城市空中交通。日本积极推进城市空中交通开发,政府与企业研发 eVTOL 飞行器,志在 2030 年前商业化。天空驾驶公司先后与九州铁路、东急株式会社、萨哈集团合作,探索空铁联运、拓展海外应用场景并拟国内推广,有望缓解大城市交通拥堵,推动低空经济。

未来日本要实现城市空中交通,拓展无人机应用领域,发展低空经济等目标,必须解决当前无人机面临的技术难题。

2024 年 7 月,日本伊藤忠商事株式会社宣布投资氢能发动机制造商ZeroAvia。此外,ZeroAvia 还授权伊藤忠商事株式会社为其亚洲地区销售代表,双方还将在亚洲地区的维护、机场基础设施和氢基础设施等多个领域展开合作。

2024 年 8 月,日本川崎汽车和法国混动飞机开发商 VoltAero 开展了合作,将测试和认证汽油活塞发动机和液氢燃料发动机。川崎将开发几种不同尺寸的大功率增压汽油发动机,并计划2030 年取得认证。新发动机的重量与涡轴发动机相同,但油耗可减少 50%。液氢燃料发动机计划 2035 年取得认证,最大输出功率可达1 MW(兆瓦)。VoltAero 将把汽油发动机和氢燃料发动机集成到混合电动飞机 Cassio 上。Cassio 330为 5 座无增压且带固定起落架的混合

电动飞机。首架机预计 2027 年取得认证并投入使用。随后,其改进型将可最多容纳 12 名乘客,并采用增压设计。

03. 德国无人机:工业物流领先,多领域拓展加速

德国作为工业 4.0 的先驱,在无人机领域的发展也处在世界前列。目前德国无人机在工业及物流方面取得了一系列成果。在工业方面,实现了无人机设备的制造、工业检测与维护、应急救援等领域的发展。

在低空物流方面,快递公司 DHL 的无人机物流项目和城市空中交通项目帮助德国取得了重大突破,在技术领域逐渐发展成熟,商业应用也不断拓展。

加快城市空中交通项目发展。德国 Lilium 公司积极布局空中交通业务,计划 2025 年在美国完成工厂建设,投资 2.5 亿 – 3 亿欧元用于装配线建设与产量提升,正与德法政府商贷筹资助力法国业务拓展及工业扩张,且与 Groupe ADP 等合作开发配套设施,还将于 2027 年在意大利北部开展区域运营。

拓展应急救援、医疗等更多应用领域。德国 ERCSystem 推医疗 eVTOL 飞行器 Charlie,载荷 450 千克,航程 190 千米,时速 180 千米,2029 年投用,获德空中救援队支持并合作评估,欧洲未来需求大,德还将推动低空经济多领域拓展。

04. 英国低空经济:多领域成果显著,基建国防协同推进

英国的低空经济在物流、监测和医疗领域取得了较为突出的成就。例如,利用无人机对伦敦市内的主要桥梁进行定期检查,开发无人机系统用于紧急医疗物资运输等。提高无人机技术水平,拓展物流、医疗等应用场景。丰翼无人机PW.Orca参加英国范堡罗国际航空航天展览会,并进行现场飞行演示。

PW.Orca 为获英民航局批准且在范堡罗航展飞行演示的唯一物流无人机,将助力放射性药物运输试验,未来用于离岸物流场景。英民航局选定 6 项目测试无人机送货、检查及应急服务应用,当下英无人机超视距飞行受限,测试项目可借先进技术实现视距外操控,涵盖亚马逊送货、风电检查及医疗运送等。

完善低空基础设施建设。英国斯诺登尼亚航空航天中心的首个永久性垂直起降机场开放,用于 eVTOL 和无人机测试。其建设先进,高度自动化,靠传感器技术引导无人机安全着陆,可灵活部署。英国民航局于范堡罗航展发布《空域现代化战略,第三部分:部署计划》,拟投资航空基础设施实现空域现代化,整合“新空域用户”到现有生态,还开展技术与基础设施部署研究,助力飞机相互探测避开。

加强国防建设。据英媒报道,一种可以通过破坏无人机电子设备的方式同时击落多架无人机的廉价武器最早可能于 2025 年上市。泰雷兹公司英国分公司负责人介绍,这种新型射频定向能武器正在英国军方进行实地测试,应该“很快”就能投入使用。该系统使用一次的成本仅为 10 便士,最大射程可达 1 000 米,它将成为比传统导弹防空系统更便宜的替代品,后者的成本通常超过数十万美元。这种武器可以安装在军车上,并利用移动电源产生射频或脉冲来干扰移动目标的电子设备。

展望未来,英国低空经济在物流、医疗运输和国防等领域的发展前景广阔。随着技术的不断进步和政策环境的持续优化,低空经济将成为推动英国经济社会发展的新引擎。

无人机市场:喷薄发展,势不可挡

随着全球低空经济的持续发展,市场规模将进一步扩大。无人机市场在近3年呈现喷薄式发展劲头,无人机投资规模由2013年的1.21亿美元增长至 2022 年的 48.06 亿美元。罗兰·贝格研究机构预测,到2050年,全球低空经济市场规模将超过60万亿元人民币。随着无人机、空中出租车等新兴技术的普及,商业应用场景将更加广泛,从物流、交通到农业、监测等多个领域的需求将大幅增长。各国政府和企业的持续投人,以及技术进步和基础设施的完善,将推动低空经济市场不断壮大。

无人机市场和eVTOL市场将成为全球低空经济市场增长的主要引擎。这主要得益于无人机在物流、农业、监测、基础设施检查等领域的广泛应用。尤其是在物流领域,无人机配送服务将极大地改变传统的物流模式,实现更高效、更灵活的货物运输。随着政策环境的优化和技术的不断成熟,消费级和商用无人机的市场需求将继续快速增长。

eVTOL 市场的潜力同样巨大。eVTOL 作为未来城市空中交通的重要组成部分,将在解决大城市交通拥堵问题、缩短通勤时间方面发挥关键作用。各大航空和科技公司已投人大量资源开发eVTOL 技术,并开展了多次试飞和商业化探索。随着技术的进一步发展和基础设施的逐步完善,eVTOL有望在未来 10年内实现大规模商业化,成为城市交通的革新力量。

整体来看,无人机和 eVTO 市场的发展潜力不容小觑。两者不仅将在全球低空经济市场中占据重要地位,还将引领低空经济的未来发展方向,推动整个市场规模的持续扩大。

2025年将成为eVTOL和城市空中交通
商业化应用的关键节点

低空经济的快速发展将促使全球范围内的市场竞争进一步加剧。在这一领域,各国在政策支持、技术创新、市场布局等方面的竞争将日益白热化。美国、日本、巴西等通用航空业发达的国家,依托其雄厚的航空工业基础和先进的技术,通过国家引导协调、适航创新跟进、军民结合相促、试点运行等方式,积极推动城市空中交通和先进空中交通的发展。这些国家通过制定战略规划、出台扶持政策、建设试点城市等举措,努力在全球低空经济市场中占据主导地位。

在这一过程中,美国作为全球航空业的领军者,凭借其强大的科技研发能力和完善的产业链,正在加速推动无人机和eVTOL的商业化应用。美国联邦航空管理局已经为无人机和eVTOL的商业运营制定了一系列法规和标准,为其大规模应用铺平了道路。同时,美国军方也在积极推动军民融合,通过军事采购和技术转移,进一步加快无人机和 eVTOL 技术的成熟与应用。

与此同时,欧美国家的传统航空巨头和初创企业也在积极布局eVTOL的研发和制造。波音、空客等传统航空巨头,凭借其在航空制造领域的深厚积淀和全球市场网络,正在全力开发下一代eVTOL平台。空客的 CityAirbus NextGen 和波音的 PAV(空中交通工具)项目均瞄准了未来城市空中交通市场的巨大潜力。此外,Joby Aviation、Lilium、Archer 等新兴企业凭借技术创新和灵活的市场策略迅速崛起成为 eVTOL, 领域的重要力量。这些公司不仅在技术上不断突破,还通过战略合作、资本运作等方式,积极布局全球市场。

各国普遍认为,2025 年将是eVTOL 和城市空中交通商业化应用的关键节点。日本计划在大阪世博会期间,率先启用eVTOL的商业运营,以展示其在低空经济领域的技术实力和市场潜力,希望通过在大阪世博会期间推广eVTOL应用,进一步推动其先进空中交通体系的建设。

低空经济激烈的市场竞争不仅体现在技术和产品的较量上,还反映在政策制定和市场推广的速度上。谁能在技术标准制定、市场准人、产业链整合等方面率先突破,谁就能在全球低空经济市场中抢占先机。因此,未来几年,各国和企业将在低空经济市场展开更为激烈的角逐,这将直接影响到全球低空经济的发展格局。

中国国际空间科学中长期发展规划(2024-2050年)

2024-2050

资料,参考:

2024-10-15

国家空间科学中长期发展规划(2024—2050年)发布_政策解读_中国政府网  https://www.gov.cn/zhengce/202410/content_6980598.htm

国务院新闻办公室今天(10月15日)举行新闻发布会,中国科学院、国家航天局、中国载人航天工程办公室联合发布了《国家空间科学中长期发展规划(2024—2050年)》。

中国科学院有关负责人介绍,近年来,我国航天事业取得辉煌成就,空间科学进入创新发展的“快车道”。作为我国首个国家空间科学规划,该规划是当前和今后一个时期指导我国空间科学任务部署、开展空间科学研究的依据。规划将2050年前的空间科学发展分为三个阶段,提出了我国有望取得突破的“极端宇宙”“日地全景”“宜居行星”等5大科学主题,以及空间引力波探测、探索太阳系天体和地球循环系统等17个优先发展方向。

国家航天局有关负责人介绍,未来我国将发射嫦娥七号、嫦娥八号,正在论证国际月球科研站,持续开展科学探测研究、资源开发利用和前沿技术验证。在行星探测方面,将实施天问二号、天问三号和天问四号任务,对近地小行星、火星开展探测和采样,并对木星及其卫星的演化历史进行研究。

中国载人航天工程办公室有关负责人介绍,未来十年,中国空间站将滚动实施上千项科学与应用项目,发射2米口径巡天空间望远镜。利用载人前的飞行试验和载人登月任务机会,开展较大规模的空间科学实验,目前初步规划了月球科学、月基科学和资源勘查利用3个领域9大方向的科学目标。

转发:数学界重大突破解决了几何朗兰兹猜想

数学界重大突破解决了几何朗兰兹猜想

 Polyidiot 也疏寒

 https://mp.weixin.qq.com/s/YxewOAkTyt9B9Pwj3V9n4Q

2024年07月22日 13:33 上海

本文译自Quanta文章
Monumental Proof Settles Geometric Langlands Conjecture

经过30年的努力,数学家们证明了一个名为朗兰兹纲领的深奥数学愿景中的重要部分。


一个由九位数学家组成的团队证明了几何朗兰兹猜想,这是现代数学中牵涉最广的范式之一的关键组成部分。马克斯·普朗克数学研究所的著名数学家,菲尔兹奖得主彼得·舒尔茨(Peter Scholze)对此表示,这一证明代表了三十年努力的巅峰,“看到它被解决真是太好了。”他本人并未参与这项证明工作。

彼得·舒尔茨(Peter Scholze),右一

朗兰兹纲领由罗伯特·朗兰兹(Robert Langlands)在20世纪60年代创立,是对傅里叶分析的广泛概括。傅里叶分析是一种将复杂波形表示为平滑振荡三角函数波的框架。朗兰兹纲领在数学的三个不同领域中占据重要地位:数论、几何学和函数域。这三个领域通过一个被称为数学“罗塞塔石碑”的类比网络相互连接。

 

2024-7-22-640.webp

罗伯特·朗兰兹(Robert Langlands)

现在,一组新的论文解决了“罗塞塔石碑”几何部分中的朗兰兹猜想。德克萨斯大学奥斯汀分校的戴维·本-兹维(David Ben-Zvi)表示:“在其他任何领域,都没有如此全面和强大的结果被证明。”

“这是一种美妙的数学,是同类中最好的,”几何朗兰兹纲领的主要创始人之一亚历山大·贝林森(Alexander Beilinson)说道。

图片

亚历山大·贝林森(Alexander Beilinson),左一

这个证明涉及五篇论文,超过800页。由丹尼斯·盖茨戈里(Dennis Gaitsgory,马克斯·普朗克研究所的彼得·舒尔茨的同事)和耶鲁大学的山姆·拉斯金(Sam Raskin)领导的团队完成。

图片

丹尼斯·盖茨戈里(Dennis Gaitsgory),左;山姆·拉斯金(Sam Raskin),右

盖茨戈里在过去30年里致力于证明几何朗兰兹猜想。在几十年间,他和他的合作者们发展出了一大批工作,成为新证明的基础。格勒诺布尔阿尔卑斯大学的文森特·拉福格(Vincent Lafforgue)将这些进展比作一片“上升的海洋”,灵感来自20世纪杰出的数学家亚历山大·格罗滕迪克(Alexander Grothendieck),他曾描述解决难题的过程如同围绕问题创造一片逐渐上升的思想之海。

图片

文森特·拉福格(Vincent Lafforgue)

数学家们需要一段时间来消化这项新工作,但许多人对核心思想的正确性充满信心。文森特·拉福格(Vincent Lafforgue)表示:“该理论内部有很多一致性,因此很难相信其中会有错误。”

在证明的前几年,研究团队不仅创建了一条,而是多条通往问题核心的路径。戴维·本-兹维(David Ben-Zvi)说:“他们所发展的理解是如此丰富和广泛,他们从各个方向包围了这个问题,使其无路可逃。”

大统一理论
1967年,当时30岁的普林斯顿大学教授罗伯特·朗兰兹(Robert Langlands)在给“罗塞塔石碑”创始人安德烈·韦伊(André Weil)的一封手写17页的信中阐述了他的愿景。朗兰兹写道,在“罗塞塔石碑”的数论和函数域部分,可能可以创造出一个具有惊人范围和力量的傅里叶分析的推广。图片安德烈·韦伊(André Weil)

在经典的傅里叶分析中,一种称为傅里叶变换的过程在思考波形图(例如声波图)的两种不同方式之间建立了对应关系。在对应关系的一侧是波形本身(我们称之为波形侧)。这些包括简单的正弦波(在声学中称为纯音)和更复杂的由正弦波组合而成的波形。对应关系的另一侧是正弦波的频谱——即它们的音调(数学家称之为频谱侧)。

傅里叶变换在这两种方式之间来回转换。一个方向上,它允许你将一个波分解成一系列固定频率的波的叠加;另一个方向上,它允许你从这些组成频率重构出波。这种跨越鸿沟的能力对于广泛的应用至关重要——没有它,我们就不会有现代电信、信号处理、磁共振成像以及许多现代生活的基本技术。

朗兰兹提出,在“罗塞塔石碑”的数论和函数域部分也会发生类似的事情,但涉及的是更复杂的波和频率。

在这些部分中,各自有一个由一系列特殊函数组成的波形侧,类似于重复波。这些特殊函数中最纯粹的称为特征函数(来源于德语“eigen”意为“特征”),它们扮演正弦波的角色。每个特征函数都有一个特征频率。然而,与正弦波的频率是单个数字不同,特征函数的频率是一个无限的数字列表。

还有一个频谱侧,由数论中的一系列对象组成,朗兰兹认为这些对象标记了特征函数的频谱。朗兰兹提出,一种类似于傅里叶变换的过程将波形侧和频谱侧连接起来。“这是一种神奇的事情,”戴维·本-兹维(David Ben-Zvi)说。“从先验上看,我们没有理由预期会有这样的结果。”

这些波形及其频率标记来自数学的不同领域,因此当它们之间的对应关系被证明时,通常会带来丰厚的回报。例如,1990年代对一小部分函数的数论朗兰兹对应关系的证明,使得安德鲁·怀尔斯(Andrew Wiles)和理查德·泰勒(Richard Taylor)得以证明费马大定理,而这在三个世纪以来一直是数学中最著名的悬而未决的问题之一。

图片

安德鲁·怀尔斯(Andrew Wiles)和理查德·泰勒(Richard Taylor)

加州大学伯克利分校的爱德华·弗伦克尔(Edward Frenkel)形容,朗兰兹纲领被视为数学的“大统一理论”。然而,即使数学家们致力于证明朗兰兹愿景中越来越大的部分,他们也意识到这个愿景是不完整的。它似乎无法解释“罗塞塔石碑”第三列——几何部分中的波形及其频率标记。

图片

爱德华·弗伦克尔(Edward Frenkel)

 
一粒沙子
从朗兰兹工作的开始,数学家们就对几何朗兰兹对应关系的频谱侧应该是什么样子有了一个概念。韦伊“罗塞塔石碑”的第三列涉及紧致的黎曼曲面,即球体、甜甜圈以及带多个孔的甜甜圈。给定的黎曼曲面有一个相应的对象,称为其基本群,它记录了绕曲面环绕的不同方式。数学家们猜测,几何朗兰兹对应关系的频谱侧应由基本群的某些精炼形式组成,称为其“表示”。如果朗兰兹对应关系要在“罗塞塔石碑”的几何列中体现出来,那么黎曼曲面基本群的每个表示都应该是一个频率标签——但是什么的频率标签呢?数学家们找不到任何特征函数的集合,其频率似乎是由基本群的表示标记的。然后在20世纪80年代,现任芝加哥大学的弗拉基米尔·德林费尔德(Vladimir Drinfeld)意识到,可能通过用更复杂的对象称为特征层(eigensheaves)来取代特征函数,从而创建几何朗兰兹对应关系——尽管当时他只知道如何构造其中的少数几个。

层(sheaves)比函数更加深奥,数论学家不知道如何看待这种提议的朗兰兹对应关系的几何版本。然而,尽管其波形侧非常晦涩,几何朗兰兹纲领相较于数论版本有一个很大的优势。在几何朗兰兹中,特征层的频率由黎曼曲面上的点决定,而球体或甜甜圈上的每个点在近距离看都非常相似。但在数论朗兰兹中,频率由素数决定,每个素数都有其独特的性质。伦敦帝国理工学院的数论学家安娜·卡拉亚尼(Ana Caraiani)说:“数学家们不知道‘如何优雅地从一个素数过渡到另一个素数’。”

图片

安娜·卡拉亚尼(Ana Caraiani)

黎曼曲面在物理学中发挥着重要作用,特别是在共形场论中,该理论控制着某些力场中亚原子粒子的行为。在20世纪90年代早期,贝林森(Alexander Beilinson)和德林费尔德(Vladimir Drinfeld)展示了如何使用共形场论来构建某些特别优美的特征层。

图片

贝林森(Alexander Beilinson)和德林费尔德(Vladimir Drinfeld)

与共形场论的联系为贝林森和德林费尔德提供了一个起点,让他们开始思考如何为层构建傅里叶分析的版本。“这就是这个理论结晶的那粒小沙子,”本-兹维(David Ben-Zvi)说道。

贝林森和德林费尔德提出了一个关于几何朗兰兹对应关系应如何工作的丰富愿景。他们认为,不仅基本群的每个表示都应该标记一个特征层的频率,而且这种对应关系还应该尊重两侧的重要关系。贝林森和德林费尔德称其为“最佳希望”。

在20世纪90年代中期,贝林森在特拉维夫大学举办了一系列关于这一发展图景的讲座。当时还在读研究生的盖茨戈里(Dennis Gaitsgory)全神贯注地聆听每一个字。“我就像一只新孵出的小鸭子一样,深深地被这些讲座所吸引,”盖茨戈里回忆道。

在随后的30年里,几何朗兰兹猜想一直是盖茨戈里数学事业的主要驱动力。“这些年来一直在不间断地工作,越来越接近目标,开发各种工具,”他说道。

 
上升的海洋
贝林森和德林费尔德提出他们的猜想时比较宽泛,事实证明,他们对“最佳希望”中的关系工作方式设想得过于简单。2012年,盖茨戈里和威斯康星大学麦迪逊分校的迪玛·阿林金(Dima Arinkin)找到了将“最佳希望”变为精确猜想的方法。次年,盖茨戈里写了一篇关于几何朗兰兹猜想证明可能路径的大纲。该大纲依赖于许多中间陈述,其中很多尚未被证明。盖茨戈里和他的合作者们开始致力于证明这些中间陈述。图片迪玛·阿林金(Dima Arinkin)

在接下来的几年里,盖茨戈里和多伦多大学的尼克·罗森布吕姆(Nick Rozenblyum)合著了两本关于层的书,总计近1000页。在这两卷书中,几何朗兰兹纲领只被提到了一次。“但它的目的是奠定基础,这些基础我们最终非常深入地使用了,”盖茨戈里说道。

2020年,新冠疫情爆发,盖茨戈里突然发现他的日程表清空了。“我花了三个月的时间躺在床上思考,”他说。这些思考最终促成了一篇六位作者的论文,虽然主要关于朗兰兹纲领的函数域部分,但其中包含了后来成为几何朗兰兹猜想证明关键组成部分的种子:一种理解每个特征层如何贡献我们可以认为的“白噪声”的方法。

图片

从左至右顺时针方向:达里奥·贝拉尔多(Dario Beraldo)、陈麟(Lin Chen)、凯文·林(Kevin Lin)、尼克·罗森布吕姆(Nick Rozenblyum)、乔阿基姆·费尔格曼(Joakim Færgeman)、贾斯廷·坎贝尔(Justin Campbell)和迪玛·阿林金(Dima Arinkin)。

在经典信号处理领域,声音波是由其频率对应于声音中包含的音高的正弦波构建的。了解声音包含哪些音高是不够的——你还必须知道每个音高的响度。这些信息使你可以将声音写成正弦波的组合:从幅度为1的正弦波开始,然后将每个正弦波乘以适当的响度因子,再将这些正弦波加在一起。所有不同幅度为1的正弦波的总和被我们通常称为白噪声。

在几何朗兰兹纲领的世界中,特征层应扮演正弦波的角色。盖茨戈里及其合作者们已经识别出一种称为庞加莱层(Poincaré sheaf)的对象,这似乎在起到白噪声的作用。但研究人员并不确定每个特征层是否都在庞加莱层中得到了体现,更别提它们是否都有相同的幅度了。

2022年春季,拉斯金(Sam Raskin)和他的研究生乔阿基姆·费尔格曼(Joakim Færgeman)展示了如何利用这篇六位作者的论文中的思想来证明每个特征层确实对庞加莱层做出了贡献。“在山姆和乔阿基姆的论文之后,我确信我们会在短时间内完成这个证明,”盖茨戈里谈到证明几何朗兰兹猜想时说道。

图片

山姆·拉斯金(Sam Raskin),耶鲁大学

研究人员需要证明所有特征层对庞加莱层的贡献是相等的,并且基本群的表示标记了这些特征层的频率。他们逐渐意识到,处理基本群的不可约表示(irreducible representations)是最棘手的部分。

在他的个人生活充满混乱的时刻,拉斯金(Sam Raskin)找到了处理这些不可约表示的解决方案。在他和费尔格曼(Joakim Færgeman)将论文发布到网上几周后,拉斯金不得不紧急送怀孕的妻子去医院,然后回家接他的儿子上幼儿园。拉斯金的妻子在医院待到六周后第二个孩子出生,而在这段时间里,拉斯金的生活围绕着保持儿子的生活正常,以及在家、儿子学校和医院之间的无尽往返。“我的整个生活就是汽车和照顾他人,”他说。

他开始在开车时给盖茨戈里(Dennis Gaitsgory)打电话谈论数学。在那些日子里的第一周结束时,拉斯金意识到,他可以将不可约表示的问题简化为证明三个触手可及的事实。“对我来说,这是一个奇妙的时期,”他说。他的个人生活“充满了对未来的焦虑和恐惧。对我来说,数学总是一个非常扎实和冥想的东西,让我摆脱那种焦虑。”

图片

丹尼斯·盖茨戈里(Dennis Gaitsgory),马克思普朗克数学研究所

到2023年初,盖茨戈里(Dennis Gaitsgory)和拉斯金(Sam Raskin),以及阿林金(Dima Arinkin)、罗森布吕姆(Nick Rozenblyum)、费尔格曼(Joakim Færgeman)和另外四位研究人员,已经完成了贝林森(Alexander Beilinson)和德林费尔德(Vladimir Drinfeld)“最佳希望”的完整证明,这一证明经过盖茨戈里和阿林金的修改。(其他研究人员包括伦敦大学学院的达里奥·贝拉尔多(Dario Beraldo)、北京清华大学的陈麟(Lin Chen)、以及芝加哥大学的贾斯廷·坎贝尔(Justin Campbell)和凯文·林(Kevin Lin)。)团队又花了一年时间撰写证明,并于2月在网上发布。虽然这些论文遵循了盖茨戈里在2013年制定的大纲的一些方面,但它们在许多方面简化了他的办法,并且超越了他的工作。“非常聪明的人们为这一巅峰成就贡献了许多新想法,”拉福尔格(Vincent Lafforgue)说道。

“他们不仅仅是证明了这个理论,”本-兹维(David Ben-Zvi)说,“他们还围绕它发展了整个世界。”

图片

陈麟(Lin Chen),清华大学丘成桐数学中心助理教授

 
进一步的征程
对盖茨戈里来说,完成他数十年的梦想远非故事的终点。数学家们面临着一系列进一步的挑战——深入探索与量子物理的联系,将结果扩展到带孔的黎曼曲面,以及弄清对“罗塞塔石碑”其他列的影响。“感觉(至少对我来说)更像是从一块大石头上剥落了一片,我们仍然离核心很远,”盖茨戈里在一封电子邮件中写道。在其他两列工作的研究人员现在迫切希望将他们能做的转化过来。“一个主要部分的落地应该对朗兰兹对应关系产生重大影响,”本-兹维(David Ben-Zvi)说道。并不是所有的成果都能直接转化——例如,在数论和函数域设置中,并没有与几何设置中帮助研究人员构建特征层的共形场论思想相对应的概念。伯克利的托尼·冯(Tony Feng)警告说,许多证明需要经过严肃的调整,才能在其他两列中发挥作用。他表示,还不清楚“我们是否能够将这些思想迁移到一个未曾设计的不同背景中。”

图片

2024-7-22-642.webp

托尼·冯(Tony Feng),加州伯克利大学

但许多研究人员对这些新思想最终能渗透到其他领域持乐观态度。“它将渗透到学科之间的所有障碍中,”本-兹维(David Ben-Zvi)说道。

在过去十年里,研究人员开始发现几何列与其他两列之间的意外联系。“如果[几何朗兰兹猜想]在十年前被证明,那么结果会非常不同,”冯说道。“那时不会意识到它可能会对[几何朗兰兹]社区以外的领域产生影响。”

盖茨戈里(Gaitsgory)、拉斯金(Raskin)及其合作者们已经在将他们的几何朗兰兹证明转化为函数域列方面取得了进展。(盖茨戈里和拉斯金在后者长途驾驶过程中取得的一些发现“仍在继续,”拉斯金暗示道。)如果成功,这一转化将证明比数学家们之前所知或甚至猜测的更为精确的函数域朗兰兹理论版本。

从几何列到数论列的大多数转化都需经过函数域列。然而在2021年,巴黎朱塞尤数学研究所的洛朗·法尔格(Laurent Fargues)和舒尔茨(Peter Scholze)设计了一个舒尔茨称之为“虫洞”的结构,使得几何列的思想可以直接传递到数论朗兰兹程序的某一部分。

“我绝对是现在试图将所有这些几何朗兰兹内容转化的人之一,”舒尔茨(Peter Scholze)说道。随着知识的洪流倾泻成成千上万页的文本,这无疑是一项艰巨的任务。“我现在有几篇论文还没跟上,”舒尔茨说,“正努力阅读他们在2010年左右做的工作。”

图片

戴维·本-兹维(David Ben-Zvi)

现在几何朗兰兹的研究者们终于将他们的长篇证明整理成文,卡拉伊安(Ana Caraiani)希望他们能有更多时间与数论领域的研究人员交流。“这是一些有着非常不同思维方式的人,如果他们能慢下来相互交谈、看到对方的观点,总是会有好处,”她说。她预测,新工作的思想渗透到数论领域只是时间问题。

正如本-兹维(David Ben-Zvi)所言:“这些结果如此稳健,一旦开始,就很难停下来。”

图片
原文作者:Erica Klarreich英文原文链接:https://www.quantamagazine.org/monumental-proof-settles-geometric-langlands-conjecture-20240719/

END

盘点︱2023美国物理学会年度10大亮点

转自:世界科学—-

2023美国物理学会年度10大亮点︱盘点  https://mp.weixin.qq.com/s/hobISBjC4VD5S1M3MZkXeQ

回顾2023年全球的重大科学进展和科学事件,美国物理学会于12月18日在Physics网站公布了该杂志编辑梳理的“年度亮点”工作(Highlights of the Year)。

1 银河系在引力波之间冲浪
今年,物理学界首次探测到纳赫兹引力波存在的证据。这些巨大、超低频的波动在数年到数十年的周期上拉伸和压缩着时空。
四个独立的射电天文学项目——北美的NANOGrav、欧洲和印度的EPTA/InPTA、中国的脉冲星测时阵列、澳大利亚PPTA——合作完成并共同报道了这一重大发现。他们通过记录来自脉冲星的信号到达地球时间的细微变化来探测引力波。
关于纳赫兹引力波的由来,一个最合理的解释是:当两个星系合并时,它们各自中心的超大质量黑洞可能形成双黑洞系统,并在完成合并前相互绕行数千甚至数百万年。此类超大质量天体的运动会产生纳赫兹频率的引力波。当然,也不能排除暗物质或宇宙膨胀相关起源。
计算机模拟得到的成对超大质量黑洞系统
2 透过中微子观察银河系

今年6月,冰立方中微子天文台(IceCube Neutrino Observatory)发布了首张银河系的中微子图像。图像由一系列蓝色、模糊、相连的斑点构成,与另外三种波长(无线电、光学和伽马射线)下的视图大致匹配。
银河系的四个视图。前三个由不同频率的光波(无线电、光学和伽马射线)。第四个是中微子视角下的银河系

冰立方能利用南极绝佳的透明冰川环境研究宇宙中微子,包括一些有史以来最高能的中微子。安装于寒冰深处的光学传感器检测中微子与冰中原子相互作用的信号。研究团队也正是基于这类信号绘制出了银河系图像。

3协调量子力学与广义相对论
量子力学是最棒的物质理论,通过波动方程描述微观粒子的离散(量子化)行为。广义相对论是最好的引力理论,通过时空曲率描述大质量物体的连续(经典)运动。但这两个理论在时空的本质上似乎存在根本分歧:量子波动方程在固定的时空上定义的,广义相对论却说时空是动态的,因物质分布而弯曲。
过去70年来,基础物理学中最重要的问题之一就是协调、统一量子力学与广义相对论。这种统一有两种策略:要么将引力量子化,要么找到一种方法将量子物质引入经典引力框架。大多数努力都围绕前一种展开,不过尚无实验证实量子引力概念。后一种策略在今年取得突破性进展。
伦敦大学学院的乔纳森·奥本海姆(Jonathan Oppenheim)提出一种替代方案:将引力保留于经典理论,并通过概率机制将其与量子理论结合。这种做法过去被认为不可能,因为它会导致不一致。奥本海姆避开了这一问题,付出的代价则是必须将概率引入时空演化。未来的实验可通过探测量子引力来测试上述方案的可行性。

4细胞传输信号所需的最小能量
通信将生物与非生物区别开来。生物体需要不断地与环境交换能量,也需要发送和接收信息。科学家会将能量与信息流(相互交织)的存在视为生命系统的定义特征。
今年,耶鲁大学的物理学家塞缪尔·布莱恩特(Samuel Bryant)和本杰明·马赫塔(Benjamin Machta)推导出了细胞利用电流、分子扩散和声波传输内部信号所需的最小能量。他们的计算表明,最有效的信号机制取决于几个因素,包括信号需要传播的距离——这符合人类日常交流经验:面对面交谈,声波即可传递信息;若远隔重洋,交流双方要靠电磁波了。

5量子网络的中继器
量子技术的进展使量子通信网络成为可能。行业对此感到兴奋——若可做到远距离量子通信,就能实现经典网络无法实现的功能。量子网络在单光子水平上交换信号,因此光子损失是系统的主要误差源。
通过量子中继器作为中间网络节点,可以弥补光子损失;这些节点在相距甚远的网络节点之间创建直接的量子纠缠连接。奥地利因斯布鲁克大学的维克托·克鲁琴斯基(Victor Krutyanskiy)与同事实现了一种基于陷俘离子的量子中继器,并用该中继器将两个独立的长25公里的纠缠链路拼接成一个50公里长的连接。这个距离达到了现实世界量子网络的要求。
量子中继器连接两个网络节点的示意图

6白男与偏见
在今年3月举行的美国物理学会年会(APS March Meeting)上,大家围绕“建立公平的物理学界”这一主题进行了讨论。其中有一项关于白人直男(white, cisgender men)在维持物理学不平等方面所扮演角色的研究:
作者团队采访一组自认为进步且开明的人士,结果发现该群体中的白人直男表现出一致的不知道、不作为和不负责模式。

参与研究的梅丽莎·丹西(Melissa Dancy)表示:“与我们交谈的人似乎都真诚地希望世界公平。教育这类男性如何帮助别人,将改变物理学领域对歧视行为的认知。然后我们就能做出有意义的改变。”

7物理学家能为人工智能做什么?

人工智能和机器学习对物理学的影响力越来越大了。一些应用程序借AI之力检索大量数据,提取有意义的物理见解。不过正如马里兰大学的桑卡尔·萨尔马(Sankar Das Sarma)所言,AI不仅可以成为执行常规任务的工具,还具有发现新概念和新理论、变革物理学的潜力。
萨尔马认为,物理学家不应该只是被动地使用人工智能/机器学习,还要努力理解它为何有效以及何时会失败。
“我们不仅应该问AI能为我们做什么,还应该问我们能为AI做什么。”

8星球安全
研究太阳系混沌的科学家发现,行星在数百万年的时间尺度上会脱离轨道,并可能因此发生碰撞。不过我们的太阳系在十亿年的时间尺度上是稳定的。
今年,巴黎天文台的费德里科·莫加韦罗(Federico Mogavero)、黄南洪(Nam Hong Hoang)和雅克·拉斯卡(Jacques Laskar)揭示了可能阻止灾难性行星撞击的因素。他们确定了太阳系中受特定守恒定律(类似角动量守恒定律)约束的量;这些定律“引导”行星的混沌运动,因此轨道变化需很长时间才能发生。

9分子时钟

计量时间的精度极限在哪里?基于陷俘原子的原子钟是当前的精度天花板,但我们也不应忽视分子钟的进展。
哥伦比亚大学的谭雅·泽莱文斯基(Tanya Zelevinsky)与同事利用锶分子(Sr2)构建得到迄今为止最精确的太赫兹振动分子钟,其计量精度达10-14级别。虽然不如锶原子钟那么精确,但它也足以满足特定物理学应用需求了。例如,研究人员可通过比较由不同锶同位素制成的锶分子钟的计量频率,来寻找假设的重力相关力(gravity-dependent forces)。
运行分子钟需要多个激光器、镜子、棱镜和其他光学组件。

10水波无痕

如果水波、光波或声波撞到理想中的完美吸收体上,它们既不会被反射,也不透射,而是被“吞噬”、消失。巴黎高等物理化工学院的数学物理学家艾格尼丝·莫瑞尔(Agnes Maurel)与同事构建了一条宽6厘米的神奇水道,能完美吸收沿水道传播的水波。水道侧方设计了所谓的谐振腔体,水波遇到谐振腔而产生的反射会刚好抵消水波本身。
设计有谐振腔的完美吸波水道

研究团队相信,在海岸线附近部署此类设计,可以减少侵蚀,保护敏感结构。专家表示,这项新成果可用于降低堤坝的漫溢风险,也有望衍生出获取海浪能量的系统。

资料来源:
Highlights of the Year
END

应该对“大爆炸”理论说再见

最近又一轮宇宙大爆炸理论争论出现,主流更倾向于对“大爆炸”理论说再见!近年来很多主流物理理论都在逐步向龚学靠拢。

最后的“宇宙暴胀理论”之战 | 统一的宇宙 统一的理论 http://www.pptv1.com/?p=1188

是否该对“大爆炸”理论说再见

原文:https://h5.ifeng.com/c/vivo/v002nedUJYv9DmamhTiG7-_DpgrpzMjF-_Y9fAJLp5X1–Y3SE__?isNews=1&vivoBusiness=browser&showComments=0

参考消息网10月25日报道

香港亚洲时报网站9月9日刊登题为《对“大爆炸”理论说再见》的文章,作者是天体物理学家埃里克·勒纳,内容编译如下:

原编者按 《纽约时报》9月3日发表了物理学家亚当·弗兰克和马塞洛·格莱泽的一篇题为《关于我们宇宙的故事可能正在开始瓦解》的文章。两位作者指出,除其他天文学证据之外,詹姆斯·韦布空间望远镜最近的观测结果是对所谓的宇宙学“标准模型”的否定,因而要求科学家“重新思考宇宙起源和发展的关键特征”。他们说,可能需要一场“观念革命”。

“大爆炸”理论声称,我们的宇宙诞生于138亿年前的一次巨大爆炸。“大爆炸”理论是当今科学界最顽固的教条之一。成千上万的科学论文、教科书、通俗读物和文章都把“大爆炸”理论当作一个基本上被证明了的事实。

但实际情况恰恰相反。著名天体物理学家、等离子体物理学家埃里克·勒纳指出,在主流宇宙学家们继续处心积虑企图挽救“大爆炸”理论并诋毁其批评者声誉的同时,这一理论遭到了数量压倒性的天文学证据的否定——而且这些证据还在不断累积中。除从事天体物理学研究外,勒纳还在根据所谓的稠密等离子体聚焦理论对最有前途的一种核聚变能源技术展开探索。勒纳指出,正是我们在地球上的等离子体聚焦实验中观察到的自组织现象,提供了在没有“大爆炸”以及各种为拯救“大爆炸”理论而被临时杜撰出的奇异实体——如暗物质——的情况下理解我们宇宙的天文学过程的关键。

宇宙学存在大危机

随着《纽约时报》9月3日发表亚当·弗兰克和马塞洛·格莱泽一篇题为《宇宙学的危机》的文章(此文在该报网站刊出时题目改为《关于我们宇宙的故事可能正在开始瓦解》),科学界朝着围绕宇宙膨胀“大爆炸”理论正确性的公开辩论又迈出了一大步。

如今,宇宙学存在危机已经不是新闻。近30年来研究人员一直在讨论这一问题,而且自2019年以来这个话题一直受到大众媒体的高度关注。

但是,新鲜和重要的是,像弗兰克和格莱泽这样的知名宇宙学家对新的观测结果的承认意味着我们可能需要“彻底告别”宇宙学“标准模型”,这将要求我们“改变关于宇宙基本组成、甚至可能是关于空间和时间性质的看法”。

事实上,两位作者认为,我们可能需要一个“有关宇宙的新故事”。

两位作者没有明确说出的是,如今已经有一个正在研究人员中广泛讨论的替代“宇宙故事”:这是一个关于宇宙在没有大爆炸即太空膨胀的情况下不断进化的故事。

这个由诺贝尔奖得主汉内斯·阿尔文提出并由他本人及其他许多学者加以阐述的科学假设(有时被称为“等离子体宇宙论”)认为,我们在宇宙中观察到的现象可以用我们在实验室中观察到的物理学现象——即描述电磁学、等离子体、引力和核聚变反应的物理现象——加以解释。

没有宇宙的时间源头,没有膨胀,没有暗物质,也不必有暗能量。依据这一假设,我们发表的学术论文准确预测了新的詹姆斯·韦布空间望远镜的观测结果,并详细阐述了否定“大爆炸”和支持没有暗物质或暗能量的非膨胀宇宙的证据。

“亡羊补牢”难以为继

弗兰克知道这一替代理论。去年12月,他曾在《旁观者》杂志上发表过一篇评论文章,并在文中特别提到我是“宇宙论替代模型”的倡导者,以及艺术与思想学院官网去年8月一篇在宇宙学界和部分公众中引发了广泛争论的题为《“大爆炸”并未发生》的文章作者。

当时,弗兰克写道,詹姆斯·韦布空间望远镜拍摄到的新图片对“标准模型”不构成任何威胁。

他慷慨激昂地自问自答道:“所有这些会对‘大爆炸’理论本身构成挑战吗?一点儿都不会。如果我们知道‘大爆炸’理论指的是宇宙以一种平稳、炽热、致密的状态开始并进入膨胀状态从而导致结构演化的概念,那么就绝对不会,‘大爆炸’理论没有被证伪过。如果说有什么被证明了的话,那就是它证明了这一理论最基本的特点:宇宙演化。韦布空间望远镜的观测结果将强化这样一种观点,即宇宙的确有故事,而且最重要的是,我们正在以某种方式学习讲述这个故事。”

显而易见,在过去9个月中,随着新数据源源不断从韦布望远镜传来,从而让推崇“大爆炸”的宇宙学家们认为该理论只需要“轻微修饰”的希望变得渺茫。弗兰克的观点也有了相当程度的演变。弗兰克曾确信“大爆炸”就是这个故事,但现在他认为,我们可能需要一个“新故事”,甚至是一种“讲述故事的新方式”。

那么,他为什么不直截了当地说“大爆炸”可能从未发生过,宇宙可能没有在膨胀,其进化史可能是一个没有起源的故事呢?

部分问题在于,支持“大爆炸”理论的宇宙学家们不仅必须放弃他们一直反复认为无可置疑的理论,还必须放弃他们一直在使用的方法,而弗兰克和格莱泽似乎还没有准备好这样做。他们写道:“宇宙学与其他科学有所不同。”

这正是他们的谬误所在。事实上科学的方法只有一种,它适用于宇宙学,也适用于其他科学。这种方法从观测开始,通过观测形成归纳(理论假设),然后通过对尚未进行的观测做出预言——即做出关于对未来的具体、定量的预言——来验证这些归纳。

“大爆炸”理论几十年来的预言一直是完全错误的。

正如弗兰克和格莱泽英明地指出的,宇宙学家们非但没有摒弃这一理论,反而反复对它进行修饰,以适应已有的观察结果并掩盖先前的矛盾(正如在安徒生童话《皇帝的新衣》中的那样)。这种“亡羊补牢”式的方法并不是科学的方法。

事实上,就像克罗狄斯·托勒密的本轮学说曾支持了宇宙地心说,而这一学说已经被科学革命彻底否定。

或需全新“宇宙故事”

科学之所以对人类有益,只是因为它能让我们准确预言未来。科学方法与托勒密方法之间的区别,就好比一家能够准确预言其飞机将安全飞越海洋的航空公司,与一家总是发生飞机失事但每次失事后都能给你一个解释的航空公司之间的区别。

30多年前,《天空与望远镜》杂志曾发表我的一篇题为《宇宙学家们的新衣》的文章。令人遗憾的是,这种“皇帝的新衣”效应在宇宙学界中依然十分明显。

正如我当时指出的,高度集权的宇宙学研究资助体制以及争夺此类经费的激烈竞争导致了这样的局面:如果你认为“大爆炸”没有发生,甚至哪怕只是对该理论提出怀疑,那么你就会被认为“不是愚蠢就是不能胜任自己的工作”,并将会得不到任何经费。

近年来,随着基于“大爆炸”理论的预言与观测结果之间出现的落差越来越多,就“大爆炸”理论存在的具体矛盾发表文章(就像我和同事所做的)变得可以接受,但很少有人敢指出这一理论本身的错误。

正如我在文章中所写的,这就如同安徒生童话中的人们被允许说“我可以看到皇帝的肘部”“我可以看到皇帝的膝盖”甚至“我可以看到皇帝的臀部”——但不能说“皇帝根本没穿任何衣服”。

通过撰文称人们也许需要一个全新的“宇宙故事”,弗兰克和格莱泽已经往前迈出了一步。这有点儿像是在说,“你们可以看透皇帝的衣服”。

但是,自由和公开的辩论对于追求科学真理来说是必不可少的。宇宙学家们早该抛弃这样的自我审查,公开说出“大爆炸”膨胀理论可能是完全错误的。

他们也早就应该停止无视认为宇宙是进化、但不是膨胀的,以及宇宙没有过炽热、致密的状态,也不存在整个宇宙的源头的替代理论。

让我们在科学刊物、会议以及大众媒体上开始这场公开辩论吧。在行将沉没的“大爆炸”号宇宙飞船上的弗兰克和格莱泽看来已经穿好了救生衣,但他们还没有做好跳上救援船的准备。

他们不应该再犹豫了。“非大爆炸”号救援船正在旁边随时待命。现在是登上救援船,为宇宙科学描绘新的路线的时候了。

The Unified Universe,The Unified Theory!