ATLAS実験

1. 素粒子物理学の課題

素粒子物理学は、物質を構成する最小の単位(素粒子)と、それらが互いに及ぼし合う力(相互作用)について調べる学問です。素粒子物理学において、現在最も信頼ある理論として、標準理論があります。標準理論において素粒子であると考えられているのは、右の図に示すように物質を作る粒子であるフェルミオン(クオークとレプトン)と、3つの相互作用(電磁、弱、強)を伝える粒子であるゲージボソンです。また、素粒子に(慣性)質量を与える役割を担うヒッグス粒子も標準理論では 素粒子の一つと考えられています。

電弱対称性の破れ、質量の起源などを理論的に説明しうるヒッグス粒子は、長い間未発見でしたが、2012年に我々の参加するATLAS実験とCMS実験において、ついにその存在を確認することに成功しました(左下の図)。この発見は、素粒子物理学が次に向かうべく方向性さえを決めてしまうようなエポックメイキングな大発見です。寄田研では、このヒッグス粒子(ヒッグス機構)の詳細徹底的に理解するべく、一丸・総力戦で取り組んでいます。

標準理論はゲージ対称性を用いて、電磁相互作用と弱い相互作用を統合した電弱相互作用と、強い相互作用が関わる実験事実をほぼ全て説明することができます。しかし、電弱相互作用と強い相互作用の統一、重力相互作用、暗黒物質の存在、などについては標準理論では説明に成功していません。超対称性粒子や余剰次元などの標準理論を超えた現象を発見することも我々の目標の一つです。エネルギーフロンティア実験の醍醐味である新粒子・新現象を発見するべく、検出器からトリガー、高度なテクニックを用いる物理解析まで網羅的かつ精力的に研究を進めています。
LHC-ATLAS実験は、高エネルギー加速器を用いた陽子衝突型実験であり、こういった素粒子物理学の謎を解明しようとしています。

2. LHC-ATLAS実験

素粒子の性質を調べる方法の一つに、粒子を高エネルギーまで加速して衝突させ、反応をみる、というものがあります。それに必要なのが、最先端の科学と技術が詰め込まれた粒子加速器です。スイスのジュネーブにある研究機関CERN(欧州原子核研究機構)の有するLHC(Large Hadron Collider)は、27km(山手線一周ほど)もの円周を持つ大型の粒子加速器です。陽子を電磁力によって何段階にも分けて加速させ、最大で13TeV(7×10^{12}eV, 1eVは電荷1の粒子が1Vの電位差により加速された際に持つ運動エネルギー)ものエネルギーを与えます。極限まで加速された陽子と陽子を衝突させることにより、ビッグバン直後の世界に近い状態を作りだし、通常見ることのできない様々な反応を起こします。

発生した素粒子は、肉眼でも顕微鏡でも見ることができません。これを見るには、検出器を設置し、粒子と検出器の起こす反応から存在を間接的に知る必要があります。LHCに設置された検出器のうちの一つが、ATLAS検出器です。これは直径22m、幅44m程度の円筒型の巨大な検出器であり、様々な粒子を検出することができます。

3. 寄田研究室の取り組み

・物理解析

ヒッグス粒子は2012年にATLAS/CMS両実験で発見され、翌年には質量やスピンが標準模型と無矛盾であること、2018年には第三世代フェルミオン(τ,top,bottom)への結合を発見しました。これらの実験事実はヒッグス粒子が標準模型の予言通りであることを示しています。しかしヒッグス機構は、なぜヒッグス粒子の質量が125GeVなのか、なぜメキシカンハット型のポテンシャル(mu^2<0)を持つのか、などヒッグス機構自身の本質的な問に説明を与えません、すなわち、より本質的な物理が存在していることを示唆します。
 当研究室では、理論的な整合性から予言される新物理探索の解析(トップダウン的アプローチ)と、標準模型の検証から新物理の示唆を絞り込む解析(ボトムアップ的アプローチ)の両面から、標準模型を超える物理現象の発見に向けた研究を行っています。トップダウンの研究の一例としては、超対称性の有力なモデルから予言される長寿命粒子の探索を行っています。超対称性はヒッグス粒子の質量を自然に説明することにとどまらず、3つの力(弱・強・電磁)を統一でき、暗黒物質の候補を与える極めて魅力的な理論であるため、LHCでのメインターゲットとなっています。当研究室はTevatron(LHCの一世代前の加速器)の時代から培った荷電粒子の同定技術(トラッキング)に対する理解を武器とし、現地CERNの最先端で解析設計から物理結果まで、主体的に行っています。また、ボトムアップの研究としては、電弱対称性の破れの検証を目的としたウィークボソン散乱振幅測定を行っています。この散乱過程はヒッグス粒子の存在が散乱振幅の二次の発散をキャンセルしていることを確認できるため、ヒッグス粒子が関わる新物理に極めて感度が高い測定対象です。特に発見される可能性のある複合ヒッグス模型は、メキシカンハット型のポテンシャルの意味付けを行う可能性があり、非常に注目されています。当研究室では高運動量ウィークボソンの研究に深く関わってきた実績を活かし、解析グループを主導的に動かし先駆的な研究成果を挙げてきました。また、LHCと異なる実験での新物理の示唆がLHCで確認できる場合、それらの発見または棄却をいち早く取り組むことも軽いフットワークで行っています。具体的には、2010年代に複数実験で報告されたR(D*)(B中間子のD中間子を伴う崩壊の、τとそれ以外の荷電レプトンへの崩壊確率の比)の標準模型の予言からのズレに対する検証として、レプトクォークの研究があります。ヒッグス粒子のτ粒子への崩壊を軸として培ってきた、τ粒子の実験的取扱いに関する理解を利用して、萌芽的な研究を行っています。
(これらの研究課題は、当研究室スタッフはもちろんのこと学生、他の研究機関の専門家との自由な議論のもと形成された一例であり、今後も継続または新たな研究課題に取り組む可能性があります。)
 ATLAS実験は、検出器ハードウェアー、トリガー回路、物理解析と多岐に渡る技術、専門性がないと、自分たちのやりたいことが達成できません。寄田研究室では、これらをコヒーレントかつ着実に進めるため、博士学生はCERNに長期滞在し(修士学生も数か月/年)、テレビ会議などを駆使して、連絡を充実させ、現場の研究者とともに新しい現象を発見すべく、日々頑張っています。

・飛跡検出器の開発と運用

寄田研究室ではLHCで2022年から予定されているRun3に向けて、Run1から続投している内部飛跡検出器の一部であるシリコンストリップ検出器(通称 SCT)の運用と、2027年から予定されているHL-LHCから実装される内部飛跡検出器ITkの開発に携わっています。
 SCTはLHCの運転開始から10年余りの間非常に安定して良いパフォーマンスをキープし続けてきました。いよいよ最後のランに差し掛かり。放射線損傷という面では最も辛い時期が迫ってきています。その一方で、衝突頻度の向上によりCPU時間及びディスク容量のリソースの観点から飛跡検出器に求められる要求はより高まってきています。Run3での環境を想定した飛跡再構成性能について精査し、様々な物理事象における影響を調べることで最適な運用方法を探し出す研究を行っています。

ITkはまもなく実機の量産が始まるため、安定して様々な観点から安全に品質管理の試験を行うことが出来るよう準備を進めています。約10000個のうち日本では約2000個のモジュールの生産及び管理を担当していますが、管理に用いるデバイスの共通化や情報の共有を行い、全ての個体が同等の品質を保てるようにしています。
 ATLASで取得するデータ量は膨大なため、世界中のコンピュータを使って各検出器の生情報から粒子識別や飛跡の再構成を一括で処理しています。そのため、物理解析者が扱うデータには飛跡情報は詰まっていますが,これら飛跡検出器の情報は残っていません。我々は飛跡検出に専門性を持っているので、扱いの難しい上流の飛跡検出器情報にアクセスすることで新しい飛跡再構成アルゴリズムを開発し、誰も見たことがない領域を探索することが出来ます。
また、実験は ‘モノ’ がないと始めることが出来ないので,こういった検出器開発及び運用が物理解析と同じくらい重要であることを忘れてはなりません。一つ一つの小さな積み重ねが大きな実験と素晴らしい物理結果を作り上げているのです。 

・量子コンピューター技術の応用

将来的に加速器技術の改善によって衝突頻度が向上し、データの統計を素早く貯めることができるようになりますが、一方で扱うデータ量が大幅に増えるためデータ処理にかかる時間も大幅に増えることが懸念されています。中でも飛跡再構成は最も時間のかかる処理のうちの一つであり、トリガー段階(< 数百 ms)で全ての粒子の飛跡を再構成することは現段階でも実現できていません。トリガー段階で全飛跡を用いることが出来れば,ゴミ事象の除去によってより正確なデータ取得判断が出来るようになるだけでなく、飛跡情報を主軸に置いた新しい事象選別が出来るようになります。
 加速器実験において飛跡を再構成するということは、膨大なヒットの中から最適な組み合わせを選び出す問題として捉えることができます。この組合せ最適化問題は、次世代の計算機として近年注目を集めている量子コンピュータが得意とされる分野の一つです。寄田研究室では量子コンピュータ技術に着想を得たデジタルアニーラをベースに、加速実験における飛跡再構成の研究を進めています。実用化までの道のりは遠いですが、新しい技術を用いた基礎研究は将来的に大いに役立つはずです。また、計算機で扱うことのできるビット数も指数関数的に増えておりこの分野の技術は年々飛躍的に進歩しているため、ある段階で急に実用化に近づく可能性もあります。全く新しい技術を用いた次世代に向けた研究です。