AI支援による内視鏡下下垂体手術の
解剖学的構造の識別

内視鏡下下垂体手術において、AIを活用して術中の解剖学的構造の認識を支援する可能性を示した論文です。

Artificial intelligence assisted operative anatomy recognition in endoscopic pituitary surgery

https://doi.org/10.1001/jamanetworkopen.2019.1095

手術支援

要 旨

下垂体腫瘍は重要な神経血管構造に囲まれており、手術中のこれらの構造の識別は困難を伴います。我々は以前、トルコ鞍部の解剖学的構造をセグメント化するAIモデルを開発しました。本研究は、このモデルを適用し、AI支援が臨床医の解剖学的構造の認識に与える影響を調査することを目的としています。参加者は、6枚の画像に対して、最初はAIの支援なしで、その後AIによる支援を受けて、トルコ鞍部のラベリングを行いました。平均DICEスコアと、注釈がトルコ鞍部の重心を含む割合を算出しました。6人の医学生、6人の初期研修医、6人の中堅研修医、6人の専門医が参加しました。全体として、AI支援なしのDICEスコア70.7%から、AI支援ありの77.5%へと、トルコ鞍部の識別が向上しました(+6.7; p < 0.001)。特に医学生はAI支援を最も活用し、DICEスコアが66.2%から78.9%へと向上しました(+12.8; p = 0.02)。この技術は、外科教育を強化し、将来的には手術中の意思決定支援ツールとして活用される可能性があります。


手術映像を基に外科医の動作を解析する
Vision Transformerモデル

手術中の映像から外科医の動作を抽出・解析するAIシステム「SAIS(Surgical AI System)」の開発と性能評価を報告した論文です。

A vision transformer for decoding surgeon activity from surgical videos

https://doi.org/10.1038/s41551-023-01010-8

手術支援

要 旨

術中における外科医の操作は、術後転帰に大きな影響を及ぼします。しかしながら、多くの外科手技において、術中操作の詳細は多様性が大きく、十分に理解されていないのが現状です。本研究では、ロボット支援手術中に一般的に収集される術野映像から、術中の外科的行動の要素を解読するために、Vision Transformer(視覚変換器)と教師ありコントラスト学習を活用した機械学習システムを構築しました。このシステムでは、以下の要素を高精度で識別することが可能です:
〇手術のステップ(サブフェーズ)
〇外科医が実行した個々のアクション
〇それらのアクションの質的評価
〇各映像フレームがアクション解読に寄与する程度(寄与度)
本モデルは、米国と欧州の3つの病院から収集されたデータに基づいて広範な検証を行い、手術映像・術者・施設・手技の違いを超えて汎化可能であることを示しました。さらに、未注釈の術中映像からも、外科技(ジェスチャー)やスキルに関する有用な情報を抽出できることが確認されました。このように、術中行動を高精度に解読可能な機械学習システムは、外科医への技能フィードバックの提供、最適な外科的行動の特定、さらには術中因子と術後転帰の関連解析といった応用が期待されます。