道具

ブログ

Jun 23, 2024

道具

Scientific Reports volume 13、記事番号: 9591 (2023) この記事を引用 573 アクセス 1 Altmetric メトリックの詳細 外科データの定量化と理解により、タスクとタスクの微妙なパターンが明らかになります。

Scientific Reports volume 13、記事番号: 9591 (2023) この記事を引用

573 アクセス

1 オルトメトリック

メトリクスの詳細

外科データの定量化と理解により、タスクとパフォーマンスの微妙なパターンが明らかになります。 人工知能を備えた手術装置を有効にすることで、外科医はパーソナライズされた客観的なパフォーマンス評価、つまり仮想手術支援を得ることができます。 ここでは、センサー付き双極鉗子から得られた外科的解剖におけるツールと組織の相互作用力データを使用して、外科的巧妙さを分析するために開発された機械学習モデルを紹介します。 データモデリングは、さまざまな頭蓋内病変に対する待機的外科治療を含む 50 件の神経外科手術を使用して実行されました。 データ収集は、センサー付き双極鉗子 SmartForceps システムを使用して、さまざまな経験レベルの 13 人の外科医によって行われました。 機械学習アルゴリズムは、3 つの主な目的のための設計と実装を構成しました。つまり、TU-Net を使用してツールを使用するアクティブな期間を取得するための力プロファイルのセグメント化、エキスパートと初心者への手術スキルの分類、および凝固と非凝固の 2 つの主要なカテゴリへの手術タスクの認識です。 -FTFIT深層学習アーキテクチャを使用した凝固。 外科医への最終レポートは、熟練レベルの外科医と比較したパフォーマンス指標グラフとともに、スキルおよびタスクのクラスに分類された認識された力の適用セグメントを含むダッシュボードでした。 約 3.6,000 周期のツール操作を含む 161 時間以上の手術室データ記録が利用されました。 モデリングの結果、TU-Net を使用した力プロファイル セグメンテーションでは加重 F1 スコア = 0.95 および AUC = 0.99、手術スキル分類では加重 F1 スコア = 0.71 および AUC = 0.81、手術スキル分類では加重 F1 スコア = 0.82 および AUC = 0.89 となりました。 FTFIT ニューラル ネットワークに拡張された手作りの機能のサブセットを使用した手術タスク認識。 この研究はクラウド上に新しい機械学習モジュールを提供し、術中の外科パフォーマンスのモニタリングと評価のためのエンドツーエンドのプラットフォームを可能にします。 専門的な接続のための安全なアプリケーションを通じてアクセスすることで、データ駆動型学習のパラダイムが確立されます。

クラウド接続を活用した人工知能 (AI) を組み込んで手術室 (OR) 内および手術室全体のデータを集約することで、医療機器とシステムの最適な使用に関する体系的なフィードバックのための客観的なツールが提供されます。 これは、手術の安全性を向上させ、患者ケアの標準化に向けてデジタル革新を活用するために重要です。 センサー対応でデータ駆動型の外科用デバイスを介して AI を実装すると、見習いに基づく従来の主観的なトレーニングを、客観的で威圧感のないパラダイムに変えることができます1。 手術段階認識によるコンテキスト認識型支援は、手術のパフォーマンスに関する特定の分析フィードバックを通じてトレーニング プロセスをさらに促進および改善できます2。 外科コーチングの新たなフロンティアとして、外科データサイエンスは、そのようなデータの収集、構造化、分析、モデリングを含む新しいフレームワークを通じて定義できます3,4。

外科における機械学習アルゴリズムは、初期段階ではありますが、てんかん、脳腫瘍、脊椎病変、脳血管障害などのさまざまな病状の治療を強化する可能性があります5。 センサー駆動のデータを使用すると、手術手技やワークフローから抽出された意味のある特徴を使用して、外科医の器用さや技術スキルを正確に把握できます。 これは、段階的な外科訓練期間中に定量的なフィードバック指標を提供するのに役立ちます。 器具の動きは、これまで実験室環境におけるパフォーマンスやスキルの識別の運動学的尺度として使用されてきました6、7、8。 スキル評価については、手術ビデオに基づく深層学習ベースの器具追跡システムが実装されており、これは技術スキルの客観的構造化評価 (OSATS) およびロボットスキルのグローバル評価評価 (GEARS) の手動指標に準拠しています9。 結腸直腸手術における手術スキルの評価とナビゲーションは、ビデオ データ上の鉗子の種類と物体認識によって容易に行うことができます10。 さらに、ビデオの時間的パターン分析から抽出された動作特徴の使用により、外科手術の分類と分析が行われました11、12。 手術スキル分析に関する文献の包括的なレビューも出版されています13。 このレビューに含まれる原稿は、ツールと組織の力に限定的に注意を払いながら、運動学データ (61%) とビデオ データ (29%) を使用しました 14,15。 ここで使用された ML モデルは、人工ニューラル ネットワーク (ANN)、隠れマルコフ モデル (HMM)、およびサポート ベクター マシン (SVM) であり、いずれも 80% を超える高い精度を備えていました。 しかし、彼らの発見は、実際の手術から得られたデータが限られており (12%)、外科医に解釈可能で臨床的に適切なフィードバックを提供するためのフレームワーク アプリケーションが欠如していました。

 4 years (n = 4), and one fellow./p>