本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
<画像処理システムの全体構成>
図1は、本実施の形態に係る画像処理システム1000の全体構成を示す模式図である。図1に示すように、画像処理システム1000は、診療装置1と、画像処理装置100とを備える。
診療装置1は、たとえば、術者が患者に対して歯科の診療を行うためのチェアユニットである。「診療」は、歯科医師、歯科助手、歯科大学の先生、歯科大学の学生、および歯科技工士など、歯科における医療従事者(以下、「術者」とも称する。)によって行われる患者に対する診察および治療の少なくともいずれか1つを含む。本実施の形態においては、診療の内容を「診療内容」とも称する。「診察」は、術者が患者の歯科に関する病状および病因などを探ることを含む。本実施の形態においては、診察の内容を「診察内容」とも称する。「治療」は、術者が患者の歯科に関する病気を治すこと、および術者が患者の歯の美容や健康を保つこと(審美治療)を含む。本実施の形態においては、治療の内容を「治療内容」とも称する。「診療内容」は、「診察内容」および「治療内容」の少なくともいずれか1つを含む。術者が患者の歯科に関する病気を治すために行う行動(手当)、および術者が患者の歯の美容や健康を保つために行う行動(手当)を処置とも称し、治療は、1または複数の処置の組み合わせで構成される。本実施の形態においては、処置の内容を「処置内容」とも称する。「治療内容」は、1または複数の「処置内容」を含む。
治療内容の例としては、う蝕治療、根管治療、歯垢除去、インプラント、矯正、およびホワイトニングなどが挙げられるが、術者が患者の歯科に関する病気を治す治療の内容、および術者が患者の歯の美容や健康を保つ審美治療の内容であれば、いずれも治療内容に含まれる。処置内容の例としては、診査、切削、ファイリング、根管洗浄、乾燥、仮封、印象、スケーリング、補綴物の修正、歯周ポケットの測定、吸引、および抜歯などが挙げられるが、術者が患者の歯科に関する病気を治すために行う処置の内容、および術者が患者の歯の美容や健康を保つために行う処置の内容であれば、いずれも処置内容に含まれる。
たとえば、根管治療は、う蝕の進行によって歯の根の中の歯髄(神経や血管など)が炎症または感染を起こしたときに必要となる治療であり、痛んだ歯髄を除去するとともに根管を洗浄・消毒し、再度の感染を防ぐために歯の根の中に詰め物をするといった治療である。根管治療は、処置内容として、診査、抜髄、根管長測定、洗浄・消毒、根管充填、および詰め込み・被せから構成されており、術者は患者に対してこれら各処置を順番に行うことで根管治療を施すことができる。
診査は、術者が患者に対してヒアリングを行ったり、患者の口腔内を検査することで患者の歯科に関する病状および病因を特定して治療方針を立てたりすることを含む処置である。抜髄は、根管治療において、痛んだ歯髄を除去することを含む処置である。根管長測定は、歯髄を除去した後の空洞になった根管の長さを測定することを含む処置である。洗浄・消毒は、空洞になった根管の奥まで洗浄して消毒することを含む処置である。根管充填は、洗浄・消毒後の根管内に細菌が侵入することを防ぐために、根管内に専用の薬剤を埋めることを含む処置である。詰め込み・被せは、根管内にゴムのような詰め物を詰め込み、その上に金属またはファイバー製の土台を作った上で、当該土台に被せ物(クラウン)を被せることを含む処置である。
診療装置1は、チェア11と、ベースンユニット12と、トレーテーブル13と、診療器具15を保持する器具ホルダ14と、フットコントローラ16と、ディスプレイ17と、操作パネル18と、照明装置(オペライト)19と、器具制御装置21と、表示制御装置22と、スピーカ35とを備える。
チェア11は、診療時に患者が座ったり横たわったりするための診療椅子である。チェア11は、患者の頭を支えるヘッドレスト11aと、患者の背中を支える背もたれ11bと、患者の尾尻を支える座面シート11cと、患者の足を支える足置き台11dとを含む。なお、診療装置1は、チェア11に代えて、患者が横たわる診療台を備えてもよい。
ベースンユニット12は、排水口が形成された鉢12aと、コップが載置されるコップ台12bと、コップに給水するための給水栓12cとを含む給水・排水装置である。
トレーテーブル13は、診療時の物置台として用いられる。トレーテーブル13は、チェア11またはチェア11が設置された床から延びるアーム(図示は省略する。)に接続されている。なお、トレーテーブル13は、チェア11またはチェア11が設置された床から延びるアーム(図示は省略する。)によって吊り下げられてもよい。たとえば、トレーテーブル13は、チェア11またはチェア11が設置された床から延びるポール5の上部で分岐するアーム6によって吊り下げられてもよい。術者は、トレーテーブル13をチェア11に対して手動で回動、水平移動、および垂直移動させることができる。診療中において、術者は、トレーテーブル13の上面にトレー30を置くことがある。トレー30には、患者を診療するための1または複数の診療器具が置かれる。
「診療器具」は、ラバーダム防湿一式、ラバーダムシート、根管長測定器、バーセット、ファイル(リーマ)、口角対極、ファールクリップ、ブローチ、洗浄用ニードル、洗浄用シリンジ、仮封材充填器、クレンザー、タービン、ピンセット、バキューム、ミラー、エキスカベーター、探針、および根管材料注入器など、術者によって診療中に用いられる診療用の器具である。なお、診療装置1の器具ホルダ14によって保持される診療器具15も「診療器具」に含まれるが、トレー30には、器具ホルダ14によって保持されない診療器具が主に置かれる。
診療器具15は、たとえば、エアタービンハンドピース、マイクロモータハンドピース、超音波スケーラ、およびバキュームシリンジなどの歯科診療用のインスツルメントであり、器具制御装置21の制御によって駆動する。なお、診療器具15は、これらに限らず、口腔内カメラ、光重合用照射器、根管長測定器、3次元スキャナ、および根管拡大器などであってもよいし、ミラー、注射器、および充填器具など、駆動しない器具であってもよい。
フットコントローラ16は、術者の足踏み操作を受け付ける複数のスイッチ(ペダル)を有する。術者は、これら複数のスイッチの各々に対して所定の機能を割り当てることができる。たとえば、術者は、チェア11の態様を変更する機能をフットコントローラ16のスイッチに対して割り当てることができ、フットコントローラ16が術者による当該スイッチの足踏み操作を受け付けると、当該足踏み操作に基づきヘッドレスト11aなどが駆動する。さらに、術者は、診療器具15を駆動する機能をフットコントローラ16のスイッチに対して割り当てることもでき、フットコントローラ16が術者による当該スイッチの足踏み操作を受け付けると、当該足踏み操作に基づく器具制御装置21の制御によって診療器具15が駆動する。なお、術者は、照明装置19の照明および消灯を制御する機能など、フットコントローラ16のスイッチに対してその他の機能を割り当てることもできる。
ディスプレイ17は、トレーテーブル13に取り付けられており、表示制御装置22の制御によって各種の画像を表示する。
操作パネル18は、チェア11および診療器具15などの動作、あるいは当該動作の設定を行うためのスイッチを含む。たとえば、チェア11を動作させるための入力操作を操作パネル18が受け付けると、当該入力操作に基づきチェア11が動作する。たとえば、診療器具15の回転速度などの設定を行うための入力操作を操作パネル18が受け付けると、当該入力操作に基づき診療器具15の回転速度などの設定を行うことができる。
照明装置19は、チェア11またはチェア11が設置された床から延びるポール5の上部で分岐するアーム6の先端に設けられている。照明装置19は、照明状態と消灯状態とに切り替えることができ、主に患者の口腔内を中心に光を照射することによって術者による診療をサポートする。術者は、アームを動かすことによって、照明装置19の位置を変更することができる。なお、照明装置19に限らず、ディスプレイ17も、ポール5またはアーム6の先端に取り付けられてもよい。
スピーカ35は、術者および患者などに対してアラートを発する音、および診療を補助するアシスト音など、各種の音を出力する。
上述したように構成された診療装置1を用いることで、術者は患者に対して歯科診療を行うことができる。ここで、画像処理システム1000は、歯科診療中の術者および患者の様子を撮影し、撮影によって得られた画像(以下、「撮影画像」とも称する。)を蓄積して記憶するように構成されている。診療中の撮影画像を蓄積して残すことで、診療中に生じたアクシデントを記録することができ、また、歯科診療の教材として撮影画像を用いることもできる。
さらに、本実施の形態においては、画像処理装置100は、診療中の撮影画像などに関するデータと、機械学習がなされたニューラルネットワークを含む推定モデルとを用いて、処置内容ないしは診療内容を推定することができるように構成されている。具体的には、術者においては、患者に対する診療内容を正確かつ容易に把握するといった要望がある。たとえば、歯科医師は、患者を診療したら遅滞なく経過を記録することが義務付けられている。しかしながら、歯科医師は、短時間で効率よく患者を診療することも求められているため、診療中に行った処置ないしは治療の内容を、その都度、記録することができない場合もある。近年、AI(Artificial Intelligence)を用いてデータの分析・学習を行い活用するといった技術が生み出されているが、AI技術を用いて歯科における診療内容などを推定することができれば、正確かつ容易に診療内容などを推定することができ、より利便性のある歯科診療を実現することができる。
ここで、歯科診療ならではの特徴として、診療目的に応じて複数の処置を組み合わせたり、各処置のために複数の診療器具の中から適切な診療器具を選択してトレー30から取り出して使ったりするなど、術者は、診療中に様々な動作を行う。また、診療器具を使う順番およびその種類は、診療中の処置の内容を表しているとも言える。さらに、複数の処置内容の組み合わせから診療内容が表されるといった階層構造にもなっているため、その階層を理解することができれば、診療内容を推定することが可能となる。
そこで、上述したように、本実施の形態に係る画像処理システム1000(画像処理装置100)は、トレー30、診療装置1の動作、術者の行動、および患者の行動を、AIを用いて分析・学習することで、処置内容ないしは診療内容を推定するように構成されている。
診療内容を推定するためには、診療中の撮影画像を用いて画像処理装置100が備えるニューラルネットワークを含む推定モデルを機械学習させる必要があり、そのためには、テスト用の患者に限らず、ときには実際に歯科診療に訪れた患者の様子を撮影することもある。診療中の様子を撮影することに同意する患者もいる一方で、撮影画像にモザイク処理などの特定加工を行うなど個人を特定できない態様であれば撮影に同意する患者もいる。従来、撮影された人物のプライバシーを保護するために、人物の顔が不明確になるように顔画像を加工する技術が公知である。しかしながら、歯科診療の場合、診療内容を推定するためには患者の口腔内または口腔周辺の様子を撮影画像として残すことが必要であり、患者の顔画像全体にモザイク処理などの特定加工を行うことは極力避けたい。そこで、画像処理装置100は、撮影画像から患者の目を含む領域を検出し、患者の目の形状が不明確になるように当該領域に対して特定加工を行うように構成されている。
「特定加工」は、たとえば、画像にモザイクをかける処理、画像をぼかす処理、および画像にマスクをかける処理など、患者の目の形状が不明確になるように画像を加工する処理であればいずれの処理も含む。
ここで、診療中においては患者が動いたり、術者によって患者の顔の一部が隠されたりすることで、画像処理装置100が患者の目を検出できない場合もある。そのような場合に、撮影画像に対して特定加工を一切行わないとすれば、不意に患者の目が撮影画像として残されてしまうおそれがある。そこで、画像処理装置100は、撮影画像に写された患者の目を検出できない場合の対処として、患者がチェア11に位置した状態で予測される目を含む領域に対して特定加工を行うように構成されている。以下、画像処理装置100における診療内容の推定および撮影画像に対する特定加工について具体的に説明する。
図1に示すように、診療装置1には、複数のカメラが取り付けられている。具体的には、画像処理システム1000は、ディスプレイ17に取り付けられたトレーカメラ51と、ポール5の上部に取り付けられた全体カメラ52と、照明装置19に取り付けられた患者カメラ53と、チェア11の背後に取り付けられた背面カメラ54とを備える。
トレーカメラ51は、トレー30を少なくとも含む領域を動画または静止画で撮影するように配置されている。トレーカメラ51によって得られた撮影情報を含む画像データ(以下、「トレー画像データ」とも称する。)は、画像処理装置100によって取得される。トレーカメラ51におけるシャッタースピードなどの各種設定は、トレー30に置かれた診療器具の有無、形状、種類、およびトレーカメラ51の撮影領域における診療器具の位置などを画像処理装置100が認識できる程度に予め調整されている。なお、トレーカメラ51は、トレー30を少なくとも含む領域を撮影することができる場所であれば、いずれの場所に設置されてもよい。
全体カメラ52は、診療装置1を含む診療空間を少なくとも含む領域を動画または静止画で撮影するように配置されている。具体的には、全体カメラ52は、診療装置1を用いた診療中の診療空間における、少なくとも、歯科医師、歯科助手、および患者を含む広い領域を動画または静止画で撮影するように配置されている。全体カメラ52は、ポール5の上部に取り付けられているため、診療中の歯科医師、歯科助手、および患者の各々の行動と、診療装置1の動作とを上空から俯瞰して撮影する。
「診療空間」は、診療空間に含まれるオブジェクト全体を含む空間に限らず、診療中の術者、患者、および診療装置1など、診療空間に含まれるオブジェクトのうちの一部のオブジェクトを含む空間であってもよい。全体カメラ52によって得られた撮影情報を含む画像データ(以下、「全体画像データ」とも称する。)は、画像処理装置100によって取得される。全体カメラ52におけるシャッタースピードなどの各種設定は、診療中の歯科医師や歯科助手などの術者の行動、患者の行動、および診療装置1の動作などを画像処理装置100が認識できる程度に予め調整されている。
なお、全体カメラ52は、患者を診療する診療空間を少なくとも含む領域を撮影することができる場所であれば、いずれの場所に設置されてもよい。全体カメラ52は、診療空間を平面で認識する他に、診療空間を奥行き方向で認識可能なデプスカメラであってもよい。全体カメラ52は、診療空間を全方位で撮影可能な360度カメラであってもよい。さらに、全体カメラ52は、診療空間に存在する撮影対象(たとえば、術者および患者などの人物)を追尾することができるものであってもよい。
患者カメラ53は、患者の口腔内を少なくとも含む領域を動画または静止画で撮影するように配置されている。通常、診療中においては、照明装置19が患者の顔の正面に位置するため、照明装置19に取り付けられた患者カメラ53は、自然と患者の顔を含む領域を正面から撮影することができる。患者カメラ53によって得られた撮影情報を含む画像データ(以下、「患者画像データ」とも称する。)は、画像処理装置100によって取得される。患者カメラ53におけるシャッタースピードなどの各種設定は、診療中の患者の口腔内を画像処理装置100が認識できる程度に予め調整されている。
なお、患者カメラ53は、患者の口腔内を少なくとも含む領域を撮影することができる場所であれば、いずれの場所に設置されてもよい。患者カメラ53は、口腔周辺の部位と診療器具とにおける奥行き方向(たとえば、患者カメラ53から患者を見る方向)の位置関係を画像処理装置100が検出できるように、全体カメラ52と同様に三次元の位置座標を検出可能であってもよい。
背面カメラ54は、診療装置1のチェア11の背面から、チェア11に位置する患者を少なくとも含む領域を動画または静止画で撮影するように配置されている。背面カメラ54によって得られた撮影情報を含む画像データ(以下、「背面画像データ」とも称する。)は、画像処理装置100によって取得される。背面カメラ54におけるシャッタースピードなどの各種設定は、チェア11位置する患者およびチェア11の周辺を画像処理装置100が認識できる程度に予め調整されている。
上述したトレー画像データ、全体画像データ、患者画像データ、および背面画像データをまとめて「画像関連データ」とも称する。なお、「画像関連データ」という用語は、トレー画像データ、全体画像データ、患者画像データ、および背面画像データの全てを意味する場合もあるが、トレー画像データ、全体画像データ、患者画像データ、および背面画像データのうちの少なくともいずれか1つを意味する場合もある。
画像処理装置100は、主にトレー画像データおよび患者画像データに基づき、撮影画像に含まれる診療器具などのオブジェクトの有無やその種類を検出する。画像処理装置100は、主に全体画像データおよび背面画像データに基づき、撮影画像に含まれる歯科医師、歯科助手、および患者などの人物の位置を検出する。「画像関連データ」は、上述した画像処理装置100による検出結果を含んでいてもよい。つまり、「画像関連データ」は、トレー画像データ、全体画像データ、患者画像データ、および背面画像データそのものを含んでいてもよいし、これらのデータに基づき画像処理装置100の画像認識によって取得された検出結果を含んでいてもよい。
画像処理装置100は、取得した各種のデータに基づき、診療装置1を用いて行われた患者に対する診療の内容を推定するコンピュータ(後述する演算装置102)を搭載する。具体的には、画像処理装置100は、診療装置1に取り付けられたトレーカメラ51、全体カメラ52、患者カメラ53、および背面カメラ54の少なくともいずれか1つから、画像データを取得する。
なお、本実施の形態においては、表示装置110が画像処理装置100に接続されているが、表示装置110に限らずキーボードやマウスなどの操作ツール(ユーザインターフェース)が画像処理装置100に接続されていてもよい。
<患者カメラの撮影画像>
図2は、患者カメラ53の撮影画像の一例を説明するための図である。図2に示すように、患者カメラ53によって、患者2の顔を少なくとも含む領域が撮影される。診療中においては、患者の口腔内において診療器具を用いた歯科診療が行われることになるが、患者カメラ53の撮影画像には、診療中における患者の顔およびその周辺の状況が表される。
画像処理装置100は、患者カメラ53の撮影画像に対応する患者画像データを画像認識などで分析することで、診療中の術者の行動、患者の行動、使用されている診療器具の種類、および診療器具の位置などを特定することができる。
<全体カメラの撮影画像>
図3は、全体カメラ52の撮影画像の一例を説明するための図である。図3に示すように、全体カメラ52によって、診療空間を少なくとも含む領域が撮影される。診療中においては、術者によって診療器具を用いた歯科診療が行われることになるが、全体カメラ52の撮影画像には、診療中の術者(歯科医師3または歯科助手4)の行動、患者2の行動、使用されている診療器具の種類、診療器具の位置、および診療装置1の動作などが表される。
画像処理装置100は、全体カメラ52の撮影画像に対応する全体画像データを画像認識などで分析することで、診療中の術者の行動、患者の行動、使用されている診療器具の種類、診療器具の位置、および診療装置1の動作などを特定することができる。
<背面カメラの撮影画像>
図4は、背面カメラ54の撮影画像の一例を説明するための図である。図4に示すように、背面カメラ54によって、チェア11の背面から、チェア11に位置する患者2を少なくとも含む領域が撮影される。診療中においては、術者によって診療器具を用いた歯科診療が行われることになるが、背面カメラ54の撮影画像には、診療中の術者(歯科医師3または歯科助手4)の行動、患者2の行動、使用されている診療器具の種類、診療器具の位置、および診療装置1の動作などが表される。
画像処理装置100は、背面カメラ54の撮影画像に対応する背面画像データを画像認識などで分析することで、診療中の術者の行動、患者の行動、使用されている診療器具の種類、診療器具の位置、および診療装置1の動作などを特定することができる。
<画像処理システムの内部構成>
図5は、本実施の形態に係る画像処理システム1000の内部構成を示すブロック図である。図5に示すように、画像処理システム1000は、複数のカメラ(トレーカメラ51、全体カメラ52、患者カメラ53、背面カメラ54)と、診療装置1と、画像処理装置100とを備える。
[診療装置の内部構成]
診療装置1は、チェア11と、器具制御装置21と、表示制御装置22と、音制御装置32と、ベースンユニット12とを備える。診療装置1の内部において、チェア11、器具制御装置21、表示制御装置22、音制御装置32、およびベースンユニット12の各々は、CAN(Controller Area Network)通信を介してデータの送受信を行うことができる。また、診療装置1は、画像処理装置100との間で、有線または無線のLAN(Local Area Network)通信、たとえばWiFiによる通信を介してデータの送受信を行うことができる。なお、診療装置1は、画像処理装置100との間で、USB(Universal Serial Bus)接続による通信を介してデータの送受信を行ってもよい。
チェア11は、ヘッドレスト11aと、背もたれ11bと、座面シート11cと、足置き台11dとを含み、これらの各々は、チェア制御部111の制御に基づき駆動する。具体的には、チェア制御部111は、フットコントローラ16または操作パネル18によって受け付けられた術者の操作に基づく制御データ、あるいは、画像処理装置100からの制御データを受信すると、当該制御データに基づき、座面シート11cを上昇または下降させたり、ヘッドレスト11a、背もたれ11b、および足置き台11dを座面シート11cに対して垂直方向または水平方向に移動させたりする。ヘッドレスト11a、背もたれ11b、および足置き台11dが座面シート11cに対して垂直方向に位置すると、チェア11が起立した態様となる。これにより、患者がチェア11に座った姿勢になる。ヘッドレスト11a、背もたれ11b、および足置き台11dが座面シート11cに対して水平方向に位置すると、チェア11が傾斜した態様となる。これにより、患者がチェア11に横たわり、仰向け姿勢になる。このように、チェア制御部111は、ヘッドレスト11a、背もたれ11b、座面シート11c、および足置き台11dを駆動させてチェア11の姿勢を変更する。
器具制御装置21は、器具制御部211を含む。器具制御部211は、フットコントローラ16または操作パネル18によって受け付けられた術者の操作に基づく制御データ、あるいは、画像処理装置100からの制御データを受信すると、当該制御データに基づき、診療器具15の駆動または設定内容を制御する。たとえば、術者が、フットコントローラ16におけるエアタービンハンドピースを駆動するためのスイッチを足踏み操作すると、器具制御装置21は、エアタービンハンドピースのヘッド部に保持された切削工具を回転させる。たとえば、画像処理装置100が、エアハンドピースの回転方向または回転速度などを制御するための制御データを出力すると、器具制御装置21は、制御データに基づき、エアタービンハンドピースの回転方向または回転速度などを設定する。このように、器具制御装置21は、フットコントローラ16または操作パネル18に対する術者の操作に基づき診療器具15の駆動を制御する。
表示制御装置22は、ディスプレイ制御部221と、パネル制御部222とを含む。ディスプレイ制御部221は、画像処理装置100からの制御データを受信すると、当該制御データに基づき、ディスプレイ17を制御する。パネル制御部222は、画像処理装置100の制御に基づく制御データを受信すると、当該制御データに基づき、操作パネル18を制御する。
音制御装置32は、音制御部321を含む。音制御部321は、画像処理装置100からの制御データを受信すると、当該制御データに基づき、スピーカ35を制御する。
ベースンユニット12は、ベースン制御部121と、照明制御部122とを含む。ベースン制御部121は、画像処理装置100からの制御データを受信すると、当該制御データに基づき、ベースンユニット12における給水および排水を制御する。照明制御部122は、画像処理装置100からの制御データを受信すると、当該制御データに基づき、照明装置19の照明および消灯を制御する。
上述したチェア制御部111、器具制御部211、ディスプレイ制御部221、パネル制御部222、音制御部321、ベースン制御部121、および照明制御部122の各々は、図示しない基板上に実装されたCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random access memory)などによって構成される。なお、チェア制御部111、器具制御部211、ディスプレイ制御部221、パネル制御部222、音制御部321、ベースン制御部121、および照明制御部122の各々は、予め診療装置1に備え付けられていてもよいし、モジュール化されることでオプションとして任意に診療装置1に取り付け可能であってもよい。
チェア制御部111、器具制御部211、ディスプレイ制御部221、パネル制御部222、音制御部321、ベースン制御部121、および照明制御部122の各々におけるCAN通信では、各制御部におけるログデータを含む診療関連データを通信パケットにして、制御部間で互いに通信が行われる。なお、制御部間の通信では、診療関連データが送受信されさえすれば当該診療関連データを必ずしも通信パケットにする必要はない。
「診療関連データ」は、診療装置1が備えるチェア11、ベースンユニット12、照明装置19、器具制御装置21、表示制御装置22、診療器具15、フットコントローラ16、ディスプレイ17、操作パネル18の少なくともいずれか1つにおける過去および現在の少なくとも1つの制御データを含む。たとえば、上述したように、「診療関連データ」は、診療装置1が備えるチェア11、ベースンユニット12、照明装置19、器具制御装置21、表示制御装置22、診療器具15、フットコントローラ16、ディスプレイ17、および操作パネル18の各々における動作および制御の履歴を示すログデータを含む。なお、「診療関連データ」は、ログデータのように各種装置における動作および制御の履歴データに限らず、各種装置における動作および制御のリアルタイムのデータを含んでいてもよい。さらに、「診療関連データ」は、各種装置における現在のステータスに関するデータを含んでいてもよい。たとえば、「診療関連データ」は、チェア11の現在の態様(姿勢および位置など)を特定するためのデータを含んでいてもよい。
ベースンユニット12は、診療装置1内のログデータを含む診療関連データを蓄積する蓄積部123と、蓄積部123によって蓄積された診療関連データを通信によって画像処理装置100に出力するための通信部124とを含む。
蓄積部123は、チェア制御部111、器具制御部211、ディスプレイ制御部221、パネル制御部222、音制御部321、ベースン制御部121、および照明制御部122の各々との間でCAN通信することで、各制御部から診療関連データを収集して蓄積する。蓄積部123は、図示しない基板上に実装されたROMまたはRAMなどのメモリによって構成されてもよいし、メモリカードなどの不揮発の記憶媒体で構成されてもよい。
通信部124は、有線または無線のLAN通信、あるいはUSB接続によって画像処理装置100との間で通信する。なお、蓄積部123がメモリカードなどの不揮発の記憶媒体で構成されている場合、画像処理装置100は、通信装置101によって診療装置1の通信部124を介して、当該記憶媒体に蓄積されている診療関連データを取得してもよい。また、画像処理装置100は、一時的に記憶する揮発性の記憶媒体を介して、CAN通信に流れている診療関連データを、直接的に取得してもよい。
[画像処理装置の内部構成]
画像処理装置100は、通信装置101と、演算装置102と、記憶装置103とを備える。
通信装置101は、診療装置1との間で通信する一方で、トレーカメラ51、全体カメラ52、患者カメラ53、および背面カメラ54の各々との間で通信可能である。通信装置101は、有線または無線のLAN通信、あるいはUSB接続によって各カメラとの間で通信することで、各カメラから画像関連データを取得する。なお、通信装置101は、その他の形式で各カメラから画像関連データを取得してもよい。たとえば、通信装置101は、各カメラから取り出されたメモリカードなどの不揮発の記録媒体に一時的に記録される画像関連データを取得してもよい。なお、診療装置1との間の通信と、各カメラとの間の通信とは、互いに別の装置で行われてもよい。
通信装置101は、有線または無線のLAN通信、あるいはUSB接続によって診療装置1との間で通信することで、診療装置1から診療関連データを取得する。なお、通信装置101は、その他の形式で診療装置1から診療関連データを取得してもよい。たとえば、上述したように、蓄積部123がメモリカードなどの不揮発の記憶媒体で構成されている場合、画像処理装置100は、通信装置101によって診療装置1の通信部124を介して、当該記憶媒体に蓄積されている診療関連データを取得してもよい。
演算装置102は、各種のプログラムを実行することで、各種の処理を実行する演算主体(コンピュータ)である。演算装置102は、たとえば、CPU、FPGA(Field-Programmable Gate Array)、およびGPU(Graphics Processing Unit)などで構成される。
なお、演算装置102は、CPU、FPGA、およびGPUのうちの少なくともいずれか1つで構成されてもよいし、CPUとFPGA、FPGAとGPU、CPUとGPU、あるいはCPU、FPGA、およびGPUから構成されてもよい。また、演算装置102は、演算回路(processing circuitry)で構成されてもよい。
記憶装置103は、演算装置102が任意のプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する揮発性の第1記憶領域(たとえば、ワーキングエリア)を含む。たとえば、記憶装置103は、DRAM(Dynamic Random Access Memory)またはSRAM(Static Random Access Memory)などの揮発性メモリデバイスで構成される。さらに、記憶装置103は、不揮発性の第2記憶領域を含む。たとえば、記憶装置103は、ハードディスクまたはSSD(Solid State Drive)などの不揮発性メモリデバイスで構成される。
なお、本実施の形態においては、揮発性の第1記憶領域と不揮発性の第2記憶領域とが同一の記憶装置103に含まれる例を示したが、揮発性の第1記憶領域と不揮発性の第2記憶領域とが互いに異なる記憶装置に含まれていてもよい。たとえば、演算装置102が揮発性の第1記憶領域を含んでいてもよい。画像処理装置100は、演算装置102と、記憶装置103とを含むマイクロコンピュータを備えていてもよい。
記憶装置103は、画像処理装置100が備えるものに限らない。たとえば、診療装置1に通信可能に接続された院内サーバが記憶装置103を備えていてもよいし、診療装置1が設置された診療空間外に設置された院外サーバが記憶装置103を備えていてもよい。さらに、記憶装置103は、複数の診療装置1のそれぞれが備える複数の画像処理装置100が通信可能なクラウドコンピューティングの態様で存在してもよい。このようにすれば、複数の診療装置1から取得した画像関連データおよび診療関連データを記憶装置103によって一律に蓄積しかつ管理することができる。
記憶装置103は、推定モデル161と、推定プログラム141と、画像処理プログラム142とを格納する。
推定モデル161は、たとえば、ニューラルネットワークと、ニューラルネットワークにおける処理で用いられるパラメータ(判定閾値、重み係数など)とを含み、各カメラから取得した画像関連データおよび診療装置1から取得した診療関連データの少なくともいずれか1つに基づき、患者の診療内容を推定するために用いられる。推定モデル161は、画像関連データおよび診療関連データの少なくともいずれか1つに基づき機械学習を行うことで最適化(調整)される。具体的には、推定モデル161は、ニューラルネットワークにおける処理で用いられるパラメータが教師データ(たとえば、画像関連データおよび診療関連データと、正解データである診療内容とのセット)などに基づいて適正化されることで、患者の診療内容の推定精度を向上させることができる。
なお、演算装置102が診療内容を推定する処理を「推定処理」とも称し、演算装置102が推定モデルを学習する処理を「学習処理」とも称する。さらに、学習処理によって最適化された推定モデルを、特に「学習済モデル」とも称する。つまり、本実施の形態においては、学習前の推定モデルおよび学習済みの推定モデルをまとめて「推定モデル」と総称する一方で、特に、学習済みの推定モデルを「学習済モデル」とも称する。なお、画像関連データおよび診療関連データは、診療内容の推定処理に用いられるため、まとめて「推定用データ」とも称される。
推定プログラム141は、演算装置102が推定処理および学習処理を実行するためのプログラムである。なお、画像処理装置100は、推定処理によって得られた推定結果に基づき、各制御対象を制御するための制御データを生成するとともに、生成した制御データを各制御対象に出力する制御プログラムを含んでいてもよい。
画像処理プログラム142は、各カメラから取得した画像関連データを用いて、各カメラによって得られた撮影画像に対して画像処理を実行するためのプログラムである。具体的には、画像処理プログラム142は、AIを用いて画像認識を行うためのソースコードを含む。演算装置102は、画像処理プログラム142を実行することで、撮影画像に含まれる患者の目(片目または両目)、頭、耳、および鼻の位置を検出したり、チェア11のヘッドレスト11aの位置を検出したりする。さらに、演算装置102は、画像処理プログラム142を実行することで、撮影画像に含まれる患者の目にモザイク処理などの特定加工を行ったり、患者の目を検出できない場合には患者を含む予め定められた撮影画像の領域に対して特定加工を行ったりする。
画像処理装置100には、表示装置110が接続されている。表示装置110は、たとえば、推定した診療内容または処置内容を示す画像など、各種の画像を表示する。なお、表示装置110に限らずキーボードやマウスなどの操作ツール(ユーザインターフェース)が画像処理装置100に接続されていてもよく、術者などのユーザによって学習処理用のデータが入力されるように構成されてもよい。表示装置110は、画像処理装置100が備えていてもよい。
上述した例では、画像処理装置100が診療装置1と別体となるように構成されていたが、画像処理装置100は、エッジコンピューティングの態様で、診療装置1の内部に小型のコンピュータとして実装されてもよい。この場合、画像処理装置100は、診療装置1に含まれるチェア11、器具制御装置21、表示制御装置22、音制御装置32、およびベースンユニット12の各々との間で、CAN通信を介してデータの送受信を行ってもよい。
<診療内容の推定の一例>
図6を参照しながら、画像処理装置100による診療内容の推定の一例について説明する。図6は、推定用の同期データの一例を説明するための図である。なお、図6には、画像関連データを用いて根管治療を推定する例が示されている。
診療中においては、トレーカメラ51によって、シャッタータイミングに依存する所定のタイミングごとに、トレー30に置かれた1または複数の診療器具が撮影される。画像処理装置100は、トレーカメラ51の撮影画像のデータ(トレー画像データ)が入力されると、画像認識によって、撮影画像に含まれる特徴量を抽出する。
たとえば、図6に示すように、画像処理装置100は、所定の同期タイミング(T1、T2、T3、…)ごとに、トレー30に置かれた診療器具の有無、形状、種類、および位置などを推定し、トレー30上に存在する診療器具に対応する記憶領域に「0」のデータを格納し、トレー30上に存在しない診療器具に対応する記憶領域に「1」のデータを格納する。これにより、図6に示すように、画像処理装置100は、同期タイミングごとに診療器具の有無を区別可能な推定用データ(トレー画像データ)を得ることができる。
診療中においては、患者カメラ53によって、シャッタータイミングに依存する所定のタイミングごとに、患者の口腔内が撮影される。画像処理装置100は、患者カメラ53の撮影画像のデータ(患者画像データ)が入力されると、画像認識によって、撮影画像に含まれる特徴量を抽出する。
たとえば、図6に示すように、画像処理装置100は、所定の同期タイミング(T1、T2、T3、…)ごとに、患者の口腔内における診療器具の位置などを推定し、診療器具と患者の唇、または診療器具と患者の頬との位置関係において、両者が所定範囲内に位置しない場合に記憶領域に「0」のデータを格納し、両者が所定範囲内に位置する場合に記憶領域に「1」のデータを格納する。これにより、画像処理装置100は、同期タイミングごとに患者の口腔内における診療器具の位置を特定可能な推定用データ(患者画像データ)を得ることができる。
診療中においては、全体カメラ52によって、シャッタータイミングに依存する所定のタイミングごとに、術者および患者の行動、診療装置1の動作などが撮影される。画像処理装置100は、全体カメラ52の撮影画像のデータ(全体画像データ)が入力されると、画像認識によって、撮影画像に含まれる特徴量を抽出する。
たとえば、図6に示すように、画像処理装置100は、所定の同期タイミング(T1、T2、T3、…)ごとに、歯科医師または歯科助手などの術者の行動、患者の行動、および診療装置1の動作などを推定し、術者と患者、または診療器具と患者との位置関係において、両者が所定範囲内に位置しない場合に記憶領域に「0」のデータを格納し、両者が所定範囲内に位置する場合に記憶領域に「1」のデータを格納する。これにより、画像処理装置100は、同期タイミングごとに術者の行動、患者の行動、および診療装置1の動作を特定可能な推定用データ(全体画像データ)を得ることができる。
診療中においては、背面カメラ54によって、シャッタータイミングに依存する所定のタイミングごとに、術者および患者の行動、診療装置1の動作などが撮影される。画像処理装置100は、背面カメラ54の撮影画像のデータ(背面画像データ)が入力されると、画像認識によって、撮影画像に含まれる特徴量を抽出する。
たとえば、図6に示すように、画像処理装置100は、所定の同期タイミング(T1、T2、T3、…)ごとに、歯科医師または歯科助手などの術者の行動、患者の行動、および診療装置1の動作などを推定し、術者と患者、または診療器具と患者との位置関係において、両者が所定範囲内に位置しない場合に記憶領域に「0」のデータを格納し、両者が所定範囲内に位置する場合に記憶領域に「1」のデータを格納する。これにより、画像処理装置100は、同期タイミングごとに術者の行動、患者の行動、および診療装置1の動作を特定可能な推定用データ(背面画像データ)を得ることができる。
画像処理装置100は、上述したようにして得られた推定用データに基づき、診療内容または処置内容を推定するための特徴を見出すことで、診療内容または処置内容を推定することができる。
<画像処理装置の機能構成>
図7は、本実施の形態に係る画像処理装置100の機能構成を示すブロック図である。図7に示すように、画像処理装置100は、主な機能部として、入力部1101と、画像処理部1102と、記憶部1103とを備える。なお、入力部1101は、通信装置101の機能部であり、画像処理部1102は、演算装置102の機能部であり、記憶部1103は、記憶装置103の機能部である。
入力部1101は、撮影部501による撮影によって得られた撮影画像を取得する。撮影部501は、全体カメラ52、患者カメラ53、および背面カメラ54といった各カメラの機能部である。撮影部501は、時系列で患者を撮影し、入力部1101には、撮影部501から時系列で撮影された複数の撮影画像が時系列に入力される。
画像処理部1102は、入力部1101に時系列で入力される複数の撮影画像の各々に対して特定加工を行う。具体的には、画像処理部1102は、入力部1101に入力された撮影画像から患者の目を含む領域の検出を試みる。画像処理部1102は、撮影画像から患者の目を含む領域を検出した場合、患者の目の形状が不明確になるように当該領域に対して特定加工を行う。一方、画像処理部1102は、患者の目を含む領域を検出しなかった場合、患者がチェア11に位置した状態で予測される目を含む領域に対して特定加工を行う。
このように、画像処理装置100は、患者の目を含む領域を検出した場合は、特定加工によって当該領域の画像を加工し、患者の目を含む領域を検出しなかった場合は、患者がチェア11に位置した状態で予測される目を含む領域に対して特定加工を行うため、撮影された患者のプライバシーを適切に保護することができる。
画像処理部1102は、上述したような検出領域に対する特定加工を、記憶装置103における揮発性の第1記憶領域において行う。具体的には、画像処理部1102は、第1記憶領域において過去の記憶情報を上書きしながら検出領域に対する特定加工を行う。一方、画像処理部1102は、加工後の撮影画像を、記憶装置103における不揮発性の第2記憶領域に蓄積して記憶する。
これにより、揮発性の第1記憶領域においては過去の記憶情報が残らないため、記憶装置103が記憶するデータ量の増大を抑えることができる。さらに、不揮発性の第2記憶領域においては加工後の撮影画像を蓄積して記憶することができる。
<画像処理装置の画像処理>
図8を参照しながら、画像処理装置100が実行する画像処理について説明する。図8は、本実施の形態に係る画像処理装置100が実行する画像処理の一例を説明するためのフローチャートである。図8に示す各ステップ(以下、「S」で示す。)は、画像処理装置100の演算装置102が画像処理プログラム142を実行することで実現される。なお、画像処理装置100は、診療中に限らず画像処理を常に繰り返し実行してもよいし、患者がチェア11に座った後に画像処理を繰り返し実行してもよいし、患者がチェア11に座って診療が開始された後に画像処理を繰り返し実行してもよい。また、画像処理装置100は、全体カメラ52、患者カメラ53、および背面カメラ54の各々について画像処理を実行する。
図8に示すように、画像処理装置100は、全体カメラ52、患者カメラ53、および背面カメラ54のうちの少なくともいずれか1つから撮影画像を取得する(S1)。画像処理装置100は、撮影画像に含まれる領域のうちから患者が位置する領域(以下、「患者領域」とも称する。)を設定する(S2)。たとえば、画像処理装置100は、チェア11の高さおよび傾斜角度の少なくともいずれかに基づき割り出した患者の頭の予測領域、あるいは、AIを用いた画像認識により取得したヘッドレスト11aの位置から割り出した患者の頭の予測領域を含む領域を、患者領域として設定する。患者領域は、「第2領域」に対応する。
画像処理装置100は、撮影画像に含まれる患者の両目を含む領域を検出したか否かを判定する(S3)。患者の両目を含む領域は、「第1領域」に対応する。画像処理装置100は、患者の両目を含む領域を検出した場合(S3でYES)、検出した両目を含む領域に対して特定加工を行う(S4)。
画像処理装置100は、患者の両目を含む領域を検出しなかった場合(S3でNO)、患者の片目(右目または左目)を含む領域を検出したか否かを判定する(S5)。患者の片目を含む領域は、「第3領域」に対応する。画像処理装置100は、患者の片目を含む領域を検出した場合(S5でYES)、検出した片目を含む領域に基づき両目を含む領域を予測する(S6)。具体的には、画像処理装置100は、検出した片目の位置および形状(たとえば、目頭や目尻を含む形状など)の少なくともいずれかに基づき他方の目の位置を予測することで両目の位置を予測する。画像処理装置100は、今回S1で取得した撮影画像に含まれる領域のうち、予測した両目を含む領域に対して特定加工を行う(S4)。
画像処理装置100は、患者の片目を含む領域を検出しなかった場合(S5でNO)、患者の目を含む領域を検出できない時間が所定時間以内であるか否かを判定する(S7)。画像処理装置100は、患者の目を含む領域を検出できない時間が所定時間以内である場合(S7でYES)、記憶装置103に記憶していた過去に加工済みの撮影画像に基づき、S1で取得した撮影画像に対して特定加工を行う(S8)。具体的には、画像処理装置100は、記憶装置103に記憶していた直近の加工済みの撮影画像から患者の両目を含む領域を特定し、今回S1で取得した撮影画像に含まれる領域のうち、加工済みの撮影画像から特定した両目を含む領域に対して特定加工を行う。
画像処理装置100は、患者の目を含む領域を検出できない時間が所定時間を超えた場合(S7でNO)、目以外の他部分を含む領域を検出したか否かを判定する(S9)。他部分を含む領域は、「第4領域」に対応する。他部分は、患者の頭、患者の肩、患者の耳、患者の鼻、患者の眉毛、およびチェア11のヘッドレスト11aのうちの少なくとも1つを含む。画像処理装置100は、他部分を含む領域を検出した場合(S9でYES)、検出した他部分を含む領域に基づき両目を含む領域を予測する(S6)。具体的には、画像処理装置100は、検出した他部分の位置および形状の少なくともいずれかに基づき両目の位置を予測する。たとえば、画像処理装置100は、患者の両眉毛および鼻を検出することができれば、両眉毛の下かつ鼻の両脇を含む領域に両目が位置すると予測することができる。画像処理装置100は、今回S1で取得した撮影画像に含まれる領域のうち、予測した両目を含む領域に対して特定加工を行う(S4)。
画像処理装置100は、他部分を含む領域を検出しなかった場合(S9でNO)、S2で設定した患者領域の撮影画像に対して特定加工を行う(S10)。
画像処理装置100は、S4、S8、またはS10において撮影画像を加工した後、加工後の撮影画像を記憶装置103に蓄積して記憶し(S11)、本処理フローを終了する。
<撮影画像の特定加工の一例>
図9~図12を参照しながら、画像処理装置100による特定加工の一例を説明する。
[患者カメラの撮影画像に関する特定加工の一例]
図9は、患者カメラ53の撮影画像に関する特定加工の一例を説明するための図である。図9に示すように、患者カメラ53の撮影画像には、主に診療中における患者の顔およびその周辺の状況が表される。
画像処理装置100は、患者カメラ53の撮影画像から患者の両目を含む領域(第1領域)を検出した場合(図8のS3でYES)、患者の片目を含む領域(第3領域)に基づき両目を含む領域を予測した場合(図8のS6)、または目以外の他部分を含む領域(第4領域)に基づき両目を含む領域を予測した場合(図8のS6)、患者の両目を含む領域に対して特定加工を行う(図8のS4)。たとえば、図9(A)に示すように、画像処理装置100は、患者の両目を含む領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。なお、図9(A)に示すように、特定加工の対象となる第1領域は、患者の両目を含む領域であってかつ患者の口腔を含まない領域である。プライバシーの保護の観点では、患者の目に対して特定加工を行う必要がある一方で、処置内容ないしは診療内容を推定するという観点では、患者の口腔に対する診療器具の位置および術者の行動などを表す撮影画像が必要だからである。
ここで、患者カメラ53は、診療の際に患者の口腔内を照射する方向に位置決めされる照明装置19に取り付けられているため、照明装置19の光軸も患者の口腔内付近を向くことになり、診療中においては撮影画像における一定の位置に患者の顔が映し出される。特に、診療中において、ヘッドレスト11a、背もたれ11b、および足置き台11dが座面シート11cに対して水平方向に位置することでチェア11が傾斜した態様になると、患者がチェア11に横たわって仰向け姿勢になる。このような場合、照明装置19が患者の顔の正面に位置すること、患者カメラ53は、自然と患者の顔を含む領域を正面から撮影することができる。このため、画像処理装置100は、患者カメラ53の撮影画像から患者の両目および片目のいずれも検出できない場合でも、他部分として、患者の頭、患者の肩、患者の耳、患者の鼻、またはチェア11のヘッドレスト11aなどの位置を精度よく検出することができる。よって、画像処理装置100は、精度よく検出した他部分の位置から、両目を含む領域を精度よく予測することができる。
なお、画像処理装置100は、ヘッドレスト11aを検出した場合、ヘッドレスト11aの位置から患者の顔の位置を予測して患者の両目の位置を検出してもよい。特に患者がチェア11に横たわって仰向け姿勢になっている場合、患者カメラ53と患者の顔との位置関係が概ね一定である。つまり、患者カメラ53と患者の顔との距離や、患者カメラ53の光軸が患者を向く方向が概ね同じであることから、撮像画像における患者の顔の位置は概ね一定である。このため、画像処理装置100は、患者の顔の位置を精度よく予測することができる。
具体的には、図9(A)に示すように、画像処理装置100は、まず、経験的に撮影画像におけるヘッドレスト11aの位置が含まれることが多い第1予測領域201から優先して、パターンマッチングなどの画像認識によってヘッドレスト11aを認識する。次に、画像処理装置100は、第1予測領域201における画像認識の処理を終えると、第1予測領域201以外のその他の領域に対して、パターンマッチングなどの画像認識によってヘッドレスト11aを認識する。このようにすれば、画像処理装置100は、ヘッドレスト11aが含まれることが多い第1予測領域201においてヘッドレスト11aを認識することができたときには、画像認識の処理を終了できるため、ヘッドレスト11aの認識を効率よくかつ迅速に実行することができる。なお、パターンマッチングの画像認識は、ヘッドレスト11aの中央に患者の顔が位置しているため、ヘッドレスト11aの両サイドの形状のパターンの認識となる。画像処理装置100は、ヘッドレスト11aの位置を認識した後、認識したヘッドレスト11aの位置を基準に規定される第2予測領域202を、患者の顔の位置として予測する。第2予測領域202は、経験的に患者の顔の位置が含まれることが多い位置であるヘッドレスト11aの中央付近に設定されている。なお、画像処理装置100は、患者の顔の位置を予測するときに、ヘッドレスト11aの画像認識を省略し、経験的に、撮影画像において患者の顔の位置が含まれることが多い領域である第3領域を、患者の顔の位置として予測してもよい。
画像処理装置100は、患者カメラ53の撮影画像から患者の目を含む領域を検出できない時間が所定時間以内である場合(図8のS7でYES)、記憶装置103に記憶していた過去に加工済みの撮影画像に基づき、撮影画像に対して特定加工を行う(図8のS8)。たとえば、図9(A)に示すように、画像処理装置100は、記憶装置103に記憶していた直近の加工済みの撮影画像から患者の両目を含む領域を特定し、特定した両目を含む領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。
画像処理装置100は、患者カメラ53の撮影画像から患者の目を含む領域を検出できない時間が所定時間を超え、かつ他部分も検出しなかった場合(図8のS9でNO)、予め設定していた患者領域に対して特定加工を行う(図8のS10)。たとえば、図9(B)に示すように、画像処理装置100は、患者領域(第2領域)として予め設定していた撮影画像全体の領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。
患者領域は、患者がチェア11に位置した状態で予測される目を含む領域であってかつ患者の両目を含む領域(第1領域)よりも広い領域である。患者カメラ53の撮影画像において、画像処理装置100は、患者領域として撮影画像全体の領域を設定している。その理由は、照明装置19が移動することで患者カメラ53も移動するため、撮影画像において患者の顔の位置が必ずしも一定ではないからである。よって、画像処理装置100は、患者カメラ53の撮影画像から患者の両目、片目、および他部分のいずれも検出しなかった場合の安全策として、撮影画像全体の領域に対してモザイク10をかける。
[全体カメラ52の撮影画像に関する特定加工の一例]
図10および図11は、全体カメラ52の撮影画像に関する特定加工の一例を説明するための図である。図10および図11に示すように、全体カメラ52の撮影画像には、診療中の術者(歯科医師3または歯科助手4)の行動、患者2の行動、使用されている診療器具の種類、診療器具の位置、および診療装置1の動作などが表される。
画像処理装置100は、全体カメラ52の撮影画像から患者の両目を含む領域(第1領域)を検出した場合(図8のS3でYES)、患者の片目を含む領域(第3領域)に基づき両目を含む領域を予測した場合(図8のS6)、または目以外の他部分を含む領域(第4領域)に基づき両目を含む領域を予測した場合(図8のS6)、患者の両目を含む領域に対して特定加工を行う(図8のS4)。たとえば、図10(A)に示すように、画像処理装置100は、患者の両目を含む領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。なお、図10(A)に示すように、特定加工の対象となる第1領域は、患者の両目を含む領域であってかつ患者の口腔を含まない領域である。プライバシーの保護の観点では、患者の目に対して特定加工を行う必要がある一方で、処置内容ないしは診療内容を推定するという観点では、患者の口腔に対する診療器具の位置および術者の行動などを表す撮影画像が必要だからである。
画像処理装置100は、全体カメラ52の撮影画像から患者の目を含む領域を検出できない時間が所定時間以内である場合(図8のS7でYES)、記憶装置103に記憶していた過去に加工済みの撮影画像に基づき、撮影画像に対して特定加工を行う(図8のS8)。たとえば、図10(A)に示すように、画像処理装置100は、記憶装置103に記憶していた直近の加工済みの撮影画像から患者の両目を含む領域を特定し、特定した両目を含む領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。
画像処理装置100は、全体カメラ52の撮影画像から患者の目を含む領域を検出できない時間が所定時間を超え、かつ他部分も検出しなかった場合(図8のS9でNO)、予め設定していた患者領域に対して特定加工を行う(図8のS10)。たとえば、図10(B)に示すように、画像処理装置100は、患者領域(第2領域)として予め設定していた患者およびチェア11を含む領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。
患者領域は、患者がチェア11に位置した状態で予測される目を含む領域であってかつ患者の両目を含む領域(第1領域)よりも広い領域である。全体カメラ52の撮影画像において、画像処理装置100は、患者領域として、撮影画像全体の領域のうち、患者およびチェア11を含む領域を設定している。なお、患者領域は、少なくとも患者を含む領域であればよく、術者を含まない方が好ましい。図6に示したように、術者の位置および行動は、処置内容ないしは診療内容を推定するための推定用データとして用いられ得るからである。
さらに、画像処理装置100は、チェア11の態様(昇降位置、傾斜角度など)に応じて、患者領域を変更する。たとえば、図10(B)、図11(A)、および図11(B)に示すように、ヘッドレスト11a、背もたれ11b、および足置き台11dが座面シート11cに対して水平方向(患者が横たわる姿勢)から垂直方向(患者が座る姿勢)に移動することに従って、画像処理装置100は、患者領域を変更する。なお、画像処理装置100は、通信装置101によって診療装置1から診療関連データを取得することで、チェア11の動作を認識することができる。
[背面カメラ54の撮影画像に関する特定加工の一例]
図12は、背面カメラ54の撮影画像に関する特定加工の一例を説明するための図である。図12に示すように、背面カメラ54の撮影画像には、診療中の術者(歯科医師3または歯科助手4)の行動、患者2の行動、使用されている診療器具の種類、診療器具の位置、および診療装置1の動作などが表される。
画像処理装置100は、背面カメラ54の撮影画像から患者の両目を含む領域(第1領域)を検出した場合(図8のS3でYES)、患者の片目を含む領域(第3領域)に基づき両目を含む領域を予測した場合(図8のS6)、または目以外の他部分を含む領域(第4領域)に基づき両目を含む領域を予測した場合(図8のS6)、患者の両目を含む領域に対して特定加工を行う(図8のS4)。画像処理装置100は、背面カメラ54の撮影画像から患者の目を含む領域を検出できない時間が所定時間以内である場合(図8のS7でYES)、記憶装置103に記憶していた過去に加工済みの撮影画像に基づき、撮影画像に対して特定加工を行う(図8のS8)。
画像処理装置100は、背面カメラ54の撮影画像から患者の目を含む領域を検出できない時間が所定時間以内である場合(図8のS7でYES)、記憶装置103に記憶していた過去に加工済みの撮影画像に基づき、撮影画像に対して特定加工を行う(図8のS8)。
画像処理装置100は、背面カメラ54の撮影画像から患者の目を含む領域を検出できない時間が所定時間を超え、かつ他部分も検出しなかった場合(図8のS9でNO)、予め設定していた患者領域に対して特定加工を行う(図8のS10)。たとえば、図12(A)~(C)に示すように、画像処理装置100は、患者領域(第2領域)として予め設定していた患者およびチェア11を含む領域に対してモザイク10をかけることで、患者の両目の形状を不明確にする。
なお、背面カメラ54は、患者の背面から患者を撮影するため、画像処理装置100は、背面カメラ54の撮影画像から患者の目を検出したり、患者の両目を含む領域を予測したりすることは難しい。このため、画像処理装置100は、背面カメラ54の撮影画像に関して、図8のS3~S9の処理を省略してもよい。
患者領域は、患者がチェア11に位置した状態で予測される目を含む領域であってかつ患者の両目を含む領域(第1領域)よりも広い領域である。背面カメラ54の撮影画像において、画像処理装置100は、患者領域として、撮影画像全体の領域のうち、患者およびチェア11を含む領域を設定している。なお、患者領域は、少なくとも患者を含む領域であればよく、術者を含まない方が好ましい。図6に示したように、術者の位置および行動は、処置内容ないしは診療内容を推定するための推定用データとして用いられ得るからである。
さらに、画像処理装置100は、チェア11の態様(昇降位置、傾斜角度など)に応じて、患者領域を変更する。たとえば、図12(A)~(C)に示すように、ヘッドレスト11a、背もたれ11b、および足置き台11dが座面シート11cに対して垂直方向(患者が座る姿勢)から水平方向(患者が横たわる姿勢)に移動することに従って、画像処理装置100は、患者領域を変更する。なお、画像処理装置100は、通信装置101によって診療装置1から診療関連データを取得することで、チェア11の動作を認識することができる。
以上のように、画像処理装置100は、撮影画像から患者の両目を含む領域(第1領域)を検出した場合、患者の片目を含む領域(第3領域)に基づき両目を含む領域を予測した場合、または目以外の他部分を含む領域(第4領域)に基づき両目を含む領域を予測した場合、患者の両目を含む領域に対して特定加工を行うため、撮影された患者のプライバシーを適切に保護することができる。また、画像処理装置100は、撮影画像から患者の目を含む領域を検出できない時間が所定時間以内である場合、記憶装置103に記憶していた過去に加工済みの撮影画像に基づき、撮影画像に対して特定加工を行うため、撮影画像から患者の目を含む領域を検出できない場合であっても、撮影された患者のプライバシーを適切に保護することができる。さらに、画像処理装置100は、撮影画像から患者の目を含む領域を検出できない時間が所定時間を超え、かつ他部分も検出しなかった場合、安全策として、予め設定していた患者領域に対して特定加工を行うため、撮影された患者のプライバシーを適切に保護することができる。
<変形例>
本開示は、上記の実施例に限られず、さらに種々の変形、応用が可能である。以下、本開示に適用可能な変形例について説明する。
[カメラについて]
本実施の形態においては、全体カメラ52、患者カメラ53、および背面カメラ54が各1台ずつ診療装置1に取り付けられていたが、これらのカメラは複数台ずつ診療装置1に取り付けられてもよい。
全体カメラ52、患者カメラ53、および背面カメラ54は、固定式に限らず、患者または術者の動きに追従して動く可動式であってもよいし、全方位を撮影可能な360度カメラであってもよい。
全体カメラ52、患者カメラ53、および背面カメラ54は、診療装置1に搭載される他、診療装置1の周囲から当該診療装置1方向へ光軸を向けたカメラであってもよい。また、カメラの撮影画像によって把握される診療空間において、撮影において死角が無いように複数のカメラが設置されてもよい。
[画像処理装置について]
本実施の形態においては、画像処理装置100は、診療装置1が設置された診療空間内に配置されていたが、診療空間内に設置されたサーバであってもよい。この場合、画像処理装置100は、診療空間内に設置された複数の診療装置1に接続され、これら複数の診療装置1の各々について、画像関連データおよび診療関連データに基づき処置内容ないし診療内容を推定してもよい。このようにすれば、画像処理装置100による機械学習の頻度が上がり、画像処理装置100は、より精度良く診療内容を推定することができる。
画像処理装置100は、診療装置1が設置された診療空間外に設置されたサーバなど、クラウドコンピューティングの態様で存在してもよい。この場合、画像処理装置100は、診療空間内に設置された複数の診療装置1に接続されるとともに、他の歯科医院に設置された複数の診療装置1にも接続され、これら複数の診療装置1の各々について、画像関連データおよび診療関連データに基づき処置内容ないし診療内容を推定してもよい。このようにすれば、画像処理装置100による機械学習の頻度がさらに上がり、画像処理装置100は、より精度良く診療内容を推定することができる。また、推定精度が十分な推定モデルを不必要にチューニングして過学習させないようにすることができる。
[画像処理について]
画像処理装置100は、撮影画像から患者の両目を含む領域(第1領域)を検出しなかった場合(図8のS3でNO)、予め設定していた患者領域に対して特定加工を行う(図8のS10)ように構成されてもよい。すなわち、画像処理装置100は、図8のS5~S9の処理を省略してもよい。
画像処理装置100は、撮影画像から患者の片目を含む領域(第3領域)を検出しなかった場合(図8のS5でNO)、予め設定していた患者領域に対して特定加工を行う(図8のS10)ように構成されてもよい。すなわち、画像処理装置100は、図8のS7~S9の処理を省略してもよい。
画像処理装置100は、患者の目を含む領域を検出できない時間が所定時間を超えた場合(図8のS7でNO)、予め設定していた患者領域に対して特定加工を行う(図8のS10)ように構成されてもよい。すなわち、画像処理装置100は、図8のS9の処理を省略してもよい。
画像処理装置100は、撮影画像から患者の片目を含む領域(第3領域)を検出しなかった場合(図8のS5でNO)、先に、目以外の他部分を含む領域(第4領域)を検出したか否かを判定し(S9)、他部分を含む領域(第4領域)を検出しなかった場合に(S9でNO)、S7およびS8の処理を実行してもよい。すなわち、画像処理装置100は、先にS9の処理を実行し、その後にS7の処理を実行してもよい。この場合、画像処理装置100は、S7の処理において、患者の目に限らず、他部分を含む領域を検出できない時間が所定時間以内であるか否かを判定すればよい。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなく特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。なお、本実施の形態で例示された構成および変形例で例示された構成は、適宜組み合わせることができる。