JP2004159998A - Dental treatment supporting system with image recognition - Google Patents
Dental treatment supporting system with image recognition Download PDFInfo
- Publication number
- JP2004159998A JP2004159998A JP2002330860A JP2002330860A JP2004159998A JP 2004159998 A JP2004159998 A JP 2004159998A JP 2002330860 A JP2002330860 A JP 2002330860A JP 2002330860 A JP2002330860 A JP 2002330860A JP 2004159998 A JP2004159998 A JP 2004159998A
- Authority
- JP
- Japan
- Prior art keywords
- patient
- medical
- operator
- unit
- dental care
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、歯科診療支援システムに関し、詳しくは、歯科診療エリアの診療ユニット、患者、術者の配置・位置を画像認識することにより、歯科診療ユニットの各部及び装置を最適ポジションに自動配置して診療行為を支援するシステムに関する。
【0002】
【従来の技術】
歯科診療においては、患者の導入時や診察時には、診療ユニットのテーブルやチェアーの移動を術者がその都度行っていた。また、術者が診療位置にテーブルをセットする際に、あらかじめ診療しやすい位置を歯科診療ユニットの可動機構に記憶させておき、手動で動作方向に押すと所定位置まで移動させるユニットや、可動機構に駆動部を備え、スイッチの操作により診療位置まで移動させる自動機構付の診療ユニットがあるが、これらの自動セット機構では歯科診療ユニットの可動機構に駆動装置と共に、位置検出センサーを備えて動作を制御する必要があるため、信号機構が複雑となっていた。
【0003】
テーブル等の歯科診療器具保持手段を治療に適した位置に自動的に移動させる従来の装置は、術者(ドクターまたは歯科衛生士)用椅子の位置に対応させて予め記憶手段に記憶させた診療位置に対応させた最適位置まで移動させる構成となっている(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開2000−166995号公報
【0005】
【発明が解決しようとする課題】
しかしながら、従来の装置では、患者導入時には、診療ユニットの各部(テーブルなど)を患者が着座するための移動の際に接触しない位置まで移動させる必要があった。また、自動セット機構のスイッチで、予め記憶させた最適診療位置までテーブルを移動させる方法では、術者の診療位置にずれがあっても自動修正ができないため、手動で修正を行う必要があった。
【0006】
また、診療時のテーブルの設定位置は、術者がドクターチェアに着座した状態で肘を軽く曲げた高さに位置し、容易に手の届く距離にセットすることが望ましいが、術者の体型(背の高さ、手の長さなどの体格)によって最適なテーブル設定位置に大きな違いが発生する。このため、術者用椅子からの距離だけでテーブルの設定位置を判断して移動させても再度手動で調整する手間がかかる問題があった。しかも、複数の術者(ドクター、歯科衛生士)が同一診療ユニットに対して交代する場合、術者の体型個人差のために必ず調整しなければならない煩雑さがあった。
【0007】
また、これらの歯科ユニットの各部分を自動移動させる際に、移動する部分が患者や術者に接触する恐れがあるため、スイッチ操作の都度、衝突事故が起きないか確認し、監視していなければならなかった。
【0008】
このような歯科診療ユニットの自動動作機構では、可動部分の制御のため、その制御信号伝達の配線が多くなり、可動部分の断線・誤動作、インスツルメントの誤作動などが発生しやすい。このため、可能な限り単純かつ安全な制御機構とすることが望まれていた。
【0009】
本発明は、このような従来の問題を考慮してなされたものであり、歯科診療ユニットの各装置の位置、患者および術者の存在とその位置をリアルタイムに認識して、患者の導入、診療開始、診療終了に対応して歯科診療ユニットの所定装置をそれぞれの最適位置に移動させる画像認識による歯科診療支援システムを提供することを課題とする。
【0010】
また、術者が選択した診療器具(インスツルメント類、その他の器具)の固体判別により、重複使用のロックや、ホースの送り出し、巻き取りを自動的に行い歯科診療行為を支援することを課題とする。
【0011】
【課題を解決するための手段】
上記課題を達成するため、請求項1の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段とを備えることを特徴とする。
【0012】
この発明によれば、歯科診療ユニットの可動可能な各装置がどのような位置・状態にセットされているかをリアルタイムに把握することができる。また、診療エリアをリアルタイムに認識することにより、患者、術者及び補助者の存在と位置から診療過程(患者導入、診療開始、診療終了等)を認識することができる。さらに、リアルタイムに認識した画像情報と、一定時間前に認識した画像情報との差分から診療ユニットの各部の移動、患者、術者の移動を認識する動作認識を可能とすることができる。これらの状態認識と動作認識とにより、従来では術者または補助者が行っていた歯科診療ユニットの操作作業を自動化して支援することができる。
【0013】
請求項2の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段とを備えることを特徴とする。
【0014】
この発明では、請求項1の発明の作用に加え、患者が診療チェアーに着座し、術者が診療ポジションに位置したことを認識し、テーブル、アシスタントハンガー等を診療動作に最適な位置に移動させる操作を自動的に行うことができる。このため、術者は余分な作業に煩わされることなく、患者の観察、説明、対話に専念して診療行為に入ることができる。
【0015】
請求項3の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、前記カメラからの術者の顔画像に基づいて術者識別を行う術者識別手段と、術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備えていることを特徴とする。
【0016】
この発明では、請求項1及び請求項2の作用に加え、術者識別手段を備えることにより、診療ポジションの術者を識別し、予め記憶させておいた術者ごとの診療スタイルに合わせた最適な位置に、診療ユニットの各装置を移動させることができる。予め術者の顔画像と、その術者の診療スタイルに合わせたテーブルセット位置を記憶させておくことにより、複数の術者が診療する歯科診療所においても、術者ごとに最適な装置のポジションを自動的にセットすることができる。
【0017】
請求項4の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、前記カメラからの患者の顔画像に基づいて患者識別を行う患者識別手段と、患者識別手段が識別した患者についての診療情報を表示する表示手段とを備えていることを特徴とする。
【0018】
この発明では、患者識別手段を備えることにより、患者個人を識別することができる。そして、診療チェアーに着座した患者個人を識別し、歯科診療管理サーバから患者の診療記録を読み出して表示することにより、治療経過の確認や、患者に対する診療内容の説明を行うことができる。
【0019】
請求項5の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、重複使用禁止のインスツルメントが選択されたとき、少なくとも使用禁止側のインスツルメントの作動をロックするインスツルメントロック手段とを備えていることを特徴とする。
【0020】
この発明では、インスツルメント判別手段を備えることにより、術者が現在使用しているインスツルメント(タービン回転、注水など)のみの作動を可能状態とし、同時使用禁止の装置を動作禁止として、誤って作動させることを防止することができる。
【0021】
請求項6の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、判別されたインスツルメントに接続されているインスツルメントホースを当該インスツルメントの使用状況に応じて送り出し状態、巻き取り状態、テンションフリー状態に制御するインスツルメントホース制御手段とを備えていることを特徴とする。
【0022】
この発明では、請求項5の発明の作用に加え、インスツルメントホース制御手段を備えることにより、インスツルメントの使用状況に応じてホースの巻き取り状態を自動制御することができる。
【0023】
請求項7の発明は、請求項6の発明であって、前記インスツルメントホース制御手段は、前記認識手段により使用インスツルメントの位置をリアルタイムに認識し、使用インスツルメントが治療エリア内に移動されるときにインスツルメントホースを送り出し状態とし、治療エリア内ではテンションフリー状態とし、使用インスツルメントが治療エリア外に移動されたときにはインスツルメントホースを巻き取り状態とすることを特徴とする。
【0024】
この発明では、治療エリア内でインスツルメントを把持している術者の手の動作を画像認識することにより、インスツルメントの使用状態を把握する。このため、術者はホース操作に煩わされることなく治療に専念できる。
【0025】
請求項8の発明は、請求項2〜6のいずれかに記載の発明であって、前記認識手段は歯科診療ユニットにおける各装置の移動経路及び移動先の障害物の認識が可能となっており、前記ポジション制御手段は認識手段からのデータに基づいて障害物を回避するように各装置の移動軌道の変更または/及び移動の停止または/及び警告を行うことを特徴とする。
【0026】
この発明では、認識手段が各装置の動作を監視し、その移動経路を推測することにより、ポジション制御手段で動作している各部が障害物に接触または衝突することを防止することができる。
【0027】
請求項9の発明は、請求項2〜6のいずれかに記載の発明であって、前記カメラは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍の診療エリアを上方から撮影する第1のカメラと、患者ならびに術者の顔画像を撮影する第2のカメラと、前記診療エリアを側面から撮影する第3のカメラとが配置されることを特徴とする。
【0028】
この発明によれば、第1のカメラにより診療エリアの診療ユニットの状態、患者、術者の存在と位置とを平面視して配置状況を取得できると共に、第2のカメラにより患者ならびに術者の顔画像をリアルタイムで取得して個人の特定が可能となり、第3のカメラにより診療ユニットの患者用椅子の高さ、背板の傾き、テーブルなどの高さに関する画像を取得して装置の各部の移動の際の接触判定が可能となる。
【0029】
請求項10の発明は、請求項9記載の発明であって、前記第1のカメラが歯科診療ユニットの無影灯に回動自在に取り付けられており、無影灯の回動に伴って、診療エリアを平面視する第1の撮影位置と、顔画像を撮影する第2の撮影位置及び診療エリアを側面から撮影する第3の撮影位置との間を移動可能となっていることを特徴とする。
【0030】
この発明では、カメラを無影灯に取り付け、無影灯のアームを回動させることにより、任意の撮影位置に移動させ、診療段階(患者導入、診療開始、診療中、診療終了)に応じた画像を取得させることができる。このため、複数のカメラを必要とすることなく、一つのカメラで請求項9と同様な作用を行うことができる。
【0031】
【発明の実施の形態】
以下、本発明を図示する実施の形態につき具体的に説明する。図1は、本発明の一実施の形態における画像認識による歯科診療支援システムの構成を示すブロック図である。
【0032】
この実施の形態の画像認識による歯科診療支援システム100は、カメラ10と、診療ユニットまたはその近傍に患者から視認可能な位置に設けた表示装置11と、画像認識・制御コンピュータ20と、歯科診療ユニット動作制御装置30と、院内LAN40を介して接続された歯科診療管理サーバ50とから構成されている。
【0033】
診療ユニット動作制御装置30には、診療チェア昇降・背板傾動動作部31、テーブル移動動作部32、インスツルメント制御動作部33、アシスタントハンガー移動動作部34、無影灯移動動作部35が接続されることにより、これらの動作部が制御される。なお、画像認識・制御コンピュータ20及び診療ユニット動作制御装置30は診療ユニット1台ごとに備える構成を図示したが、複数の診療ユニットと接続して制御させる構成とすることも可能である。
【0034】
カメラ10は、外部接続ポート21に接続されることにより、撮影したデジタル画像を画像認識・制御コンピュータ20がリアルタイムで取得することを可能としている。この実施の形態では、下向きに設けられることにより診療エリアを水平視する第1のカメラ10aと、治療エリアを正面視する向きに設けた第2のカメラ10bと、診療ユニットの側面を水平に視認できる位置に設けられた第3のカメラ10cとを備える。
【0035】
画像認識・制御コンピュータ20は、外部接続ポート21と、認識制御プログラムがインストールされた認識制御部22と、認識制御に必要な装置各部のポジション画像や、術者・患者の顔画像、術者ごとの最適ポジションを含む情報を記憶した記憶部23とから構成されている。
【0036】
前記認識制御部22は、カメラから取得した画像情報から歯科診療ユニットの各部あるいは人物を識別する認識手段22aと、術者の個人識別を行う術者識別手段22bと、患者の個人識別を行う患者識別手段22cと、術者が使用しているインスツルメントを識別するインスツルメント判別手段22dと、診療段階を判断して最適ポジションに診療ユニットの各部を移動させるポジション制御手段22eと、患者個人識別に基づきその診療記録を表示装置(ディスプレイ)11に表示させる表示手段22fと、使用禁止器具の誤動作を制御するインスツルメントロック手段22gと、術者が使用中のインスツルメントホースを制御するインスツルメントホース制御手段22hと、記憶部23に術者や患者の顔画像情報を予め登録しておくための術者・患者画像記録手段22iと、術者個人の体格、好みに合わせた診療時の装置配置の画像、相対位置情報を記録する術者最適ポジション記録手段22jとを少なくとも備える。
【0037】
また、前記記憶部23は、歯科診療ユニットの可動可能な各部について可動範囲画像を記録したユニット可動範囲画像情報23aと、術者画像情報23bと、患者画像情報23cと、最適ポジション情報23dとを備える。
【0038】
ユニット可動範囲画像情報23aは、チェアーの背板の可動範囲(傾き)、テーブルの可動範囲、アシスタントハンガーの可動範囲、チェアーの上下(昇降)、背板の傾き範囲のモデル画像情報(可動状態の位置を一定間隔ごとの画像とした位置パターン画像)を記録したもので、前記認識手段22aが取得した画像と、モデル画像情報とを比較(パターンマッチング)することにより各部の位置を把握するために用いる情報である。
【0039】
術者画像情報23bは、所属する術者の顔画像を記録したもので、前記術者認識手段22bが診療ポジションに着座した術者(ドクターや歯科衛生士)の顔画像と、登録された顔画像情報とを比較して術者個人認識を行うために用いる情報である。なお、治療ポジションエリアL内の顔画像であれば、立位診療を行う術者の顔画像の個人認識も可能である。
【0040】
患者画像情報23cは、診療を受付けた患者の顔画像の記録であって、初診時にカメラで取得した患者の顔画像を歯科診療管理サーバ50に備え、院内LAN40を介して術者・患者画像記録手段22iにより登録しておく。また再診時には最新の顔画像に更新して記録することにより、診療ユニットに着座した患者の顔画像と、登録された患者顔画像とを比較し、患者識別手段22cが患者個人を識別するためのものである。
【0041】
最適ポジション情報23dは、術者個人ごとの診療ポジションと、そのポジションに対応する歯科診療ユニットの各部の最適配置の画像または位置情報(パターン)を登録した情報である。この場合、術者の診療ポジションは、治療内容によって治療ポジションエリアLの範囲内で複数のポジションを採る場合がある。また、チェアー背板を倒し患者を完全水平にしたときの口腔位置を中心に何時の方向に術者が向いて診療行為を行うかにより、術者個人ごとにそれぞれのパターンの最適配置を登録しておく。
【0042】
図2は、カメラの配置を示す正面図である。図に示すように、歯科診療ユニット1は、患者を着座させ背板17aを倒すことにより口腔の診療を行うチェアー17、このチェアー17の昇降や診療器具の動作制御を行うフットペダル18、チェアー17と共に昇降するように支持された診療器具を載置するテーブル13、テーブル13の下部に取り付けられたインスツルメントハンガー15、このハンガー15に保持されたインスツルメント16、インスツルメントホース16a、表示装置11、無影灯12などから構成されている。
【0043】
ここで、主な可動可能である部分は、無影灯12、テーブル13、インスツルメントハンガー15、アシスタントハンガー14、背板17a及び、チェアー17である。なお、この実施の形態の歯科診療ユニット1は、チェアー17の昇降に伴って各部も昇降する構造となっている。
【0044】
カメラ10は、診療エリアKの天井又は支柱に下向きに設けた第1のカメラ10aと、無影灯12などの支持ポールに治療ポジションエリアLを正面視する向きに設けた第2のカメラ10bと、壁面または歯科診療ユニットの側面を水平に視認できる位置に設けられた第3のカメラ10cとの3つのカメラを備えている。そして、第1のカメラ10aからの画像によって各部の平面での位置や人物の存在を認識可能とし、着座した患者の顔や術者の顔画像を第2のカメラ10bによって認識可能とし、チェアーの昇降状態や背板の傾き、各部の垂直位置を第3のカメラ10cによって認識する。
【0045】
第3のカメラは、テーブル13やアシスタントハンガー14などがチェアー17に連動して昇降しないタイプの歯科診療ユニットの場合、テーブルなどの上下方向の移動を制御するための画像認識を行う。
【0046】
図3は、カメラの別の配置を示す側面図である。なお、図2と同じ装置については、同一の符号によって対応させてある。この実施の形態では、首振り機能(自動パン・チルト機能)付のカメラ10を無影灯12の先端部に配置し、無影灯12の支持アーム12a、12b、12c、12d、12eをそれぞれの支持アームの駆動モータM3、M4、M5、M6、M7によって回動させてカメラ10を所定の位置に移動させる。これにより、上述した第1のカメラ、第2のカメラの機能を備えたものとすることができる。
【0047】
カメラ位置Aは、各部の平面での位置や人物の存在を認識可能とする第1のカメラ10aに代わる位置であり、カメラ位置Bは、着座した患者の顔や術者の顔画像を認識可能とする第2のカメラ10bに代わる位置であり、カメラ位置Cは、患者の口腔を中心とした治療エリアNを認識する画像を取得して、術者の使用中のインスツルメントなどを識別するのに適した位置である。
【0048】
次に、認識手段22aに関する技術について述べる。天井に設置された第1のカメラ10aからの画像の場合、カメラ設置位置と、診療ユニット設置位置は固定されており既知である。
【0049】
カメラ10aから取得した画像から実際の装置等の距離や大きさを判断するために、画像中の1画素当たりの距離を求めておくことができる。カメラ10aが、図2のチェアー17の座席Gの2メートル上方に設けられ、カメラの水平画角が30°、水平解像度が320画素である場合、座席Gの高さの平面においてカメラで撮影できる水平範囲は、三角関数により底辺距離が1.07メートルで、一画素当たりの距離は3.34mmに相当する。また、垂直画角30°、垂直解像度が240画素である場合には、同様に垂直方向の一画素当たりの距離は4.46mmに相当する。対象物が上下してカメラ10aからの距離が変わる場合、テーブルなど大きさが既知な対象物を識別することにより、その高さでの一画素当たりの距離を求めることができる。このように、画素を座標マトリックスとして認識することにより、画像中の各装置の位置や移動方向を座標系として捉えることができる。
【0050】
各装置の可動範囲の状態の認識方法を説明する。図3のチェアー17の背板17aは、矢印で示すように、患者が着座する位置(起きている状態)F′と、治療のために倒した状態Fの範囲で可動する。この背板17aの状態は、取得した画像と、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択させることにより、実際の背板位置を把握することができる。
【0051】
図3に示すように、テーブル13は、患者導入時はD′の位置に移動させることにより、患者の着座移動の障害とならない位置とし、診療開始に伴いDの位置に移動させることが可能な可動範囲となる。この位置認識も同様に予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択することにより、実際のテーブル位置を把握することができる。
【0052】
図4は、図3の平面図である。図4に示すアシスタントハンガー14は、診療中に補助者が使用する機器を保持している装置であるが、EからE′の可動範囲を移動する。この位置認識も同様に予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択させることにより実際の位置を把握することができる。
【0053】
これらのパターンマッチングに際し、画像の色情報(RGB)を色相(H)、彩度(S)、明度(V)に変換したHSV表色情報を用いることによりユニット可動範囲画像情報23aとの比較(パターンマッチング)の精度を高めることができる。なお、背景が限定されていない場合には、まずHSV表色情報で認識対象のエリアを絞り込んでから、ユニット可動範囲画像情報23aとのパターンマッチングを行うことにより比較演算スピードをさらに早くすることが可能である。また、背景が限定されて認識対象との色の分離がよい診療エリアKの状況では、色情報だけで位置を認識することが可能となる。この方法では、色相の値(0〜359)が人物の顔画像の場合、限定された範囲をとることを利用し、画像の中から顔画像を特定する。さらに、色情報による判別においては、カメラを赤外線カメラとすることにより、人物と背景の分離判別を確実に短時間で行うことが可能となる。
【0054】
図4には、カメラ10が取得する診療エリアK、術者Jが診療に際して着座するドクターチェアー19が位置する範囲(診療ポジション)である治療ポジションエリアLを示している。この図では、術者Jが患者の頭の位置(12時位置)に位置した場合を示しているが、治療ポジションエリアL内で、患者の頭に対し9時の位置や、3時の位置で診療を行うことがある。そのいずれの位置に術者が位置しているかについても認識手段22aが術者診療ポジション判定を行う。
【0055】
図4において、符号13a、13b、13cはテーブル13を回動自在に支持するアームである。テーブル13をDからD′に移動させる際は、アーム13cの基部のモータM1とアーム13aとアーム13bの回動部のモータM2を駆動することにより行う。
【0056】
この実施の形態の歯科診療支援の主な動作について図5に示すゼネラルフローに基づいて説明する。
【0057】
まず、認識手段22aにより診療ユニット1の各部の位置認識を行う(装置認識ステップS1)。この詳細フローは図6(a)に示す。
【0058】
次に、認識手段22aにより人物(術者、患者)の認識を行う(人物認識ステップS2)。この詳細フローは図6(b)に示す。
【0059】
次に、治療ポジションエリアL内の診療ポジションに術者が存在するか、チェアー17上に患者が存在するかを判定し、いずれも存在しない場合、ステップS2の人物認識を続ける。患者が着座し、術者が治療ポジションエリアLの診療ポジションに着いたとき診療開始と判断し、次に進む(診療開始判定ステップS3)。
【0060】
次に、歯科診療ユニットの各部を術者の診療ポジションに合わせた最適ポジションに移動させる。すなわち、ポジション制御手段22eにより、最適ポジション情報23dから術者個人毎に登録されている各装置の最適ポジションを検索して読み出し、その配置に移動させる(ポジション制御ステップS4)。
【0061】
このとき、歯科診療ユニットの各部の制御は、外部接続ポート21に接続された診療ユニット動作制御装置30に対して動作指令信号を送出することによって行う。動作制御の方式については公知の技術を使用することができるが、移動対象、移動先座標、移動経路を指令する。
【0062】
診療ユニット動作制御装置30は図1に示すように、診療チェアー昇降・背板傾動動作部31、テーブル移動動作部32、インスツルメント制御動作部33、アシスタントハンガー移動動作部34、無影灯移動動作部35の各駆動部(たとえばステッピングモータ)に対して動作指令信号を送る。
【0063】
次に、ポジション制御ステップS4で動作を開始した歯科診療ユニットの各部の動作を認識する(動作認識ステップS5)。この詳細フローについては図7(a)に示す。
【0064】
移動した装置各部が、ポジション制御ステップS4で検索した術者の診療ポジションに合わせた最適ポジションに移動したか、すなわち最適停止位置かを判断し、最適停止位置まで移動していれば、動作の終了工程(S9)に進む。最適停止位置に達していなければ次に進む(動作終了判定ステップS6)。
【0065】
移動未了の場合、動作中の歯科診療ユニット各部と、他の部位または人物との接触の恐れがあるか位置関係を監視する(接触監視ステップS7)。この詳細フローについては図7(b)に示す。
【0066】
移動により何かと接触することが予測されると判断したときは動作の終了工程(S9)に移行する。接触の恐れがないと判断したときは、移動動作を継続させて動作認識ステップS5に戻る。このフローでは接触することが予測されると判断したとき動作を停止するケースを示したが、障害物を回避するように各装置の移動軌道を変更するためポジション制御ステップS4に戻っても良く、或いは障害となる人物に警告する警報音を鳴らすことの良く、これらを組み合わせても良い(接触判定ステップS8)。
【0067】
以上により、患者の導入と、術者の診療開始に合わせて診療ユニットのセットが自動的になされて、診療行為が開始され、ステップS10以下のステップに移行する。
【0068】
診療中は、インスツルメント判別手段22dにより、治療エリア内の術者の手元を認識し、使用中のインスツルメントを識別し、そのホース制御を行ったり、使用禁止器具のロック制御を行って術者の操作を支援する(インスツルメント認識ステップS10)。この詳細なフローは図8(a)に示す。
【0069】
続いて、認識手段22aにより人物(術者、患者)の認識を行う(人物認識ステップS11)。この詳細フローはステップ2と同様であり、図6(b)に示す。
【0070】
診療の終了を判断するため、診療ポジション或いは治療ポジションエリアLから術者が離れたかを判定する。術者が診療ポジションに存在する場合、診療継続中と判断しステップ10へ戻り監視を継続する。術者が離れた場合、ステップS13へ進む(診療終了判定ステップS12)。
【0071】
診療終了と判断されたとき、歯科診療ユニットの各部をリセット位置に移動させる。この動作では、チェアー17の背板を起こしながらチェアー17を降ろすと共に、患者が退出するときの障害とならないようにテーブルなどを前方に移動させる指令を行う。なお、リセット位置は、前記最適ポジション情報23dに予め座標情報、または画像情報として登録しておき、ポジション制御手段22eが参照して制御信号を診療ユニット動作制御装置30に送出して行われる(ポジション制御ステップS13)。
【0072】
次に、ポジション制御ステップ13で動作を開始した歯科診療ユニットの各部の動作を認識する(動作認識ステップS14)。この詳細フローについてはステップ5と同様であり、図7(a)に示す。
【0073】
続いて、移動した装置各部が、リセット位置に移動したかを判断し、リセット位置まで移動していれば、ステップ18動作の終了工程に飛ぶ。リセット位置に達していなければ次に進む(動作終了判定ステップS15)。
【0074】
移動未了の場合、動作中の診療ユニット各部と、他の部位または人物との接触の恐れがあるか位置関係を監視する(接触監視ステップS16)。この詳細フローについては図7(b)に示す。
【0075】
移動により何かと接触することが予測されると判断したときは、ステップS18の動作の終了工程に移行する。接触の恐れがないと判断したときは移動動作を継続させステップS14の動作認識ステップに戻る(接触判定ステップS17)そして、診療ユニットをリセット状態として動作を終了する(ステップS18)。
【0076】
以上が主な診療支援動作のフローである。続いて説明した各ステップについての詳細な動作を図6、図7、図8に基づき説明する。
【0077】
図6(a)は、画像認識による歯科診療支援動作における装置認識ステップ、(b)は人物認識ステップ、(c)は差分画像処理ステップのフローチャートである。
【0078】
図6(a)に示す装置認識ステップは、装置各部の位置の確認を行うものであり、まずチェアー背板角度を認識する(チェアー背板角度認識S1−1)。この認識は、取得した画像からチェアー背板部を判別し、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)し、最もマッチング値の高いモデルパターンとの組み合わせを選択する手法により傾き角度を識別する。
【0079】
次に、取得した画像からテーブルを判別し、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択してテーブルの位置を求める(テーブル位置認識ステップS1−2)。
【0080】
続いて、取得した画像からアシスタントハンガーを判別し、同様にパターンマッチングでアシスタントハンガーの位置を求める(アシスタントハンガー位置認識ステップS1−3)。
【0081】
図6(b)に示す人物認識ステップでは、まず、診療エリア(歯科診療ユニット及びチェアー装置周辺)の画像を一定時間間隔で取得し、前後画像を比較してユニット周辺の背景を監視し、動的な変化を抽出する(差分画像処理ステップS2−1)。なお、この差分画像処理ステップの詳細は図6(c)で詳しく説明する。
【0082】
続いて、診療エリアの画像内に大きな変化があるかを判定する。大きな変化がなければ、人物認識ステップを終了する。大きな変化があれば次に進む(変化判定ステップS2−2)。
【0083】
次に、診療エリアK(ユニット周辺)の中で差分の大きなエリアを特定する(変化エリア特定ステップS2−3)。
【0084】
続いて、変化エリアが患者が着座するチェアー周辺であるか否かを判別し、チェアー周辺であればステップS2−5に進む(患者判断ステップS2−4)。
【0085】
変化エリアが術者が着座する治療ポジションエリアLの周辺(診療ポジション)か否かを判別し、治療ポジションエリアL周辺であればステップS2−7に進む(術者判断ステップS2−6)。
【0086】
患者の存在を確認し、患者顔画像を取得して、患者画像情報23cとパターンマッチングすることにより患者個人の識別を行う(患者着座判定S2−5)。表示手段22fは、この患者個人識別により、患者のID番号から歯科診療サーバ50に格納されている患者情報を検索して、表示装置11に表示する。
【0087】
治療ポジションエリアLに術者の存在が認識されたとき、術者の診療ポジションの位置を判定し、また、術者の顔画像を取得して、術者画像情報23bとパターンマッチングすることにより術者個人を識別する(術者診療ポジション判定ステップS2−7)。
【0088】
この術者個人識別により、ポジション制御手段22eは術者ごとの最適な装置各部の配置を最適ポジション情報23dから検索し、術者個人の診療スタイルに合わせた装置の移動を指令することが可能となる。
【0089】
ステップS2−1における差分画像処理ステップの詳細を図6(c)により説明する。まず、カメラから画像Aを取得する(ステップS2−11)。続いて、所定の変化監視間隔をタイマーにセットする(ステップS2−12)。
【0090】
タイマーセット時間の経過を監視し、セット時間に達したとき次に進む(ステップS2−13)。
【0091】
次に、カメラから画像Bを取得し(ステップS2−14)、取得した画像Aと画像Bとを比較し差分画像を取得する(ステップS2−15)。
【0092】
図7(a)は、画像認識による歯科診療支援動作における動作認識ステップ、(b)は接触監視ステップのフローチャートである。
【0093】
図7(a)は、図6で説明したステップS5及びS14の動作認識ステップの詳細を示している。まず、上述した差分画像処理ステップ(図6(c))で得られた差分画像のエリアから、チェアー17が動作中か判断する。変化がない場合には、ステップS5−4に移る(ステップS5−1)。
【0094】
チェアー17に変化が認められたときは、動作前画像と動作後画像とにより画像中の位置と動作方向を推定する(ステップS5−2)。続いて、パターンマッチングによりチェアー背板の角度を認識する(ステップS5−3)。
【0095】
次に、差分画像のエリアから、テーブル13が動作中か判断する。変化がない場合、ステップS5−7に移る(ステップS5−4)。テーブル13に変化が認められたときは、動作前画像と動作後画像により画像中の位置と動作方向を推定する(ステップS5−5)。続いて、パターンマッチングによりテーブル位置を認識する(ステップS5−6)。
【0096】
次に、差分画像のエリアから、アシスタントハンガー14が動作中か判断し、変化がない場合は終了する(ステップS5−7)。アシスタントハンガー14に変化が認められたとき、動作前画像と動作後画像により画像中の位置と動作方向を推定する(ステップS5−8)。続いて、パターンマッチングによりアシスタントハンガー14位置を認識する(ステップS5−9)。
【0097】
図7(b)は、図6で説明した接触監視ステップS7の詳細を示すフローチャートである。まず、差分画像処理ステップ(図6(c))で得られた差分画像のエリアから、チェアー17が動作中か判断する。変化がない場合、ステップS7−3に移る(ステップS7−1)。
【0098】
チェアー17に変化が認められたとき、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−2)。なお、この接触判定ステップ(ステップS7−2)の詳細は図8(b)に示し、説明を後述する。
【0099】
続いて、テーブル13が動作中か判断し、変化がない場合は、ステップS7−5に移る(ステップS7−3)。テーブル13に変化が認められたとき、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−4)。
【0100】
続いて、アシスタントハンガー14が動作中か判断し、変化がない場合は、終了する(ステップS7−5)。アシスタントハンガー14に変化が認められたときは、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−6)。
【0101】
図8(a)は、画像認識による歯科診療支援動作におけるインスツルメント認識ステップ、(b)は接触判定ステップのフローチャートである。
【0102】
図8(a)は、図5におけるステップS10の詳細を示す。まず、上述した差分画像処理ステップで得られた治療エリアN周辺の差分画像を監視する(ステップS10−1)。このとき、治療エリアN周辺だけをデジタルズーム機能により取り込むか、光学ズーム機能を備えたカメラを用いてクローズアップ画像を用いることにより、認識精度を確保することができる。図3に示した無影灯12に取り付けたカメラ10の場合、カメラ位置をC位置とすれば、治療エリアNの真上で、かつ被写体までの距離が近いため認識精度を高めることが可能となる。
【0103】
治療エリアN周辺及び治療エリアN内の画像に大きな変化がなければ終了する。大きな変化が認められた場合には、ステップS10−3に移る(ステップS10−2)。
【0104】
治療エリアN周辺及び治療エリアN内の中で差分(変化)の大きなエリアを特定すると共に、術者の手、把持している器具の動作方向を認識する(ステップS10−3)。このとき、治療エリアを分割したエリアとして特定することにより、処理を効率よく行うことができる。
【0105】
続いて、治療エリアN内で使用されているインスツルメントをパターンマッチング・色識別によって特定する(ステップS10−4)。このインスツルメント識別によって、インスツルメントロック手段22gは、重複して使用することが禁止されているインスツルメントが同時に識別された際に、インスツルメント制御動作部33に制御信号を出してインターロックしたり、識別されたインスツルメント以外をインターロックすることができる。
【0106】
さらに、インスツルメントホース制御手段22hが、インスツルメントを把持している術者の手の位置と動きを追尾判断する。そして、使用インスツルメントが診療エリアN内に移動されたときにはインスツルメントホース16aを送り出し状態とし、治療エリアN内にあるときはテンションフリー状態とし、使用インスツルメントが治療エリアN外に移動されたときはインスツルメントホース16aを巻き取り状態とする。
【0107】
これらのインスツルメントならびに術者の手を識別する際に、インスツルメントのグリップやホースを色分けし、術者の手袋に決まった色を使用することが好ましい。このようにすることにより、インスツルメントの握り方や向きの変化があっても、さらに識別効果を高めることができる。
【0108】
また、歯科診療管理サーバ50からの診療情報が取得されている場合、次の診療工程で必要となるインスツルメントの準備動作を自動的に行うことも可能である。従って、例えば、診療開始直後に使用する器具を取り出しやすい状態にしておくことができる。さらに、患者に説明のため治療説明を行うために使用する口腔内カメラを、取り出しやすいようにインスツルメントハンガーからせり出させたりすることができる。
【0109】
図8(b)は、図7(b)における接触判定ステップS7−2の詳細フローチャートである。まず差分画像処理で得られた情報から、目的の装置の動作方向を把握して移動先の推定を行う(ステップS7−21)。次に、移動先の障害物の有無を判定する(ステップS7−22)。このとき、第1のカメラ10aからの平面位置情報と第3のカメラ10cからの水平視した位置情報の両方を用いて高さについても判断する。
【0110】
障害物との距離は、移動している装置の外周から100mm〜200mm離れた周囲、または、術者の体型の外周から100mm〜200mm離れた範囲を境界エリアとし、この境界エリア近傍の障害物の有無を判定することが望ましい。障害物が認識されなければ終了し、障害物があればステップS7−24に進む(ステップS7−23)。
【0111】
ステップS7−24では、人物・装置各部の画像情報とパターンマッチングして障害物を識別する。そして、識別された障害物が既知の障害物(テーブル、アシスタントハンガー、規定ポジションの術者)の場合、第3のカメラ10cの画像から高さ方向を考慮した接触(当たり)予測を行う(ステップS7−26)。
【0112】
接触(当たり)予測では、チェアー背板の傾動に際してドクターチェアー19に座っている術者の足が、背板にぶつかる危険があることを察知して警告したり、停止させたりすることが可能となる。これにより、背板によるドクターの脚挟みこみなどの事故を防止することができる。これに対し、障害物が既知のものでない場合(たとえば、患者が動き出したときなど)は、警告または動作停止させる(ステップS7−27)。
【0113】
本発明は以上の実施の形態に限定されることなく、種々変形が可能である。本発明では、術者がテーブルなど各装置を微調整のために手動で移動させても、その位置を認識することが可能であり、さらに診療中に、術者が診療ポジションを変えた場合でもリアルタイムにその位置を把握認識することができることから、それらの動きに合わせて最適ポジションに各装置を再配置するように制御することも可能となる。また、従来の動作制御においては、位置検出用センサーや、ステッピングモータによる制御が必要であったが、本発明によれば、画像認識で位置を検出するため複雑な制御配線やプログラムを必要としないものである。
【0114】
【発明の効果】
本発明によれば、歯科診療ユニットの各装置の位置、患者および術者の存在とその位置をリアルタイムに認識し、患者の導入、診療開始、診療終了に対応して歯科診療ユニットの所定装置をそれぞれの最適位置に移動させることができる。このため、診療行為の流れをスムーズに効率よく行うことができる。特に、複雑な制御装置を歯科診療ユニットに設けることなく自動移動が可能となる。また、術者が選択した診療器具(インスツルメント類、その他の器具)の固体判別により、重複使用のロックや、ホースの送り出し、巻き取りを自動的に行い術者の歯科診療行為を支援することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態における画像認識による歯科診療支援システムの構成を示すブロック図である。
【図2】カメラの配置を示す正面図である。
【図3】カメラの別の配置を示す側面図である
【図4】図3の平面図である。
【図5】画像認識による歯科診療支援動作のゼネラルフローである。
【図6】(a)は画像認識による歯科診療支援動作における装置認識ステップ、(b)は人物認識ステップ、(c)は差分画像処理ステップのフローチャートである。
【図7】(a)は画像認識による歯科診療支援動作における動作認識ステップ、(b)は接触監視ステップのフローチャートである。
【図8】(a)は画像認識による歯科診療支援動作におけるインスツルメント認識ステップ、(b)は接触判定ステップのフローチャートである。
【符号の説明】
1 歯科診療ユニット
10 カメラ
10a 第1のカメラ
10b 第2のカメラ
10c 第3のカメラ
11 表示装置
12 無影灯
12a,12b,12c,12d,12e 支持アーム
13 テーブル
13a,13b,13c 支持アーム
14 アシスタントハンガー
15 インスツルメントハンガー
16 インスツルメント
16a インスツルメントホース
17 チェアー
18 フットペダル
20 画像認識・制御コンピュータ
21 外部接続ポート
23 記憶部
30 診療ユニット動作制御装置
31 診療チェア昇降・背板傾動動作部
32 テーブル移動動作部
33 インスツルメント制御動作部
34 アシスタントハンガー移動動作部
35 無影灯移動動作部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a dental care support system, and more particularly, by automatically recognizing the arrangement and position of a medical care unit, a patient, and an operator in a dental care area, thereby automatically arranging each part and device of the dental care unit at an optimal position. The present invention relates to a system for supporting medical practice.
[0002]
[Prior art]
In dental care, at the time of introduction or examination of a patient, the operator moves the table or chair of the medical care unit each time. In addition, when the operator sets the table at the medical treatment position, a position at which the medical treatment is easy to perform is stored in advance in the movable mechanism of the dental care unit, and the unit moves to a predetermined position when manually pressed in the operation direction, or a movable mechanism. There is a medical unit with an automatic mechanism that has a drive unit and moves to the medical treatment position by operating the switch.However, in these automatic setting mechanisms, the movable mechanism of the dental medical unit is equipped with a drive device and a position detection sensor together with a drive device. Because of the need to control, the signal mechanism was complicated.
[0003]
A conventional apparatus for automatically moving a holding device for a dental treatment instrument such as a table to a position suitable for treatment is a medical treatment that is stored in a storage means in advance in correspondence with the position of a chair for an operator (doctor or dental hygienist). It is configured to move to an optimum position corresponding to the position (for example, see Patent Document 1).
[0004]
[Patent Document 1]
JP 2000-166995 A
[0005]
[Problems to be solved by the invention]
However, in the conventional apparatus, when introducing a patient, it is necessary to move each part (table, etc.) of the medical care unit to a position where the patient does not come into contact when the patient moves for sitting. Also, in the method of moving the table to the optimal medical care position stored in advance by the switch of the automatic setting mechanism, even if there is a shift in the medical care position of the operator, automatic correction cannot be performed, so it was necessary to perform manual correction. .
[0006]
In addition, it is desirable that the setting position of the table at the time of medical treatment be set at a height where the elbow is slightly bent with the operator sitting on the doctor chair, and set at a distance that can be easily reached, but the body type of the operator There is a great difference in the optimal table setting position depending on (physique such as height of the back and length of the hand). For this reason, there has been a problem that even if the table setting position is determined and moved only based on the distance from the operator's chair, it is troublesome to manually adjust again. In addition, when a plurality of operators (doctors, dental hygienists) change to the same medical care unit, there is a complicated operation that must be adjusted due to individual differences in the body types of the operators.
[0007]
Also, when moving these dental units automatically, the moving parts may come into contact with the patient or the surgeon.Therefore, each time the switch is operated, it must be checked for collisions and monitored. I had to.
[0008]
In such an automatic operation mechanism of the dental care unit, since the control of the movable portion is performed, the number of wires for transmitting the control signal is increased, and disconnection / malfunction of the movable portion, malfunction of the instrument, and the like are likely to occur. Therefore, it has been desired that the control mechanism be as simple and safe as possible.
[0009]
The present invention has been made in view of such a conventional problem, and recognizes the position of each device of the dental care unit, the presence of the patient and the operator and their positions in real time, and introduces and treats the patient. An object of the present invention is to provide a dental care support system by image recognition that moves a predetermined device of a dental care unit to an optimum position in response to start and end of medical care.
[0010]
In addition, it is also necessary to automatically support the use of dental equipment by automatically locking and dispensing hoses and rewinding hoses based on individual identification of medical equipment (instruments, other equipment) selected by the operator. And
[0011]
[Means for Solving the Problems]
In order to achieve the above object, a dental care support system based on image recognition according to the first aspect of the present invention provides a dental care unit including a medical chair on which a patient sits, and image information of a medical care area near a medical chair of an operator and an assistant. One or more cameras to be obtained, and recognition means for real-time recognition of the position and patient of each device in the dental care unit, the presence of the surgeon, and the position thereof based on image information from the camera. I do.
[0012]
According to the present invention, it is possible to grasp in real time what position and state each movable device of the dental care unit is set. In addition, by recognizing the medical care area in real time, it is possible to recognize the medical care process (introduction of a patient, start of medical care, end of medical care, etc.) from the existence and position of a patient, an operator, and an assistant. Further, it is possible to recognize the movement of each part of the medical treatment unit and the movement of the patient and the operator from the difference between the image information recognized in real time and the image information recognized a predetermined time ago. By these state recognition and motion recognition, the operation work of the dental care unit conventionally performed by the operator or the assistant can be automated and supported.
[0013]
A dental care support system using image recognition according to the second aspect of the present invention is a dental care unit including a medical chair on which a patient sits, and one or more image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, And a position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical care operation.
[0014]
According to the present invention, in addition to the operation of the first aspect of the present invention, the patient sits on the consultation chair, recognizes that the operator is located at the consultation position, and moves the table, the assistant hanger, and the like to a position optimal for the consultation operation. Operation can be performed automatically. For this reason, the surgeon can enter into the medical care operation while focusing on the observation, explanation, and dialogue of the patient without being bothered by extra work.
[0015]
A dental care support system based on image recognition according to the third aspect of the present invention is a dental care unit including a medical chair on which a patient sits, and one or more image information of a medical care area near a medical chair of an operator and an assistant. A camera, recognition means for recognizing the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and a surgeon's face image from the camera. It is provided with surgeon identification means for performing surgeon identification, and position control means for moving a predetermined device in the dental care unit to an optimal position in accordance with the medical care style of the surgeon identified by the surgeon identification means. Features.
[0016]
According to the present invention, in addition to the effects of the first and second aspects, an operator identification means is provided to identify the operator at the medical treatment position, and to store the optimal information in accordance with the pre-stored medical style for each operator. Each device of the medical care unit can be moved to an appropriate position. By storing in advance the face image of the surgeon and the table set position according to the practice style of the surgeon, the optimal device position for each surgeon even in a dental clinic where multiple surgeons are treated Can be set automatically.
[0017]
A dental care support system by image recognition according to the invention of claim 4 is a dental care unit including a medical chair on which a patient sits, and one or a plurality of image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, Position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical operation, patient identification means for performing patient identification based on a face image of the patient from the camera, and patient identification means Display means for displaying medical information about the patient.
[0018]
According to the present invention, by providing the patient identification means, the individual patient can be identified. Then, by identifying the individual patient sitting on the medical chair and reading and displaying the medical record of the patient from the dental medical management server, it is possible to confirm the progress of the medical treatment and explain the medical treatment contents for the patient.
[0019]
A dental care support system based on image recognition according to the invention of claim 5 is a dental care unit including a medical chair on which a patient sits, and one or more image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, Position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical operation, instrument discriminating means for discriminating the instrument selected by the operator, and instruments for which duplicate use is prohibited. When an instrument is selected, the instrument lock locks the operation of at least the prohibited instrument. Characterized in that it includes a click means.
[0020]
In the present invention, by providing the instrument discriminating means, only the instruments (turbine rotation, water injection, etc.) currently used by the operator can be operated, and the devices for which simultaneous use is prohibited are prohibited. It is possible to prevent erroneous operation.
[0021]
A dental care support system based on image recognition according to the invention of
[0022]
According to this invention, in addition to the operation of the invention of claim 5, by providing the instrument hose control means, the winding state of the hose can be automatically controlled according to the use condition of the instrument.
[0023]
The invention according to
[0024]
According to the present invention, the use state of the instrument is grasped by image-recognizing the motion of the hand of the operator holding the instrument in the treatment area. Therefore, the surgeon can concentrate on the treatment without having to worry about the operation of the hose.
[0025]
The invention of
[0026]
According to the present invention, the recognition unit monitors the operation of each device and estimates the movement path of each device, thereby preventing each unit operating by the position control unit from contacting or colliding with an obstacle.
[0027]
A ninth aspect of the present invention is the invention according to any one of the second to sixth aspects, wherein the camera is a dental care unit including a medical care chair on which a patient sits, and a medical care unit near a medical care chair of an operator and an assistant. A first camera for taking an image of the area from above, a second camera for taking a face image of a patient and an operator, and a third camera for taking a picture of the medical care area from the side are arranged. .
[0028]
According to the present invention, the state of the medical care unit in the medical care area, the presence and position of the patient and the surgeon can be obtained in a plan view using the first camera, and the arrangement status can be acquired. A face image can be acquired in real time to identify an individual, and a third camera acquires images relating to the height of the patient's chair, the tilt of the backboard, and the height of the table and the like of the medical treatment unit, and obtains images of various parts of the apparatus. This makes it possible to determine contact when moving.
[0029]
The invention according to
[0030]
According to the present invention, the camera is attached to the surgical light, and the arm of the surgical light is rotated to move the camera to an arbitrary photographing position, and according to the medical treatment stage (patient introduction, medical treatment start, medical treatment, medical treatment end). Images can be acquired. Therefore, the same operation as in
[0031]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a dental care support system using image recognition according to an embodiment of the present invention.
[0032]
The dental
[0033]
The medical treatment unit operation control device 30 is connected with a medical treatment chair lifting / lowering / backboard tilting
[0034]
The
[0035]
The image recognition / control computer 20 includes an
[0036]
The recognition control unit 22 includes a
[0037]
In addition, the storage unit 23 stores unit movable
[0038]
The unit movable
[0039]
The
[0040]
The
[0041]
The
[0042]
FIG. 2 is a front view showing the arrangement of the cameras. As shown in the figure, the
[0043]
Here, the main movable parts are the operating
[0044]
The
[0045]
The third camera performs image recognition for controlling the vertical movement of a table or the like in the case of a dental care unit of a type in which the table 13 and the
[0046]
FIG. 3 is a side view showing another arrangement of the camera. The same devices as those in FIG. 2 are assigned the same reference numerals. In this embodiment, a
[0047]
The camera position A is a position in place of the
[0048]
Next, a technique relating to the
[0049]
In order to determine the actual distance or size of the device or the like from the image acquired from the
[0050]
A method of recognizing the state of the movable range of each device will be described. The
[0051]
As shown in FIG. 3, the table 13 can be moved to the position D ′ when the patient is introduced, so that the table 13 does not interfere with the patient's seating movement, and can be moved to the position D at the start of medical treatment. It becomes the movable range. This position recognition is similarly performed by comparing (pattern matching) with a model pattern registered in advance in the unit movable
[0052]
FIG. 4 is a plan view of FIG. The
[0053]
At the time of these pattern matching, the color information (RGB) of the image is converted into hue (H), saturation (S), and lightness (V) by using HSV colorimetric information, thereby comparing the image with the unit movable
[0054]
FIG. 4 shows a medical care area K acquired by the
[0055]
In FIG. 4,
[0056]
The main operation of the dental care support of this embodiment will be described based on the general flow shown in FIG.
[0057]
First, the position of each part of the
[0058]
Next, a person (operator, patient) is recognized by the recognition means 22a (person recognition step S2). This detailed flow is shown in FIG.
[0059]
Next, it is determined whether the operator exists at the medical treatment position in the treatment position area L or the patient exists on the
[0060]
Next, each part of the dental care unit is moved to an optimal position according to the medical care position of the operator. That is, the optimal position of each device registered for each individual operator is retrieved and read out from the
[0061]
At this time, control of each part of the dental care unit is performed by sending an operation command signal to the medical care unit operation control device 30 connected to the
[0062]
As shown in FIG. 1, the medical treatment unit operation control device 30 includes a medical chair lifting / lowering / backboard tilting
[0063]
Next, the operation of each part of the dental care unit which started operation in the position control step S4 is recognized (operation recognition step S5). This detailed flow is shown in FIG.
[0064]
It is determined whether each part of the device that has moved has moved to the optimal position corresponding to the medical care position of the operator searched in the position control step S4, that is, the optimal stop position, and if it has moved to the optimal stop position, the operation ends. Proceed to step (S9). If it has not reached the optimal stop position, the process proceeds to the next step (operation end determination step S6).
[0065]
If the movement has not been completed, the positional relationship between the operating parts of the dental care unit and other parts or persons is monitored for a risk of contact (contact monitoring step S7). This detailed flow is shown in FIG.
[0066]
When it is determined that contact with something is predicted due to the movement, the process proceeds to the operation end step (S9). When it is determined that there is no fear of contact, the moving operation is continued and the process returns to the operation recognition step S5. In this flow, the case where the operation is stopped when it is determined that the contact is predicted has been described, but the process may return to the position control step S4 to change the movement trajectory of each device so as to avoid an obstacle, Alternatively, an alarm sound may be sounded to warn a person as an obstacle, and these may be combined (contact determination step S8).
[0067]
As described above, the medical unit is automatically set in accordance with the introduction of the patient and the start of the medical treatment by the operator, the medical treatment is started, and the process proceeds to step S10 and subsequent steps.
[0068]
During the medical treatment, the
[0069]
Subsequently, the person (operator, patient) is recognized by the recognition means 22a (person recognition step S11). This detailed flow is the same as that in step 2, and is shown in FIG.
[0070]
In order to determine the end of the medical treatment, it is determined whether the operator has left the medical treatment position or the treatment position area L. If the operator is in the medical treatment position, it is determined that medical treatment is ongoing, and the process returns to step 10 to continue monitoring. If the operator has left, the process proceeds to step S13 (medical care end determination step S12).
[0071]
When it is determined that the medical care has been completed, each part of the dental care unit is moved to the reset position. In this operation, a command is issued to lower the
[0072]
Next, the operation of each part of the dental care unit which started the operation in the
[0073]
Subsequently, it is determined whether or not each part of the apparatus that has moved has moved to the reset position, and if it has moved to the reset position, the process jumps to the step of ending the operation of
[0074]
If the movement has not been completed, the positional relationship between the operating medical unit and other parts or persons is monitored to determine whether there is a risk of contact (contact monitoring step S16). This detailed flow is shown in FIG.
[0075]
When it is determined that contact with something is predicted due to the movement, the process proceeds to the end process of the operation in step S18. When it is determined that there is no fear of contact, the movement operation is continued and the process returns to the operation recognition step of step S14 (contact determination step S17), and the operation is ended by resetting the medical care unit (step S18).
[0076]
The above is the main flow of the medical care support operation. Subsequently, detailed operations of the respective steps described above will be described with reference to FIGS. 6, 7, and 8. FIG.
[0077]
FIG. 6A is a flowchart of a device recognition step in a dental care support operation by image recognition, FIG. 6B is a flowchart of a person recognition step, and FIG. 6C is a flowchart of a difference image processing step.
[0078]
The device recognition step shown in FIG. 6A is for confirming the position of each part of the device, and first recognizes the chair backboard angle (chair backboard angle recognition S1-1). In this recognition, the chair backboard portion is determined from the acquired image, the model is compared with the model pattern registered in advance in the unit movable
[0079]
Next, the table is discriminated from the acquired image, the model pattern registered in advance in the unit movable
[0080]
Subsequently, the assistant hanger is determined from the acquired image, and the position of the assistant hanger is similarly obtained by pattern matching (assistant hanger position recognition step S1-3).
[0081]
In the person recognition step shown in FIG. 6B, first, images of the medical care area (around the dental care unit and the chair device) are acquired at regular time intervals, the images before and after are compared to monitor the background around the unit, and A temporal change is extracted (difference image processing step S2-1). The details of the difference image processing step will be described in detail with reference to FIG.
[0082]
Subsequently, it is determined whether there is a significant change in the image of the medical care area. If there is no significant change, the person recognition step ends. If there is a large change, the process proceeds to the next (change determination step S2-2).
[0083]
Next, an area having a large difference is specified in the medical care area K (around the unit) (change area specifying step S2-3).
[0084]
Subsequently, it is determined whether or not the change area is around the chair where the patient sits, and if it is around the chair, the process proceeds to step S2-5 (patient determination step S2-4).
[0085]
It is determined whether or not the change area is around the treatment position area L where the operator is seated (medical position). If the change area is around the treatment position area L, the process proceeds to step S2-7 (operator determination step S2-6).
[0086]
The presence of the patient is confirmed, the patient's face image is acquired, and the patient is identified by performing pattern matching with the
[0087]
When the presence of the operator is recognized in the treatment position area L, the position of the medical treatment position of the operator is determined, and a face image of the operator is obtained, and the operation is performed by pattern matching with the
[0088]
By this operator's personal identification, the position control means 22e can search the optimum position of each part of the apparatus for each operator from the
[0089]
Details of the difference image processing step in step S2-1 will be described with reference to FIG. First, an image A is obtained from the camera (step S2-11). Subsequently, a predetermined change monitoring interval is set in a timer (step S2-12).
[0090]
The progress of the timer set time is monitored, and when the set time has been reached, the process proceeds to the next (step S2-13).
[0091]
Next, an image B is acquired from the camera (step S2-14), and the acquired image A and image B are compared to acquire a difference image (step S2-15).
[0092]
FIG. 7A is a flowchart of an operation recognition step in the dental care support operation by image recognition, and FIG. 7B is a flowchart of a contact monitoring step.
[0093]
FIG. 7A shows details of the operation recognition steps of steps S5 and S14 described in FIG. First, it is determined whether the
[0094]
When a change is recognized in the
[0095]
Next, it is determined from the area of the difference image whether the table 13 is operating. If there is no change, the process moves to step S5-7 (step S5-4). When a change is recognized in the table 13, the position in the image and the operation direction are estimated from the image before operation and the image after operation (step S5-5). Subsequently, the table position is recognized by pattern matching (step S5-6).
[0096]
Next, it is determined whether or not the
[0097]
FIG. 7B is a flowchart illustrating details of the contact monitoring step S7 described in FIG. First, it is determined whether the
[0098]
When a change is recognized in the
[0099]
Subsequently, it is determined whether or not the table 13 is in operation. If there is no change, the process proceeds to step S7-5 (step S7-3). When a change is recognized in the table 13, the destination is estimated from the position and the movement direction, and it is determined whether or not the destination may come into contact with an obstacle (step S7-4).
[0100]
Subsequently, it is determined whether or not the
[0101]
FIG. 8A is a flowchart of an instrument recognition step in a dental care support operation using image recognition, and FIG. 8B is a flowchart of a contact determination step.
[0102]
FIG. 8A shows the details of step S10 in FIG. First, a difference image around the treatment area N obtained in the above-described difference image processing step is monitored (step S10-1). At this time, recognition accuracy can be ensured by capturing only the periphery of the treatment area N by the digital zoom function or by using a close-up image using a camera having an optical zoom function. In the case of the
[0103]
If there is no significant change in the images around the treatment area N and in the treatment area N, the process ends. When a large change is recognized, the process proceeds to step S10-3 (step S10-2).
[0104]
An area having a large difference (change) in the vicinity of the treatment area N and within the treatment area N is specified, and the operation direction of the operator's hand and the grasped instrument is recognized (step S10-3). At this time, the processing can be performed efficiently by specifying the treatment area as a divided area.
[0105]
Subsequently, the instruments used in the treatment area N are specified by pattern matching and color identification (step S10-4). By this instrument identification, the instrument locking means 22g sends a control signal to the instrument
[0106]
Further, the instrument hose control means 22h determines the position and movement of the hand of the operator holding the instrument by tracking. When the used instrument is moved into the medical care area N, the
[0107]
When distinguishing these instruments and the operator's hand, it is preferable to color-code the grips and hoses of the instrument and use a fixed color for the operator's gloves. By doing so, it is possible to further enhance the discrimination effect even if there is a change in how the instrument is gripped or in the direction.
[0108]
In addition, when the medical care information has been acquired from the dental
[0109]
FIG. 8B is a detailed flowchart of the contact determination step S7-2 in FIG. 7B. First, the movement direction of the target device is grasped from the information obtained by the difference image processing, and the destination is estimated (step S7-21). Next, it is determined whether there is an obstacle at the destination (step S7-22). At this time, the height is also determined using both the planar position information from the
[0110]
The distance to the obstacle is 100 mm to 200 mm away from the outer circumference of the moving device, or a
[0111]
In step S7-24, an obstacle is identified by performing pattern matching with the image information of each part of the person / device. If the identified obstacle is a known obstacle (table, assistant hanger, surgeon at a predetermined position), contact (hit) prediction is performed from the image of the
[0112]
In the contact (hit) prediction, it is possible to warn or stop by detecting that there is a risk that the operator's foot sitting on the
[0113]
The present invention is not limited to the above embodiments, and various modifications can be made. In the present invention, even if the operator manually moves each device such as a table for fine adjustment, it is possible to recognize the position, and even during the medical treatment, even if the operator changes the medical treatment position Since the position can be grasped and recognized in real time, it is also possible to control to relocate each device to an optimal position according to the movement. Further, in the conventional operation control, control using a position detection sensor or a stepping motor is required. However, according to the present invention, since a position is detected by image recognition, complicated control wiring and a program are not required. Things.
[0114]
【The invention's effect】
According to the present invention, the position of each device of the dental care unit, the presence and position of the patient and the operator and their positions are recognized in real time, and the introduction of the patient, the start of the care, and the completion of the medical care correspond to the predetermined device of the dental care unit. It can be moved to each optimal position. Therefore, the flow of medical treatment can be performed smoothly and efficiently. In particular, automatic movement becomes possible without providing a complicated control device in the dental care unit. In addition, based on the individual identification of medical instruments (instruments and other instruments) selected by the surgeon, locks for duplicate use, sending out and rewinding of hoses are automatically performed to support the surgeon's dental practice. be able to.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a dental care support system based on image recognition according to an embodiment of the present invention.
FIG. 2 is a front view showing an arrangement of cameras.
FIG. 3 is a side view showing another arrangement of the camera.
FIG. 4 is a plan view of FIG. 3;
FIG. 5 is a general flow of a dental care support operation by image recognition.
6A is a flowchart of a device recognition step in a dental care support operation by image recognition, FIG. 6B is a flowchart of a person recognition step, and FIG. 6C is a flowchart of a difference image processing step.
7A is a flowchart of an operation recognition step in a dental care support operation based on image recognition, and FIG. 7B is a flowchart of a contact monitoring step.
8A is a flowchart of an instrument recognition step in a dental care support operation based on image recognition, and FIG. 8B is a flowchart of a contact determination step.
[Explanation of symbols]
1 Dental practice unit
10 Camera
10a First camera
10b Second camera
10c Third camera
11 Display device
12 Operating light
12a, 12b, 12c, 12d, 12e Support arm
13 Table
13a, 13b, 13c Support arm
14 Assistant hanger
15 Instrument hanger
16 Instruments
16a Instrument hose
17 Chair
18 foot pedal
20 Image recognition and control computer
21 External connection port
23 Memory
30 Medical unit operation control device
31 clinic chair lift / back plate tilting operation unit
32 Table moving operation unit
33 Instrument control operation section
34 Assistant hanger movement unit
35 Operating light moving section
Claims (10)
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段とを備えることを特徴とする画像認識による歯科診療支援システム。One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
A dental care support system using image recognition, comprising: a recognition unit that recognizes the position of each device in a dental care unit, the presence of a patient and an operator, and their positions in real time based on image information from a camera.
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段とを備えることを特徴とする画像認識による歯科診療支援システム。One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
A dental care support system using image recognition, comprising: a position control means for, when the recognition means recognizes the patient and the surgeon, moving a predetermined device in the dental care unit to a position optimal for supporting a medical operation.
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
前記カメラからの術者の顔画像に基づいて術者識別を行う術者識別手段と、
術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備えていることを特徴とする画像認識による歯科診療支援システム。One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
Surgeon identification means for performing surgeon identification based on the surgeon's face image from the camera,
A dental care support system using image recognition, comprising: a position control means for moving a predetermined device in a dental care unit to an optimum position according to a medical treatment style of an operator identified by an operator identifying means.
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、
前記カメラからの患者の顔画像に基づいて患者識別を行う患者識別手段と、
患者識別手段が識別した患者についての診療情報を表示する表示手段とを備えていることを特徴とする画像認識による歯科診療支援システム。One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
When the recognition unit recognizes the patient and the operator, a position control unit that moves a predetermined device in the dental care unit to a position that is optimal for supporting a medical operation,
Patient identification means for performing patient identification based on the patient's face image from the camera,
Display means for displaying medical information on the patient identified by the patient identification means. A dental care support system based on image recognition.
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、
術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、
重複使用禁止のインスツルメントが選択されたとき、少なくとも使用禁止側のインスツルメントの作動をロックするインスツルメントロック手段とを備えていることを特徴とする画像認識による歯科診療支援システム。One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
When the recognition unit recognizes the patient and the operator, a position control unit that moves a predetermined device in the dental care unit to a position that is optimal for supporting a medical operation,
Instrument discriminating means for discriminating the instrument selected by the operator,
A dental care support system based on image recognition, comprising: an instrument locking means for locking at least the operation of the instrument on the use prohibition side when an instrument for which duplicate use is prohibited is selected.
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、
術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、
判別されたインスツルメントに接続されているインスツルメントホースを当該インスツルメントの使用状況に応じて送り出し状態、巻き取り状態、テンションフリー状態に制御するインスツルメントホース制御手段とを備えていることを特徴とする画像認識による歯科診療支援システム。One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
When the recognition unit recognizes the patient and the operator, a position control unit that moves a predetermined device in the dental care unit to a position that is optimal for supporting a medical operation,
Instrument discriminating means for discriminating the instrument selected by the operator,
Instrument hose control means for controlling an instrument hose connected to the determined instrument to a delivery state, a winding state, or a tension-free state according to the usage state of the instrument. A dental care support system using image recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002330860A JP4172689B2 (en) | 2002-11-14 | 2002-11-14 | Dental care support system based on image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002330860A JP4172689B2 (en) | 2002-11-14 | 2002-11-14 | Dental care support system based on image recognition |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008144017A Division JP4653822B2 (en) | 2008-06-02 | 2008-06-02 | Dental care support system based on image recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004159998A true JP2004159998A (en) | 2004-06-10 |
JP4172689B2 JP4172689B2 (en) | 2008-10-29 |
Family
ID=32808431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002330860A Expired - Fee Related JP4172689B2 (en) | 2002-11-14 | 2002-11-14 | Dental care support system based on image recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4172689B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009118987A (en) * | 2007-11-14 | 2009-06-04 | Yoshida Dental Mfg Co Ltd | Automatic patient's facial image storage system and apparatus |
JP2010522002A (en) * | 2007-03-19 | 2010-07-01 | プランメカ オイ | User-friendly dental care unit |
JP2010273917A (en) * | 2009-05-29 | 2010-12-09 | Morita Mfg Co Ltd | Dental treatment device |
JP2012152447A (en) * | 2011-01-27 | 2012-08-16 | Osada Res Inst Ltd | Dental treatment apparatus |
JP2012196238A (en) * | 2011-03-18 | 2012-10-18 | Morita Mfg Co Ltd | Medical treatment apparatus |
JP2012203572A (en) * | 2011-03-24 | 2012-10-22 | Morita Mfg Co Ltd | Medical treatment device |
JP2017035279A (en) * | 2015-08-10 | 2017-02-16 | 長田電機工業株式会社 | Dental treatment unit |
WO2017073986A1 (en) * | 2015-10-29 | 2017-05-04 | 이민정 | Dental self-assistance apparatus |
KR101745434B1 (en) | 2016-04-06 | 2017-06-09 | 이민정 | Self-assistant apparatus for dental clinic |
WO2019044124A1 (en) * | 2017-09-04 | 2019-03-07 | 大樹 梶田 | Multiple-viewpoint video image viewing system and camera system |
JP2019042199A (en) * | 2017-09-04 | 2019-03-22 | 大樹 梶田 | Camera system |
WO2019187449A1 (en) * | 2018-03-29 | 2019-10-03 | 株式会社吉田製作所 | Image processing device and image processing program |
JP2019213778A (en) * | 2018-06-14 | 2019-12-19 | 株式会社吉田製作所 | Mounted type dental treatment apparatus and mounted type dental treatment system |
JP2020127560A (en) * | 2019-02-07 | 2020-08-27 | 株式会社吉田製作所 | Mobile dental care apparatus and dental care system |
JP2021037155A (en) * | 2019-09-04 | 2021-03-11 | 株式会社モリタ製作所 | Medical diagnostic apparatus |
JP2022169603A (en) * | 2020-12-03 | 2022-11-09 | 株式会社吉田製作所 | Dental clinic system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04189357A (en) * | 1990-11-22 | 1992-07-07 | Morita Tokyo Seisakusho:Kk | Dental unit |
JPH05268599A (en) * | 1992-03-17 | 1993-10-15 | Fujitsu Ltd | Automatic control system for portrait pickup camera in television conference system |
JPH11183145A (en) * | 1997-10-15 | 1999-07-09 | Yuusuke Nonomura | Three-dimensional observation apparatus |
JP2000099827A (en) * | 1998-09-25 | 2000-04-07 | Fujitsu Ltd | System and method for customer recognition using radio identification and visual data transmission |
JP2000166995A (en) * | 1998-12-01 | 2000-06-20 | Morita Mfg Co Ltd | Dental treatment instrument |
JP2002035009A (en) * | 2000-07-19 | 2002-02-05 | Morita Mfg Co Ltd | Identifiable instrument, identifiable adapter, identifiable tube and treatment apparatus using the same |
-
2002
- 2002-11-14 JP JP2002330860A patent/JP4172689B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04189357A (en) * | 1990-11-22 | 1992-07-07 | Morita Tokyo Seisakusho:Kk | Dental unit |
JPH05268599A (en) * | 1992-03-17 | 1993-10-15 | Fujitsu Ltd | Automatic control system for portrait pickup camera in television conference system |
JPH11183145A (en) * | 1997-10-15 | 1999-07-09 | Yuusuke Nonomura | Three-dimensional observation apparatus |
JP2000099827A (en) * | 1998-09-25 | 2000-04-07 | Fujitsu Ltd | System and method for customer recognition using radio identification and visual data transmission |
JP2000166995A (en) * | 1998-12-01 | 2000-06-20 | Morita Mfg Co Ltd | Dental treatment instrument |
JP2002035009A (en) * | 2000-07-19 | 2002-02-05 | Morita Mfg Co Ltd | Identifiable instrument, identifiable adapter, identifiable tube and treatment apparatus using the same |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010522002A (en) * | 2007-03-19 | 2010-07-01 | プランメカ オイ | User-friendly dental care unit |
JP2009118987A (en) * | 2007-11-14 | 2009-06-04 | Yoshida Dental Mfg Co Ltd | Automatic patient's facial image storage system and apparatus |
JP2010273917A (en) * | 2009-05-29 | 2010-12-09 | Morita Mfg Co Ltd | Dental treatment device |
JP2012152447A (en) * | 2011-01-27 | 2012-08-16 | Osada Res Inst Ltd | Dental treatment apparatus |
JP2012196238A (en) * | 2011-03-18 | 2012-10-18 | Morita Mfg Co Ltd | Medical treatment apparatus |
JP2012203572A (en) * | 2011-03-24 | 2012-10-22 | Morita Mfg Co Ltd | Medical treatment device |
JP2017035279A (en) * | 2015-08-10 | 2017-02-16 | 長田電機工業株式会社 | Dental treatment unit |
WO2017073986A1 (en) * | 2015-10-29 | 2017-05-04 | 이민정 | Dental self-assistance apparatus |
KR101745434B1 (en) | 2016-04-06 | 2017-06-09 | 이민정 | Self-assistant apparatus for dental clinic |
JP2019042199A (en) * | 2017-09-04 | 2019-03-22 | 大樹 梶田 | Camera system |
WO2019044124A1 (en) * | 2017-09-04 | 2019-03-07 | 大樹 梶田 | Multiple-viewpoint video image viewing system and camera system |
WO2019187449A1 (en) * | 2018-03-29 | 2019-10-03 | 株式会社吉田製作所 | Image processing device and image processing program |
JP2019170923A (en) * | 2018-03-29 | 2019-10-10 | 株式会社吉田製作所 | Image processing device and image processing program |
JP2019213778A (en) * | 2018-06-14 | 2019-12-19 | 株式会社吉田製作所 | Mounted type dental treatment apparatus and mounted type dental treatment system |
JP7131808B2 (en) | 2018-06-14 | 2022-09-06 | 株式会社吉田製作所 | Wearable dental care device and wearable dental care system |
JP2020127560A (en) * | 2019-02-07 | 2020-08-27 | 株式会社吉田製作所 | Mobile dental care apparatus and dental care system |
JP7261453B2 (en) | 2019-02-07 | 2023-04-20 | 株式会社吉田製作所 | Mobile dental practice equipment and dental practice system |
JP2021037155A (en) * | 2019-09-04 | 2021-03-11 | 株式会社モリタ製作所 | Medical diagnostic apparatus |
JP7117278B2 (en) | 2019-09-04 | 2022-08-12 | 株式会社モリタ製作所 | medical diagnostic equipment |
JP2022169603A (en) * | 2020-12-03 | 2022-11-09 | 株式会社吉田製作所 | Dental clinic system |
JP7349186B2 (en) | 2020-12-03 | 2023-09-22 | 株式会社吉田製作所 | dental treatment system |
Also Published As
Publication number | Publication date |
---|---|
JP4172689B2 (en) | 2008-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004159998A (en) | Dental treatment supporting system with image recognition | |
JP4653822B2 (en) | Dental care support system based on image recognition | |
JP4152402B2 (en) | Surgery support device | |
US7076286B2 (en) | Surgical microscope | |
JP6623226B2 (en) | Jaw movement tracking | |
KR101716421B1 (en) | Method for providing information and medical diagnosis apparatus thereto | |
US8521255B2 (en) | Registration pointer and method for registering a bone of a patient to a computer assisted orthopaedic surgery system | |
JP4484462B2 (en) | Method and apparatus for positioning a patient in a medical diagnostic or therapeutic device | |
US20190310819A1 (en) | Augmented reality image display systems and methods | |
KR101152177B1 (en) | Method and System for Automatic Leading Surgery Position and Apparatus Having Surgery Position Leading Function | |
JP2004223128A (en) | Medical practice supporting apparatus and method | |
CN110226967A (en) | For remotely operating the structural adjustment system and method for medical system | |
JPH08164148A (en) | Surgical operation device under endoscope | |
JP3707830B2 (en) | Image display device for surgical support | |
JPH0670884A (en) | Medical diagnostic device using sight line detection | |
JP5315524B2 (en) | Medical diagnostic imaging equipment | |
US20240016552A1 (en) | Surgical object tracking template generation for computer assisted navigation during surgical procedure | |
JP2015019777A (en) | Body position determination support device and medical image diagnostic apparatus | |
JP2001275931A (en) | Medical treatment system | |
JP6806364B2 (en) | Dental treatment unit | |
JP3899862B2 (en) | Medical X-ray equipment | |
US20170228877A1 (en) | Device and method for image registration, and a nontransitory recording medium | |
WO2023124732A1 (en) | Device control method and system for image-guided interventional punctures | |
JP6933935B2 (en) | Camera system | |
KR20150042760A (en) | Method for providing information and magnetic resonance imaging apparatus thereto |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080729 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080808 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4172689 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |