JP2004159998A - Dental treatment supporting system with image recognition - Google Patents

Dental treatment supporting system with image recognition Download PDF

Info

Publication number
JP2004159998A
JP2004159998A JP2002330860A JP2002330860A JP2004159998A JP 2004159998 A JP2004159998 A JP 2004159998A JP 2002330860 A JP2002330860 A JP 2002330860A JP 2002330860 A JP2002330860 A JP 2002330860A JP 2004159998 A JP2004159998 A JP 2004159998A
Authority
JP
Japan
Prior art keywords
patient
medical
operator
unit
dental care
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002330860A
Other languages
Japanese (ja)
Other versions
JP4172689B2 (en
Inventor
Fumio Obayashi
文夫 大林
Takeshi Tomoe
剛 友江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshida Dental Mfg Co Ltd
Original Assignee
Yoshida Dental Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Dental Mfg Co Ltd filed Critical Yoshida Dental Mfg Co Ltd
Priority to JP2002330860A priority Critical patent/JP4172689B2/en
Publication of JP2004159998A publication Critical patent/JP2004159998A/en
Application granted granted Critical
Publication of JP4172689B2 publication Critical patent/JP4172689B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To move prescribed devices of a dental treatment unit to each optimum position, corresponding to introduction of a patient, a treatment start, and a treatment end. <P>SOLUTION: The dental treatment supporting system is composed of cameras 10, a display device 11 provided on the treatment unit or in its vicinity where it is a position visually recognizable from the patient, an image recognizing/controlling computer 20, a dental treatment unit operation controlling device 30, and a dental treatment management server 50 connected through an in-hospital LAN 40. More specifically, the system is provided with one or more cameras for obtaining image information on a treatment area, a recognition means 22a for recognizing in real time each device position in the dental treatment unit as well as existence and its positions of the patient and an operator depending on the image information from the cameras, and a position controlling means 22e for moving the prescribed devices in the dental treatment unit to the position optimal for supporting the treatment operation when the recognition means recognizes the patient and the operator. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、歯科診療支援システムに関し、詳しくは、歯科診療エリアの診療ユニット、患者、術者の配置・位置を画像認識することにより、歯科診療ユニットの各部及び装置を最適ポジションに自動配置して診療行為を支援するシステムに関する。
【0002】
【従来の技術】
歯科診療においては、患者の導入時や診察時には、診療ユニットのテーブルやチェアーの移動を術者がその都度行っていた。また、術者が診療位置にテーブルをセットする際に、あらかじめ診療しやすい位置を歯科診療ユニットの可動機構に記憶させておき、手動で動作方向に押すと所定位置まで移動させるユニットや、可動機構に駆動部を備え、スイッチの操作により診療位置まで移動させる自動機構付の診療ユニットがあるが、これらの自動セット機構では歯科診療ユニットの可動機構に駆動装置と共に、位置検出センサーを備えて動作を制御する必要があるため、信号機構が複雑となっていた。
【0003】
テーブル等の歯科診療器具保持手段を治療に適した位置に自動的に移動させる従来の装置は、術者(ドクターまたは歯科衛生士)用椅子の位置に対応させて予め記憶手段に記憶させた診療位置に対応させた最適位置まで移動させる構成となっている(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開2000−166995号公報
【0005】
【発明が解決しようとする課題】
しかしながら、従来の装置では、患者導入時には、診療ユニットの各部(テーブルなど)を患者が着座するための移動の際に接触しない位置まで移動させる必要があった。また、自動セット機構のスイッチで、予め記憶させた最適診療位置までテーブルを移動させる方法では、術者の診療位置にずれがあっても自動修正ができないため、手動で修正を行う必要があった。
【0006】
また、診療時のテーブルの設定位置は、術者がドクターチェアに着座した状態で肘を軽く曲げた高さに位置し、容易に手の届く距離にセットすることが望ましいが、術者の体型(背の高さ、手の長さなどの体格)によって最適なテーブル設定位置に大きな違いが発生する。このため、術者用椅子からの距離だけでテーブルの設定位置を判断して移動させても再度手動で調整する手間がかかる問題があった。しかも、複数の術者(ドクター、歯科衛生士)が同一診療ユニットに対して交代する場合、術者の体型個人差のために必ず調整しなければならない煩雑さがあった。
【0007】
また、これらの歯科ユニットの各部分を自動移動させる際に、移動する部分が患者や術者に接触する恐れがあるため、スイッチ操作の都度、衝突事故が起きないか確認し、監視していなければならなかった。
【0008】
このような歯科診療ユニットの自動動作機構では、可動部分の制御のため、その制御信号伝達の配線が多くなり、可動部分の断線・誤動作、インスツルメントの誤作動などが発生しやすい。このため、可能な限り単純かつ安全な制御機構とすることが望まれていた。
【0009】
本発明は、このような従来の問題を考慮してなされたものであり、歯科診療ユニットの各装置の位置、患者および術者の存在とその位置をリアルタイムに認識して、患者の導入、診療開始、診療終了に対応して歯科診療ユニットの所定装置をそれぞれの最適位置に移動させる画像認識による歯科診療支援システムを提供することを課題とする。
【0010】
また、術者が選択した診療器具(インスツルメント類、その他の器具)の固体判別により、重複使用のロックや、ホースの送り出し、巻き取りを自動的に行い歯科診療行為を支援することを課題とする。
【0011】
【課題を解決するための手段】
上記課題を達成するため、請求項1の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段とを備えることを特徴とする。
【0012】
この発明によれば、歯科診療ユニットの可動可能な各装置がどのような位置・状態にセットされているかをリアルタイムに把握することができる。また、診療エリアをリアルタイムに認識することにより、患者、術者及び補助者の存在と位置から診療過程(患者導入、診療開始、診療終了等)を認識することができる。さらに、リアルタイムに認識した画像情報と、一定時間前に認識した画像情報との差分から診療ユニットの各部の移動、患者、術者の移動を認識する動作認識を可能とすることができる。これらの状態認識と動作認識とにより、従来では術者または補助者が行っていた歯科診療ユニットの操作作業を自動化して支援することができる。
【0013】
請求項2の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段とを備えることを特徴とする。
【0014】
この発明では、請求項1の発明の作用に加え、患者が診療チェアーに着座し、術者が診療ポジションに位置したことを認識し、テーブル、アシスタントハンガー等を診療動作に最適な位置に移動させる操作を自動的に行うことができる。このため、術者は余分な作業に煩わされることなく、患者の観察、説明、対話に専念して診療行為に入ることができる。
【0015】
請求項3の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、前記カメラからの術者の顔画像に基づいて術者識別を行う術者識別手段と、術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備えていることを特徴とする。
【0016】
この発明では、請求項1及び請求項2の作用に加え、術者識別手段を備えることにより、診療ポジションの術者を識別し、予め記憶させておいた術者ごとの診療スタイルに合わせた最適な位置に、診療ユニットの各装置を移動させることができる。予め術者の顔画像と、その術者の診療スタイルに合わせたテーブルセット位置を記憶させておくことにより、複数の術者が診療する歯科診療所においても、術者ごとに最適な装置のポジションを自動的にセットすることができる。
【0017】
請求項4の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、前記カメラからの患者の顔画像に基づいて患者識別を行う患者識別手段と、患者識別手段が識別した患者についての診療情報を表示する表示手段とを備えていることを特徴とする。
【0018】
この発明では、患者識別手段を備えることにより、患者個人を識別することができる。そして、診療チェアーに着座した患者個人を識別し、歯科診療管理サーバから患者の診療記録を読み出して表示することにより、治療経過の確認や、患者に対する診療内容の説明を行うことができる。
【0019】
請求項5の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、重複使用禁止のインスツルメントが選択されたとき、少なくとも使用禁止側のインスツルメントの作動をロックするインスツルメントロック手段とを備えていることを特徴とする。
【0020】
この発明では、インスツルメント判別手段を備えることにより、術者が現在使用しているインスツルメント(タービン回転、注水など)のみの作動を可能状態とし、同時使用禁止の装置を動作禁止として、誤って作動させることを防止することができる。
【0021】
請求項6の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、判別されたインスツルメントに接続されているインスツルメントホースを当該インスツルメントの使用状況に応じて送り出し状態、巻き取り状態、テンションフリー状態に制御するインスツルメントホース制御手段とを備えていることを特徴とする。
【0022】
この発明では、請求項5の発明の作用に加え、インスツルメントホース制御手段を備えることにより、インスツルメントの使用状況に応じてホースの巻き取り状態を自動制御することができる。
【0023】
請求項7の発明は、請求項6の発明であって、前記インスツルメントホース制御手段は、前記認識手段により使用インスツルメントの位置をリアルタイムに認識し、使用インスツルメントが治療エリア内に移動されるときにインスツルメントホースを送り出し状態とし、治療エリア内ではテンションフリー状態とし、使用インスツルメントが治療エリア外に移動されたときにはインスツルメントホースを巻き取り状態とすることを特徴とする。
【0024】
この発明では、治療エリア内でインスツルメントを把持している術者の手の動作を画像認識することにより、インスツルメントの使用状態を把握する。このため、術者はホース操作に煩わされることなく治療に専念できる。
【0025】
請求項8の発明は、請求項2〜6のいずれかに記載の発明であって、前記認識手段は歯科診療ユニットにおける各装置の移動経路及び移動先の障害物の認識が可能となっており、前記ポジション制御手段は認識手段からのデータに基づいて障害物を回避するように各装置の移動軌道の変更または/及び移動の停止または/及び警告を行うことを特徴とする。
【0026】
この発明では、認識手段が各装置の動作を監視し、その移動経路を推測することにより、ポジション制御手段で動作している各部が障害物に接触または衝突することを防止することができる。
【0027】
請求項9の発明は、請求項2〜6のいずれかに記載の発明であって、前記カメラは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍の診療エリアを上方から撮影する第1のカメラと、患者ならびに術者の顔画像を撮影する第2のカメラと、前記診療エリアを側面から撮影する第3のカメラとが配置されることを特徴とする。
【0028】
この発明によれば、第1のカメラにより診療エリアの診療ユニットの状態、患者、術者の存在と位置とを平面視して配置状況を取得できると共に、第2のカメラにより患者ならびに術者の顔画像をリアルタイムで取得して個人の特定が可能となり、第3のカメラにより診療ユニットの患者用椅子の高さ、背板の傾き、テーブルなどの高さに関する画像を取得して装置の各部の移動の際の接触判定が可能となる。
【0029】
請求項10の発明は、請求項9記載の発明であって、前記第1のカメラが歯科診療ユニットの無影灯に回動自在に取り付けられており、無影灯の回動に伴って、診療エリアを平面視する第1の撮影位置と、顔画像を撮影する第2の撮影位置及び診療エリアを側面から撮影する第3の撮影位置との間を移動可能となっていることを特徴とする。
【0030】
この発明では、カメラを無影灯に取り付け、無影灯のアームを回動させることにより、任意の撮影位置に移動させ、診療段階(患者導入、診療開始、診療中、診療終了)に応じた画像を取得させることができる。このため、複数のカメラを必要とすることなく、一つのカメラで請求項9と同様な作用を行うことができる。
【0031】
【発明の実施の形態】
以下、本発明を図示する実施の形態につき具体的に説明する。図1は、本発明の一実施の形態における画像認識による歯科診療支援システムの構成を示すブロック図である。
【0032】
この実施の形態の画像認識による歯科診療支援システム100は、カメラ10と、診療ユニットまたはその近傍に患者から視認可能な位置に設けた表示装置11と、画像認識・制御コンピュータ20と、歯科診療ユニット動作制御装置30と、院内LAN40を介して接続された歯科診療管理サーバ50とから構成されている。
【0033】
診療ユニット動作制御装置30には、診療チェア昇降・背板傾動動作部31、テーブル移動動作部32、インスツルメント制御動作部33、アシスタントハンガー移動動作部34、無影灯移動動作部35が接続されることにより、これらの動作部が制御される。なお、画像認識・制御コンピュータ20及び診療ユニット動作制御装置30は診療ユニット1台ごとに備える構成を図示したが、複数の診療ユニットと接続して制御させる構成とすることも可能である。
【0034】
カメラ10は、外部接続ポート21に接続されることにより、撮影したデジタル画像を画像認識・制御コンピュータ20がリアルタイムで取得することを可能としている。この実施の形態では、下向きに設けられることにより診療エリアを水平視する第1のカメラ10aと、治療エリアを正面視する向きに設けた第2のカメラ10bと、診療ユニットの側面を水平に視認できる位置に設けられた第3のカメラ10cとを備える。
【0035】
画像認識・制御コンピュータ20は、外部接続ポート21と、認識制御プログラムがインストールされた認識制御部22と、認識制御に必要な装置各部のポジション画像や、術者・患者の顔画像、術者ごとの最適ポジションを含む情報を記憶した記憶部23とから構成されている。
【0036】
前記認識制御部22は、カメラから取得した画像情報から歯科診療ユニットの各部あるいは人物を識別する認識手段22aと、術者の個人識別を行う術者識別手段22bと、患者の個人識別を行う患者識別手段22cと、術者が使用しているインスツルメントを識別するインスツルメント判別手段22dと、診療段階を判断して最適ポジションに診療ユニットの各部を移動させるポジション制御手段22eと、患者個人識別に基づきその診療記録を表示装置(ディスプレイ)11に表示させる表示手段22fと、使用禁止器具の誤動作を制御するインスツルメントロック手段22gと、術者が使用中のインスツルメントホースを制御するインスツルメントホース制御手段22hと、記憶部23に術者や患者の顔画像情報を予め登録しておくための術者・患者画像記録手段22iと、術者個人の体格、好みに合わせた診療時の装置配置の画像、相対位置情報を記録する術者最適ポジション記録手段22jとを少なくとも備える。
【0037】
また、前記記憶部23は、歯科診療ユニットの可動可能な各部について可動範囲画像を記録したユニット可動範囲画像情報23aと、術者画像情報23bと、患者画像情報23cと、最適ポジション情報23dとを備える。
【0038】
ユニット可動範囲画像情報23aは、チェアーの背板の可動範囲(傾き)、テーブルの可動範囲、アシスタントハンガーの可動範囲、チェアーの上下(昇降)、背板の傾き範囲のモデル画像情報(可動状態の位置を一定間隔ごとの画像とした位置パターン画像)を記録したもので、前記認識手段22aが取得した画像と、モデル画像情報とを比較(パターンマッチング)することにより各部の位置を把握するために用いる情報である。
【0039】
術者画像情報23bは、所属する術者の顔画像を記録したもので、前記術者認識手段22bが診療ポジションに着座した術者(ドクターや歯科衛生士)の顔画像と、登録された顔画像情報とを比較して術者個人認識を行うために用いる情報である。なお、治療ポジションエリアL内の顔画像であれば、立位診療を行う術者の顔画像の個人認識も可能である。
【0040】
患者画像情報23cは、診療を受付けた患者の顔画像の記録であって、初診時にカメラで取得した患者の顔画像を歯科診療管理サーバ50に備え、院内LAN40を介して術者・患者画像記録手段22iにより登録しておく。また再診時には最新の顔画像に更新して記録することにより、診療ユニットに着座した患者の顔画像と、登録された患者顔画像とを比較し、患者識別手段22cが患者個人を識別するためのものである。
【0041】
最適ポジション情報23dは、術者個人ごとの診療ポジションと、そのポジションに対応する歯科診療ユニットの各部の最適配置の画像または位置情報(パターン)を登録した情報である。この場合、術者の診療ポジションは、治療内容によって治療ポジションエリアLの範囲内で複数のポジションを採る場合がある。また、チェアー背板を倒し患者を完全水平にしたときの口腔位置を中心に何時の方向に術者が向いて診療行為を行うかにより、術者個人ごとにそれぞれのパターンの最適配置を登録しておく。
【0042】
図2は、カメラの配置を示す正面図である。図に示すように、歯科診療ユニット1は、患者を着座させ背板17aを倒すことにより口腔の診療を行うチェアー17、このチェアー17の昇降や診療器具の動作制御を行うフットペダル18、チェアー17と共に昇降するように支持された診療器具を載置するテーブル13、テーブル13の下部に取り付けられたインスツルメントハンガー15、このハンガー15に保持されたインスツルメント16、インスツルメントホース16a、表示装置11、無影灯12などから構成されている。
【0043】
ここで、主な可動可能である部分は、無影灯12、テーブル13、インスツルメントハンガー15、アシスタントハンガー14、背板17a及び、チェアー17である。なお、この実施の形態の歯科診療ユニット1は、チェアー17の昇降に伴って各部も昇降する構造となっている。
【0044】
カメラ10は、診療エリアKの天井又は支柱に下向きに設けた第1のカメラ10aと、無影灯12などの支持ポールに治療ポジションエリアLを正面視する向きに設けた第2のカメラ10bと、壁面または歯科診療ユニットの側面を水平に視認できる位置に設けられた第3のカメラ10cとの3つのカメラを備えている。そして、第1のカメラ10aからの画像によって各部の平面での位置や人物の存在を認識可能とし、着座した患者の顔や術者の顔画像を第2のカメラ10bによって認識可能とし、チェアーの昇降状態や背板の傾き、各部の垂直位置を第3のカメラ10cによって認識する。
【0045】
第3のカメラは、テーブル13やアシスタントハンガー14などがチェアー17に連動して昇降しないタイプの歯科診療ユニットの場合、テーブルなどの上下方向の移動を制御するための画像認識を行う。
【0046】
図3は、カメラの別の配置を示す側面図である。なお、図2と同じ装置については、同一の符号によって対応させてある。この実施の形態では、首振り機能(自動パン・チルト機能)付のカメラ10を無影灯12の先端部に配置し、無影灯12の支持アーム12a、12b、12c、12d、12eをそれぞれの支持アームの駆動モータM3、M4、M5、M6、M7によって回動させてカメラ10を所定の位置に移動させる。これにより、上述した第1のカメラ、第2のカメラの機能を備えたものとすることができる。
【0047】
カメラ位置Aは、各部の平面での位置や人物の存在を認識可能とする第1のカメラ10aに代わる位置であり、カメラ位置Bは、着座した患者の顔や術者の顔画像を認識可能とする第2のカメラ10bに代わる位置であり、カメラ位置Cは、患者の口腔を中心とした治療エリアNを認識する画像を取得して、術者の使用中のインスツルメントなどを識別するのに適した位置である。
【0048】
次に、認識手段22aに関する技術について述べる。天井に設置された第1のカメラ10aからの画像の場合、カメラ設置位置と、診療ユニット設置位置は固定されており既知である。
【0049】
カメラ10aから取得した画像から実際の装置等の距離や大きさを判断するために、画像中の1画素当たりの距離を求めておくことができる。カメラ10aが、図2のチェアー17の座席Gの2メートル上方に設けられ、カメラの水平画角が30°、水平解像度が320画素である場合、座席Gの高さの平面においてカメラで撮影できる水平範囲は、三角関数により底辺距離が1.07メートルで、一画素当たりの距離は3.34mmに相当する。また、垂直画角30°、垂直解像度が240画素である場合には、同様に垂直方向の一画素当たりの距離は4.46mmに相当する。対象物が上下してカメラ10aからの距離が変わる場合、テーブルなど大きさが既知な対象物を識別することにより、その高さでの一画素当たりの距離を求めることができる。このように、画素を座標マトリックスとして認識することにより、画像中の各装置の位置や移動方向を座標系として捉えることができる。
【0050】
各装置の可動範囲の状態の認識方法を説明する。図3のチェアー17の背板17aは、矢印で示すように、患者が着座する位置(起きている状態)F′と、治療のために倒した状態Fの範囲で可動する。この背板17aの状態は、取得した画像と、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択させることにより、実際の背板位置を把握することができる。
【0051】
図3に示すように、テーブル13は、患者導入時はD′の位置に移動させることにより、患者の着座移動の障害とならない位置とし、診療開始に伴いDの位置に移動させることが可能な可動範囲となる。この位置認識も同様に予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択することにより、実際のテーブル位置を把握することができる。
【0052】
図4は、図3の平面図である。図4に示すアシスタントハンガー14は、診療中に補助者が使用する機器を保持している装置であるが、EからE′の可動範囲を移動する。この位置認識も同様に予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択させることにより実際の位置を把握することができる。
【0053】
これらのパターンマッチングに際し、画像の色情報(RGB)を色相(H)、彩度(S)、明度(V)に変換したHSV表色情報を用いることによりユニット可動範囲画像情報23aとの比較(パターンマッチング)の精度を高めることができる。なお、背景が限定されていない場合には、まずHSV表色情報で認識対象のエリアを絞り込んでから、ユニット可動範囲画像情報23aとのパターンマッチングを行うことにより比較演算スピードをさらに早くすることが可能である。また、背景が限定されて認識対象との色の分離がよい診療エリアKの状況では、色情報だけで位置を認識することが可能となる。この方法では、色相の値(0〜359)が人物の顔画像の場合、限定された範囲をとることを利用し、画像の中から顔画像を特定する。さらに、色情報による判別においては、カメラを赤外線カメラとすることにより、人物と背景の分離判別を確実に短時間で行うことが可能となる。
【0054】
図4には、カメラ10が取得する診療エリアK、術者Jが診療に際して着座するドクターチェアー19が位置する範囲(診療ポジション)である治療ポジションエリアLを示している。この図では、術者Jが患者の頭の位置(12時位置)に位置した場合を示しているが、治療ポジションエリアL内で、患者の頭に対し9時の位置や、3時の位置で診療を行うことがある。そのいずれの位置に術者が位置しているかについても認識手段22aが術者診療ポジション判定を行う。
【0055】
図4において、符号13a、13b、13cはテーブル13を回動自在に支持するアームである。テーブル13をDからD′に移動させる際は、アーム13cの基部のモータM1とアーム13aとアーム13bの回動部のモータM2を駆動することにより行う。
【0056】
この実施の形態の歯科診療支援の主な動作について図5に示すゼネラルフローに基づいて説明する。
【0057】
まず、認識手段22aにより診療ユニット1の各部の位置認識を行う(装置認識ステップS1)。この詳細フローは図6(a)に示す。
【0058】
次に、認識手段22aにより人物(術者、患者)の認識を行う(人物認識ステップS2)。この詳細フローは図6(b)に示す。
【0059】
次に、治療ポジションエリアL内の診療ポジションに術者が存在するか、チェアー17上に患者が存在するかを判定し、いずれも存在しない場合、ステップS2の人物認識を続ける。患者が着座し、術者が治療ポジションエリアLの診療ポジションに着いたとき診療開始と判断し、次に進む(診療開始判定ステップS3)。
【0060】
次に、歯科診療ユニットの各部を術者の診療ポジションに合わせた最適ポジションに移動させる。すなわち、ポジション制御手段22eにより、最適ポジション情報23dから術者個人毎に登録されている各装置の最適ポジションを検索して読み出し、その配置に移動させる(ポジション制御ステップS4)。
【0061】
このとき、歯科診療ユニットの各部の制御は、外部接続ポート21に接続された診療ユニット動作制御装置30に対して動作指令信号を送出することによって行う。動作制御の方式については公知の技術を使用することができるが、移動対象、移動先座標、移動経路を指令する。
【0062】
診療ユニット動作制御装置30は図1に示すように、診療チェアー昇降・背板傾動動作部31、テーブル移動動作部32、インスツルメント制御動作部33、アシスタントハンガー移動動作部34、無影灯移動動作部35の各駆動部(たとえばステッピングモータ)に対して動作指令信号を送る。
【0063】
次に、ポジション制御ステップS4で動作を開始した歯科診療ユニットの各部の動作を認識する(動作認識ステップS5)。この詳細フローについては図7(a)に示す。
【0064】
移動した装置各部が、ポジション制御ステップS4で検索した術者の診療ポジションに合わせた最適ポジションに移動したか、すなわち最適停止位置かを判断し、最適停止位置まで移動していれば、動作の終了工程(S9)に進む。最適停止位置に達していなければ次に進む(動作終了判定ステップS6)。
【0065】
移動未了の場合、動作中の歯科診療ユニット各部と、他の部位または人物との接触の恐れがあるか位置関係を監視する(接触監視ステップS7)。この詳細フローについては図7(b)に示す。
【0066】
移動により何かと接触することが予測されると判断したときは動作の終了工程(S9)に移行する。接触の恐れがないと判断したときは、移動動作を継続させて動作認識ステップS5に戻る。このフローでは接触することが予測されると判断したとき動作を停止するケースを示したが、障害物を回避するように各装置の移動軌道を変更するためポジション制御ステップS4に戻っても良く、或いは障害となる人物に警告する警報音を鳴らすことの良く、これらを組み合わせても良い(接触判定ステップS8)。
【0067】
以上により、患者の導入と、術者の診療開始に合わせて診療ユニットのセットが自動的になされて、診療行為が開始され、ステップS10以下のステップに移行する。
【0068】
診療中は、インスツルメント判別手段22dにより、治療エリア内の術者の手元を認識し、使用中のインスツルメントを識別し、そのホース制御を行ったり、使用禁止器具のロック制御を行って術者の操作を支援する(インスツルメント認識ステップS10)。この詳細なフローは図8(a)に示す。
【0069】
続いて、認識手段22aにより人物(術者、患者)の認識を行う(人物認識ステップS11)。この詳細フローはステップ2と同様であり、図6(b)に示す。
【0070】
診療の終了を判断するため、診療ポジション或いは治療ポジションエリアLから術者が離れたかを判定する。術者が診療ポジションに存在する場合、診療継続中と判断しステップ10へ戻り監視を継続する。術者が離れた場合、ステップS13へ進む(診療終了判定ステップS12)。
【0071】
診療終了と判断されたとき、歯科診療ユニットの各部をリセット位置に移動させる。この動作では、チェアー17の背板を起こしながらチェアー17を降ろすと共に、患者が退出するときの障害とならないようにテーブルなどを前方に移動させる指令を行う。なお、リセット位置は、前記最適ポジション情報23dに予め座標情報、または画像情報として登録しておき、ポジション制御手段22eが参照して制御信号を診療ユニット動作制御装置30に送出して行われる(ポジション制御ステップS13)。
【0072】
次に、ポジション制御ステップ13で動作を開始した歯科診療ユニットの各部の動作を認識する(動作認識ステップS14)。この詳細フローについてはステップ5と同様であり、図7(a)に示す。
【0073】
続いて、移動した装置各部が、リセット位置に移動したかを判断し、リセット位置まで移動していれば、ステップ18動作の終了工程に飛ぶ。リセット位置に達していなければ次に進む(動作終了判定ステップS15)。
【0074】
移動未了の場合、動作中の診療ユニット各部と、他の部位または人物との接触の恐れがあるか位置関係を監視する(接触監視ステップS16)。この詳細フローについては図7(b)に示す。
【0075】
移動により何かと接触することが予測されると判断したときは、ステップS18の動作の終了工程に移行する。接触の恐れがないと判断したときは移動動作を継続させステップS14の動作認識ステップに戻る(接触判定ステップS17)そして、診療ユニットをリセット状態として動作を終了する(ステップS18)。
【0076】
以上が主な診療支援動作のフローである。続いて説明した各ステップについての詳細な動作を図6、図7、図8に基づき説明する。
【0077】
図6(a)は、画像認識による歯科診療支援動作における装置認識ステップ、(b)は人物認識ステップ、(c)は差分画像処理ステップのフローチャートである。
【0078】
図6(a)に示す装置認識ステップは、装置各部の位置の確認を行うものであり、まずチェアー背板角度を認識する(チェアー背板角度認識S1−1)。この認識は、取得した画像からチェアー背板部を判別し、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)し、最もマッチング値の高いモデルパターンとの組み合わせを選択する手法により傾き角度を識別する。
【0079】
次に、取得した画像からテーブルを判別し、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択してテーブルの位置を求める(テーブル位置認識ステップS1−2)。
【0080】
続いて、取得した画像からアシスタントハンガーを判別し、同様にパターンマッチングでアシスタントハンガーの位置を求める(アシスタントハンガー位置認識ステップS1−3)。
【0081】
図6(b)に示す人物認識ステップでは、まず、診療エリア(歯科診療ユニット及びチェアー装置周辺)の画像を一定時間間隔で取得し、前後画像を比較してユニット周辺の背景を監視し、動的な変化を抽出する(差分画像処理ステップS2−1)。なお、この差分画像処理ステップの詳細は図6(c)で詳しく説明する。
【0082】
続いて、診療エリアの画像内に大きな変化があるかを判定する。大きな変化がなければ、人物認識ステップを終了する。大きな変化があれば次に進む(変化判定ステップS2−2)。
【0083】
次に、診療エリアK(ユニット周辺)の中で差分の大きなエリアを特定する(変化エリア特定ステップS2−3)。
【0084】
続いて、変化エリアが患者が着座するチェアー周辺であるか否かを判別し、チェアー周辺であればステップS2−5に進む(患者判断ステップS2−4)。
【0085】
変化エリアが術者が着座する治療ポジションエリアLの周辺(診療ポジション)か否かを判別し、治療ポジションエリアL周辺であればステップS2−7に進む(術者判断ステップS2−6)。
【0086】
患者の存在を確認し、患者顔画像を取得して、患者画像情報23cとパターンマッチングすることにより患者個人の識別を行う(患者着座判定S2−5)。表示手段22fは、この患者個人識別により、患者のID番号から歯科診療サーバ50に格納されている患者情報を検索して、表示装置11に表示する。
【0087】
治療ポジションエリアLに術者の存在が認識されたとき、術者の診療ポジションの位置を判定し、また、術者の顔画像を取得して、術者画像情報23bとパターンマッチングすることにより術者個人を識別する(術者診療ポジション判定ステップS2−7)。
【0088】
この術者個人識別により、ポジション制御手段22eは術者ごとの最適な装置各部の配置を最適ポジション情報23dから検索し、術者個人の診療スタイルに合わせた装置の移動を指令することが可能となる。
【0089】
ステップS2−1における差分画像処理ステップの詳細を図6(c)により説明する。まず、カメラから画像Aを取得する(ステップS2−11)。続いて、所定の変化監視間隔をタイマーにセットする(ステップS2−12)。
【0090】
タイマーセット時間の経過を監視し、セット時間に達したとき次に進む(ステップS2−13)。
【0091】
次に、カメラから画像Bを取得し(ステップS2−14)、取得した画像Aと画像Bとを比較し差分画像を取得する(ステップS2−15)。
【0092】
図7(a)は、画像認識による歯科診療支援動作における動作認識ステップ、(b)は接触監視ステップのフローチャートである。
【0093】
図7(a)は、図6で説明したステップS5及びS14の動作認識ステップの詳細を示している。まず、上述した差分画像処理ステップ(図6(c))で得られた差分画像のエリアから、チェアー17が動作中か判断する。変化がない場合には、ステップS5−4に移る(ステップS5−1)。
【0094】
チェアー17に変化が認められたときは、動作前画像と動作後画像とにより画像中の位置と動作方向を推定する(ステップS5−2)。続いて、パターンマッチングによりチェアー背板の角度を認識する(ステップS5−3)。
【0095】
次に、差分画像のエリアから、テーブル13が動作中か判断する。変化がない場合、ステップS5−7に移る(ステップS5−4)。テーブル13に変化が認められたときは、動作前画像と動作後画像により画像中の位置と動作方向を推定する(ステップS5−5)。続いて、パターンマッチングによりテーブル位置を認識する(ステップS5−6)。
【0096】
次に、差分画像のエリアから、アシスタントハンガー14が動作中か判断し、変化がない場合は終了する(ステップS5−7)。アシスタントハンガー14に変化が認められたとき、動作前画像と動作後画像により画像中の位置と動作方向を推定する(ステップS5−8)。続いて、パターンマッチングによりアシスタントハンガー14位置を認識する(ステップS5−9)。
【0097】
図7(b)は、図6で説明した接触監視ステップS7の詳細を示すフローチャートである。まず、差分画像処理ステップ(図6(c))で得られた差分画像のエリアから、チェアー17が動作中か判断する。変化がない場合、ステップS7−3に移る(ステップS7−1)。
【0098】
チェアー17に変化が認められたとき、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−2)。なお、この接触判定ステップ(ステップS7−2)の詳細は図8(b)に示し、説明を後述する。
【0099】
続いて、テーブル13が動作中か判断し、変化がない場合は、ステップS7−5に移る(ステップS7−3)。テーブル13に変化が認められたとき、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−4)。
【0100】
続いて、アシスタントハンガー14が動作中か判断し、変化がない場合は、終了する(ステップS7−5)。アシスタントハンガー14に変化が認められたときは、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−6)。
【0101】
図8(a)は、画像認識による歯科診療支援動作におけるインスツルメント認識ステップ、(b)は接触判定ステップのフローチャートである。
【0102】
図8(a)は、図5におけるステップS10の詳細を示す。まず、上述した差分画像処理ステップで得られた治療エリアN周辺の差分画像を監視する(ステップS10−1)。このとき、治療エリアN周辺だけをデジタルズーム機能により取り込むか、光学ズーム機能を備えたカメラを用いてクローズアップ画像を用いることにより、認識精度を確保することができる。図3に示した無影灯12に取り付けたカメラ10の場合、カメラ位置をC位置とすれば、治療エリアNの真上で、かつ被写体までの距離が近いため認識精度を高めることが可能となる。
【0103】
治療エリアN周辺及び治療エリアN内の画像に大きな変化がなければ終了する。大きな変化が認められた場合には、ステップS10−3に移る(ステップS10−2)。
【0104】
治療エリアN周辺及び治療エリアN内の中で差分(変化)の大きなエリアを特定すると共に、術者の手、把持している器具の動作方向を認識する(ステップS10−3)。このとき、治療エリアを分割したエリアとして特定することにより、処理を効率よく行うことができる。
【0105】
続いて、治療エリアN内で使用されているインスツルメントをパターンマッチング・色識別によって特定する(ステップS10−4)。このインスツルメント識別によって、インスツルメントロック手段22gは、重複して使用することが禁止されているインスツルメントが同時に識別された際に、インスツルメント制御動作部33に制御信号を出してインターロックしたり、識別されたインスツルメント以外をインターロックすることができる。
【0106】
さらに、インスツルメントホース制御手段22hが、インスツルメントを把持している術者の手の位置と動きを追尾判断する。そして、使用インスツルメントが診療エリアN内に移動されたときにはインスツルメントホース16aを送り出し状態とし、治療エリアN内にあるときはテンションフリー状態とし、使用インスツルメントが治療エリアN外に移動されたときはインスツルメントホース16aを巻き取り状態とする。
【0107】
これらのインスツルメントならびに術者の手を識別する際に、インスツルメントのグリップやホースを色分けし、術者の手袋に決まった色を使用することが好ましい。このようにすることにより、インスツルメントの握り方や向きの変化があっても、さらに識別効果を高めることができる。
【0108】
また、歯科診療管理サーバ50からの診療情報が取得されている場合、次の診療工程で必要となるインスツルメントの準備動作を自動的に行うことも可能である。従って、例えば、診療開始直後に使用する器具を取り出しやすい状態にしておくことができる。さらに、患者に説明のため治療説明を行うために使用する口腔内カメラを、取り出しやすいようにインスツルメントハンガーからせり出させたりすることができる。
【0109】
図8(b)は、図7(b)における接触判定ステップS7−2の詳細フローチャートである。まず差分画像処理で得られた情報から、目的の装置の動作方向を把握して移動先の推定を行う(ステップS7−21)。次に、移動先の障害物の有無を判定する(ステップS7−22)。このとき、第1のカメラ10aからの平面位置情報と第3のカメラ10cからの水平視した位置情報の両方を用いて高さについても判断する。
【0110】
障害物との距離は、移動している装置の外周から100mm〜200mm離れた周囲、または、術者の体型の外周から100mm〜200mm離れた範囲を境界エリアとし、この境界エリア近傍の障害物の有無を判定することが望ましい。障害物が認識されなければ終了し、障害物があればステップS7−24に進む(ステップS7−23)。
【0111】
ステップS7−24では、人物・装置各部の画像情報とパターンマッチングして障害物を識別する。そして、識別された障害物が既知の障害物(テーブル、アシスタントハンガー、規定ポジションの術者)の場合、第3のカメラ10cの画像から高さ方向を考慮した接触(当たり)予測を行う(ステップS7−26)。
【0112】
接触(当たり)予測では、チェアー背板の傾動に際してドクターチェアー19に座っている術者の足が、背板にぶつかる危険があることを察知して警告したり、停止させたりすることが可能となる。これにより、背板によるドクターの脚挟みこみなどの事故を防止することができる。これに対し、障害物が既知のものでない場合(たとえば、患者が動き出したときなど)は、警告または動作停止させる(ステップS7−27)。
【0113】
本発明は以上の実施の形態に限定されることなく、種々変形が可能である。本発明では、術者がテーブルなど各装置を微調整のために手動で移動させても、その位置を認識することが可能であり、さらに診療中に、術者が診療ポジションを変えた場合でもリアルタイムにその位置を把握認識することができることから、それらの動きに合わせて最適ポジションに各装置を再配置するように制御することも可能となる。また、従来の動作制御においては、位置検出用センサーや、ステッピングモータによる制御が必要であったが、本発明によれば、画像認識で位置を検出するため複雑な制御配線やプログラムを必要としないものである。
【0114】
【発明の効果】
本発明によれば、歯科診療ユニットの各装置の位置、患者および術者の存在とその位置をリアルタイムに認識し、患者の導入、診療開始、診療終了に対応して歯科診療ユニットの所定装置をそれぞれの最適位置に移動させることができる。このため、診療行為の流れをスムーズに効率よく行うことができる。特に、複雑な制御装置を歯科診療ユニットに設けることなく自動移動が可能となる。また、術者が選択した診療器具(インスツルメント類、その他の器具)の固体判別により、重複使用のロックや、ホースの送り出し、巻き取りを自動的に行い術者の歯科診療行為を支援することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態における画像認識による歯科診療支援システムの構成を示すブロック図である。
【図2】カメラの配置を示す正面図である。
【図3】カメラの別の配置を示す側面図である
【図4】図3の平面図である。
【図5】画像認識による歯科診療支援動作のゼネラルフローである。
【図6】(a)は画像認識による歯科診療支援動作における装置認識ステップ、(b)は人物認識ステップ、(c)は差分画像処理ステップのフローチャートである。
【図7】(a)は画像認識による歯科診療支援動作における動作認識ステップ、(b)は接触監視ステップのフローチャートである。
【図8】(a)は画像認識による歯科診療支援動作におけるインスツルメント認識ステップ、(b)は接触判定ステップのフローチャートである。
【符号の説明】
1 歯科診療ユニット
10 カメラ
10a 第1のカメラ
10b 第2のカメラ
10c 第3のカメラ
11 表示装置
12 無影灯
12a,12b,12c,12d,12e 支持アーム
13 テーブル
13a,13b,13c 支持アーム
14 アシスタントハンガー
15 インスツルメントハンガー
16 インスツルメント
16a インスツルメントホース
17 チェアー
18 フットペダル
20 画像認識・制御コンピュータ
21 外部接続ポート
23 記憶部
30 診療ユニット動作制御装置
31 診療チェア昇降・背板傾動動作部
32 テーブル移動動作部
33 インスツルメント制御動作部
34 アシスタントハンガー移動動作部
35 無影灯移動動作部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a dental care support system, and more particularly, by automatically recognizing the arrangement and position of a medical care unit, a patient, and an operator in a dental care area, thereby automatically arranging each part and device of the dental care unit at an optimal position. The present invention relates to a system for supporting medical practice.
[0002]
[Prior art]
In dental care, at the time of introduction or examination of a patient, the operator moves the table or chair of the medical care unit each time. In addition, when the operator sets the table at the medical treatment position, a position at which the medical treatment is easy to perform is stored in advance in the movable mechanism of the dental care unit, and the unit moves to a predetermined position when manually pressed in the operation direction, or a movable mechanism. There is a medical unit with an automatic mechanism that has a drive unit and moves to the medical treatment position by operating the switch.However, in these automatic setting mechanisms, the movable mechanism of the dental medical unit is equipped with a drive device and a position detection sensor together with a drive device. Because of the need to control, the signal mechanism was complicated.
[0003]
A conventional apparatus for automatically moving a holding device for a dental treatment instrument such as a table to a position suitable for treatment is a medical treatment that is stored in a storage means in advance in correspondence with the position of a chair for an operator (doctor or dental hygienist). It is configured to move to an optimum position corresponding to the position (for example, see Patent Document 1).
[0004]
[Patent Document 1]
JP 2000-166995 A
[0005]
[Problems to be solved by the invention]
However, in the conventional apparatus, when introducing a patient, it is necessary to move each part (table, etc.) of the medical care unit to a position where the patient does not come into contact when the patient moves for sitting. Also, in the method of moving the table to the optimal medical care position stored in advance by the switch of the automatic setting mechanism, even if there is a shift in the medical care position of the operator, automatic correction cannot be performed, so it was necessary to perform manual correction. .
[0006]
In addition, it is desirable that the setting position of the table at the time of medical treatment be set at a height where the elbow is slightly bent with the operator sitting on the doctor chair, and set at a distance that can be easily reached, but the body type of the operator There is a great difference in the optimal table setting position depending on (physique such as height of the back and length of the hand). For this reason, there has been a problem that even if the table setting position is determined and moved only based on the distance from the operator's chair, it is troublesome to manually adjust again. In addition, when a plurality of operators (doctors, dental hygienists) change to the same medical care unit, there is a complicated operation that must be adjusted due to individual differences in the body types of the operators.
[0007]
Also, when moving these dental units automatically, the moving parts may come into contact with the patient or the surgeon.Therefore, each time the switch is operated, it must be checked for collisions and monitored. I had to.
[0008]
In such an automatic operation mechanism of the dental care unit, since the control of the movable portion is performed, the number of wires for transmitting the control signal is increased, and disconnection / malfunction of the movable portion, malfunction of the instrument, and the like are likely to occur. Therefore, it has been desired that the control mechanism be as simple and safe as possible.
[0009]
The present invention has been made in view of such a conventional problem, and recognizes the position of each device of the dental care unit, the presence of the patient and the operator and their positions in real time, and introduces and treats the patient. An object of the present invention is to provide a dental care support system by image recognition that moves a predetermined device of a dental care unit to an optimum position in response to start and end of medical care.
[0010]
In addition, it is also necessary to automatically support the use of dental equipment by automatically locking and dispensing hoses and rewinding hoses based on individual identification of medical equipment (instruments, other equipment) selected by the operator. And
[0011]
[Means for Solving the Problems]
In order to achieve the above object, a dental care support system based on image recognition according to the first aspect of the present invention provides a dental care unit including a medical chair on which a patient sits, and image information of a medical care area near a medical chair of an operator and an assistant. One or more cameras to be obtained, and recognition means for real-time recognition of the position and patient of each device in the dental care unit, the presence of the surgeon, and the position thereof based on image information from the camera. I do.
[0012]
According to the present invention, it is possible to grasp in real time what position and state each movable device of the dental care unit is set. In addition, by recognizing the medical care area in real time, it is possible to recognize the medical care process (introduction of a patient, start of medical care, end of medical care, etc.) from the existence and position of a patient, an operator, and an assistant. Further, it is possible to recognize the movement of each part of the medical treatment unit and the movement of the patient and the operator from the difference between the image information recognized in real time and the image information recognized a predetermined time ago. By these state recognition and motion recognition, the operation work of the dental care unit conventionally performed by the operator or the assistant can be automated and supported.
[0013]
A dental care support system using image recognition according to the second aspect of the present invention is a dental care unit including a medical chair on which a patient sits, and one or more image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, And a position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical care operation.
[0014]
According to the present invention, in addition to the operation of the first aspect of the present invention, the patient sits on the consultation chair, recognizes that the operator is located at the consultation position, and moves the table, the assistant hanger, and the like to a position optimal for the consultation operation. Operation can be performed automatically. For this reason, the surgeon can enter into the medical care operation while focusing on the observation, explanation, and dialogue of the patient without being bothered by extra work.
[0015]
A dental care support system based on image recognition according to the third aspect of the present invention is a dental care unit including a medical chair on which a patient sits, and one or more image information of a medical care area near a medical chair of an operator and an assistant. A camera, recognition means for recognizing the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and a surgeon's face image from the camera. It is provided with surgeon identification means for performing surgeon identification, and position control means for moving a predetermined device in the dental care unit to an optimal position in accordance with the medical care style of the surgeon identified by the surgeon identification means. Features.
[0016]
According to the present invention, in addition to the effects of the first and second aspects, an operator identification means is provided to identify the operator at the medical treatment position, and to store the optimal information in accordance with the pre-stored medical style for each operator. Each device of the medical care unit can be moved to an appropriate position. By storing in advance the face image of the surgeon and the table set position according to the practice style of the surgeon, the optimal device position for each surgeon even in a dental clinic where multiple surgeons are treated Can be set automatically.
[0017]
A dental care support system by image recognition according to the invention of claim 4 is a dental care unit including a medical chair on which a patient sits, and one or a plurality of image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, Position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical operation, patient identification means for performing patient identification based on a face image of the patient from the camera, and patient identification means Display means for displaying medical information about the patient.
[0018]
According to the present invention, by providing the patient identification means, the individual patient can be identified. Then, by identifying the individual patient sitting on the medical chair and reading and displaying the medical record of the patient from the dental medical management server, it is possible to confirm the progress of the medical treatment and explain the medical treatment contents for the patient.
[0019]
A dental care support system based on image recognition according to the invention of claim 5 is a dental care unit including a medical chair on which a patient sits, and one or more image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, Position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical operation, instrument discriminating means for discriminating the instrument selected by the operator, and instruments for which duplicate use is prohibited. When an instrument is selected, the instrument lock locks the operation of at least the prohibited instrument. Characterized in that it includes a click means.
[0020]
In the present invention, by providing the instrument discriminating means, only the instruments (turbine rotation, water injection, etc.) currently used by the operator can be operated, and the devices for which simultaneous use is prohibited are prohibited. It is possible to prevent erroneous operation.
[0021]
A dental care support system based on image recognition according to the invention of claim 6 is a dental care unit including a medical chair on which a patient sits, and one or a plurality of pieces of image information of a medical care area near a medical chair of an operator and an assistant. A camera and a recognition unit that recognizes the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and the position thereof in real time, and when the recognition unit recognizes the patient and the surgeon, Position control means for moving a predetermined device in the dental care unit to a position optimal for assisting the medical operation, instrument discriminating means for discriminating the instrument selected by the operator, and the discriminated instrument The instrument hose connected to the instrument is sent out and wound according to the usage of the instrument. Ri state, characterized in that it comprises a instrument hose control means for controlling the tension-free state.
[0022]
According to this invention, in addition to the operation of the invention of claim 5, by providing the instrument hose control means, the winding state of the hose can be automatically controlled according to the use condition of the instrument.
[0023]
The invention according to claim 7 is the invention according to claim 6, wherein the instrument hose control means recognizes the position of the used instrument by the recognition means in real time, and the used instrument is located in the treatment area. When the instrument hose is moved, the instrument hose is set in a delivery state, in the treatment area, in a tension-free state, and when the used instrument is moved out of the treatment area, the instrument hose is set in a winding state. I do.
[0024]
According to the present invention, the use state of the instrument is grasped by image-recognizing the motion of the hand of the operator holding the instrument in the treatment area. Therefore, the surgeon can concentrate on the treatment without having to worry about the operation of the hose.
[0025]
The invention of claim 8 is the invention according to any one of claims 2 to 6, wherein the recognizing means is capable of recognizing a moving route of each device in the dental care unit and an obstacle at a moving destination. The position control means may change the movement trajectory of each device and / or stop the movement or / and warn so as to avoid an obstacle based on data from the recognition means.
[0026]
According to the present invention, the recognition unit monitors the operation of each device and estimates the movement path of each device, thereby preventing each unit operating by the position control unit from contacting or colliding with an obstacle.
[0027]
A ninth aspect of the present invention is the invention according to any one of the second to sixth aspects, wherein the camera is a dental care unit including a medical care chair on which a patient sits, and a medical care unit near a medical care chair of an operator and an assistant. A first camera for taking an image of the area from above, a second camera for taking a face image of a patient and an operator, and a third camera for taking a picture of the medical care area from the side are arranged. .
[0028]
According to the present invention, the state of the medical care unit in the medical care area, the presence and position of the patient and the surgeon can be obtained in a plan view using the first camera, and the arrangement status can be acquired. A face image can be acquired in real time to identify an individual, and a third camera acquires images relating to the height of the patient's chair, the tilt of the backboard, and the height of the table and the like of the medical treatment unit, and obtains images of various parts of the apparatus. This makes it possible to determine contact when moving.
[0029]
The invention according to claim 10 is the invention according to claim 9, wherein the first camera is rotatably attached to the surgical light of the dental care unit, and with the rotation of the surgical light, It is characterized by being movable between a first imaging position for viewing the medical care area in a plan view, a second imaging position for capturing a face image, and a third imaging position for imaging the medical care area from the side. I do.
[0030]
According to the present invention, the camera is attached to the surgical light, and the arm of the surgical light is rotated to move the camera to an arbitrary photographing position, and according to the medical treatment stage (patient introduction, medical treatment start, medical treatment, medical treatment end). Images can be acquired. Therefore, the same operation as in claim 9 can be performed by one camera without requiring a plurality of cameras.
[0031]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a dental care support system using image recognition according to an embodiment of the present invention.
[0032]
The dental treatment support system 100 based on image recognition according to the present embodiment includes a camera 10, a display device 11 provided at or near a treatment unit at a position visible from a patient, an image recognition / control computer 20, a dental treatment unit It comprises an operation control device 30 and a dental practice management server 50 connected via an in-hospital LAN 40.
[0033]
The medical treatment unit operation control device 30 is connected with a medical treatment chair lifting / lowering / backboard tilting operation unit 31, a table moving operation unit 32, an instrument control operation unit 33, an assistant hanger moving operation unit 34, and an operating light moving operation unit 35. Thus, these operation units are controlled. Although the configuration in which the image recognition / control computer 20 and the medical unit operation control device 30 are provided for each medical unit is illustrated, a configuration in which the image recognition / control computer 20 is connected to and controlled by a plurality of medical units is also possible.
[0034]
The camera 10 is connected to the external connection port 21 so that the image recognition / control computer 20 can acquire a captured digital image in real time. In this embodiment, the first camera 10a provided in the downward direction to horizontally view the medical treatment area, the second camera 10b provided in the direction to view the medical treatment area in front, and the side of the medical treatment unit is visually recognized horizontally. And a third camera 10c provided at a position where it can be performed.
[0035]
The image recognition / control computer 20 includes an external connection port 21, a recognition control unit 22 in which a recognition control program is installed, a position image of each unit required for recognition control, a face image of an operator / patient, and an operator. And a storage unit 23 that stores information including the optimal position of the information.
[0036]
The recognition control unit 22 includes a recognition unit 22a that identifies each unit or person of the dental care unit from image information obtained from a camera, a surgeon identification unit 22b that identifies a surgeon, and a patient that identifies a patient. Identification means 22c, instrument discrimination means 22d for identifying the instrument used by the operator, position control means 22e for judging the medical treatment stage and moving each part of the medical treatment unit to the optimal position, A display unit 22f for displaying the medical record on the display device (display) 11 based on the identification, an instrument lock unit 22g for controlling a malfunction of the use prohibiting device, and an instrument hose used by the operator. The face image information of the operator and the patient is registered in the instrument hose control means 22h and the storage unit 23 in advance. Comprising a surgeon-patient image recording unit 22i of the surgeon personal physique, the image of the device placement during medical that liking, a surgeon optimum position recording means 22j for recording the relative position information at least.
[0037]
In addition, the storage unit 23 stores unit movable range image information 23a that records movable range images for each movable part of the dental care unit, operator image information 23b, patient image information 23c, and optimal position information 23d. Prepare.
[0038]
The unit movable range image information 23a includes model image information of the movable range (tilt) of the back plate of the chair, the movable range of the table, the movable range of the assistant hanger, the up and down (elevation) of the chair, and the tilt range of the back plate. A position pattern image in which the position is an image at regular intervals) is recorded. The image obtained by the recognizing unit 22a is compared with the model image information (pattern matching) to grasp the position of each unit. Information to be used.
[0039]
The surgeon image information 23b is a record of a face image of a surgeon to which the surgeon belongs, and the surgeon recognizing unit 22b has a face image of a surgeon (doctor or dental hygienist) seated in a medical treatment position and a registered face. This is information used for performing operator personal recognition by comparing with image information. In addition, if it is a face image in the treatment position area L, personal recognition of the face image of the operator performing the standing medical care is also possible.
[0040]
The patient image information 23c is a record of the face image of the patient who received the medical treatment. The patient's face image acquired by the camera at the time of the first consultation is provided in the dental treatment management server 50, and the operator / patient image record is performed via the in-hospital LAN 40. It is registered by means 22i. Also, at the time of re-examination, the latest face image is updated and recorded, so that the face image of the patient sitting in the medical treatment unit is compared with the registered patient face image, and the patient identification unit 22c identifies the individual patient. belongs to.
[0041]
The optimum position information 23d is information in which a medical treatment position for each individual operator and an image or position information (pattern) of an optimal arrangement of each part of the dental care unit corresponding to the position are registered. In this case, the medical treatment position of the operator may take a plurality of positions within the treatment position area L depending on the treatment content. Also, register the optimal arrangement of each pattern for each individual operator according to the direction in which the operator faces and performs the medical treatment around the oral cavity position when the chair back plate is tilted and the patient is completely leveled. Keep it.
[0042]
FIG. 2 is a front view showing the arrangement of the cameras. As shown in the figure, the dental care unit 1 includes a chair 17 for performing a medical treatment on the oral cavity by sitting down on a patient and depressing a back plate 17a, a foot pedal 18 for raising and lowering the chair 17 and controlling the operation of a medical instrument, and a chair 17. A table 13 on which a medical instrument supported to move up and down is placed, an instrument hanger 15 attached to a lower portion of the table 13, an instrument 16 held by the hanger 15, an instrument hose 16a, and a display. It comprises a device 11, an operating light 12, and the like.
[0043]
Here, the main movable parts are the operating light 12, the table 13, the instrument hanger 15, the assistant hanger 14, the back plate 17a, and the chair 17. Note that the dental care unit 1 of this embodiment has a structure in which each part also moves up and down as the chair 17 moves up and down.
[0044]
The camera 10 includes a first camera 10a provided downward on a ceiling or a support of the medical care area K, and a second camera 10b provided on a support pole such as the surgical light 12 so as to face the treatment position area L in front view. , A third camera 10c provided at a position where the wall surface or the side surface of the dental care unit can be viewed horizontally. The position of each part on the plane and the presence of a person can be recognized by the image from the first camera 10a, and the face image of the seated patient and the operator's face can be recognized by the second camera 10b. The third camera 10c recognizes the elevating state, the inclination of the backboard, and the vertical position of each part.
[0045]
The third camera performs image recognition for controlling the vertical movement of a table or the like in the case of a dental care unit of a type in which the table 13 and the assistant hanger 14 do not move up and down in conjunction with the chair 17.
[0046]
FIG. 3 is a side view showing another arrangement of the camera. The same devices as those in FIG. 2 are assigned the same reference numerals. In this embodiment, a camera 10 with a swing function (automatic pan / tilt function) is arranged at the distal end of the surgical light 12, and the support arms 12a, 12b, 12c, 12d, and 12e of the surgical light 12 are respectively moved. The camera 10 is moved to a predetermined position by being rotated by the drive motors M3, M4, M5, M6, M7 of the support arm. Thereby, it is possible to have the functions of the first camera and the second camera described above.
[0047]
The camera position A is a position in place of the first camera 10a that enables recognition of the position of each part on the plane and the presence of a person, and the camera position B can recognize the face image of a seated patient or an operator. The camera position C is an image that recognizes the treatment area N centered on the patient's oral cavity, and identifies an instrument or the like used by the operator. It is a suitable position for
[0048]
Next, a technique relating to the recognition unit 22a will be described. In the case of an image from the first camera 10a installed on the ceiling, the camera installation position and the medical care unit installation position are fixed and known.
[0049]
In order to determine the actual distance or size of the device or the like from the image acquired from the camera 10a, the distance per pixel in the image can be obtained. When the camera 10a is provided 2 meters above the seat G of the chair 17 in FIG. 2 and the horizontal angle of view of the camera is 30 ° and the horizontal resolution is 320 pixels, the camera can take a picture in a plane at the height of the seat G. The horizontal range has a base distance of 1.07 m by a trigonometric function, and the distance per pixel is equivalent to 3.34 mm. When the vertical angle of view is 30 ° and the vertical resolution is 240 pixels, the distance per pixel in the vertical direction is also equivalent to 4.46 mm. When the distance of the object from the camera 10a is changed by moving up and down, the distance per pixel at the height can be obtained by identifying the object having a known size such as a table. In this way, by recognizing the pixels as a coordinate matrix, the position and moving direction of each device in the image can be grasped as a coordinate system.
[0050]
A method of recognizing the state of the movable range of each device will be described. The back plate 17a of the chair 17 shown in FIG. 3 is movable in a range of a position F 'where the patient is seated (up state) F' and a state F which is folded down for treatment, as indicated by arrows. The state of the back plate 17a is such that the acquired image is compared with a model pattern registered in advance in the unit movable range image information 23a (pattern matching), and a combination with the model pattern having the highest matching value is selected. Thus, the actual back plate position can be grasped.
[0051]
As shown in FIG. 3, the table 13 can be moved to the position D ′ when the patient is introduced, so that the table 13 does not interfere with the patient's seating movement, and can be moved to the position D at the start of medical treatment. It becomes the movable range. This position recognition is similarly performed by comparing (pattern matching) with a model pattern registered in advance in the unit movable range image information 23a, and selecting a combination with the model pattern having the highest matching value, thereby realizing the actual table position. Can be grasped.
[0052]
FIG. 4 is a plan view of FIG. The assistant hanger 14 shown in FIG. 4 is a device that holds equipment used by the assistant during medical treatment, and moves in a movable range from E to E ′. In this position recognition as well, the actual position is grasped by comparing (pattern matching) with a model pattern registered in advance in the unit movable range image information 23a and selecting a combination with the model pattern having the highest matching value. can do.
[0053]
At the time of these pattern matching, the color information (RGB) of the image is converted into hue (H), saturation (S), and lightness (V) by using HSV colorimetric information, thereby comparing the image with the unit movable range image information 23a ( Pattern matching). If the background is not limited, the area to be recognized is first narrowed down by the HSV color information, and then the pattern is matched with the unit movable range image information 23a to further increase the comparison operation speed. It is possible. Further, in the situation of the medical care area K where the background is limited and the color from the recognition target is well separated, the position can be recognized only by the color information. In this method, when the hue value (0 to 359) is a face image of a person, the face image is specified from the image by using a limited range. Further, in the determination based on the color information, if the camera is an infrared camera, the separation determination of the person and the background can be reliably performed in a short time.
[0054]
FIG. 4 shows a medical care area K acquired by the camera 10 and a medical care position area L which is a range (medical care position) where the doctor chair 19 on which the operator J sits for medical care is located. This figure shows a case where the operator J is located at the position of the patient's head (12 o'clock position). The medical treatment may be performed. Regarding which position the operator is located, the recognizing means 22a performs the operator medical care position determination.
[0055]
In FIG. 4, reference numerals 13a, 13b, and 13c denote arms that rotatably support the table 13. The movement of the table 13 from D to D 'is performed by driving the motor M1 at the base of the arm 13c and the motor M2 at the rotating parts of the arms 13a and 13b.
[0056]
The main operation of the dental care support of this embodiment will be described based on the general flow shown in FIG.
[0057]
First, the position of each part of the medical care unit 1 is recognized by the recognition means 22a (device recognition step S1). This detailed flow is shown in FIG.
[0058]
Next, a person (operator, patient) is recognized by the recognition means 22a (person recognition step S2). This detailed flow is shown in FIG.
[0059]
Next, it is determined whether the operator exists at the medical treatment position in the treatment position area L or the patient exists on the chair 17. If neither exists, the person recognition in step S2 is continued. When the patient is seated and the operator arrives at the medical treatment position in the treatment position area L, it is determined that medical treatment has started, and the procedure proceeds to the next (medical treatment start determination step S3).
[0060]
Next, each part of the dental care unit is moved to an optimal position according to the medical care position of the operator. That is, the optimal position of each device registered for each individual operator is retrieved and read out from the optimal position information 23d by the position control means 22e, and is moved to the arrangement (position control step S4).
[0061]
At this time, control of each part of the dental care unit is performed by sending an operation command signal to the medical care unit operation control device 30 connected to the external connection port 21. A known technique can be used for the operation control method, but the movement target, the destination coordinates, and the movement path are instructed.
[0062]
As shown in FIG. 1, the medical treatment unit operation control device 30 includes a medical chair lifting / lowering / backboard tilting operation unit 31, a table moving operation unit 32, an instrument control operation unit 33, an assistant hanger moving operation unit 34, and a surgical light moving unit. An operation command signal is sent to each drive unit (for example, a stepping motor) of the operation unit 35.
[0063]
Next, the operation of each part of the dental care unit which started operation in the position control step S4 is recognized (operation recognition step S5). This detailed flow is shown in FIG.
[0064]
It is determined whether each part of the device that has moved has moved to the optimal position corresponding to the medical care position of the operator searched in the position control step S4, that is, the optimal stop position, and if it has moved to the optimal stop position, the operation ends. Proceed to step (S9). If it has not reached the optimal stop position, the process proceeds to the next step (operation end determination step S6).
[0065]
If the movement has not been completed, the positional relationship between the operating parts of the dental care unit and other parts or persons is monitored for a risk of contact (contact monitoring step S7). This detailed flow is shown in FIG.
[0066]
When it is determined that contact with something is predicted due to the movement, the process proceeds to the operation end step (S9). When it is determined that there is no fear of contact, the moving operation is continued and the process returns to the operation recognition step S5. In this flow, the case where the operation is stopped when it is determined that the contact is predicted has been described, but the process may return to the position control step S4 to change the movement trajectory of each device so as to avoid an obstacle, Alternatively, an alarm sound may be sounded to warn a person as an obstacle, and these may be combined (contact determination step S8).
[0067]
As described above, the medical unit is automatically set in accordance with the introduction of the patient and the start of the medical treatment by the operator, the medical treatment is started, and the process proceeds to step S10 and subsequent steps.
[0068]
During the medical treatment, the instrument discriminating means 22d recognizes the operator's hand in the treatment area, identifies the instrument in use, controls its hose, and controls the lock of the use-prohibited device. The operation of the operator is supported (instrument recognition step S10). This detailed flow is shown in FIG.
[0069]
Subsequently, the person (operator, patient) is recognized by the recognition means 22a (person recognition step S11). This detailed flow is the same as that in step 2, and is shown in FIG.
[0070]
In order to determine the end of the medical treatment, it is determined whether the operator has left the medical treatment position or the treatment position area L. If the operator is in the medical treatment position, it is determined that medical treatment is ongoing, and the process returns to step 10 to continue monitoring. If the operator has left, the process proceeds to step S13 (medical care end determination step S12).
[0071]
When it is determined that the medical care has been completed, each part of the dental care unit is moved to the reset position. In this operation, a command is issued to lower the chair 17 while raising the back plate of the chair 17 and to move the table or the like forward so as not to hinder the patient from leaving. The reset position is registered in advance in the optimum position information 23d as coordinate information or image information, and is transmitted by sending a control signal to the medical unit operation control device 30 with reference to the position control means 22e (position Control step S13).
[0072]
Next, the operation of each part of the dental care unit which started the operation in the position control step 13 is recognized (operation recognition step S14). This detailed flow is the same as that in step 5, and is shown in FIG.
[0073]
Subsequently, it is determined whether or not each part of the apparatus that has moved has moved to the reset position, and if it has moved to the reset position, the process jumps to the step of ending the operation of Step 18. If it has not reached the reset position, the process proceeds to the next (operation end determination step S15).
[0074]
If the movement has not been completed, the positional relationship between the operating medical unit and other parts or persons is monitored to determine whether there is a risk of contact (contact monitoring step S16). This detailed flow is shown in FIG.
[0075]
When it is determined that contact with something is predicted due to the movement, the process proceeds to the end process of the operation in step S18. When it is determined that there is no fear of contact, the movement operation is continued and the process returns to the operation recognition step of step S14 (contact determination step S17), and the operation is ended by resetting the medical care unit (step S18).
[0076]
The above is the main flow of the medical care support operation. Subsequently, detailed operations of the respective steps described above will be described with reference to FIGS. 6, 7, and 8. FIG.
[0077]
FIG. 6A is a flowchart of a device recognition step in a dental care support operation by image recognition, FIG. 6B is a flowchart of a person recognition step, and FIG. 6C is a flowchart of a difference image processing step.
[0078]
The device recognition step shown in FIG. 6A is for confirming the position of each part of the device, and first recognizes the chair backboard angle (chair backboard angle recognition S1-1). In this recognition, the chair backboard portion is determined from the acquired image, the model is compared with the model pattern registered in advance in the unit movable range image information 23a (pattern matching), and the combination with the model pattern having the highest matching value is determined. The tilt angle is identified by the selected method.
[0079]
Next, the table is discriminated from the acquired image, the model pattern registered in advance in the unit movable range image information 23a is compared (pattern matching), and the combination with the model pattern having the highest matching value is selected. The position of the table is obtained (table position recognition step S1-2).
[0080]
Subsequently, the assistant hanger is determined from the acquired image, and the position of the assistant hanger is similarly obtained by pattern matching (assistant hanger position recognition step S1-3).
[0081]
In the person recognition step shown in FIG. 6B, first, images of the medical care area (around the dental care unit and the chair device) are acquired at regular time intervals, the images before and after are compared to monitor the background around the unit, and A temporal change is extracted (difference image processing step S2-1). The details of the difference image processing step will be described in detail with reference to FIG.
[0082]
Subsequently, it is determined whether there is a significant change in the image of the medical care area. If there is no significant change, the person recognition step ends. If there is a large change, the process proceeds to the next (change determination step S2-2).
[0083]
Next, an area having a large difference is specified in the medical care area K (around the unit) (change area specifying step S2-3).
[0084]
Subsequently, it is determined whether or not the change area is around the chair where the patient sits, and if it is around the chair, the process proceeds to step S2-5 (patient determination step S2-4).
[0085]
It is determined whether or not the change area is around the treatment position area L where the operator is seated (medical position). If the change area is around the treatment position area L, the process proceeds to step S2-7 (operator determination step S2-6).
[0086]
The presence of the patient is confirmed, the patient's face image is acquired, and the patient is identified by performing pattern matching with the patient image information 23c (patient sitting determination S2-5). The display unit 22f retrieves the patient information stored in the dental care server 50 from the patient's ID number based on the patient's personal identification, and displays the patient information on the display device 11.
[0087]
When the presence of the operator is recognized in the treatment position area L, the position of the medical treatment position of the operator is determined, and a face image of the operator is obtained, and the operation is performed by pattern matching with the operator image information 23b. The individual is identified (operator consultation position determination step S2-7).
[0088]
By this operator's personal identification, the position control means 22e can search the optimum position of each part of the apparatus for each operator from the optimum position information 23d, and instruct the movement of the apparatus according to the individual's medical care style. Become.
[0089]
Details of the difference image processing step in step S2-1 will be described with reference to FIG. First, an image A is obtained from the camera (step S2-11). Subsequently, a predetermined change monitoring interval is set in a timer (step S2-12).
[0090]
The progress of the timer set time is monitored, and when the set time has been reached, the process proceeds to the next (step S2-13).
[0091]
Next, an image B is acquired from the camera (step S2-14), and the acquired image A and image B are compared to acquire a difference image (step S2-15).
[0092]
FIG. 7A is a flowchart of an operation recognition step in the dental care support operation by image recognition, and FIG. 7B is a flowchart of a contact monitoring step.
[0093]
FIG. 7A shows details of the operation recognition steps of steps S5 and S14 described in FIG. First, it is determined whether the chair 17 is in operation from the area of the difference image obtained in the above-described difference image processing step (FIG. 6C). If there is no change, the process proceeds to step S5-4 (step S5-1).
[0094]
When a change is recognized in the chair 17, the position in the image and the movement direction are estimated from the image before the operation and the image after the operation (step S5-2). Subsequently, the angle of the chair backboard is recognized by pattern matching (step S5-3).
[0095]
Next, it is determined from the area of the difference image whether the table 13 is operating. If there is no change, the process moves to step S5-7 (step S5-4). When a change is recognized in the table 13, the position in the image and the operation direction are estimated from the image before operation and the image after operation (step S5-5). Subsequently, the table position is recognized by pattern matching (step S5-6).
[0096]
Next, it is determined whether or not the assistant hanger 14 is operating from the area of the difference image, and if there is no change, the process ends (step S5-7). When a change is recognized in the assistant hanger 14, the position in the image and the operation direction are estimated from the image before operation and the image after operation (step S5-8). Subsequently, the position of the assistant hanger 14 is recognized by pattern matching (step S5-9).
[0097]
FIG. 7B is a flowchart illustrating details of the contact monitoring step S7 described in FIG. First, it is determined whether the chair 17 is operating from the area of the difference image obtained in the difference image processing step (FIG. 6C). If there is no change, the process moves to step S7-3 (step S7-1).
[0098]
When a change is recognized in the chair 17, the destination is estimated from the position and the movement direction, and it is determined whether or not the destination may come into contact with an obstacle (step S7-2). The details of the contact determination step (step S7-2) are shown in FIG. 8B, and the description will be given later.
[0099]
Subsequently, it is determined whether or not the table 13 is in operation. If there is no change, the process proceeds to step S7-5 (step S7-3). When a change is recognized in the table 13, the destination is estimated from the position and the movement direction, and it is determined whether or not the destination may come into contact with an obstacle (step S7-4).
[0100]
Subsequently, it is determined whether or not the assistant hanger 14 is operating, and if there is no change, the process ends (step S7-5). When a change is found in the assistant hanger 14, the destination is estimated from the position and the movement direction, and it is determined whether the destination may come into contact with an obstacle (step S7-6).
[0101]
FIG. 8A is a flowchart of an instrument recognition step in a dental care support operation using image recognition, and FIG. 8B is a flowchart of a contact determination step.
[0102]
FIG. 8A shows the details of step S10 in FIG. First, a difference image around the treatment area N obtained in the above-described difference image processing step is monitored (step S10-1). At this time, recognition accuracy can be ensured by capturing only the periphery of the treatment area N by the digital zoom function or by using a close-up image using a camera having an optical zoom function. In the case of the camera 10 attached to the surgical light 12 shown in FIG. 3, if the camera position is set to the position C, the recognition accuracy can be improved just above the treatment area N and the distance to the subject is short. Become.
[0103]
If there is no significant change in the images around the treatment area N and in the treatment area N, the process ends. When a large change is recognized, the process proceeds to step S10-3 (step S10-2).
[0104]
An area having a large difference (change) in the vicinity of the treatment area N and within the treatment area N is specified, and the operation direction of the operator's hand and the grasped instrument is recognized (step S10-3). At this time, the processing can be performed efficiently by specifying the treatment area as a divided area.
[0105]
Subsequently, the instruments used in the treatment area N are specified by pattern matching and color identification (step S10-4). By this instrument identification, the instrument locking means 22g sends a control signal to the instrument control operation section 33 when instruments which are prohibited from being used repeatedly are identified at the same time. It is possible to interlock or interlock other than the identified instruments.
[0106]
Further, the instrument hose control means 22h determines the position and movement of the hand of the operator holding the instrument by tracking. When the used instrument is moved into the medical care area N, the instrument hose 16a is set in the delivery state, and when the used instrument is in the treatment area N, the instrument hose is set in the tension-free state, and the used instrument is moved out of the treatment area N. When this is done, the instrument hose 16a is brought into the winding state.
[0107]
When distinguishing these instruments and the operator's hand, it is preferable to color-code the grips and hoses of the instrument and use a fixed color for the operator's gloves. By doing so, it is possible to further enhance the discrimination effect even if there is a change in how the instrument is gripped or in the direction.
[0108]
In addition, when the medical care information has been acquired from the dental care management server 50, it is also possible to automatically perform an instrument preparation operation required for the next medical care process. Therefore, for example, a device to be used immediately after the start of medical treatment can be kept in a state where it can be easily taken out. In addition, the intraoral camera used to provide treatment explanations to the patient can be protruded from the instrument hanger for easy removal.
[0109]
FIG. 8B is a detailed flowchart of the contact determination step S7-2 in FIG. 7B. First, the movement direction of the target device is grasped from the information obtained by the difference image processing, and the destination is estimated (step S7-21). Next, it is determined whether there is an obstacle at the destination (step S7-22). At this time, the height is also determined using both the planar position information from the first camera 10a and the horizontal position information from the third camera 10c.
[0110]
The distance to the obstacle is 100 mm to 200 mm away from the outer circumference of the moving device, or a range 100 mm to 200 mm away from the outer circumference of the surgeon's body as a boundary area. It is desirable to determine the presence or absence. If no obstacle is recognized, the process ends. If there is an obstacle, the process proceeds to step S7-24 (step S7-23).
[0111]
In step S7-24, an obstacle is identified by performing pattern matching with the image information of each part of the person / device. If the identified obstacle is a known obstacle (table, assistant hanger, surgeon at a predetermined position), contact (hit) prediction is performed from the image of the third camera 10c in consideration of the height direction (step). S7-26).
[0112]
In the contact (hit) prediction, it is possible to warn or stop by detecting that there is a risk that the operator's foot sitting on the doctor chair 19 may hit the backboard when the chair backboard tilts. Become. As a result, it is possible to prevent an accident such as pinching of the leg of the doctor by the back plate. On the other hand, when the obstacle is not a known obstacle (for example, when the patient starts moving), a warning is issued or the operation is stopped (step S7-27).
[0113]
The present invention is not limited to the above embodiments, and various modifications can be made. In the present invention, even if the operator manually moves each device such as a table for fine adjustment, it is possible to recognize the position, and even during the medical treatment, even if the operator changes the medical treatment position Since the position can be grasped and recognized in real time, it is also possible to control to relocate each device to an optimal position according to the movement. Further, in the conventional operation control, control using a position detection sensor or a stepping motor is required. However, according to the present invention, since a position is detected by image recognition, complicated control wiring and a program are not required. Things.
[0114]
【The invention's effect】
According to the present invention, the position of each device of the dental care unit, the presence and position of the patient and the operator and their positions are recognized in real time, and the introduction of the patient, the start of the care, and the completion of the medical care correspond to the predetermined device of the dental care unit. It can be moved to each optimal position. Therefore, the flow of medical treatment can be performed smoothly and efficiently. In particular, automatic movement becomes possible without providing a complicated control device in the dental care unit. In addition, based on the individual identification of medical instruments (instruments and other instruments) selected by the surgeon, locks for duplicate use, sending out and rewinding of hoses are automatically performed to support the surgeon's dental practice. be able to.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a dental care support system based on image recognition according to an embodiment of the present invention.
FIG. 2 is a front view showing an arrangement of cameras.
FIG. 3 is a side view showing another arrangement of the camera.
FIG. 4 is a plan view of FIG. 3;
FIG. 5 is a general flow of a dental care support operation by image recognition.
6A is a flowchart of a device recognition step in a dental care support operation by image recognition, FIG. 6B is a flowchart of a person recognition step, and FIG. 6C is a flowchart of a difference image processing step.
7A is a flowchart of an operation recognition step in a dental care support operation based on image recognition, and FIG. 7B is a flowchart of a contact monitoring step.
8A is a flowchart of an instrument recognition step in a dental care support operation based on image recognition, and FIG. 8B is a flowchart of a contact determination step.
[Explanation of symbols]
1 Dental practice unit
10 Camera
10a First camera
10b Second camera
10c Third camera
11 Display device
12 Operating light
12a, 12b, 12c, 12d, 12e Support arm
13 Table
13a, 13b, 13c Support arm
14 Assistant hanger
15 Instrument hanger
16 Instruments
16a Instrument hose
17 Chair
18 foot pedal
20 Image recognition and control computer
21 External connection port
23 Memory
30 Medical unit operation control device
31 clinic chair lift / back plate tilting operation unit
32 Table moving operation unit
33 Instrument control operation section
34 Assistant hanger movement unit
35 Operating light moving section

Claims (10)

患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段とを備えることを特徴とする画像認識による歯科診療支援システム。
One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
A dental care support system using image recognition, comprising: a recognition unit that recognizes the position of each device in a dental care unit, the presence of a patient and an operator, and their positions in real time based on image information from a camera.
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段とを備えることを特徴とする画像認識による歯科診療支援システム。
One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
A dental care support system using image recognition, comprising: a position control means for, when the recognition means recognizes the patient and the surgeon, moving a predetermined device in the dental care unit to a position optimal for supporting a medical operation.
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
前記カメラからの術者の顔画像に基づいて術者識別を行う術者識別手段と、
術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備えていることを特徴とする画像認識による歯科診療支援システム。
One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
Surgeon identification means for performing surgeon identification based on the surgeon's face image from the camera,
A dental care support system using image recognition, comprising: a position control means for moving a predetermined device in a dental care unit to an optimum position according to a medical treatment style of an operator identified by an operator identifying means.
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、
前記カメラからの患者の顔画像に基づいて患者識別を行う患者識別手段と、
患者識別手段が識別した患者についての診療情報を表示する表示手段とを備えていることを特徴とする画像認識による歯科診療支援システム。
One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
When the recognition unit recognizes the patient and the operator, a position control unit that moves a predetermined device in the dental care unit to a position that is optimal for supporting a medical operation,
Patient identification means for performing patient identification based on the patient's face image from the camera,
Display means for displaying medical information on the patient identified by the patient identification means. A dental care support system based on image recognition.
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、
術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、
重複使用禁止のインスツルメントが選択されたとき、少なくとも使用禁止側のインスツルメントの作動をロックするインスツルメントロック手段とを備えていることを特徴とする画像認識による歯科診療支援システム。
One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
When the recognition unit recognizes the patient and the operator, a position control unit that moves a predetermined device in the dental care unit to a position that is optimal for supporting a medical operation,
Instrument discriminating means for discriminating the instrument selected by the operator,
A dental care support system based on image recognition, comprising: an instrument locking means for locking at least the operation of the instrument on the use prohibition side when an instrument for which duplicate use is prohibited is selected.
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
認識手段が患者及び術者を認識したとき、歯科診療ユニットにおける所定の装置を診療動作の支援に最適な位置に移動させるポジション制御手段と、
術者が選択したインスツルメントの固体判別を行うインスツルメント判別手段と、
判別されたインスツルメントに接続されているインスツルメントホースを当該インスツルメントの使用状況に応じて送り出し状態、巻き取り状態、テンションフリー状態に制御するインスツルメントホース制御手段とを備えていることを特徴とする画像認識による歯科診療支援システム。
One or more cameras to obtain image information of a medical care area in the vicinity of a medical care chair of a dental care unit and an operator and an assistant including a medical care chair on which a patient sits,
Recognition means for recognizing in real time the position and patient of each device in the dental care unit based on image information from the camera, the presence of the surgeon and its position,
When the recognition unit recognizes the patient and the operator, a position control unit that moves a predetermined device in the dental care unit to a position that is optimal for supporting a medical operation,
Instrument discriminating means for discriminating the instrument selected by the operator,
Instrument hose control means for controlling an instrument hose connected to the determined instrument to a delivery state, a winding state, or a tension-free state according to the usage state of the instrument. A dental care support system using image recognition.
前記インスツルメントホース制御手段は、前記認識手段により使用インスツルメントの位置をリアルタイムに認識し、使用インスツルメントが治療エリア内に移動されるときにインスツルメントホースを送り出し状態とし、治療エリア内ではテンションフリー状態とし、使用インスツルメントが治療エリア外に移動されたときにはインスツルメントホースを巻き取り状態とすることを特徴とする請求項6記載の画像認識による歯科診療支援システム。The instrument hose control means recognizes the position of the used instrument in real time by the recognition means, and sets the instrument hose to a delivery state when the used instrument is moved into the treatment area, 7. The dental treatment support system by image recognition according to claim 6, wherein the inside is in a tension-free state, and when the used instrument is moved out of the treatment area, the instrument hose is in a winding state. 前記認識手段は、歯科診療ユニットにおける各装置の移動経路及び移動先の障害物の認識が可能となっており、前記ポジション制御手段は認識手段からのデータに基づいて障害物を回避するように各装置の移動軌道の変更または/及び移動の停止または/及び警告を行うことを特徴とする請求項2〜6のいずれかに記載の画像認識による歯科診療支援システム。The recognizing means is capable of recognizing a moving path of each device in the dental care unit and an obstacle at a moving destination, and the position control means is configured to avoid each obstacle based on data from the recognizing means. The dental care support system by image recognition according to any one of claims 2 to 6, wherein the movement trajectory of the device is changed and / or the movement is stopped or / and a warning is issued. 前記カメラは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍の診療エリアを平面から撮影する第1のカメラと、患者ならびに術者の顔画像を撮影する第2のカメラと、前記診療エリアを側面から撮影する第3のカメラとが配置されることを特徴とする請求項2〜6のいずれかに記載の画像認識による歯科診療支援システム。The camera includes a first camera that captures, from a plane, a dental care unit including a consultation chair on which a patient sits, and a treatment area near a consultation chair of an operator and an assistant, and a first camera that captures a face image of the patient and the operator. The dental care support system by image recognition according to any one of claims 2 to 6, wherein a second camera and a third camera for photographing the medical care area from a side are arranged. 前記第1のカメラが歯科診療ユニットの無影灯に回動自在に取り付けられており、無影灯の回動に伴って、診療エリアを平面視する第1の撮影位置と、顔画像を撮影する第2の撮影位置及び診療エリアを側面から撮影する第3の撮影位置との間を移動可能となっていることを特徴とする請求項9記載の画像認識による診療支援システム。The first camera is rotatably attached to the surgical light of the dental care unit. With the rotation of the surgical light, a first imaging position for viewing the medical treatment area in a plan view and a face image are captured. The medical assistance system using image recognition according to claim 9, wherein the medical assistance system is movable between a second imaging position to perform imaging and a third imaging position to image the medical treatment area from the side.
JP2002330860A 2002-11-14 2002-11-14 Dental care support system based on image recognition Expired - Fee Related JP4172689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002330860A JP4172689B2 (en) 2002-11-14 2002-11-14 Dental care support system based on image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002330860A JP4172689B2 (en) 2002-11-14 2002-11-14 Dental care support system based on image recognition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008144017A Division JP4653822B2 (en) 2008-06-02 2008-06-02 Dental care support system based on image recognition

Publications (2)

Publication Number Publication Date
JP2004159998A true JP2004159998A (en) 2004-06-10
JP4172689B2 JP4172689B2 (en) 2008-10-29

Family

ID=32808431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002330860A Expired - Fee Related JP4172689B2 (en) 2002-11-14 2002-11-14 Dental care support system based on image recognition

Country Status (1)

Country Link
JP (1) JP4172689B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118987A (en) * 2007-11-14 2009-06-04 Yoshida Dental Mfg Co Ltd Automatic patient's facial image storage system and apparatus
JP2010522002A (en) * 2007-03-19 2010-07-01 プランメカ オイ User-friendly dental care unit
JP2010273917A (en) * 2009-05-29 2010-12-09 Morita Mfg Co Ltd Dental treatment device
JP2012152447A (en) * 2011-01-27 2012-08-16 Osada Res Inst Ltd Dental treatment apparatus
JP2012196238A (en) * 2011-03-18 2012-10-18 Morita Mfg Co Ltd Medical treatment apparatus
JP2012203572A (en) * 2011-03-24 2012-10-22 Morita Mfg Co Ltd Medical treatment device
JP2017035279A (en) * 2015-08-10 2017-02-16 長田電機工業株式会社 Dental treatment unit
WO2017073986A1 (en) * 2015-10-29 2017-05-04 이민정 Dental self-assistance apparatus
KR101745434B1 (en) 2016-04-06 2017-06-09 이민정 Self-assistant apparatus for dental clinic
WO2019044124A1 (en) * 2017-09-04 2019-03-07 大樹 梶田 Multiple-viewpoint video image viewing system and camera system
JP2019042199A (en) * 2017-09-04 2019-03-22 大樹 梶田 Camera system
WO2019187449A1 (en) * 2018-03-29 2019-10-03 株式会社吉田製作所 Image processing device and image processing program
JP2019213778A (en) * 2018-06-14 2019-12-19 株式会社吉田製作所 Mounted type dental treatment apparatus and mounted type dental treatment system
JP2020127560A (en) * 2019-02-07 2020-08-27 株式会社吉田製作所 Mobile dental care apparatus and dental care system
JP2021037155A (en) * 2019-09-04 2021-03-11 株式会社モリタ製作所 Medical diagnostic apparatus
JP2022169603A (en) * 2020-12-03 2022-11-09 株式会社吉田製作所 Dental clinic system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04189357A (en) * 1990-11-22 1992-07-07 Morita Tokyo Seisakusho:Kk Dental unit
JPH05268599A (en) * 1992-03-17 1993-10-15 Fujitsu Ltd Automatic control system for portrait pickup camera in television conference system
JPH11183145A (en) * 1997-10-15 1999-07-09 Yuusuke Nonomura Three-dimensional observation apparatus
JP2000099827A (en) * 1998-09-25 2000-04-07 Fujitsu Ltd System and method for customer recognition using radio identification and visual data transmission
JP2000166995A (en) * 1998-12-01 2000-06-20 Morita Mfg Co Ltd Dental treatment instrument
JP2002035009A (en) * 2000-07-19 2002-02-05 Morita Mfg Co Ltd Identifiable instrument, identifiable adapter, identifiable tube and treatment apparatus using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04189357A (en) * 1990-11-22 1992-07-07 Morita Tokyo Seisakusho:Kk Dental unit
JPH05268599A (en) * 1992-03-17 1993-10-15 Fujitsu Ltd Automatic control system for portrait pickup camera in television conference system
JPH11183145A (en) * 1997-10-15 1999-07-09 Yuusuke Nonomura Three-dimensional observation apparatus
JP2000099827A (en) * 1998-09-25 2000-04-07 Fujitsu Ltd System and method for customer recognition using radio identification and visual data transmission
JP2000166995A (en) * 1998-12-01 2000-06-20 Morita Mfg Co Ltd Dental treatment instrument
JP2002035009A (en) * 2000-07-19 2002-02-05 Morita Mfg Co Ltd Identifiable instrument, identifiable adapter, identifiable tube and treatment apparatus using the same

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010522002A (en) * 2007-03-19 2010-07-01 プランメカ オイ User-friendly dental care unit
JP2009118987A (en) * 2007-11-14 2009-06-04 Yoshida Dental Mfg Co Ltd Automatic patient's facial image storage system and apparatus
JP2010273917A (en) * 2009-05-29 2010-12-09 Morita Mfg Co Ltd Dental treatment device
JP2012152447A (en) * 2011-01-27 2012-08-16 Osada Res Inst Ltd Dental treatment apparatus
JP2012196238A (en) * 2011-03-18 2012-10-18 Morita Mfg Co Ltd Medical treatment apparatus
JP2012203572A (en) * 2011-03-24 2012-10-22 Morita Mfg Co Ltd Medical treatment device
JP2017035279A (en) * 2015-08-10 2017-02-16 長田電機工業株式会社 Dental treatment unit
WO2017073986A1 (en) * 2015-10-29 2017-05-04 이민정 Dental self-assistance apparatus
KR101745434B1 (en) 2016-04-06 2017-06-09 이민정 Self-assistant apparatus for dental clinic
JP2019042199A (en) * 2017-09-04 2019-03-22 大樹 梶田 Camera system
WO2019044124A1 (en) * 2017-09-04 2019-03-07 大樹 梶田 Multiple-viewpoint video image viewing system and camera system
WO2019187449A1 (en) * 2018-03-29 2019-10-03 株式会社吉田製作所 Image processing device and image processing program
JP2019170923A (en) * 2018-03-29 2019-10-10 株式会社吉田製作所 Image processing device and image processing program
JP2019213778A (en) * 2018-06-14 2019-12-19 株式会社吉田製作所 Mounted type dental treatment apparatus and mounted type dental treatment system
JP7131808B2 (en) 2018-06-14 2022-09-06 株式会社吉田製作所 Wearable dental care device and wearable dental care system
JP2020127560A (en) * 2019-02-07 2020-08-27 株式会社吉田製作所 Mobile dental care apparatus and dental care system
JP7261453B2 (en) 2019-02-07 2023-04-20 株式会社吉田製作所 Mobile dental practice equipment and dental practice system
JP2021037155A (en) * 2019-09-04 2021-03-11 株式会社モリタ製作所 Medical diagnostic apparatus
JP7117278B2 (en) 2019-09-04 2022-08-12 株式会社モリタ製作所 medical diagnostic equipment
JP2022169603A (en) * 2020-12-03 2022-11-09 株式会社吉田製作所 Dental clinic system
JP7349186B2 (en) 2020-12-03 2023-09-22 株式会社吉田製作所 dental treatment system

Also Published As

Publication number Publication date
JP4172689B2 (en) 2008-10-29

Similar Documents

Publication Publication Date Title
JP2004159998A (en) Dental treatment supporting system with image recognition
JP4653822B2 (en) Dental care support system based on image recognition
JP4152402B2 (en) Surgery support device
US7076286B2 (en) Surgical microscope
JP6623226B2 (en) Jaw movement tracking
KR101716421B1 (en) Method for providing information and medical diagnosis apparatus thereto
US8521255B2 (en) Registration pointer and method for registering a bone of a patient to a computer assisted orthopaedic surgery system
JP4484462B2 (en) Method and apparatus for positioning a patient in a medical diagnostic or therapeutic device
US20190310819A1 (en) Augmented reality image display systems and methods
KR101152177B1 (en) Method and System for Automatic Leading Surgery Position and Apparatus Having Surgery Position Leading Function
JP2004223128A (en) Medical practice supporting apparatus and method
CN110226967A (en) For remotely operating the structural adjustment system and method for medical system
JPH08164148A (en) Surgical operation device under endoscope
JP3707830B2 (en) Image display device for surgical support
JPH0670884A (en) Medical diagnostic device using sight line detection
JP5315524B2 (en) Medical diagnostic imaging equipment
US20240016552A1 (en) Surgical object tracking template generation for computer assisted navigation during surgical procedure
JP2015019777A (en) Body position determination support device and medical image diagnostic apparatus
JP2001275931A (en) Medical treatment system
JP6806364B2 (en) Dental treatment unit
JP3899862B2 (en) Medical X-ray equipment
US20170228877A1 (en) Device and method for image registration, and a nontransitory recording medium
WO2023124732A1 (en) Device control method and system for image-guided interventional punctures
JP6933935B2 (en) Camera system
KR20150042760A (en) Method for providing information and magnetic resonance imaging apparatus thereto

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080729

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080808

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4172689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees