JP2014133029A - 歯垢検知システム及び歯垢検知方法 - Google Patents

歯垢検知システム及び歯垢検知方法 Download PDF

Info

Publication number
JP2014133029A
JP2014133029A JP2013003457A JP2013003457A JP2014133029A JP 2014133029 A JP2014133029 A JP 2014133029A JP 2013003457 A JP2013003457 A JP 2013003457A JP 2013003457 A JP2013003457 A JP 2013003457A JP 2014133029 A JP2014133029 A JP 2014133029A
Authority
JP
Japan
Prior art keywords
plaque
unit
image data
site
tooth surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013003457A
Other languages
English (en)
Inventor
Takehiko Shimohira
偉彦 下平
Masahito Nagayama
正仁 永山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013003457A priority Critical patent/JP2014133029A/ja
Publication of JP2014133029A publication Critical patent/JP2014133029A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

【課題】歯列、歯面のどの部分に歯垢が付着しているのかを使用者に速やかに認識させる。
【解決手段】カメラ11は、口腔内を撮像する。抽出部132は、カメラ11により撮像された元画像データから、色情報に基づいて歯垢部位及び歯面部位を抽出する。強調画像生成部401は、抽出部132により抽出された歯垢部位を強調した強調画像データを生成する。合成部402は、強調画像データを元画像データに合成して合成画像データを生成し、表示部403に表示する。
【選択図】図7

Description

本発明は、歯の画像を撮像し、表示部に表示する技術に関するものである。
歯垢を形成する細菌が生成する蛍光物質を利用して歯垢を検知する歯垢検知装置が知られている。例えば、特許文献1では、蛍光物質を発光させる励起波長の光をLED(Light Emitting Diode)に照射させ、蛍光物質が発する光を光ダイオードセンサで検知することで、歯垢を検知する歯垢検知装置が開示されている。
歯垢中の蛍光物質が発する光の強度である蛍光発光強度は微弱であるため、歯垢の検知精度を高めるためには、高感度の光ダイオードセンサが求められる。
しかしながら、高感度の光ダイオードセンサを用いた場合、口腔外の光である外光や口腔内での反射光等の歯垢中の蛍光物質に起因しない光によって、歯垢が誤検知される可能性が高くなる。
そこで、特許文献2では、LEDで照射された口腔内の画像をカメラで撮像し、得られた画像から色の差異に基づいて歯面部位及び歯垢部位を抽出し、歯面部位に対する歯垢部位の面積比率が所定の判定値より大きい場合、歯垢が付着している旨をスピーカを用いて使用者に報知する歯垢検知装置が開示されている。
特表2002−515276号公報 特開2011−182993号公報
しかしながら、特許文献2の歯垢検知装置では、撮像部により撮像された元画像及び元画像から抽出された歯垢部位の画像を個別に表示することしか行われていなかった。そのため、使用者は、歯垢が歯列、歯面のどの部分に付着しているのか速やかに認識することができないという課題があった。
本発明の目的は、歯列、歯面のどの部分に歯垢が付着しているのかを使用者が速やかに認識することができる技術を提供することである。
(1)本発明の一態様による歯垢検知システムは、口腔内を撮像する撮像部と、前記撮像部により撮像された元画像データから、色情報に基づいて歯垢部位を抽出する抽出部と、前記抽出部により抽出された歯垢部位を強調した強調画像データを生成する強調画像生成部と、前記強調画像データを前記元画像データに合成して合成画像データを生成し、表示部に表示する合成部とを含む。
この構成によれば、カメラにより撮像された元画像データから歯垢部位が抽出され、歯垢部位が強調表示された強調画像データが生成され、強調画像データが元画像データに合成して表示される。そのため、使用者は歯列、歯面のどの部位に歯垢が付着しているかを速やかに認識することができる。
(2)前記歯垢検知システムは、前記抽出部は、色情報を閾値と比較することで前記歯垢部位を抽出し、使用者からの操作指示に基づいて、前記閾値を調整する操作部を更に含むことが好ましい。
この構成によれば、使用者は自身の歯垢の色に適した閾値を設定することができる。そのため、歯垢部位の検出精度を高めることができる。
(3)前記歯垢検知システムにおいて、前記強調画像生成部は、前記歯垢部位の明度に基づいて歯垢量を求め、歯垢量に応じた色を前記歯垢部位に設定することが好ましい。
この構成によれば、歯垢量に応じた強調度合いで歯垢部位が強調表示されるため、使用者は歯垢量を速やかに認識することができる。
(4)前記歯垢検知システムにおいて、前記強調画像生成部は、前記歯垢部位を照射する光の照射光量と前記歯垢部位の明度とに基づいて、前記歯垢部位の反射光量を求め、求めた反射光量に基づいて前記歯垢量を算出することが好ましい。
この構成によれば、歯垢部位の反射光量に基づいて歯垢量が求められているため、歯垢量をより正確に求めることができる。
(5)前記歯垢検知システムにおいて、前記抽出部は、前記色情報に基づいて歯面部位を更に抽出し、前記歯面部位及び前記歯垢部位の面積に基づいて歯垢の付着度を算出する付着度算出部を更に備え、前記合成画像データ及び付着度を測定履歴として保持し、使用者からの操作指示に基づいて、測定履歴を前記表示部に表示する履歴管理部を更に含むことが好ましい。
この構成によれば、使用者は、測定履歴を表示部に表示させ、歯垢量の推移を確認することができる。
(6)前記歯垢検知システムにおいて、歯垢検知装置及び映像表示装置を含み、前記歯垢検知装置は、前記撮像部及び抽出部を含み、前記映像表示装置は、前記強調画像生成部及び合成部を含み、前記歯垢検知装置は、前記元画像データ及び歯垢部位の画像データを含む測定データを前記映像表示装置に送信する第1通信部を更に含み、前記映像表示装置は、前記歯垢検知装置から送信された測定データを受信する第2通信部を更に含むことが好ましい。
この構成によれば、歯垢検知装置により口腔内を撮像させ、合成画像データを外部の映像表示装置に表示させることができる。そのため、映像表示装置として、使用者が携帯するスマートフォンを採用した場合、使用者は自身のスマートフォンに合成画像データを表示させ、歯垢の付着している部位を確認することができる。
本発明によれば、使用者は歯列、歯面のどの部位に歯垢が付着しているかを速やかに認識することができる。
本発明の実施の形態1による歯垢検知システムの全体構成図である。 歯垢検知装置の内部構成図である。 歯垢検知装置の動作の一例を示すフローチャートである。 映像表示装置の処理の一例を示すフローチャートである。 被験者の口腔内を示した図である。 部位抽出処理の一例を示すフローチャートである。 合成画像データが選択された場合の映像表示装置の表示画面の一例を示す図である。 付着度算出処理の一例を示すフローチャートである。 実施の形態2による歯垢検知装置の処理の一例を示すフローチャートである。 実施の形態2による映像表示装置4の処理の一例を示すフローチャートである。 歯面部位の画像データが選択された場合の映像表示装置の表示画面の一例を示す図である。 歯垢部位の画像データが選択された場合の映像表示装置の表示画面の一例を示す図である。 測定履歴の表示画面の一例を示す図である。 本発明の実施の形態4における歯垢量の算出手法の一例を示す図である。 本発明の実施の形態1による歯垢検知システムのブロック図である。
(実施の形態1)
図1は、本発明の実施の形態1による歯垢検知システムの全体構成図である。図1に示すように、歯垢検知システムは、歯垢検知装置1及び映像表示装置4を含む。歯垢検知装置1は、外部機器である映像表示装置4と短距離無線通信を介して通信可能に接続されている。なお、歯垢検知装置1の使用者は、歯垢が検知される被験者自身であってもよいし、被験者とは別の第三者であってもよい。第三者としては、例えば、医師や看護師が採用される。短距離無線通信としては、例えば、無線LAN(IEEE802.11)やBluetooth(登録商標)が採用される。
映像表示装置4は、例えば、スマートフォンにより構成され、歯垢検知装置1から送信された種々のデータを表示する。なお、映像表示装置4としては、短距離無線通信の通信機能を備える装置であればどのような装置を採用してもよく、ボタン式の携帯電話や、パソコンを採用してもよい。また、歯垢検知装置1と映像表示装置4との接続態様としては、短距離無線通信に限定されず、有線のLANを採用してもよいし、USBケーブル等のケーブルで直接接続する態様を採用してもよい。
歯垢検知装置1は、ヘッド部2及び本体部3を含む。本体部3は、使用者によって把持される。ヘッド部2は、本体部3から延設され、本体部3よりも断面積が小さな細長い形状を持つ。ヘッド部2は、口腔内に挿入される口腔挿入部として機能する。
図2は、歯垢検知装置1の内部構成図である。歯垢検知装置1は、カメラ11(撮像部の一例)、LED12、情報処理部13、報知スピーカー14、報知LED15、バッテリ16、及び通信端子17を含む。
カメラ11は、ヘッド部2に内蔵され、撮像素子を含む。具体的には、ヘッド部2内には、配線回路が形成された基板2aが設けられ、カメラ11は、この基板2aに設けられた小型カメラモジュールにより構成されている。カメラ11は、透明な樹脂から構成される窓2bを介して口腔内の光を撮像素子で受光し、口腔内を撮像する。このようにしてカメラ11により撮影された口腔内の画像のデータは、元画像データとして情報処理部13に入力される。なお、カメラ11の画角は例えば6本程度の歯が含まれるようなサイズに設定されている。
LED12は、ヘッド部2に内蔵され、且つ、カメラ11の周囲に設けられ、窓2bを介して口腔内を照射する光源である。LED12は、カメラ11と同様、基板2aに設けられた発光ダイオード(Light Emitting Diode)により構成されている。LED12は、歯垢に含まれる細菌が生成する蛍光物質を発光させる波長帯域の光を発光する。LED12が発光する光の波長帯域としては、例えば、405nmの波長を含む所定幅の波長帯域が採用される。
情報処理部13は、本体部3に内蔵された電子回路により構成され、カメラ11から入力される元画像データに基づいて各種の信号処理や情報処理等を行って、歯の表面に付着している歯垢を検知する。
情報処理部13は、元画像データから歯垢の付着度合いを示す付着度を求め、付着度が規定値以上である場合、報知スピーカー14及び報知LED15を駆動させ、歯垢の付着度合いが高いことを使用者に報知する。
報知スピーカー14は、例えば、小型スピーカーにより構成され、本体部3に内蔵されている。報知スピーカー14は、情報処理部13により付着度が規定値以上であると判定された場合、所定の音を発する。
報知LED15は、例えば、発光ダイオードにより構成され、情報処理部13により付着度が規定値以上であると判定された場合、点灯する。
バッテリ16は、例えば、二次電池により構成され、本体部3に内蔵され、歯垢検知装置に電力を供給する。通信端子17は、カメラ11により撮像された元画像データや情報処理部13により処理された種々のデータを無線信号として映像表示装置4に出力する。
図15は、本発明の実施の形態1による歯垢検知システムのブロック図である。歯垢検知装置1は、カメラ11、変換部131、抽出部132、付着度算出部133、及び通信部134(第1通信部の一例)を含む。
変換部131は、カメラ11により撮像された元画像データをRGB色空間からHSV色空間に変換する。
抽出部132は、変換部131により変換された変換画像データから、色情報に基づいて歯垢部位及び歯面部位を抽出する。付着度算出部133は、歯垢部位に対する歯面部位の面積に基づいて付着度を算出する。なお、変換部131、抽出部132、及び付着度算出部133は、情報処理部13により構成される。
通信部134は、短距離無線通信の通信モジュールにより構成され、送信対象のデータを短距離無線通信の通信プロトコルに準拠した通信信号に変換し、映像表示装置4に送信する。また、通信部134は、映像表示装置4から送信された通信信号を受信する。なお、通信端子17は通信部134に含まれる。
映像表示装置4は、強調画像生成部401、合成部402、表示部403、履歴管理部404、操作部405、及び通信部406(第2通信部の一例)を含む。強調画像生成部401は、抽出部132により抽出された歯垢部位を強調した強調画像データを生成する。合成部402は、強調画像データを元画像データに合成して合成画像データを生成し、表示部403に表示する。
表示部403は、液晶パネルにより構成され、合成画像データ等を表示する。履歴管理部404は、測定データを測定履歴として図略の内部メモリに保存し、使用者からの操作指示に基づいて、測定履歴を表示部403に表示する。
操作部405は、例えば、タッチパネルにより構成され、使用者からの操作指示を受け付ける。通信部406は、例えば、通信部134と同じ通信プロトコルを持つ短距離無線通信の通信モジュールにより構成され、歯垢検知装置1から送信される通信信号を受信すると共に、歯垢検知装置1に通信信号を送信する。
なお、強調画像生成部401、合成部402、及び履歴管理部404は、例えば、CPUが映像検知システムのアプリを実行することで実現される。
図3は、歯垢検知装置1の動作の一例を示すフローチャートである。なお、図3に示すフローチャートは、情報処理部13に設けられた電源スイッチ13aがオンされることでスタートする。
まず、情報処理部13は、カメラ11及び情報処理部13に設けられた内部メモリ(図示略)を初期化する(S1)。これにより、カメラ11が口腔内の撮像を開始する。カメラ11は動画カメラであるため、ヘッド部2を口腔内において移動させながら口腔内が撮影されることにより、連続的に撮影された元画像データが得られる。カメラ11により撮影された元画像データは、通信部134を介して映像表示装置4に送信され、表示部403に動画表示される。
次に、情報処理部13は、カメラ11により撮像された1フレームの元画像データを内部メモリに記憶し、1フレームの元画像データをキャプチャする(S2)。なお、元画像データをキャプチャした回数は、カウンタ(図示略)を用いてカウントされる。
次に、情報処理部13は、キャプチャした元画像データの枚数が所定回数に到達したか否かを判定する(S3)。
一方、ステップS3において、元画像データが所定回数キャプチャされていないと判定された場合(S3でNO)、処理がS2に戻され、S2の処理が繰り返される。すなわち、元画像データが所定回数キャプチャされて、口腔内の複数の元画像データが情報処理部13の内部メモリに記憶される。
S3において、元画像データが所定回数キャプチャされていると判定された場合(S3でYES)、処理がS4に進められる。なお、情報処理部13は、例えば、1枚の元画像データを25ミリ秒の間隔でキャプチャすることができ、図3の例では、元画像データが例えば20回キャプチャされたと判定された場合に、S3でYESと判定される。
次に、変換部131は、各元画像データ画像に対して画像変換処理を実行する(S4)。具体的には、変換部131は、キャプチャされた元画像データを、RGB形式のデータから、HSV形式のデータに変換する。HSV形式のデータは、色相(H)、彩度(S)、明度(V)の3つの成分からなる色空間であるHSV色空間に準じたデータ形式である。変換部131は、色相、彩度、及び明度の各成分を例えば0〜255の範囲の数値で取り扱う。
HSV色空間は、RGB色空間とは異なり、明るさのパラメータである明度の成分と、明るさと関連性の低い色相及び彩度の成分とが独立しているため、口腔内の各部位を抽出するのに適している。なお、変換部131は、RGB色空間からHSV色空間に変換したが、これは一例であり、明るさのパラメータが独立している色空間であれば、どのような色空間に変換してもよく、例えば、Lab色空間や、CMYK色空間に変換してもよい。
次に、抽出部132は、図5に示すように、色空間が変換された元画像データ(以下、変換画像データと呼ぶ)から口腔内の各部位を抽出する部位抽出処理を行う(S5)。
次に、S5における部位抽出処理を、図6を参照して説明する。図6は、部位抽出処理の一例を示すフローチャートである。まず、抽出部132は、色情報の閾値を設定する(S30)。ここで、抽出部位としては、図5に示すように、歯面部位A1、歯垢部位B、及びハイライト部位A2が含まれるため、閾値としては、これら3つの部位のそれぞれの閾値がある。以下、歯面部位A1の閾値を歯面閾値と表し、歯垢部位Bの閾値を歯垢閾値と表し、ハイライト部位の閾値をハイライト閾値と表す。また、色情報としては、明度、色相、及び彩度が含まれるため、これら3つの閾値は、明度、色相、及び彩度の3つの成分を持つ。
図5は、被験者の口腔内を示した図である。本実施の形態では口腔内の元画像から歯面部位A1、ハイライト部位A2、及び歯垢部位Bを抽出する。歯面部位A1は、歯面部位Xからハイライト部位A2を除いた領域である。歯面部位Xは歯面部位A1及びハイライト部位A2を含む領域である。歯垢部位Bは歯に付着する歯垢の領域である。ハイライト部位A2は、光が強く反射されている領域である。
ここで、抽出部132は、図7に示す表示画面を見ながら使用者に閾値を変更させてもよい。この閾値の変更については後述する。次に、抽出部132は、変換画像データの各画素データを歯垢閾値と比較して歯垢部位Bを抽出する(S31)。歯垢閾値としては、例えば、色相は下限値として15、上限値として20が採用され、彩度及び明度は下限値として128が採用される。したがって、抽出部132は、変換画像データにおいて、色相が15以上、20以下、且つ、彩度及び明度の双方が128以上の領域を歯垢部位Bとして抽出する。
次に、抽出部132は、変換画像データの各画素データを歯面閾値と比較して、歯面部位A1を抽出する(ステップS32)。歯面閾値としては、例えば、色相は下限値として10、上限値として60が採用され、彩度及び明度は下限値として80が採用される。したがって、抽出部132は、変換画像データにおいて、色相が10以上、60以下、且つ、彩度及び明度の双方が80以上の領域を歯面部位A1として抽出する。なお、S32では、抽出部132は、S31で抽出した歯垢部位Bを変換画像データから除外して、歯面部位A1を抽出する。
次に、抽出部132は、変換画像データの各画素データをハイライト閾値と比較して、ハイライト部位A2を抽出する(S33)。ハイライト部位A2は、歯面部位A1と同時に抽出することは困難であるため、図6の例では、ハイライト部位A2を歯面部位A1とは別に抽出している。
ハイライト閾値としては、例えば、色相は規定されておらず、彩度は上限値として80、明度は下限値として200が採用されている。したがって、抽出部132は、変換画像データにおいて、色相は無視し、彩度が80以下、且つ、明度が200以上の領域をハイライト部位A2として抽出する。なお、S33では、抽出部132は、S31で抽出された歯垢部位B及びS32で抽出された歯面部位A1を変換画像データから除外して、ハイライト部位A2を抽出する。
そして、歯面部位A1及びハイライト部位A2が歯面部位Xとして抽出される。すなわち、ハイライト部位A2も歯面部位Xの一部として抽出される。このように、抽出部132は、色変換画像データの明度、彩度、及び色相を、歯面閾値、歯垢閾値、及びハイライト閾値とそれぞれ比較して歯垢部位B及び歯面部位Xを抽出する。
抽出部132は、S2でキャプチャされた全ての元画像データのそれぞれに対して、図6の処理を実行すると、図3のS5の処理を終了し、処理をS6に進める。
なお、抽出部132は、元画像データの被写界深度の範囲内において、歯面部位Xと歯垢部位Bとを抽出する。よって、元画像データにおいて、ピントが合っていない領域からは歯垢部位Bや歯面部位Xを抽出することが困難である。そのため、抽出部132は、元画像データにおいて、ピントが合っていない領域は、処理対象から除外してもよい。なお、ピントが合っていない領域はピントが合っている領域に比べて空間周波数が低いため、抽出部132は、元画像データに対してフーリエ変換を行い、所定周波数以下の領域をピントが合っていない領域として抽出すればよい。
S6において、付着度算出部133は、付着度算出処理を実行する。図8は、付着度算出処理の一例を示すフローチャートである。
まず、付着度算出部133は、歯面部位Xの面積を算出する(ステップS41)。次に、付着度算出部133は、歯垢部位Bの面積を算出する(ステップS42)。歯面部位Xの面積は、その歯面部位Xが抽出された変換画像データにおいて歯面部位Xを構成する画素数がカウントされることによって算出される。同様に、歯垢部位Bの面積は、その歯垢部位Bが抽出された変換画像データにおいて歯垢部位Bを構成する画素数がカウントされることによって算出される。
付着度算出部133は、S2でキャプチャされた複数の元画像データのそれぞれに対して、S41、S42の処理を実行し、歯面部位X、歯垢部位Bの面積を算出する。
次に、付着度算出部133は、歯面部位Xに対する歯垢部位Bの面積比率Rを付着度として算出する(S43)。具体的には、付着度算出部133は、S41で算出した各元画像データの歯面部位Xの面積の総和と、S42で算出した各元画像データの歯垢部位Bの面積の総和を求め、歯面部位Xの面積の総和に対する歯垢部位Bの面積の総和を算出し、歯面部位Xに対する歯垢部位Bの面積比率Rを算出すればよい。
図3に戻り、通信部134は、映像表示装置4と短距離無線通信の接続を行う(S7)。次に、通信部134は、映像表示装置4において、歯垢検知システムのアプリが起動しているか否かを確認し(S8)、アプリが起動していなければ(S8でNO)、再度、短距離無線通信の接続を行う(S7)。一方、通信部134は、映像表示装置4においてアプリが起動されている場合(S8でYES)、映像表示装置4に測定データを送信する。測定データとしては、元画像データ、歯面部位Xの画像データ、歯垢部位Bの画像データ、及び付着度が含まれる。S9の処理が終了すると、処理がS2に戻され、一連の処理が繰り返される。
図4は、映像表示装置4の処理の一例を示すフローチャートである。まず、映像表示装置4は、内部メモリ(図示略)の初期化の有無を確認する(S11)。初期化が行われる場合、過去に蓄積された測定データが消去され、初期化が行われない場合、過去に蓄積され測定データが消去されない。なお、映像表示装置4は、例えば、使用者により初期化の指示が操作部405を用いて行われた場合、内部メモリを初期化すればよい。次に、通信部406は、歯垢検知装置1から送信される通信信号の受信の待ち受け状態になる(S12)。次に、通信部406は、歯垢検知装置1から測定データを受信する(S13)。
次に、強調画像生成部401は、図7に示す生画像ボタン702又は歯垢画像ボタン704が押されると、S13で受信された測定データの中から歯垢部位Bの画像データを選択する(S14)。
次に、強調画像生成部401は、S13で受信された各歯垢部位Bの画像データに対し、歯垢部位Bが強調表示された強調画像データを生成する(ステップS15)。具体的には、強調画像生成部401は、歯垢部位Bが歯面部位X及び歯茎と明確に区別されるように歯面部位X及び歯茎とは異なる色(例えば赤色)を設定し、歯垢部位Bが強調された強調画像データを生成する。
ここで、強調画像生成部401は、歯垢部位Bの画像データの明度から歯垢量を求め、明度が低ければ歯垢量が高いと判定し、赤色で強調表示し、明度が高ければ歯垢量が低いと判定し、オレンジで強調表示すればよい。具体的には、強調画像生成部401は、ある1枚の歯垢部位Bの画像データにおいて歯垢部位Bの画素数をカウントし、各画素の明度の総和をカウントした画素数で割って当該画像データの明度平均値を求める。そして、強調画像生成部401は、明度平均値が低くなるにつれて赤の度合いを強くし、明度平均値が高くなるにつれてオレンジの度合いが強くなるように、当該画像データの歯垢部位Bに付する色を設定すればよい。
次に、強調画像生成部401は、各強調画像データに対して、歯垢部位B以外の領域を透明に設定し、歯垢部位Bの背景を透明化する(S16)。
これにより、歯垢部位Bのみが歯垢量に応じて強調表示された強調画像データが生成される。次に、合成部402は、強調画像データを、その強調画像データに対応する元画像データに合成して合成画像データを生成し、合成画像データを時系列で表示部403に表示する(S17)。これにより、合成画像データが表示部403に動画表示される。
この場合、表示部403には、図7に示すように、元画像データに歯垢部位Bが重畳して表示された合成画像データが表示される。そのため、使用者は歯のどの位置に歯垢が付着しているかを速やかに認識することができる。
次に、通信部406により通信信号が受信されていなければ(S18でNO)、合成部402は、合成画像データの動画表示を停止させる(ステップS19)。一方、通信部406により通信信号が受信されていれば(S18でYES)、処理をS20に進める。
次に、操作部405が使用者からアプリの終了指示を受け付けると(S20でYES)、映像表示装置4は、アプリを終了させる。一方、操作部405が終了指示を受け付けなければ(S20でNO)、映像表示装置4は、処理をS12に戻し、動画表示を継続させる。
なお、S14において、使用者により図7に示す歯画像ボタン703が押されると、強調画像生成部401は、S13で受信された測定データの中から歯面部位Xの画像データを選択する。そして、強調画像生成部401は、全ての歯面部位Xの画像データに対して歯面部位Xに予め定められた白色を設定する。そして、合成部402は、歯面部位Xの画像データを時系列で表示部403に表示する。これにより、表示部403には、歯面部位Xの画像データが動画表示される。
次に、図7、図11、図12を用いて映像表示装置4に表示される画像について説明する。図7は、合成画像データが選択された場合の映像表示装置4の表示画面の一例である。図11は、歯面部位Xの画像データが選択された場合の映像表示装置4の表示画面の一例を示す図である。図12は、歯垢部位Bの画像データが選択された場合の映像表示装置4の表示画面の一例を示す図である。
図7に示すように表示画面には、画像表示部701が含まれている。画像表示部701は合成画像データ等を表示する。画像表示部701の下側には、生画像ボタン702、歯画像ボタン703、及び歯垢画像ボタン704が表示されている。これらのボタンは操作部405を構成する。
生画像ボタン702は、合成画像データを表示させるためのボタンである。歯画像ボタン703は、歯面部位Xの画像データを表示させるためのボタンである。歯垢画像ボタン704は、歯垢部位Bの画像データを表示させるためのボタンである。
これにより、使用者は、合成画像データ、歯面部位Xの画像データ、及び歯垢部位Bの画像データの中から見たい画像データを選択することができる。
図7に示すように、元画像データにおいて歯垢部位Bが、歯及び歯茎等の他の部位とは異なる色で強調表示されている。歯画像ボタン703が使用者により押されると、図11に示すように歯面部位Xのみが白一色で表示された歯面部位Xの画像データが画像表示部701に表示される。
歯垢画像ボタン704が使用者により押されると、図12に示すように歯垢部位Bが強調表示された画像データが画像表示部701に表示される。
映像表示装置4の表示画像には、更に、色相設定部705、彩度設定部706、明度設定部707、及び上下ボタン708が表示されている。色相設定部705〜明度設定部707はそれぞれ下限値表示部709及び上限値表示部710を含む。なお、色相設定部705〜上限値表示部710は操作部405を構成する。
使用者は、歯垢部位B、歯面部位Xの閾値を任意に設定することができる。歯垢部位Bの閾値を設定する場合、使用者は、まず、生画像ボタン702又は歯垢画像ボタン704を押し、合成画像データ又は歯垢部位Bの画像データを表示させる。
次に、使用者は、色相設定部705、彩度設定部706、及び明度設定部707のうち、設定を希望する項目の下限値表示部709又は上限値表示部710をタッチしてアクティブ状態にする。なお、下限値表示部709又は上限値表示部710がアクティブ状態にされると、画像表示部701に表示されていた動画像が停止される。そして、上限値表示部710の右側に表示された上下ボタン708を押すことにより、希望する項目の上限値又は下限値を設定することができる。
例えば、色相の上限値を変更する場合、使用者は色相設定部705の上限値表示部710にタッチして、上限値表示部710をアクティブ状態にする。アクティブ状態になると、数値の背景の色が他の上限値表示部710及び下限値表示部709と異なる色に表示され、使用者はタッチした上限値表示部710がアクティブ状態になっていることを認識することができる。
次に、使用者により上下ボタン708のアップボタン7081が押されると、その都度、上限値表示部710の数値が所定値(例えば1)増大する。一方、使用者によりダウンボタン7082が押されると、その都度、上限値表示部710の数値が所定値(例えば1)減少する。
閾値が変更される都度、画像表示部701には変更後の閾値を用いて抽出された歯垢部位Bが表示される。そのため、画像表示部701に表示された画像を見ながら、使用者は適切な閾値を設定することができる。
具体的には、強調画像生成部401は、閾値が変更されると、画像表示部701に静止表示されている元画像データをHSV色空間に変換し、変換画像データに対して、変更後の閾値を用いて歯垢部位Bを抽出する。歯垢部位Bの抽出手法は、上述の抽出部132の手法と同じ手法である。そして、強調画像生成部401は、抽出した歯垢部位Bに明度に応じた色を設定し、強調画像データを生成する。そして、合成部402は、強調画像データを対応する元画像データに合成し、表示部403に表示させる。
なお、彩度及び明度についても色相と同様にして、使用者は閾値の上限値及び下限値を設定する。
また、歯面部位Xの閾値を設定する場合、使用者は歯画像ボタン703を押し、図11に示す歯面部位Xの画像データを画像表示部701に表示させる。以後、上述した歯垢部位Bの閾値を設定した場合と同じ操作を行って、使用者は歯面部位Xの閾値を設定することができる。
歯垢や歯面の色は個人差がある。そのため、使用者に閾値をカスタマイズさせ、使用者に適した閾値を設定し、歯垢部位B及び歯面部位Xを抽出精度を高めることができる。
(実施の形態2)
実施の形態1では、図4のステップS17において、元画像データと強調画像データとを合成したが、実施の形態2では、合成部402は、元画像データと強調画像データとを高速に切り替えて表示することで、あたかも元画像データと強調画像データとが合成されたように表示させる。
また、実施の形態1では、図3のS5の部位抽出処理及びS6の付着度算出処理が歯垢検知装置1により実行されていたが、実施の形態2では映像表示装置4が実行する。なお、実施の形態2において実施の形態1と同じものは説明を省く。また、実施の形態2では、抽出部132及び付着度算出部133は、映像表示装置4に設けられている。
図9は、実施の形態2による歯垢検知装置1の処理の一例を示すフローチャートである。S91〜S94の処理は図3のS1〜S4と同じである。S94の画像変換処理が終了すると、実施の形態1のように部位抽出処理(S5)及び付着度算出処理(S6)がスルーされ、処理がS95に進められる。
S95、S96は図3のS7、S8と同じである。図9の例では、歯垢部位B及び歯面部位Xの抽出処理及び付着度算出処理は映像表示装置4で行われるため、S97では、測定データとして元画像データ、元画像データをHSB色空間に変換した変換画像データ、及び付着度が送信されている。
図10は、実施の形態2による映像表示装置4の処理の一例を示すフローチャートである。S101、S102は図4のS11、S12と同じである。S103では、測定データとして元画像データ、変換画像データ、及び付着度が受信されている。
次に、映像表示装置4に設けられた抽出部が、図3のS5と同様、変換画像データに対して部位抽出処理を行う(S104)。次に、映像表示装置4に設けられた付着度算出部が、図3のS6と同様、付着度算出処理を行う(S105)。
S106〜S108の処理は、図4のS14〜S17と同じである。次に、合成部402は、強調画像データを表示部403に表示する(S109)。次に、合成部402は、元画像データを表示部403に表示する(S110)。次に、合成部402は、S103で受信された全ての測定データに対して、強調画像データと元画像データとを繰り返して表示する処理が終了していない場合(S111でNO)、処理をS109に戻す。一方、合成部402は、S103で受信された全ての測定データに対して、強調画像データと元画像データとを繰り返して表示する処理が終了した場合(S111でYES)、処理をS112に進める。S109、S110で強調画像データ及び元画像データを繰り返し表示することで、元画像データに強調画像データがあたかも合成されたように表示される。S112、S113、S114の処理は図4のS18、S19、S20と同じである。
実施の形態2では、抽出部及び付着度算出部が映像表示装置4に設けられているため、歯垢検知装置1の処理負担を削減することができる。
(実施の形態3)
実施の形態3では、図4のS11で内部メモリの初期化を行わず、歯垢検知装置1が過去に測定した測定データ等を測定履歴として映像表示装置4に保存させておくことを特徴とする。なお、実施の形態3において、実施の形態1、2と同じものは説明を省く。
図15において、履歴管理部404は、歯垢検知装置1から送信された測定データ、強調画像生成部401により生成された強調画像データ、及び合成部402により生成された合成画像データを測定日時と対応付け、測定履歴として内部メモリ(図略)に保存する。そして、履歴管理部404は、使用者からの操作指示に基づいて、測定履歴を表示部403に表示させる。
図13は、測定履歴の表示画面の一例を示す図である。図13の例では、付着度の推移を示すグラフ1301が表示されている。グラフ1301において、縦軸は付着度を示し、横軸は測定日時を示す。グラフ1301にプロットされた測定点1304は、測定日時に対応する付着度を示す。
使用者はグラフ1301を参照することで、現在の付着度と過去の付着度とを比較し、歯垢の付着度の推移を容易に確認することができる。
グラフ1301の下側には、1週間ボタン1302及び一ヶ月ボタン1303が表示させている。使用者により1週間ボタン1302がタッチされると、履歴管理部404は、過去1週間分の付着度の推移を示すグラフ1301を表示する。使用者により一ヶ月ボタン1303がタッチされると、履歴管理部404は、過去一ヶ月分のグラフ1301を表示する。1週間ボタン1302及び一ヶ月ボタン1303を設けることで、使用者は過去にさかのぼって表示させる付着度を自由に選ぶことができる。
使用者により測定点1304がタッチされると、履歴管理部404は、測定点1304における合成画像データを表示部403に表示させる。この場合、履歴管理部404は、測定点1304における合成画像データの全フレームを内部メモリに保存させているのであれば、測定点1304における合成画像データを動画表示すればよい。一方、履歴管理部404は測定点1304における代表的な1又は複数枚の合成画像データを内部メモリに保存させているのであれば、代表的な合成画像データの静止画像を表示部403に表示すればよい。
また、合成画像データの表示画面には図7に示すように、生画像ボタン702、歯画像ボタン703、及び歯垢画像ボタン704が設けられている。使用者により歯画像ボタン703がタッチされると、履歴管理部404は、測定点1304における歯面部位Xの画像データを表示部403に表示させる。また、使用者により歯垢画像ボタン704がタッチされると、履歴管理部404は、測定点1304における強調画像データを表示部403に表示させる。なお、履歴管理部404は、歯垢部位Bの画像データ及び強調画像データも合成画像データと同様、動画表示してもよし、代表的な画像データの静止画像を表示してもよい。
このように、測定点1304における合成画像データ、歯面部位Xの画像データ、及び歯垢部位Bの画像データを表示部403に表示することで、使用者は測定点1304においてどの部位に歯垢が多く付着していたのかを速やかに確認することができる。
(実施の形態4)
実施の形態1では、歯垢部位Bの明度に基づいて歯垢量を求めたが、実施の形態4では、歯垢部位Bの明度から歯垢部位Bの反射光量を求め、反射光量に基づいて歯垢量を求める。
図14は、実施の形態4における歯垢量の算出手法の一例を示す図であり、(a)は歯垢部位の面積がS1の場合を示し、(b)は歯垢部位の面積がS2の場合を示し、(c)は歯垢部位の面積がS3の場合を示す。
まず、強調画像生成部401は、基準となる歯垢部位B0(図略)の面積S0(図略)と、歯垢部位B0を予め定められた照射光量L0で照射したときの明度M0とを基準データとして設定する。照射光量L0としては、例えば、LED12の照射光量に応じた値が採用される。明度M0としては、例えば、歯垢部位B0を構成する画素の明度の平均値が採用される。
強調画像生成部401は、面積S0及び明度M0を予め記憶しておいてもよい。また、歯垢検知装置1から送信された1枚の歯垢部位Bの画像データに複数の歯垢部位Bが含まれている場合は、いずれか1つ(例えば面積が最小)の歯垢部位BXを基準として設定し、その歯垢部位BXの面積SX、明度MXを基準データとして設定すればよい。
なお、強調画像生成部401は、1枚の歯垢部位Bの画像データにおいて、歯垢部位Bを示す画素が連続して存在している領域を1つの歯垢部位BXとして特定すればよい。また、明度MXとしては、歯垢部位BXを構成する画素の明度の平均値を採用すればよい。これにより、歯垢部位BX毎に歯垢量に応じて強調表示された歯垢部位Bの画像データが得られる。
図14(a)の例では、歯垢部位BXの面積S1は面積S0とほぼ等しく、歯垢部位BXの明度がM1である。そのため、強調画像生成部401は、L1=L0×M0/M1により反射光量L1を求める。
図14(b)の例では、歯垢部位BXの面積S2は面積S0とほぼ等しいが、歯垢部位BXの明度がM2であった。そのため、強調画像生成部401は、L2=L0×M0/M2により反射光量L1を求める。
図14(c)の例では、歯垢部位BXの面積S3は面積S0よりも大きい。そのため、強調画像生成部401は、L3=L0×S3/S1により反射光量L3を求める。
そして、強調画像生成部401は、反射光量L1、L2、L3に基づいて歯垢量を算出し、歯垢量が高いほど赤の度合いが高く、歯垢量が低いほどオレンジの度合いが高くなるように歯垢部位BXを強調表示すればよい。なお、歯垢量は、反射光量L1、L2、L3が増大するにつれて小さく設定される。
本発明は、歯垢を強調した画像が口腔内の画像に重畳して表示されるため、歯をケアする機器にとって有用である。
1 歯垢検知装置
4 映像表示装置
11 カメラ
131 変換部
132 抽出部
133 付着度算出部
134 通信部
401 強調画像生成部
402 合成部
403 表示部
404 履歴管理部
405 操作部
406 通信部

Claims (7)

  1. 口腔内を撮像する撮像部と、
    前記撮像部により撮像された元画像データから、色情報に基づいて歯垢部位を抽出する抽出部と、
    前記抽出部により抽出された歯垢部位を強調した強調画像データを生成する強調画像生成部と、
    前記強調画像データを前記元画像データに合成して合成画像データを生成し、表示部に表示する合成部とを含む歯垢検知システム。
  2. 前記抽出部は、色情報を閾値と比較することで前記歯垢部位を抽出し、
    使用者からの操作指示に基づいて、前記閾値を調整する操作部を更に含む請求項1記載の歯垢検知システム。
  3. 前記強調画像生成部は、前記歯垢部位の明度に基づいて歯垢量を求め、歯垢量に応じた色を前記歯垢部位に設定する請求項1又は2記載の歯垢検知システム。
  4. 前記強調画像生成部は、前記歯垢部位を照射する光の照射光量と前記歯垢部位の明度とに基づいて、前記歯垢部位の反射光量を求め、求めた反射光量に基づいて前記歯垢量を算出する請求項3記載の歯垢検知システム。
  5. 前記抽出部は、前記色情報に基づいて歯面部位を更に抽出し、
    前記歯面部位及び前記歯垢部位の面積に基づいて歯垢の付着度を算出する付着度算出部を更に備え、
    前記合成画像データ及び付着度を測定履歴として保持し、使用者からの操作指示に基づいて、測定履歴を前記表示部に表示する履歴管理部を更に含む請求項1〜4のいずれかに記載の歯垢検知システム。
  6. 前記歯垢検知システムは、歯垢検知装置及び映像表示装置を含み、
    前記歯垢検知装置は、前記撮像部及び抽出部を含み、
    前記映像表示装置は、前記強調画像生成部及び合成部を含み、
    前記歯垢検知装置は、前記元画像データ及び歯垢部位の画像データを含む測定データを前記映像表示装置に送信する第1通信部を更に含み、
    前記映像表示装置は、前記歯垢検知装置から送信された測定データを受信する第2通信部を更に含む請求項1〜5のいずれかに記載の歯垢検知システム。
  7. 歯を含む元画像を撮像する撮像ステップと、
    前記元画像から、色情報に基づいて歯垢部位を抽出する抽出ステップと、
    前記抽出部により抽出された歯垢部位を強調した強調画像を生成する強調画像生成ステップと、
    前記強調画像を表示部に表示させる表示ステップとを含む歯垢検知方法。
JP2013003457A 2013-01-11 2013-01-11 歯垢検知システム及び歯垢検知方法 Pending JP2014133029A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013003457A JP2014133029A (ja) 2013-01-11 2013-01-11 歯垢検知システム及び歯垢検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013003457A JP2014133029A (ja) 2013-01-11 2013-01-11 歯垢検知システム及び歯垢検知方法

Publications (1)

Publication Number Publication Date
JP2014133029A true JP2014133029A (ja) 2014-07-24

Family

ID=51411806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013003457A Pending JP2014133029A (ja) 2013-01-11 2013-01-11 歯垢検知システム及び歯垢検知方法

Country Status (1)

Country Link
JP (1) JP2014133029A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107708606A (zh) * 2015-06-12 2018-02-16 高露洁-棕榄公司 电动牙刷和用于操作电动牙刷的方法
JP2018112530A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 計測装置、情報処理装置、情報処理方法、およびプログラム
JP2019107239A (ja) * 2017-12-18 2019-07-04 サンスター株式会社 歯垢表示システム
WO2019150515A1 (ja) * 2018-01-31 2019-08-08 歯っぴー株式会社 口腔ケアシステム
TWI676018B (zh) * 2018-07-23 2019-11-01 廣達電腦股份有限公司 用以標示牙菌斑螢光反應區域之影像處理方法以及其電子系統
WO2020012476A1 (en) * 2018-07-13 2020-01-16 Plaqless Ltd An apparatus for detecting oral diseases and hazards
WO2023163051A1 (ja) * 2022-02-22 2023-08-31 パナソニックIpマネジメント株式会社 口腔洗浄装置、制御装置、口腔洗浄方法、及び、プログラム
WO2024106391A1 (ja) * 2022-11-17 2024-05-23 パナソニックIpマネジメント株式会社 画像処理方法、画像処理装置、及び、プログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11980517B2 (en) 2015-06-12 2024-05-14 Colgate-Palmolive Company Electric toothbrush and method for operating an electric toothbrush
CN107708606A (zh) * 2015-06-12 2018-02-16 高露洁-棕榄公司 电动牙刷和用于操作电动牙刷的方法
CN107708606B (zh) * 2015-06-12 2021-02-26 高露洁-棕榄公司 电动牙刷和用于操作电动牙刷的方法
JP2018112530A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 計測装置、情報処理装置、情報処理方法、およびプログラム
WO2018131634A1 (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 計測装置、情報処理装置、情報処理方法、およびプログラム
JP7058035B2 (ja) 2017-12-18 2022-04-21 サンスター株式会社 歯垢表示システム
JP2019107239A (ja) * 2017-12-18 2019-07-04 サンスター株式会社 歯垢表示システム
WO2019150515A1 (ja) * 2018-01-31 2019-08-08 歯っぴー株式会社 口腔ケアシステム
WO2020012476A1 (en) * 2018-07-13 2020-01-16 Plaqless Ltd An apparatus for detecting oral diseases and hazards
US12082687B2 (en) 2018-07-13 2024-09-10 Plaqless Ltd Apparatus for detecting oral diseases and hazards
TWI676018B (zh) * 2018-07-23 2019-11-01 廣達電腦股份有限公司 用以標示牙菌斑螢光反應區域之影像處理方法以及其電子系統
WO2023163051A1 (ja) * 2022-02-22 2023-08-31 パナソニックIpマネジメント株式会社 口腔洗浄装置、制御装置、口腔洗浄方法、及び、プログラム
WO2024106391A1 (ja) * 2022-11-17 2024-05-23 パナソニックIpマネジメント株式会社 画像処理方法、画像処理装置、及び、プログラム

Similar Documents

Publication Publication Date Title
JP2014133029A (ja) 歯垢検知システム及び歯垢検知方法
JP2011182993A (ja) 歯垢検知装置
TWI701018B (zh) 資訊處理裝置、資訊處理方法、及程式
KR102336064B1 (ko) 촬상 장치 및 그 촬상 방법, 화상 처리 장치 및 그 화상 처리 방법, 및, 프로그램
US10249055B2 (en) Image processing apparatus, image processing method and program
US9741113B2 (en) Image processing device, imaging device, image processing method, and computer-readable recording medium
US20160113495A1 (en) Oral health monitoring method and apparatus and electronic device using the same
CN112770660B (zh) 增强彩色图像中的血管可见性
US20160242657A1 (en) Physiology measurement device and system, and operating method of wireless single chip
EP4055812B1 (en) A system for performing ambient light image correction
WO2006064635A1 (ja) 診断システム
EP3756532B1 (en) Endoscope system
JP6189716B2 (ja) 測定装置
KR20160023489A (ko) 동작 인식 장치 및 이를 이용한 동작 인식 방법
CN214342215U (zh) 具有检测功能的内窥镜装置
KR20150134822A (ko) 카메라를 구비하는 전자 장치의 부가 정보 획득 방법 및 장치
JPWO2020067100A1 (ja) 医用画像処理装置、プロセッサ装置、医用画像処理方法、及びプログラム
JP7067743B2 (ja) 口腔癌診断システム及び口腔癌診断プログラム
JP2018138141A (ja) 内視鏡装置
JP2019102986A (ja) 内視鏡システム
KR20230025656A (ko) 화상 표시 시스템 및 화상 표시 방법
EP3599585B1 (en) Image-processing methods for marking plaque fluorescent reaction area and systems therefor
CN108694383B (zh) 一种手势识别装置及其控制方法、显示装置
JP7311617B2 (ja) 処理装置、電子機器、処理方法、及びプログラム
EP3066976A1 (en) Organ image capturing device