以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1および図2は、本発明の一実施形態に係る画像記録装置10の概要を示す。画像記録装置10は、撮像ユニット20、格納ユニット30、音声ユニット40、出力部50、入力ユニット60、および解析ユニット70を備える。本例の撮像ユニット20は、複数の撮像部を有する。例えば、観察者910の視点検出用の撮像部202、観察者910が存在する範囲を測定する為の撮像部208、被観察者915の視点検出用の撮像部204、および被観察者915が存在する範囲を測定する為の撮像部206を有する。撮像部202〜208は3次元カメラであってもよく、或いは2次元の画像を撮像するカメラであってもよい。なお、ディスプレイは出力部50の一例である。また、入力ユニット60は、デジタル入力部612および筆記部614を有する。キーボードおよびマウスはデジタル入力部612の一例であり、ペンは筆記部614の一例である。更に、音声ユニット40は、集音部405を有していてよい。尚、本実施形態の画像記録装置は、画像出力装置の一例である。本実施形態に係る画像記録装置10は、観察者910が被観察者915を観察しているときに、観察者910が被観察者915のどの部分に注目して観察したかを検知して、観察者910が注目した被観察者915の部分の画像と観察者910の視点とを重畳して表示することを目的とする。また更には、記録された被観察者915の画像を出力部50で閲覧する閲覧者の視点を検出することにより、閲覧者が観察者910の視点を確認できる画像出力装置を提供することを目的とする。
撮像ユニット20は、観察者910および被観察者915の視点を、角膜反射法、または眼球部分の画像における光強度分布の変化を検出することにより測定する。そして、撮像ユニット20は、撮像部206が撮像した被観察者915の画像、および撮像部202が撮像した観察者910の視点測定用の画像から、観察者910が被観察者915のどの部分を観察していたかを特定する。
また、画像記録装置10は、撮像部208が撮像した観察者910の撮像範囲内で存在する範囲の特定用の画像、および撮像部204が撮像した被観察者915の視線方向の測定用の画像から、被観察者915が観察者910または観察者910を除く領域のどの部分を見ていたかを特定する。なお、撮像ユニット20が有する撮像部202〜208は全方位カメラであってよい。撮像部202等のいずれかが全方位カメラである場合には、一つの全方位カメラで観察者910および被観察者915の視線方向の測定用の画像、並びに撮像範囲内で観察者910および被観察者915が存在する位置の測定用の画像を撮像できるので、複数の撮像部202等を画像記録装置10は備えなくてよい。
画像記録装置10は、被観察者915が存在する領域に観察者910が視線を移した場合に、当該視点を含む被観察者915の予め定められた範囲の画像を取得する。そして、観察者910の視点を示すマークと共に取得した被観察者915の画像を出力部50に表示する。係る場合において、画像記録装置10は、被観察者915の画像と取得した被観察者915の部分画像を所定の倍率で拡大した拡大画像とを並べて表示してよい。また、画像記録装置10は、観察者910がキーボードおよびマウス等のデジタル入力部612から被観察者915の症状を電子カルテに書き込むとき、または、観察者910がペン等の筆記部614を用いてカルテに書き込むときに、撮像部206は被観察者915の画像を取得する。更に、画像記録装置10は、観察者910が被観察者915に質問するときの観察者910の音声を集音部405から取得して、当該質問と同一の質問を過去に観察者910が被観察者915にしたときの被観察者915の画像と、観察中の被観察者915の画像とを並べて出力部50に表示する。
また、画像記録装置10は、撮像部204および撮像部206が撮像した画像を解析ユニット70で解析して、被観察者915の身体状況を判断する。例えば、解析ユニット70は、撮像部204が撮像した被観察者915の画像から、被観察者915の瞳孔の大きさの変化、視線の動き、視線速度、および瞬きの回数等に基づいて被観察者915の疾患を特定する。なお、撮像部204、または撮像部206に被観察者915の顔の温度を測定する温度測定部が含まれている場合には、解析ユニット70は、測定した被観察者915の顔の温度を、被観察者915の疾患の特定に利用してもよい。解析ユニット70は、特定した疾患をディスプレイに表示する。具体的には、解析ユニット70は、疾患名および当該疾患の症状を示す情報をディスプレイに表示する。また、解析ユニット70は、被観察者915が患っている可能性のある複数の疾患名の候補をディスプレイに表示してもよい。
本実施形態に係る画像記録装置10によれば、観察者910の視点を被観察者915の画像に重畳して表示できるので、観察者910が被観察者915のどの部分に注目して観察したかを容易に確認できる。例えば、被観察者915の画像を動画として撮像して、当該動画に観察者910の視点の動きを重畳して出力部50に表示できるので、観察者910がどのように被観察者915を観察して、観察を下したかを再現できる。また、観察者910が観察結果を電子カルテに入力しているときの被観察者915の画像を撮像できるので、観察者910が被観察者915の表情の変化を見逃したとしても、観察後に見逃した被観察者915の表情が撮像されている画像を容易に検索して確認できる。更に、被観察者915の過去の画像と観察中の被観察者915の画像とを並べて表示できるので、被観察者915の症状の変化を的確に観察できる。
図3は、本実施形態に係る第一の撮像ユニット20の機能構成の一例を示す。撮像ユニット20は、撮像部202、204、206、208、観察者視点測定部210、被観察者位置測定部212、被観察者視点測定部214、視線出力制御部220、視界測定部230、視点画像抽出部240、および観察者位置測定部270を有する。更に、図4は、本実施形態に係る格納ユニット30および音声ユニット40の機能構成の一例を示す。格納ユニット30は、被観察者情報格納部300、過去画像出力制御部310、および画像格納部320を有する。そして、音声ユニット40は、音声記録部400、音声情報比較部410、および過去画像抽出部420を有する。
撮像部204は被観察者915を撮像する。撮像部204は、被観察者915の動画を撮像してもよい。撮像部204は、撮像した被観察者915の画像を被観察者視点測定部214および格納ユニット30が有する画像格納部320に供給する。撮像部206は、予め定められた撮像範囲内で被観察者915が存在する位置を特定する為の画像を撮像する。撮像部206は、撮像した画像を被観察者位置測定部212に供給する。撮像部202は、観察者910を撮像する。撮像部202は、撮像した画像を観察者視点測定部210および視界測定部230へ供給する。撮像部208は、予め定められた撮像範囲内で観察者910が存在する位置を特定する為の画像を撮像する。撮像部208は、撮像した画像を観察者位置測定部270に供給する。なお、撮像部202、撮像部204、撮像部206、および撮像部208はそれぞれ、観察者910または被観察者915の動画を撮像してもよい。
また、撮像部202、撮像部204、撮像部206、および撮像部208が動画を撮像した場合には、各撮像部は、複数の動画構成画像を所定の部材にそれぞれ供給してよい。ここで、動画構成画像とは、フレーム画像、フィールド画像、及びその他の動画を構成する様々な形式の画像のいずれを含んでもよい。また、画像記録装置10は、被観察者915の瞬きの回数を測定する瞬き測定部を有していてよい。瞬き測定部は、予め定められた時間間隔内で被観察者915の瞬きの回数を測定する。瞬き測定部は、測定した被観察者915の瞬きの回数を被観察者情報格納部300に供給する。
観察者視点測定部210は、撮像部204および206が被観察者915を撮像しているときに、観察者910の視点を測定する。具体的には、観察者視点測定部210は、観察者910の左目の視線を測定する第1観察者視線測定部および観察者910の右目の視線を測定する第2観察者視線測定部を含んでよい。そして、第1観察者視線測定部および第2観察者視線測定部は、撮像部202が撮像した画像から観察者910の左目および右目の視線方向を測定する。ここで、観察者視点測定部210は、観察者910の視線方向を角膜反射法により測定してよい。或いは、第1観察者視線測定部および第2観察者視線測定部は、観察者910の左目および右目の画像から眼球部分の画像を抽出して、抽出した眼球部分の画像の光強度分布の変化を検出し、そして、第1観察者視線測定部および第2観察者視線測定部は検出した光強度分布から、観察者910の左目および右目の視線方向を算出してもよい。例えば、第1観察者視線測定部は、左目の眼球の垂直方向および水平方向のそれぞれについて、虹彩または瞳孔の位置に応じて変化する眼球部分の画像の光強度分布を算出する。
具体的には、観察者910の視線方向が観察者910の正面方向に向いている場合の眼球の画像の光強度分布と、観察者910の視線方向が観察者910の正面以外の方向に向いている場合の眼球の画像の光強度分布とを比較して、観察者910の視線方向を特定する。例えば、第1観察者視線測定部が算出した左目の眼球部分の画像の光強度分布を、観察者910の左目の視線が観察者910の正面を向いている場合の眼球部分の画像の光強度分布と比較することにより、左目の虹彩または瞳孔が向く方向、すなわち左目の視線方向を算出できる。なお、第1観察者視線測定部は、左目の眼球の垂直方向および水平方向のそれぞれについて算出した眼球部分の画像の光強度分布が、左目の中心点から略均等に分布している場合に左目の視線が観察者910の正面に向いていると判断してよい。同様に第2観察者視線測定部は、右目の視線方向を算出する。なお、第1観察者視線測定部および第2観察者視線測定部は、角膜反射法および眼球部分の画像の光強度分布の変化の検出を組み合わせて、観察者910の左目および右目の視線方向を特定してもよい。観察者視点測定部210は、右目および左目の視線に基づいて、観察者910の視点を特定する。例えば、観察者視点測定部210は、右目および左目の視線の交点、またはその近傍を観察者910の視点と特定してよい。或いは、右目および左目の視線が交わらない場合は、一方の視線から他方の視線へ伸ばした垂線の中点やその近傍を視点と特定してもよい。或いは、後に説明するが、観察者視点測定部210が算出した視線、および観察者位置測定部270によって算出された、観察者910の存在領域を示す3次元座標データから、観察者910の視点を算出してもよい。観察者視点測定部210は、特定した観察者910の視点を示す情報を、視点出力制御部220および視点画像抽出部240に供給する。また、被観察者視点測定部214は、観察者視点測定部210と同様にして、被観察者915の視点を測定する。被観察者視点測定部214は、被観察者915の視点を示す情報を、視点出力制御部220および視点画像抽出部240に供給する。
被観察者位置測定部212は、撮像部206が撮像した被観察者915の画像から、被観察者915が予め定められた撮像範囲内で存在する位置を測定する。具体的には、被観察者位置測定部212は、被観察者915が存在する位置を、予め定められた3次元座標系に対応づけた座標データとして取得する。例えば、撮像部202、撮像部204、撮像部206、および撮像部208の設置位置、および撮像方向、並びに観察者910および被観察者915が存在する位置を、予め定められた3次元座標系に対応づけておく。具体的には、撮像部206の撮像範囲内で被観察者915が占める領域は、被観察者915を予め定められた位置に存在させることにより特定できる。例えば、予め定められた位置に被観察者915を座らせることにより、撮像部206の撮像範囲内で被観察者915が占める領域を座標データで特定できる。同様にして、予め定められた位置に観察者910を座らせることにより、撮像部208の撮像範囲内で観察者910が占める領域を座標データで特定できる。そして、被観察者位置測定部212は、被観察者915が撮像部206の撮像範囲内で移動した場合に、被観察者915の動きに応じて、被観察者915が撮像部206の撮像範囲内で占める領域を測定してよい。
撮像部206は3次元カメラであってよく、被観察者位置測定部212は、被観察者915が3次元座標系で占める位置を撮像部206が撮像した画像から算出する。例えば、撮像部206は画素毎に撮像部206から撮像範囲内の被観察者915が存在する領域までの距離を検出する。そして、被観察者位置測定部212は、撮像部206が検出した被観察者915までの距離から、3次元座標系での被観察者915の位置を座標データとして算出してよい。被観察者位置測定部212は、算出した結果を視点出力制御部220および視点画像抽出部240に供給する。また、被観察者位置測定部212は、算出した結果を観察者視点測定部210に供給してもよい。観察者位置測定部270は、観察者910が撮像部208の撮像範囲内で存在する位置を測定する。観察者位置測定部270は、被観察者位置測定部212と同様にして、観察者910の3次元座標系における位置を座標データとして算出してよい。そして、観察者位置測定部270は、算出した結果を視点出力制御部220および視点画像抽出部240に供給する。また、撮像部202の撮像方向を予め3次元座標系に対応づけておくことにより、観察者視点測定部210は、撮像部202が撮像した画像から観察者910の視線の方向を座標データとして算出できる。同様にして、被観察者視点測定部214は、撮像部204が撮像した画像から被観察者915の視線の方向を座標データで算出できる。
ここで、観察者視点測定部210は、被観察者位置測定部212が算出した被観察者915が存在する領域を示す座標データおよび観察者視点測定部210が測定した観察者910の視線方向から、観察者910の視点が被観察者915のどの部分に存在するかを特定する。具体的には、被観察者位置測定部212が算出した被観察者915の領域を示す座標データで特定される被観察者915の領域と、観察者910の目から観察者視点測定部210が測定した観察者910の視線方向の延長線とが交わる位置を、観察者視点測定部210は、観察者910の視点と判断してよい。そして、観察者視点測定部210は、当該交点の座標データを観察者910の視点を示す座標データとして取得する。なお、被観察者視点測定部214は、観察者視点測定部210と同様にして、被観察者915の視点を示す座標データを取得してよい。
また、観察者視点測定部210は、観察者910の顔の輪郭、目の形状、および目の特徴点(目頭および目尻等)を抽出して、観察者910が頭を動かした場合に、抽出した目の特徴点等を追跡することにより、観察者910の動きに追従して観察者910の視線を測定してもよい。例えば、観察者視点測定部210は、観察者910の目の特徴点等を抽出する観察者特徴点抽出部、および観察者特徴点抽出部が抽出した観察者910の目の特徴点等の動きに応じて撮像部202を可動させる可動制御部を含んでいてよい。これにより、観察者視点測定部210は、観察者910が頭を動かした場合でも、観察者910の頭の動きに合わせて撮像部202を可動させることにより、適切に観察者910の視点を測定できる。観察者視点測定部210は、測定した観察者910の視点を視点出力制御部220および視点画像抽出部240に供給する。
なお、観察者910は被観察者915を遠隔で観察してもよい。例えば、観察者910側の画像記録装置10および被観察者915側の画像記録装置10を備え、複数の画像記録装置10をインターネット等のネットワークで相互に接続してよい。係る場合には、被観察者915を撮像する撮像部204、および撮像部206は、撮像した被観察者915の画像を、ネットワークを介して観察者910側の出力部50に供給する。そして、観察者910は出力部50に表示された被観察者915の画像を観察する。この場合において、観察者視点測定部210は、観察者910が出力部50に表示されている被観察者915のどの領域に視点を合わせているかを測定する。
視界測定部230は、観察者910の視界を特定する。具体的には、視界測定部230は、撮像部202が撮像した画像を解析して、観察者910の左目および右目の視線方向から輻輳角を特定する。例えば、視界測定部230は、撮像部202が撮像した観察者910の画像から観察者910の左目および右目の視線方向がなす輻輳角を算出してよい。なお、視界測定部230は、観察者視点測定部210が測定した観察者910の視線方向を示す情報を受け取って、受け取った視線方向を示す情報から輻輳角を算出してもよい。また、視界測定部230は、観察者910の左目および右目の焦点距離を測定して、観察者910の目の焦点が合っている領域を視界として特定してもよい。更に、視界測定部230は、観察者910の視線が停滞する時間である停滞時間を測定する。具体的には、視界測定部230は、観察者910の視線の停滞時間を測定して、視点が停滞する停滞時間が予め定められた時間よりも長い領域を観察者910の視界として特定してよい。予め定められた時間とは、例えば1秒間である。視界測定部230は、特定した観察者910の視界を視点画像抽出部240に供給する。
視点画像抽出部240は、撮像部204から受け取った被観察者915の画像のうち、観察者視点測定部210が測定した観察者910の視点を含む一部分の画像を抽出する。また、視点画像抽出部240は、撮像部204から受け取った被観察者915の画像から、視界測定部230が測定した観察者910の視界の画像を抽出してもよい。視点画像抽出部240は、抽出した画像を視点出力制御部220に供給する。視点出力制御部220は、観察者視点測定部210から受け取った観察者910の視点を示す情報を、撮像部204が撮像した被観察者915の画像と共に出力部50に出力させる。
具体的には、視点出力制御部220は、観察者視点測定部210から受け取った観察者910の視点を示すマークを、撮像部204が撮像した被観察者915の画像に重畳させて出力部50に出力させる。また、視点出力制御部220は、視点画像抽出部240が抽出した画像を予め定められた拡大率で拡大して、撮像部204が撮像した被観察者915の画像と共に出力部50に出力させてもよい。なお、入力ユニット60は、視点出力制御部220が、視点画像抽出部240が抽出した画像を拡大する場合の拡大率を観察者910に入力させる拡大率入力部を含んでいてよい。観察者910は拡大率入力部に所望の拡大率を入力することにより、所望の大きさに拡大された被観察者915の画像を出力部50に出力させることができる。
被観察者情報格納部300は、撮像部204から受け取った被観察者915の画像を、被観察者915に対応づけて格納する。また、被観察者情報格納部300は、観察者視点測定部210から受け取った観察者910の視点を示す情報を被観察者915に対応づけて更に格納する。また、被観察者情報格納部300は、瞬き測定部から受け取った被観察者915の瞬きの回数を、被観察者915の観察時刻に対応づけて格納してもよい。被観察者情報格納部300は、過去画像出力制御部310の制御に基づいて、被観察者915の画像および瞬きの回数を示す情報を過去画像出力制御部310に供給する。音声記録部400は、撮像部204が被観察者915を撮像しているときに、観察者910の音声情報を記録する。音声記録部400は、例えば、観察者910が被観察者915に対して質問したときの音声情報を記録する。音声記録部400は、記録した音声情報を画像格納部320および音声情報比較部410に供給する。
画像格納部320は、撮像部204から受け取った被観察者915の画像と音声記録部400から受け取った音声情報とを対応づけて格納する。画像格納部320は、画像および音声情報を、音声記録部400が音声情報を記録した時刻に対応づけて格納してよい。画像格納部320は、音声情報を音声情報比較部410の制御に基づいて音声情報比較部410に供給する。過去画像出力制御部310は、撮像部204が新たに被観察者915を撮像した場合に、被観察者915に対応づけて被観察者情報格納部300が格納している被観察者915の過去の画像を、観察者910が被観察者915を観察している間に撮像部204が新たに撮像した被観察者915の画像と共に出力部50に出力させる。
なお、過去画像出力制御部310が出力部50に出力させる被観察者915の過去の画像は、例えば、前回、観察者910が被観察者915を観察したときの被観察者915の画像であってよい。また、初診のときの被観察者915の画像であってもよい。更に、過去画像出力制御部310は、観察者の視点を示す情報を、被観察者915の過去の画像と共に出力部50に出力させてもよい。また、過去画像出力制御部310は、被観察者915の瞬きの回数を被観察者915の画像に重畳表示させてもよい。そして、過去画像出力制御部310は、撮像部204が新たに被観察者915を撮像した場合に、被観察者915に対応づけて被観察者情報格納部300が格納している被観察者915の過去の画像、撮像部204が新たに撮像した被観察者915の画像、および過去の瞬きの回数と観察中の瞬きの回数との差分を、出力部50に出力させてもよい。
音声情報比較部410は、音声記録部400が新たに記録した観察者910の音声情報を、画像格納部320が格納している音声記録部400が過去に記録した観察者910の音声情報と比較する。例えば、音声情報比較部410は、音声情報に含まれる単語に対応づけて、当該単語を人間が発音した場合の周波数成分を示す情報を格納する単語発音情報格納部を含んでいてよい。そして、音声情報比較部410は、音声記録部400から新たに受け取った音声情報について、予め定められた時間間隔ごとに周波数成分の分析をして、周波数成分情報を取得する。続いて、音声情報比較部410は、取得した周波数成分情報と単語発音情報格納部が格納している単語の周波数成分を示す情報とを比較して、音声記録部400が新たに記録した観察者910の音声情報と観察者910の過去の音声情報との一致度を算出する。音声情報比較部410は、算出した一致度を過去画像抽出部420に供給する。
過去画像抽出部420は、音声情報比較部410から受け取った一致度が予め定められた一致度以上である場合に、当該一致度を示す観察者910の過去の音声情報に対応づけて画像格納部320が格納している被観察者915の過去の画像を抽出する。係る場合において、過去画像出力制御部310は、過去画像抽出部420が抽出した被観察者915の過去の画像を、撮像部204が新たに撮像した被観察者915の画像と共に出力部50に出力させてよい。出力部50は、撮像部204から受け取った被観察者915の画像を出力する。また、出力部50は、視点出力制御部220および過去画像抽出部420から受け取った画像を出力する。更に、出力部50は、瞬き測定部が測定した被観察者915の瞬きの回数を、被観察者915の画像に重畳表示してよい。なお、モニタ等は出力部50の一例である。
なお、被観察者915にとって始めの観察ではない場合には、画像記録装置10は、過去に被観察者915を観察者910が観察したときの観察結果に基づいて、被観察者915に対して観察者910の代わりに質問してよい。例えば、画像記録装置10は、被観察者915の様子に対応づけて、予め定められた質問内容を格納する質問内容格納部を有していてよい。そして、画像記録装置10は、被観察者915の症状に応じて、質問内容格納部が格納している質問内容を、例えば出力部50の一例であるディスプレイに表示して、被観察者915に答えさせて記録してもよい。これにより、定型的な問診内容について観察者910が質問することがなくなるので、観察者910は被観察者915の観察に、定型的な問診内容をする場合に比べてより長い時間をかけることができる。
本実施形態に係る画像記録装置10によれば、観察者910が被観察者915の全体を観察しているのか、または、被観察者915の所定の部分に注目しているのかを判断して、観察者910が被観察者915の所定の部分に注目しているときの観察者910の視点を取得する。そして、観察者910の視点に存在する被観察者915の部分の画像を抽出して表示できる。これにより、観察者910およびユーザは、観察者910が被観察者915のどの部分に注目して観察したかを容易に確認できる。また、画像記録装置10は、観察者910が被観察者915を観察したときの被観察者915の画像と共に観察者910の視点を表示できるので、観察者910が被観察者915を観察した方法を確認できる。
また、本実施形態に係る画像記録装置10によれば、観察者910の視点および視界を特定できる。そして、観察者910の視点が被観察者915の領域にある場合、または、観察者910の視界に被観察者915が含まれる場合に、被観察者915の画像を抽出できるので、観察者910が被観察者915に注目したときを適切に判断して、観察者910が被観察者915を観察したときの被観察者915の画像を確実に抽出できる。これにより、被観察者915の観察に有用な画像を抽出できる。
更に、本実施形態に係る画像記録装置10によれば、観察者910が観察している被観察者915の画像と共に、過去に撮像された被観察者915の画像を並べて表示できるので、被観察者915の状態の推移を容易に把握できる。また、本実施形態に係る画像記録装置10によれば、観察者910が被観察者915に対してした質問と同じ質問をしたときの過去の被観察者915の画像と観察中の被観察者915の画像とを並べて表示できる。これにより、観察者910は、被観察者915に同一質問をしたときの現在および過去の被観察者915の表情を比較しながら被観察者915の状態を観察できる。
図5は、本実施形態に係る視点出力制御部220の動作の一例を示す。視点出力制御部220は、観察者910の視点が、被観察者915である人物900の領域内に存在する場合に、人物900の画像を撮像部204に取得させる。ここで、視点出力制御部220は、視界測定部230が測定した視点の停滞時間が、予め定められた時間以上を示す場合に、当該視点を含む部分を観察者910が注目した部分であると判断する。そして、視点出力制御部220は、人物900の画像と当該視点が含まれる人物900の一部分の画像とを抽出する。
例えば、観察者910の視点がマーク800、マーク805、およびマーク810であった場合を考える。係る場合において、マーク800で示した視点における停滞時間が予め定められた時間以上である場合に、視点出力制御部220は、マーク800で示される視点を含む、人物900の目950の領域の画像を抽出する。そして、視点出力制御部220は、抽出した画像を拡大して、拡大画像514として出力部50に出力する。なお、視点出力制御部220は、人物900の全体が含まれる画像512を拡大画像514と並べて出力部50に出力させてよい。拡大画像514には、人物900の目950が含まれる領域が拡大されて表示される。
本実施形態に係る視点出力制御部220は、観察者910が被観察者915の領域内で注目した部分を拡大して、被観察者915の画像と拡大した画像とを並べて表示できるので、観察者910が被観察者915を観察したときに注目した部分を詳細に観察しながら、観察者910の観察を再現できる。また、画像記録装置10が再現する観察者910の観察を参考にして、ユーザは、観察者910の観察手順を学習できる。
図6は、本実施形態に係る過去画像出力制御部310の動作の一例を示す。過去画像出力制御部310は、観察者910が観察している被観察者915である人物902に対応づけて被観察者情報格納部300が格納している人物902の過去の画像を抽出する。そして、過去画像出力制御部310は、撮像部204が撮像した観察中の人物902の画像520と過去の人物902が含まれる画像522とを並べて出力部50に出力させる。過去画像出力制御部310が抽出する人物902の過去の画像は、例えば、画像522は、人物902の初診時に撮像した画像、または、人物902が前回観察を受けたときに撮像した画像、若しくは観察者910が指定した日時において人物902を撮像した画像であってよい。
具体的には、画像記録装置10が備える入力ユニット60は、撮像時刻入力部を有していてよい。撮像時刻入力部は、観察者910に被観察者915が撮像された日および時刻を入力させる。そして、撮像時刻入力部は、観察者910が入力した撮像日および撮像時刻を、過去画像出力制御部310に供給する。過去画像出力制御部310は、撮像時刻入力部から受け取った撮像日および撮像時刻で撮像された被観察者915の画像を抽出して、出力部50に出力させる。
本実施形態に係る過去画像出力制御部310は、被観察者915の観察中の画像と被観察者915の過去の画像とを並べて出力部50に表示させることができるので、観察者910は、観察中の人物902の表情と過去の人物902の表情とを比較して的確な観察ができる。
図7は、本実施形態に係る画像格納部320のデータ構造の一例を示す。画像格納部320は、観察者910の音声情報と被観察者915の画像とを対応づけて格納する。具体的には、観察者910の音声情報560を音声記録部400が記録した時刻に対応づけて、観察者910の音声情報560および当該時刻で撮像部204が撮像した被観察者915の画像522を格納する。
例えば、音声記録部400は、観察者910が被観察者915に対して質問したときの音声情報560を記録する。音声記録部400は、音声情報560を画像格納部320および音声情報比較部410に供給する。画像格納部320は、撮像部204から受け取った被観察者915の画像522と音声記録部400から受け取った音声情報560とを、音声記録部400が音声情報560を記録した時刻に対応づけて格納する。画像格納部320は、音声情報560を音声情報比較部410の制御に基づいて音声情報比較部410に供給する。音声情報比較部410は、音声記録部400が新たに記録した観察者910の音声情報を、画像格納部320が格納している観察者910の過去の音声情報560と比較して、新たに記録した音声情報と過去の音声情報560との一致度を算出する。そして、過去画像出力制御部310は、音声情報比較部410が算出した一致度が予め定められた一致度以上である場合に、画像格納部320から画像522を抽出して、観察中の被観察者915の画像と共に出力部50に出力させる。これにより、過去に質問した内容を、後から確認できる。また、質問時における被観察者915の様子を確認できる。
尚、本実施形態の画像記録装置10は、医療の分野に利用することができる。即ち、本実施形態の画像記録装置10を、患者に対する診断内容を記録する為の診断支援装置として利用する。例えば、画像記録装置10は、患者に対する診断内容を記録する為の診断支援装置であり、被観察者は、精神疾患を有する患者であり、観察者は患者を観察する医師である。特に被観察者917が精神疾患を有する患者である場合、医師は、患者の緊張が表れやすい部位に着目して診察する場合が多い。本実施形態に係る画像記録装置10では、診断中に医師が患者のどの部分に着目していたかを診断後に容易に確認できるので、精神疾患を有する患者の診断を支援する為に、画像記録装置10を用いることは極めて有効である。
図8は、第1実施例の撮像ユニット20の他の例を説明する為の図である。撮像ユニット20は、撮像部205、閲覧者視点測定部271および閲覧者視点判定部272を更に備え、格納ユニット30は閲覧画像抽出部312を更に備えてよい。先に述べたように被観察者情報格納部300は撮像部204および206が撮像した被観察者915の画像と、観察者視点測定部210が測定した観察者910の視点を示す情報とを対応づけて格納している。ここで、過去画像出力制御部310は、被観察者情報格納部300が格納した被観察者915の画像を読み出して、出力部50が有する表示部に表示させる。この様子を図8に示す。この場合、視点出力制御部220は、観察者910の視点の位置を示すマークを出力部50に表示させない。撮像部205は、出力部50の表示部に表示された被観察者915の画像を閲覧する閲覧者の画像を撮像し、撮像した閲覧者の画像を閲覧者視点測定部271へ供給する。
閲覧者視点測定部271は、出力部50が表示している被観察者915の画像を閲覧する閲覧者の視点を測定する。ここで、閲覧者とは、観察者910であってもよいし、観察者910以外の人物であってもよい。例えば、観察者910が医師である場合、閲覧者は、他の医師、看護婦、または医学実習生である。閲覧者視点測定部271は、出力部50の表示部に表示された被撮像者915のどの領域に、閲覧者の視点が位置しているかを特定し、閲覧者の視点を示す情報を閲覧者視点判定部272および被観察者情報格納部300へ供給する。この場合、閲覧者視点測定部271は、観察者視点測定部210、被観察者視点測定部214、或いは視界測定部230と同様にして、閲覧者の視点を測定してよい。本例では、撮像部205の一例として、閲覧者から離れた位置に固定されたカメラとして図示されているが、撮像部205は、閲覧者の頭に搭載されるヘッドマウント型のカメラであってもよい。この場合、カメラの座標系に対する閲覧者の眼球の位置は予めキャリブレーションされる。また、閲覧者と出力部50が有する表示画面の位置関係も予め特定される。そして、例えば角膜反射法を用いることで閲覧者の眼球の動きを測定することにより、閲覧者の視点を特定してもよい。観察者情報格納部300は、閲覧者視点測定部217が測定した閲覧者の視点を、過去画像出力部310が読み出した被観察者915の画像に更に対応づけて格納する。
閲覧者視点判定部272は、観察者視点測定部210が測定した観察者910の視点と、閲覧者視点判定部272が測定した閲覧者の視点とが一致するかを判定し、判定結果を閲覧画像抽出部312へ与える。この場合、観察者情報格納部300に格納されていた観察者910の視点を示す情報と、閲覧者の視点とが一致するかを、閲覧者視点判定部272が判定する。閲覧画像抽出部312は、視点判定部271が一致しないと判断した場合に、一致しない視点の情報に対応する被観察者915の画像を抽出する。過去画像出力部310は、閲覧画像抽出部312が抽出した、一致しない視点の情報に対応する被観察者915の画像を出力部50に出力させる。これにより、閲覧者は、観察者910の視点の動きと、自分の視点の動きを確認できる。また、本例では、視点が一致しなかった場合の画像が出力されるので、閲覧者は、観察者910とは異なる観察の仕方をした場合の画像を、容易に検索できる。特に閲覧者が医学実習生であった場合には、正しい視点の配り方を効果的に学ぶことができる。
また、視点出力制御部220は、観察者視点測定部210が測定した観察者910の視点の位置を示すマーク、および閲覧者視点測定部271が測定した閲覧者の視点の位置を示すマークの少なくとも一方を被観察者915の画像に重畳させて出力部50に出力させてもよい。観察者910の視点を示すマークが表示されるので、閲覧者は、どこに着目すべだったか容易に知ることができる。また、観察者910の視点を示すマークに加えて、自分の視点のマークも表示されるので、自分の誤りを客観的に把握できる。
図9は、閲覧者視点判定部272の動作を説明する為の図を示す。閲覧者視点判定部272は、閲覧者視点測定部271が測定した閲覧者の視点が、観察者視点測定部210が測定した観察者の視点を含む予め定められた領域に存在しない場合に、観察者915および閲覧者917の視点が一致しないと判断する。ここで、観察者視点測定部210が測定した観察者910の視点を含む予め定められた領域とは、観察者910の視点の位置に基づいて定められる領域である。例えば、図9(a)の例では、観察者視点測定部210が測定した観察者の視点820に基づいて領域520が定められる。この領域520の中に、閲覧者視点測定部271が測定した閲覧者の視点が存在しない場合に、閲覧者視点判定部272は観察者915および閲覧者917の視点が一致しないと判断する。
また、観察者視点測定部210が測定した観察者の視点が複数の位置へ推移するとき、視点が推移したそれぞれの位置の近傍に、閲覧者視点測定部271が測定した閲覧者の視点が移動した場合に、閲覧者視点判定部272は視点が一致すると判断してもよい。この場合、視点が推移した位置の近傍とは、観察者視点測定部210が測定した観察者の視点に基づいて定められる領域であってよい。観察者910の視点が推移した順番と同じ順番で、閲覧者視点測定部271が測定した閲覧者の視点が推移する場合に、閲覧者視点判定部272は視点が一致すると判断してよい。本例では、閲覧者917の視点を示す符号826、830、832のいずれもが、観察者915の視点に基づいて定まる領域520、522および524の中に存在しないので、視点は一致しないと判断される。
尚、観察者視点測定部210が測定した観察者910の視点が推移したそれぞれの位置の近傍に、閲覧者917の視点が推移した場合、視点が推移した順番には関わらずに、閲覧者視点判定部272は、視点が一致すると判断してもよい。ここで、観察者の視点を含む予め定められた領域とは、観察者915の視点を中心とする円、正方形、または長方形で定義される領域であってよい。また、観察者の視点を含む予め定められた領域の大きさは、観察者915および閲覧者917の視点の移動速度の少なくとも一方に応じて定められてもよい。例えば、閲覧者視点判定部272は、観察者915の視点の速度が、所定の速度よりも速い場合に、観察者の視点を含む予め定められた領域を、より広く定めてよい。或いは、閲覧者917の視点の速度が、所定の速度よりも遅い場合に、観察者の視点を含む予め定められた領域をより広く定めてよい。この場合の所定の速度とは、出力部50が表示している観察者915の視点速度の平均速度であってよく、画像格納部320に格納された複数の観察者の視点速度の平均速度であってもよい。或いは、閲覧者の視点速度の平均速度や、複数の閲覧者の視点速度の平均速度であってもよい。
或いは、図9(b)に図示するように、閲覧者視点判定部272は、撮像部206が撮像した被観察者915の画像の予め定められた領域に、観察者視点測定部210が測定した観察者910の視点と、閲覧者視点測定部271が測定した閲覧者の視点とが存在する場合に、視点が一致すると判断してもよい。本例では、被観察者915の画像の予め定められた領域とは、予め分割された複数の領域であって、少なくとも、被観察者915の目、口、または手をそれぞれ含む領域である。ここで、目を含む領域とは、黒目(瞳孔および虹彩)の領域、黒目および白目の領域、または、黒目および白目を含む、円、長方形、楕円等の形状の、予め定められた領域であってよい。或いは、両目を含む、円、長方形、楕円等の形状の、予め定められた領域であってよい。口を含む領域とは、唇の領域、唇で囲まれた領域、或いは唇を含む、円、長方形、楕円等の予め定められた領域であってよい。また、手を含む領域とは、手のひらまたは手の甲の領域、或いは、手のひらまたは手の甲の領域を含む円、長方形、楕円等の形状の、予め定められた領域であってよい。或いは、両手の手のひらまたは手の甲を含む、円、長方形、楕円等の形状の、予め定められた領域であってよい。領域526、528、530は、被観察者915の目・口・手を含む領域の一例である。本例の場合、領域526に観察者910および閲覧者917の視点が含まれているので、閲覧者視点判定部272は、このような場合に視点が一致すると判断する。これにより、視点が一致したか否かの判断を簡易に行うことができる。
或いは、閲覧者視点判定部272は、観察者910の視点が推移する順番を更に組み合わせて視点の一致を判断してもよい。また或いは、所定の時間内において、被観察者915の画像における予め定められた領域に、観察者視点測定部210が測定した観察者910の視点が存在する確率と、閲覧者視点測定部271が測定した閲覧者の視点とが存在する確率に基づいて、閲覧者視点判定部272は視点が一致したか否かを判断してもよい。例えば閲覧者視点判定部272は、所定の時間内に視点が複数の位置へ推移する場合、予め定められた複数の領域のそれぞれについて、視点が留まっていた時間の総和を算出することで、確率を算出してよい。そして、領域毎に算出された観察者の確率と、閲覧者の確率との一致度を求め、所定の一致度以上である場合に、視点が一致すると判断する。
図10に、被観察者情報格納部300が格納するデータの一例を示す。本例の被観察者情報格納部300は、被観察者毎に、撮像部206が撮像した被観察者915の画像を、観察者視点測定部210が測定した観察者910の視点を示す情報と共に格納する。本例の被観察者情報格納部300は、撮像部206が撮像した被観察者の画像を、時刻を示す情報および観察者910の視点の座標データと共に格納している。更に、被観察者情報格納部300は、閲覧者917の視点を示す情報である座標データを、観察者910の視点を示す座標データと共に格納する。
図11は、閲覧画像抽出部312が抽出した画像を出力部50が出力する動作を説明する図である。閲覧画像抽出部312は、視点判定部271の判断に基づいて、一致しない視点の座標データに対応づけられて格納されている被観察者915の画像を抽出し、過去画像出力部310は、閲覧画像抽出部312が抽出した画像を出力部50に出力させる。この場合、過去画像出力部310は、閲覧画像抽出部312が抽出した複数の画像を、連続した1つの動画として再生出力してもよい。或いは過去画像出力部310は、一致していない画像についてのみ通常の速度で再生し、一致していた画像については通常の速度よりも早送りで再生してもよい。このように、本例の画像記録装置10は、観察者と閲覧者の視点が一致していなかった画像を、短くまとめて出力することができるので、閲覧者は、視点が一致しなかった画像を容易に確認できる。
図12は、本発明の実施形態に係る撮像ユニット20の第2実施例の機能構成の一例を示す。本例の撮像ユニット20は、撮像部200、観察者視点測定部210、被観察者位置測定部212、被観察者視点定部214、視点移動方法学習部216、観察者視点判断部250、視点移動方法格納部255、および画像格納制御部260を有する。本例では、対話中における被観察者915の表情の変化を的確に記録する画像記録装置を提供する。本例の撮像ユニット20は、図1から図11の説明において説明した画像記録装置10を構成する各ユニットの機能および構成の一部、または全部を更に備えてもよい。また、図1から図11の説明において説明した部材と同一の符号が付された部材については、略同一の機能を有するので詳細な説明は省略する。
ここで、例えば、撮像部200が全方位カメラである場合、撮像部200は、図1〜11を用いて説明した撮像部202、204、206、および208の機能を含んでいてもよい。或いは、撮像ユニット20は、図1〜11で説明した実施形態と同様に、撮像部200の代わりに、観察者910の視点検出用の撮像部202、観察者910が存在する範囲を測定する為の撮像部208、被観察者915の視点検出用の撮像部204、および被観察者915が存在する範囲を測定する為の撮像部206を有しもよい。
撮像部200は、撮像した被観察者915の画像を画像格納制御部260の制御に基づいて、画像格納制御部260に供給する。また、撮像部200は、被観察者915の視点測定用の画像を被観察者視点測定部214に、被観察者915が存在する位置を測定する為の画像を被観察者位置測定部212に供給する。更に、撮像部200は、観察者910の視点測定用の画像を観察者視点測定部210に供給する。観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910の視点を測定する。また、観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910による被観察者915への視線の向け方を更に測定する。具体的には、観察者視点測定部210は、観察者910の視点を、観察者910の視点を測定した時刻に対応づけて測定して、観察者910の視点の軌跡を測定する。観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910の視点の移動速度を更に測定する。
具体的には、観察者視点測定部210は、予め定められた時間間隔ごとに観察者910の視点を測定してよい。例えば、観察者視点測定部210は、第1の時刻において観察者910の視点を測定する。そして、観察者視点測定部210は、第2の時刻において観察者の視点を測定する。続いて、観察者視点測定部210は、第1の時刻および第2の時刻から算出される時間と、第1の時刻における視点および第2の時刻における視点から算出される距離とを用いて視点の移動速度を測定する。観察者視点測定部210は、観察者910の、視点の軌跡、および視点の移動速度を観察者視点判断部250および視点移動方法学習部216に供給する。
被観察者位置測定部212は、観察予め定められた撮像部200の撮像範囲内において、被観察者915が存在する範囲を測定する。この場合、被観察者位置測定部212は、被観察者915が存在する位置を、撮像範囲において予め定められた3次元座標系における座標データとして取得する。本例の被観察者位置測定部212は、被観察者915の顔の範囲を測定する。また更に被観察者位置測定部212は、被観察者915の目の範囲を測定してもよい。例えば、被観察者位置測定部212は、撮像部200が撮像した画像からエッジ検出および肌色抽出により被観察者915の顔の領域を抽出する。そして、被観察者位置測定部212は、抽出した被観察者915の顔の領域内における被観察者915の目の範囲を測定する。被観察者位置測定部212は、測定した被観察者915が存在する範囲の座標データおよび目の範囲の座標データを観察者視点判断部250に供給する。
被観察者視点測定部214は、被観察者915の視点を測定する。具体的には、被観察者視点測定部214は、被観察者915の左目の視線を測定する第1被観察者視線測定部および被観察者915の右目の視線を測定する第2被観察者視線測定部を含んでよい。そして、第1被観察者視線測定部および第2被観察者視線測定部は、被観察者915の左目および右目の視線方向を測定する。例えば、第1被観察者視線測定部および第2被観察者視線測定部は、第1観察者視線測定部および第2観察者視線測定部と同様にして、被観察者915の左目および右目の視線を算出してよい。なお、予め3次元座標系を設定しておくことにより、被観察者視点測定部214が測定した被観察者915の視線の方向について、被観察者915を基準としてどの方向に向いているのかを座標データとして表すことができる。
また、撮像ユニット20は、予め定められた撮像部200の撮像範囲内で観察者910が存在する位置を測定する観察者位置測定部270を更に有していてよく、観察者位置測定部270は、観察者910が撮像範囲内で存在する位置を測定する。観察者位置測定部270は、観察者910が存在する位置を、撮像範囲内に予め定められた3次元座標系における座標データとして取得する。観察者位置測定部270は、被観察者915の位置と観察者910の位置とを同一の座標系に対応づけてよい。そして、観察者位置測定部270は、観察者910が占める領域を特定することを目的として、観察者910が存在する領域に含まれる複数の座標データを取得する。
続いて、被観察者視点測定部214は、観察者位置測定部270が取得した観察者910が存在する領域を示す座標データおよび被観察者視点測定部214が測定した被観察者915の視線方向から、被観察者915の視点が観察者910のどの部分に存在するかを測定する。具体的には、観察者位置測定部270が取得した観察者910の領域を示す複数の座標データで特定される観察者910の領域と、被観察者視点測定部214が測定した被観察者915の視線方向の延長線とが交わる点を、被観察者視点測定部214は被観察者915の視点と判断する。そして、被観察者視点測定部214は、当該位置の座標データを被観察者915の視点を示す座標データとして取得する。
なお、被観察者視点測定部214は、観察者視点測定部210と同様に、被観察者915の目の特徴点等を抽出する被観察者特徴点抽出部を含んでいてよい。被観察者特徴点抽出部は被観察者915の特徴点を抽出する。被観察者視点測定部214は、被観察者915が頭を動かした場合に、被観察者特徴点抽出部が抽出した目の特徴点等を追跡して、被観察者915の動きに追従して被観察者915の視線を測定してもよい。具体的には、被観察者視点測定部214は、被観察者特徴点抽出部が抽出した被観察者915の特徴点の移動に応じて被観察者915を撮像する撮像部200を可動させる可動制御部を含んでいてよい。被観察者視点測定部214は、測定した被観察者915の視点を示す情報を観察者視点判断部250に供給する。
視点移動方法学習部216は、観察者910の被観察者915への視線の向け方を学習し、学習した観察者910の被観察者915への視線の向け方に関する情報を視点移動方法格納部255に供給する。本例の視点移動方法学習部216は、観察者910が被観察者915に質問をしたときの音声と観察者910の視点の移動軌跡とを用いて、観察者910の視線の動かし方の癖を学習する。尚、動作の詳細は後述する。
視点移動方法格納部255は、予め定められた観察者910による被観察者915への視線の向け方を格納する。視点移動方法格納部255は、観察者が複数いる場合には、観察者ごとに視線の向け方を格納してもよい。また、視点移動方法格納部255は、視点移動方法学習部216から受け取った視線の向け方に関する情報を観察者に対応づけて格納する。視点移動方法格納部255は、観察者910の視線の向け方に関する情報を観察者視点判断部250に供給する。観察者視点判断部250は、観察者視点測定部210から受け取った観察者910の視点が予め定められた範囲内にあるか否かを判断する。具体的には、観察者視点判断部250は、被観察者915が存在する範囲内に観察者910の視点があるか否かを判断する。
例えば、被観察者位置測定部212は被観察者915が存在する範囲を、撮像部200の撮像範囲に予め定められた3次元座標系に対応づけられた複数の座標データとして取得してよい。そして、観察者910の視線方向と被観察者915が存在する範囲を示す座標データとを比較することにより、観察者910の視点が被観察者915の存在する範囲内にあるか否かを判断してよい。また、観察者視点判断部250は、観察者910の視点が被観察者915の目の範囲内にあるか否かを判断してもよい。更に、観察者視点判断部250は、観察者視点測定部210から受け取った観察者910の視視点の軌跡と視点移動方法格納部255から受け取った視線の向け方の情報が示す視点の軌跡とが一致するか否かを更に判断する。また、観察者視点判断部250は、観察者視点測定部210が測定した観察者910の視点の移動速度が予め定められた範囲内にあるか否かを更に判断してもよい。
そして、観察者視点判断部250は、被観察者視点測定部214から受け取った被観察者915の視点、および観察者視点測定部210から受け取った観察者910の視点に基づいて、被観察者915と観察者910との視線が一致しているか否かを判断する。例えば、観察者視点測定部210が測定した観察者910の視点が被観察者915の目の範囲内に存在するとともに、被観察者視点測定部214が測定した被観察者915の視点が観察者910の目の範囲に存在している場合に、観察者視点判断部250は、被観察者915と観察者910の視線が一致していると判断してよい。観察者視点判断部250は、判断結果を画像格納制御部260に供給する。
画像格納制御部260は、観察者視点判断部250から、予め定められた範囲内に観察者910の視点があることを示す判断結果を受け取った場合に、撮像部200から被観察者915の画像を取得して画像格納部320に格納する。ここで、予め定められた範囲内とは、被観察者915の存在する範囲内および被観察者915の目の範囲内等であってよい。なお、画像格納制御部260は、観察者視点判断部250が予め定められた範囲内に観察者910の視点があると判断した時刻から予め定められた時間遡った時刻から所定の時間に撮像部200が撮像した被観察者915の画像を格納してもよい。また、画像格納制御部260は、観察者視点判断部250から受け取った観察者910による被観察者915への視線の向け方が、視点移動方法格納部255が格納している視線の向け方と一致すると判断した場合に、撮像部200から被観察者915の画像を取得して画像格納部320に格納してもよい。
更に、画像格納制御部260は、観察者視点測定部210が観察者910の視線の移動速度が予め定められた範囲内にあると判断した場合に、撮像部200から被観察者915の画像を取得して画像格納部320に格納してもよい。また、画像格納制御部260は、観察者910と被観察者915との視線が一致していると観察者視点判断部250が判断した時刻の前後に撮像部200が撮像した被観察者915の複数の画像を画像格納部320に格納してもよい。更に、画像格納制御部260は、観察者910が被観察者915に質問をしたときの音声を検出して、当該音声を検出したときの被観察者915の画像を撮像部200から取得して画像格納部320に格納してもよい。
本実施形態に係る画像記録装置10によれば、観察者910の視点が予め定められた範囲内にあるとき、すなわち観察者910が被観察者915を観察しているときに観察者910が被観察者915に注目したタイミングで、自動的に被観察者915の領域内において観察者910が注目した部分の画像を記録できる。これにより、観察者910が被観察者915の観察において被観察者915に注目したときの被観察者915の一部分の画像を、観察後においても容易に確認できる。
また、本例の画像記録装置10によれば、観察者910の視点の移動速度が予め定められた範囲内にある場合に、被観察者915の画像を記録できるので、観察者910が被観察者915に注目していない場合、例えば、予め定められた視点の移動速度よりも観察者910の視点の移動速度が速い場合には、被観察者915の画像を記録しないので、観察者910が被観察者915を観察するときに、観察者910が被観察者915に注目したときの被観察者915の画像だけを適切に記録できる。
更に、本例の画像記録装置10によれば、観察者910の視点と被観察者915の視点とが一致した場合に被観察者915の画像を記録できる。これにより、例えば、観察者910の問診の音声情報と共に観察者910と被観察者915との視点が一致した被観察者915の画像を再現することができるので、被観察者915が観察者910の質問に対してどのような表情をしていたかを容易に再現できる。
図13、14および15は、視点移動方法学習部216の動作を説明する為の図である。図13には、被観察者915を異なる観察者910、911、および912が観察した場合の視点の軌跡835、836、および837を、模式的に示している。図13に示すように、観察者の視点の向け方は、観察者によって異なる。そこで、視点移動方法学習部216は、観察者に特有の視点の動かし方を、観察者毎に特定する。具体的には、本例の視点移動方法学習部216は、発話中に観察者が視点を移動させる可能性の高い領域を特定することにより、観察者に特有の視点の動かし方を特定する。
視点移動方法学習部216は、観察者視点測定部210より観察者910の視点を示す情報を予め定められた時間間隔ごとに受け取る。また、視点移動方法学習部216は音声の有無を音声ユニット40から受け取り、音声が検出された時に、観察者の視点がどの領域に存在するかを特定する。この場合、視点移動方法学習部216は、被観察者915の画像における予め定められた領域に、観察者の視点が存在するか否かを特定してよい。例えば、本例では、図13に示すように、被観察者915の画像は、複数の領域A(目)、領域B(口)、領域C(両手)、領域D(顔以外で首より上の領域)、領域E(体)、領域F(それ以外の領域)に予め分割されており、視点移動方法学習部216は、観察者の発話の有無に応じて、観察者の視点が存在する領域を特定する。そして、視点移動方法学習部216は、領域毎に、視点が存在していた時間を累積することで、発話がなされた場合に、最も長く視点が存在していた領域を特定する。例えば、図13および14に示す観察者910の例では、発話をしない場合は、領域Dに視点が存在するが、発話を行った場合には視点が被観察者の目の領域(領域A)に、視点が移っていることがわかる。一方、観察者911の場合には、被観察者の手の領域(領域C)に移っていることがわかる。
更に視点移動方法学習部216は、領域毎に、視点が存在していた時間を累積することで、発話がなされなった場合に、最も長く視点が存在していた領域を特定してもよい。或いは、視点移動方法学習部216は、予め定められた領域毎に、視点が存在していた確率を算出してもよい。これにより視点移動方法学習部216は、観察者の視点の向け方を学習し、視点移動方法格納部255は、学習した視線の向け方に関する情報を格納する。
尚、視点移動方法学習部216は、被観察者915の画像における予め定められた領域の大きさを、学習した視線の向け方に応じて定めてもよい。例えば視点移動方法学習部216は、被観察者915の画像における予め定められた領域の大きさを、発話中にその領域に視点が存在していた時間の長さに応じて定める。具体的には、視点移動方法学習部216は、発話中に予め定められた領域に視点が存在していた時間がより長い場合には、その領域の大きさを、より小さく定める。或いは、視点移動方法学習部216は、発話中に予め定められた領域に視点が存在していた時間がより短い場合には、その領域の大きさを、より大きく定める。発話の最中に、所定の領域を凝視する癖があるのか、視点を頻繁に移す癖があるのかは、その観察者に依存する。本例のように視線の向けに応じて、予め分割すべき被観察者915の画像の領域の大きさを定めるので、このような癖には当てはまらない視点の動きをした場合の無駄な画像を省くことができる。
或いは、図13の観察者912の軌跡837が示すように、観察者によっては、予め定められた領域(この図では、領域B)を直視せずに、視点をずらして患者を観察する癖を有している場合がある。このような癖に対応することを目的として、視点移動方法学習部216は、観察者の視点が存在する確率の高い領域を特定し、この特定した領域内に観察者910の視点が存在する場合に、視線の向け方が一致したと判断してもよい。
尚、視点移動方法学習部216は、上記で説明した方法に加えて、更に移動速度に基づいて、観察者の視線の向け方を学習してもよい。例えば視点移動方法学習部216は、音声ユニット40によって音声が検出されている間の、観察者の視点の移動速度の平均値を算出する。これにより、観察者910が被観察者915に視線を合わせるときに、視線をゆっくり移動させる、視線をすばやく移動させる、および観察時に被観察者915を凝視する等の観察者910の癖を把握できる。視点移動方法格納部255は、算出された視点の平均移動速度を観察者毎に格納する。また、視点移動方法学習部216は、音声が検出されない間における、観察者毎の視点の移動速度の平均値を算出してもよい。
観察者視点判断部250は、視点移動方法格納部255が格納している、発話中にその観察者が視点を移動させる可能性の最も高い領域に、発話中の観察者910の視点が存在する場合には、視線の向け方が一致すると判断する。また観察者視点判断部250は、発話中にその観察者が視点を移動させる可能性の最も高い領域に発話中の観察者910の視点が、存在しており、更に、視点移動方法格納部255が格納している、発話中におけるその観察者の平均移動速度と発話中の観察者910の視点の移動速度とが略等しい場合に、視線の向け方が一致すると判断してもよい。
尚、本実施形態の画像記録装置においては、観察者910が複数の被観察者を観察してもよい。撮像部200が撮像した画像に複数の被観察者が含まれる場合、画像格納制御部260は、観察者視点測定部210が測定した観察者910の視点が含まれる被観察者を示す領域を抽出して格納する。この場合、観察者視点判断部250は、観察者視点測定部210が測定した観察者915の視点が、被観察者位置測定部212が算出した被観察者の顔の範囲内にあるか否かを判断し。画像格納制御部260は、観察者視点判断部250が被観察者の顔の範囲内に観察者910の視点があると判断した場合に、撮像部200が撮像した被観察者915の画像を格納してよい。尚、画像格納制御部260は、観察者視点測定部210が測定した観察者910の視点が含まれる被観察者を示す領域のみを抽出して格納してもよい。
また図1〜図11を用いて説明した画像記録装置10と同様に、観察者910は被観察者915を遠隔で観察してもよい。更には、複数の観察者が、ネットワークを介して複数の被観察者を観察してもよい。図16(a)および図16(b)は、画像記録装置10がテレビ会議として用いられた場合を示す図である。この場合には、本実施形態の画像記録装置は、テレビ会議としても利用できる。観察者側および被観察者側のそれぞれに、画像記録装置を備え、複数の画像記録装置がネットワークで相互に接続される。それぞれの画像記録装置が備える音声ユニット40が、相手の画像記録装置へ音声を送信し、それぞれの画像記録装置が備える出力部50が、相手の画像を表示部に表示する。
観察者側の撮像ユニット20が、撮像部202、撮像部208、観察者視点測定部210および観察者位置測定部270を備え、被観察者側の撮像ユニット20が、撮像部204、被観察者位置測定部212および被観察者視点測定部214を備える。この場合、撮像部202〜208の各座標の関係は予め定められてよい。例えば、ネットワークを介して観察を行う前に、座標間の関係は、予めキャリブレーションされる。先に説明したように、観察者視点測定部210は、観察者側の出力部50が有する表示部に表示された被観察者915および916の画像を観察しているときの、観察者910および912の視点を測定し、被観察者視点測定部214は、被観察者側の出力部50が有する表示部に表示された観察者910および912の画像を観察しているときの被観察者915および916の視点を測定する。また。観察者位置測定部270は、予め定められた撮像範囲内における観察者910の位置を測定し、被観察者位置測定部212は、予め定められた撮像範囲内における観察者915の位置を測定する。その他の動作は、先に説明した通りである。
このように、複数の画像記録装置をネットワークを介して接続した場合であっても、対話中における相手の表情の変化を的確に記録することができる。特に、複数の対話者がいる場合であっても、発言者が発言している最中に、発言者が注目している人物の表情を的確に記録できる。
図17は、本発明の実施形態に係る撮像ユニット20の第3実施例および入力ユニット60の第2実施例の機能構成の一例を示す。撮像ユニット20は、撮像部200、観察者視点測定部210、被観察者位置測定部212、被観察者視点測定部214、および観察者視点判断部250を有する。また、入力ユニット60は視線情報入力部600を有する。本実施形態では、観察者910が着目した被観察者915の画像を、後から容易に検索することができる画像記録装置を提供することを目的とする。なお、本実施形態に係る撮像ユニット20および入力ユニット60は、図1から図11の説明において説明した画像記録装置10を構成する各ユニットの機能および構成の一部、または全部を更に備えてもよい。また、図1から図11の説明において説明した部材と同一の符号が付された部材については、略同一の機能を有するので詳細な説明は省略する。
尚、第1および第2の撮像ユニット20に関する説明で述べたように、撮像部200が全方位カメラである場合には、撮像部200は、各撮像部202〜208の機能を含んでいてもよい。或いは撮像ユニット20は、撮像部200の代わりに、観察者910の視線方向検出用の撮像部202、観察者910が存在する範囲の測定用の撮像部208、被観察者915の視線方向検出用の撮像部204、および被観察者915が存在する範囲の測定用の撮像部206を有してもよい。
撮像部200は、被観察者915の画像を撮像して、撮像した被観察者915の画像を画像格納部320に供給する。また、撮像部200は、被観察者915の視点測定用の画像を被観察者視点測定部214に、被観察者915が存在する位置を測定する為の画像を被観察者位置測定部212に供給する。更に、撮像部200は、観察者の視点測定用の画像を観察者視線測定部210に供給する。被観察者位置測定部212は、観察予め定められた撮像部200の撮像範囲内で被観察者915が存在する範囲を測定する。また、被観察者位置測定部212は、被観察者915の目の範囲を測定する。被観察者位置測定部212は、測定した被観察者915の存在する範囲を示す情報および被観察者915の目の範囲を示す情報を観察者視点判断部250に供給する。
観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910の視点を測定する。また、観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910による被観察者915への視線の向け方を更に測定する。観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910の視点の移動速度を更に測定する。観察者視点測定部210は、測定した観察者910の視点、視線の向け方、および視点の移動速度を観察者視点判断部250および画像格納部320に供給する。
被観察者視点測定部214は、被観察者915の視点を測定する。また、被観察者視点測定部214は、被観察者915の視点を時刻に対応づけて測定することで、被観察者915の視点の軌跡を示す情報を測定してもよい。被観察者視点測定部214は、測定した被観察者915の視点を示す情報、および視点の軌跡を示す情報を観察者視点判断部250に供給する。観察者視点判断部250は、観察者視点測定部210が測定した観察者910の視点が、被観察者位置測定部212が測定した被観察者915が存在する範囲内にあるか否かを判断する。また観察者視点判断部250は、観察者視点測定部210が測定した観察者910の視点が、被観察者位置測定部212が測定した被観察者915の顔または手の範囲内にあるか否かを判断する。また、観察者視点判断部250は、観察者視点測定部210が測定した観察者910の視点が、被観察者位置測定部212が測定した被観察者915の目の範囲内にあるか否かを判断してもよい。更に、観察者視点判断部250は、被観察者915の視線と観察者910の視線とが一致しているか否かを判断する。観察者視点判断部250は、判断結果を画像格納部320に供給する。
画像格納部320は、撮像部200が撮像した画像を、観察者910の視点を示す情報、観察者910の被観察者915への視線の向け方、観察者910の視点の移動速度、および観察者視点判断部250の判断結果を示す情報に対応づけて格納する。画像格納部320は、視線情報入力部600の制御に基づいて、格納している画像を出力部50に供給する。視線情報入力部600は、観察者910の視点を示す情報をユーザ917に入力させる。具体的には、視線情報入力部600は、観察者910の視点が、被観察者915が存在する範囲内にあることを示す情報、または、観察者910の視点が被観察者915の顔または手の範囲内にあることを示す情報を入力させる。更には、視線情報入力部600は、観察者910の視点が被観察者915の目の範囲内にあることを示す情報をユーザ917に入力させてもよい。ここで、顔の範囲、手の範囲、および目の範囲とは、それぞれ、顔、手および目を含む、予め定められた大きさの、顔、手および目の周辺領域を含んでよい。例えば、目の範囲とは、右目または左目の少なくとも一方の黒目を中心とする半径1cmの円で定められる領域である。或いは、目の範囲とは、両目を含み、顔に対して横に長い長方形や楕円で定められる領域であってよい。また、視線情報入力部600は、観察者910による被観察者915への視線の向け方を示す情報、視点の移動速度を示す情報、および観察者910の視線と被観察者915の視線とが一致している旨を示す情報をユーザ917に入力させてもよい。例えば、ユーザ917は、観察者910が被観察者915の目に注目したときの被観察者915の画像を観察したい場合には、被観察者915の目に観察者910の視点が一致した旨を示す情報を、視線情報入力部600に入力する。視線情報入力部600は、ユーザ917が入力した情報を出力部50に供給する。
出力部50は、視線情報入力部600から入力された観察者910の視点を示す情報に対応づけて画像格納部320が格納している被観察者915の画像を出力する。具体的には、出力部50は、視線情報入力部600から受け取った観察者910の視点を示す情報等を受け取って、視線情報入力部600から受け取った情報と一致する情報に対応づけて画像格納部320が格納している画像を抽出して出力する。
また、出力部50は、質問変更アドバイス部を含んでいてよい。質問変更アドバイス部は、被観察者915の視点の変化に基づいて、観察者910に被観察者915に対する質問内容の変更すべき旨をアドバイスする。具体的には、質問変更アドバイス部は、被観察者915の視点の軌跡に応じて、被観察者915が観察者910から視線を逸らしたか否かを判断する。そして、質問変更アドバイス部は、被観察者915が観察者から視線を逸らしたと判断した場合に、被観察者915への質問内容の変更をすべき旨を示す文字列を、出力部50に表示する。なお、出力部50は音声により観察者910に質問内容の変更を促してもよい。
本実施形態に係る画像記録装置10によれば、観察者910が被観察者915を観察したときの、観察者910の視点、視線の被観察者915への向け方、視点の移動速度、および観察者910の視線と被観察者915の視線とが一致した旨を示す情報等に対応づけて被観察者915の画像を格納できるので、被観察者915の観察をした後でも、観察者910が観察のときに被観察者915をどのように観察したのかを再現することができると共に、観察者910が注目した被観察者915の画像を容易に検索することができる。
また本例の画像格納部320は、撮像部200が撮像した被観察者915の画像を、被観察者視点測定部214が測定した被観察者915の視点を示す情報に、更に対応づけて格納してもよい。この場合、視線情報入力部600は、被観察者915の視点を示す情報を、更にユーザに入力させる。出力部50は、視線情報入力部600から入力された被観察者915の視点を示す情報、および観察者910の視点を示す情報に基づいて、画像格納部320が格納している被観察者の画像、又は観察者の画像を出力する。これにより、観察者および被観察者のそれぞれの視点の組合せに基づいて、後から被観察者の画像を確認できる。
図18および図19は、観察者視点判断部250の動作を説明する為の図である。図20は、画像格納部320が格納するデータの一例を示す。図18(a)は被観察者915の画像において予め定められた複数の領域850〜858を、図18(b)は観察者910の画像において予め定められた複数の領域860〜868を、それぞれ示す。領域850、852、854は被観察者915の顔の範囲、目の範囲、口の範囲の一例である。また、領域856および858は、被観察者915の手の範囲(右手および左手)をそれぞれ示す。領域860および領域862は、観察者910の目(右目および左目)の範囲を示し、領域864は観察者910の口の範囲を示す。領域866、868および870は、観察者910を含まない観察者910の右側、左側または上側の領域をそれぞれ示す。
観察者視点判断部250は、観察者910が被観察者915を観察しているときの観察者910の視点が、領域850〜858のいずれの領域に存在するかを判断し、更には被観察者915の視点が観察者910のいずれの領域860〜868に存在するかを判断する。本例の観察者視点判断部250は、図19に示すように、観察者910および被観察者915の視点を示す情報として、視点の座標データを観察者視点測定部210および被観察者視点測定部214から受け取り、予め定められた各領域に、受け取った視点が含まれるか否かを判断する。画像格納部320は、判断結果を、例えば図20のようなデータ構造で格納する。図20の例において、画像格納部320は、観察者の視点の座標データおよび、その視点が含まれる被観察者915の画像の領域名を、観察者が見ていた被観察者の画像と対応付けて格納する。また、画像格納部320は、被観察者の視点の座標データおよび、その視点が含まれる観察者910の画像の領域名を、被観察者の画像と対応づけて更に格納する。
一例として視線情報入力部600は、観察者910視点を示す情報として観察者910が着目していた領域の名称を、そして被観察者の視点を示す情報として被観察者915が着目していた領域の名称を、ユーザに入力させる。例えば、観察者が医師である場合、被観察者である患者の口元に着目していた画像を検索したい場合には、観察者910視点を示す情報として、キーワード「口元」を入力すると、出力50は、医師が患者の口元に着目していた時の動画1を出力する。更に、出力部50は、視線情報入力部600から入力された観察者の視点を示す情報に基づいて、画像格納部320が格納している被観察者915の画像から、視点に対応する所定の領域を抽出して出力してもよい。この場合、出力部50は、視点に対応する所定の領域として、観察者910の視点の示す情報に対応づけて格納された被観察者の画像の予め定められた領域を、抽出して出力する。例えば、観察者の視点を示す情報として「右目」というキーワードが入力されると、このキーワードに対応づけて格納された動画1から、患者の右目に対応する領域852の画像が抽出され、そして出力される。
尚、本例の音声ユニット40が有する音声記録部400は、観察者910および被観察者915の音声情報を記録している。この場合、画像格納部320は、音声記録部400が記録した観察者910の音声情報を、撮像部200が撮像した被観察者915の画像に更に対応づけて格納し、視点情報入力部600は、観察者910の音声情報を示す情報をユーザに更に入力させる。そして出力部50は、入力された被観察者915の音声情報に基づいて画像格納部320に格納された被観察者915の画像を出力する。
ここで、音声情報とは、例えば観察者910が被観察者915を観察したときに取り交わされた会話である。視線情報入力部600は、音声情報として、音声データと、音声データの内容に関する情報とを被観察者915の画像に対応づけて格納する。この場合、視線情報入力部600は、音声データの内容に関する情報をキーワードやテキスト文として格納してよい。観察者910の音声情報を示す情報として、視線情報入力部600は、観察者910が被観察者915を観察した内容に関するキーワードをユーザに入力させる。このように、本例の画像記録装置においては、観察者910が観察のときに被観察者915をどのように観察したのかを再現することができると共に、観察中に被観察者915が注目していた視点を示す情報から、被観察者915の画像を容易に検索することができる。また更には、観察者が被観察者と交わした会話に関する情報から、所望の画像を検索することができる。
尚、本実施形態における撮像部200は複数の被観察者を撮像してもよい。この場合、被観察者位置測定部212は、予め定められた撮像部200の撮像範囲内で複数の被観察者915が存在する範囲を撮像し、複数の観察者915の範囲を示す情報を観察者視点判断部250に供給する。観察者視点判断部250は、観察者視点測定部210が測定した観察者の視点が、複数の被観察者の中の、いずれの被観察者の存在する範囲内にあるかを判断する。この場合、観察者視点判断部250は、観察者910の視点が、被観察者位置測定部212によって測定された被観察者915の顔または手、または目の範囲内にあるか否かを判断してもよい。画像格納部320は、観察者視点判断部250が判断した観察者の視点に対応する被観察者の画像を、観察者の視点を示す情報に対応づけて格納する。視点情報入力部600は、観察者の視点を示す情報をユーザに入力させ、出力部50は、入力された観察者の視点を示す情報に対応づけて画像格納部320に格納する被観察者の画像を出力する。
また、本例の撮像ユニット20が用いられた画像記録装置10は、複数の観察者が、ネットワークを介して複数の被観察者を観察する場合に用いられてもよい。例えば、画像記録装置10は、テレビ会議として用いらことができる。この場合、画像格納部320は、観察者側の発言者の視点と、その観察者を被観察者側の表示部で観察する聴衆の視点に対応づけて、発言中の発言者の画像と、それを聞いている聴衆の画像とを格納してよい。また、画像格納部320は、発言者の発言内容に対応づけて、発言中の発言者および聴衆の画像を格納してよい。視線情報入力部600は、発言者の視点、聴衆の視点、発言内容を示す情報をユーザに入力させ、出力部50は、入力された発言者の視点、聴衆の視点、発言内容を示す情報に対応づけて格納された発言者および聴衆の画像を出力する。これにより、テレビ会議が終った後に、発言者や聴衆の視点を検索のキーとして、画像を検索することができる。
図21は、本発明の実施形態に係る画像記録装置10が有する撮像ユニット20の第4実施例、および入力ユニット60の第3実施例の機能構成の一例を示す。撮像ユニット20は、撮像部200および画像格納制御部260を有する。また、格納ユニット30は、画像格納部320および電子カルテ格納部330を有する。更に、入力ユニット60は、観察結果入力部610、入力検知部620、観察結果情報入力部630、時刻入力部640、および観察結果格納制御部650を有する。そして、観察結果入力部610は、デジタル入力部612および筆記部614を含む。本実施形態は、電子カルテ等に観察結果を入力しているときに観察者910が被観察者915の表情を確認できなかった場合であっても、被観察者915の表情を適切に確認できる画像記録装置10を提供することを目的とする。なお、本実施形態に係る画像記録装置10は、図1から図11の説明において説明した画像記録装置10を構成する各ユニットの機能および構成の一部、または全部を更に備えてもよい。また、図1から図11の説明において説明した部材と同一の符号が付された部材については、略同一の機能を有するので詳細な説明は省略する。
撮像部200は、被観察者915の画像を撮像して、被観察者915の画像を画像格納部320に供給する。撮像部200は、画像格納制御部260に画像を供給する。電子カルテ格納部330は、被観察者915の観察結果が入力される電子カルテを格納する。具体的には、まず、観察結果入力部610が、観察者910による観察結果を入力する。観察結果入力部610は、観察結果が入力されている旨を示す情報を入力検知部620に供給する。そして、観察結果入力部610は、観察者910が入力した観察結果を観察結果格納制御部650に供給して、観察結果格納制御部650は観察結果入力部610から受け取った観察結果を、電子カルテとして電子カルテ格納部330に格納する。より具体的には、観察結果入力部610に含まれるデジタル入力部612が、電子カルテに観察者910による観察結果を入力する。キーボード、マウス、およびタッチパネル等はデジタル入力部612の一例である。デジタル入力部612は、観察者910が観察結果を電子カルテに入力していることを示す情報を入力検知部620に供給する。
また、観察結果入力部610が含む筆記部614は、観察者910により使用されて、カルテに観察結果を書き込む。筆記部614は、筐体615、押圧検出部616、ペン先617、および検出結果送信部618を含んでいてよい。そして、押圧検出部616が観察者910による観察結果の書き込むときにペン先617に圧力をかけたときの圧力変化を検出する。押圧検出部616は、検出した圧力変化を示す情報を検出結果送信部618に供給する。検出結果送信部618は、圧力変化を示す情報を入力検知部620に供給する。検出結果送信部618は、圧力変化を示す情報を、有線通信、または無線通信により入力検知部620に供給してよい。
入力検知部620は、デジタル入力部612から電子カルテ格納部330が格納している電子カルテに、観察者910による観察結果が入力されていることを検知する。また、入力検知部620は、筆記部614によって観察者910による観察結果がカルテに書き込まれていることを検知する。なお、筆記部614は、紙媒体のカルテに観察結果を書き込んでよい。また、筆記部614は、デジタルホワイトボード用のペン等であってもよい。筆記部614がデジタルホワイトボード用のペンである場合には、筆記部614によってデジタルホワイトボードを介して電子カルテに、観察結果を書き込むことができる。係る場合には、筆記部614によって書き込まれた観察結果は、観察結果格納制御部650に供給される。
画像格納制御部260は、入力検知部620が観察者910による観察結果が入力されていることを検知した場合に、撮像部200が撮像した被観察者915の画像を画像格納部320に格納する。具体的には、画像格納制御部260は、入力検知部620から観察結果入力部610によって観察者910による観察結果が入力されている旨の情報を受け取った場合に、撮像部200が撮像した被観察者915の画像を取得する。そして、画像格納制御部260は、画像格納部320に取得した被観察者915の画像を格納する。また、画像格納制御部260は、入力検知部620が観察者910による観察結果が入力されていることを検知した時刻から予め定められた時間遡った時刻から所定の時間に撮像部200が撮像した被観察者915の画像を画像格納部320に格納する。画像格納部320は、撮像部200が撮像した画像を、観察結果入力部610が入力した観察者910による観察結果を示す情報、観察者910が観察結果を入力した時刻に対応づけて格納する。なお、観察結果を示す情報は、病名、症状の名称、症状の進行状況、および症状の改善度合い等であってよい。画像格納部320は、観察結果情報入力部630および時刻入力部640の制御に基づいて、格納している画像を出力部50に供給する。
観察結果情報入力部630は、観察者910の観察結果を示す情報をユーザ917に入力させる。なお、ユーザ917は、観察者910、観察者910を除く他の観察者、および被観察者915等であってよい。例えば、観察者910が被観察者915のどのような表情から被観察者915の症状を判断したかをユーザ917が確認する場合に、観察者910が観察した症状の名称を、観察結果を示す情報として観察結果情報入力部630に入力する。観察結果情報入力部630は、ユーザ917が入力した症状の名称に対応づけて画像格納部320が格納している被観察者915の画像を出力部50に出力させる。時刻入力部640は、時刻をユーザ917に入力させる。例えば、ユーザ917が、被観察者915の過去の画像を観察した場合には、観察を所望する時刻を時刻入力部640から入力する。時刻入力部640は、ユーザ917が入力した時刻に対応づけて画像格納部320が格納している被観察者915の画像を出力部50に出力させる。
出力部50は、観察結果情報入力部630から入力された観察者910の観察結果を示す情報に対応づけて画像格納部320が格納している被観察者915の画像を出力する。また、出力部50は、時刻入力部640から入力された時刻に対応づけて画像格納部320が格納している被観察者915の画像を出力する。出力部50は、ディスプレイ等の表示装置であってよく、被観察者915の画像を時系列順に並べて表示してよい。また、出力部50は、被観察者915の画像を予め定められた時間間隔で、時系列の順に順次表示してもよい。
なお、出力部50はヘッドマウントディスプレイに備えられていてよい。出力部50がヘッドマウントディスプレイであった場合には、観察者910は、電子カルテまたはカルテに観察結果を入力等している間も、被観察者915の画像をヘッドマウントディスプレイに備えられた出力部50で確認できる。係る場合において、観察者910が電子カルテ等に観察結果を入力等するときに、出力部50は、観察結果の入力の妨げにならない位置に被観察者915の画像を表示してよい。例えば、ヘッドマウントディスプレイは観察者910の視線を検出する観察者視線検出部を備えていてよく、観察者視線検出部が検出した観察者910の視線に応じて、出力部50は表示する画像の位置を変化させてよい。また、観察者910が被観察者915の方向を向いている場合には、出力部50はヘッドマウントディスプレイに被観察者915の画像を表示させなくてもよい。更に、例えば、診察室の入口および出口に撮像部200を設置して、被観察者915の入室時および退室時の顔の表情を撮像してもよい。
本実施形態に係る画像記録装置10によれば、観察者910が被観察者915の観察結果を電子カルテまたはカルテに入力または書き込んでいるときに、観察者910の入力または書き込みのタイミングを検知して、そのときの被観察者915の画像を自動的に撮像できる。これにより、観察者910が電子カルテ等に観察結果を入力しているときに観察者910が被観察者915の表情を確認できなかった場合でも、被観察者915の表情の中で観察者910が実際には観察できなかった表情を確認できる。
また、本実施形態に係る画像記録装置10によれば、観察者910が被観察者915の観察結果を電子カルテに入力した時刻から予め定められた時間を遡ったときの被観察者915の画像を取得して、観察者910は、見逃した被観察者915の画像を時系列順に観察できる。これにより、観察者910は、被観察者915の観察に影響を与える被観察者915が含まれる画像を確実に観察できる。
図22は、本実施形態に係る筆記部614の一例を示す。筆記部614は、筐体615、押圧検出部616、ペン先617、および検出結果送信部618を含む。押圧検出部616は、ペン先617に圧力が加えられたときに、ペン先617に加えられた圧力を検出する。例えば、押圧検出部616は、観察者910が紙390に文字等を記載するときにペン先617に加えられた圧力を検出する。押圧検出部616は、検出した圧力を示す情報を検出結果送信部618に供給する。検出結果送信部618は、押圧検出部616が検出した圧力を示す情報を入力検知部620に供給する。検出結果送信部618は、入力検知部620と有線、または無線により相互に接続されていてよい。
図23は、本例の画像格納部320が格納するデータの一例を示す。本例では、観察結果が入力された時刻から3分間遡った時刻から、観察結果が入力された時刻までの間に、撮像部200によって撮像された動画を画像格納部320は格納している。尚、音声ユニット40が有する音声記録部400は、撮像部200が被観察者915を撮像しているときに、観察者の音声情報を記録する。ここで、音声情報とは、例えば観察者910が被観察者915を観察したときに取り交わされた会話である。視線情報入力部600は、音声情報として、音声データと、音声データの内容に関する情報とを被観察者915の画像に対応づけて格納する。この場合、観察結果入力部610は、音声データの内容に関する情報をキーワードまたはテキスト文として格納してよい。画像格納部320は、撮像部200が撮像した被観察者915の画像に、音声記録部が記録した観察者915の音声情報を更に対応づけて格納する。観察結果入力部610は、観察者910が被観察者915を観察した内容に関するキーワードをユーザに入力させ、出力部50は、観察者910の音声情報に対応づけて画像格納部320に格納されている被観察者915の画像を出力してもよい。
図24および図25は、本例における電子カルテ500を説明する為の図である。出力部50は、電子カルテ格納部330に格納された電子カルテを、出力部50が有する表示部に表示する。図24は、電子カルテ500のユーザインターフェースの一例を示す。本例の電子カルテ格納部330は、観察結果を、患者の体を模式的に示す画像504に対応づけて格納する。患者の体を模式的に示す画像504は、上半身、下半身、四肢、顔等、人間の体の一部を示す画像であってもよいし、人間の体全体を示す画像であってもよい。
電子カルテ格納部330は、体を模式的に示す画像504の所定の部位に対応づけて、疾患の有無を示す情報を格納する。電子カルテ500は、体を模式的に示す画像504の所定の部位に対応付けてチェックボックスを有しており、デジタル入力部612を用いて疾患の有無がチェックされる。図24における電子カルテ500は、複数のチェックボックス502を、患者の顔の各部位に対応づけて有する。これにより、観察者910は、観察結果を素早く電子カルテに入力できる。
尚、患者を示す画像504に代えて、撮像部200が撮像した被観察者915の実画像を用いてもよい。この場合、電子カルテ500は、撮像部200が撮像した被観察者915の実画像の所定の部位に対応づけてチェックボックスを有する。或いは電子カルテ500は、撮像部200が撮像する被観察者915の画像の少なくとも一部の領域に対応づけてチェックボックスを有してもよい。ここで、被観察者915の画像の少なくとも一部の領域とは、患者の体の所定の部位を示す領域であってよく、具体的には、被観察者915の顔、目、口、または鼻の各領域である。図25に被観察者915の実画像が電子カルテに用いられた例を示す。
デジタル入力部612からの入力にもとづいてチェックボックスがチェックされると、画像格納部320は、チェックボックスに対応づけられた被観察者915の画像を、観察結果を示す情報と共に格納する。このように本例の画像格納部320は、デジタル入力部612からの入力に基づいて、撮像部200が撮像した被観察者915の画像の少なくとも一部の領域を、観察結果を示す情報と対応づけて格納する。尚、チェックボックスがチェックされることにより観察結果が入力されると、入力検知部620が観察結果の入力を検知した時刻から、予め遡った時刻から所定の時間に撮像部200が撮像した被観察者915の画像の一部を、画像格納部320は格納する。出力部50は、画像格納部320が格納している被観察者915の画像の少なくとも一部を、拡大して表示してもよい。或いは、出力部50は、画像格納部320が格納している被観察者915の画像の少なくとも一部を、電子カルテ内に時系列に並べて表示してもよい。
このように、本例の電子カルテ500では、実際の被観察者915の画像を使用するので、症状の変化を的確に理解できる。また被観察者の画像の一部を用いるので、被観察者915のプライバシーを守ることができる。
図26は、本実施形態に係る撮像ユニット20の第5実施例の機能構成の一例を示す。撮像ユニット20は、撮像部200、観察者視点測定部210、被観察者位置測定部212、被観察者視点測定部214、観察者視点判断部250、画像格納制御部260、観察者位置測定部270、および視線一致判断部280を有する。以下、本例の画像記録装置10が医療の分野で用いられた場合を例に、説明する。本例の画像記録装置10は、観察者910が被観察者915を観察しているときの被観察者915の身体状況を定量化して記録することにより、新たに観察する観察対象者が患っている可能性のある疾患を示す情報を出力することを目的とする。また、更には、疾患名に対応する画像を生成することで、観察を補助することを目的とする。
ここで、例えば、撮像部200が全方位カメラである場合には、撮像部200は、観察者910の視点検出用の撮像部202、観察者910が存在する範囲を測定する為の撮像部208、被観察者915の視点検出用の撮像部204、および被観察者915が存在する範囲を測定する為の撮像部206の機能を含んでいてもよい。また、撮像ユニット20は、撮像部200の代わりに、観察者910の視線方向検出用の撮像部202、観察者910が存在する範囲の測定用の撮像部208、被観察者915の視線方向検出用の撮像部204、および被観察者915が存在する範囲の測定用の撮像部206を有していてもよい。
図27は、本実施形態に係る入力ユニット60の第4実施例の機能構成の一例を示す。本例の入力ユニット60は、画像入力部602、疾患情報入力部604、観察結果入力部610、および観察結果格納制御部650を有する。更に、図28は、本実施形態に係る解析ユニット70の第2実施例の機能構成の一例を示す。解析ユニット70は、観察者視点位置判断部705、画像抽出部710、身体状況数値化部715、身体状況データ格納部720、身体状況算出部725、身体状況数値化データ抽出部730、身体状況比較部735、疾患可能性算出部740、疾患画像生成部745、予測疾患出力制御部750、および画像出力制御部755を有する。なお、本例の画像記録装置10は、図1から図11を用いて説明した画像記録装置10を構成する各ユニットの機能および構成の一部、または全部を更に備えてもよい。また、図1から図11の説明において説明した部材と同一の符号が付された部材については、略同一の機能を有するので詳細な説明は省略する。
撮像部200は被観察者915を撮像する。また、撮像部200は、被観察者915の動画を撮像してもよい。撮像部200は撮像した画像を画像格納制御部260の制御に基づいて、画像格納制御部260に画像を供給する。また、撮像部200は、被観察者915の視点測定用の画像を被観察者視点測定部214に、被観察者915が存在する位置を測定する為の画像を被観察者位置測定部212に供給する。更に、撮像部200は、観察者910の視点測定用の画像を観察者視点測定部210に、観察者910が存在する位置を測定する為の画像を観察者位置測定部270に供給する。観察者視点測定部210は、撮像部200が被観察者915を撮像しているときに、観察者910の視点を測定する。観察者視点測定部210は、測定した視点を観察者視点判断部250および視線一致判断部280に供給する。
被観察者視点測定部214は、撮像部200が被観察者915を撮像しているときに、被観察者915の視点を測定する。被観察者視点測定部214は、測定した視点を、観察者視点判断部250および視線一致判断部280に供給する。観察者位置測定部270は、予め定められる撮像部200の撮像範囲内に存在する観察者910の位置を測定する。観察者位置測定部270は、測定した観察者910の位置を示す情報を観察者視点判断部250および視線一致判断部280に供給する。被観察者位置測定部212は、被観察者915が撮像範囲内で存在する位置を測定する。被観察者位置測定部212は、測定した被観察者915の位置を示す情報を観察者視点判断部250および視線一致判断部280に供給する。
観察者視点判断部250は、観察者視点測定部210から受け取った観察者910の視点が予め定められた範囲内にあるか否かを判断する。予め定められた範囲とは、被観察者915の領域の範囲、被観察者915の目の領域を示す範囲等であってよい。具体的には、観察者視点判断部250は、観察者視点測定部210、観察者位置測定部270、被観察者視点測定部214、および被観察者位置測定部212から受け取った測定結果に基づいて、観察者910の視点が予め定められた範囲内にあるか否かを判断する。観察者視点判断部250は、観察者視点測定部210が測定した、観察者910の視点を示す情報と、観察者910の視点が予め定められた範囲内にある旨を示す情報、または観察者910の視点が予め定められた範囲内にない旨を示す情報とを、画像格納部320に供給する。
視線一致判断部280は、被観察者視点測定部214が測定した被観察者915の視点、および観察者視点測定部210が測定した観察者910の視点に基づいて、被観察者915と観察者910との視線が一致しているか否かを判断する。具体的には、視線一致判断部280は、被観察者位置測定部212および観察者視点測定部210から特定される観察者910の視点が、被観察者915の目の領域にあるか否かを判断する。例えば、視線一致判断部280は、観察者910の視点を示す座標が、複数の座標で特定される被観察者915の目の領域の中にあるか否かを判断する。同様にして、視線一致判断部280は、観察者位置測定部270および被観察者視点測定部214から特定される被観察者915の視点が、観察者910の目の領域にあるか否かを判断する。続いて、視線一致判断部280は、観察者910の視点が被観察者915の目の領域にあり、かつ、被観察者915の視点が観察者910の目の領域にある場合に、観察者910と被観察者915との視線が一致していると判断する。視線一致判断部280は、判断結果を画像格納制御部260に供給する。この場合、視線一致判断部280は、被観察者視点位置情報として、判断結果を画像格納制御部260へ供給してよい。
画像格納制御部260は、撮像部200から被観察者915の画像を取得して画像格納部320に供給する。また、画像格納制御部260は、視線一致判断部280から受け取った判断結果を画像格納部320に供給する。観察結果入力部610は、観察者910による被観察者915の観察結果を入力する。尚、観察結果とは、疾患であってよい。観察結果入力部610が入力する疾患は、例えば疾患の名称である。また、観察結果入力部610は、観察者910が観察した疾患の症状を示す情報を入力してもよい。更に、観察結果入力部610は、観察者910が被観察者915に疾患がないと判断した場合に、観察者910による被観察者915の観察結果として疾患がない旨を入力する。観察結果入力部610は、入力された疾患を観察結果格納制御部650に供給する。観察結果格納制御部650は、観察結果入力部610が入力した疾患を画像格納部320に供給する。
画像入力部602は、観察対象者の画像を入力する。画像入力部602は、撮像部200が撮像した被観察者915の画像を入力してもよい。ここで、観察対象者とは、観察者910が新たに観察をする人物である被観察者915のことであってよい。一方、被観察者915は既に観察者910によって観察された人物であり、画像格納部320が格納している画像に既に含まれている人物を指してよい。また、画像入力部602は、疾患がないときの観察対象者の画像、および新たに観察者910が被観察者915を観察中に撮像部200が取得した観察対象者の画像を入力してもよい。画像入力部602は入力した観察対象者の画像を、身体状況算出部725に供給する。疾患情報入力部604は、疾患を示す情報を入力する。具体的には、疾患情報入力部604は、観察者910に被観察者915の疾患を示す情報を入力させる。疾患情報入力部604は、入力した被観察者915の疾患を示す情報を身体状況数値化データ抽出部730に供給する。
画像格納部320は、撮像部200が撮像した被観察者915の画像に対応づけて、観察結果入力部610から受け取った疾患、および観察者視点測定部210が測定した観察者910の視点を示す情報である観察者視点位置情報を格納する。なお、観察者視点位置情報は、被観察者視点位置情報である視線一致判断部280の判断結果、および観察者910が被観察者915を見ているか否かを示す情報であってもよい。また、画像格納部320は、撮像部200が撮像した被観察者915の画像に対応づけて、観察結果入力部610が入力した疾患がない旨を示す情報を更に格納する。画像格納部320は、観察者視点位置情報を、観察者視点位置判断部705に供給する。また、画像格納部320は、被観察者915の画像を画像抽出部710および身体状況数値化部715に供給する。
観察者視点位置判断部705は、画像格納部320が格納している観察者視点位置情報に基づいて、観察者視点位置情報に対応づけて画像格納部320が格納している被観察者915の画像が撮像されたときに観察者910被観察者915を見ていたか否かを判断する。具体的には、観察者視点位置判断部705は、観察者視点位置情報が示す観察者910の視点が被観察者915の範囲内にある場合に、観察者910が被観察者915を見ていたと判断してよい。観察者視点位置判断部705は、観察者910が被観察者915を見ていたと判断したときの観察者視点位置情報を画像抽出部710に供給する。また、観察者視点位置判断部705は、視線一致判断部280が被観察者915と観察者910との視線が一致していると判断した結果を示す観察者視点位置情報を画像格納部320から受け取った場合には、当該観察者視点位置情報を画像抽出部710に供給する。
画像抽出部710は、観察者視点位置判断部705から受け取った観察者視点位置情報に対応づけて画像格納部320が格納している被観察者915の画像を抽出する。画像抽出部710は、観察者視点位置情報に対応づけて画像格納部320が格納している被観察者915の画像を、複数抽出してよい。具体的には、画像抽出部710は、観察者視点位置情報に対応づけて画像格納部320が格納している被観察者915の画像が撮像された時刻から予め定められた時間遡ったときの被観察者915の画像、および予め定められた時間後の被観察者915の画像を抽出する。例えば、画像抽出部710は、観察者視点位置情報に対応づけられている被観察者915の画像が撮像された時刻を中心として、予め定められた時間内に撮像された複数の被観察者915の画像を抽出してよい。画像抽出部710は、抽出した画像を身体状況数値化部715に供給する。
身体状況数値化部715は画像抽出部710から受け取った被観察者915の画像に対応づけて画像格納部320が格納している疾患ごとに、画像抽出部710が抽出した複数の被観察者915の画像を解析する。そして、身体状況数値化部715は、被観察者915の身体状況を数値化する。ここで、被観察者915の身体状況とは、例えば、被観察者915の瞳孔の大きさ、視点、予め定められた時間内における瞬きの回数、瞼または顔の痙攣、顔の色、顔の温度、頬のたるみ、顔の腫れ、および皮膚の状態(発疹の有無等)等であってよい。具体的には、身体状況数値化部715は、観察者910が被観察者915を観察しているときの身体状況の変化量を、予め定められた時間内で撮像された複数の被観察者915の画像を比較することにより数値化する。そして、身体状況数値化部715は、観察者910が複数の被観察者を見ているときの被観察者の身体状況の変化量を被観察者ごとに数値化して、数値化した身体状況の変化量の平均値を算出する。
例えば、画像抽出部710は、観察者910が被観察者915の目の領域を見ていると観察者視点位置判断部705が判断したときに撮像された被観察者915の画像と、当該画像が撮像された時刻から予め定められた時間経過後に撮像された被観察者915の画像とを抽出する。そして、身体状況数値化部715は、画像抽出部710が抽出した画像に含まれる被観察者915の瞳孔の大きさをそれぞれ比較して、瞳孔の大きさの変化量を算出する。続いて、身体状況数値化部715は、算出した瞳孔の大きさの変化量を数値化する。例えば、身体状況数値化部715は、観察者910が被観察者915の目の領域を見た時刻における被観察者915の瞳孔の大きさを基準として、予め定められた時間経過後の被観察者915の瞳孔の大きさへの変化率を算出して、算出した変化率を瞳孔の大きさの変化量としてよい。そして、身体状況数値化部715は、複数の被観察者について算出した変化量の平均値を算出する。また、身体状況数値化部715は、被観察者915の視点の位置の変化量、および瞬きの回数の変化量等を数値化してもよい。
更に、身体状況数値化部715は、画像抽出部710が抽出した被観察者915の画像に対応づけて画像格納部320が格納している疾患ごとに、当該疾患に対応づけて画像格納部320が格納している被観察者915の画像を、当該疾患がない旨を示す情報に対応づけて画像格納部320が格納している被観察者915の画像と比較する。そして、身体状況数値化部715は、比較した結果から被観察者915の身体状況の変化量を数値化して、身体状況変化数値化データを算出してもよい。身体状況数値化部715は、被観察者915に疾患があるときと疾患がないときとの身体状況の瞳孔の大きさの変化量を数値化して、身体状況変化数値化データとしてもよい。
また、身体状況数値化部715は、疾患があるときと疾患がないときとの被観察者915の瞳孔の大きさをそれぞれ比較して、瞳孔の大きさの変化量を数値化してもよい。更に、身体状況数値化部715は、疾患があるときと疾患がないときとの被観察者915の視点の位置の変化量の差分を数値化してもよい。また、身体状況数値化部715は、疾患があるときと疾患がないときとの被観察者915の瞬きの回数の差分を数値化してもよい。そして、身体状況数値化部715は、複数の被観察者の身体状況を数値化して、数値化したデータの合計値から平均値を算出する。身体状況数値化部715は、算出した平均値を身体状況数値化データとしてよい。身体状況数値化部715は、数値化した身体状況数値化データ、および身体状況変化数値化データを身体状況データ格納部720に供給する。
身体状況データ格納部720は、身体状況数値化部715から受け取った身体状況数値化データを疾患ごとに格納する。身体状況データ格納部720は、身体状況数値化データ抽出部730、身体状況数値化データを身体状況比較部735、および予測疾患出力制御部750に供給する。身体状況算出部725は、画像入力部602から受け取った観察対象者の画像を解析して、観察対象者の身体状況を算出して数値化する。具体的には、身体状況算出部725は、観察対象者の身体状況を数値化する。また、身体状況算出部725は、画像入力部602から受け取った観察対象者の疾患がないときの画像、および新たに取得された画像を解析して観察対象者の身体状況に変化を算出する、身体状況変化算出部の機能も有していてよい。
具体的には、身体状況算出部725は、観察対象者の画像に含まれる観察対象者の身体状況を画像入力部602から受け取った複数の観察対象者の画像を解析して身体状況を数値化する。より具体的には、身体状況算出部725は、予め定められた時間内で撮像された観察対象者の画像を時系列順にそれぞれ比較して、身体状況を数値化してよい。例えば、身体状況算出部725は、身体状況として所定の時間内における観察対象者の瞬きの回数を算出して、算出した回数を身体状況として数値化した値としてよい。身体状況算出部725は、数値化した観察対象者の身体状況を示す情報を身体状況比較部735に供給する。
身体状況比較部735は、身体状況算出部725から受け取った観察対象者の身体状況を示す情報を、身体状況データ格納部720が格納している身体状況数値化データと比較する。身体状況比較部735は、比較結果を一致度として算出してよい。具体的には、身体状況比較部735は、身体状況算出部725から受け取った数値化された身体状況を示す情報と、身体状況データ格納部720が格納している身体状況数値化データとを比較する。例えば、身体状況比較部735は、身体状況算出部725から受け取った数値化された身体状況を示す情報と、身体状況データ格納部720が格納している身体状況数値化データとが一致する場合を一致度が最大であるとして一致度を算出してよい。また、身体状況比較部735は、身体状況算出部725が算出した観察対象者の身体状況の変化を、身体状況データ格納部720が格納している身体状況変化数値化データと比較する身体状況変化比較部の機能も有していてもよい。身体状況比較部735は、比較結果を疾患可能性算出部740および予測疾患出力制御部750に供給する。
疾患可能性算出部740は、身体状況比較部735の比較結果が示す一致度に応じて、疾患ごとの可能性を算出する。具体的には、疾患可能性算出部740は、身体状況比較部735の比較結果が最大の一致度を示す疾患を、観察対象者が患っている疾患として最も可能性が高いと判断する。例えば、疾患可能性算出部740は、最も可能性が高い疾患を確率100%等と算出する。また、疾患可能性算出部740は、身体状況比較部735の比較結果が、予め定められた一致度以上を示す複数の疾患を、観察対象者が患っている疾患として可能性があるとして算出してもよい。疾患可能性算出部740は、算出した疾患の可能性を予測疾患出力制御部750に供給する。予測疾患出力制御部750は、身体状況比較部735の比較結果が予め定められた一致度以上の身体状況数値化データに対応づけて身体状況データ格納部720が格納している疾患を示す情報を、出力部50に出力させる。
身体状況数値化データ抽出部730は、疾患情報入力部604が入力した疾患を示す情報に対応づけて身体状況データ格納部720が格納している身体状況数値化データを抽出する。身体状況数値化データ抽出部730は、抽出した身体状況数値化データを疾患画像生成部745に供給する。疾患画像生成部745は、身体状況数値化データ抽出部730から受け取った身体状況数値化データに基づいて、疾患情報入力部604が入力した情報が示す疾患患者の画像を生成する。具体的には、疾患画像生成部745は、複数の疾患ごとに、疾患を有する患者に特有のテンプレート画像を格納している疾患テンプレート画像格納部を有していてよい。疾患テンプレート格納部は、複数の疾患のそれぞれに対応づけて、疾患患者のテンプレート画像を格納する。疾患テンプレート画像格納部が格納するテンプレート画像は、疾患患者の静止画および疾患患者の動画構成画像であってよい。
まず、疾患画像生成部745は、疾患情報入力部604が入力した情報が示す疾患に対応づけて疾患テンプレート画像格納部が有しているテンプレート画像を抽出する。続いて、疾患画像生成部745は、身体状況数値化データ抽出部730から受け取った身体状況数値化データから示される身体状況および抽出したテンプレート画像から疾患患者の画像を生成する。なお、疾患画像生成部745は、疾患患者の動画を生成してもよい。例えば、所定の疾患において、疾患患者が示す身体状況が予め定められた時間内における視点の位置の変化量である場合には、疾患画像生成部745は、テンプレート画像および身体状況数値化データから示される視点の位置の変化量から、視線を移動させる疾患患者の動画を生成する。画像出力制御部755は、疾患画像生成部745が生成した画像を出力部50に出力させる。
プライバシー上の問題から、疾患を有する被撮像者917の画像をデータとして記録できない場合があるが、本例では、疾患そのもの画像を記録に残さなくても、身体状況算出部725が算出した身体状況数値化データと、予め準備されたテンプレート画像とに基づいて、疾患の画像を生成することができる。
出力部50は、予測疾患出力制御部750の制御に基づいて、身体状況比較部735の比較結果が予め定められた一致度以上の身体状況数値化データに対応づけて身体状況データ格納部720が格納している疾患を示す情報を出力する。例えば、身体状況比較部735が身体状況として視点の位置の変化量を、視点の位置の変化量を示す身体状況数値化データと比較した結果、観察対象者が患っている疾患として最も可能性が高い疾患名を、出力部50は出力する。また、出力部50は、疾患可能性算出部740が算出した複数の疾患のそれぞれの可能性を、複数の疾患を示す情報と共に出力してもよい。具体的には、出力部50は、複数の疾患の可能性が高い順に、疾患の名称、および疾患の症状等を出力する。更に出力部50は、画像出力制御部755から受け取った、疾患画像生成部745が生成した画像を出力する。また、出力部50は、身体状況変化比較部の比較結果が予め定められた一致度以上の身体状況変化数値化データに対応づけて身体状況データ格納部720が格納している疾患を示す情報を出力してもよい。
本実施形態に係る画像記録装置10によれば、観察者910が被観察者915を観察しているときの被観察者915の身体状況を定量化して記録する。そして、定量化して記録した身体状況と、新たに観察した観察対象者の身体状況とを比較して、観察対象者が患っている可能性のある疾患を示す情報を出力できる。これにより、観察者910が被観察者915を観察する場合において、適切な疾患の特定を補助できる。
また、本実施形態に係る画像記録装置10によれば、疾患名を入力すると、被観察者915の画像または観察対象者の画像から被観察者915または観察対象者の身体状況を数値化した身体状況数値化データに基づいて、当該疾患名に対応する疾患を有する疾患患者の画像を生成できるので、ユーザは、生成された画像と被観察者915または観察対象者とを見比べることにより、被観察者915の疾患について観察する学習をすることができる。
尚、本例の画像記録装置10は観察者視点位置判断部705を備えているが、他の例では、観察者視点位置判断部705を備えず、観察者視点判断部250が観察者視点位置判断部705の機能を備えても良い。この場合には、観察者視点判断部250が、被観察者の画像が撮像されたときに観察者が被観察者を見ていたか否かを判断し、観察者視点判断部250によって観察者が被観察者を見ていたと判断された被観察者の画像を画像抽出部が抽出する。
図29は、本実施形態に係る身体状況算出部725の機能の一例を示す。なお、身体状況算出部725は、身体状況算出部725は、画像入力部602から受け取った観察対象者の疾患がないときの画像と新たに取得された観察対象者の画像とを比較して、観察対象者の身体状況の変化を算出する、身体状況変化算出部の機能も有していてよい。
まず、身体状況算出部725は、画像入力部602から受け取った観察対象者の画像を解析する。例えば、グラフ1000に示すように、身体状況算出部725は、予め定められた時間内、すなわち、時刻t0から時刻t30で規定される時間内において撮像された画像に含まれる観察対象者の瞳孔の大きさをそれぞれ解析する。例えば、身体状況算出部725は、時刻t0のときの観察対象者の瞳孔1010の瞳孔径、時刻t10のときの瞳孔1020の瞳孔径、時刻t20のときの瞳孔1030の瞳孔径、および時刻t30のときの瞳孔1040の瞳孔径をそれぞれ解析して特定する。そして、身体状況算出部725は、時刻t0のときの瞳孔径を基準として、時刻t10、時刻t20、および時刻t30のときの瞳孔径の変化量をそれぞれ算出して、算出した変化量をそれぞれ合計する。続いて、身体状況算出部725は、算出した合計値を観察対象者の身体状況としてよい。
図30は、本実施形態に係る身体状況データ格納部720のデータ構造の一例を示す。身体状況データ格納部720は、複数の疾患のそれぞれに対応づけて身体状況数値化データを格納する。身体状況数値化データは、被観察者915の瞳孔の大きさの変化量、視点の位置の変化量、予め定められた時間内における瞬きの回数の変化量、および瞼または顔の痙攣の変化量等をそれぞれ数値化したデータであってよい。例えば、身体状況データ格納部720は、複数の疾患のそれぞれに対応づけて、被観察者915の目の動きのうち、視点の位置の変化量を示す視線データ、瞳孔の大きさの変化量を示す瞳孔データ、および瞬きの回数の変化量を示す瞬きデータ等を格納する。身体状況データ格納部720は、身体状況数値化部715が数値化した身体状況数値化データを疾患ごとに格納してよい。例えば、身体状況データ格納部720は、疾患780に対応づけて視線データ、動向データ、および瞬きデータにそれぞれ身体状況数値化データを格納する。
ここで、疾患780においては、視線データ、瞬きデータ、瞳孔データの順に身体状況数値化データが小さくなっている。したがって、疾患780においては視線データに着目して被観察者915を観察することができることとなる。また、身体状況データ格納部720の視線データだけに着目すると、疾患780、疾患782、疾患784の順に身体状況数値化データが小さくなっている。したがって、身体状況比較部735は、視点の位置の変化量を数値化した身体状況数値化データと、身体状況データ格納部720が格納している視線データの身体状況数値化データとを比較して、いずれの疾患に最も一致しているか否かを判断できる。例えば、身体状況比較部735は、身体状況データ格納部720が格納している複数の視線データの身体状況数値化データのそれぞれを、身体状況比較部735から受け取った視線データの身体状況数値化データで除して、疾患可能性を算出する。そして、身体状況比較部735は、算出した疾患可能性が最も大きな値となる疾患に対応する疾患名を、予測疾患出力制御部750に供給する。そして、予測疾患出力制御部750は、出力部50に、受け取った疾患名を出力する。
尚、本発明に係る画像記録装置10は、医療分野における観察だけではなく、例えば美容やスポーツにおいても利用することができる。この場合、疾患とは、病気を意味する言葉よりも広い意味で用いられる。例えば、本発明の画像記録装置10を美容関係に利用した場合、疾患とは、しわや肌荒れ等のユーザにとって好ましくない観察結果を含む。また、スポーツ関係に利用した場合、疾患とは、各種スポーツにおける正しいフォームからのみだれや悪い癖を含む。
本発明に係る画像記録装置10が、美容の分野で用いられる場合、画像格納部320は、加齢に応じて変化した身体各部の部分画像を格納する。身体状況数値化部715は、例えば「しわ」「しみ」「肌荒れ」などの疾患が有する特徴量を画像処理を用いて算出することで、疾患の種類を特定する。また身体状況数値化部715は、「しわ」「しみ」「肌荒れ」などの疾患が示す加齢の程度を数値化する。観察結果入力部610は「しわがある」や「肌が荒れている」等の、被観察者に対する美容についての観察結果を疾患として入力する。身体状況算出部725は、入力された観察対象の画像を、身体状況数値化部715と同様の手法で数値化し、身体状況比較部735は、数値化された観察対象者のデータを、身体状況データ格納部720が格納しているデータと比較することで、被観察者のしわや肌荒れの程度を判断する。
また疾患画像生成部745は、加齢に応じて変化した身体各部の部分画像を、テンプレート画像として予め格納してよい。例えば、疾患画像生成部745は、「10代の女性の目じりの画像」「20代の女性の目じりの画像」や、「10代の女性の肌の画像」「40代の女性の肌の画像」等を予め格納している。身体状況算出部725は、入力された観察対象の画像から、疾患に関する特徴量を算出し、疾患画像生成部745が有するテンプレート画像を変化させることで、出力部50は、将来、予測される被観察者の疾患を表示してもよい。これにより、出力部50は、治療を行わなかった場合の、5年後のしわの画像を表示する。このように、画像記録装置10を美容の分野に用いることで、患者の症状の特定に利用できる。
本発明に係る画像記録装置10が、スポーツの分野で用いられる場合、画像格納部320は、スポーツの上達に応じたフォームの動画像を格納する。例えば、野球のバッティングフォームを例に説明すると、身体状況数値化部715は、「手打ち」「あごがあがっている」「ボールを見ていない」等の、悪いフォームが有する特徴量を、画像処理を用いて算出することで、フォームの癖を特定する。また身体状況数値化部715は、フォームの癖が示す程度を数値化してもよい。観察結果入力部610は「手打ち」「あごがあがっている」「ボールを見ていない」等の、被観察者に対する観察結果を疾患として入力する。身体状況算出部725は、入力された観察対象の動画像を、身体状況数値化部715と同様の手法で数値化し、身体状況比較部735は、数値化された観察対象者のデータを、身体状況データ格納部720が格納しているデータと比較することで、被観察者におけるフォームの癖の程度を判断する。このように、本例の画像記録装置10をスポーツの分野に用いることにより、選手の癖の特定に利用できる。
図31は、本実施形態に係る画像記録装置10のハードウェア構成の一例を示す。本実施形態に係る画像記録装置10は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有するレガシー入出力部とを備える。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、画像記録装置10内のCPU1505が使用するプログラムおよびデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像記録装置10が起動時に実行するブート・プログラム、画像記録装置10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
RAM1520を介してハードディスクドライブ1540に提供される画像記録プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。画像記録プログラムは、記録媒体から読み出され、RAM1520を介して画像記録装置10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。画像記録装置10にインストールされて実行される画像記録プログラムは、CPU1505等に働きかけて、画像記録装置10を、図1から図30にかけて説明した撮像ユニット20、格納ユニット30、音声ユニット40、出力部50、入力ユニット60、解析ユニット70、およびこれらのユニットが有する各部材として機能させる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加え得ることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。