JP2006217655A - 撮影装置 - Google Patents

撮影装置 Download PDF

Info

Publication number
JP2006217655A
JP2006217655A JP2006102346A JP2006102346A JP2006217655A JP 2006217655 A JP2006217655 A JP 2006217655A JP 2006102346 A JP2006102346 A JP 2006102346A JP 2006102346 A JP2006102346 A JP 2006102346A JP 2006217655 A JP2006217655 A JP 2006217655A
Authority
JP
Japan
Prior art keywords
image
photographed
photographing
unit
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006102346A
Other languages
English (en)
Other versions
JP4481951B2 (ja
Inventor
Mitsuaki Fukuda
充昭 福田
Toshio Endo
利生 遠藤
Takahiro Aoki
隆浩 青木
Masanori Watanabe
正規 渡辺
Takayuki Sugiura
隆之 杉浦
Naoyuki Fujimoto
尚之 藤本
Seiji Chinzei
清司 鎮西
Mieko Nakano
三枝子 仲埜
Satoshi Fukui
智 福井
Atsushi Miki
敦司 三木
Shuji Kimura
修治 木村
Mitsuhiro Goto
光宏 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Priority to JP2006102346A priority Critical patent/JP4481951B2/ja
Publication of JP2006217655A publication Critical patent/JP2006217655A/ja
Application granted granted Critical
Publication of JP4481951B2 publication Critical patent/JP4481951B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影装置で物体を撮影することにより得られる画像を利用してその物体を識別する際の識別精度を向上させる。
【解決手段】物体判別部31は、撮影部11により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判断する。撮影対象の物体の画像を含む画像は、物体画像記憶部32に格納される。撮影対象の物体の画像を含まない画像は、背景画像記憶部33に格納される。撮影画像出力制御部35は、物体画像および背景画像に基づいて撮影対象の物体の画像を切り出し、その切り出した画像を出力する。
【選択図】図11

Description

本発明は、物体を撮影する撮影装置に係わり、特に、被撮影物体を適切な位置または状態に誘導する機能を備えた撮影装置に係わる。
撮影装置を用いて物体を撮影し、その撮影により得られた画像を利用してその物体を識別する技術は知られている。(例えば、特許文献1参照。)
特許文献1に記載のシステムは、カメラおよびそのカメラで撮影した画像を表示する表示装置を備える。そして、表示装置には、カメラにより撮影された撮影対象物の画像、および撮影対象物が適切な位置に配置された状態で撮影されたならば得られるであろう画像の輪郭(基準輪郭)を、重ね合わせて表示する。これにより、ユーザは、撮影対象物の位置を修正することができ、適切な位置に配置された状態でその撮影対象物の画像を得ることができる。
また、カメラを用いて撮影された物体の画像をもとにその物体を所定の位置に誘導する技術も知られている。(例えば、特許文献2参照。)
ただし、特許文献2に記載のシステムは、駐車場等に設けられ、撮影された画像から自動車が検出されたときに、メッセージの表示やランプの点滅等を利用して、その自動車を所定の経路に沿って目的地に誘導するものである。即ち、このシステムは、最適な撮影を行える位置に被撮影物体を誘導するものではない。
特開2001−273498号公報(図12〜図14、段落0070〜0073参照) 特開昭64−55674号公報(第2ページ)
特許文献1に記載の方法では、ユーザが、表示装置に表示された基準輪郭を見ながら撮影対象物の位置を修正することになる。すなわち、この方法では、基準輪郭および撮影画像を表示するための表示装置が必須要件となる。
また、この方法では、ユーザは、撮影対象物を撮影のための適切な位置に移動させることは可能であるが、その物体が撮影のために好適な姿勢になっているか否かを確認することはできない。ここで、「姿勢」とは、その物体のカメラに対する角度または傾きを含む概念である。
本発明の目的は、撮影装置で物体を撮影することにより得られる画像を利用してその物体を識別する際の識別精度を向上させることである。
本発明の撮影装置は、物体を撮影する撮影手段と、上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段と、上記物体画像および背景画像に基づいて上記物体の画像を切り出し、その切り出した画像を出力する画像出力手段、を有する。
撮影対象の物体の良好な画像を得るためには、その物体の画像を含む画像(物体画像)およびその物体の画像を含まない画像(背景画像)を用意し、それらの画像を利用して切出し処理を行う手法が有効である。そして、本発明によれば、物体画像および背景画像を取得できる。
本発明の他の態様の撮影装置は、撮影手段と物体との間の距離を測定する測定手段を備える。そして、物体判別手段は、上記測定手段による測定結果に基づいて、上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する。この構成においても、同様に、物体画像および背景画像を取得できる。
なお、本発明の撮影装置は、上記物体画像記憶手段に上記物体画像が記憶されていない場合には、上記撮影手段によって上記物体を含む画像が撮影されるようにその物体を誘導し、上記背景画像記憶手段に上記背景画像が記憶されていない場合には、上記撮影手段によって上記物体を含まない画像が撮影されるようにその物体を誘導する誘導指示出力手段をさらに有するようにしてもよい。この構成によれば、物体画像および背景画像を容易にまたは確実に取得できる。
本発明によれば、撮影対象の物体の画像を含む画像およびその物体の画像を含まない画像を取得できるので、その物体を識別するための良好な画像が得られる。したがって、物体を識別する精度が向上する。
図1は、本発明に係わる撮影装置が使用されるシステムの一実施例の構成図である。このシステムは、物体を撮影する撮影装置1、1または複数の物体の画像データが登録されるデータベース2、撮影装置1により撮影された画像とデータベース2に登録されている各画像とを比較することにより、撮影装置1により撮影された物体を識別する(あるいは、撮影装置1により撮影された物体がデータベース2に登録されているか否かを判別する)識別装置3を備える。
このシステムにおいて識別精度を向上させるためには、物体を撮影する際に、その物体が適切な位置に適切な姿勢で配置されている必要がある。従って、本発明に係わる撮影装置は、撮影対象の物体を適切な位置および姿勢に誘導する機能を備えている。そして、このシステムのユーザは、上記誘導に従って物体を移動させたり、あるいはその物体を回転させたりすることができる。なお、「物体の姿勢」とは、その物体のカメラに対する角度または傾きを含む概念である。
図2は、第1の実施形態の撮影装置の構成図である。第1の実施形態の撮影装置10は、撮影部11、撮影画像記憶部12、目標撮影状態記憶部13、誘導方向判定部14、誘導方向指示出力部15、および撮影画像出力制御部16を備える。
撮影部11は、カメラであり、撮影した画像の画像データを出力する。なお、この画像データは、特に限定されるものではないが、例えば、ビットマップ形式のデジタルデータである。撮影画像記憶部12は、撮影部11から出力される画像データを記憶する。
目標撮影状態記憶部13は、被撮影物体の目標撮影状態を表す目標撮影状態情報を記憶する。ここで、目標撮影状態情報は、撮影時に被撮影物体を配置すべき目標位置を表す情報を含む。なお、目標位置とは、被撮影物体がその位置に配置された状態で撮影されたならばその物体の特徴を十分に検出できるような位置をいう。この場合、目標撮影状態情報は、被撮影物体またはそれと同等な物体を目標位置に配置させた状態で撮影することによって予め得られる画像データであってもよい。
誘導方向判定部14は、目標撮影状態情報を参照し、撮影部11により撮影された被撮影物体が適切な位置に配置されているか否かを判定すると共に、被撮影物体が適切な位置に配置されていない場合には、被撮影物体をどの方向に誘導すべきか、を判定する。なお、誘導方向判定部14は、撮影画像記憶部12に記憶されている画像データを解析してその特徴を抽出する特徴抽出部17を備え、特徴抽出部17の出力に基づいて被撮影物体を認識できるものとする。
誘導方向指示出力部15は、誘導方向判定部14による判定結果をユーザに通知する。すなわち、被撮影物体が適切な位置に配置されていた場合には、その旨をユーザに通知する。一方、被撮影物体が適切な位置に配置されていなかった場合には、被撮影物体を移動すべき方向をユーザに提示する。これにより、ユーザは、被撮影物体を撮影のための適切な位置に配置することができる。
撮影画像出力制御部16は、撮影画像記憶部12に記憶されている画像データを出力する。ここで、この画像データは、例えば、図1に示す識別装置3に送られる。なお、撮影画像出力制御部16は、誘導方向判定部14によって被撮影物体が適切な位置に配置されていると判定された場合にのみ、撮影画像記憶部12に記憶されている画像データを出力するようにしてもよい。即ち、被撮影物体が適切な位置に配置されていると判定された場合には、その状態で撮影されたときの画像は、被撮影物体を識別するために十分に良好な画像であると見込まれるので、その場合に限ってその画像データが識別装置3に送られるようにすれば、識別精度の向上が図れる。
次に、図3〜図5を参照しながら、第1の実施形態の撮影装置10の動作を説明する。なお、ここでは、目標撮影状態記憶部13には、目標撮影状態情報として、被撮影物体またはそれと同等な物体を目標位置に配置させた状態で撮影することによって得られた目標画像が予め記憶されているものとする。
図3に示す例では、被撮影物体が目標位置から上方にずれた位置に配置されている。この場合、まず、撮影部11により得られた撮影画像が撮影画像記憶部12に記憶される。続いて、誘導方向判定部14は、撮影画像記憶部12に記憶されている撮影画像と、目標撮影状態情報として目標撮影状態記憶部13に登録されている目標画像とを比較する。この結果、被撮影物体が目標位置に対して上方にずれた位置に配置されていることが検出される。そして、誘導方向指示出力部15は、誘導方向判定部14による検出結果を出力する。具体的には、例えば、「下方向に移動させてください。」というメッセージが出力される。
図4に示す例では、被撮影物体が撮影部11に近づきすぎている。この場合、撮影画像記憶部12に記憶されている撮影画像と、目標撮影状態記憶部13に登録されている目標画像とを比較すると、撮影画像の中に写っている被撮影物体が目標画像の中に写っている被撮影物体よりも大きいことが検出される。これにより、誘導方向判定部14は、被撮影物体が撮影部11に近づきすぎていることを検出する。そして、誘導方向指示出力部15は、誘導方向判定部14による検出結果を出力する。具体的には、例えば、「カメラから遠ざけてください。」というメッセージが出力される。
図5に示す例では、被撮影物体が撮影部11から離れすぎている。この場合、撮影画像記憶部12に記憶されている撮影画像と、目標撮影状態記憶部13に登録されている目標画像とを比較すると、撮影画像の中に写っている被撮影物体が目標画像の中に写っている被撮影物体よりも小さいことが検出される。これにより、誘導方向判定部14は、被撮影物体が撮影部11から離れすぎていることを検出する。そして、誘導方向指示出力部15は、誘導方向判定部14による検出結果を出力する。具体的には、例えば、「カメラに近づけてください。」というメッセージが出力される。
このように、第1の実施形態の撮影装置10は、被撮影物体が目標位置からずれた位置に配置されていた場合には、その被撮影物体を目標位置に誘導するメッセージを出力する。これにより、ユーザは、容易に被撮影物体を目標位置に移動させることができる。この結果、その物体が良好な状態で撮影された画像が得られるので、物体の識別精度が向上する。
図6は、第1の実施形態の撮影装置10の動作を示すフローチャートである。なお、目標撮影状態記憶部13には、予め目標撮影状態情報が登録されているものとする。
ステップS1では、まず、撮影部11が撮影を行う。そして、撮影部11により撮影された画像が撮影画像記憶部12に記憶される。ステップS2では、撮影画像記憶部12に記憶された画像を解析することにより、「現在の撮影状態」を算出する。なお、「撮影状態」とは、図3〜図5に示す例では、被撮影物体の位置を意味する。
ステップS3、S4では、ステップS2で得られた「現在の撮影状態」と目標撮影状態記憶部13に記憶されている「目標撮影状態」とを比較する。なお、図3〜図5に示す例では、画像内における被撮影物体の位置や大きさ等が比較される。そして、「現在の撮影状態」が「目標撮影状態」の範囲内であった場合は、被撮影物体が目標位置に配置されているものとみなし、誘導処理を終了する。一方、「現在の撮影状態」が「目標撮影状態」の範囲内でなかった場合には、被撮影物体が目標位置に配置されていないものとみなし、ステップS5〜S6の誘導処理を実行する。
ステップS5では、被撮影物体を誘導すべき方向を決定する。ここで、誘導方向は、「「現在の撮影状態」を「目標撮影状態」に近づけるような方向」として算出される。なお、具体例については、図3〜図5を参照しながら説明した通りである。そして、ステップS6において、ユーザに対して誘導方向を通知するためのメッセージを出力する。これにより、ユーザは、被撮影物体を目標位置に近づけることができる。この後、ステップS1に戻り、次の画像を撮影する。
上記フローチャートの処理は、被撮影物体が目標位置に配置されるまで繰り返し実行される。そして、被撮影物体が目標位置に配置された時点で誘導処理は終了する。
図7は、第2の実施形態の撮影装置の構成図である。第1の実施形態の撮影装置20は、撮影部11、撮影画像記憶部12、目標撮影状態記憶部21、誘導姿勢判定部22、誘導姿勢指示出力部23、および撮影画像出力制御部16を備える。なお、撮影部11、撮影画像記憶部12、撮影画像出力制御部16については、第1の実施形態において説明した通りである。
目標撮影状態記憶部21は、被撮影物体の目標撮影状態を表す目標撮影状態情報を記憶する。ここで、この目標撮影状態情報は、撮影時における被撮影物体の目標姿勢を表す情報を含む。なお、目標姿勢とは、被撮影物体がその姿勢で撮影されたならばその物体の特徴を十分に検出できるような姿勢をいう。この場合、目標撮影状態情報は、被撮影物体またはそれと同等な物体を目標姿勢にさせた状態で撮影することにより予め得られる画像データであってもよい。
誘導姿勢判定部22は、目標撮影状態情報を参照し、撮影部11により撮影された被撮影物体が適切な姿勢であるか否かを判定すると共に、被撮影物体が適切な姿勢でなかった場合には、被撮影物体をどのように回転させるのか、を判定する。なお、誘導姿勢判定部22は、撮影画像記憶部12に記憶されている画像データを解析してその特徴を抽出する特徴抽出部17を備え、特徴抽出部17の出力に基づいて被撮影物体の姿勢を認識できるものとする。
誘導姿勢指示出力部23は、誘導姿勢判定部22による判定結果をユーザに通知する。すなわち、被撮影物体が適切な姿勢であった場合には、その旨をユーザに通知する。一方、被撮影物体が適切な姿勢でなかった場合には、被撮影物体を回転させるべき方向および回転量をユーザに提示する。これにより、ユーザは、被撮影物体を撮影のために適切な姿勢に修正することができる。
次に、図8〜図9を参照しながら、第2の実施形態の撮影装置20の動作を説明する。
図8に示す例では、被撮影物体の形状が立方体であるものとする。また、目標撮影状態記憶部21には、目標撮影状態情報として、被撮影物体またはそれと同等な物体を目標姿勢にした状態で撮影することにより得られた目標画像が予め記憶されているものとする。この例では、立方体のある一面がカメラに向いている状態が目標姿勢である。したがって、目標画像の中に写っている物体の形状は、正方形になっている。
この例では、被撮影物体の姿勢が左側に傾いている。この場合、撮影画像記憶部12に記憶されている撮影画像と、目標撮影状態記憶部21に登録されている目標画像とを比較すると、目標画像の中に写っている物体の形状が正方形であるのに対して、撮影画像の中に写っている被撮影物体の形状は正方形ではない。このとき、誘導方向判定部22は、撮影画像の中に写っている被撮影物体の形状を解析することにより、被撮影物体の傾き角度を認識することができる。即ち、誘導方向判定部22は、この例では、被撮影物体が左側に傾いていること、及びその傾き角度を検出する。そして、誘導方向指示出力部23は、誘導方向判定部22による検出結果を出力する。具体的には、例えば「少し右に傾けて下さい。」というメッセージが出力される。
図9に示す例では、被撮影物体の形状が板状であるものとする。また、撮影部11は、図9(a)に示すように、撮影すべき方向に向かって均一な照射光を出力するものとする。さらに、目標撮影状態記憶部21には、目標撮影状態情報として目標明度分布情報が記憶されているものとする。ここで、目標明度分布は、被撮影物体またはそれと同等な物体を目標姿勢にした状態で撮影をすることによって得られた画像の明度分布をいうものとする。この例では、被撮影物体の目標姿勢は、図9(a)において破線で描かれているように、板状の被撮影物体の所定の面に照射光が垂直に当たるような状態であるものとする。そうすると、目標明度分布は、図9(b)において破線で描かれているように、被撮影物体の全体に渡って明度が一定であることを表す情報となる。
この例では、図9(a)に示すように、目標姿勢に対して被撮影物体が傾いている。具体的には、撮影部11からA領域までの距離よりも撮影部11からC領域までの距離の方が短くなっている。そして、この状態で被撮影物体が撮影されると、図9(b)に示すように、A領域の明度よりもC領域の明度の方が高くなる。したがって、この撮影により得られた明度分布と目標明度分布とを対比することにより、被撮影物体の姿勢(ここでは、傾き)を検出できる。この後、誘導方向指示出力部23は、図8に示す例と同様に、誘導方向判定部22による検出結果を出力する。具体的には、図9(a)において矢印Dにより表される方向に被撮影物体を回転させる旨の誘導指示が出力される。
なお、図9では、説明を簡単にするために、一次元の明度分布に基づいて被撮影物体の傾きを検出しているが、二次元の明度分布に基づいて被撮影物体の傾きを検出するようにしてもよい。
図10は、第2の実施形態の撮影装置20の動作を示すフローチャートである。ここで、ステップS11〜S14の処理は、基本的には、図6に示したステップS1〜S4と同じである。ただし、目標撮影状態記憶部21には、被撮影物体の目標姿勢を表す目標姿勢情報が格納されている。そして、ステップS13〜S14において、被撮影物体の姿勢が目標撮影状態の範囲内であるか否かが判定される。
被撮影物体の姿勢が目標撮影状態の範囲外であった場合は、ステップS15において、被撮影物体を回転させる方向およびその回転量を算出する。ここで、この回転方向/回転量は、「現在の撮影状態」を「目標撮影状態」に近づけるように算出される。なお、具体例については、図8〜図9を参照しながら説明した通りである。そして、ステップS6において、ユーザに対して、回転方向/回転量を通知するためのメッセージを出力する。これにより、ユーザは、被撮影物体の姿勢を目標姿勢に近づけることができる。この後、ステップS1に戻り、次の画像を撮影する。
上記フローチャートの処理は、被撮影物体の姿勢が目標姿勢になるまで繰り返し実行される。そして、被撮影物体の姿勢が目標姿勢になった時点で誘導処理は終了する。
なお、上述の第1および第2の実施形態では、被撮影物体の位置または姿勢が検出され、その検出結果に基づいて被撮影物体を誘導するか否かの判定がされているが、他の要因を考慮して誘導処理を行うようにしてもよい。
例えば、カメラを用いて物体を撮影し、その撮影画像を解析することにより検出される模様を用いてその物体を識別するシステムを考える。すなわち、識別対象の物体が、撮影画像を解析することにより検出可能な模様を有しているものとする。この場合、図2または図7に示す特徴抽出部17は、撮影部11により得られた画像を解析することにより、被撮影物体が有する模様を検出する。一方、目標撮影状態記憶部13、21には、目標撮影状態情報として、撮影部11により撮影されるべき模様の量の目標値が定義されている。ここで、「模様の量」としては、例えば、その模様が線パターンである場合には、「線の本数」または「各線の長さの総和」などが定義される。
誘導方向判定部14または誘導姿勢判定部22は、特徴抽出部17により検出された模様の量と、目標撮影状態情報として定義されている模様の量とを比較する。そして、検出された模様の量の方が少なかった場合には誘導処理を継続し、検出された模様の量の方が多くなった時点で誘導処理を終了するようにしてもよい。
図11は、第3の実施形態の撮影装置の構成図である。第3の実施形態の撮影装置30は、撮影部11、撮影画像記憶部12、物体判別部31、物体画像記憶部32、背景画像記憶部33、誘導指示出力部34、撮影画像出力制御部35を備える。なお、撮影部11、撮影画像記憶部12については、第1の実施形態において説明した通りである。
物体判別部31は、撮影部11により撮影された画像の中に被撮影物体の画像が含まれているか否かを判定する。そして、撮影部11により撮影された画像の中に被撮影物体の画像が含まれていた場合には、その画像を物体画像として物体画像記憶部32に格納する。一方、被撮影物体の画像が含まれていなかった場合には、その画像を背景画像として背景画像記憶部33に格納する。ただし、被撮影物体の画像が含まれていた場合であっても、不適切な状態で撮影されていた場合には、その画像は廃棄される。なお、物体判別部31は、撮影画像記憶部12に記憶されている画像データを解析してその特徴を抽出する特徴抽出部17を備えている。そして、特徴抽出部17の出力に基づいて、被撮影物体の画像が含まれているか否かを認識できるものとする。
誘導指示出力部35は、物体判別部31による判別結果に基づいて、被撮影物体を誘導する指示を作成して出力する。撮影画像出力制御部35は、物体画像記憶部32に記憶されている物体画像と背景画像記憶部32に記憶されている背景画像との差分画像を生成することにより、被撮影物体の画像を切り出す(背景差分処理)。そして、その切り出した被撮影物体の画像を図1に示す識別装置3に送る。なお、識別装置3において背景差分処理が行われる場合には、撮影画像出力制御部35は、物体画像および背景画像の双方を識別装置3に送る。
図12および図13は、物体判別部31の動作を説明する図である。図12に示す例では、被撮影物体が撮影部11の撮影視野内に配置されている。したがって、この場合、撮影部11により撮影された画像の中には被撮影物体の画像が含まれている。そして、物体判別部31は、この画像を物体画像として物体画像記憶部32に格納する。この後、物体判別部31は、背景画像記憶部33に背景画像が記憶されているか否かをチェックする。そして、背景画像が記憶されてなければ、誘導指示出力部34は、被撮影物体を撮影部11の撮影視野の外に誘導するための指示を生成する。
ユーザは、この誘導指示に従って、図13に示すように、被撮影物体を撮影視野の外に移動させる。そして、その後、撮影部11が撮影を行う。
図13に示す例では、被撮影物体が撮影部11の撮影視野の外に配置されている。したがって、この場合、撮影部11により撮影された画像の中に被撮影物体の画像が含まれていない。そして、物体判別部31は、この画像を背景画像として背景画像記憶部32に格納する。この後、物体判別部31は、物体画像記憶部32に物体画像が記憶されているか否かをチェックする。そして、物体画像が記憶されてなければ、誘導指示出力部34は、被撮影物体を撮影部11の撮影視野内に誘導するための指示を生成する。
ユーザは、この誘導指示に従って、図12に示すように、被撮影物体を撮影視野内に移動させる。そして、その後、撮影部11が撮影を行う。
このように、撮影装置30は、物体画像および背景画像の双方を取得するために、必要に応じて、ユーザに対して被撮影物体を誘導する指示を出力する。
図14は、物体判別部31による判断手法の一例を説明する図である。なお、被撮影物体は、その全面に特定の色(ここでは、赤色)が付されているものとする。また、物体判別部31は、撮影部11により撮影された画像全体に対する赤色の画像の割合(面積比)を検出する機能を備えているものとする。
図14(a)に示す例では、赤色画像が検出されていない。この場合、物体判別部31は、撮影部11により撮影された画像の中に被撮影物体の画像が存在していないものとみなし、その画像を背景画像記憶部33に格納する。
図14(b)に示す例では、画像全体に対する赤色画像の割合が8パーセントである。この場合、物体判別部31は、被撮影物体が撮影部11から遠く離れすぎていると判断し、その画像を廃棄する。なお、物体判別部31は、画像全体に対する赤色画像の割合が所定値(例えば、20パーセント)よりも小さかった場合に、被撮影物体が撮影部11から遠く離れすぎていると判断する。
図14(c)に示す例では、画像全体に対する赤色画像の割合が30パーセントである。この場合、物体判別部31は、被撮影物体が目標位置に配置されていると判断し、その画像を物体画像記憶部32に格納する。なお、物体判別部31は、画像全体に対する赤色画像の割合が所定範囲内(例えば、20〜40パーセント)に入っていた場合に、被撮影物体が目標位置に配置されているものと判断する。
図14(d)に示す例では、画像全体に対する赤色画像の割合が80パーセントである。この場合、物体判別部31は、被撮影物体が撮影部11に近づきすぎていると判断し、その画像を廃棄する。なお、物体判別部31は、画像全体に対する赤色画像の割合が所定値(例えば、40パーセント)よりも大きかった場合に、被撮影物体が撮影部11に近づきすぎていると判断する。
図15は、第3の実施形態の撮影装置30の動作を示すフローチャートである。ステップS21では、撮影部11により撮影された画像が撮影画像記憶部12に記憶される。ステップS22では、撮影画像記憶部12に記憶されている画像に対して所定の画像処理(例えば、色成分分析処理など)が抽出される。
ステップS23では、画像全体に占める特定の色成分の画像の割合(比率A)を算出する。ステップS24では、比率Aと予め設定されている閾値とを比較する。
比率Aが「閾値T3よりも小さい」であれば、撮影された画像の中に被撮影物体の画像が含まれていないものとみなし、ステップS25において、その画像を背景画像記憶部33に格納する。なお、閾値T3は、図14に示す例では、例えば「5パーセント」である。続いて、ステップS26では、物体画像記憶部32に物体画像が格納されているか否かを調べる。そして、物体画像が格納されていない場合は、ステップS27において、被撮影物体を撮影部11の撮影視野内に導くための誘導指示を出力する。一方、物体画像が格納されていた場合は、物体画像および背景画像の双方が取得されていることになるので、処理を終了する。
比率Aが「閾値T1よりも大きく、且つ、閾値T2よりも小さい」であれば、撮影された画像の中に被撮影物体の画像が含まれているとみなし、ステップS28において、その画像を物体画像記憶部32に格納する。なお、閾値T1および閾値T2は、図14に示す例では、それぞれ、「20パーセント」および「40パーセント」である。続いて、ステップS29では、背景画像記憶部33に背景画像が格納されているか否かを調べる。そして、背景画像が格納されていない場合は、ステップS30において、被撮影物体を撮影部11の撮影視野の外に誘導するための指示を出力する。一方、背景画像が格納されていた場合は、物体画像および背景画像の双方が取得されていることになるので、処理を終了する。
なお、ユーザは、ステップS27またはS30の誘導指示に従って被測定物体を移動させる。そして、その後、ステップS21に戻り、撮影部11が撮影を行う。これにより、物体画像および背景画像の双方が取得される。
比率Aが「閾値T3よりも大きく、且つ、閾値T1よりも小さい」或いは「閾値T2よりも大きい」であれば、撮影された画像の中に被撮影物体の画像が含まれてはいるが、被撮影物体が不適切な位置に配置されていると判断される。この場合、ステップS31においてその画像が廃棄される。そして、ステップS32において、被撮影物体を目標位置に誘導するための処理が行われる。すなわち、比率Aが閾値T3よりも大きくかつ閾値T1よりも小さい場合は、被撮影物体を撮影部11に近づけるための誘導指示を出力する。一方、比率Aが閾値T2よりも大きい場合は、被撮影物体を撮影部11から遠ざけるための誘導指示を出力する。そして、その後、ステップS21に戻る。
図16は、第4の実施形態の撮影装置の構成図である。第4の実施形態の撮影装置40は、撮影部11、撮影画像記憶部12、距離測定部41、物体判別部42、物体画像記憶部32、背景画像記憶部33、誘導指示出力部34、撮影画像出力制御部35を備える。ここで、撮影部11、撮影画像記憶部12、物体画像記憶部32、背景画像記憶部33、誘導指示出力部34、撮影画像出力制御部35については、第1または第3の実施形態において説明した通りである。
距離測定部41は、例えば、公知の距離センサであり、撮影部11と被撮影物体との間の距離を測定する。
物体判別部42は、第3の実施形態の物体判別部31と同様に、撮影部11により撮影された画像の中に被撮影物体の画像が含まれているか否かを判定する。そして、撮影部11により撮影された画像の中に被撮影物体の画像が含まれていた場合には、その画像を物体画像として物体画像記憶部32に格納する。一方、被撮影物体の画像が含まれていなかった場合には、その画像を背景画像として背景画像記憶部33に格納する。ただし、物体判別部42は、距離測定部41の出力の基づいて、撮影された画像の中に被撮影物体の画像が含まれているか否かを判定する。
図17は、第4の実施形態の撮影装置40の動作を示すフローチャートである。なお、ステップS21、S25〜S32の処理は、図15を参照しながら説明した通りである。
ステップS41では、距離測定部41の出力に基づいて、撮影部11と被撮影物体との間の距離(距離A)を算出する。ステップS42では、距離Aと予め設定されている閾値とを比較する。
距離Aが「閾値T3(例えば、16cm)よりも大きい」であれば、撮影された画像の中に被撮影物体の画像が含まれていないものとみなし、ステップS25に進む。また、距離Aが「閾値T1(例えば、4cm)よりも大きく、且つ、閾値T2(例えば、8cm)よりも小さい」であれば、撮影された画像の中に被撮影物体の画像が含まれているとみなし、ステップS28に進む。さらに、距離Aが「閾値T1よりも小さい」あるいは「閾値T2よりも大きく、且つ、閾値T3よりも小さい」であれば、撮影された画像の中に被撮影物体の画像が含まれてはいるが、被撮影物体が不適切な位置に配置されていると判断される。この場合、ステップS31に進む。
このように、第4の実施形態の撮影装置40の動作は、基本的に、第3の実施形態の撮影装置30と同じである。ただし、第4の実施形態では、距離センサ等を用いて撮影部11から被撮影物体までの距離を直接的に測定する。このため、上記距離を画像解析のみでは推定できない場合であっても、被撮影物体が写っているか否かを確実に判定することができる。
また、第3および第4の実施形態の撮影装置によれば、物体領域と背景領域とを切り分けることができるので、被撮影物体の画像を保持したまま背景画像のみを変更した画像を生成できる。
上述した第1〜第4の実施形態では、被撮影物体を適切な位置または姿勢に誘導する機能が提供され、この機能を利用して物体の識別精度の向上が図られている。ところが、仮に背景画像が適切でないとすると、被撮影物体が写っている画像を解析しても、その物体を正確に切り出せないおそれがある。即ち、背景画像が適切でないと、物体の識別精度が低下してしまうおそれがある。このため、物体の識別精度を向上させるためには、予め好適な背景画像を用意しておくことが望ましい。そこで、下記の第5の実施形態の撮影装置は、予め好適な背景画像を取得するための機能を有している。
図18は、第5の実施形態の撮影装置の構成図である。第5の実施形態の撮影装置50は、撮影部11、撮影画像記憶部12、目標背景撮影状態記憶部51、背景撮影状態判定部52、撮影装置誘導指示出力部53を備える。なお、撮影部11、撮影画像記憶部12については、第1の実施形態において説明した通りである。
目標背景撮影状態記憶部51には、目標背景撮影状態情報として、背景画像として望ましい状態を表す情報が記憶されている。ここで、一般に、背景が明るすぎると、被撮影物体が写っている画像を解析しても、その物体の画像を正確に切り出せないおそれがある。また、背景の明度の分布が均一でない場合も、物体の画像を正確に切り出せないおそれがある。したがって、この場合、目標背景撮影状態情報としては、例えば、背景画像の明度を定義する情報、または、背景画像の明度分布を定義する情報が記憶されるようにしてもよい。或いは、予め用意された適切な背景(目標背景)を撮影することによって得られた画像データであってもよい。
背景撮影状態判定部52は、目標背景撮影状態情報を参照し、撮影部11により得られた背景画像(被撮影物体が写っていない画像)が適切であるか否かを判定する。そして、背景画像が適切でないと判断した場合には、撮影部11の位置または姿勢をどのように誘導すべきかを判定する。なお、背景撮影状態判定部52は、撮影画像記憶部12に記憶されている画像データを解析してその特徴を抽出する特徴抽出部17を備え、特徴抽出部17の出力に基づいて背景画像の状態(明度分布など)を認識できるものとする。
撮影装置誘導指示出力部53は、背景撮影状態判定部52による判定結果に基づいて、ユーザに対して誘導指示を出力する。これにより、ユーザは、撮影部11を適切な位置に移動させることができる。あるいは、撮影装置誘導指示出力部53は、背景撮影状態判定部52による判定結果に基づいて、撮影部11の位置を移動/回転させるようにしてもよい。
次に、図19および図20を参照しながら、第5の実施形態の撮影装置50の動作を説明する。なお、ここでは、撮影部11の撮影視野内に被撮影物体が存在しない状態で撮影が行われ、その画像が撮影画像記憶部12に記憶されているものとする。以下では、この画像を背景画像と呼ぶことにする。
図19に示す例では、撮影部11により得られた背景画像の上部領域の明度が高く、下部領域の明度が低い。この場合、背景撮影状態判定部52は、この背景画像の明度分布を分析し、その上部領域の明度が目標背景撮影状態情報として定義されている明度よりも高いことを検出すると、撮影部11を下方へ誘導すべきである(あるいは、撮影部11を下方に向けるべき)と判定する。そして、この判定結果は、誘導指示として撮影装置誘導指示出力部53によりユーザに通知される。
図20に示す例では、撮影部11により得られた背景画像の中に蛍光灯の画像が含まれている。この場合、この背景画像において、蛍光灯に対応する領域(この例では、右端領域)の明度が高くなる。そして、背景撮影状態判定部52は、この背景画像の明度分布を分析し、その右端領域の明度が目標背景撮影状態情報として定義されている明度よりも高いことを検出すると、撮影部11を左方へ誘導すべきである(あるいは、撮影部11を左方向に向けるべき)と判定する。そして、この判定結果は、誘導指示として撮影装置誘導指示出力部53によりユーザに通知される。
ユーザは、撮影装置誘導指示出力部53からの誘導指示に従って撮影部11を移動または回転させる。これにより、第5の実施形態の撮影装置は、適切な背景画像を得ることが出来る。すなわち、明度の低い背景画像あるいは明度分布の均一な背景画像得られる。したがって、この背景画像が得られる環境下で識別対象の物体を撮影すれば、その識別精度が向上する。
図21は、第5の実施形態の撮影装置50の動作を示すフローチャートである。ステップS51では、撮影部11により背景画像が撮影され、撮影画像記憶部12に記憶される。なお、「背景画像」とは、撮影部11の撮影視野内に被撮影物体が存在しない状態で撮影された画像のことをいう。
ステップS52では、撮影画像記憶部12に記憶されている背景画像を解析することにより、画像全体の明度および明度分布を算出する。なお、この処理は、特徴抽出部17により実行される。ステップS53およびS54では、目標背景撮影状態記憶部51に記憶されている明度情報を参照し、ステップS52で算出された背景画像の明度または明度分布が許容範囲内であるか否かを判断する。
背景画像の明度または明度分布が許容範囲内でなかった場合は、ステップS55において、より明度の低い背景画像が得られるため、或いは明度分布の均一な背景画像が得られるために、撮影部11をどのように誘導すればよいのかを判定する。そして、ステップS56において、その判定結果が誘導指示として出力される。
ユーザは、誘導指示に従って撮影部11を移動または回転させる。そして、ステップS51に戻り、次の背景画像を撮影する。なお、ステップS51〜S56の処理は、撮影部11により得られる背景画像の明度または明度分布が許容範囲内に入るまで繰り返し実行される。
なお、第1〜第5の実施形態の撮影装置により提供される機能は、それぞれ任意に組み合わせることができる。すなわち、例えば、第5の実施形態が提供する機能により撮影部11の位置または角度を誘導し、その後、第1〜第4の実施形態が提供する機能により被撮影物体の位置または姿勢を誘導しながら撮影を行うようにしてもよい。また、例えば、第1の実施形態が提供する機能により被撮影物体を適切な位置に誘導した後、第2の実施形態が提供する機能により被撮影物体の姿勢を修正しながら撮影を行うようにしてもよい。
次に、誘導指示の出力方法について説明する。なお、以下では、第1の実施形態の撮影装置をベースにして説明をするが、これに限定されるものではなく、第2〜第5の実施形態の撮影装置にも適用可能である。
図22に示す撮影装置は、文字列生成部61、表示装置62を備える。そして、文字列生成部61は、誘導方向判定部14により決定された誘導指示に対応する文字列を生成する。また、表示装置62は、文字列生成部61により生成された文字列を表示する。この文字列は、被撮影物体または撮影部11の移動方向、移動量、回転方向、回転角度を指示するガイドメッセージである。ここで、生成された文字列を即座に表示することは容易である。したがって、この方法によれば、ユーザは、被撮影物体または撮影部11の位置や姿勢を素早く修正することができ、物体を識別するための処理時間が短くなる。
図23に示す撮影装置は、図形/記号生成部63、表示装置62を備える。そして、図形/記号生成部63は、誘導方向判定部14により決定された誘導指示に対応する図形/記号を生成する。また、表示装置62は、図形/記号生成部61により生成された図形/記号を表示する。この図形/記号は、例えば、被撮影物体または撮影部11の移動方向、移動量、回転方向、回転角度を指示する矢印マークである。したがって、この場合、図22に示す方法により表示されるメッセージを読むことができないユーザ(例えば、外国人)であっても、被撮影物体または撮影部11の位置や姿勢を素早く修正することができる。
図24に示す撮影装置は、音声ガイダンス生成部64、スピーカ65を備える。そして、音声ガイダンス生成部64は、誘導方向判定部14により決定された誘導指示に対応する音声ガイダンスを生成し、スピーカ65を介して出力する。ここで、この音声ガイダンスは、被撮影物体または撮影部11の移動方向、移動量、回転方向、回転角度を指示するメッセージである。したがって、この方法によれば、視覚が不自由なユーザであっても、被撮影物体または撮影部11の位置や姿勢を修正することができる。
図25に示す撮影装置は、立体音響生成部66、及び複数のスピーカ67a、67bを備える。そして、立体音響生成部66は、誘導方向判定部14により決定された誘導指示に対応するガイド音を生成し、スピーカ67a、67bを介して出力する。ここで、このガイド音は、被撮影物体または撮影部11の移動方向、移動量、回転方向、回転角度を指示する。具体的には、誘導指示は、ガイド音の聞こえてくる方向、ガイド音の音量、ガイド音の音程、ガイド音を周期的に出力する場合にはその周期、などにより表現される。例えば、被撮影物体を撮影部11に近づけさせたい場合には、ガイド音として基準音よりも高い音を出力し、被撮影物体を撮影部11から遠ざけたい場合には、ガイド音として基準音よりも低い音を出力する。このとき、このガイド音の高さは、撮影部11から被撮影物体までの距離に応じて連続的に変化するものとする。
図26は、ガイド音を利用して被撮影物体を誘導する方法を説明する図である。この例では、現在、被撮影物体がX点に配置されている。そして、誘導方向判定部14によりこの被撮影物体をY地点に誘導すべき旨の判定がされたものとする。また、ユーザは、スピーカ67aから出力される音Aおよびスピーカ67bから出力される音Bの合成音が聞こえるものとする。この場合、スピーカ67a、67bの音量は、ユーザを基準としたときの合成音の定位方向が、ユーザからY地点へ向かう方向となるように調整される。これにより、ユーザには、Y地点の方角からガイド音が聞こえてくるので、X地点にある被撮影物体をY地点に移動させることができる。
図27は、本発明に係わる誘導指示機能(誘導方向判定部14、誘導姿勢判定部22、物体判別部31、42など)を提供するコンピュータのブロック図である。なお、本発明に係わる誘導指示機能は、コンピュータを用いて上述のフローチャートの処理を記述したプログラムを実行することにより実現される。
CPU101は、上述のフローチャートに示した処理を記述したプログラムを記憶装置102からメモリ103にロードして実行する。記憶装置102は、例えばハードディスクであり、上記プログラムを格納する。なお、記憶装置102は、コンピュータ100に接続される外部記憶装置であってもよい。メモリ103は、例えば半導体メモリであり、CPU101の作業領域として使用される。ここで、目標撮影状態情報および目標背景撮影状態情報は、例えば、記憶装置102に格納されている。また、撮影画像記憶部12、物体画像記憶部32、背景画像記憶部33は、例えば、メモリ103により実現される。
記録媒体ドライバ104は、CPU101の指示に従って可搬性記録媒体105にアクセスする。可搬性記録媒体105は、例えば、半導体デバイス(PCカード等)、磁気的作用により情報が入出力される媒体(フレキシブルディスク、磁気テープ等)、光学的作用により情報が入出力される媒体(光ディスク等)を含むものとする。通信制御装置106は、CPU101の指示に従って、ネットワークを介してデータを送受信する。出力装置107は、例えば、表示装置またはスピーカであり、生成された誘導指示を出力する。
図28は、本発明に係わるソフトウェアプログラムの提供方法を説明する図である。本発明に係わるプログラムは、例えば、以下の3つの方法のなかの任意の方法で提供される。
(1)コンピュータにインストールされて提供される。この場合、プログラムは、例えば、コンピュータ100の出荷前にそのコンピュータ100にプレインストールされる。
(2)可搬性記録媒体に格納されて提供される。この場合、可搬性記録媒体105に格納されるプログラムは、基本的に、記録媒体ドライバ104を介して記憶装置102にインストールされる。
(3)ネットワーク上に設けられているプログラムサーバから提供される。この場合、コンピュータ100は、プログラムサーバからダウンロードすることにより対応するプログラムを取得する。ただし、コンピュータ100は、サーバ装置において上記プログラムの実行を依頼し、その実行結果を受け取るようにしてもよい。
(付記1)物体を撮影する撮影手段と、
上記物体の目標撮影状態を表す目標撮影状態情報を記憶する目標撮影状態記憶手段と、
上記目標撮影状態情報および上記撮影手段により撮影された画像に基づいて、上記物体をどのように誘導すべきかを判定する誘導判定手段と、
上記誘導判定手段による判定結果に基づいて上記物体をどのように誘導すべきかを指示する誘導指示出力手段と、
上記撮影手段により撮影された画像を出力する画像出力手段、
を有する撮影装置。
(付記2)付記1に記載の撮影装置であって、
上記目標撮影状態情報は、上記物体の目標位置を表す情報を含み、
上記誘導判定手段は、上記物体を誘導すべき方向を判定する。
(付記3)付記1に記載の撮影装置であって、
上記目標撮影状態情報は、上記物体の目標姿勢を表す情報を含み、
上記誘導判定手段は、上記物体を誘導すべき回転方向を判定する。
(付記4)付記1に記載の撮影装置であって、
上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、
上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、
上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段、をさらに有し、
上記画像出力手段は、上記物体画像および背景画像に基づいて上記物体の画像を切り出し、その切り出した画像を出力する。
(付記5)付記1に記載の撮影装置であって、
上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、
上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、
上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段、をさらに有し、
上記画像出力手段は、上記物体画像および背景画像の双方を出力する。
(付記6)付記4または5に記載の撮影装置であって、
上記誘導判定手段は、上記物体画像記憶手段に上記物体画像が記憶されていない場合には、上記撮影手段によって上記物体を含む画像が撮影されるようにその物体を誘導し、上記背景画像記憶手段に上記背景画像が記憶されていない場合には、上記撮影手段によって上記物体を含まない画像が撮影されるようにその物体を誘導する。
(付記7)付記1に記載の撮影装置であって、
上記撮影手段と上記物体との間の距離を測定する測定手段と、
上記測定手段による測定結果に基づいて、上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、
上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、
上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段、をさらに有し、
上記画像出力手段は、上記物体画像および背景画像に基づいて上記物体の画像を切り出し、その切り出した画像を出力する。
(付記8)付記1に記載の撮影装置であって、
上記撮影手段と上記物体との間の距離を測定する測定手段と、
上記測定手段による測定結果に基づいて、上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、
上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、
上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段、をさらに有し、
上記画像出力手段は、上記物体画像および背景画像の双方を出力する。
(付記9)付記7または8に記載の撮影装置であって、
上記誘導判定手段は、上記物体画像記憶手段に上記物体画像が記憶されていない場合には、上記撮影手段によって上記物体を含む画像が撮影されるようにその物体を誘導し、上記背景画像記憶手段に上記背景画像が記憶されていない場合には、上記撮影手段によって上記物体を含まない画像が撮影されるようにその物体を誘導する。
(付記10)付記1に記載の撮影装置であって、
上記画像出力手段は、上記誘導判定手段が上記物体を誘導する必要がないと判定したときに、上記撮影手段により撮影された画像を出力する。
(付記11)付記1に記載の撮影装置であって、
上記物体が所定の模様を有しており、
上記目標撮影状態情報として、上記撮影手段により撮影されるべき模様の量が定義されており、
上記誘導判定手段は、上記撮影手段により撮影された上記物体の画像から検出された上記模様の量が、上記目標撮影状態情報として定義されている模様の量よりも多かったときに、上記物体を誘導する必要がない旨の判定をする。
(付記12)特定色の物体を撮影する撮影手段と、
上記撮影手段により撮影された画像全体に対する上記特定色の画像の割合を検出する検出手段と、
上記検出手段による検出結果に基づいて、上記物体を誘導すべき方向を指示する誘導指示出力手段と、
上記撮影手段により撮影された画像を出力する画像出力手段、
を有する撮影装置。
(付記13)物体を撮影する撮影手段と、
上記撮影手段と上記物体との間の距離を測定する測定手段と、
上記測定手段による測定結果に基づいて、上記物体を誘導すべき方向を指示する誘導指示出力手段と、
上記撮影手段により撮影された画像を出力する画像出力手段、
を有する撮影装置。
(付記14)撮影手段と、
上記撮影手段を用いて背景画像を撮影した場合の目標撮影状態を表す目標撮影状態情報を記憶する目標撮影状態記憶手段と、
上記目標撮影状態情報および上記撮影手段により撮影された画像に基づいて、上記撮影手段を誘導すべき方向または角度を判定する誘導判定手段と、
上記誘導判定手段による判定結果に基づいて上記撮影手段を誘導すべき方向または角度を指示する誘導指示出力手段と、
を有する撮影装置。
(付記15)付記14に記載の撮影装置であって、
上記誘導指示出力手段から出力される指示に従って上記撮影手段を移動させる移動手段、
をさらに有する。
(付記16)付記1〜11、14、15のいずれか1つに記載の撮影装置であって、
上記誘導指示出力手段は、表示手段を含み、上記誘導判定手段による判定結果に対応する文字列をその表示手段に表示する。
(付記17)付記1〜11、14、15のいずれか1つに記載の撮影装置であって、
上記誘導指示出力手段は、表示手段を含み、上記誘導判定手段による判定結果に対応する図形または記号をその表示手段に表示する。
(付記18)付記1〜11、14、15のいずれか1つに記載の撮影装置であって、
上記誘導指示出力手段は、上記誘導判定手段による判定結果に対応する音声ガイダンスを出力する。
(付記19)付記1〜11、14、15のいずれか1つに記載の撮影装置であって、
上記誘導指示出力手段は、上記誘導判定手段による判定結果に対応する立体音響を生成する。
(付記20)撮影装置を用いて撮影される物体を誘導する方法であって、
撮影装置を用いて物体を撮影し、
予め用意されている上記物体の目標撮影状態を表す目標撮影状態情報および上記撮影装置により撮影された画像に基づいて、上記物体をどのように誘導すべきかを判定し、
上記判定結果に基づいて上記物体をどのように誘導すべきかの誘導指示を出力する、
物体誘導方法。
(付記21)撮影装置を用いて物体を撮影する方法であって、
撮影装置を用いて物体を撮影する第1の工程と、
予め用意されている上記物体の目標撮影状態を表す目標撮影状態情報および上記撮影装置により撮影された画像に基づいて、上記物体をどのように誘導すべきかを判定する第2の工程と、
上記判定結果に基づいて上記物体をどのように誘導すべきかの誘導指示を出力する第3の工程と、
上記物体を誘導すべき必要がないと判定されるまで上記第1〜第3の工程を繰り返す第4の工程、
を有する撮影方法。
本発明に係わる撮影装置が使用されるシステムの一例の構成図である。 第1の実施形態の撮影装置の構成図である。 第1の実施形態の撮影装置の動作を説明する図(その1)である。 第1の実施形態の撮影装置の動作を説明する図(その2)である。 第1の実施形態の撮影装置の動作を説明する図(その3)である。 第1の実施形態の撮影装置の動作を示すフローチャートである。 第2の実施形態の撮影装置の構成図である。 第2の実施形態の撮影装置の動作を説明する図(その1)である。 第2の実施形態の撮影装置の動作を説明する図(その2)である。 第2の実施形態の撮影装置の動作を示すフローチャートである。 第3の実施形態の撮影装置の構成図である。 物体判別部の動作を説明する図(その1)である。 物体判別部の動作を説明する図(その2)である。 物体判別部による判断手法の一例を説明する図である。 第3の実施形態の撮影装置の動作を示すフローチャートである。 第4の実施形態の撮影装置の構成図である。 第4の実施形態の撮影装置の動作を示すフローチャートである。 第5の実施形態の撮影装置の構成図である。 第5の実施形態の撮影装置の動作を説明する図(その1)である。 第5の実施形態の撮影装置の動作を説明する図(その2)である。 第5の実施形態の撮影装置の動作を示すフローチャートである。 誘導指示を出力する方法を説明する図(その1)である。 誘導指示を出力する方法を説明する図(その2)である。 誘導指示を出力する方法を説明する図(その3)である。 誘導指示を出力する方法を説明する図(その4)である。 図25に示す方法の具体例を示す図である。 本発明に係わる誘導指示機能を提供するコンピュータのブロック図である。 本発明に係わるソフトウェアプログラムの提供方法を説明する図である。
符号の説明
10、20、30、40、50 撮影装置
11 撮影部
12 撮影画像記憶部
13、21 目標撮影状態記憶部
14 誘導方向判定部
15 誘導方向指示出力部
16、35 撮影画像出力制御部
22 誘導姿勢判定部
23 誘導姿勢指示出力部
31、42 物体判別部
32 物体画像記憶部
33 背景画像記憶部
34 誘導指示出力部
41 距離測定部
51 目標背景撮影状態記憶部
52 背景撮影状態判定部
53 撮影装置誘導指示出力部

Claims (5)

  1. 物体を撮影する撮影手段と、
    上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、
    上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、
    上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段と、
    上記物体画像および背景画像に基づいて上記物体の画像を切り出し、その切り出した画像を出力する画像出力手段、
    を有することを特徴とする撮影装置。
  2. 物体を撮影する撮影手段と、
    上記撮影手段と上記物体との間の距離を測定する測定手段と、
    上記測定手段による測定結果に基づいて、上記撮影手段により撮影された画像の中に撮影対象の物体の画像が含まれているか否かを判別する物体判別手段と、
    上記物体の画像が含まれている場合の画像を物体画像として記憶する物体画像記憶手段と、
    上記物体の画像が含まれていない場合の画像を背景画像として記憶する背景画像記憶手段と、
    上記物体画像および背景画像に基づいて上記物体の画像を切り出し、その切り出した画像を出力する画像出力手段、
    を有することを特徴とする撮影装置。
  3. 請求項1または2に記載の撮影装置であって、
    上記物体画像記憶手段に上記物体画像が記憶されていない場合には、上記撮影手段によって上記物体を含む画像が撮影されるようにその物体を誘導し、上記背景画像記憶手段に上記背景画像が記憶されていない場合には、上記撮影手段によって上記物体を含まない画像が撮影されるようにその物体を誘導する誘導指示出力手段をさらに有する
    ことを特徴とする撮影装置。
  4. 請求項3に記載の撮影装置であって、
    上記誘導指示出力手段は、表示手段を含み、誘導指示に対応する文字列をその表示手段に表示する。
  5. 請求項3に記載の撮影装置であって、
    上記誘導指示出力手段は、誘導指示に対応する立体音響を生成する。
JP2006102346A 2006-04-03 2006-04-03 撮影装置 Expired - Lifetime JP4481951B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006102346A JP4481951B2 (ja) 2006-04-03 2006-04-03 撮影装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006102346A JP4481951B2 (ja) 2006-04-03 2006-04-03 撮影装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003083928A Division JP3860552B2 (ja) 2003-03-25 2003-03-25 撮影装置

Publications (2)

Publication Number Publication Date
JP2006217655A true JP2006217655A (ja) 2006-08-17
JP4481951B2 JP4481951B2 (ja) 2010-06-16

Family

ID=36980388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006102346A Expired - Lifetime JP4481951B2 (ja) 2006-04-03 2006-04-03 撮影装置

Country Status (1)

Country Link
JP (1) JP4481951B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108712606A (zh) * 2018-05-14 2018-10-26 Oppo广东移动通信有限公司 提示方法、装置、存储介质及移动终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268902A (ja) * 1993-03-12 1994-09-22 Matsushita Electric Ind Co Ltd 画像認識装置
JPH11196320A (ja) * 1997-12-26 1999-07-21 Canon Inc 動画像処理装置、動画像処理方法及びコンピュータ読み取り可能な記憶媒体
JP2001174881A (ja) * 1999-12-16 2001-06-29 Casio Comput Co Ltd 撮影装置、及び記憶媒体
JP2001229485A (ja) * 2000-02-14 2001-08-24 Biichi Rock:Kk 視覚障害者誘導のための音響式交通信号機付加装置配置方法
JP2002158999A (ja) * 2000-08-31 2002-05-31 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置並びに侵入物体監視装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268902A (ja) * 1993-03-12 1994-09-22 Matsushita Electric Ind Co Ltd 画像認識装置
JPH11196320A (ja) * 1997-12-26 1999-07-21 Canon Inc 動画像処理装置、動画像処理方法及びコンピュータ読み取り可能な記憶媒体
JP2001174881A (ja) * 1999-12-16 2001-06-29 Casio Comput Co Ltd 撮影装置、及び記憶媒体
JP2001229485A (ja) * 2000-02-14 2001-08-24 Biichi Rock:Kk 視覚障害者誘導のための音響式交通信号機付加装置配置方法
JP2002158999A (ja) * 2000-08-31 2002-05-31 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置並びに侵入物体監視装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108712606A (zh) * 2018-05-14 2018-10-26 Oppo广东移动通信有限公司 提示方法、装置、存储介质及移动终端

Also Published As

Publication number Publication date
JP4481951B2 (ja) 2010-06-16

Similar Documents

Publication Publication Date Title
JP3860552B2 (ja) 撮影装置
JP6614335B2 (ja) 画像表示システム、端末、方法およびプログラム
US20170162195A1 (en) Information processing apparatus, information processing method, and recording medium
JP2005241872A (ja) 顕微鏡画像撮影システム及び方法
US10515459B2 (en) Image processing apparatus for processing images captured by a plurality of imaging units, image processing method, and storage medium storing program therefor
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
KR102186597B1 (ko) 타겟 크기 측정 시스템 및 그 방법
EP2950522B1 (en) Display control method and information processing apparatus
JP6701018B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2009026223A (ja) 物体検出装置及びプログラム
US20210093227A1 (en) Image processing system and control method thereof
US20210056303A1 (en) Image processing method and image processing device
US8154771B2 (en) Training a user on an accessiblity device
JP4286844B2 (ja) 撮影装置
JP5024116B2 (ja) 被写体追跡プログラム、および被写体追跡装置
JP4481951B2 (ja) 撮影装置
EP4246281A1 (en) Information display system, information display method, and carrier means
US20220076399A1 (en) Photographing guide device
JP2007020197A (ja) 撮影装置
KR20150082204A (ko) 이미지 캡쳐 및 심층 어노테이션 방법 및 시스템
JP6479881B2 (ja) 点検支援装置、点検支援方法、およびプログラム
US20130266206A1 (en) Training A User On An Accessibility Device
TWI697846B (zh) 物體辨識方法及其裝置
JP2017028688A (ja) 画像管理装置、画像管理方法及びプログラム
JP2010157792A (ja) 被写体追跡装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091110

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4481951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term