JP2005014155A - Photographing robot - Google Patents
Photographing robot Download PDFInfo
- Publication number
- JP2005014155A JP2005014155A JP2003182833A JP2003182833A JP2005014155A JP 2005014155 A JP2005014155 A JP 2005014155A JP 2003182833 A JP2003182833 A JP 2003182833A JP 2003182833 A JP2003182833 A JP 2003182833A JP 2005014155 A JP2005014155 A JP 2005014155A
- Authority
- JP
- Japan
- Prior art keywords
- photographing
- imaging
- operation method
- module
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Accessories Of Cameras (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、遊園地や観光地等において、来場者等の求めに応じて撮影を行う撮影装置に関する。
【0002】
【従来の技術】
近時、自らが自律的に移動して構図を決定し、撮影を行う次世代の撮影機器が提案されている。
このような撮影機器として、例えば、ワシントン大学で開発されたフォトグラファーロボット「ルイス」(Lewis the Robotic Photographer)が知られている。
【0003】
この「ルイス」によれば、実際に人々が行き交う室内空間を舞台とし、そこで活動する人々の自然な表情を適切な構図で自動撮影することができる。
【非特許文献1】
Lewis the Robotic Photographer (平成15年5月30日検索)
インターネット http://www.cs.wustl.edu/ ̄lewis/
【0004】
【発明が解決しようとする課題】
しかしながら、上述した「ルイス」では、「ルイス」が備えるデジタルカメラで撮影した画像データを、被撮影者に提供することができないという問題があった。
【0005】
一方、遊園地や観光地等においては、来場者等の求めに応じて、来場者の持参したカメラで、自動的に撮影してくれる撮影ロボットが要望されている。
本発明は、かかる従来の問題を解決するためになされたもので、被撮影者のカメラにより被撮影者を確実に撮影することができる撮影ロボットを提供することを目的とする。
【0006】
【課題を解決するための手段】
請求項1の撮影ロボットは、撮影装置を保持し前記撮影装置を操作するマニピュレータ手段と、前記マニピュレータ手段が保持する前記撮影装置の外観を画像データに変換する観察手段と、前記撮影装置の操作方法を求める操作方法取得手段と、前記操作方法取得手段で求められた前記操作方法に基づいて、前記マニピュレータ手段に前記撮影装置を操作するコマンドを出力する撮影手段とを有することを特徴とする。
【0007】
請求項2の撮影ロボットは、請求項1記載の撮影ロボットにおいて、前記操作方法取得手段は、前記観察手段が出力する画像データに基づいて、前記撮影装置の操作方法を解析することを特徴とする。
【0008】
請求項3の撮影ロボットは、請求項1記載の撮影ロボットにおいて、前記操作方法取得手段は、前記撮影装置の外観形状および操作情報を機種に対応して記憶する記憶手段と、前記観察手段が出力する画像データに基づいて前記外観形状から前記機種を特定する機種特定手段と、前記機種特定手段で特定された機種に対応する操作情報を前記記憶手段から抽出する抽出手段とを有することを特徴とする。
【0009】
請求項4の撮影ロボットは、請求項1記載の撮影ロボットにおいて、前記操作方法取得手段は、前記撮影装置の操作情報を機種に対応して記憶する記憶手段と、被撮影者の指示する機種を入力する入力手段と、前記入力手段に入力された機種に対応する操作情報を前記記憶手段から抽出する抽出手段とを有することを特徴とする。
【0010】
請求項5の撮影ロボットは、請求項1ないし請求項4のいずれか1項記載の撮影ロボットにおいて、前記撮影装置は、少なくともレリーズ手段を有し、前記マニピュレータ手段は、少なくとも前記レリーズ手段を操作するレリーズ操作手段を有し、前記操作方法取得手段は、少なくとも前記レリーズ手段の操作方法を求めることを特徴とする。
【0011】
請求項6の撮影ロボットは、請求項1ないし請求項5のいずれか1項記載の撮影ロボットにおいて、前記撮影装置は、少なくとも前記撮影装置が撮影するファインダ像を観察可能なファインダ手段を有し、前記観察手段は、少なくとも前記ファインダ手段の前記ファインダ像を観察し、前記撮影手段は、前記観察手段が出力する前記ファインダ像の前記画像データに基づいて、前記マニピュレータ手段に前記コマンドを出力することを特徴とする。
【0012】
請求項7の撮影ロボットは、請求項1ないし請求項6のいずれか1項記載の撮影ロボットにおいて、前記マニピュレータ手段は、前記撮影装置による撮影後に、前記撮影装置を開放することを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を、図面を用いて詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態の撮影ロボットを示している。
この撮影ロボットは、遊園地や観光地等に置かれ、撮影依頼者の求めに応じて、撮影依頼者の持参したデジタルカメラ11で、撮影依頼者を自動的に撮影する。
【0014】
この撮影ロボットは、右腕装置13,左腕装置15,観察装置17,マイク19,スピーカ21,自走装置23を有している。
右腕装置13および左腕装置15は、人間の右腕および左腕に相当するもので、右腕装置13と左腕装置15によりマニピュレータ手段を構成する。
この右腕装置13および左腕装置15は、撮影依頼者の提供する撮影装置であるデジタルカメラ11を保持し、デジタルカメラ11を操作して撮影を行う。
【0015】
デジタルカメラ11には、光学像を画像データに変換する操作を行うレリーズボタン11aなどの操作ボタンと、その画像データを表示する液晶ファインダ11bが設けられている。液晶ファインダ11bが表示する画像がファインダ像である。
観察装置17は、右腕装置13と左腕装置15とが保持するデジタルカメラ11の外観と、デジタルカメラ11の液晶ファインダ11bに表示されるファインダ像とを画像データに変換する。この実施形態では、観察装置は、左右一対の対物レンズを有しており図示しない光学系を介してCCD撮像センサに結像する。
【0016】
マイク19は、撮影依頼者からの「撮って下さい」等の音声を入力する。
スピーカ21は、「撮影します」等の音声を出力する。
自走装置23は、図示しないモータおよび駆動機構を備え、撮影ロボットの下端に配置される車輪25を駆動することにより撮影ロボットを前後左右に移動する。
【0017】
図2は、撮影ロボットの全体的な構成を示すブロック図である。
CPU27には、右腕装置13,左腕装置15,観察装置17,マイク19,スピーカ21,自走装置23およびプログラム29が接続されている。
プログラム29は、この撮影ロボットによる撮影動作を制御する。
図3は、右腕装置13の構成を示すブロック図である。
【0018】
この右腕装置13は、右肩装置31,右ひじ装置32,右手首装置33および右手装置34を備えている。右肩装置31,右ひじ装置32,右手首装置33および右手装置34は、それぞれ人間の右肩,右ひじ,右手首および右手に相当する機能を有する装置である。
そして、右手装置34は、親指装置35,人差し指装置36,中指装置37,薬指装置38,小指装置39を備えており、これ等の装置が掌装置40に接続されている。親指装置35,人差し指装置36,中指装置37,薬指装置38,小指装置39,掌装置40は、それぞれ人間の親指,人差し指,中指,薬指,小指,掌に相当する機能を有する装置である。
【0019】
図4は、左腕装置15の構成を示すブロック図である。
この左腕装置15は、左肩装置41,左ひじ装置42,左手首装置43および左手装置44を備えている。左肩装置41,左ひじ装置42,左手首装置43および左手装置44は、それぞれ人間の左肩,左ひじ,左手首および左手に相当する機能を有する装置である。
【0020】
そして、左手装置44は、親指装置45,人差し指装置46,中指装置47,薬指装置48,小指装置49を備えており、これ等の装置が掌装置50に接続されている。親指装置45,人差し指装置46,中指装置47,薬指装置48,小指装置49,掌装置50は、それぞれ人間の親指,人差し指,中指,薬指,小指,掌に相当する機能を有する装置である。
【0021】
図5は、この実施形態の撮影ロボットのプログラム29の構成を示すブロック図である。
この実施形態では、解析モジュール51,撮影モジュール53,応対モジュール55が、駆動モジュール57に接続されている。
解析モジュール51は、機能分析モジュール59および形状測定モジュール61を備えているプログラムモジュールである。応対モジュール55は、発話モジュール63および受話モジュール65を備えているプログラムモジュールである。
【0022】
解析モジュール51は、撮影依頼者から提供されたデジタルカメラ11を解析するプログラムモジュールである。
機能分析モジュール59は、デジタルカメラ11の外観の画像データから、デジタルカメラ11の操作ボタンの機能と液晶ファインダ11bの表示領域とを推定するプログラムモジュールである。
【0023】
形状測定モジュール61は、デジタルカメラ11の外観の画像データと観察装置17のAF情報とから、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの3次元座標を算出するプログラムモジュールである。
撮影モジュール53は、観察装置17が出力する液晶ファインダ11bのファインダ像に、撮影依頼者等の被写体が含まれるように右腕装置13と左腕装置15を操作して、デジタルカメラ11の撮影位置や撮影方向を調整する。
【0024】
また、CPU27は、観察装置17が出力する液晶ファインダ11bのファインダ像に、撮影依頼者等の被写体が含まれたら、機能分析モジュール59がレリーズボタン11aと推定した操作ボタンの3次元座標を、形状測定モジュール61から取り出して、その3次元座標が表す位置に人差し指装置36または46を移動させレリーズボタン11aを全押してシャッタを切る。さらに、CPU27は、観察装置17が出力する液晶ファインダ11bのファインダ像を確認する。
【0025】
応対モジュール55は、撮影依頼者との応対を行うプログラムモジュールである。
すなわち、応対モジュール55は、撮影ロボットが撮影依頼者からデジタルカメラ11を受け取る時には、駆動モジュール57に両手を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、撮影依頼者からのデジタルカメラ11を受け取る動作を制御する制御信号を出力する。
【0026】
また、応対モジュール55は、撮影ロボットが撮影依頼者にデジタルカメラ11を返却する時には、駆動モジュール57に両手でデジタルカメラ11を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、デジタルカメラ11を差し出す動作を制御する制御信号を出力する。
さらに、応対モジュール55は、観察装置17からの画像によりデジタルカメラ11を撮影依頼者が受け取ったか否かを判断する。
【0027】
発話モジュール63は、「撮影します」という音声等をスピーカ21から発生させるプログラムモジュールである。
受話モジュール65は、撮影依頼者の発する「撮って下さい」等の音声を検出するプログラムモジュールである。
図6は、この実施形態の撮影ロボットの動作を示すフローチャートである。このフローチャートの実行の主体は、特にその主体を記述しない限りCPU27である。
【0028】
このフローは、撮影ロボットへの電源のオンによりスタートされる。
先ず、ステップS1において、受話モジュール65が、撮影依頼者の発する「撮って下さい」の音声を検出したか否かを判断する。
次に、ステップS2において、受話モジュール65が「撮って下さい」の音声を検出した時には、撮影ロボットは、両手を差し出す動作を行いデジタルカメラを受け取る。
【0029】
すなわち、応対モジュール55が、駆動モジュール57に両手を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、撮影依頼者から提供されたデジタルカメラ11を受け取る動作を制御する制御信号を出力する。
次に、ステップS3において、撮影依頼者から受け取ったデジタルカメラ11の外観の画像データからデジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置を検出する。
【0030】
すなわち、観察装置17は、受け取ったデジタルカメラ11の外観の画像データを機能分析モジュール59に出力する。機能分析モジュール59は、その外観の画像データから、デジタルカメラ11の操作ボタンの機能を推定する。また、観察装置17は、その画像に加えてオートフォーカス(AF)情報、すなわち、観察装置17から操作ボタンまでの距離情報を形状測定モジュール61に出力する。形状測定モジュール61は、観察装置17が出力する画像とAF情報とから、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの3次元座標を算出する。
【0031】
次に、ステップS4において、スピーカ21から「撮影します」という音声を発生させ、同時に、観察装置17は、ファインダ像を画像データに変換する。
すなわち、撮影モジュール53は、発話モジュール63により「撮影します」という音声をスピーカ21から発生させ、また、観察装置17は、機能分析モジュール59が分析したデジタルカメラ11の液晶ファインダ11bの表示画像を画像データに変換する。
【0032】
次に、ステップS5において、撮影依頼者のデジタルカメラ11のファインダ像に撮影依頼者等を取り込む。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれるように右腕装置13と左腕装置15を操作して、デジタルカメラ11の撮影方向と撮影位置を調節する。
【0033】
次に、ステップS6において、撮影依頼者のデジタルカメラ11による撮影を行う。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれたら、機能分析モジュール59がレリーズボタン11aと推定した操作ボタンの3次元座標を、形状測定モジュール61から取り出して、その3次元座標が表す位置に人差し指装置36または46を移動させレリーズボタン11aを全押してシャッタを切る。
【0034】
次に、ステップS7において、デジタルカメラ11に撮影された画像を確認する。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像を確認する。
次に、ステップS8において、ファインダ像に撮影依頼者等の被写体が含まれているかどうか、すなわち、撮影依頼者等の被写体が撮影されたか否かを判断する。
【0035】
そして、被写体が撮影されている場合には、ステップS9において、撮影依頼者のデジタルカメラ11を、撮影依頼者に差し出す。
すなわち、応対モジュール55は、駆動モジュール57に両手でデジタルカメラ11を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、デジタルカメラ11を差し出す動作を制御する制御信号を出力する。
【0036】
次に、ステップS10において、デジタルカメラ11を撮影依頼者が受け取ったか否かが判断される。
すなわち、応対モジュール55は、観察装置17からの画像によりデジタルカメラ11が撮影依頼者に渡されたか否かを判断する。
そして、渡されていない場合には、渡されるまで確認が継続され、渡された場合には、ステップS1に戻る。
【0037】
上述した撮影ロボットでは、解析モジュール51により、撮影依頼者から渡されたデジタルカメラ11を解析し、右腕装置13と左腕装置15によりデジタルカメラ11を操作して撮影依頼者等を撮影するようにしたので、撮影依頼者のデジタルカメラ11により撮影依頼者等を確実に撮影することができる。
(第2の実施形態)
図7は、本発明の第2の実施形態の撮影ロボットのプログラムの構成を示すブロック図である。
【0038】
なお、この実施形態において第1の実施形態と同一の機能を有する部分には、同一の符号を付して詳細な説明を省略する。
この実施形態では、操作情報抽出モジュール67が、駆動モジュール57に接続されている。この操作情報抽出モジュール67は、機種記憶モジュール69および機種特定モジュール71を有しているプログラムモジュールである。
【0039】
機種記憶モジュール69は、デジタルカメラ11の外観形状および操作情報を、機種に対応して記憶するプログラムモジュールである。
機種特定モジュール71は、観察手段が出力する画像データに基づいて、デジタルカメラ11の外観形状から機種を特定するプログラムモジュールである。
操作情報抽出モジュール67は、機種特定モジュール71で特定された機種に対応する操作情報を機種記憶モジュール69から抽出する。
【0040】
図8は、この実施形態の撮影ロボットの動作を示すフローチャートである。
このフローは、撮影ロボットへの電源のオンによりスタートされる。このフローチャートの実行の主体は、特にその主体を記述しない限りCPU27である。
先ず、ステップS1において、受話モジュール65が、撮影依頼者の発する「撮って下さい」の音声を検出したか否かが判断される。
【0041】
次に、受話モジュール65が「撮って下さい」の音声を検出した時には、ステップS2において、撮影ロボットは、両手を差し出す動作を行いデジタルカメラを受け取る。
次に、ステップS3において、撮影依頼者から受け取ったデジタルカメラ11の外観の画像からデジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置を抽出する。
【0042】
すなわち、観察装置17は、受け取ったデジタルカメラ11の外観の画像データを機種特定モジュール71に出力する。機種特定モジュール71は、その外観の画像データと、機種記憶モジュール69に記憶されるデジタルカメラ11の外観形状とを比較し、そのデジタルカメラ11の機種を特定する。そして、操作情報抽出モジュール67は、機種特定モジュール71で特定された機種に対応する操作情報を機種記憶モジュール69から抽出する。この操作情報には、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置、および撮影操作手順が含まれている。
【0043】
次に、ステップS4において、スピーカ21から「撮影します」という音声を発生させ、同時に、観察装置17は、ファインダ像を画像データに変換する。
次に、ステップS5において、撮影依頼者のデジタルカメラ11のファインダ像に撮影依頼者等を取り込む。
次に、ステップS6において、撮影依頼者のデジタルカメラ11による撮影を行う。
【0044】
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれたら、操作情報抽出モジュール67が抽出したレリーズボタン11aの位置に、人差し指装置36又は46を移動させレリーズボタン11aを全押してシャッタを切る。
次に、ステップS7において、デジタルカメラ11に撮影された画像を確認する。
【0045】
次に、ステップS8において、撮影依頼者等の被写体が撮影されたか否かを判断する。
そして、被写体が撮影されている場合には、ステップS9において、撮影依頼者のデジタルカメラ11を、撮影依頼者に差し出す。
次に、ステップS10において、デジタルカメラ11を撮影依頼者が受け取ったか否かが判断される。
【0046】
すなわち、応対モジュール55は、観察装置17からの画像によりデジタルカメラ11が撮影依頼者に渡されたか否かを判断する。
そして、渡されていない場合には、渡されるまで確認が継続され、渡された場合には、ステップS1に戻る。
上述した撮影ロボットでは、操作情報抽出モジュール67により、撮影依頼者から渡されたデジタルカメラ11の操作情報を抽出し、右腕装置13と左腕装置15によりデジタルカメラ11を操作して撮影依頼者等を撮影するようにしたので、撮影依頼者のデジタルカメラ11により撮影依頼者等を確実に撮影することができる。
【0047】
(第3の実施形態)
図9は、本発明の第3の実施形態の撮影ロボットを示している。
なお、この実施形態において第1の実施形態と同一の部材には、同一の符号を付して詳細な説明を省略する。
この実施形態では、撮影ロボットには、撮影依頼者からの情報を入力する入力部73が配置されている。この入力部73は、例えば、タッチパネルからなる。
【0048】
この入力部73には、例えば、デジタルカメラ11を製造した会社名に対応して機種名が表示されている。
そして、撮影依頼者が、自分のデジタルカメラ11の機種名をタッチすることによりデジタルカメラ11の機種が入力される。
【0049】
図10は、この実施形態の撮影ロボットのプログラムの構成を示すブロック図である。
この実施形態では、操作情報抽出モジュール75が、駆動モジュール57に接続されている。この操作情報抽出モジュール75は、機種記憶モジュール77を有しているプログラムモジュールである。
【0050】
機種記憶モジュール77は、デジタルカメラ11の操作情報が、機種に対応して記憶されているプログラムモジュールである。
操作情報抽出モジュール75は、入力部73に入力された機種に対応する操作情報を機種記憶モジュール77から抽出する。
図11は、この実施形態の撮影ロボットの動作を示すフローチャートである。このフローチャートの実行の主体は、特にその主体を記述しない限りCPU27である。
【0051】
このフローは、撮影ロボットへの電源のオンによりスタートされる。
先ず、ステップS1において、受話モジュール65が、撮影依頼者の発する「撮って下さい」の音声を検出したか否かが判断される。
次に、受話モジュール65が「撮って下さい」の音声を検出した時には、ステップS2において、撮影ロボットは、両手を差し出す動作を行い、デジタルカメラ11を受け取る。
【0052】
次に、ステップS3において、撮影依頼者が入力部73に入力した機種からデジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置を特定する。
すなわち、操作情報抽出モジュール75は、入力部73に入力された機種に対応する操作情報を機種記憶モジュール77から抽出する。この操作情報には、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置、および撮影操作手順が含まれている。
【0053】
次に、ステップS4において、スピーカ21から「撮影します」という音声を発生させ、同時に、観察装置17は、デジタルカメラ11のファインダ像を画像データに変換する。
次に、ステップS5において、撮影依頼者のデジタルカメラ11のファインダ像に撮影依頼者等を取り込む。
【0054】
次に、ステップS6において、撮影依頼者のデジタルカメラ11による撮影を行う。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれたら、操作情報抽出モジュール75が抽出したレリーズボタン11aの位置に、人差し指装置36又は46を移動させレリーズボタン11aを全押してシャッタを切る。
【0055】
次に、ステップS7において、デジタルカメラ11に撮影された画像を確認する。
次に、ステップS8において、撮影依頼者等の被写体が撮影されたか否かを判断する。
そして、被写体が撮影されている場合には、ステップS9において、撮影依頼者のデジタルカメラ11を、撮影依頼者に差し出す。
【0056】
次に、ステップS10において、デジタルカメラ11を撮影依頼者が受け取ったか否かが判断される。
そして、渡されていない場合には、渡されるまで確認が継続され、渡された場合には、ステップS1に戻る。
上述した撮影ロボットでは、撮影依頼者が入力部73に入力した機種に基づいて、操作情報抽出モジュール75により、撮影依頼者から渡されたデジタルカメラ11の操作情報を抽出し、右腕装置13と左腕装置15によりデジタルカメラ11を操作して撮影依頼者等を撮影するようにしたので、撮影依頼者のデジタルカメラ11により撮影依頼者等を確実に撮影することができる。
【0057】
なお、上述した第3の実施形態では、入力部73をタッチパネルにより形成した例について説明したが、本発明はかかる実施形態に限定されるものではなく、例えば、プッシュボタンにしても良い。また、音声で入力するようにしても良い。
また、上述した各実施形態では、撮影ロボットがデジタルカメラ11による撮影を行った例について説明したが、本発明はかかる実施形態に限定されるものではなく、例えば、通常のフィルムを用いたカメラ,ビデオカメラ等による撮影にも適用することができる。
【0058】
さらに、上述した各実施形態では、「撮って下さい」の音声入力により撮影動作を開始した例について説明したが、本発明はかかる実施形態に限定されるものではなく、例えば、操作ボタンを押すことにより撮影動作を開始するようにしても良い。
【0059】
【発明の効果】
以上述べたように、本発明の撮影ロボットによれば、被撮影者のカメラにより被撮影者を確実に撮影することができる。
【図面の簡単な説明】
【図1】本発明の撮影ロボットの第1の実施形態を示す説明図である。
【図2】図1の撮影ロボットの全体構成を示すブロック図である。
【図3】図1の撮影ロボットの右腕装置の構成を示すブロック図である。
【図4】図1の撮影ロボットの左腕装置の構成を示すブロック図である。
【図5】図1の撮影ロボットのプログラムを示すブロック図である。
【図6】図1の撮影ロボットの動作を示すフローチャートである。
【図7】本発明の撮影ロボットの第2の実施形態を示すブロック図である。
【図8】図7の撮影ロボットの動作を示すフローチャートである。
【図9】本発明の撮影ロボットの第3の実施形態を示す説明図である。
【図10】図9の撮影ロボットのプログラムを示すブロック図である。
【図11】図9の撮影ロボットの動作を示すフローチャートである。
【符号の説明】
11 デジタルカメラ
11a レリーズボタン
11b 液晶ファインダ
13 右腕装置
15 左腕装置
17 観察装置
51 解析モジュール
53 撮影モジュール
55 応対モジュール
59 機能分析モジュール
61 形状測定モジュール
63 発話モジュール
65 受話モジュール
67 操作情報抽出モジュール
69 機種記憶モジュール
71 機種特定モジュール
75 操作情報抽出モジュール
77 機種記憶モジュール[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a photographing apparatus that performs photographing in response to a request from a visitor or the like in an amusement park or a sightseeing spot.
[0002]
[Prior art]
Recently, a next-generation imaging device has been proposed in which it moves autonomously, determines the composition, and performs imaging.
As such a photographing apparatus, for example, a photographer robot “Lewis” (Lewis the Robotic Photographer) developed at the University of Washington is known.
[0003]
According to this "Lewis", it is possible to automatically photograph natural expressions of people who are active in an indoor space where people actually come and go.
[Non-Patent Document 1]
Lewis the Robotic Photographer (searched on May 30, 2003)
Internet http: // www. cs. Wustl. edu /  ̄lewis /
[0004]
[Problems to be solved by the invention]
However, the above-mentioned “Lewis” has a problem that image data taken by a digital camera included in “Lewis” cannot be provided to the subject.
[0005]
On the other hand, in amusement parks, sightseeing spots, etc., there is a demand for a shooting robot that automatically takes pictures with a camera brought by the visitor in response to a request from the visitor.
The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a photographing robot capable of reliably photographing a subject using a subject's camera.
[0006]
[Means for Solving the Problems]
The imaging robot according to
[0007]
The imaging robot according to
[0008]
According to a third aspect of the present invention, in the photographing robot according to the first aspect, the operation method obtaining means stores storage means for storing the external shape and operation information of the photographing apparatus corresponding to a model, and the observation means outputs A model specifying unit that specifies the model from the appearance shape based on image data to be extracted, and an extraction unit that extracts operation information corresponding to the model specified by the model specifying unit from the storage unit. To do.
[0009]
According to a fourth aspect of the present invention, in the photographing robot according to the first aspect, the operation method acquisition means includes a storage means for storing operation information of the photographing apparatus corresponding to a model, and a model designated by the subject. Input means for inputting, and extraction means for extracting operation information corresponding to the model input to the input means from the storage means.
[0010]
The imaging robot according to
[0011]
The imaging robot according to
[0012]
The imaging robot according to
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 shows a photographing robot according to a first embodiment of the present invention.
This imaging robot is placed in an amusement park, a sightseeing spot, etc., and automatically shoots the client by the digital camera 11 brought by the client in response to a request from the client.
[0014]
This imaging robot has a
The
The
[0015]
The digital camera 11 is provided with operation buttons such as a release button 11a for performing an operation for converting an optical image into image data, and a liquid crystal finder 11b for displaying the image data. The image displayed by the liquid crystal finder 11b is a finder image.
The
[0016]
The
The
The self-
[0017]
FIG. 2 is a block diagram showing the overall configuration of the imaging robot.
Connected to the
The
FIG. 3 is a block diagram showing the configuration of the
[0018]
The
The
[0019]
FIG. 4 is a block diagram showing the configuration of the
The
[0020]
The
[0021]
FIG. 5 is a block diagram showing the configuration of the shooting
In this embodiment, the analysis module 51, the
The analysis module 51 is a program module that includes a
[0022]
The analysis module 51 is a program module that analyzes the digital camera 11 provided by the client.
The
[0023]
The shape measurement module 61 is a program module that calculates the three-dimensional coordinates of the release button 11 a and the liquid crystal finder 11 b of the digital camera 11 from the image data of the appearance of the digital camera 11 and the AF information of the
The photographing
[0024]
In addition, when the finder image of the liquid crystal finder 11b output from the
[0025]
The
That is, the
[0026]
In addition, when the imaging robot returns the digital camera 11 to the client, the
Further, the
[0027]
The
The
FIG. 6 is a flowchart showing the operation of the imaging robot of this embodiment. The subject of execution of this flowchart is the
[0028]
This flow is started when the imaging robot is turned on.
First, in step S1, it is determined whether or not the receiving
Next, in step S2, when the receiving
[0029]
That is, the
Next, in step S3, the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 are detected from the image data of the appearance of the digital camera 11 received from the photograph client.
[0030]
That is, the
[0031]
Next, in step S4, a voice “I will shoot” is generated from the
That is, the photographing
[0032]
Next, in step S5, the client or the like is taken into the viewfinder image of the client's digital camera 11.
That is, the photographing
[0033]
Next, in step S6, the digital camera 11 of the client requesting the image is taken.
That is, when the finder image output from the
[0034]
Next, in step S7, an image photographed by the digital camera 11 is confirmed.
That is, the
Next, in step S8, it is determined whether or not the finder image includes a subject such as a client who has taken a picture, that is, whether or not a subject such as the client has been shot.
[0035]
If the subject is photographed, in step S9, the digital camera 11 of the photograph requester is presented to the photograph requester.
That is, the
[0036]
Next, in step S10, it is determined whether the digital camera 11 has been received by the client.
That is, the
If it is not passed, the confirmation is continued until it is passed, and if it is passed, the process returns to step S1.
[0037]
In the above-described imaging robot, the analysis module 51 analyzes the digital camera 11 delivered from the client, and operates the digital camera 11 with the
(Second Embodiment)
FIG. 7 is a block diagram showing the configuration of the program of the photographing robot according to the second embodiment of the present invention.
[0038]
In this embodiment, parts having the same functions as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
In this embodiment, the operation
[0039]
The
The model identifying module 71 is a program module that identifies the model from the external shape of the digital camera 11 based on the image data output by the observation means.
The operation
[0040]
FIG. 8 is a flowchart showing the operation of the imaging robot of this embodiment.
This flow is started when the imaging robot is turned on. The subject of execution of this flowchart is the
First, in step S1, it is determined whether or not the receiving
[0041]
Next, when the receiving
Next, in step S3, the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 are extracted from the appearance image of the digital camera 11 received from the client.
[0042]
In other words, the
[0043]
Next, in step S4, a voice “I will shoot” is generated from the
Next, in step S5, the client or the like is taken into the viewfinder image of the client's digital camera 11.
Next, in step S6, the digital camera 11 of the client requesting the image is taken.
[0044]
In other words, the photographing
Next, in step S7, an image photographed by the digital camera 11 is confirmed.
[0045]
Next, in step S8, it is determined whether or not a subject such as a client who has taken a photograph has been photographed.
If the subject is photographed, in step S9, the digital camera 11 of the photograph requester is presented to the photograph requester.
Next, in step S10, it is determined whether the digital camera 11 has been received by the client.
[0046]
That is, the
If it is not passed, the confirmation is continued until it is passed, and if it is passed, the process returns to step S1.
In the above-described imaging robot, the operation
[0047]
(Third embodiment)
FIG. 9 shows a photographing robot according to the third embodiment of the present invention.
In this embodiment, the same members as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
In this embodiment, the imaging robot is provided with an input unit 73 for inputting information from the imaging client. This input part 73 consists of a touch panel, for example.
[0048]
In the input unit 73, for example, the model name corresponding to the name of the company that manufactured the digital camera 11 is displayed.
The photograph requester touches the model name of his / her digital camera 11 to input the model of the digital camera 11.
[0049]
FIG. 10 is a block diagram showing the configuration of the program of the imaging robot of this embodiment.
In this embodiment, the operation
[0050]
The model storage module 77 is a program module in which operation information of the digital camera 11 is stored corresponding to the model.
The operation
FIG. 11 is a flowchart showing the operation of the imaging robot of this embodiment. The subject of execution of this flowchart is the
[0051]
This flow is started when the imaging robot is turned on.
First, in step S1, it is determined whether or not the receiving
Next, when the receiving
[0052]
Next, in step S3, the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 are specified from the model input to the input unit 73 by the client.
That is, the operation
[0053]
Next, in step S4, a sound “I will shoot” is generated from the
Next, in step S5, the client or the like is taken into the viewfinder image of the client's digital camera 11.
[0054]
Next, in step S6, the digital camera 11 of the client requesting the image is taken.
That is, when the finder image output from the
[0055]
Next, in step S7, an image photographed by the digital camera 11 is confirmed.
Next, in step S8, it is determined whether or not a subject such as a client who has taken a photograph has been photographed.
If the subject is photographed, in step S9, the digital camera 11 of the photograph requester is presented to the photograph requester.
[0056]
Next, in step S10, it is determined whether the digital camera 11 has been received by the client.
If it is not passed, the confirmation is continued until it is passed, and if it is passed, the process returns to step S1.
In the above-described imaging robot, the operation
[0057]
In the above-described third embodiment, an example in which the input unit 73 is formed by a touch panel has been described. However, the present invention is not limited to such an embodiment, and may be a push button, for example. Moreover, you may make it input with an audio | voice.
Further, in each of the above-described embodiments, the example in which the photographing robot performs photographing with the digital camera 11 has been described. However, the present invention is not limited to such an embodiment, for example, a camera using a normal film, It can also be applied to shooting with a video camera or the like.
[0058]
Further, in each of the above-described embodiments, the example in which the photographing operation is started by the voice input of “Please take a picture” has been described. However, the present invention is not limited to such an embodiment, and for example, pressing an operation button. May start the shooting operation.
[0059]
【The invention's effect】
As described above, according to the photographing robot of the present invention, the subject can be reliably photographed by the subject's camera.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a first embodiment of a photographing robot of the present invention.
2 is a block diagram showing an overall configuration of the imaging robot of FIG. 1. FIG.
3 is a block diagram showing a configuration of a right arm device of the imaging robot of FIG. 1. FIG.
4 is a block diagram showing a configuration of a left arm device of the imaging robot of FIG. 1. FIG.
FIG. 5 is a block diagram showing a program of the photographing robot of FIG. 1;
6 is a flowchart showing an operation of the photographing robot of FIG. 1. FIG.
FIG. 7 is a block diagram showing a second embodiment of the imaging robot of the present invention.
8 is a flowchart showing the operation of the imaging robot of FIG.
FIG. 9 is an explanatory view showing a third embodiment of the imaging robot of the present invention.
10 is a block diagram showing a program of the imaging robot of FIG. 9. FIG.
FIG. 11 is a flowchart showing the operation of the photographing robot of FIG. 9;
[Explanation of symbols]
11 Digital Camera 11a Release Button 11b
Claims (7)
前記マニピュレータ手段が保持する前記撮影装置の外観を画像データに変換する観察手段と、
前記撮影装置の操作方法を求める操作方法取得手段と、
前記操作方法取得手段で求められた前記操作方法に基づいて、前記マニピュレータ手段に前記撮影装置を操作するコマンドを出力する撮影手段と、
を有することを特徴とする撮影ロボット。Manipulator means for holding the imaging device and operating the imaging device;
Observation means for converting the appearance of the photographing apparatus held by the manipulator means into image data;
Operation method obtaining means for obtaining an operation method of the photographing apparatus;
Based on the operation method obtained by the operation method acquisition means, photographing means for outputting a command for operating the photographing apparatus to the manipulator means,
A photographing robot characterized by comprising:
前記操作方法取得手段は、前記観察手段が出力する画像データに基づいて、前記撮影装置の操作方法を解析することを特徴とする撮影ロボット。The imaging robot according to claim 1,
The imaging robot according to claim 1, wherein the operation method acquisition unit analyzes an operation method of the imaging apparatus based on image data output from the observation unit.
前記操作方法取得手段は、
前記撮影装置の外観形状および操作情報を機種に対応して記憶する記憶手段と、
前記観察手段が出力する画像データに基づいて前記外観形状から前記機種を特定する機種特定手段と、
前記機種特定手段で特定された機種に対応する操作情報を前記記憶手段から抽出する抽出手段と、
を有することを特徴とする撮影ロボット。The imaging robot according to claim 1,
The operation method acquisition means includes
Storage means for storing the external shape and operation information of the photographing apparatus corresponding to the model;
Model specifying means for specifying the model from the appearance shape based on the image data output by the observation means;
Extracting means for extracting operation information corresponding to the model specified by the model specifying means from the storage means;
A photographing robot characterized by comprising:
前記操作方法取得手段は、
前記撮影装置の操作情報を機種に対応して記憶する記憶手段と、
被撮影者の指示する機種を入力する入力手段と、
前記入力手段に入力された機種に対応する操作情報を前記記憶手段から抽出する抽出手段と、
を有することを特徴とする撮影ロボット。The imaging robot according to claim 1,
The operation method acquisition means includes
Storage means for storing operation information of the photographing apparatus corresponding to the model;
An input means for inputting a model designated by the subject,
Extraction means for extracting operation information corresponding to the model input to the input means from the storage means;
A photographing robot characterized by comprising:
前記撮影装置は、少なくともレリーズ手段を有し、
前記マニピュレータ手段は、少なくとも前記レリーズ手段を操作するレリーズ操作手段を有し、
前記操作方法取得手段は、少なくとも前記レリーズ手段の操作方法を求めることを特徴とする撮影ロボット。The imaging robot according to any one of claims 1 to 4,
The photographing apparatus has at least release means,
The manipulator means includes release operation means for operating at least the release means,
The imaging robot according to claim 1, wherein the operation method acquisition unit obtains at least an operation method of the release unit.
前記撮影装置は、少なくとも前記撮影装置が撮影するファインダ像を観察可能なファインダ手段を有し、
前記観察手段は、少なくとも前記ファインダ手段の前記ファインダ像を観察し、
前記撮影手段は、前記観察手段が出力する前記ファインダ像の前記画像データに基づいて、前記マニピュレータ手段に前記コマンドを出力することを特徴とする撮影ロボット。The imaging robot according to any one of claims 1 to 5,
The photographing apparatus has a finder means capable of observing at least a finder image photographed by the photographing apparatus,
The observing means observes at least the finder image of the finder means;
The imaging robot, wherein the imaging unit outputs the command to the manipulator unit based on the image data of the finder image output from the observation unit.
前記マニピュレータ手段は、前記撮影装置による撮影後に、前記撮影装置を開放することを特徴とする撮影ロボット。The imaging robot according to any one of claims 1 to 6,
The photographing robot characterized in that the manipulator means opens the photographing device after photographing by the photographing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003182833A JP2005014155A (en) | 2003-06-26 | 2003-06-26 | Photographing robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003182833A JP2005014155A (en) | 2003-06-26 | 2003-06-26 | Photographing robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005014155A true JP2005014155A (en) | 2005-01-20 |
Family
ID=34183113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003182833A Pending JP2005014155A (en) | 2003-06-26 | 2003-06-26 | Photographing robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005014155A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190098A (en) * | 2017-04-28 | 2018-11-29 | パナソニックIpマネジメント株式会社 | Renewal support system, renewal support method and program |
-
2003
- 2003-06-26 JP JP2003182833A patent/JP2005014155A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190098A (en) * | 2017-04-28 | 2018-11-29 | パナソニックIpマネジメント株式会社 | Renewal support system, renewal support method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5999336B2 (en) | Imaging apparatus, imaging processing method, and program | |
JP4264660B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP4864502B2 (en) | Imaging apparatus and imaging condition guide method | |
CN106131413B (en) | Shooting equipment and control method thereof | |
WO2015064144A1 (en) | Image capturing device, image capturing method, and program | |
JP2006201531A (en) | Imaging device | |
JP5495760B2 (en) | Imaging device | |
US11950758B2 (en) | Video camera having video image orientation based on vector information | |
JP2009117975A (en) | Image pickup apparatus and method | |
WO2015093083A1 (en) | Image pickup apparatus and image pickup apparatus control method | |
JP4404805B2 (en) | Imaging device | |
JP2012123218A (en) | Image pickup method and image pickup apparatus | |
WO2020241038A1 (en) | Composition control device, composition control method, and program | |
JP7293039B2 (en) | Imaging device and its control method | |
JP2005014155A (en) | Photographing robot | |
US9066010B2 (en) | Photographing apparatus, photographing method and medium recording photographing control program | |
JP2017103657A (en) | Imaging apparatus, imaging method, and computer program for imaging apparatus | |
JP4849330B2 (en) | Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program | |
KR102145523B1 (en) | Method for control a camera apparatus and the camera apparatus | |
US9307142B2 (en) | Imaging method and imaging apparatus | |
KR100794114B1 (en) | Portable terminal and method of taking a picture using a pupil code in the same | |
JP5967422B2 (en) | Imaging apparatus, imaging processing method, and program | |
JP2008083078A (en) | Camera | |
JP4452100B2 (en) | Video communication system | |
JP2005031131A (en) | Automatic imaging apparatus |