JP2005014155A - Photographing robot - Google Patents

Photographing robot Download PDF

Info

Publication number
JP2005014155A
JP2005014155A JP2003182833A JP2003182833A JP2005014155A JP 2005014155 A JP2005014155 A JP 2005014155A JP 2003182833 A JP2003182833 A JP 2003182833A JP 2003182833 A JP2003182833 A JP 2003182833A JP 2005014155 A JP2005014155 A JP 2005014155A
Authority
JP
Japan
Prior art keywords
photographing
imaging
operation method
module
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003182833A
Other languages
Japanese (ja)
Inventor
Kazuaki Aoto
和明 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003182833A priority Critical patent/JP2005014155A/en
Publication of JP2005014155A publication Critical patent/JP2005014155A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Accessories Of Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely photograph a photographing object person by a camera of the photographing object person, in a photographing device for photographing according to a request of an attendant in a pleasure ground and a sight-seeing place. <P>SOLUTION: This photographing robot is characterized by having a manipulator means for operating the photographing device by holding the photographing device, an observing means for converting an appearance of the photographing device held by the manipulator means into image data, an operation method acquiring means for determining an operation method of the photographing device, and a photographing means for outputting a command for operating the photographing device to the manipulator means on the basis of the operation method determined by the operation method acquiring means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、遊園地や観光地等において、来場者等の求めに応じて撮影を行う撮影装置に関する。
【0002】
【従来の技術】
近時、自らが自律的に移動して構図を決定し、撮影を行う次世代の撮影機器が提案されている。
このような撮影機器として、例えば、ワシントン大学で開発されたフォトグラファーロボット「ルイス」(Lewis the Robotic Photographer)が知られている。
【0003】
この「ルイス」によれば、実際に人々が行き交う室内空間を舞台とし、そこで活動する人々の自然な表情を適切な構図で自動撮影することができる。
【非特許文献1】
Lewis the Robotic Photographer (平成15年5月30日検索)
インターネット http://www.cs.wustl.edu/ ̄lewis/
【0004】
【発明が解決しようとする課題】
しかしながら、上述した「ルイス」では、「ルイス」が備えるデジタルカメラで撮影した画像データを、被撮影者に提供することができないという問題があった。
【0005】
一方、遊園地や観光地等においては、来場者等の求めに応じて、来場者の持参したカメラで、自動的に撮影してくれる撮影ロボットが要望されている。
本発明は、かかる従来の問題を解決するためになされたもので、被撮影者のカメラにより被撮影者を確実に撮影することができる撮影ロボットを提供することを目的とする。
【0006】
【課題を解決するための手段】
請求項1の撮影ロボットは、撮影装置を保持し前記撮影装置を操作するマニピュレータ手段と、前記マニピュレータ手段が保持する前記撮影装置の外観を画像データに変換する観察手段と、前記撮影装置の操作方法を求める操作方法取得手段と、前記操作方法取得手段で求められた前記操作方法に基づいて、前記マニピュレータ手段に前記撮影装置を操作するコマンドを出力する撮影手段とを有することを特徴とする。
【0007】
請求項2の撮影ロボットは、請求項1記載の撮影ロボットにおいて、前記操作方法取得手段は、前記観察手段が出力する画像データに基づいて、前記撮影装置の操作方法を解析することを特徴とする。
【0008】
請求項3の撮影ロボットは、請求項1記載の撮影ロボットにおいて、前記操作方法取得手段は、前記撮影装置の外観形状および操作情報を機種に対応して記憶する記憶手段と、前記観察手段が出力する画像データに基づいて前記外観形状から前記機種を特定する機種特定手段と、前記機種特定手段で特定された機種に対応する操作情報を前記記憶手段から抽出する抽出手段とを有することを特徴とする。
【0009】
請求項4の撮影ロボットは、請求項1記載の撮影ロボットにおいて、前記操作方法取得手段は、前記撮影装置の操作情報を機種に対応して記憶する記憶手段と、被撮影者の指示する機種を入力する入力手段と、前記入力手段に入力された機種に対応する操作情報を前記記憶手段から抽出する抽出手段とを有することを特徴とする。
【0010】
請求項5の撮影ロボットは、請求項1ないし請求項4のいずれか1項記載の撮影ロボットにおいて、前記撮影装置は、少なくともレリーズ手段を有し、前記マニピュレータ手段は、少なくとも前記レリーズ手段を操作するレリーズ操作手段を有し、前記操作方法取得手段は、少なくとも前記レリーズ手段の操作方法を求めることを特徴とする。
【0011】
請求項6の撮影ロボットは、請求項1ないし請求項5のいずれか1項記載の撮影ロボットにおいて、前記撮影装置は、少なくとも前記撮影装置が撮影するファインダ像を観察可能なファインダ手段を有し、前記観察手段は、少なくとも前記ファインダ手段の前記ファインダ像を観察し、前記撮影手段は、前記観察手段が出力する前記ファインダ像の前記画像データに基づいて、前記マニピュレータ手段に前記コマンドを出力することを特徴とする。
【0012】
請求項7の撮影ロボットは、請求項1ないし請求項6のいずれか1項記載の撮影ロボットにおいて、前記マニピュレータ手段は、前記撮影装置による撮影後に、前記撮影装置を開放することを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を、図面を用いて詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態の撮影ロボットを示している。
この撮影ロボットは、遊園地や観光地等に置かれ、撮影依頼者の求めに応じて、撮影依頼者の持参したデジタルカメラ11で、撮影依頼者を自動的に撮影する。
【0014】
この撮影ロボットは、右腕装置13,左腕装置15,観察装置17,マイク19,スピーカ21,自走装置23を有している。
右腕装置13および左腕装置15は、人間の右腕および左腕に相当するもので、右腕装置13と左腕装置15によりマニピュレータ手段を構成する。
この右腕装置13および左腕装置15は、撮影依頼者の提供する撮影装置であるデジタルカメラ11を保持し、デジタルカメラ11を操作して撮影を行う。
【0015】
デジタルカメラ11には、光学像を画像データに変換する操作を行うレリーズボタン11aなどの操作ボタンと、その画像データを表示する液晶ファインダ11bが設けられている。液晶ファインダ11bが表示する画像がファインダ像である。
観察装置17は、右腕装置13と左腕装置15とが保持するデジタルカメラ11の外観と、デジタルカメラ11の液晶ファインダ11bに表示されるファインダ像とを画像データに変換する。この実施形態では、観察装置は、左右一対の対物レンズを有しており図示しない光学系を介してCCD撮像センサに結像する。
【0016】
マイク19は、撮影依頼者からの「撮って下さい」等の音声を入力する。
スピーカ21は、「撮影します」等の音声を出力する。
自走装置23は、図示しないモータおよび駆動機構を備え、撮影ロボットの下端に配置される車輪25を駆動することにより撮影ロボットを前後左右に移動する。
【0017】
図2は、撮影ロボットの全体的な構成を示すブロック図である。
CPU27には、右腕装置13,左腕装置15,観察装置17,マイク19,スピーカ21,自走装置23およびプログラム29が接続されている。
プログラム29は、この撮影ロボットによる撮影動作を制御する。
図3は、右腕装置13の構成を示すブロック図である。
【0018】
この右腕装置13は、右肩装置31,右ひじ装置32,右手首装置33および右手装置34を備えている。右肩装置31,右ひじ装置32,右手首装置33および右手装置34は、それぞれ人間の右肩,右ひじ,右手首および右手に相当する機能を有する装置である。
そして、右手装置34は、親指装置35,人差し指装置36,中指装置37,薬指装置38,小指装置39を備えており、これ等の装置が掌装置40に接続されている。親指装置35,人差し指装置36,中指装置37,薬指装置38,小指装置39,掌装置40は、それぞれ人間の親指,人差し指,中指,薬指,小指,掌に相当する機能を有する装置である。
【0019】
図4は、左腕装置15の構成を示すブロック図である。
この左腕装置15は、左肩装置41,左ひじ装置42,左手首装置43および左手装置44を備えている。左肩装置41,左ひじ装置42,左手首装置43および左手装置44は、それぞれ人間の左肩,左ひじ,左手首および左手に相当する機能を有する装置である。
【0020】
そして、左手装置44は、親指装置45,人差し指装置46,中指装置47,薬指装置48,小指装置49を備えており、これ等の装置が掌装置50に接続されている。親指装置45,人差し指装置46,中指装置47,薬指装置48,小指装置49,掌装置50は、それぞれ人間の親指,人差し指,中指,薬指,小指,掌に相当する機能を有する装置である。
【0021】
図5は、この実施形態の撮影ロボットのプログラム29の構成を示すブロック図である。
この実施形態では、解析モジュール51,撮影モジュール53,応対モジュール55が、駆動モジュール57に接続されている。
解析モジュール51は、機能分析モジュール59および形状測定モジュール61を備えているプログラムモジュールである。応対モジュール55は、発話モジュール63および受話モジュール65を備えているプログラムモジュールである。
【0022】
解析モジュール51は、撮影依頼者から提供されたデジタルカメラ11を解析するプログラムモジュールである。
機能分析モジュール59は、デジタルカメラ11の外観の画像データから、デジタルカメラ11の操作ボタンの機能と液晶ファインダ11bの表示領域とを推定するプログラムモジュールである。
【0023】
形状測定モジュール61は、デジタルカメラ11の外観の画像データと観察装置17のAF情報とから、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの3次元座標を算出するプログラムモジュールである。
撮影モジュール53は、観察装置17が出力する液晶ファインダ11bのファインダ像に、撮影依頼者等の被写体が含まれるように右腕装置13と左腕装置15を操作して、デジタルカメラ11の撮影位置や撮影方向を調整する。
【0024】
また、CPU27は、観察装置17が出力する液晶ファインダ11bのファインダ像に、撮影依頼者等の被写体が含まれたら、機能分析モジュール59がレリーズボタン11aと推定した操作ボタンの3次元座標を、形状測定モジュール61から取り出して、その3次元座標が表す位置に人差し指装置36または46を移動させレリーズボタン11aを全押してシャッタを切る。さらに、CPU27は、観察装置17が出力する液晶ファインダ11bのファインダ像を確認する。
【0025】
応対モジュール55は、撮影依頼者との応対を行うプログラムモジュールである。
すなわち、応対モジュール55は、撮影ロボットが撮影依頼者からデジタルカメラ11を受け取る時には、駆動モジュール57に両手を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、撮影依頼者からのデジタルカメラ11を受け取る動作を制御する制御信号を出力する。
【0026】
また、応対モジュール55は、撮影ロボットが撮影依頼者にデジタルカメラ11を返却する時には、駆動モジュール57に両手でデジタルカメラ11を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、デジタルカメラ11を差し出す動作を制御する制御信号を出力する。
さらに、応対モジュール55は、観察装置17からの画像によりデジタルカメラ11を撮影依頼者が受け取ったか否かを判断する。
【0027】
発話モジュール63は、「撮影します」という音声等をスピーカ21から発生させるプログラムモジュールである。
受話モジュール65は、撮影依頼者の発する「撮って下さい」等の音声を検出するプログラムモジュールである。
図6は、この実施形態の撮影ロボットの動作を示すフローチャートである。このフローチャートの実行の主体は、特にその主体を記述しない限りCPU27である。
【0028】
このフローは、撮影ロボットへの電源のオンによりスタートされる。
先ず、ステップS1において、受話モジュール65が、撮影依頼者の発する「撮って下さい」の音声を検出したか否かを判断する。
次に、ステップS2において、受話モジュール65が「撮って下さい」の音声を検出した時には、撮影ロボットは、両手を差し出す動作を行いデジタルカメラを受け取る。
【0029】
すなわち、応対モジュール55が、駆動モジュール57に両手を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、撮影依頼者から提供されたデジタルカメラ11を受け取る動作を制御する制御信号を出力する。
次に、ステップS3において、撮影依頼者から受け取ったデジタルカメラ11の外観の画像データからデジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置を検出する。
【0030】
すなわち、観察装置17は、受け取ったデジタルカメラ11の外観の画像データを機能分析モジュール59に出力する。機能分析モジュール59は、その外観の画像データから、デジタルカメラ11の操作ボタンの機能を推定する。また、観察装置17は、その画像に加えてオートフォーカス(AF)情報、すなわち、観察装置17から操作ボタンまでの距離情報を形状測定モジュール61に出力する。形状測定モジュール61は、観察装置17が出力する画像とAF情報とから、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの3次元座標を算出する。
【0031】
次に、ステップS4において、スピーカ21から「撮影します」という音声を発生させ、同時に、観察装置17は、ファインダ像を画像データに変換する。
すなわち、撮影モジュール53は、発話モジュール63により「撮影します」という音声をスピーカ21から発生させ、また、観察装置17は、機能分析モジュール59が分析したデジタルカメラ11の液晶ファインダ11bの表示画像を画像データに変換する。
【0032】
次に、ステップS5において、撮影依頼者のデジタルカメラ11のファインダ像に撮影依頼者等を取り込む。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれるように右腕装置13と左腕装置15を操作して、デジタルカメラ11の撮影方向と撮影位置を調節する。
【0033】
次に、ステップS6において、撮影依頼者のデジタルカメラ11による撮影を行う。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれたら、機能分析モジュール59がレリーズボタン11aと推定した操作ボタンの3次元座標を、形状測定モジュール61から取り出して、その3次元座標が表す位置に人差し指装置36または46を移動させレリーズボタン11aを全押してシャッタを切る。
【0034】
次に、ステップS7において、デジタルカメラ11に撮影された画像を確認する。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像を確認する。
次に、ステップS8において、ファインダ像に撮影依頼者等の被写体が含まれているかどうか、すなわち、撮影依頼者等の被写体が撮影されたか否かを判断する。
【0035】
そして、被写体が撮影されている場合には、ステップS9において、撮影依頼者のデジタルカメラ11を、撮影依頼者に差し出す。
すなわち、応対モジュール55は、駆動モジュール57に両手でデジタルカメラ11を差し出すコマンドを出力し、駆動モジュール57は、右腕装置13と左腕装置15に、デジタルカメラ11を差し出す動作を制御する制御信号を出力する。
【0036】
次に、ステップS10において、デジタルカメラ11を撮影依頼者が受け取ったか否かが判断される。
すなわち、応対モジュール55は、観察装置17からの画像によりデジタルカメラ11が撮影依頼者に渡されたか否かを判断する。
そして、渡されていない場合には、渡されるまで確認が継続され、渡された場合には、ステップS1に戻る。
【0037】
上述した撮影ロボットでは、解析モジュール51により、撮影依頼者から渡されたデジタルカメラ11を解析し、右腕装置13と左腕装置15によりデジタルカメラ11を操作して撮影依頼者等を撮影するようにしたので、撮影依頼者のデジタルカメラ11により撮影依頼者等を確実に撮影することができる。
(第2の実施形態)
図7は、本発明の第2の実施形態の撮影ロボットのプログラムの構成を示すブロック図である。
【0038】
なお、この実施形態において第1の実施形態と同一の機能を有する部分には、同一の符号を付して詳細な説明を省略する。
この実施形態では、操作情報抽出モジュール67が、駆動モジュール57に接続されている。この操作情報抽出モジュール67は、機種記憶モジュール69および機種特定モジュール71を有しているプログラムモジュールである。
【0039】
機種記憶モジュール69は、デジタルカメラ11の外観形状および操作情報を、機種に対応して記憶するプログラムモジュールである。
機種特定モジュール71は、観察手段が出力する画像データに基づいて、デジタルカメラ11の外観形状から機種を特定するプログラムモジュールである。
操作情報抽出モジュール67は、機種特定モジュール71で特定された機種に対応する操作情報を機種記憶モジュール69から抽出する。
【0040】
図8は、この実施形態の撮影ロボットの動作を示すフローチャートである。
このフローは、撮影ロボットへの電源のオンによりスタートされる。このフローチャートの実行の主体は、特にその主体を記述しない限りCPU27である。
先ず、ステップS1において、受話モジュール65が、撮影依頼者の発する「撮って下さい」の音声を検出したか否かが判断される。
【0041】
次に、受話モジュール65が「撮って下さい」の音声を検出した時には、ステップS2において、撮影ロボットは、両手を差し出す動作を行いデジタルカメラを受け取る。
次に、ステップS3において、撮影依頼者から受け取ったデジタルカメラ11の外観の画像からデジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置を抽出する。
【0042】
すなわち、観察装置17は、受け取ったデジタルカメラ11の外観の画像データを機種特定モジュール71に出力する。機種特定モジュール71は、その外観の画像データと、機種記憶モジュール69に記憶されるデジタルカメラ11の外観形状とを比較し、そのデジタルカメラ11の機種を特定する。そして、操作情報抽出モジュール67は、機種特定モジュール71で特定された機種に対応する操作情報を機種記憶モジュール69から抽出する。この操作情報には、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置、および撮影操作手順が含まれている。
【0043】
次に、ステップS4において、スピーカ21から「撮影します」という音声を発生させ、同時に、観察装置17は、ファインダ像を画像データに変換する。
次に、ステップS5において、撮影依頼者のデジタルカメラ11のファインダ像に撮影依頼者等を取り込む。
次に、ステップS6において、撮影依頼者のデジタルカメラ11による撮影を行う。
【0044】
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれたら、操作情報抽出モジュール67が抽出したレリーズボタン11aの位置に、人差し指装置36又は46を移動させレリーズボタン11aを全押してシャッタを切る。
次に、ステップS7において、デジタルカメラ11に撮影された画像を確認する。
【0045】
次に、ステップS8において、撮影依頼者等の被写体が撮影されたか否かを判断する。
そして、被写体が撮影されている場合には、ステップS9において、撮影依頼者のデジタルカメラ11を、撮影依頼者に差し出す。
次に、ステップS10において、デジタルカメラ11を撮影依頼者が受け取ったか否かが判断される。
【0046】
すなわち、応対モジュール55は、観察装置17からの画像によりデジタルカメラ11が撮影依頼者に渡されたか否かを判断する。
そして、渡されていない場合には、渡されるまで確認が継続され、渡された場合には、ステップS1に戻る。
上述した撮影ロボットでは、操作情報抽出モジュール67により、撮影依頼者から渡されたデジタルカメラ11の操作情報を抽出し、右腕装置13と左腕装置15によりデジタルカメラ11を操作して撮影依頼者等を撮影するようにしたので、撮影依頼者のデジタルカメラ11により撮影依頼者等を確実に撮影することができる。
【0047】
(第3の実施形態)
図9は、本発明の第3の実施形態の撮影ロボットを示している。
なお、この実施形態において第1の実施形態と同一の部材には、同一の符号を付して詳細な説明を省略する。
この実施形態では、撮影ロボットには、撮影依頼者からの情報を入力する入力部73が配置されている。この入力部73は、例えば、タッチパネルからなる。
【0048】
この入力部73には、例えば、デジタルカメラ11を製造した会社名に対応して機種名が表示されている。
そして、撮影依頼者が、自分のデジタルカメラ11の機種名をタッチすることによりデジタルカメラ11の機種が入力される。
【0049】
図10は、この実施形態の撮影ロボットのプログラムの構成を示すブロック図である。
この実施形態では、操作情報抽出モジュール75が、駆動モジュール57に接続されている。この操作情報抽出モジュール75は、機種記憶モジュール77を有しているプログラムモジュールである。
【0050】
機種記憶モジュール77は、デジタルカメラ11の操作情報が、機種に対応して記憶されているプログラムモジュールである。
操作情報抽出モジュール75は、入力部73に入力された機種に対応する操作情報を機種記憶モジュール77から抽出する。
図11は、この実施形態の撮影ロボットの動作を示すフローチャートである。このフローチャートの実行の主体は、特にその主体を記述しない限りCPU27である。
【0051】
このフローは、撮影ロボットへの電源のオンによりスタートされる。
先ず、ステップS1において、受話モジュール65が、撮影依頼者の発する「撮って下さい」の音声を検出したか否かが判断される。
次に、受話モジュール65が「撮って下さい」の音声を検出した時には、ステップS2において、撮影ロボットは、両手を差し出す動作を行い、デジタルカメラ11を受け取る。
【0052】
次に、ステップS3において、撮影依頼者が入力部73に入力した機種からデジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置を特定する。
すなわち、操作情報抽出モジュール75は、入力部73に入力された機種に対応する操作情報を機種記憶モジュール77から抽出する。この操作情報には、デジタルカメラ11のレリーズボタン11aおよび液晶ファインダ11bの位置、および撮影操作手順が含まれている。
【0053】
次に、ステップS4において、スピーカ21から「撮影します」という音声を発生させ、同時に、観察装置17は、デジタルカメラ11のファインダ像を画像データに変換する。
次に、ステップS5において、撮影依頼者のデジタルカメラ11のファインダ像に撮影依頼者等を取り込む。
【0054】
次に、ステップS6において、撮影依頼者のデジタルカメラ11による撮影を行う。
すなわち、撮影モジュール53は、観察装置17が出力するファインダ像に、撮影依頼者等の被写体が含まれたら、操作情報抽出モジュール75が抽出したレリーズボタン11aの位置に、人差し指装置36又は46を移動させレリーズボタン11aを全押してシャッタを切る。
【0055】
次に、ステップS7において、デジタルカメラ11に撮影された画像を確認する。
次に、ステップS8において、撮影依頼者等の被写体が撮影されたか否かを判断する。
そして、被写体が撮影されている場合には、ステップS9において、撮影依頼者のデジタルカメラ11を、撮影依頼者に差し出す。
【0056】
次に、ステップS10において、デジタルカメラ11を撮影依頼者が受け取ったか否かが判断される。
そして、渡されていない場合には、渡されるまで確認が継続され、渡された場合には、ステップS1に戻る。
上述した撮影ロボットでは、撮影依頼者が入力部73に入力した機種に基づいて、操作情報抽出モジュール75により、撮影依頼者から渡されたデジタルカメラ11の操作情報を抽出し、右腕装置13と左腕装置15によりデジタルカメラ11を操作して撮影依頼者等を撮影するようにしたので、撮影依頼者のデジタルカメラ11により撮影依頼者等を確実に撮影することができる。
【0057】
なお、上述した第3の実施形態では、入力部73をタッチパネルにより形成した例について説明したが、本発明はかかる実施形態に限定されるものではなく、例えば、プッシュボタンにしても良い。また、音声で入力するようにしても良い。
また、上述した各実施形態では、撮影ロボットがデジタルカメラ11による撮影を行った例について説明したが、本発明はかかる実施形態に限定されるものではなく、例えば、通常のフィルムを用いたカメラ,ビデオカメラ等による撮影にも適用することができる。
【0058】
さらに、上述した各実施形態では、「撮って下さい」の音声入力により撮影動作を開始した例について説明したが、本発明はかかる実施形態に限定されるものではなく、例えば、操作ボタンを押すことにより撮影動作を開始するようにしても良い。
【0059】
【発明の効果】
以上述べたように、本発明の撮影ロボットによれば、被撮影者のカメラにより被撮影者を確実に撮影することができる。
【図面の簡単な説明】
【図1】本発明の撮影ロボットの第1の実施形態を示す説明図である。
【図2】図1の撮影ロボットの全体構成を示すブロック図である。
【図3】図1の撮影ロボットの右腕装置の構成を示すブロック図である。
【図4】図1の撮影ロボットの左腕装置の構成を示すブロック図である。
【図5】図1の撮影ロボットのプログラムを示すブロック図である。
【図6】図1の撮影ロボットの動作を示すフローチャートである。
【図7】本発明の撮影ロボットの第2の実施形態を示すブロック図である。
【図8】図7の撮影ロボットの動作を示すフローチャートである。
【図9】本発明の撮影ロボットの第3の実施形態を示す説明図である。
【図10】図9の撮影ロボットのプログラムを示すブロック図である。
【図11】図9の撮影ロボットの動作を示すフローチャートである。
【符号の説明】
11 デジタルカメラ
11a レリーズボタン
11b 液晶ファインダ
13 右腕装置
15 左腕装置
17 観察装置
51 解析モジュール
53 撮影モジュール
55 応対モジュール
59 機能分析モジュール
61 形状測定モジュール
63 発話モジュール
65 受話モジュール
67 操作情報抽出モジュール
69 機種記憶モジュール
71 機種特定モジュール
75 操作情報抽出モジュール
77 機種記憶モジュール
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a photographing apparatus that performs photographing in response to a request from a visitor or the like in an amusement park or a sightseeing spot.
[0002]
[Prior art]
Recently, a next-generation imaging device has been proposed in which it moves autonomously, determines the composition, and performs imaging.
As such a photographing apparatus, for example, a photographer robot “Lewis” (Lewis the Robotic Photographer) developed at the University of Washington is known.
[0003]
According to this "Lewis", it is possible to automatically photograph natural expressions of people who are active in an indoor space where people actually come and go.
[Non-Patent Document 1]
Lewis the Robotic Photographer (searched on May 30, 2003)
Internet http: // www. cs. Wustl. edu /  ̄lewis /
[0004]
[Problems to be solved by the invention]
However, the above-mentioned “Lewis” has a problem that image data taken by a digital camera included in “Lewis” cannot be provided to the subject.
[0005]
On the other hand, in amusement parks, sightseeing spots, etc., there is a demand for a shooting robot that automatically takes pictures with a camera brought by the visitor in response to a request from the visitor.
The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a photographing robot capable of reliably photographing a subject using a subject's camera.
[0006]
[Means for Solving the Problems]
The imaging robot according to claim 1, a manipulator unit that holds an imaging device and operates the imaging device, an observation unit that converts an appearance of the imaging device held by the manipulator unit into image data, and a method of operating the imaging device And an imaging method for outputting a command for operating the imaging device to the manipulator means based on the operation method obtained by the operation method obtaining means.
[0007]
The imaging robot according to claim 2 is the imaging robot according to claim 1, wherein the operation method acquisition unit analyzes an operation method of the imaging apparatus based on image data output from the observation unit. .
[0008]
According to a third aspect of the present invention, in the photographing robot according to the first aspect, the operation method obtaining means stores storage means for storing the external shape and operation information of the photographing apparatus corresponding to a model, and the observation means outputs A model specifying unit that specifies the model from the appearance shape based on image data to be extracted, and an extraction unit that extracts operation information corresponding to the model specified by the model specifying unit from the storage unit. To do.
[0009]
According to a fourth aspect of the present invention, in the photographing robot according to the first aspect, the operation method acquisition means includes a storage means for storing operation information of the photographing apparatus corresponding to a model, and a model designated by the subject. Input means for inputting, and extraction means for extracting operation information corresponding to the model input to the input means from the storage means.
[0010]
The imaging robot according to claim 5 is the imaging robot according to any one of claims 1 to 4, wherein the imaging device includes at least release means, and the manipulator means operates at least the release means. It has a release operation means, and the operation method acquisition means obtains at least an operation method of the release means.
[0011]
The imaging robot according to claim 6 is the imaging robot according to any one of claims 1 to 5, wherein the imaging device includes a finder unit capable of observing at least a finder image captured by the imaging device, The observation means observes at least the viewfinder image of the viewfinder means, and the photographing means outputs the command to the manipulator means based on the image data of the viewfinder image output from the observation means. Features.
[0012]
The imaging robot according to claim 7 is the imaging robot according to any one of claims 1 to 6, wherein the manipulator means opens the imaging device after imaging by the imaging device.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 shows a photographing robot according to a first embodiment of the present invention.
This imaging robot is placed in an amusement park, a sightseeing spot, etc., and automatically shoots the client by the digital camera 11 brought by the client in response to a request from the client.
[0014]
This imaging robot has a right arm device 13, a left arm device 15, an observation device 17, a microphone 19, a speaker 21, and a self-propelled device 23.
The right arm device 13 and the left arm device 15 correspond to a human right arm and left arm, and the right arm device 13 and the left arm device 15 constitute manipulator means.
The right arm device 13 and the left arm device 15 hold a digital camera 11 that is a photographing device provided by a photographing client and operate the digital camera 11 to perform photographing.
[0015]
The digital camera 11 is provided with operation buttons such as a release button 11a for performing an operation for converting an optical image into image data, and a liquid crystal finder 11b for displaying the image data. The image displayed by the liquid crystal finder 11b is a finder image.
The observation device 17 converts the appearance of the digital camera 11 held by the right arm device 13 and the left arm device 15 and the viewfinder image displayed on the liquid crystal viewfinder 11b of the digital camera 11 into image data. In this embodiment, the observation apparatus has a pair of left and right objective lenses and forms an image on a CCD image sensor via an optical system (not shown).
[0016]
The microphone 19 inputs a voice such as “Please take a picture” from the client.
The speaker 21 outputs sound such as “I will shoot”.
The self-propelled device 23 includes a motor and a drive mechanism (not shown), and moves the imaging robot back and forth and right and left by driving a wheel 25 disposed at the lower end of the imaging robot.
[0017]
FIG. 2 is a block diagram showing the overall configuration of the imaging robot.
Connected to the CPU 27 are a right arm device 13, a left arm device 15, an observation device 17, a microphone 19, a speaker 21, a self-propelled device 23, and a program 29.
The program 29 controls the photographing operation by this photographing robot.
FIG. 3 is a block diagram showing the configuration of the right arm device 13.
[0018]
The right arm device 13 includes a right shoulder device 31, a right elbow device 32, a right wrist device 33, and a right hand device 34. The right shoulder device 31, the right elbow device 32, the right wrist device 33, and the right hand device 34 are devices having functions corresponding to a human right shoulder, right elbow, right wrist, and right hand, respectively.
The right hand device 34 includes a thumb device 35, an index finger device 36, a middle finger device 37, a ring finger device 38, and a little finger device 39, and these devices are connected to the palm device 40. The thumb device 35, the index finger device 36, the middle finger device 37, the ring finger device 38, the little finger device 39, and the palm device 40 are devices having functions corresponding to the human thumb, index finger, middle finger, ring finger, little finger, and palm, respectively.
[0019]
FIG. 4 is a block diagram showing the configuration of the left arm device 15.
The left arm device 15 includes a left shoulder device 41, a left elbow device 42, a left wrist device 43, and a left hand device 44. The left shoulder device 41, the left elbow device 42, the left wrist device 43, and the left hand device 44 are devices having functions corresponding to a human left shoulder, left elbow, left wrist, and left hand, respectively.
[0020]
The left hand device 44 includes a thumb device 45, an index finger device 46, a middle finger device 47, a ring finger device 48, and a little finger device 49, and these devices are connected to the palm device 50. The thumb device 45, the index finger device 46, the middle finger device 47, the ring finger device 48, the little finger device 49, and the palm device 50 are devices having functions corresponding to the human thumb, index finger, middle finger, ring finger, little finger, and palm, respectively.
[0021]
FIG. 5 is a block diagram showing the configuration of the shooting robot program 29 of this embodiment.
In this embodiment, the analysis module 51, the imaging module 53, and the reception module 55 are connected to the drive module 57.
The analysis module 51 is a program module that includes a function analysis module 59 and a shape measurement module 61. The reception module 55 is a program module that includes an utterance module 63 and an reception module 65.
[0022]
The analysis module 51 is a program module that analyzes the digital camera 11 provided by the client.
The function analysis module 59 is a program module that estimates the function of the operation button of the digital camera 11 and the display area of the liquid crystal finder 11b from the image data of the appearance of the digital camera 11.
[0023]
The shape measurement module 61 is a program module that calculates the three-dimensional coordinates of the release button 11 a and the liquid crystal finder 11 b of the digital camera 11 from the image data of the appearance of the digital camera 11 and the AF information of the observation device 17.
The photographing module 53 operates the right arm device 13 and the left arm device 15 so that the subject such as the photographing client is included in the finder image of the liquid crystal finder 11b output from the observation device 17, and the photographing position and photographing of the digital camera 11 are obtained. Adjust the direction.
[0024]
In addition, when the finder image of the liquid crystal finder 11b output from the observation device 17 includes a subject such as a photograph client, the CPU 27 calculates the three-dimensional coordinates of the operation button estimated by the function analysis module 59 as the release button 11a. Taking out from the measurement module 61, the index finger device 36 or 46 is moved to the position represented by the three-dimensional coordinates, and the release button 11a is fully pressed to release the shutter. Further, the CPU 27 confirms the finder image of the liquid crystal finder 11b output from the observation device 17.
[0025]
The reception module 55 is a program module that performs an interaction with the client who has taken the image.
That is, the reception module 55 outputs a command to put out both hands to the drive module 57 when the imaging robot receives the digital camera 11 from the imaging client, and the driving module 57 sends the imaging client to the right arm device 13 and the left arm device 15. The control signal which controls the operation | movement which receives the digital camera 11 from is output.
[0026]
In addition, when the imaging robot returns the digital camera 11 to the client, the reception module 55 outputs a command for inserting the digital camera 11 with both hands to the driving module 57, and the driving module 57 includes the right arm device 13 and the left arm device 15. In addition, a control signal for controlling the operation of inserting the digital camera 11 is output.
Further, the reception module 55 determines whether or not the photographing client has received the digital camera 11 based on the image from the observation device 17.
[0027]
The utterance module 63 is a program module that generates a sound such as “I will shoot” from the speaker 21.
The reception module 65 is a program module that detects a voice such as “Please take a picture” issued by the photographing client.
FIG. 6 is a flowchart showing the operation of the imaging robot of this embodiment. The subject of execution of this flowchart is the CPU 27 unless the subject is described.
[0028]
This flow is started when the imaging robot is turned on.
First, in step S1, it is determined whether or not the receiving module 65 has detected a “Please take a picture” voice issued by the photographing client.
Next, in step S2, when the receiving module 65 detects the voice "Please take a picture", the photographing robot performs an operation of holding out both hands and receives the digital camera.
[0029]
That is, the response module 55 outputs a command to put out both hands to the drive module 57, and the drive module 57 controls the right arm device 13 and the left arm device 15 to receive the digital camera 11 provided by the photographing client. Output a signal.
Next, in step S3, the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 are detected from the image data of the appearance of the digital camera 11 received from the photograph client.
[0030]
That is, the observation device 17 outputs the received image data of the appearance of the digital camera 11 to the function analysis module 59. The function analysis module 59 estimates the function of the operation button of the digital camera 11 from the appearance image data. In addition to the image, the observation device 17 outputs autofocus (AF) information, that is, distance information from the observation device 17 to the operation button, to the shape measurement module 61. The shape measurement module 61 calculates the three-dimensional coordinates of the release button 11a of the digital camera 11 and the liquid crystal finder 11b from the image output from the observation device 17 and the AF information.
[0031]
Next, in step S4, a voice “I will shoot” is generated from the speaker 21, and at the same time, the observation device 17 converts the finder image into image data.
That is, the photographing module 53 generates a voice “shooting” from the speaker 21 by the speech module 63, and the observation device 17 displays the display image of the liquid crystal finder 11 b of the digital camera 11 analyzed by the function analysis module 59. Convert to image data.
[0032]
Next, in step S5, the client or the like is taken into the viewfinder image of the client's digital camera 11.
That is, the photographing module 53 operates the right arm device 13 and the left arm device 15 so that the subject such as the photographing client is included in the viewfinder image output from the observation device 17, and sets the photographing direction and photographing position of the digital camera 11. Adjust.
[0033]
Next, in step S6, the digital camera 11 of the client requesting the image is taken.
That is, when the finder image output from the observation device 17 includes a subject such as a client, the imaging module 53 uses the three-dimensional coordinates of the operation button estimated by the function analysis module 59 as the release button 11a to calculate the shape measurement module. Then, the index finger device 36 or 46 is moved to the position represented by the three-dimensional coordinates, and the release button 11a is fully pressed to release the shutter.
[0034]
Next, in step S7, an image photographed by the digital camera 11 is confirmed.
That is, the imaging module 53 confirms the finder image output from the observation device 17.
Next, in step S8, it is determined whether or not the finder image includes a subject such as a client who has taken a picture, that is, whether or not a subject such as the client has been shot.
[0035]
If the subject is photographed, in step S9, the digital camera 11 of the photograph requester is presented to the photograph requester.
That is, the reception module 55 outputs a command for inserting the digital camera 11 with both hands to the drive module 57, and the drive module 57 outputs a control signal for controlling the operation of inserting the digital camera 11 to the right arm device 13 and the left arm device 15. To do.
[0036]
Next, in step S10, it is determined whether the digital camera 11 has been received by the client.
That is, the reception module 55 determines whether or not the digital camera 11 has been handed over to the photographing client by the image from the observation device 17.
If it is not passed, the confirmation is continued until it is passed, and if it is passed, the process returns to step S1.
[0037]
In the above-described imaging robot, the analysis module 51 analyzes the digital camera 11 delivered from the client, and operates the digital camera 11 with the right arm device 13 and the left arm device 15 to photograph the client. Therefore, it is possible to surely photograph the image taking client or the like by the digital camera 11 of the image taking client.
(Second Embodiment)
FIG. 7 is a block diagram showing the configuration of the program of the photographing robot according to the second embodiment of the present invention.
[0038]
In this embodiment, parts having the same functions as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
In this embodiment, the operation information extraction module 67 is connected to the drive module 57. The operation information extraction module 67 is a program module having a model storage module 69 and a model identification module 71.
[0039]
The model storage module 69 is a program module that stores the external shape and operation information of the digital camera 11 corresponding to the model.
The model identifying module 71 is a program module that identifies the model from the external shape of the digital camera 11 based on the image data output by the observation means.
The operation information extraction module 67 extracts operation information corresponding to the model specified by the model specifying module 71 from the model storage module 69.
[0040]
FIG. 8 is a flowchart showing the operation of the imaging robot of this embodiment.
This flow is started when the imaging robot is turned on. The subject of execution of this flowchart is the CPU 27 unless the subject is described.
First, in step S1, it is determined whether or not the receiving module 65 has detected a “Please take a picture” voice issued by the photographing client.
[0041]
Next, when the receiving module 65 detects the voice “Please take a picture”, in step S2, the photographing robot performs an operation of holding out both hands and receives the digital camera.
Next, in step S3, the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 are extracted from the appearance image of the digital camera 11 received from the client.
[0042]
In other words, the observation device 17 outputs the received image data of the appearance of the digital camera 11 to the model specifying module 71. The model specifying module 71 compares the image data of the appearance with the appearance of the digital camera 11 stored in the model storage module 69, and specifies the model of the digital camera 11. Then, the operation information extraction module 67 extracts operation information corresponding to the model specified by the model specifying module 71 from the model storage module 69. The operation information includes the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 and the shooting operation procedure.
[0043]
Next, in step S4, a voice “I will shoot” is generated from the speaker 21, and at the same time, the observation device 17 converts the finder image into image data.
Next, in step S5, the client or the like is taken into the viewfinder image of the client's digital camera 11.
Next, in step S6, the digital camera 11 of the client requesting the image is taken.
[0044]
In other words, the photographing module 53 moves the index finger device 36 or 46 to the position of the release button 11a extracted by the operation information extraction module 67 when the finder image output from the observation device 17 includes a subject such as a photographing client. The release button 11a is fully pressed to release the shutter.
Next, in step S7, an image photographed by the digital camera 11 is confirmed.
[0045]
Next, in step S8, it is determined whether or not a subject such as a client who has taken a photograph has been photographed.
If the subject is photographed, in step S9, the digital camera 11 of the photograph requester is presented to the photograph requester.
Next, in step S10, it is determined whether the digital camera 11 has been received by the client.
[0046]
That is, the reception module 55 determines whether or not the digital camera 11 has been handed over to the photographing client by the image from the observation device 17.
If it is not passed, the confirmation is continued until it is passed, and if it is passed, the process returns to step S1.
In the above-described imaging robot, the operation information extraction module 67 extracts the operation information of the digital camera 11 passed from the client, and the digital camera 11 is operated by the right arm device 13 and the left arm device 15 to request the camera client or the like. Since the photographing is performed, the photographing client or the like can be reliably photographed by the digital camera 11 of the photographing client.
[0047]
(Third embodiment)
FIG. 9 shows a photographing robot according to the third embodiment of the present invention.
In this embodiment, the same members as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
In this embodiment, the imaging robot is provided with an input unit 73 for inputting information from the imaging client. This input part 73 consists of a touch panel, for example.
[0048]
In the input unit 73, for example, the model name corresponding to the name of the company that manufactured the digital camera 11 is displayed.
The photograph requester touches the model name of his / her digital camera 11 to input the model of the digital camera 11.
[0049]
FIG. 10 is a block diagram showing the configuration of the program of the imaging robot of this embodiment.
In this embodiment, the operation information extraction module 75 is connected to the drive module 57. The operation information extraction module 75 is a program module having a model storage module 77.
[0050]
The model storage module 77 is a program module in which operation information of the digital camera 11 is stored corresponding to the model.
The operation information extraction module 75 extracts operation information corresponding to the model input to the input unit 73 from the model storage module 77.
FIG. 11 is a flowchart showing the operation of the imaging robot of this embodiment. The subject of execution of this flowchart is the CPU 27 unless the subject is described.
[0051]
This flow is started when the imaging robot is turned on.
First, in step S1, it is determined whether or not the receiving module 65 has detected a “Please take a picture” voice issued by the photographing client.
Next, when the receiving module 65 detects the voice “Please take a picture”, in step S <b> 2, the photographing robot performs an operation of holding out both hands and receives the digital camera 11.
[0052]
Next, in step S3, the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 are specified from the model input to the input unit 73 by the client.
That is, the operation information extraction module 75 extracts operation information corresponding to the model input to the input unit 73 from the model storage module 77. The operation information includes the positions of the release button 11a and the liquid crystal finder 11b of the digital camera 11 and the shooting operation procedure.
[0053]
Next, in step S4, a sound “I will shoot” is generated from the speaker 21, and at the same time, the observation device 17 converts the finder image of the digital camera 11 into image data.
Next, in step S5, the client or the like is taken into the viewfinder image of the client's digital camera 11.
[0054]
Next, in step S6, the digital camera 11 of the client requesting the image is taken.
That is, when the finder image output from the observation device 17 includes a subject such as a client, the photographing module 53 moves the index finger device 36 or 46 to the position of the release button 11a extracted by the operation information extraction module 75. The release button 11a is fully pressed to release the shutter.
[0055]
Next, in step S7, an image photographed by the digital camera 11 is confirmed.
Next, in step S8, it is determined whether or not a subject such as a client who has taken a photograph has been photographed.
If the subject is photographed, in step S9, the digital camera 11 of the photograph requester is presented to the photograph requester.
[0056]
Next, in step S10, it is determined whether the digital camera 11 has been received by the client.
If it is not passed, the confirmation is continued until it is passed, and if it is passed, the process returns to step S1.
In the above-described imaging robot, the operation information extraction module 75 extracts the operation information of the digital camera 11 passed from the imaging client based on the model input to the input unit 73 by the imaging client, and the right arm device 13 and the left arm are extracted. Since the apparatus 15 operates the digital camera 11 to shoot the client, etc., it is possible to reliably shoot the client, etc., using the client's digital camera 11.
[0057]
In the above-described third embodiment, an example in which the input unit 73 is formed by a touch panel has been described. However, the present invention is not limited to such an embodiment, and may be a push button, for example. Moreover, you may make it input with an audio | voice.
Further, in each of the above-described embodiments, the example in which the photographing robot performs photographing with the digital camera 11 has been described. However, the present invention is not limited to such an embodiment, for example, a camera using a normal film, It can also be applied to shooting with a video camera or the like.
[0058]
Further, in each of the above-described embodiments, the example in which the photographing operation is started by the voice input of “Please take a picture” has been described. However, the present invention is not limited to such an embodiment, and for example, pressing an operation button. May start the shooting operation.
[0059]
【The invention's effect】
As described above, according to the photographing robot of the present invention, the subject can be reliably photographed by the subject's camera.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a first embodiment of a photographing robot of the present invention.
2 is a block diagram showing an overall configuration of the imaging robot of FIG. 1. FIG.
3 is a block diagram showing a configuration of a right arm device of the imaging robot of FIG. 1. FIG.
4 is a block diagram showing a configuration of a left arm device of the imaging robot of FIG. 1. FIG.
FIG. 5 is a block diagram showing a program of the photographing robot of FIG. 1;
6 is a flowchart showing an operation of the photographing robot of FIG. 1. FIG.
FIG. 7 is a block diagram showing a second embodiment of the imaging robot of the present invention.
8 is a flowchart showing the operation of the imaging robot of FIG.
FIG. 9 is an explanatory view showing a third embodiment of the imaging robot of the present invention.
10 is a block diagram showing a program of the imaging robot of FIG. 9. FIG.
FIG. 11 is a flowchart showing the operation of the photographing robot of FIG. 9;
[Explanation of symbols]
11 Digital Camera 11a Release Button 11b Liquid Crystal Finder 13 Right Arm Device 15 Left Arm Device 17 Observation Device 51 Analysis Module 53 Imaging Module 55 Reception Module 59 Function Analysis Module 61 Shape Measurement Module 63 Speech Module 65 Reception Module 67 Operation Information Extraction Module 69 Model Storage Module 71 Model identification module 75 Operation information extraction module 77 Model storage module

Claims (7)

撮影装置を保持し前記撮影装置を操作するマニピュレータ手段と、
前記マニピュレータ手段が保持する前記撮影装置の外観を画像データに変換する観察手段と、
前記撮影装置の操作方法を求める操作方法取得手段と、
前記操作方法取得手段で求められた前記操作方法に基づいて、前記マニピュレータ手段に前記撮影装置を操作するコマンドを出力する撮影手段と、
を有することを特徴とする撮影ロボット。
Manipulator means for holding the imaging device and operating the imaging device;
Observation means for converting the appearance of the photographing apparatus held by the manipulator means into image data;
Operation method obtaining means for obtaining an operation method of the photographing apparatus;
Based on the operation method obtained by the operation method acquisition means, photographing means for outputting a command for operating the photographing apparatus to the manipulator means,
A photographing robot characterized by comprising:
請求項1記載の撮影ロボットにおいて、
前記操作方法取得手段は、前記観察手段が出力する画像データに基づいて、前記撮影装置の操作方法を解析することを特徴とする撮影ロボット。
The imaging robot according to claim 1,
The imaging robot according to claim 1, wherein the operation method acquisition unit analyzes an operation method of the imaging apparatus based on image data output from the observation unit.
請求項1記載の撮影ロボットにおいて、
前記操作方法取得手段は、
前記撮影装置の外観形状および操作情報を機種に対応して記憶する記憶手段と、
前記観察手段が出力する画像データに基づいて前記外観形状から前記機種を特定する機種特定手段と、
前記機種特定手段で特定された機種に対応する操作情報を前記記憶手段から抽出する抽出手段と、
を有することを特徴とする撮影ロボット。
The imaging robot according to claim 1,
The operation method acquisition means includes
Storage means for storing the external shape and operation information of the photographing apparatus corresponding to the model;
Model specifying means for specifying the model from the appearance shape based on the image data output by the observation means;
Extracting means for extracting operation information corresponding to the model specified by the model specifying means from the storage means;
A photographing robot characterized by comprising:
請求項1記載の撮影ロボットにおいて、
前記操作方法取得手段は、
前記撮影装置の操作情報を機種に対応して記憶する記憶手段と、
被撮影者の指示する機種を入力する入力手段と、
前記入力手段に入力された機種に対応する操作情報を前記記憶手段から抽出する抽出手段と、
を有することを特徴とする撮影ロボット。
The imaging robot according to claim 1,
The operation method acquisition means includes
Storage means for storing operation information of the photographing apparatus corresponding to the model;
An input means for inputting a model designated by the subject,
Extraction means for extracting operation information corresponding to the model input to the input means from the storage means;
A photographing robot characterized by comprising:
請求項1ないし請求項4のいずれか1項記載の撮影ロボットにおいて、
前記撮影装置は、少なくともレリーズ手段を有し、
前記マニピュレータ手段は、少なくとも前記レリーズ手段を操作するレリーズ操作手段を有し、
前記操作方法取得手段は、少なくとも前記レリーズ手段の操作方法を求めることを特徴とする撮影ロボット。
The imaging robot according to any one of claims 1 to 4,
The photographing apparatus has at least release means,
The manipulator means includes release operation means for operating at least the release means,
The imaging robot according to claim 1, wherein the operation method acquisition unit obtains at least an operation method of the release unit.
請求項1ないし請求項5のいずれか1項記載の撮影ロボットにおいて、
前記撮影装置は、少なくとも前記撮影装置が撮影するファインダ像を観察可能なファインダ手段を有し、
前記観察手段は、少なくとも前記ファインダ手段の前記ファインダ像を観察し、
前記撮影手段は、前記観察手段が出力する前記ファインダ像の前記画像データに基づいて、前記マニピュレータ手段に前記コマンドを出力することを特徴とする撮影ロボット。
The imaging robot according to any one of claims 1 to 5,
The photographing apparatus has a finder means capable of observing at least a finder image photographed by the photographing apparatus,
The observing means observes at least the finder image of the finder means;
The imaging robot, wherein the imaging unit outputs the command to the manipulator unit based on the image data of the finder image output from the observation unit.
請求項1ないし請求項6のいずれか1項記載の撮影ロボットにおいて、
前記マニピュレータ手段は、前記撮影装置による撮影後に、前記撮影装置を開放することを特徴とする撮影ロボット。
The imaging robot according to any one of claims 1 to 6,
The photographing robot characterized in that the manipulator means opens the photographing device after photographing by the photographing device.
JP2003182833A 2003-06-26 2003-06-26 Photographing robot Pending JP2005014155A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003182833A JP2005014155A (en) 2003-06-26 2003-06-26 Photographing robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003182833A JP2005014155A (en) 2003-06-26 2003-06-26 Photographing robot

Publications (1)

Publication Number Publication Date
JP2005014155A true JP2005014155A (en) 2005-01-20

Family

ID=34183113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003182833A Pending JP2005014155A (en) 2003-06-26 2003-06-26 Photographing robot

Country Status (1)

Country Link
JP (1) JP2005014155A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190098A (en) * 2017-04-28 2018-11-29 パナソニックIpマネジメント株式会社 Renewal support system, renewal support method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190098A (en) * 2017-04-28 2018-11-29 パナソニックIpマネジメント株式会社 Renewal support system, renewal support method and program

Similar Documents

Publication Publication Date Title
JP5999336B2 (en) Imaging apparatus, imaging processing method, and program
JP4264660B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4864502B2 (en) Imaging apparatus and imaging condition guide method
CN106131413B (en) Shooting equipment and control method thereof
WO2015064144A1 (en) Image capturing device, image capturing method, and program
JP2006201531A (en) Imaging device
JP5495760B2 (en) Imaging device
US11950758B2 (en) Video camera having video image orientation based on vector information
JP2009117975A (en) Image pickup apparatus and method
WO2015093083A1 (en) Image pickup apparatus and image pickup apparatus control method
JP4404805B2 (en) Imaging device
JP2012123218A (en) Image pickup method and image pickup apparatus
WO2020241038A1 (en) Composition control device, composition control method, and program
JP7293039B2 (en) Imaging device and its control method
JP2005014155A (en) Photographing robot
US9066010B2 (en) Photographing apparatus, photographing method and medium recording photographing control program
JP2017103657A (en) Imaging apparatus, imaging method, and computer program for imaging apparatus
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
KR102145523B1 (en) Method for control a camera apparatus and the camera apparatus
US9307142B2 (en) Imaging method and imaging apparatus
KR100794114B1 (en) Portable terminal and method of taking a picture using a pupil code in the same
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
JP2008083078A (en) Camera
JP4452100B2 (en) Video communication system
JP2005031131A (en) Automatic imaging apparatus