JP4284949B2 - Moving shooting system, moving shooting method, and shooting apparatus - Google Patents

Moving shooting system, moving shooting method, and shooting apparatus Download PDF

Info

Publication number
JP4284949B2
JP4284949B2 JP2002259982A JP2002259982A JP4284949B2 JP 4284949 B2 JP4284949 B2 JP 4284949B2 JP 2002259982 A JP2002259982 A JP 2002259982A JP 2002259982 A JP2002259982 A JP 2002259982A JP 4284949 B2 JP4284949 B2 JP 4284949B2
Authority
JP
Japan
Prior art keywords
mode
signal
image
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002259982A
Other languages
Japanese (ja)
Other versions
JP2004101616A (en
Inventor
彰吾 草野
光晴 大木
秀紀 小柳津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002259982A priority Critical patent/JP4284949B2/en
Publication of JP2004101616A publication Critical patent/JP2004101616A/en
Application granted granted Critical
Publication of JP4284949B2 publication Critical patent/JP4284949B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は移動するような被写体を自動的に追尾して撮影を行う移動撮影システムや移動撮影方法、及び前記システムに用いられる撮影装置に関する。
【0002】
【従来の技術】
従来から、景勝地に行った際に、スチルカメラやビデオカメラで、風景をバックに人物を撮影することが良く行われている。三脚などの器具を使用しない場合では、スチルカメラやビデオカメラは、撮影者が手で持って操作するように構成されており、その場合、景色を撮影する本人は、撮影時には、通常写真やビデオ映像に映ることが出来ない。また、同行する家族や友人の中の一人が、撮影役となって記念写真を撮影する場合、撮影役となった人は景勝地の景色を楽しむ時間を一部犠牲にする必要がある。また、他人にカメラを渡して撮影を依頼する場合、撮影に応じてくれる第三者を探す手間が発生すると共に、機種によってはカメラ操作が容易ではなく、所望の出来栄えの写真などを期待できない場合もある。
【0003】
このような諸問題を解決する案として、三脚などによりカメラを固定してタイマーや遠隔操作によって撮影する方法がある。このような場合、撮影する度ごとに撮影者は三脚上のカメラのタイマーを設定して動作開始させる必要があり、被写体の方もタイマー時間を配慮する必要があるなど撮影のために煩雑な準備を行う必要がある。また他の解決策として例えば "案内撮影システム"に開示される技術(例えば、特許文献1参照。)があり、この公報によると、景勝地の決められた場所に案内撮影システムと称される装置が設置されており、一般客は、このシステム備え付けのカメラで撮影することが可能とされる。
【0004】
【特許文献1】
特開平9−233465号公報
【0005】
【発明が解決しようとする課題】
しかしながら、上述の案内撮影システムにおいては、備え付けのカメラで撮影することから、撮影する場所を任意に選ぶことはできず、例えば、スキー場で滑っている人を撮影する場合や、または山登りをしている人を撮影する場合などの移動中の人物を撮影することは不可能であった。
【0006】
また、別の移動する被写体を追いかけて撮影するシステムとして、カメラを設置した雲台が回転し、カメラの向きを自動制御して被写体を自動追尾する撮影システムも存在する。この場合は、被写体である人間がカメラ雲台の回転範囲から見えない位置に移動した場合や、撮影システムから遠く離れた場所に移動した場合には撮影が不可能となる。さらに、これら従来技術では、被写体となる人物を、カメラの視野の中に入らせて撮影させるため、撮影されることを意識せざるをえず、人物の自然な表情やしぐさを撮影することが一般的に困難とされ、また移動している人物を確実に認識できる方法がなく、また、その人物を自動追尾しながら撮影することも容易ではない。
【0007】
そこで、本発明は、移動する被写体を自動的に追尾して確実に撮影できる移動撮影システム及び移動撮影方法の提供を目的とする。
【0008】
【課題を解決するための手段】
本発明の移動撮影システムは、上述の技術的な課題に鑑み、撮影装置を搭載して移動可能とされる移動体と、被写体に取り付けられ、光の点滅パターンによって形成される光信号を発生させる信号発生装置とを具備し、前記撮影装置は、撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有することを特徴とする。
【0009】
本発明においては、先ず、被写体を撮影するための撮影装置が移動可能な移動体に搭載される。このため固定点からカメラの方向を制御するような方式とは異なり、スキー場で滑っている人や山登りをしている人のように大きな移動を伴う場合でも確実に追尾が可能である。更に、その移動体に搭載される撮影装置は、シーンとしての画像データを取得する画像モードと、信号発生装置で発生する光信号を形成している点滅パターンを復元することによりこの光信号を受信するIDモードとを時分割に繰り返すので、撮影装置側に撮影者を要せずに、撮影の制御信号、撮影した画像の記録のための識別信号、更には移動体の移動のための信号を送ることが可能となる。
【0010】
また、本発明の移動撮影方法は、光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載し、前記被写体を移動させると共に前記移動体を作動させ、前記撮影装置によって前記IDモード時に前記信号発生装置からの前記光信号を探知し、探知された前記光信号を基に前記移動体は前記被写体を追尾し且つ前記被写体を前記撮影装置によって前記画像モード時に撮影することを特徴とする。
【0011】
信号発生装置を被写体に取り付けることで、当該信号発生装置からの光信号は被写体から送信されたものとすることができ、例えば被写体である撮影者が撮影の設定や制御を行う時でも、取り付けられた信号発生装置を操作することで、移動体への制御を図ることが可能となる。撮影装置は移動体に取り付けられることから、大きな移動を伴う場合でも確実に追尾が可能となる。この被写体を追尾するときの制御として信号発生装置からの光信号を利用することができ、撮影装置はシーンとしての画像データを取得する画像モードと信号発生装置からの光信号を受信するIDモードとを時分割に繰り返し、被写体を自動的に追尾して確実に撮影できることになる。
【0012】
また、本発明の他の移動撮影方法は、光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載した後、前記被写体を移動させると共に前記撮影装置で前記IDモード時に記光信号を捉え、該光信号に含まれる制御情報に基づいて前記移動体が制御されることを特徴とする。
【0013】
移動体には撮影装置が取り付けられ、シーンとしての画像データを取得する画像モードと被写体に取り付けられる信号発生装置からの光信号を受信するIDモードとを時分割に繰り返す。この光信号には、制御信号を含ませることが可能とされ、その制御信号を移動体の制御に用いることで、被写体側からの移動体の制御が実現されることになる。
【0014】
また、本発明の更に他の移動撮影方法では、光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載した後、前記被写体を移動させると共に前記撮影装置で前記IDモード時に記光信号を捉え、該光信号に含まれる制御情報に基づき、前記移動体による前記被写体の追尾開始時の自動撮影のモードが選択されることを特徴とする。
【0015】
この移動撮影方法では、移動体に取り付けられた撮影装置により、シーンとしての画像データを取得する画像モードと、被写体に取り付けられる信号発生装置からの光信号を受信するIDモードとが時分割に繰り返されるが、移動体による被写体の追尾開始時の自動撮影のモードは当該撮影装置で捉えた光信号に基づいて選択されるものとすることができ、被写体が撮影者であっても追尾開始時の自動撮影のモードの選択を確実に行うことができる。
【0016】
本発明のまた更に他の移動撮影方法では、光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載した後、前記被写体を移動させると共に前記撮影装置で前記IDモード時に記光信号を捉え、該光信号に含まれる認識情報に対応付けられて前記撮影装置で前記画像モード時に取得された画像データが前記撮影装置に接続される記憶部に記録されることを特徴とする。
【0017】
この移動撮影方法では、移動体に取り付けられた撮影装置により、シーンとしての画像データを取得する画像モードと、被写体に取り付けられる信号発生装置からの光信号を受信するIDモードとが時分割に繰り返されるが、取得した画像データは当該撮影装置で捉えた光信号に含まれる認識情報に対応付けて所定の記録部に記録されるものとすることができ、例えば後で対応する認識情報を利用しながら画像データに編集などを加える場合に便利である。
【0018】
【発明の実施の形態】
以下、本発明の移動撮影システム及び移動撮影方法について、図面を参照しながら説明する。
【0019】
本発明の一実施の形態の移動撮影システムは、図1に示すように、ID認識カメラ11を搭載した無人ヘリコプター10を移動体とし、被写体としてのユーザー3はスキーヤーであって、そのスキーウエアの肩付近にタグ状の光ビーコン装置2を取り付けている。すなわち、本実施形態においては、ユーザー3は自分のスキーをしている姿を追尾してくる無人ヘリコプター10でカメラに収録し、後にその撮影されたデータを見ることができるようになっている。
【0020】
ユーザー3は、スキー板4を両足に図示しない金具、スキー靴を介して取り付けており、ユーザー3が着ているスキーウエアの肩付近にはタグ状の光ビーコン装置2が取り付けられている。光ビーコン装置2は、後で詳しく説明するように、光信号を発生させる光信号発生装置であり、例えば、移動体である無人ヘリコプター10の制御、ID認識カメラ11の制御、記録される画像データへの識別番号の付与などを可能とする。また、図1では、ユーザー3は1名であるが、本実施形態においては、ユーザー3は1名に限定されず、複数名のユーザーがいる場合や光ビーコン装置が取り付けられる対象としては人間と物や、人間と動物、或いは動物だけなどの組み合わせとすることも可能である。
【0021】
無人ヘリコプター10は移動体として機能する飛行体であり、特に本実施形態の移動撮影システムにおいては、撮影装置としてのID認識カメラ11が無人ヘリコプター10の前方に搭載される。無人ヘリコプター10には、メインローター12とテールローター13が後述する飛行体制御部からの制御に応じて回転するように設けられており、これらの各ローターの動作によって無人ヘリコプター10は所望の飛行を行うことができる。メインローター12は回転によって上向きの揚力を発生させる回転翼であり、テールローター13はメインローター12の回転の反作用を打ち消すための回転翼である。
【0022】
このような無人ヘリコプター10に搭載される撮像装置としてのID認識カメラ11は通常の画像データを取得するための撮像装置として機能すると共に、光ビーコン装置2で発生する光信号を受信してその信号の内容である制御命令や認識データ(ID)などを解析可能とする機能を有している。光信号はここでは発光ダイオードの点滅パターンによって形成され、シーンとして撮影される画像データとは区別して処理されることになる。
【0023】
図2は無人ヘリコプター10の内部回路構成を示す図である。無人ヘリコプター10には、例えばCMOS型固体撮像素子により光を取り込む構造の撮像部20が設けられており、この撮像部20からの信号はIDカメラ処理部21に送られる。IDカメラ処理部21は、撮像部20で得られた信号をシーンとして撮影される画像データと、光ビーコン装置2から送信された光信号を分離する機能を有しており、光信号に含まれる無人ヘリコプター10の制御のための信号や、撮像部で撮影されたデータのID番号の信号を抽出したり、或いは撮像部20での撮影方法についての信号の抽出なども可能となる。なお、撮像部20とIDカメラ処理部21によって図1に示すID認識カメラ11が構成されるが、ID認識カメラ11の構成例については、後で図15を参照しながら詳しく説明する。
【0024】
IDカメラ処理部21はメモリ23と飛行体制御部24に電気的に接続される。飛行体制御部24は、例えば、当該無人ヘリコプター10のメインローター12とテールローター13がモーターで駆動される場合、メインローター12とテールローター13のそれぞれのモーターに送られる制御信号を次の飛行動力部25に送出する。飛行動力部25は、メインローター12とテールローター13のそれぞれのモーターや、ホバリングや前進や後進飛行のためのローターの各ブレードの制御のためのアクチュエーターなどから構成されており、飛行体制御部24からの制御信号を受けて作動する。従ってIDカメラ処理部21は光信号に含まれる無人ヘリコプター10の制御信号は飛行体制御部24を介して飛行動力部25に送られることになり、この飛行動力部25において無人ヘリコプター10の飛行制御が行われる。
【0025】
前述のIDカメラ処理部21は、DRAM、SRAMなどの半導体メモリデバイスからなるメモリ23にも接続されており、メモリ23は撮像部20でシーンとして撮影される画像データを、データの抽出されるID番号と共に格納するように構成されている。このように画像データをID番号と共に記録することでデータを編集や選択しながら表示する場合に便利である。このメモリ23は画像制御部26にデータバスを介して接続されており、この画像制御部26に内蔵されるマイコンの指示に従って必要な画像データを外部出力部29、ネットワークインターフェイス30、及び画像表示部27に出力できる。外部出力29は、飛行終了後に画像データを他の機器に出力する場合に使用される接続部であり、例えばピンプラグ端子、DV端子の接続部やUSBポート、LAN用のイーサネット(登録商標)の接続部、RS232C、或いはカード状やスティック状の記憶媒体などが使用できる記憶装置などであっても良い。ネットワークインターフェイス30は、ワイヤレスでインターネットなどに接続できる機能を有しており、例えばBluetooth(規格名:商標名)の如きスペクトラム拡散通信を用いた近距離無線通信や、無線LANのIEEE(Institute of Electronic and Electronics Engineers)802.11仕様や、その他の通信が可能とされる。このようなネットワークインターフェイス30を利用することで、画像データをインターネットを介して配信することも可能であり、例えばユーザー3はスキー場での撮影後に自宅に帰って、インターネット経由で自分や友人のスキーをしているところの画像データを見ることができ、そのような画像データは知り合いや家族などへの配信も可能となる。画像表示部27は無人ヘリコプター10に搭載される小型のモニターとして機能する装置であり、例えば液晶表示装置、ダイオードアレイディスプレイやプラズマディスプレイなどの装置が用いられる。このような画像表示部27を設けることで撮影現場での編集や撮影し直しの必要があるか無いかなどの確認を容易に行うことができる。画像表示部27は、図示を省略しているが、例えば飛行時には折り畳めるような構造或いはシャッターが閉まる構造で無人ヘリコプター10に取り付けられ、画像表示部27を見る時には画像表示部27が外側から見ることができる状態にされる。
【0026】
画像制御部26は更に入力部28にも接続されている。入力部28は、画像データの出力を外部出力部29とネットワークインターフェイス30の間で切り換えたり、画像表示部27の表示を制御するためのスイッチやテンキーなどによって構成される。この入力部28は、例えば無人ヘリコプター10の着陸後の編集用にリモコンでの信号を受信するようにしても良い。
【0027】
図2に示す無人ヘリコプター10では、その内部回路構成から撮像部20で撮影した画像からシーンについての画像データと光ビーコン装置2からの光信号とをIDカメラ処理部21で分離し、それぞれ飛行体である無人ヘリコプター10の飛行制御や、画像処理のために各画像データにID番号を付与したり、撮影方法の制御などを行うことが可能とされる。
【0028】
次に、図3を参照しながら、光ビーコン装置31について説明する。本実施形態で使用される光ビーコン装置31は、光信号の発生装置であって、例えばユーザー3の衣服の一部に取り付けられ、無人ヘリコプター10に対する所要の制御を可能とする。
【0029】
先ず、その外形形状については、図3に示すように、矩形で略平板状の光ビーコン装置本体33の表面にキー入力部34が形成され、その表面には発光ダイオード35も光の射出方向を表面側とするように設けられている。この光ビーコン装置本体33は、タグのように一方の側面から裏面側に亘る保持部32が設けられており、この保持部32を用いてユーザー3の衣服の一部例えば肩や帽子などに取り付ける。保持部32は帯状であってその帯状部分を閉じてユーザー3の衣服の一部に挿通部が場合ではその挿通部に保持部32を通過させることで取り付けることができ、また、磁石やベロクロ(商品名)の如き部材によって着脱自在に取り付けるようにしても良い。また、衣服の首の部分には、通常商品のタグや衣服を吊るす際の輪となる部分があり、その部分に保持部32を通過させてユーザー3から脱落しないようにすることも可能である。キー入力部34では、無人ヘリコプター10の制御や、撮影方法の制御、更には画像処理の制御など種々の制御を行うために、例えば予め設定された入力コードを入力することができ、発光ダイオード35から所要の光信号を出力させることが可能となる。
【0030】
図4はこの光ビーコン装置31の内部回路構成を示す図である。この内部回路はマイクロプロセッサ37を中心に構成されており、キー入力部39からの信号を受けてメモリ41に格納されている光信号パターンをマイクロプロセッサ37が選択し、その選択に応じてLED駆動部40に信号を送って発光ダイオード36を点滅させる。この光ビーコン装置31には、ボタン電池、太陽電池、或いは燃料電池などの電源38が搭載されており、電源38はマイクロプロセッサ37、メモリ41、LED駆動部40に電力を供給するように構成される。
【0031】
これら図3、図4を用いて説明する光ビーコン装置は一例に過ぎず、種々の変形例も可能である。例えば、その外形については、矩形で略平板状とされ、ユーザー3の衣服に取り付けるものとして説明したが、例えば、帽子やヘルメットの上面に発光ダイオードなどの信号発生部分を取り付けたものを用いたり、衣服や靴の一部に発光ダイオードなどの信号発生部分を予め組み込んだものを用いたり、時計やネックレスなどの装飾材の一部の発光ダイオードなどの信号発生部分を設けたり、例えば、スキーなどではスキー板やボード、或いはストックの一部に信号発生部分を設けるようにすることも可能である。
【0032】
また、光ビーコン装置の構造についても、より単純な構造で構成することが可能である。例えば単純なユーザーの追尾だけを実行するような場合であって、その撮影方法や画像処理方法も変更しない場合や、複数の被写体を区別するだけの場合は、キー入力部39などは設けなくとも良く、発光ダイオード35をタグに配設した構造であっても良い。
【0033】
次に図5を参照しながら、本実施形態の移動撮影方法について、その手順に従って説明する。ここで例示的に説明する移動撮影方法は、光ビーコン装置を用いて無人ヘリコプターなどの飛行体を制御すると共にID番号を利用して撮影後に画像の選択を容易ならしめる例である。
【0034】
先ず、手順S1としてユーザーが光ビーコン装置31を身に付ける。光ビーコン装置31は図3に示すような矩形で略平板状の装置であり、その保持部32を例えばユーザー3のスキー服の肩部分に挿通させてユーザー3に取り付けた状態とさせる。
【0035】
続いて、ユーザー3が光ビーコン装置31を操作して飛行体である無人ヘリコプター10の飛行移動を開始させる(手順S2)。この場合には、光ビーコン装置31に飛行開始のためのキー入力を行い、そのキー入力に応じて光ビーコン装置31の発光ダイオード35を点滅させる。この時、ユーザー3の位置は無人ヘリコプター10のID認識カメラ11によって捉えることができる位置にいることが望ましく、そのような位置で発光ダイオード35を点滅させることで無人ヘリコプター10が離陸して飛行を開始する。無人ヘリコプター10の内部では、前述のIDカメラ処理部21がID情報の抽出を行い、飛行開始命令に該当するID番号を受信したものと認識される場合、飛行体制御部24に飛行開始の信号が送られ、その飛行体制御部24からメインローター12、テールローター13の回転開始などの信号が飛行体動力部25に送られて、無人ヘリコプター10の飛行が開始する。
【0036】
無人ヘリコプター10が離陸する際には、多少ローリングなどの飛行動作を伴うこともあり得るが、ID認識カメラ11は常に光ビーコン装置31からの信号を捕捉するように動作する。すなわち、急激な風やエアポケット、更には被写体であるユーザー3が急に動いたり、障害物に隠れた場合には、ID認識カメラ11は光ビーコン装置31からの信号を一時的に受信しなくなるが、ID認識カメラ11は常に光ビーコン装置31からの信号を探知し、或る方向において光ビーコン装置31からの信号が無いものと判断されるときには探知される領域を広げて探し続ける動作を行う。このID認識カメラ11の作動時において、被写体が移動する場合には、光ビーコン装置31の位置からその移動を無人ヘリコプター10が追尾する。従って、被写体としてのユーザー3がスキーのゲレンデを滑り降りるような状況においても、無人ヘリコプター10は光ビーコン装置31からの信号を捉えながらユーザー3を確実に自動的に追尾することができる。
【0037】
ID認識カメラ11は常に光ビーコン装置31からの信号を探知するように動作をするが、実際にはシーンとしての画像を撮像する画像モードと、光ビーコン装置31からの光信号を抽出するためのIDモードの切替を繰り返すように構成されている。この画像モードにおける信号処理とIDモードにおける信号処理については後述する。ID認識カメラ11が光ビーコン装置31を認識したら、被写体を撮影し、そのID番号と共にメモリ23に記録する(手順S3)。ID認識カメラ11が被写体を撮影する場合、複数の被写体がそれぞれ光ビーコン装置31を有し、それぞれID番号を信号として発生させる場合がある。このような場合、異なる複数の被写体についての画像とID番号が関連付けられてメモリ23に記憶されることから、ID番号を利用して撮影後に確認する場合や編集する場合に素早く処理することができる。
【0038】
次に、手順S4では、撮影が終了した状態で、光ビーコン装置31に飛行体の飛行終了を意味するキー入力を行い、光ビーコン装置31はそのキー入力を受けて発光ダイオード35を点滅させて光信号を無人ヘリコプター10の撮像部20に送る。その結果、撮像部20から信号がIDカメラ処理部21に送られ、そこから飛行体制御部24に飛行停止の信号を送り、その飛行体制御部24から飛行動力部25に各動力部の停止信号を送って、無人ヘリコプター10の飛行を停止させる。無人ヘリコプター10の位置が空中の高い位置にあって飛行停止の信号を受けた場合では、自動運転によって着陸するように制御される。
【0039】
この状態で、無人ヘリコプター10のメモリ23には、被写体について画像データがID番号と共に記録されており、手順S5では、ユーザー3が光ビーコン装置31を制御して、自己のIDを有する画像を表示するように制御を行う。具体的には、先程と同様に光ビーコン装置31のキー入力部34を操作して、画像表示を指令する信号を光ビーコン装置31から出力する。
【0040】
このユーザー3による指示に応答してそのユーザー3のID番号にかかる画像が表示される。この表示は無人ヘリコプター10の画像表示部27を利用して行われ、そのユーザー3にかかる画像が連続的にコマ送りや時系列的に並べる方法で表示される(手順S6)。表示された画像を見ながら、手順S7でユーザー3が必要な画像を選択する。ここで必要な画像とは、保存して編集したり、印刷などの加工に使用する画像である。また、選択できる画像としては、静止画像でも良く動画像でも良い。このユーザー3による画像の選択動作は、光ビーコン装置31のキー入力部34を用いることも可能であり、無人ヘリコプター10の入力部28を用いても良い。
【0041】
ユーザー3が選んだ画像は、無人ヘリコプター10の外部出力部29から所要のオーディオ・ビデオ装置に送られる(手順S8)。また、ユーザー3が選んだ画像が送られる外部出力部29からパーソナルコンピュターなどの機器に出力するようにしても良く、また、ネットワークインターフェイス30を介してインターネットに接続するサーバーその他の情報端末に送信するようにしても良い。
【0042】
このように図5に示すフローでは、無人ヘリコプター10の飛行開始や飛行終了などの命令や、被写体をID番号と共に記録することを光ビーコン装置31を操作することで、遠隔的に且つ自動的に操作でき、特に被写体の移動が高速である場合でも容易に追尾することが可能であり、また、光ビーコン装置31からの光信号に含まれるID番号によって、複数の被写体をそれぞれID番号別に撮影し保存するようにすることも可能である。
【0043】
以上の例では、カメラを搭載する飛行体を例えば無人ヘリコプターとし、その用途をスキーなどの行楽地での撮影とした例について説明したが、本実施形態の移動撮影システムは他の形態や用途についても適用できる。ここで他の形態や用途について説明すると下記の表1に例示列挙されるものが挙げられる。
【0044】
【表1】

Figure 0004284949
【0045】
この表1に列挙したものは、例示に過ぎないものであるが、カメラを搭載する移動体としては、空中を移動するものに限らず、陸上や水面上、或いは水中などの種々の場所を移動できるものが挙げられる。また、用途についても、行楽用途に限らず、スポーツ記録や映画や自然観察など種々の応用が可能である。場所や具体的なイベントも限定されずに種々のものに適用できる。撮影対象も人だけに限らず、種々の生物であっても良く、車や船などであっても良い。また、撮影対象は単数とは限らず、複数であっても良い。光ビーコン装置31は、キー入力の操作が加わるために被写体が人間の場合となるが、例えば被写体が動物の場合では操作が不要で光信号を出力するような光ビーコン装置がその被写体としての動物に取り付けられる。
【0046】
次に図6を参照しながら、光ビーコン装置の操作によって飛行体の飛行予定を変更する例について説明する。撮影の途中であっても、本実施形態の移動撮影システムでは、光ビーコン装置が無人ヘリコプターの如き飛行体と交信でき、都合に応じて飛行予定を変更することができる。
【0047】
先ず、手順S11として、ユーザーが光ビーコン装置を身に付ける。光ビーコン装置は図3に示すような矩形で略平板状の装置とすることも可能であり、所要の光信号を出力できる他の装置であっても良い。
【0048】
次に、手順S12ではユーザーが光ビーコン装置を操作して、例えば無人ヘリコプターの如き飛行体の飛行を開始させる。この時、この場合には、光ビーコン装置に対して飛行開始のための操作を行い、その操作に応じて光ビーコン装置の発光ダイオードを点滅させる。この発光ダイオードの点滅は、飛行体に搭載されるID認識カメラに捕捉され、飛行体が離陸して飛行が開始される。
【0049】
飛行体の離陸の後、前述のように、被写体としてのユーザーが離陸した飛行体に自動的に追尾されて撮影が開始する。例えば、飛行体の離陸前の設定では、ユーザーの20m後ろから45度の角度で撮影すると言うような設定であった場合において、飛行体の離陸した後で撮影が開始すれば、その離陸前の設定に従って撮影が開始される。このような離陸前の設定は、このフローでは変更可能であり、手順S13ではユーザーが光ビーコン装置を操作して、飛行体の位置を変更させる光信号を光ビーコン装置が出力させる。このような飛行体の位置の変更例としては、たとえば飛行体の離陸前の設定でユーザーの20m後ろから45度の角度で撮影するという設定内容であったものを、ユーザーの正面20m手前から45度の角度で撮影するという設定内容に変更できる。
【0050】
光ビーコン装置が飛行体の位置を変更させる光信号を出力すると、飛行体のID認識カメラが光ビーコン装置からの光信号を受信し、その光信号に含まれるID番号の形式の制御信号に従って飛行中の飛行体がその位置を修正する(手順S14)。この修正によって、例えば飛行体は20m後ろからの追尾状態からユーザーの前側に移動して撮影を続けることになり、このような撮影位置の変更によって、被写体であるユーザーの後ろ姿だけが撮影される状況からユーザーの顔の表情も撮影できるような変更ができることになる。このような撮影位置の変更は、特に離陸前のプログラムとは独立して行うことができ、撮影の状況で撮影位置を移動させる場合に極めて有効である。
【0051】
次に図7を参照しながら、光ビーコン装置の操作によって撮影方法を変更する例について説明する。本実施形態の移動撮影システムでは、撮影の途中であっても、光ビーコン装置が無人ヘリコプターの如き飛行体と交信でき、都合に応じて撮影方法を変更することができる。
【0052】
先ず、手順S21として、ユーザーが光ビーコン装置を身に付ける。光ビーコン装置は図3に示すような矩形で略平板状の装置とすることも可能であり、所要の光信号を出力できる他の装置であっても良い。
【0053】
次に、先の図6の手順S12と同様に、手順S22ではユーザーが光ビーコン装置を操作して、例えば無人ヘリコプターの如き飛行体の飛行を開始させる。この時、この場合には、光ビーコン装置に対して飛行開始のための操作を行い、その操作に応じて光ビーコン装置の発光ダイオードを点滅させる。この発光ダイオードの点滅は、飛行体に搭載されるID認識カメラに捕捉され、飛行体が離陸して飛行が開始される。
【0054】
飛行体の離陸の後、前述のように、被写体としてのユーザーが離陸した飛行体に自動的に追尾されて撮影が開始する。例えば、飛行体の離陸前の設定で、被写体の全身を画像のフレーム一杯とするような設定であったとすると、撮影が開始すると、そのようなユーザーの頭から足先にかけての映像がID認識カメラによって撮影されて行くことになる。このような撮影が進行してうちに、ユーザーの都合や環境や事故などに応じて、ユーザーは身に付けている光ビーコン装置を操作して撮影の方法を変更させる光信号を光ビーコン装置から送出させる(手順S23)。このような撮影方法の変更の一例としては、被写体の全身を画像のフレーム一杯とする撮影法から、景色を十分に入れてカメラが引いた状態の撮影をするように変更できる。ある種類の撮影方法の変更は、飛行体の位置の変動を伴わずに可能であり、ズームアップやズームダウンなどのレンズ系の操作や、静止画の場合のシャッター速度の調整、フィルターの付加、時計の表示の制御など各種の変更が可能であり、それらは光ビーコン装置を操作することで可能となる。
【0055】
光ビーコン装置が撮影の方法を変更させる光信号を出力すると、飛行体のID認識カメラが光ビーコン装置からの光信号を受信し、その光信号に含まれるID番号の形式の制御信号に従って撮影の方法が修正される(手順S24)。すなわち、その光信号によって、例えば、飛行体の離陸前の設定で、被写体の全身を画像のフレーム一杯とするような設定であった場合、景色を十分に入れてカメラが引いた状態の撮影をするように修正される。このような変更は、カメラ手元にある場合には容易に行うことが可能であるが、カメラが飛行体に搭載されている場合においては、光ビーコン装置からの光信号が有効に変更できる手段として利用できることになる。
【0056】
次に図8乃至図13を参照して、自動撮影時の追尾方法の例について説明する。図6、図7のフローチャートの制御は追尾の途中で変更する場合を含んでいるが、以下に説明するように、光ビーコン装置からの光信号を利用して自動的な撮影を追尾しながら行うことも可能である。なお、本明細者においては、"追尾"とは必ずしも後ろから追跡するような場合のみを指すのではなく、任意に側面や正面などに廻り込んで被写体を追うような場合も含むものである。
【0057】
先ず、自動撮影時の追尾の基本的な流れは、図8に示すように、光ビーコン装置を身に付けたユーザーが該光ビーコン装置を操作して例えば無人ヘリコプターの如き飛行体の飛行を開始させる(手順S31)。この開始直後では、飛行体は光ビーコン装置の光信号の捕捉よりも離陸時の姿勢制御が優先することから、光ビーコン装置の光信号を見失うことがあり、そのような場合では、飛行体が旋回して、或いはID認識カメラが固定でない場合にはID認識カメラの撮像範囲を変更しながら、ユーザーが身に付けている光ビーコン装置からの光信号を探知する(手順S32)。この段階では徐々に光ビーコン装置が光信号によって探知されることになるが、光ビーコン装置の光信号がID認識カメラに捉えられたところで、光ビーコン装置からの光信号が発見されたことになり、その段階で自動撮影を行う追尾を開始する(手順S33)。
【0058】
この自動撮影による追尾の開始時には、優先するモードが選択される。本システムで使用できるモードは4つあり、その4つのモードはフレーミングモード、距離・角度モード、ズームモード、撮影方向モードである。フレーミングモードは、被写体を画面のどこに配置して撮影するかを設定するモードであり、左側、右側、中央、上側、下側などの設定が可能である。図9はフレーミングモードの一例を示す図であり、図9の(a)が被写体を画面の右側に配置する例であり、図9の(b)が被写体を画面の中央に配置する例である。図9において、ユーザー3はフレーム45の中に捉えられるように写されるが、フレーミングモードの設定によって、ユーザー3の位置が概ね決められることになり、フレーミングモードが右側を被写体とする場合には図9の(a)に示す状態とされ、フレーミングモードが中央を被写体とする場合には図9の(b)に示す状態とされて撮影が行われることになる。
【0059】
図10は距離・角度モードを説明するための図である。飛行体である無人ヘリコプター10と光ビーコン装置31を身に付けたユーザー3との間の距離Dと無人ヘリコプター10の飛行する角度θが設定され、この設定された距離Dを角度θを維持するように追尾を行う。このような距離Dや角度θについては、無人ヘリコプター10が常時光ビーコン装置31からの光信号によって把握できるデータであり、常時設定値とのずれが修正されて撮影が続けられることになる。
【0060】
図11はズームモードを説明するための図であって、図11の(a)が被写体をズームダウンして撮影した場合の画面であり、図11の(b)が被写体をズームアップして撮影した場合の画面である。ズームモードとしては、図11の(a)と(b)の2段階のズームだけではなく、無段階若しくは2以上の多段階とすることもできる。図11の(a)に示すように被写体をズームダウンして撮影した場合では、被写体としてのユーザー3がフレーム45に対して相対的に小さく撮影されて景色が画面上大きな面積を占めるように写され、図11の(b)に示すように被写体をズームアップして撮影した場合では、ユーザー3がフレーム45に対して相対的に大きな面積を占めるように撮影されることになる。
【0061】
図12は撮影方向モードを説明するための図であり、被写体をどの方向から撮影するのかが設定できることになる。この撮影方向モードでは、例えば上から、前から、横から、後ろからというような選択が可能であり、前からと言う設定をした場合では、ID認識カメラは被写体であるユーザー3の正面からの映像を自動的に撮り続けることになる。
【0062】
また、自動撮影を継続させる際に移動する被写体を追うことや光信号を見失うことなども起こりうる事象であり、本実施形態の移動撮影システムでは、そのような場合についても対処可能であって、特に移動速度を予測して、的確な撮影方向や角度での撮影が可能とされる。図13は自動撮影時の追跡方法について説明するためのフローチャートである。
【0063】
先ず、無人ヘリコプターの如き飛行体が飛行を開始したものとすると、その飛行体は周囲を360度旋回して光ビーコン装置からの光信号を探索する(手順S41)。この光信号の探索には、ID認識カメラが使用され、具体的には前述の図2の如き回路におけるIDカメラ処理部21によってID信号の抽出が行われる。この手順S42の段階で光ビーコン装置からの光信号が発見されなければ(NO)、手順S43に進み、探索回数RNのカウント数を1つ増加させる。次に手順S44で探索回数RNが最大探索数Fに達しているか否かが判断され、最大探索数Fに達していない場合(NO)には、もう一度光ビーコン装置からの光信号の探索を繰り返すために、制御は手順S41に戻り、飛行体は周囲を360度旋回して光ビーコン装置からの光信号を探索する。手順S44で探索回数RNが最大探索数Fに達している場合(YES)には、飛行体は着陸して(手順S45)処理を終了する。
【0064】
手順S42で光ビーコン装置からの光信号を発見した場合(YES)、その光信号に含まれるID信号が読み取られる(手順S46)。この読み取り動作によって、ID信号がIDカメラ処理部で抽出され、それが目標とする被写体のID番号に対応する信号か否かが判断される(手順S47)。すなわち、一台の飛行体で一度に複数の被写体を追尾する場合には、それぞれの被写体が所要の光ビーコン装置を保持し、各光ビーコン装置が異なるID信号を含むことから、被写体の区別をID信号で認識できることになる。
【0065】
読み取った結果のID信号が目標とする被写体のものではない場合(NO)、手順S41に戻り、再びその飛行体は周囲を360度旋回して光ビーコン装置からの光信号を探索して、前述の制御を繰り返す。手順S47で読み取った結果のID信号が目標とする被写体のものである場合(YES)、飛行体は正しい被写体を捉えていることになり、飛行体は追尾を開始する(手順S48)。
【0066】
この自動追尾による撮影時には、光信号が撮影画像の範囲内で移動するのを検知する(手順S49)。この光信号の移動は、被写体の移動を意味するものと飛行体側で把握され、光信号の移動により、被写体の次の移動方向や移動速度が予測され、その予測値に対応するように飛行体の向きや位置を変えるものとされる(手順S50)。
【0067】
図14は光ビーコン装置31からの信号を捕捉しながら追尾する際の概念図であり、図14の(a)から(c)に亘って順次ユーザー3の移動に従って光ビーコン装置31が右上から左やや下側に移動していくことになるが、その画面内での移動速度や移動方向がIDカメラ処理部で抽出されて、その動きの予測値に応じて飛行体やID認識カメラの位置が移動して行くことになる。このため例えばスキーのように高度差が大きく移動する距離も長い場合であっても確実にスキーヤーを被写体として捉えることが可能である。
【0068】
このような撮影を行い、途中で光ビーコン装置31からの光信号を飛行体が外してしまうこともある。例えば、撮影時に被写体が物陰に隠れたり、光信号が何らかの原因で途絶えた際には、光信号を捕捉しているか否かの判断(S51)がNOとなり、探索回数RNを一旦リセットした後、手順S43に進み、探索回数RNを1つ増加させて、以降、探索回数がFまで増加した場合には飛行体は着陸する(手順S45)。
【0069】
手順S51で、光信号を捕捉しているか否かの判断(S51)がYESの場合、以降、飛行を継続するが、光ビーコン装置からの光信号からなるリモコン信号の受信に応じ、そのリモコン信号に応じて撮影方法を変化させたり、飛行体の飛行を中止したりすることが可能である。これら撮影方法の変更や飛行体の制御については、それぞれ図7や図6を参照しながら説明した前述の例のように制御されるものである。
【0070】
次に、図15を参照しながらID認識カメラの例について更に説明する。本実施形態に移動撮影システムにおいては、光ビーコン装置と共にID認識カメラが光ビーコン装置からの光信号の受信用に用いられ、種々の制御が可能となる。ここでID認識カメラとは、十分高速に撮像可能な2次元配列の受光ブロックと各受光器から出力される光電変換によって蓄積された電荷量またはそれを変換した電圧値、電流値、A/D変換によるデジタル値などを演算することが可能カメラであって、各画素または複数画素単位で、光の点滅パターンからその時系列信号を読み出すことができ、かつ画像も取得することが可能なカメラである。すなわち、このID認識カメラによれば、画像とID情報(IDデータ、X、Y座標)が得られることになる。
【0071】
ID認識カメラの構成としては、通常の撮像素子に演算部を結合させることも可能であるが、例えば、文献S.Yoshimura, T.Sujmiyama, K.Yonemoto, K.Ueda, "A 48Kframes/s CMOS Image Sensor for Real-time 3-D Sensing and Motion Detection" ISSCC Digest of Technical Papers, pp.94-95, Feb.2001や特開2001-326857号公報に開示されるような演算機能付き撮像素子を用いても良い。すなわち、演算機能付き撮像素子では、1つの撮像素子でありながら、デジタル画像と演算処理した画像を得ることが可能である。また、CMOS 構造とすることで、CMOS(Complementary Metal-Oxide Semiconductor)の半導体製造技術から従来のCCD素子では困難な高速撮像を実現することも可能である。
【0072】
図15にID認識カメラの一例の要部を示す。ID認識カメラは、主にイメージセンサ部51とデコード処理部61からなる。イメージセンサ部51は光信号を電気信号に変換するための領域であるが、本カメラにおいては、イメージセンサ部51は受光エリア52と演算エリア53から構成される。なお、イメージセンサ部51が図2に示す装置の撮像部20に該当し、デコード処理部61が図2に示す装置のIDカメラ処理部21に該当する。
【0073】
受光エリア52は、カメラのレンズ等を介して受光した光を電気信号に変換するCMOS固体撮像素子の如き受光素子54と、この受光素子54からの信号を増幅する増幅部55とを有している。一方、演算エリア53は、受光エリア52からの信号を一時的に蓄積する記憶部56と、記憶部56に蓄積された信号のレベルと基準信号レベルを比較するための比較部57と、比較部57からの比較結果に応じた出力を行う出力部58とを有している。記憶部56には、画素ごとの信号が例えば異なるタイミングで蓄積されて行き、比較部57には一括して読み出される。
【0074】
また、前述のデコード処理部61は、画像信号を処理する画像デコード処理部62と、これと並列して配置されるIDデコード処理部63とを有している。IDデコード処理部63が光ビーコン装置から発せられた光信号をデコードしてID情報を抽出する回路部分であり、また、同時にそのID情報にかかる座標についても抽出されるように構成されている。
【0075】
ここで、イメージセンサ部51で行われる演算とは、
【0076】
[数1]
F(N)+F(N-1)-F(N-2)-F(N-3)・・・(1)
【0077】
ここで、Nはフレーム番号を表し、F(N)はNフレーム目の受光部に蓄積された輝度を表すものである。光ビーコン装置からの光信号は点滅する点光源と考えられることから、式(1)の値は、点光源が存在する画素についての4フレーム間の演算となる。この演算により、光の変化を検出することができるため、その演算結果を用いて、後述するIDデコード処理を行うことで、点滅パターンを復元し、光ビーコンからの信号を受信することが可能となる。この(1)式によらず、他の演算例えば1次微分や2値化画像の比較などによっても演算は実現可能であるが、本実施形態では、光変化の検出の安定性を考え、(1)式を用いて説明する。
【0078】
また、本実施形態のID認識カメラにおいては、外部からの信号、例えば光ビーコン装置からの光信号を用いることによって、上記の画像処理結果とA/D変換したデジタル画像の両方を得ることができる。例えば、前記画像処理結果と前記A/D変換したデジタル画像を交互に得ることで、ID認識カメラはID情報用の画像処理結果とシーンについての画像の両方を取得することが可能である。このID認識カメラが扱う信号を時分割でモード分けし、例えばここで画像モード、IDモードがそれぞれ30fps(フレーム/秒)や60fpsといったフレームレートにすることも可能である。すなわち、イメージセンサ部51から出力される信号を画像モードとIDモードで交互に送信されるように設定し、それぞれが対応するデコード処理部62、63で処理されてデコードされることになる。
【0079】
図16は画像モードとIDモードが交互に送信される例であり、画像モードには撮影された画像情報が含まれて送信される。IDモードの期間内には、IDデコード処理区間P2とID重心区間P1が含まれており、これらの区間P1、P2に含まれるID情報から上述の如き各種の制御が可能となる。画像モードにおける信号を画像デコード処理部62で処理することで画像読み出しが実現され、IDモードにおける信号を画像デコード処理部62で処理することでID読み出しが実現される。なお、図16においては、画像モードとIDモードが同時間のように示されているが、同時間でも良いし、同時間である必要もない。
【0080】
次に、前記イメージセンサ部51における輝度信号レベルについての画像処理について簡単に説明する。図17に示すように、前記イメージセンサ部51において、画像モードでは、受光素子(フォトダイオード)54の各画素で検出した輝度を示す信号レベルが、基準信号レベルVrefと比較され、前記基準信号レベルVrefよりも大きくなったときに、アクティブになるような信号が出力される。すなわち、受光素子54に入射した光は、該受光素子54で光電変換され、さらに増幅部55で増幅された信号が、記憶部56にフレーム毎に蓄積されて行く。図17はフレーム数に応じた明るい画素(高輝度時)と暗い画素(低輝度時)の輝度信号レベルの変化を示しており、一画面の初めでは、フレーム数はゼロでリセットレベルVrsに輝度信号レベルがある。しかし、図17に示すように、明るい画素ほど早く基準信号レベルVrefに達し(図中TH)、暗い画素ほど基準信号レベルVrefに達するまでの時間(図中TL)が長くかかることになる。実際のセンサからの出力は、比較部57において、各画素について各画素の輝度信号が、前記基準信号レベルVrefに達したかどうかの比較結果(コンパレータ出力)を2値(0,1)で出力することで行われる。図17では、高輝度時の変化で時間THのところで、2値の出力が"0"から"1"に変化する例を示している。このイメージセンサ部51は、高速に撮像して上記演算を行い、1画面分の結果をセンサ外に出力することが可能である。
【0081】
明るい画素や暗い画素からの信号が基準信号レベルVrefに達するまでの時間(TH、TL)を計測するためには、このイメージセンサ部51が1画面単位で結果を出力するので、このフレーム数をカウントしておいて、各画素で何番目のフレームでイメージセンサ部51の出力信号がアクティブすなわち2値の出力が"0"から"1"に変化するかを記録することで、その画像が得られることになる。画像情報として、正しい明るさに変換するためには、明るい画素ではアクティブに遷移するまでの時間が短く、暗い画素ではアクティブに遷移するまでの時間が長いことから、この基準信号レベルVrefに到達するまでの時間(フレーム数)の逆数を計算すればよい。この動作により、画像のA/D変換動作が実現できることになる。このイメージセンサ部51からのセンサ出力が画像処理デコード部62に送られ、画像処理デコード部62で画像を得るための処理が行われる。
【0082】
次にIDデコード処理について説明する。まず、イメージセンサ部51と光ビーコン装置の周波数について説明すると、イメージセンサ部51のフレームレートfsは、光ビーコン装置の光信号の点滅周波数fpの例えば3倍に設定される。これは「シャノンの標本化定理」より、センサ部のサンプリングレートは、光ビーコン装置からの光信号の点滅周期より2倍以上のサンプリングレートが必要とされるからであり、またID認識カメラのシステムにおいては、fsとfpの位相の違いが出ることから、この位相差の影響を加味して、本実施形態では3倍とする。例えば、センサ部の周波数が例えば12KHzの場合、光ビーコンの点滅周期は4KHzと設定される。以下説明がわかりやすいように、本実施形態では、センサの周波数が12KHzの場合、光ビーコンの点滅周期は4KHzとして説明する。
【0083】
次に、光ビーコン装置の構造例について、図18を参照しながら説明する。先に、光ビーコン装置については、図3、図4を参照して、その一例について説明したが、ここでは図18を参照して更に他の構成例について説明する。図18の(a)に示す光ビーコン装置の例では、光ビーコン装置71は、光源72、点滅制御部73、送信データ保存用メモリ74を有する構造とされる。光源72は点滅制御部73からの駆動信号に応じて点滅動作するように構成されており、点滅制御部73は状況や設定に応じた出力データを送信データ用保存用メモリ74から取り出して動作する。光源72は高速に点滅することができる光源であれば、如何なる光源でも良く、出力波長もセンサが反応する範囲であれば良い。すなわち、光源72の波長域としては例えば可視光だけではなく、赤外線域なども使用可能である。応答速度、寿命の点から、LEDは最適な光源の1つである。また点滅制御部73は、発信器とデジタル回路(IC,ASIC,FPGA、ワンチップマイコンなどで実現可能)によって、送信データ保存用メモリ74の内容に基づいて、上記光源72を点滅させる。
【0084】
また、図18の(b)は、通信路79を通じて、送信データを可変とすることが可能な光ビーコン装置75の構成例を示しており、(a)と同様に、光ビーコン装置75は、光源76、点滅制御部77、データ送受信部78を有する構造とされる。光源76は点滅制御部77からの駆動信号に応じて点滅動作するように構成されており、点滅制御部77は通信路79を介して信号が供給されるデータ送受信部78からの制御信号に応じて点滅する。ここで通信路79とは、有線・無線の通信回線、例えば電話回線ISDN, RS-232C, RS-422, Ethernet (登録商標)(10base-T, 100base-T), USB,IEEE1394, IEEE802.11a, IEEE802.11b, BlueTooth (商標名)などの通信手段を指す。またデータ送受信部78は、この通信手段に対応するデータ通信用IC及びドライバを指し、通信路79を介して受信した光ビーコン装置の送信データは、このデータ送受信部78経由で、点滅制御部77に渡され、光源76の点滅パターンとなる。
【0085】
ここで、光ビーコン装置から送信される光信号の符号化方式について説明する。デジタル通信では、受信側で安定して受信できるように一般に送信データは符号化される。本実施形態では、光ビーコン装置から送信されるデータ(点滅パターン)は、マンチェスタ符号化を用いて符号化される。マンチェスタ符号化は、図19に示すように、送信データ0に対して発信データを10、送信データ1に対して発信データを01とする符号化方式であり、これを用いることで光ビーコン装置が有効なデータを送信している間は、必ず光の輝度変化があることになり、前記イメージセンサ部51を用いた4フレーム間の輝度変化を調べる演算にて、点滅のパターンを受信するのに都合の良い符号化となることが分かる。図19の例では、8ビットの"01001001"のデータを送信する場合の符号化について説明しており、それぞれ1ビットが"1"の場合、"01"に符号化され、1ビットが"0"の場合、"10"に符号化される。
【0086】
本実施形態において、固定長8ビットのデータを送る場合を例に挙げて説明する。送信データの1データフレームは、図19に示す送信データのフォーマットのように、スタートコード、送信データから構成される。前記スタートコードは、送信データの1フレームの先頭であることを受信側に知らせることを目的とするものであるので、例えばマンチェスタ符号化された送信データ部分には現れない"0001"というビットを割り当てる。また前記送信データは8ビットデータをマンチェスタコード符号化した16ビットデータである。したがって、この1データフレームをLEDの点滅で送信する場合に、送信データの1を点灯、0を消灯と割り当てて、光信号の点滅周期、本実施形態では4KHz(250μs毎)で点滅させる。これで8ビットのIDデータが送出されることになる。
【0087】
このような符号化された点滅信号は、前述のID認識カメラのイメージセンサ部に入射し、イメージセンサ部は、IDモード時には、演算ブロック単位(各画素または複数画素単位)において、光ビーコン装置からの点滅する光信号を受光して、(2)式のような4フレーム間の演算を行い、その演算結果をセンサ外に出力する。
【0088】
[数2]
F(N)+F(N-1)-F(N-2)-F(N-3)・・・(2)
【0089】
ただし、ここで実際には、この式のF(N),F(N-1),F(N-2),F(N-3)は本イメージセンサ内ではアナログ量として扱われ、その演算結果を外部から制御可能な閾値によって、2値化される。したがって、本イメージセンサの1つの動作モードとしては、(2)式の結果を、正の値の閾値で、2値化したものを出力することが可能である。すなわち、これは、閾値レベルをTHRとすると、
【0090】
[数3]
F(N)+F(N-1)-F(N-2)-F(N-3) ≧ THRのとき、1
【0091】
F(N)+F(N-1)-F(N-2)-F(N-3) < THRのとき、0・・・(3)
【0092】
を出力する。これは、LEDの点滅の立ち上がりエッジを検出することになる。図20に、前項で説明した送信データ(8bitデータ)を送った場合の、センサ出力を示す。このとき、センサのサンプルパルスは12KHzであり、12KHz単位で(3)式の演算結果を出力している。このセンサ出力を、図15に示すIDデコード処理部63に入力し、ID(ここでは光ビーコン装置からの8bitの送信データ)と座標を算出する。
【0093】
前述のように、画像モードとIDモードは、画像とIDを交互にモードを切り替えて、ID認識カメラを実現している。例えばこれを30frame/secで切り替えると、このID認識カメラは、画像を15fps,IDを15fpsで取得可能なカメラとなる。ここで、画像モードの区間では、画像デコード処理を行いつつ、前IDモード区間でデコードした結果(ID)をID認識カメラから出力することができる。またIDモード区間では、IDデコード処理を行いつつ、前画像デコード区間でデコードした結果(画像)をID認識カメラから出力することができる。本実施形態では、このIDモードは、図16に示すようにIDデコード処理区間P1とID重心計算区間P2の2つに分けている。
【0094】
ここで図20を参照しながら、IDデコード方法について説明すると、光ビーコンが固定長8bitのデータ(01001001)を送信する場合、イメージセンサ部は、IDモード時には、前項で説明したように立ち上がりエッジを検出する演算を行い、センサ出力は図20のようになる。以下、簡単のため、センサの或る1画素(または1演算ユニット)に注目して、IDデコードの手順を示す。
【0095】
また本実施形態では、固定長8bitで説明しているが、ビット数を拡張することは、本実施形態で開示したものから、当業者は容易に行うことができるものである。また、固定長ではなく、ビット長を可変にしたい場合でも、スタートコードだけではなく、エンドコードを設け、その検出手段(スタートコードと同様の方法)を付加するだけで、実現される。
【0096】
先ず、スタートコードの検出は、IDデコードの最初の手順として、送信データのスタートコードを検出する。スタートコードは、本実施形態では"0001"と定義したので、センサ出力としては、0が9回(イメージセンサの9フレーム分)以上出た後、初めて1を受信するとそれをスタートコードと見なすことができる。
【0097】
続いてIDデータの受信は次のように進められる。スタートコードを受信を完了した次のフレームから6フレーム目のセンサ出力が、IDデータの0ビット目のデータ(b0)すなわちLSBとなる。そして、このb0から6フレーム毎のセンサ出力がb1, b2, b3, b4, b5, b6, b7となり、8ビットのデータを受け取ることができる。図20では6フレームは6クロックとして描かれており、6クロック毎にセンサ出力がサンプリングされてIDデータの抽出が行われることになる。
【0098】
本実施形態では、エラーチェック機能が備わっており、光ビーコンの点滅が、蛍光灯照明など光ビーコン以外のものと干渉しないように、光ビーコン以外のものによるセンサへの影響を排除する工夫を施している。すなわち、マンチェスタコード符号化したデータを、光ビーコンの点滅周波数fpの3倍の周波数fsでセンサで受信し、(3)式のような演算を行った場合、次のような法則が成立する。この法則について、図21を参照しながら説明すると。先ず、b0〜b7の各ビットが"0"である場合、その"0"であるビットの3フレーム前のセンサ出力と6フレーム前のセンサ出力は、必ず反転している。この法則については、図21では、矢印αで示しており、b1が"0"であることから、その3クロック前のデータと6クロック前のデータが反転していれば正常で、反転していなければエラーとみなされることになる。次の法則はb1〜b7の各ビットが1である場合、3フレーム前のセンサ出力は必ず"0"であるというものであり、この条件を満たさない場合には、それがエラーと見なされる。図21では、その法則を表す部分を矢印βで示している。b6が"1"であることから、その3クロック前のデータが"0"であれば正常で、逆に"1"であればエラーとして処理されることになる。
【0099】
次に、本実施形態におけるID重心計算について説明する。このID重心計算は前述のような方法で求めた各画素(または各演算モジュール)のIDから、そのIDの画像上の座標を求める方法であり、その一例をここで説明する。例えば、IDの種類ごと(この場合、IDは8ビットであるから、256種類)に、そのI,J座標の和と個数を求め、各I,J座標の和を個数で割ると、各IDごとの重心座標を求めることができる。光ビーコン毎にIDが異なる場合には、この方法で座標を計算することが可能である。
【0100】
図22はIDデコード処理部の内部構成図である。センサ出力はこのブロックの入力として、IDデコード回路81に供給され、このIDデコード回路81は、各画素のIDを前述のIDデコード手順で示した手順でセンサ出力より復号化する。本実施形態では、IC,ASIC,FPGAなどのデバイスで実現することを念頭において説明をするが、処理能力が十分であれば、マイクロプロセッサやDSPによってソフトウェアで実現することも可能である。
【0101】
センサ出力を受けるIDデコード回路81は、フラグレジスタ82とデータレジスタ83に接続され、IDデコード回路81でデコードしたデータが送られる。データレジスタ83は、デコード途中またはデコードを完了したIDを記憶しておくためのレジスタであり、フラグレジスタ82はIDをデコードするために必要なフラグ類を記憶するためのレジスタである。図23に各レジスタの詳細を示す。フラグレジスタ82は、最初の1ビットがスタートフラグであり、次の4ビットがゼロカウンタ値である。その次の3ビットが位相カウンタ値であり、次のビットがエンドフラグであり、以下、IDカウンタ値と半位相前ビットが続く。なお、IDカウンタ値は次に受け取るデータが何ビット目のデータかを示す値であり、例えば1であれば、次はb1を受信する順番であることを示すことになる。また、データレジスタ83は8ビットのデータレジスタであり、b0〜b7までの8ビットのデータが並ぶことになる。
【0102】
フラグレジスタ82のデータとデータレジスタ83のデータは、フレームメモリ85に送られて蓄積される。フレームメモリ85は、センサの各画素または各演算モジュール毎にデコードしたデータ(ID)とフラグを格納するメモリであって、センサが1画素につき1演算モジュールをもつ場合には、センサの画像サイズであるM×Nと同じサイズとなり、データ幅は図23に示すようにデータレジスタ83とフラグレジスタ82のビット幅の和、すなわち、本実施形態では、データ幅としては21ビット以上で構成される。
【0103】
図22のタイミング制御部84は、IDデコード処理部63全体のタイミング制御を行うモジュールである。具体的には、IDデコード回路81とセンサ出力のタイミングの同期をとり、所望のセンサ出力に対して、対応するフレームメモリ85のデータをデータレジスタ83、フラグレジスタ82にロードして、IDデコード処理を進めるためのタイミング信号を生成して供給する。また、このときフレームメモリ85へのアドレス信号、リードライトなどの制御信号を生成する。また、タイミング制御部84は、ID重心計算回路86、IDレジスタ87、ID座標格納メモリ88のタイミング制御を行う。
【0104】
図24を参照して、IDデコード処理の流れを説明する。画像モードとIDモードが交互に送信される信号においてIDモードに入ると、まずは手順S61においてフレームメモリ85をすべて初期化して、"0"を書き込む。またタイミング制御部84に内蔵されているフレームメモリ85用のアドレスカウンタを初期化する。
【0105】
このような初期化の後、手順S62でフレームメモリ85からレジスタへの読み出しが行われる。すなわち、タイミング制御部84がフレームメモリ85にアドレス信号、リード信号及びチップセレクト信号を与え、現在IDデコード回路が受け取っているセンサ出力に対応する座標のフラグ情報及びデータ(ID)情報を読み出し、それぞれフラグ情報をフラグレジスタ82に、データ(ID)情報をデータレジスタ83に書き込む。初期化の直後の手順では、フレームメモリ85からの出力データは"0"である。
【0106】
次に、手順S63に進み、当該IDデコード処理部としては、IDデコードメイン処理が行われる。ここでIDデコードメイン処理の具体的な手順を図25に示す。先ず、手順S71でフラグレジスタ82内のエンドフラグが"1"であるかどうかが調べられる。もしエンドフラグが"1"である場合には、既に現在のIDモード期間中に光ビーコン装置からのデータを受信完了したので、何も処理せずに当該IDデコードメイン処理を抜ける。もしエンドフラグが"0"である場合には、IDデコードメイン処理を続け、手順S72に進む。
【0107】
手順S72では、フラグレジスタ82内のスタートフラグが"1"か否かが調べられる。もしフラグレジスタ82内のスタートフラグが"0"の場合には、次に説明するスタートコード検出処理(手順S73:図26参照)を行った後、IDデコードメイン処理を抜ける。もしフラグレジスタ82内のスタートフラグが"1"の場合には、後述のデータ受信処理(手順S74)を行った後、IDデコードメイン処理を抜ける。IDデコードメイン処理を抜けた時点で、図24の流れの手順S64に戻ることになるが、図24に示す手順S64以下については後述する。
【0108】
図26を参照しながら、図25の手順S73の処理であるスタートコード検出処理について説明する。最初に、フラグレジスタ82内のゼロカウンタ値が"9"であるかどうかを調べる(手順S81)。ゼロカウンタは、スタートコード"0001"を検出するための前半の処理に必要であり、イメージセンサの周波数が光ビーコン信号の点滅周波数の3倍であることから、まずは"0"を9回以上受け取っていることが、スタートコードの条件となる。ゼロカウンタ値が"9"以下であれば(NO)、ゼロカウンタ値を1増加させて(手順S82)、スタートコード検出処理を抜ける。またゼロカウンタ値が9であれば(YES)、スタートコード検出処理を続ける。
【0109】
続いて手順S83で現在センサから来た値が1かどうかを調べる。もし入力が"0"であれば、まだスタートコードが来ていないと判断できるので、何もせずにスタートコード検出処理を抜ける。もし入力が"1"であれば、スタートコードを受信したと判断して、スタートフラグを"1"に設定した後(手順S84)、スタートコード検出処理を終える。
【0110】
次に、データ受信処理について図27を参照しながら説明する。データ受信処理は先のスタートフラグが"1"の場合(図25参照)の手順であり、このデータ受信処理では、初めに、手順S91で位相カウンタ値が"4"であるかどうかが調べられる。本実施形態では、前述のように受信データのエラーチェックが行われる。その場合に受信データの各ビットの3フレーム前の受信データが使用され、このエラーチェックのタイミングが位相カウンタの値が"4"の時と同期するように設定されている。手順S91では、位相カウンタが"4"であるかどうかを調べ、もし位相カウンタ値が"4"であれば(YES)、半位相前ビットにセンサ出力を書き込む(手順S97)。もし位相カウンタ値が"4"でなければ(NO)、データ受信処理を続け、手順S92に進む。
【0111】
前述のように、イメージセンサの周波数が光ビーコン信号の点滅周波数の3倍であることから、6クロック毎にデータを受信すれば良い。この位相カウンタは0〜7の値をとり、位相カウンタの値が"7"のときにセンサ出力が、光ビーコン装置からの点滅データから送信データを復元したものになる。そこで手順S92では位相カウンタ値が"7"であるかどうかを調べる。もし位相カウンタ値が"7"でなければ(NO)、手順S98に進み位相カウンタを1増加させて、データ受信処理を抜ける。もし位相カウンタ値が"7"であれば(YES)、次のエラーチェック処理に進む。
【0112】
ここでエラーチェック処理について図28を参照しながら説明する。このエラーチェック処理は図27の手順S93の具体的な内容に該当する。初めに、図28の手順S101で、入力(センサ出力)が"1"であるかどうかを判定する。もし入力が"1"だった場合には、フラグレジスタ82内の半位相前ビットが"0"であるかどうかを調べ(手順S102)、半位相前ビットが"0"であれば正常(OK)であり、半位相前ビットが"1"であればエラー発生(NG)とする。この手順S102の判断は、図21の矢印βに対応する判断であり、半位相前ビットは3クロック前のデータである。
【0113】
もし手順S101で入力が"0"だった場合には、手順S103に進み、半位相前ビットと1ビット前のデータの比較が行われる。1ビット前のデータはデータレジスタ内のデータであり、どのビットかはIDカウンタ値からわかる。ただしIDカウンタ値が"0"の場合には、1ビット前のデータは"1"とする。手順S103の判断では、同じでなければ即ち反転していれば-正常(OK)であり、同じであればエラー発生(NG)とされる。この比較は図21の矢印αに対応する判断であり、半位相前ビットは3クロック前のデータであり、1前ビットは6クロック前のデータである。
【0114】
このようなエラーチェック処理が行われた後、再びデータ受信処理について図27を参照しながら説明する。エラーチェック処理の結果、もしエラーチェック処理がNGであれば、手順S96でフラグレジスタ82、データレジスタ83に"0"を設定する。逆にエラーチェック処理の結果が、もし正常(OK)であれば、手順S94でIDカウンタ値を調べて、入力(センサ出力)をデータレジスタ83の記録するべき場所に記録する。続いて位相カウンタの値を"1"に設定し、IDカウンタの値を1つ増加させる(手順S95)。この処理でデータ受信処理を終えて、データがエラーの無い場合に限り、入力データがデータレジスタ83に書き込まれることになる。
【0115】
このデータ受信処理の終了により、IDデコードメイン処理(図25)も終了し、図24のIDデコード処理の手順S64に戻る。この手順S64では、フラグレジスタ82とデータレジスタ83の内容がフレームメモリ85に書き込まれることになる。このときのアドレスは、タイミング制御部84にあるアドレスカウンタ値である。
【0116】
各レジスタ82、83からフレームメモリ85への書き込みが行われた後、デコード完了時間に達しているか否かが判断される。先に図16に示したように、この本実施例のID認識カメラでは、画像とIDを交互に取得するようになっており、それぞれの区間を画像モード、IDモードと呼んでいる。このIDモードの区間も、IDデコード処理区間、ID重心計算区間に分かれており、それぞれ時間を規定している。ここでデコード完了時間とは、IDデコード処理区間を終える時間のことを指しており、その時間がきたかどうかの判断をこの手順S65では行う。
【0117】
この時間の管理は、図22に示すタイミング制御部84が行う。もしデコード完了時間に達していれば、次のID重心計算処理(手順S69)に進む。もしデコード完了時間になっていなければ、手順S66でフレームが終了であるかどうかを調べ、終了であればアドレスカウンタを0に初期化し(手順S68)、或いはフレームが終了でなければアドレスカウンタをカウントアップして(手順SS67)、それぞれ手順S62に戻り、次のフラグ及びデータ(ID)情報をフレームメモリ85からレジスタ82、83へ転送してIDデコード処理を継続する。
【0118】
ここでID重心計算処理について、図29を参照しながら説明する。先ず、初めにID座標格納メモリ88を全てデータ"0"にするように初期化する(手順S111)。次に、手順S112ではフレームメモリ85からIDレジスタ87へのデータの読み出しが行われる。この時、データ制御部からの制御信号によってフレームメモリ85からデータ(ID)情報を読み出し、IDレジスタ87に書き込みがなされる。
【0119】
次に、手順S113で、その読み出したIDに相当するデータをID格納座標メモリ88から読み出す。ID格納座標メモリは、図22に示すように、本実施形態では、送信データを8ビットとしているので256種類のIDの情報を順番に格納したもので、それぞれのIDの情報とは、各IDの重心計算に必要な「I座標の和」「J座標の和」「個数(IDが検出された画素数)」から成る。したがって、ここでは、IDレジスタ87に格納されたIDから、それにIDに対応する「I座標の和」「J座標の和」「個数(IDが検出された画素数)」をID重心計算部86に読み出すことになる。
【0120】
ID重心計算部86はI座標の和、J座標の和、個数+1を計算で求めるように作動する(手順S114)。すなわち、「I座標の和」は「I座標の和」にフレームメモリ85のI座標値を加えた値に更新され、「J座標の和」は「J座標の和」+フレームメモリ85のJ座標値を加えた値に更新され、「個数(IDが検出された画素数)」は「個数(IDが検出された画素数)」を1つ増加させた値に更新される。その計算結果はID重心計算部86からID座標格納メモリ88に書き込まれる(手順S115)。タイミング制御部84がIDレジスタ87の内容を、対応するID座標格納メモリ88に書き戻す。
【0121】
次に手順S116に進み、タイミング制御部84のアドレス信号によって、フレームメモリ85の全座標読み出しを終了したか否かが判断される。もし終了していなかったら、タイミング制御部84は、そのアドレスカウンタの値を増加させて(手順S117)、フレームメモリ85から次のアドレスのIDデータを、IDレジスタに読み出し、ID重心計算処理を継続する。手順S116で、もしフレームメモリ85の全座標読み出しを終了していれば、ID重心計算処理を終える。
【0122】
なお、本実施形態では、これまでにID認識カメラ内では、「I座標の和」「J座標の和」「個数(IDが検出された画素数)」を計算するところを示したが、各IDの重心座標は、これらの値をID認識カメラから受け取れば次式で簡単に計算できる。
【0123】
[数4]
重心座標(Ig,Jg)=(I座標の和、J座標の和)/個数
【0124】
また各IDの位置は、重心以外にも、外接四角形の中心など他の手法も用いることも可能である。
【0125】
このような重心座標の計算によって、ID情報を発しながら大きく移動する被写体についても確実にID認識カメラの画角内に捉えることができ、被写体を自動的に追尾して確実に撮影できることになる。
【0126】
上述の実施形態では、IDデコード処理をセンサの出力順序によって順次行うように説明し、例えばラスタスキャンでセンサ出力がされるならば、ラスタスキャンで読み出し、1つのIDデコード回路で復号化をするように構成するが、これに限らずIDデコード処理を高速に行いたい場合には、並列化を図り各ライン毎にIDデコード回路(N個)をもつことで、N倍高速な回路構成が実現できる。また回路規模は大きくなるが、各画素毎にIDデコード回路を持っても良い。
【0127】
また、上述の実施形態では、信号処理方法としてマンチェスター符号化を用いてエラー検出を行うようにしているが、他の符号化方式を用いても良く、エラー検出だけではなく、エラー訂正などを行うように構成することも可能であり、また、1つの被写体に複数のIDを割り当て、確実な追尾を図るような撮影方法も可能である。
【0128】
【発明の効果】
上述のように、本発明の移動撮影システム及び移動撮影方法によれば、ID認識カメラを搭載した飛行体などの移動体によって被写体を撮影することができるため、移動する被写体を自動的に追尾して確実に撮影できる。また、光ビーコン装置を操作して、無人の飛行体などに撮影プログラムや追尾方式の変更などの制御も可能であり、途中で撮影に支障が生じた場合でも柔軟な対応が可能である。また、カメラで複数の被写体を追う場合であっても、それぞれに被写体にID情報を付与し、且つそれらを位置情報と共に自動的に把握することができるため、移動する複数の被写体であっても確実な撮影が可能である。
【図面の簡単な説明】
【図1】本発明の移動撮影システムの一例の構成を示す模式図である。
【図2】本発明の移動撮影システムの一例の移動体側の構成を示すブロック図である。
【図3】本発明の移動撮影システムにおける光ビーコン装置の一例を示す模式的な外観斜視図である。
【図4】図3の光ビーコン装置の内部回路構成を示すブロック図である。
【図5】本発明の移動撮影システムの一例の一般的な動作を説明するためのフローチャートである。
【図6】本発明の移動撮影システムの一例における飛行体の位置変更動作を説明するためのフローチャートである。
【図7】本発明の移動撮影システムの一例における撮影方法の変更動作を説明するためのフローチャートである。
【図8】本発明の移動撮影システムの一例における自動撮影時の追尾方法を説明するためのフローチャートである。
【図9】本発明の移動撮影システムの一例における自動撮影時のフレーミングモードを説明するための模式図である。
【図10】本発明の移動撮影システムの一例における自動撮影時の距離・角度モードを説明するための模式図である。
【図11】本発明の移動撮影システムの一例における自動撮影時のズームモードを説明するための模式図である。
【図12】本発明の移動撮影システムの一例における自動撮影時の撮影方向モードを説明するための模式図である。
【図13】本発明の移動撮影システムの一例における自動撮影時の追跡方法について説明するためのフローチャートである。
【図14】本発明の移動撮影システムの一例における光ビーコン装置からの信号を捕捉しながら追尾する際の概念図である。
【図15】本発明の移動撮影システムの一例におけるID認識カメラの構成例を示すブロック図である。
【図16】本発明の移動撮影システムの一例における画像モードとIDモードの関係を示す図である。
【図17】本発明の移動撮影システムの一例における画像出力のためのA/D変換動作を示す図である。
【図18】本発明の移動撮影システムの一例における装置の構成例を示すブロック図である。
【図19】本発明の移動撮影システムの一例における送信データのフォーマットを示す図である。
【図20】本発明の移動撮影システムの一例におけるIDデコード処理を示すタイミングチャートである。
【図21】本発明の移動撮影システムの一例におけるIDデコード処理中のエラーチェック処理を示すタイミングチャートである。
【図22】本発明の移動撮影システムの一例におけるIDデコード処理部の構成を示すブロック図である。
【図23】本発明の移動撮影システムの一例におけるレジスタの構成を示すブロック図である。
【図24】本発明の移動撮影システムの一例におけるIDモード時の処理手順を示すフローチャートである。
【図25】本発明の移動撮影システムの一例におけるIDデコードメイン処理を示すフローチャートである。
【図26】本発明の移動撮影システムの一例におけるスタートコード検出処理を示すフローチャートである。
【図27】本発明の移動撮影システムの一例におけるデータ受信処理を示すフローチャートである。
【図28】本発明の移動撮影システムの一例におけるエラーチェック処理を示すフローチャートである。
【図29】本発明の移動撮影システムの一例におけるID重心計算処理を示すフローチャートである。
【符号の説明】
2 光ビーコン装置
3 ユーザー
10 無人ヘリコプター
11 ID認識カメラ
12 メインローター
13 テールローター
20 撮像部
21 IDカメラ処理部
23 メモリ
24 飛行体制御部
25 飛行動力部
26 画像制御部
27 表示部
28 入力部
29 外部出力部
30 ネットワークインターフェイス
31 光ビーコン装置
32 保持部
33 光ビーコン装置本体
34 キー入力部
35、36 発光ダイオード
37 マイコン
38 電源
39 キー入力部
40 LED駆動部
41 メモリ
81 デコード回路
82 フラグレジスタ
83 データレジスタ
84 タイミング制御部
85 フレームメモリ
86 IDレジスタ
87 ID重心計算回路
88 ID座標格納メモリ[0001]
BACKGROUND OF THE INVENTION
INDUSTRIAL APPLICABILITY The present invention is used in a moving shooting system and a moving shooting method for automatically tracking and shooting a moving subject, and the system. Imaging device About.
[0002]
[Prior art]
Conventionally, when going to a scenic place, it is often performed to photograph a person with a still camera or a video camera against a landscape. When a device such as a tripod is not used, the still camera or video camera is configured to be operated by the photographer with his / her hand. I can't see it in the video. In addition, when one of the accompanying family members and friends takes a commemorative photo as a photographer, the person who becomes the photographer needs to sacrifice some time to enjoy the scenery of the scenic spot. Also, when you give a camera to someone else and ask you to take a picture, it takes time to search for a third party who can take the picture, and depending on the model, the camera operation is not easy and you can't expect a photo of the desired quality. There is also.
[0003]
As a proposal for solving such various problems, there is a method in which a camera is fixed by a tripod or the like and a picture is taken by a timer or remote control. In such cases, the photographer needs to set the camera timer on the tripod to start operation each time it is shot, and the subject needs to take into account the timer time. Need to do. As another solution, there is a technique disclosed in, for example, “Guidance shooting system” (see, for example, Patent Document 1). According to this publication, an apparatus called a guidance shooting system at a place where a scenic spot is determined. It is possible for general customers to take pictures with the camera installed in this system.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 9-233465
[0005]
[Problems to be solved by the invention]
However, in the above-described guidance photographing system, since the photographing is performed with the provided camera, it is not possible to arbitrarily select a photographing place. For example, when photographing a person sliding on a ski resort or climbing a mountain. It was impossible to take a picture of a moving person, such as when shooting a person.
[0006]
In addition, there is an imaging system that automatically tracks a subject by automatically controlling the direction of the camera by rotating a pan head on which the camera is installed, as a system for chasing another moving subject. In this case, shooting is impossible when a human subject moves to a position where it cannot be seen from the rotation range of the camera pan head or moves to a location far away from the shooting system. Furthermore, with these conventional technologies, the person who is the subject enters the camera's field of view and is photographed, so it is necessary to be conscious of being photographed, and the person's natural facial expressions and gestures can be photographed. In general, there is no method for reliably recognizing a moving person, and it is not easy to take a picture while automatically tracking the person.
[0007]
SUMMARY An advantage of some aspects of the invention is that it provides a moving shooting system and a moving shooting method that can automatically track a moving subject and reliably shoot.
[0008]
[Means for Solving the Problems]
In view of the technical problems described above, the mobile photographing system of the present invention is mounted on a moving body that is mounted with a photographing device and is movable. Formed by the light flashing pattern A signal generator for generating an optical signal The imaging apparatus restores the blinking pattern from the imaging unit, an image mode in which image data as a scene is acquired from the signal obtained by the imaging unit, and the signal obtained by the imaging unit. And a processing unit that repeats in a time division manner an ID mode that is a mode for receiving the optical signal. It is characterized by that.
[0009]
In the present invention, first, a photographing device for photographing a subject is mounted on a movable body. Therefore, unlike the method of controlling the direction of the camera from a fixed point, even when a large movement is involved, such as a person sliding on a ski resort or a person climbing a mountain, the tracking can be reliably performed. Furthermore, the imaging device mounted on the moving body is An image mode for acquiring image data as a scene; Generated by signal generator Since the blinking pattern forming the optical signal is restored, the ID mode for receiving this optical signal is repeated in a time-sharing manner. It is possible to send a control signal for photographing, an identification signal for recording a photographed image, and a signal for moving the moving body without requiring a photographer on the photographing apparatus side.
[0010]
In addition, the moving shooting method of the present invention includes: Formed by light flashing pattern Attach a signal generator that generates optical signals to the subject, An image mode which is a mode for acquiring image data as a scene from the image obtained from the image pickup unit, the signal obtained by the image pickup unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the image pickup unit. An imaging apparatus having a processing unit that repeats the ID mode, which is a mode to perform, in a time-sharing manner, is mounted on the moving body Move the subject and move forward Transfer Actuate the moving body, During the ID mode The optical signal from the signal generator is detected, the moving body tracks the subject based on the detected optical signal, and the subject is detected by the photographing device. During the image mode It is characterized by shooting.
[0011]
By attaching the signal generation device to the subject, the optical signal from the signal generation device can be transmitted from the subject, for example, even when the photographer who is the subject performs setting and control of shooting. By operating the signal generator, it becomes possible to control the moving body. Since the photographing apparatus is attached to the moving body, tracking can be reliably performed even when a large movement is involved. As a control for tracking this subject, an optical signal from a signal generator can be used. photograph Equipment Image mode for acquiring image data as a scene And receiving optical signals from signal generators Repeat ID mode in time division Thus, the subject can be automatically tracked and reliably photographed.
[0012]
In addition, another mobile shooting method of the present invention is as follows. Formed by light flashing pattern Attach a signal generator that generates optical signals to the subject, An image mode which is a mode for acquiring image data as a scene from the image obtained from the image pickup unit, the signal obtained by the image pickup unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the image pickup unit. A processing unit that repeats the ID mode, which is a mode to perform, in a time-sharing manner After mounting the photographing device on the moving body, the subject is moved and the photograph In the equipment During the ID mode in front Light The mobile body is controlled based on control information included in the optical signal by capturing a signal.
[0013]
For moving objects photograph The device is installed, Image mode for acquiring image data as a scene From the signal generator attached to the subject Light of Receive signal Repeat ID mode in time division . The optical signal can include a control signal. By using the control signal for controlling the moving body, the moving body can be controlled from the subject side.
[0014]
In still another mobile shooting method of the present invention, Formed by light flashing pattern Attach a signal generator that generates optical signals to the subject, An image mode which is a mode for acquiring image data as a scene from the image obtained from the image pickup unit, the signal obtained by the image pickup unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the image pickup unit. A processing unit that repeats the ID mode, which is a mode to perform, in a time-sharing manner After mounting the photographing device on the moving body, the subject is moved and the photograph In the equipment During the ID mode in front Light Based on the control information contained in the optical signal. Select the automatic shooting mode when tracking the subject by the moving object. It is characterized by being.
[0015]
In this moving shooting method, An image mode for acquiring image data as a scene and an ID mode for receiving an optical signal from a signal generator attached to a subject are repeated in a time-division manner by an imaging device attached to the moving body. Automatic shooting mode at the start of subject tracking Is based on the optical signal captured by the camera Choice Even if the subject is a photographer Selecting the automatic shooting mode at the start of tracking Can be performed reliably.
[0016]
In still another mobile shooting method of the present invention, Formed by light flashing pattern Attach a signal generator that generates optical signals to the subject, An image mode which is a mode for acquiring image data as a scene from the image obtained from the image pickup unit, the signal obtained by the image pickup unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the image pickup unit. A processing unit that repeats the ID mode, which is a mode to perform, in a time-sharing manner After mounting the photographing device on the moving body, the subject is moved and the photograph In the equipment During the ID mode in front Light The signal is captured and associated with the recognition information included in the optical signal by the photographing device. Acquired during the image mode The processed image data is photograph It is recorded in a storage unit connected to the apparatus.
[0017]
In this moving shooting method, An image mode for acquiring image data as a scene and an ID mode for receiving an optical signal from a signal generator attached to a subject are repeated in a time-division manner by an imaging device attached to a moving body. Data is Optical signal captured by the camera In association with the recognition information contained in It can be recorded in a predetermined recording unit, which is convenient when, for example, editing is performed on image data while using corresponding recognition information later.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the mobile photographing system and the mobile photographing method of the present invention will be described with reference to the drawings.
[0019]
As shown in FIG. 1, the mobile photographing system according to an embodiment of the present invention uses an unmanned helicopter 10 equipped with an ID recognition camera 11 as a moving body, and a user 3 as a subject is a skier, A tag-shaped optical beacon device 2 is attached near the shoulder. That is, in this embodiment, the user 3 can record in the camera with the unmanned helicopter 10 that tracks his skiing appearance, and can view the captured data later.
[0020]
The user 3 attaches the ski board 4 to both feet via a metal fitting and ski boots (not shown), and a tag-like optical beacon device 2 is attached near the shoulder of ski wear worn by the user 3. As will be described in detail later, the optical beacon device 2 is an optical signal generation device that generates an optical signal. For example, the control of the unmanned helicopter 10 that is a moving body, the control of the ID recognition camera 11, and the recorded image data It is possible to assign an identification number to In FIG. 1, there is one user 3, but in the present embodiment, the number of users 3 is not limited to one, and when there are a plurality of users or an optical beacon device is attached as a person, It is also possible to combine objects, humans and animals, or only animals.
[0021]
The unmanned helicopter 10 is a flying body that functions as a moving body. In particular, in the mobile photographing system of this embodiment, an ID recognition camera 11 as a photographing device is mounted in front of the unmanned helicopter 10. The unmanned helicopter 10 is provided with a main rotor 12 and a tail rotor 13 that rotate in accordance with control from an aircraft control unit described later, and the unmanned helicopter 10 performs a desired flight by the operation of each of these rotors. It can be carried out. The main rotor 12 is a rotary blade that generates upward lift by rotation, and the tail rotor 13 is a rotary blade for canceling the reaction of rotation of the main rotor 12.
[0022]
The ID recognition camera 11 as an imaging device mounted on such an unmanned helicopter 10 functions as an imaging device for acquiring normal image data, and receives an optical signal generated by the optical beacon device 2 and receives the signal. It has a function that makes it possible to analyze the control command, recognition data (ID), etc. Here, the optical signal is formed by a blinking pattern of light emitting diodes, and is processed separately from image data photographed as a scene.
[0023]
FIG. 2 is a diagram showing an internal circuit configuration of the unmanned helicopter 10. The unmanned helicopter 10 is provided with an image pickup unit 20 having a structure for taking in light by, for example, a CMOS solid-state image pickup device, and a signal from the image pickup unit 20 is sent to an ID camera processing unit 21. The ID camera processing unit 21 has a function of separating image data captured using the signal obtained by the imaging unit 20 as a scene and the optical signal transmitted from the optical beacon device 2 and is included in the optical signal. It is possible to extract a signal for controlling the unmanned helicopter 10, a signal of an ID number of data captured by the imaging unit, or a signal regarding a shooting method in the imaging unit 20. The ID recognition camera 11 shown in FIG. 1 is configured by the imaging unit 20 and the ID camera processing unit 21, and a configuration example of the ID recognition camera 11 will be described in detail later with reference to FIG.
[0024]
The ID camera processing unit 21 is electrically connected to the memory 23 and the flying object control unit 24. For example, when the main rotor 12 and the tail rotor 13 of the unmanned helicopter 10 are driven by motors, the flying object control unit 24 sends the control signals sent to the motors of the main rotor 12 and the tail rotor 13 to the next flight power. Send to unit 25. The flight power unit 25 includes motors for the main rotor 12 and the tail rotor 13, actuators for controlling each blade of the rotor for hovering, forward and backward flight, and the like. Operates in response to a control signal from. Therefore, the ID camera processing unit 21 sends the control signal of the unmanned helicopter 10 included in the optical signal to the flight power unit 25 via the flying object control unit 24, and the flight power unit 25 controls the flight of the unmanned helicopter 10. Is done.
[0025]
The ID camera processing unit 21 described above is also connected to a memory 23 composed of a semiconductor memory device such as a DRAM or SRAM. The memory 23 uses image data taken as a scene by the imaging unit 20 as an ID from which data is extracted. It is configured to be stored together with a number. Thus, recording image data together with an ID number is convenient when displaying data while editing or selecting it. The memory 23 is connected to the image control unit 26 via a data bus, and in accordance with instructions from a microcomputer built in the image control unit 26, necessary memory data is output to an external output unit 29, a network interface 30, and an image display unit. 27 can be output. The external output 29 is a connection unit used when outputting image data to other devices after the flight is completed. For example, a connection unit of a pin plug terminal, a DV terminal, a USB port, or Ethernet (registered trademark) for LAN. , RS232C, or a storage device that can use a card-like or stick-like storage medium. The network interface 30 has a function capable of connecting to the Internet or the like wirelessly. For example, short-range wireless communication using spread spectrum communication such as Bluetooth (standard name: trade name) or IEEE (Institute of Electronic) of a wireless LAN. and Electronics Engineers) 802.11 specifications and other communications. By using such a network interface 30, it is also possible to distribute image data via the Internet. For example, the user 3 returns home after taking a picture at a ski resort and skis himself / herself or friends via the Internet. The image data can be viewed where the user is doing, and such image data can be distributed to acquaintances and family members. The image display unit 27 is a device that functions as a small monitor mounted on the unmanned helicopter 10, and for example, a liquid crystal display device, a diode array display, a plasma display, or the like is used. By providing such an image display unit 27, it is possible to easily confirm whether or not editing or re-shooting is necessary at the shooting site. Although not shown, the image display unit 27 is attached to the unmanned helicopter 10 with a structure that can be folded during flight or a shutter that is closed, and the image display unit 27 is viewed from the outside when the image display unit 27 is viewed. Is ready to do.
[0026]
The image control unit 26 is further connected to an input unit 28. The input unit 28 is configured by a switch or a numeric keypad for switching the output of image data between the external output unit 29 and the network interface 30 and controlling the display of the image display unit 27. The input unit 28 may receive a signal from a remote controller for editing after landing of the unmanned helicopter 10, for example.
[0027]
In the unmanned helicopter 10 shown in FIG. 2, the image data of the scene and the optical signal from the optical beacon device 2 are separated from the image captured by the imaging unit 20 from the internal circuit configuration by the ID camera processing unit 21, and each flying object It is possible to assign an ID number to each image data for controlling the flight of the unmanned helicopter 10 and image processing, and to control the photographing method.
[0028]
Next, the optical beacon device 31 will be described with reference to FIG. The optical beacon device 31 used in the present embodiment is an optical signal generation device, and is attached to, for example, a part of the clothes of the user 3 and enables necessary control over the unmanned helicopter 10.
[0029]
First, as shown in FIG. 3, a key input unit 34 is formed on the surface of a rectangular and substantially flat optical beacon device body 33, and the light emitting diode 35 also has a light emission direction on the surface. It is provided on the front side. The optical beacon device main body 33 is provided with a holding part 32 extending from one side surface to the back side like a tag, and is attached to a part of clothes of the user 3 such as a shoulder or a hat using the holding part 32. . The holding part 32 has a belt-like shape and can be attached by passing the holding part 32 through the insertion part when the belt-like part is closed and the insertion part is part of the clothes of the user 3. (Product name) may be detachably attached. In addition, the neck portion of the clothes has a portion that becomes a ring for hanging the tag of the normal product or the clothes, and the holding portion 32 can be passed through the portion so that it does not fall off from the user 3. . In the key input unit 34, for example, a preset input code can be input to perform various controls such as control of the unmanned helicopter 10, imaging method control, and image processing control. Thus, it becomes possible to output a required optical signal.
[0030]
FIG. 4 is a diagram showing an internal circuit configuration of the optical beacon device 31. This internal circuit is configured with the microprocessor 37 as the center. The microprocessor 37 selects a light signal pattern stored in the memory 41 in response to a signal from the key input unit 39, and the LED is driven according to the selection. A signal is sent to the unit 40 to cause the light emitting diode 36 to blink. The optical beacon device 31 is equipped with a power source 38 such as a button battery, a solar cell, or a fuel cell, and the power source 38 is configured to supply power to the microprocessor 37, the memory 41, and the LED driving unit 40. The
[0031]
The optical beacon device described with reference to FIGS. 3 and 4 is merely an example, and various modifications are possible. For example, the outer shape is rectangular and substantially flat and has been described as being attached to the clothes of the user 3. For example, a device in which a signal generating part such as a light emitting diode is attached to the upper surface of a hat or helmet, Use a part of clothing or shoes that incorporates a signal generation part such as a light emitting diode in advance, or provide a part of the signal generation part such as a light emitting diode of a decorative material such as a watch or necklace. It is also possible to provide a signal generating part on a ski, a board, or a part of the stock.
[0032]
The structure of the optical beacon device can also be configured with a simpler structure. For example, in the case where only simple user tracking is executed and the shooting method and image processing method are not changed, or when only a plurality of subjects are distinguished, the key input unit 39 or the like is not provided. Alternatively, a structure in which the light emitting diode 35 is disposed on the tag may be used.
[0033]
Next, the moving image capturing method of the present embodiment will be described according to the procedure with reference to FIG. The mobile imaging method described here is an example in which an optical beacon device is used to control a flying object such as an unmanned helicopter and an image is easily selected after imaging using an ID number.
[0034]
First, in step S1, the user wears the optical beacon device 31. The optical beacon device 31 is a rectangular and substantially flat device as shown in FIG. 3, and the holding portion 32 is inserted into, for example, the shoulder portion of the ski clothes of the user 3 and attached to the user 3.
[0035]
Subsequently, the user 3 operates the optical beacon device 31 to start the flight movement of the unmanned helicopter 10 which is a flying object (step S2). In this case, a key input for starting the flight is performed on the optical beacon device 31, and the light emitting diode 35 of the optical beacon device 31 is blinked in response to the key input. At this time, it is desirable that the position of the user 3 is at a position that can be captured by the ID recognition camera 11 of the unmanned helicopter 10, and the unmanned helicopter 10 takes off by flying the light emitting diode 35 at such a position. Start. Inside the unmanned helicopter 10, when the ID camera processing unit 21 extracts ID information and recognizes that the ID number corresponding to the flight start command has been received, the flight control unit 24 sends a flight start signal. Is sent from the flying vehicle control unit 24 to the flying vehicle power unit 25, and the flight of the unmanned helicopter 10 is started.
[0036]
When the unmanned helicopter 10 takes off, the ID recognition camera 11 always operates to capture a signal from the optical beacon device 31, although it may be accompanied by a flight operation such as rolling to some extent. That is, when the user 3 who is a subject suddenly moves or is hidden behind an obstacle, the ID recognition camera 11 temporarily does not receive a signal from the optical beacon device 31. However, the ID recognition camera 11 always detects the signal from the optical beacon device 31 and performs an operation of expanding the detected area and continuing to search when it is determined that there is no signal from the optical beacon device 31 in a certain direction. . When the subject moves when the ID recognition camera 11 operates, the unmanned helicopter 10 tracks the movement from the position of the optical beacon device 31. Therefore, the unmanned helicopter 10 can automatically and reliably track the user 3 while capturing the signal from the optical beacon device 31 even in a situation where the user 3 as a subject slides down the ski slope.
[0037]
The ID recognition camera 11 always operates so as to detect a signal from the optical beacon device 31, but actually, an image mode for capturing an image as a scene and an optical signal from the optical beacon device 31 are extracted. The ID mode is repeatedly switched. The signal processing in the image mode and the signal processing in the ID mode will be described later. When the ID recognition camera 11 recognizes the optical beacon device 31, the subject is photographed and recorded in the memory 23 together with the ID number (step S3). When the ID recognition camera 11 captures a subject, each of the plurality of subjects has an optical beacon device 31 and may generate an ID number as a signal. In such a case, images and ID numbers for a plurality of different subjects are associated with each other and stored in the memory 23, so that the processing can be quickly performed when the ID number is used for confirmation after shooting or when editing. .
[0038]
Next, in step S4, in the state where the photographing is finished, the optical beacon device 31 is subjected to key input indicating the end of flight of the flying object, and the optical beacon device 31 receives the key input and blinks the light emitting diode 35. The optical signal is sent to the imaging unit 20 of the unmanned helicopter 10. As a result, a signal is sent from the imaging unit 20 to the ID camera processing unit 21, from which a flight stop signal is sent to the flying object control unit 24, and each power unit is stopped from the flying object control unit 24 to the flying power unit 25. A signal is sent to stop the flight of the unmanned helicopter 10. When the unmanned helicopter 10 is at a high position in the air and receives a flight stop signal, the unmanned helicopter 10 is controlled to land by automatic driving.
[0039]
In this state, in the memory 23 of the unmanned helicopter 10, image data for the subject is recorded together with the ID number. In step S5, the user 3 controls the optical beacon device 31 to display an image having its own ID. To control. Specifically, the key input unit 34 of the optical beacon device 31 is operated in the same manner as described above, and a signal instructing image display is output from the optical beacon device 31.
[0040]
In response to the instruction from the user 3, an image related to the ID number of the user 3 is displayed. This display is performed using the image display unit 27 of the unmanned helicopter 10, and the image relating to the user 3 is displayed by a method of continuously feeding frames or arranging them in time series (step S6). While viewing the displayed image, the user 3 selects a necessary image in step S7. The image required here is an image that is stored and edited or used for processing such as printing. The images that can be selected may be still images or moving images. The image selection operation by the user 3 can use the key input unit 34 of the optical beacon device 31 or the input unit 28 of the unmanned helicopter 10.
[0041]
The image selected by the user 3 is sent from the external output unit 29 of the unmanned helicopter 10 to a required audio / video device (step S8). Alternatively, the image selected by the user 3 may be output from an external output unit 29 to which the image selected by the user 3 is sent to a device such as a personal computer, or transmitted to a server or other information terminal connected to the Internet via the network interface 30. You may do it.
[0042]
As described above, in the flow shown in FIG. 5, the operation of the unmanned helicopter 10 such as the start and end of the flight and the recording of the subject together with the ID number are operated remotely and automatically by operating the optical beacon device 31. It can be operated, and can be easily tracked even when the movement of the subject is high speed, and a plurality of subjects are photographed for each ID number by the ID number included in the optical signal from the optical beacon device 31. It is also possible to save it.
[0043]
In the above example, an example in which a flying vehicle equipped with a camera is an unmanned helicopter and its use is taken at a holiday destination such as skis, the mobile shooting system of this embodiment has other forms and uses. Is also applicable. Here, other forms and applications will be described as exemplified in Table 1 below.
[0044]
[Table 1]
Figure 0004284949
[0045]
The ones listed in Table 1 are merely examples, but the moving body on which the camera is mounted is not limited to one that moves in the air, but moves in various places such as land, water, or underwater. What can be mentioned. In addition, the application is not limited to vacation use, and various applications such as sports recording, movies, and natural observation are possible. The place and the specific event are not limited and can be applied to various things. The subject to be photographed is not limited to a person, and may be various creatures, such as a car or a ship. Also, the shooting target is not limited to a single object, but may be a plurality. The optical beacon device 31 is a case where the subject is a human because of an operation of key input. For example, when the subject is an animal, an optical beacon device that outputs an optical signal without requiring an operation is an animal as the subject. Attached to.
[0046]
Next, an example of changing the flight schedule of the flying object by operating the optical beacon device will be described with reference to FIG. Even during shooting, in the mobile shooting system of this embodiment, the optical beacon device can communicate with a flying object such as an unmanned helicopter, and the flight schedule can be changed according to circumstances.
[0047]
First, as procedure S11, a user wears an optical beacon device. The optical beacon device may be a rectangular and substantially flat device as shown in FIG. 3, and may be another device that can output a required optical signal.
[0048]
Next, in step S12, the user operates the optical beacon device to start flying an air vehicle such as an unmanned helicopter. At this time, in this case, an operation for starting the flight is performed on the optical beacon device, and the light emitting diode of the optical beacon device is blinked in accordance with the operation. The blinking of the light emitting diode is captured by an ID recognition camera mounted on the flying object, and the flying object takes off and starts flying.
[0049]
After the flying object takes off, as described above, the user as a subject is automatically tracked by the flying object that has taken off and shooting starts. For example, in the setting before the take-off of the flying object, if the setting is such that the shooting is performed at an angle of 45 degrees from the back of the user 20 m, if shooting starts after the take-off of the flying object, Shooting starts according to the settings. Such a setting before takeoff can be changed in this flow. In step S13, the user operates the optical beacon device, and the optical beacon device outputs an optical signal for changing the position of the flying object. As an example of such a change in the position of the flying object, for example, the setting content of shooting at an angle of 45 degrees from the rear of the user 20 m in the setting before the take-off of the flying object is performed from the front 20 m before the user. You can change the setting to shoot at an angle of degrees.
[0050]
When the optical beacon device outputs an optical signal for changing the position of the flying object, the ID recognition camera of the flying object receives the optical signal from the optical beacon device and flies according to a control signal in the form of an ID number included in the optical signal. The middle flying object corrects its position (step S14). With this correction, for example, the flying object moves from the tracking state from behind 20 m to the front side of the user and continues shooting, and only the rear view of the user as the subject is shot by such a change of the shooting position. Therefore, it will be possible to change the user's facial expression. Such a change in the shooting position can be performed independently of the program before takeoff, and is extremely effective when the shooting position is moved in a shooting situation.
[0051]
Next, an example in which the photographing method is changed by operating the optical beacon device will be described with reference to FIG. In the mobile photographing system of the present embodiment, the optical beacon device can communicate with a flying object such as an unmanned helicopter even during photographing, and the photographing method can be changed according to circumstances.
[0052]
First, in step S21, the user wears an optical beacon device. The optical beacon device may be a rectangular and substantially flat device as shown in FIG. 3, and may be another device that can output a required optical signal.
[0053]
Next, similarly to step S12 of FIG. 6, in step S22, the user operates the optical beacon device to start flying an aircraft such as an unmanned helicopter. At this time, in this case, an operation for starting the flight is performed on the optical beacon device, and the light emitting diode of the optical beacon device is blinked in accordance with the operation. The blinking of the light emitting diode is captured by an ID recognition camera mounted on the flying object, and the flying object takes off and starts flying.
[0054]
After the flying object takes off, as described above, the user as a subject is automatically tracked by the flying object that has taken off and shooting starts. For example, if the setting before the take-off of the flying object is such that the entire body of the subject fills the frame of the image, when shooting starts, such an image from the user's head to the toes is displayed as an ID recognition camera. Will be filmed by. While such shooting is in progress, the optical beacon device sends an optical signal that changes the shooting method by operating the optical beacon device that the user wears according to the convenience of the user, environment, accident, etc. Send out (step S23). As an example of such a change in the photographing method, it is possible to change from a photographing method in which the entire body of the subject is filled with the frame of the image so that the photographing is performed in a state in which the camera is sufficiently drawn with a landscape. Some types of shooting methods can be changed without changing the position of the flying object, such as zoom-in and zoom-out lens system operations, adjusting the shutter speed for still images, adding filters, Various changes such as the control of the display of the clock are possible, and they can be performed by operating the optical beacon device.
[0055]
When the optical beacon device outputs an optical signal that changes the shooting method, the ID recognition camera of the flying object receives the optical signal from the optical beacon device, and performs shooting according to a control signal in the form of an ID number included in the optical signal. The method is modified (procedure S24). In other words, if the light signal is set so that the entire body of the subject fills the frame of the image, for example, the setting before take-off of the flying object, shooting with the camera fully drawn and the camera pulled To be corrected. Such a change can be easily performed when the camera is at hand, but when the camera is mounted on a flying object, the optical signal from the optical beacon device can be effectively changed. Will be available.
[0056]
Next, an example of a tracking method at the time of automatic shooting will be described with reference to FIGS. The control in the flowcharts of FIGS. 6 and 7 includes a case where the control is changed in the middle of tracking, but as described below, it is performed while tracking automatic shooting using an optical signal from the optical beacon device. It is also possible. In the present specification, “tracking” does not necessarily mean only the case of tracking from behind, but also includes the case where the subject is arbitrarily traced to the side or front to follow the subject.
[0057]
First, as shown in FIG. 8, the basic flow of tracking at the time of automatic shooting is as follows. A user wearing an optical beacon device operates the optical beacon device to start flying an aircraft such as an unmanned helicopter. (Step S31). Immediately after this start, since the attitude control at take-off takes priority over the capture of the optical signal of the optical beacon device, the flying object may lose sight of the optical signal of the optical beacon device. When the vehicle turns or the ID recognition camera is not fixed, the optical signal from the optical beacon device worn by the user is detected while changing the imaging range of the ID recognition camera (step S32). At this stage, the optical beacon device is gradually detected by the optical signal, but when the optical signal of the optical beacon device is captured by the ID recognition camera, the optical signal from the optical beacon device is discovered. At this stage, tracking for automatic shooting is started (step S33).
[0058]
At the start of tracking by this automatic photographing, a priority mode is selected. There are four modes that can be used in this system, and the four modes are a framing mode, a distance / angle mode, a zoom mode, and a shooting direction mode. The framing mode is a mode for setting where on the screen a subject is to be photographed, and settings such as left side, right side, center, upper side, and lower side can be set. FIG. 9 is a diagram illustrating an example of the framing mode. FIG. 9A illustrates an example in which the subject is disposed on the right side of the screen, and FIG. 9B illustrates an example in which the subject is disposed in the center of the screen. . In FIG. 9, the user 3 is captured so as to be captured in the frame 45, but the position of the user 3 is almost determined by the setting of the framing mode, and when the framing mode is the subject on the right side, When the state shown in (a) of FIG. 9 is set and the framing mode is the subject at the center, the state shown in (b) of FIG. 9 is set and photographing is performed.
[0059]
FIG. 10 is a diagram for explaining the distance / angle mode. The distance D between the unmanned helicopter 10 as a flying object and the user 3 wearing the optical beacon device 31 and the angle θ at which the unmanned helicopter 10 flies are set, and the set distance D is maintained at the angle θ. Tracking is performed as follows. The distance D and the angle θ are data that the unmanned helicopter 10 can always grasp from the optical signal from the optical beacon device 31. The deviation from the set value is always corrected, and photographing is continued.
[0060]
FIG. 11 is a diagram for explaining the zoom mode. FIG. 11A shows a screen when the subject is zoomed down, and FIG. 11B shows the subject zoomed in. This is the screen when The zoom mode is not limited to the two-stage zoom shown in FIGS. 11A and 11B, but may be a non-stage or two or more stages. When the subject is zoomed in and photographed as shown in FIG. 11A, the user 3 as the subject is photographed relatively small with respect to the frame 45 so that the scenery occupies a large area on the screen. When the subject is zoomed in and photographed as shown in FIG. 11B, the user 3 is photographed so as to occupy a relatively large area with respect to the frame 45.
[0061]
FIG. 12 is a diagram for explaining the shooting direction mode, in which direction from which the subject is shot can be set. In this shooting direction mode, for example, selection from the top, from the front, from the side, from the back is possible. When the setting is set from the front, the ID recognition camera is viewed from the front of the user 3 who is the subject. The video will continue to be taken automatically.
[0062]
In addition, chasing a moving object or losing sight of a light signal when automatic shooting is continued is an event that can occur, and the mobile shooting system of this embodiment can handle such a case, In particular, it is possible to predict the moving speed and perform imaging with an accurate imaging direction and angle. FIG. 13 is a flowchart for explaining a tracking method during automatic photographing.
[0063]
First, assuming that a flying object such as an unmanned helicopter has started flying, the flying object turns 360 degrees around and searches for an optical signal from the optical beacon device (step S41). For this optical signal search, an ID recognition camera is used. Specifically, an ID signal is extracted by the ID camera processing unit 21 in the circuit as shown in FIG. If an optical signal from the optical beacon device is not found in step S42 (NO), the process proceeds to step S43, and the search number RN is incremented by one. Next, in step S44, it is determined whether or not the search count RN has reached the maximum search count F. If the maximum search count F has not been reached (NO), the search for the optical signal from the optical beacon device is repeated once again. Therefore, control returns to step S41, and the flying object turns 360 degrees around and searches for an optical signal from the optical beacon device. If the number of searches RN has reached the maximum number of searches F in step S44 (YES), the flying object will land (step S45) and the process will be terminated.
[0064]
If an optical signal from the optical beacon device is found in step S42 (YES), the ID signal included in the optical signal is read (step S46). By this reading operation, the ID signal is extracted by the ID camera processing unit, and it is determined whether or not it is a signal corresponding to the target ID number of the subject (step S47). That is, when tracking a plurality of subjects at one time with a single flying object, each subject holds a required optical beacon device, and each optical beacon device includes a different ID signal, so that the subject is distinguished. It can be recognized by the ID signal.
[0065]
If the read ID signal is not that of the target subject (NO), the procedure returns to step S41, and the flying object again turns around 360 degrees to search for the optical signal from the optical beacon device, and Repeat the control. If the ID signal obtained as a result of reading in step S47 is that of the target subject (YES), the flying object has captured the correct subject, and the flying object starts tracking (step S48).
[0066]
At the time of photographing by this automatic tracking, it is detected that the optical signal moves within the range of the photographed image (step S49). This movement of the optical signal is grasped on the aircraft side as meaning the movement of the object, and the movement direction of the object and the moving speed of the object are predicted by the movement of the optical signal, and the flying object corresponds to the predicted value. It is assumed that the direction and position of the are changed (step S50).
[0067]
FIG. 14 is a conceptual diagram when tracking while capturing a signal from the optical beacon device 31. The optical beacon device 31 is moved from the upper right to the left according to the movement of the user 3 sequentially from (a) to (c) in FIG. Although it will move slightly downward, the moving speed and moving direction in the screen are extracted by the ID camera processing unit, and the position of the flying object and the ID recognition camera is determined according to the predicted value of the movement. Will move. Therefore, for example, even when the altitude difference is large and the distance traveled is long, such as skiing, it is possible to reliably capture the skier as a subject.
[0068]
Such a photographing is performed, and the flying object may remove the optical signal from the optical beacon device 31 on the way. For example, when the subject is hidden behind the object at the time of shooting or the optical signal is interrupted for some reason, the determination (S51) of whether or not the optical signal is captured becomes NO, and after the search number RN is once reset, Proceeding to step S43, the number of searches RN is increased by one, and thereafter, when the number of searches increases to F, the flying object lands (step S45).
[0069]
If it is determined in step S51 whether or not an optical signal has been captured (S51), the flight continues, but the remote control signal is received in response to reception of the remote control signal composed of the optical signal from the optical beacon device. It is possible to change the shooting method according to the situation, or to stop the flight of the flying object. The change of the photographing method and the control of the flying object are controlled as in the above-described example described with reference to FIGS.
[0070]
Next, an example of an ID recognition camera will be further described with reference to FIG. In the mobile photographing system according to this embodiment, an ID recognition camera is used together with an optical beacon device for receiving an optical signal from the optical beacon device, and various controls are possible. Here, the ID recognition camera refers to a two-dimensional array of light receiving blocks that can be imaged at a sufficiently high speed and the amount of charge accumulated by photoelectric conversion output from each light receiver, or a voltage value, current value, A / D converted from the charge amount. It is a camera that can calculate digital values by conversion, and can read the time-series signal from the blinking pattern of light for each pixel or a plurality of pixels, and can also acquire an image. . That is, according to this ID recognition camera, an image and ID information (ID data, X and Y coordinates) are obtained.
[0071]
As a configuration of the ID recognition camera, a calculation unit can be coupled to a normal image sensor. For example, documents S. Yoshimura, T. Sujmiyama, K. Yonemoto, K. Ueda, "A 48Kframes / s CMOS Image Sensor for Real-time 3-D Sensing and Motion Detection "ISSCC Digest of Technical Papers, pp.94-95, Feb.2001 and JP2001-326857 May be. That is, in the image pickup device with a calculation function, it is possible to obtain a digital image and a calculation processed image even though it is a single image pickup device. In addition, with the CMOS structure, it is possible to realize high-speed imaging that is difficult with a conventional CCD element from CMOS (Complementary Metal-Oxide Semiconductor) semiconductor manufacturing technology.
[0072]
FIG. 15 shows a main part of an example of the ID recognition camera. The ID recognition camera mainly includes an image sensor unit 51 and a decode processing unit 61. The image sensor unit 51 is an area for converting an optical signal into an electrical signal. In the present camera, the image sensor unit 51 includes a light receiving area 52 and a calculation area 53. The image sensor unit 51 corresponds to the imaging unit 20 of the apparatus shown in FIG. 2, and the decode processing unit 61 corresponds to the ID camera processing unit 21 of the apparatus shown in FIG.
[0073]
The light receiving area 52 includes a light receiving element 54 such as a CMOS solid-state imaging device that converts light received through a camera lens or the like into an electrical signal, and an amplification unit 55 that amplifies the signal from the light receiving element 54. Yes. On the other hand, the calculation area 53 includes a storage unit 56 that temporarily accumulates signals from the light receiving area 52, a comparison unit 57 that compares the level of the signal accumulated in the storage unit 56 with a reference signal level, and a comparison unit. And an output unit 58 that outputs in accordance with the comparison result from 57. For example, signals for each pixel are accumulated in the storage unit 56 at different timings, and read out to the comparison unit 57 in a lump.
[0074]
The aforementioned decoding processing unit 61 includes an image decoding processing unit 62 that processes an image signal, and an ID decoding processing unit 63 that is arranged in parallel therewith. The ID decode processing unit 63 is a circuit portion that decodes the optical signal emitted from the optical beacon device and extracts the ID information, and is also configured to extract the coordinates related to the ID information at the same time.
[0075]
Here, the calculation performed in the image sensor unit 51 is:
[0076]
[Equation 1]
F (N) + F (N-1) -F (N-2) -F (N-3) (1)
[0077]
Here, N represents the frame number, and F (N) represents the luminance accumulated in the light receiving unit of the Nth frame. Since the optical signal from the optical beacon device is considered to be a blinking point light source, the value of equation (1) is an arithmetic operation between four frames for a pixel in which the point light source exists. By this calculation, it is possible to detect a change in light. By performing the ID decoding process described later using the calculation result, it is possible to restore the blinking pattern and receive a signal from the optical beacon. Become. Regardless of the equation (1), the calculation can be realized by other calculations such as the comparison of the first-order differentiation and the binarized image. However, in the present embodiment, in consideration of the stability of the detection of the light change, ( 1) It demonstrates using a type | formula.
[0078]
Further, in the ID recognition camera of the present embodiment, both the image processing result and the A / D converted digital image can be obtained by using an external signal, for example, an optical signal from an optical beacon device. . For example, by alternately obtaining the image processing result and the A / D converted digital image, the ID recognition camera can acquire both the image processing result for ID information and the image for the scene. Signals handled by the ID recognition camera can be divided into modes in a time-sharing manner. For example, the image mode and the ID mode can be set to a frame rate of 30 fps (frame / second) or 60 fps, respectively. That is, a signal output from the image sensor unit 51 is set to be alternately transmitted in the image mode and the ID mode, and each is processed and decoded by the corresponding decoding processing units 62 and 63.
[0079]
FIG. 16 shows an example in which the image mode and the ID mode are alternately transmitted, and the image mode includes the captured image information and is transmitted. An ID decoding process section P2 and an ID center-of-gravity section P1 are included in the period of the ID mode, and various controls as described above can be performed from the ID information included in these sections P1 and P2. Image readout is realized by processing the signal in the image mode by the image decoding processing unit 62, and ID readout is realized by processing the signal in the ID mode by the image decoding processing unit 62. In FIG. 16, the image mode and the ID mode are shown as being at the same time, but they may be the same time or need not be the same time.
[0080]
Next, the image processing for the luminance signal level in the image sensor unit 51 will be briefly described. As shown in FIG. 17, in the image sensor unit 51, in the image mode, the signal level indicating the luminance detected by each pixel of the light receiving element (photodiode) 54 is compared with the reference signal level Vref, and the reference signal level A signal that becomes active when Vref is greater than Vref is output. That is, the light incident on the light receiving element 54 is photoelectrically converted by the light receiving element 54, and the signal further amplified by the amplification unit 55 is accumulated in the storage unit 56 for each frame. FIG. 17 shows changes in the luminance signal level of bright pixels (at high luminance) and dark pixels (at low luminance) according to the number of frames. At the beginning of one screen, the number of frames is zero and the luminance reaches the reset level Vrs. There is a signal level. However, as shown in FIG. 17, the brighter pixel reaches the reference signal level Vref earlier (TH in the figure), and the darker pixel takes longer to reach the reference signal level Vref (TL in the figure). The output from the actual sensor is output as a binary (0, 1) comparison result (comparator output) as to whether or not the luminance signal of each pixel has reached the reference signal level Vref in the comparison unit 57. It is done by doing. FIG. 17 shows an example in which the binary output changes from “0” to “1” at time TH due to a change in high luminance. The image sensor unit 51 can perform high-speed imaging, perform the above calculation, and output the result for one screen to the outside of the sensor.
[0081]
In order to measure the time (TH, TL) until the signal from the bright pixel or the dark pixel reaches the reference signal level Vref, the image sensor unit 51 outputs the result in units of one screen. By counting and recording in what number frame each pixel the output signal of the image sensor unit 51 is active, that is, when the binary output changes from “0” to “1”, the image is obtained. Will be. In order to convert to correct brightness as image information, a bright pixel has a short time until active transition and a dark pixel has a long time until active transition, and thus reaches the reference signal level Vref. What is necessary is just to calculate the reciprocal of the time (number of frames) until. With this operation, an A / D conversion operation of the image can be realized. The sensor output from the image sensor unit 51 is sent to the image processing decoding unit 62, and the image processing decoding unit 62 performs processing for obtaining an image.
[0082]
Next, the ID decoding process will be described. First, the frequency of the image sensor unit 51 and the optical beacon device will be described. The frame rate fs of the image sensor unit 51 is set to, for example, three times the blinking frequency fp of the optical signal of the optical beacon device. This is because, according to “Shannon's Sampling Theorem”, the sampling rate of the sensor unit requires a sampling rate more than twice the blinking cycle of the optical signal from the optical beacon device. Since there is a difference in phase between fs and fp, in this embodiment, the phase difference is set to 3 times. For example, when the frequency of the sensor unit is 12 KHz, for example, the blinking cycle of the optical beacon is set to 4 KHz. For ease of explanation below, in this embodiment, when the sensor frequency is 12 kHz, the blinking cycle of the optical beacon is assumed to be 4 kHz.
[0083]
Next, a structural example of the optical beacon device will be described with reference to FIG. First, an example of the optical beacon device has been described with reference to FIGS. 3 and 4, but another configuration example will be described with reference to FIG. 18. In the example of the optical beacon device illustrated in FIG. 18A, the optical beacon device 71 has a structure including a light source 72, a blinking control unit 73, and a transmission data storage memory 74. The light source 72 is configured to perform a blinking operation in accordance with a drive signal from the blinking control unit 73, and the blinking control unit 73 operates by taking out output data corresponding to the situation and setting from the transmission data storage memory 74. . The light source 72 may be any light source as long as it can blink at high speed, and the output wavelength may be in a range in which the sensor responds. That is, as the wavelength region of the light source 72, not only visible light but also an infrared region can be used. From the viewpoint of response speed and life, LED is one of the most suitable light sources. The blinking control unit 73 blinks the light source 72 based on the contents of the transmission data storage memory 74 using a transmitter and a digital circuit (which can be realized by an IC, ASIC, FPGA, one-chip microcomputer, etc.).
[0084]
FIG. 18B shows a configuration example of the optical beacon device 75 that can change the transmission data through the communication path 79. Similarly to FIG. 18A, the optical beacon device 75 The light source 76, the blinking control unit 77, and the data transmission / reception unit 78 are included. The light source 76 is configured to blink in response to a drive signal from the blinking control unit 77, and the blinking control unit 77 responds to a control signal from the data transmission / reception unit 78 to which a signal is supplied via the communication path 79. Blinks. Here, the communication path 79 is a wired / wireless communication line such as a telephone line ISDN, RS-232C, RS-422, Ethernet (registered trademark) (10base-T, 100base-T), USB, IEEE1394, IEEE802.11a. , IEEE802.11b, BlueTooth (trade name) and other communication means. The data transmission / reception unit 78 indicates a data communication IC and driver corresponding to this communication means, and the transmission data of the optical beacon device received via the communication path 79 is transmitted via the data transmission / reception unit 78 to the blinking control unit 77. To the flashing pattern of the light source 76.
[0085]
Here, an encoding method of an optical signal transmitted from the optical beacon device will be described. In digital communication, transmission data is generally encoded so that it can be received stably on the receiving side. In the present embodiment, data (flashing pattern) transmitted from the optical beacon device is encoded using Manchester encoding. As shown in FIG. 19, Manchester encoding is an encoding method in which the transmission data is 10 for transmission data 0 and the transmission data is 01 for transmission data 1. By using this, an optical beacon device is used. While valid data is being transmitted, there is always a change in the brightness of the light, and in order to receive a blinking pattern in an operation for examining the change in brightness between the four frames using the image sensor unit 51. It turns out that it becomes convenient encoding. In the example of FIG. 19, encoding in the case of transmitting 8-bit “01001001” data is described. When 1 bit is “1”, encoding is performed to “01” and 1 bit is “0”. In the case of “10”, it is encoded to “10”.
[0086]
In the present embodiment, a case where fixed-length 8-bit data is transmitted will be described as an example. One data frame of transmission data includes a start code and transmission data as in the transmission data format shown in FIG. The start code is intended to notify the receiving side that it is the head of one frame of transmission data, and therefore, for example, a bit “0001” that does not appear in the transmission data portion encoded by Manchester is assigned. . The transmission data is 16-bit data obtained by Manchester code encoding 8-bit data. Therefore, when this one data frame is transmitted by blinking the LED, 1 of the transmission data is assigned to be turned on and 0 is turned off, and the light signal is blinked at a blinking cycle of 4 kHz (every 250 μs) in this embodiment. As a result, 8-bit ID data is transmitted.
[0087]
Such an encoded blinking signal is incident on the image sensor unit of the above-described ID recognition camera, and the image sensor unit receives an optical beacon device in an arithmetic block unit (each pixel or a plurality of pixels) in the ID mode. The flashing optical signal is received, calculation is performed between four frames as shown in equation (2), and the calculation result is output outside the sensor.
[0088]
[Equation 2]
F (N) + F (N-1) -F (N-2) -F (N-3) (2)
[0089]
However, in reality, F (N), F (N-1), F (N-2), and F (N-3) in this equation are treated as analog quantities in this image sensor, and their calculations are performed. The result is binarized by a threshold that can be controlled from the outside. Therefore, as one operation mode of the image sensor, it is possible to output a result obtained by binarizing the result of the expression (2) with a positive threshold value. That is, if the threshold level is THR,
[0090]
[Equation 3]
F (N) + F (N-1) -F (N-2) -F (N-3) ≥ 1 when THR
[0091]
F (N) + F (N-1) -F (N-2) -F (N-3) <When THR is 0 ... (3)
[0092]
Is output. This will detect the rising edge of the blinking LED. FIG. 20 shows the sensor output when the transmission data (8-bit data) described in the previous section is sent. At this time, the sample pulse of the sensor is 12 KHz, and the calculation result of equation (3) is output in units of 12 KHz. This sensor output is input to the ID decoding processing unit 63 shown in FIG. 15, and the ID (here, 8-bit transmission data from the optical beacon device) and coordinates are calculated.
[0093]
As described above, in the image mode and the ID mode, the ID recognition camera is realized by switching the mode alternately between the image and the ID. For example, when this is switched at 30 frames / sec, this ID recognition camera becomes a camera that can acquire an image at 15 fps and an ID at 15 fps. Here, in the image mode section, the result (ID) decoded in the previous ID mode section can be output from the ID recognition camera while performing the image decoding process. In the ID mode section, the result (image) decoded in the previous image decoding section can be output from the ID recognition camera while performing the ID decoding process. In the present embodiment, this ID mode is divided into two, an ID decoding processing section P1 and an ID centroid calculation section P2, as shown in FIG.
[0094]
Here, the ID decoding method will be described with reference to FIG. 20. When the optical beacon transmits fixed-length 8-bit data (01001001), the image sensor unit has a rising edge in the ID mode as described in the previous section. The detection is performed, and the sensor output is as shown in FIG. Hereinafter, for the sake of simplicity, an ID decoding procedure will be described by paying attention to a certain pixel (or one arithmetic unit) of the sensor.
[0095]
In the present embodiment, the fixed length of 8 bits is described. However, it is easy for those skilled in the art to extend the number of bits from the one disclosed in the present embodiment. Even when it is desired to make the bit length variable instead of the fixed length, it is realized only by providing not only the start code but also an end code and adding its detection means (the same method as the start code).
[0096]
First, detection of a start code detects a start code of transmission data as an initial procedure of ID decoding. Since the start code is defined as “0001” in the present embodiment, the sensor output is regarded as a start code when 0 is received for the first time after 0 is output 9 times (9 frames of the image sensor) or more. Can do.
[0097]
Subsequently, reception of the ID data proceeds as follows. The sensor output of the sixth frame from the next frame after reception of the start code is the 0th bit data (b0) of ID data, that is, LSB. The sensor output for every 6 frames from b0 becomes b1, b2, b3, b4, b5, b6, b7, and 8-bit data can be received. In FIG. 20, 6 frames are drawn as 6 clocks, and sensor data is sampled every 6 clocks to extract ID data.
[0098]
In this embodiment, an error check function is provided, and measures are taken to eliminate the influence on the sensor by things other than the light beacon so that the blinking of the light beacon does not interfere with things other than the light beacon such as fluorescent lighting. ing. That is, when the data encoded by the Manchester code is received by the sensor at a frequency fs that is three times the blinking frequency fp of the optical beacon, and the calculation shown in equation (3) is performed, the following law is established. This law will be described with reference to FIG. First, when each bit of b0 to b7 is “0”, the sensor output three frames before and the sensor output six frames before the bit “0” are always inverted. This law is indicated by an arrow α in FIG. 21 and b1 is “0”. Therefore, if the data before 3 clocks and the data before 6 clocks are inverted, it is normal and inverted. Otherwise it is considered an error. The following rule is that when each bit of b1 to b7 is 1, the sensor output three frames before is always “0”. If this condition is not satisfied, it is regarded as an error. In FIG. 21, the part representing the law is indicated by an arrow β. Since b6 is “1”, if the data three clocks before is “0”, it is normal, and if it is “1”, it is processed as an error.
[0099]
Next, ID center-of-gravity calculation in this embodiment will be described. This ID centroid calculation is a method for obtaining the coordinates on the image of the ID from the ID of each pixel (or each arithmetic module) obtained by the method as described above, and an example thereof will be described here. For example, for each ID type (in this case, since the ID is 8 bits, 256 types), the sum and number of the I and J coordinates are obtained, and the sum of each I and J coordinate is divided by the number. The barycentric coordinates for each can be obtained. When the ID is different for each optical beacon, the coordinates can be calculated by this method.
[0100]
FIG. 22 is an internal block diagram of the ID decoding processing unit. The sensor output is supplied to the ID decoding circuit 81 as an input of this block, and the ID decoding circuit 81 decodes the ID of each pixel from the sensor output in the procedure shown in the above-described ID decoding procedure. In the present embodiment, description will be made with the realization of a device such as an IC, an ASIC, and an FPGA in mind, but if the processing capability is sufficient, it can also be realized by software using a microprocessor or a DSP.
[0101]
The ID decode circuit 81 that receives the sensor output is connected to the flag register 82 and the data register 83, and the data decoded by the ID decode circuit 81 is sent. The data register 83 is a register for storing an ID that is being decoded or has been decoded, and the flag register 82 is a register for storing flags necessary for decoding the ID. FIG. 23 shows details of each register. In the flag register 82, the first 1 bit is a start flag, and the next 4 bits are a zero counter value. The next 3 bits are the phase counter value, the next bit is the end flag, and the ID counter value and the previous half-phase bit follow. The ID counter value is a value indicating the bit number of data received next. For example, if it is 1, it indicates that the next is the order of receiving b1. The data register 83 is an 8-bit data register, and 8-bit data from b0 to b7 are arranged.
[0102]
The data in the flag register 82 and the data in the data register 83 are sent to the frame memory 85 and stored. The frame memory 85 is a memory for storing data (ID) and a flag decoded for each pixel or each arithmetic module of the sensor. When the sensor has one arithmetic module per pixel, the image size of the sensor is used. As shown in FIG. 23, the data width is the sum of the bit widths of the data register 83 and the flag register 82, that is, the data width is 21 bits or more in this embodiment.
[0103]
The timing control unit 84 in FIG. 22 is a module that performs timing control of the entire ID decoding processing unit 63. Specifically, the ID decode circuit 81 and the sensor output timing are synchronized, and the data of the corresponding frame memory 85 is loaded into the data register 83 and the flag register 82 for the desired sensor output, and the ID decode processing is performed. A timing signal for advancing is generated and supplied. At this time, control signals such as an address signal and read / write to the frame memory 85 are generated. In addition, the timing control unit 84 performs timing control of the ID centroid calculation circuit 86, the ID register 87, and the ID coordinate storage memory 88.
[0104]
With reference to FIG. 24, the flow of the ID decoding process will be described. When the ID mode is entered in a signal in which the image mode and the ID mode are transmitted alternately, first, in step S61, all the frame memories 85 are initialized and "0" is written. Also, an address counter for the frame memory 85 built in the timing control unit 84 is initialized.
[0105]
After such initialization, reading from the frame memory 85 to the register is performed in step S62. That is, the timing control unit 84 provides an address signal, a read signal, and a chip select signal to the frame memory 85, reads out flag information and data (ID) information of coordinates corresponding to the sensor output currently received by the ID decoding circuit, The flag information is written in the flag register 82 and the data (ID) information is written in the data register 83. In the procedure immediately after initialization, the output data from the frame memory 85 is “0”.
[0106]
Next, it progresses to procedure S63 and an ID decoding main process is performed as the said ID decoding process part. A specific procedure of the ID decoding main process is shown in FIG. First, in step S71, it is checked whether or not the end flag in the flag register 82 is “1”. If the end flag is “1”, since the reception of data from the optical beacon device has already been completed during the current ID mode period, the ID decoding main process is exited without performing any processing. If the end flag is “0”, the ID decoding main process is continued and the process proceeds to step S72.
[0107]
In step S72, it is checked whether or not the start flag in the flag register 82 is “1”. If the start flag in the flag register 82 is “0”, a start code detection process (step S73: see FIG. 26) described below is performed, and then the ID decoding main process is exited. If the start flag in the flag register 82 is "1", the data reception process (step S74) described later is performed, and the ID decoding main process is exited. When the ID decoding main process is exited, the process returns to step S64 in the flow of FIG. 24. The steps after step S64 shown in FIG. 24 will be described later.
[0108]
The start code detection process that is the process of step S73 of FIG. 25 will be described with reference to FIG. First, it is checked whether or not the zero counter value in the flag register 82 is “9” (step S81). The zero counter is necessary for the first half of the process to detect the start code "0001". Since the frequency of the image sensor is three times the blinking frequency of the optical beacon signal, first receive "0" nine times or more. That is the condition for the start code. If the zero counter value is "9" or less (NO), the zero counter value is incremented by 1 (step S82), and the start code detection process is exited. If the zero counter value is 9 (YES), the start code detection process is continued.
[0109]
Subsequently, in step S83, it is checked whether or not the current value from the sensor is 1. If the input is “0”, it can be determined that the start code has not yet arrived, and the process exits the start code detection process without doing anything. If the input is “1”, it is determined that the start code has been received, the start flag is set to “1” (step S84), and the start code detection process is terminated.
[0110]
Next, the data reception process will be described with reference to FIG. The data reception process is a procedure when the previous start flag is “1” (see FIG. 25). In this data reception process, first, it is checked in step S91 whether the phase counter value is “4”. . In the present embodiment, an error check of received data is performed as described above. In this case, the received data 3 frames before each bit of the received data is used, and the timing of this error check is set to be synchronized with the time when the value of the phase counter is “4”. In step S91, it is checked whether or not the phase counter is "4". If the phase counter value is "4" (YES), the sensor output is written in the bit before half phase (step S97). If the phase counter value is not “4” (NO), the data reception process is continued and the process proceeds to step S92.
[0111]
As described above, since the frequency of the image sensor is three times the blinking frequency of the optical beacon signal, data may be received every 6 clocks. This phase counter takes a value of 0 to 7, and when the value of the phase counter is “7”, the sensor output is obtained by restoring the transmission data from the blinking data from the optical beacon device. In step S92, it is checked whether the phase counter value is “7”. If the phase counter value is not "7" (NO), the process proceeds to step S98, the phase counter is incremented by 1, and the data reception process is exited. If the phase counter value is “7” (YES), the process proceeds to the next error check process.
[0112]
Here, the error check process will be described with reference to FIG. This error check process corresponds to the specific contents of step S93 in FIG. First, in step S101 of FIG. 28, it is determined whether or not the input (sensor output) is “1”. If the input is “1”, it is checked whether or not the half-phase previous bit in the flag register 82 is “0” (step S102). If the half-phase previous bit is “0”, it is normal (OK). ), And if the previous half-phase bit is “1”, an error occurs (NG). The determination in step S102 is a determination corresponding to the arrow β in FIG. 21, and the bit before half phase is the data three clocks before.
[0113]
If the input is “0” in step S101, the process proceeds to step S103, and the half-phase previous bit is compared with the data one bit previous. The data one bit before is the data in the data register, and which bit is known from the ID counter value. However, when the ID counter value is “0”, the data one bit before is “1”. In the determination in step S103, if they are not the same, that is, if they are reversed, -normal (OK), and if they are the same, an error occurs (NG). This comparison is a determination corresponding to the arrow α in FIG. 21, the half-phase previous bit is the data before 3 clocks, and the 1 previous bit is the data before 6 clocks.
[0114]
After such error check processing is performed, the data reception processing will be described again with reference to FIG. If the error check process is NG as a result of the error check process, “0” is set in the flag register 82 and the data register 83 in step S96. On the contrary, if the result of the error check process is normal (OK), the ID counter value is checked in step S94, and the input (sensor output) is recorded in the data register 83 where it should be recorded. Subsequently, the value of the phase counter is set to “1”, and the value of the ID counter is incremented by 1 (step S95). The input data is written into the data register 83 only when the data reception process is completed and there is no error in the data.
[0115]
Upon completion of this data reception process, the ID decoding main process (FIG. 25) is also terminated, and the process returns to step S64 of the ID decoding process in FIG. In this procedure S64, the contents of the flag register 82 and the data register 83 are written into the frame memory 85. The address at this time is an address counter value in the timing control unit 84.
[0116]
After writing from the registers 82 and 83 to the frame memory 85, it is determined whether or not the decoding completion time has been reached. As previously shown in FIG. 16, in the ID recognition camera of this embodiment, images and IDs are obtained alternately, and each section is called an image mode and an ID mode. This ID mode section is also divided into an ID decode processing section and an ID centroid calculation section, each of which defines a time. Here, the decoding completion time refers to the time for finishing the ID decoding processing section, and in this step S65, it is determined whether or not the time has come.
[0117]
This time management is performed by the timing control unit 84 shown in FIG. If the decoding completion time has been reached, the process proceeds to the next ID centroid calculation process (step S69). If the decoding completion time has not been reached, it is checked in step S66 whether or not the frame has ended. If it has ended, the address counter is initialized to 0 (step S68), or if the frame has not ended, the address counter is counted. (Step SS67), the process returns to step S62, and the next flag and data (ID) information is transferred from the frame memory 85 to the registers 82 and 83 to continue the ID decoding process.
[0118]
Here, the ID centroid calculation process will be described with reference to FIG. First, the ID coordinate storage memory 88 is first initialized to all data “0” (step S111). In step S112, data is read from the frame memory 85 to the ID register 87. At this time, data (ID) information is read from the frame memory 85 by a control signal from the data control unit and written to the ID register 87.
[0119]
Next, in step S113, data corresponding to the read ID is read from the ID storage coordinate memory 88. As shown in FIG. 22, the ID storage coordinate memory stores information of 256 types of IDs in order because transmission data is 8 bits in this embodiment. "Sum of I coordinates", "Sum of J coordinates", and "Number (number of pixels in which ID is detected)" required for calculating the center of gravity. Therefore, here, from the ID stored in the ID register 87, the ID centroid calculating unit 86 calculates “sum of I coordinates”, “sum of J coordinates”, and “number (number of pixels in which ID is detected)” corresponding to the ID. Will be read out.
[0120]
The ID center-of-gravity calculation unit 86 operates to calculate the sum of I coordinates, the sum of J coordinates, and the number +1 (step S114). That is, “sum of I coordinates” is updated to a value obtained by adding the I coordinate value of the frame memory 85 to “sum of I coordinates”, and “sum of J coordinates” is “sum of J coordinates” + J of the frame memory 85. The value is updated to a value obtained by adding the coordinate value, and “number (number of pixels in which ID is detected)” is updated to a value obtained by incrementing “number (number of pixels in which ID is detected)” by one. The calculation result is written from the ID centroid calculation unit 86 to the ID coordinate storage memory 88 (step S115). The timing controller 84 writes the contents of the ID register 87 back to the corresponding ID coordinate storage memory 88.
[0121]
Next, the process proceeds to step S116, where it is determined whether or not the reading of all coordinates of the frame memory 85 is completed based on the address signal of the timing control unit 84. If not completed, the timing controller 84 increments the value of the address counter (step S117), reads the ID data of the next address from the frame memory 85 to the ID register, and continues the ID centroid calculation process. To do. In step S116, if all coordinates are read from the frame memory 85, the ID center-of-gravity calculation process is terminated.
[0122]
In the present embodiment, in the ID recognition camera, “Sum of I coordinates”, “Sum of J coordinates”, and “Number (number of pixels in which ID is detected)” are calculated. The center-of-gravity coordinates of the ID can be easily calculated by the following equation if these values are received from the ID recognition camera.
[0123]
[Equation 4]
Center of gravity coordinates (Ig, Jg) = (sum of I coordinates, sum of J coordinates) / number
[0124]
In addition to the center of gravity, other methods such as the center of a circumscribed rectangle can be used for the position of each ID.
[0125]
By calculating the center-of-gravity coordinates, a subject that moves greatly while generating ID information can be reliably captured within the angle of view of the ID recognition camera, and the subject can be automatically tracked and reliably photographed.
[0126]
In the above-described embodiment, the ID decoding process is described so as to be sequentially performed according to the output order of the sensors. For example, if sensor output is performed by raster scanning, reading is performed by raster scanning and decoding is performed by one ID decoding circuit. However, the present invention is not limited to this, and when it is desired to perform ID decoding processing at high speed, a parallel circuit configuration and an ID decoding circuit (N) for each line can realize a circuit configuration that is N times faster. . Further, although the circuit scale increases, an ID decoding circuit may be provided for each pixel.
[0127]
In the above-described embodiment, error detection is performed using Manchester coding as a signal processing method. However, other coding methods may be used, and not only error detection but also error correction is performed. In addition, it is possible to adopt a photographing method in which a plurality of IDs are assigned to one subject and reliable tracking is performed.
[0128]
【The invention's effect】
As described above, according to the mobile shooting system and the mobile shooting method of the present invention, a subject can be shot by a moving body such as a flying body equipped with an ID recognition camera, so that the moving subject is automatically tracked. Can be taken reliably. In addition, by operating the optical beacon device, it is possible to control an imaging program and a tracking method for an unmanned flying object, and it is possible to respond flexibly even if shooting is interrupted. Even when a camera follows a plurality of subjects, ID information can be given to each subject and can be automatically grasped together with position information. Certain shooting is possible.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing the configuration of an example of a mobile photographing system of the present invention.
FIG. 2 is a block diagram showing a configuration of a mobile object side in an example of a mobile photographing system of the present invention.
FIG. 3 is a schematic external perspective view showing an example of an optical beacon device in the mobile photographing system of the present invention.
4 is a block diagram showing an internal circuit configuration of the optical beacon device of FIG. 3. FIG.
FIG. 5 is a flowchart for explaining a general operation of an example of the mobile photographing system of the present invention.
FIG. 6 is a flowchart for explaining an operation of changing the position of a flying object in an example of the mobile imaging system of the present invention.
FIG. 7 is a flowchart for explaining a photographing method changing operation in an example of the mobile photographing system of the present invention.
FIG. 8 is a flowchart for explaining a tracking method during automatic photographing in an example of the mobile photographing system of the present invention.
FIG. 9 is a schematic diagram for explaining a framing mode during automatic photographing in an example of the mobile photographing system of the present invention.
FIG. 10 is a schematic diagram for explaining a distance / angle mode at the time of automatic photographing in an example of the mobile photographing system of the present invention.
FIG. 11 is a schematic diagram for explaining a zoom mode at the time of automatic photographing in an example of the mobile photographing system of the present invention.
FIG. 12 is a schematic diagram for explaining a photographing direction mode during automatic photographing in an example of the mobile photographing system of the present invention.
FIG. 13 is a flowchart for explaining a tracking method during automatic photographing in an example of the mobile photographing system of the present invention.
FIG. 14 is a conceptual diagram when tracking is performed while capturing a signal from an optical beacon device in an example of the mobile imaging system of the present invention.
FIG. 15 is a block diagram illustrating a configuration example of an ID recognition camera in an example of a mobile shooting system of the present invention.
FIG. 16 is a diagram showing a relationship between an image mode and an ID mode in an example of a mobile shooting system of the present invention.
FIG. 17 is a diagram illustrating an A / D conversion operation for image output in an example of the mobile photographing system of the present invention.
FIG. 18 is a block diagram illustrating a configuration example of an apparatus in an example of a mobile shooting system of the present invention.
FIG. 19 is a diagram showing a format of transmission data in an example of the mobile photographing system of the present invention.
FIG. 20 is a timing chart showing an ID decoding process in an example of the mobile photographing system of the present invention.
FIG. 21 is a timing chart showing error check processing during ID decoding processing in an example of the mobile photographing system of the present invention.
FIG. 22 is a block diagram illustrating a configuration of an ID decoding processing unit in an example of a mobile photographing system of the present invention.
FIG. 23 is a block diagram illustrating a configuration of a register in an example of a mobile photographing system of the present invention.
FIG. 24 is a flowchart showing a processing procedure in an ID mode in an example of the mobile photographing system of the present invention.
FIG. 25 is a flowchart showing an ID decoding main process in an example of the mobile photographing system of the present invention.
FIG. 26 is a flowchart showing start code detection processing in an example of the mobile photographing system of the present invention.
FIG. 27 is a flowchart showing data reception processing in an example of the mobile imaging system of the present invention.
FIG. 28 is a flowchart showing an error check process in an example of the mobile photographing system of the present invention.
FIG. 29 is a flowchart showing ID center-of-gravity calculation processing in an example of the mobile imaging system of the present invention.
[Explanation of symbols]
2 Optical beacon device
3 users
10 Unmanned helicopter
11 ID recognition camera
12 Main rotor
13 Tail rotor
20 Imaging unit
21 ID camera processing unit
23 memory
24 Aircraft Control Unit
25 Flight power section
26 Image controller
27 Display section
28 Input section
29 External output section
30 Network interface
31 Optical beacon device
32 Holding part
33 Optical beacon device body
34 Key input section
35, 36 Light emitting diode
37 Microcomputer
38 Power supply
39 Key input section
40 LED drive unit
41 memory
81 Decode circuit
82 Flag register
83 Data register
84 Timing controller
85 frame memory
86 ID register
87 ID center of gravity calculation circuit
88 ID coordinate storage memory

Claims (17)

撮影装置を搭載して移動可能とされる移動体と、
被写体に取り付けられ、光の点滅パターンによって形成される光信号を発生させる信号発生装置と
を具備し、
前記撮影装置は、
撮像部と、
前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部と
を有する移動撮影システム。
A moving body equipped with a photographing device and made movable;
A signal generator that is attached to a subject and generates an optical signal formed by a flashing pattern of light,
The imaging device
An imaging unit;
An image mode that is a mode for acquiring image data as a scene from a signal obtained by the imaging unit, and a mode that receives the optical signal by restoring the blinking pattern from the signal obtained by the imaging unit. A mobile photographing system having a processing unit that repeats the ID mode in a time-sharing manner.
前記撮影装置の前記撮像部は、CMOS固体撮像素子を用いた受光部と、
前記IDモード時に前記受光部の信号から各画素または複数画素単位で光の変化を検出する演算部とを有し、
前記撮影装置の前記処理部は、前記IDモード時に、前記演算部の検出結果から前記点滅パターンを復元するとともに画像上の前記光信号の座標を求める
請求項1記載の移動撮影システム。
The imaging unit of the imaging device, a light receiving unit using a CMOS solid imaging element,
A calculation unit that detects a change in light in units of each pixel or a plurality of pixels from the signal of the light receiving unit during the ID mode;
The mobile imaging system according to claim 1, wherein the processing unit of the imaging apparatus restores the blinking pattern from the detection result of the arithmetic unit and obtains the coordinates of the optical signal on the image in the ID mode.
前記信号発生装置からの前記光信号には、各々の前記信号発生装置ごとに異なる認識情報が含まれる
請求項1記載の移動撮影システム。
The mobile imaging system according to claim 1, wherein the optical signal from the signal generation device includes recognition information that is different for each of the signal generation devices.
前記移動体は前記光信号に含まれる制御情報に基づいて制御される
請求項1記載の移動撮影システム。
The mobile imaging system according to claim 1, wherein the moving body is controlled based on control information included in the optical signal.
前記移動体は無人制御の推進可能な装置である
請求項4記載の移動撮影システム。
The mobile imaging system according to claim 4, wherein the moving body is an unmanned control propellable device.
前記撮影装置には記憶部が接続され、前記画像モード時に取得された画像データが前記IDモード時に受信された前記光信号に含まれる各々の前記信号発生装置ごとに異なる認識情報と対応付けられて記録される
請求項1記載の移動撮像システム。
A storage unit is connected to the imaging device, and image data acquired in the image mode is associated with recognition information that is different for each of the signal generation devices included in the optical signal received in the ID mode. The moving imaging system according to claim 1 recorded.
前記記憶部から出力された画像データを処理して画像表示する画像表示部を更に有する
請求項6記載の移動撮像システム。
The mobile imaging system according to claim 6, further comprising an image display unit that processes the image data output from the storage unit to display an image.
光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、
撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載し、
前記被写体を移動させると共に前記移動体を作動させ、前記撮影装置によって前記IDモード時に前記信号発生装置からの前記光信号を探知し、探知された前記光信号を基に前記移動体は前記被写体を追尾し且つ前記被写体を前記撮影装置によって前記画像モード時に撮影する
移動撮影方法。
A signal generator that generates an optical signal formed by a flashing pattern of light is attached to the subject.
An image mode which is a mode for acquiring image data as a scene from the image obtained from the image pickup unit, the signal obtained by the image pickup unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the image pickup unit. An imaging apparatus having a processing unit that repeats the ID mode, which is a mode to perform, in a time-sharing manner, is mounted on the moving body
The object is moved and the moving body is operated, and the optical device detects the optical signal from the signal generating device in the ID mode by the photographing apparatus, and the moving body detects the object based on the detected optical signal. A moving shooting method of tracking and shooting the subject by the shooting device in the image mode.
前記撮影装置で前記IDモード時に前記光信号を捉え、該光信号に含まれる制御情報に基づいて前記移動体が制御される
請求項8記載の移動撮影方法。
The moving photographing method according to claim 8, wherein the photographing apparatus captures the optical signal during the ID mode, and the moving body is controlled based on control information included in the optical signal.
前記移動体は前記光信号に含まれる各々の前記信号発生装置ごとに異なる識別番号によって目標の被写体であることが確認されたときに追尾動作を開始する
請求項8記載の移動撮影方法。
The moving imaging method according to claim 8, wherein the moving body starts a tracking operation when it is confirmed that the moving object is a target subject with a different identification number for each of the signal generation devices included in the optical signal.
前記移動体は前記光信号の移動によって前記被写体の移動方向及び移動速度を予測し、前記移動体はその予測に適合するように移動する
請求項8記載の移動撮影方法。
The moving imaging method according to claim 8, wherein the moving body predicts a moving direction and a moving speed of the subject by moving the optical signal, and the moving body moves so as to match the prediction.
前記移動体は光信号を失った場合に再度探知を行う
請求項8記載の移動撮影方法。
The moving imaging method according to claim 8, wherein the moving body performs detection again when the optical signal is lost.
光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、
撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載した後、
前記被写体を移動させると共に前記撮影装置で前記IDモード時に前記光信号を捉え、
該光信号に含まれる制御情報に基づいて前記移動体が制御される
移動撮影方法。
A signal generator that generates an optical signal formed by a flashing pattern of light is attached to the subject.
An image mode that is a mode for acquiring image data as a scene from a signal obtained by the imaging unit, a signal obtained by the imaging unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the imaging unit After mounting the imaging device having the processing unit that repeats the ID mode, which is the mode to be performed, in a time-sharing manner on the moving object,
While moving the subject and capturing the optical signal in the ID mode with the photographing device,
A moving imaging method in which the moving body is controlled based on control information included in the optical signal.
前記移動体は無人制御の推進可能な装置である
請求項13記載の移動撮影方法。
The moving imaging method according to claim 13, wherein the moving body is an unmanned control propulsible device.
光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、
撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載した後、
前記被写体を移動させると共に前記撮影装置で前記IDモード時に前記光信号を捉え、該光信号に含まれる制御情報に基づき、前記移動体による前記被写体の追尾開始時の自動撮影のモードが選択される
移動撮影方法。
A signal generator that generates an optical signal formed by a flashing pattern of light is attached to the subject.
An image mode that is a mode for acquiring image data as a scene from a signal obtained by the imaging unit, a signal obtained by the imaging unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the imaging unit After mounting the imaging device having the processing unit that repeats the ID mode, which is the mode to be performed, in a time-sharing manner on the moving object,
The subject is moved and the optical device captures the optical signal in the ID mode, and an automatic imaging mode at the start of tracking of the subject by the moving body is selected based on control information included in the optical signal. Moving shooting method.
前記追尾開始時の自動撮影のモードとして、被写体の画面内の位置を主に固定するモード、被写体に対する撮影方向を主に固定するモード、被写体と移動体の間の距離及び角度を主に固定するモード、被写体の画面内の大きさを主に固定するモードの内の1つまたは複数が使用可能である
請求項15記載の移動撮影方法。
As modes for automatic shooting at the start of tracking, a mode in which the position of the subject in the screen is mainly fixed, a mode in which the shooting direction with respect to the subject is mainly fixed, and a distance and an angle between the subject and the moving body are mainly fixed. 16. The moving photographing method according to claim 15, wherein one or a plurality of modes and modes in which the size of the subject in the screen is mainly fixed can be used.
光の点滅パターンによって形成される光信号を発生させる信号発生装置を被写体に取り付け、
撮像部と、前記撮像部で得られた信号からシーンとしての画像データを取得するモードである画像モードと、前記撮像部で得られた信号から前記点滅パターンを復元することにより前記光信号を受信するモードであるIDモードとを時分割に繰り返す処理部とを有する撮影装置を移動体に搭載した後、
前記被写体を移動させると共に前記撮影装置で前記IDモード時に前記光信号を捉え、
該光信号に含まれる各々の前記信号発生装置ごとに異なる認識情報に対応付けられて前記撮影装置で前記画像モード時に取得された画像データが前記撮影装置に接続される記憶部に記録される
移動撮影方法。
A signal generator that generates an optical signal formed by a flashing pattern of light is attached to the subject.
An image mode that is a mode for acquiring image data as a scene from a signal obtained by the imaging unit, a signal obtained by the imaging unit, and the light signal is received by restoring the blinking pattern from the signal obtained by the imaging unit After mounting the imaging device having the processing unit that repeats the ID mode, which is the mode to be performed, in a time-sharing manner on the moving object,
While moving the subject and capturing the optical signal in the ID mode with the photographing device,
The image data acquired in the image mode by the imaging device in association with different recognition information for each of the signal generation devices included in the optical signal is recorded in a storage unit connected to the imaging device. Shooting method.
JP2002259982A 2002-09-05 2002-09-05 Moving shooting system, moving shooting method, and shooting apparatus Expired - Fee Related JP4284949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002259982A JP4284949B2 (en) 2002-09-05 2002-09-05 Moving shooting system, moving shooting method, and shooting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002259982A JP4284949B2 (en) 2002-09-05 2002-09-05 Moving shooting system, moving shooting method, and shooting apparatus

Publications (2)

Publication Number Publication Date
JP2004101616A JP2004101616A (en) 2004-04-02
JP4284949B2 true JP4284949B2 (en) 2009-06-24

Family

ID=32260830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002259982A Expired - Fee Related JP4284949B2 (en) 2002-09-05 2002-09-05 Moving shooting system, moving shooting method, and shooting apparatus

Country Status (1)

Country Link
JP (1) JP4284949B2 (en)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4470102B2 (en) * 2004-04-26 2010-06-02 ソニー株式会社 Information processing apparatus, information processing method, data output control program, and data transmission / reception system
CN100555914C (en) * 2004-05-31 2009-10-28 卡西欧计算机株式会社 Information receiver, the information transmission system and message receiving method
JP4804398B2 (en) 2007-03-30 2011-11-02 三洋電機株式会社 Imaging apparatus and imaging method
JP5218072B2 (en) * 2009-01-07 2013-06-26 日本電気株式会社 Entry / exit management system, processing method, entry / exit management device, and program
JP4806471B2 (en) * 2011-02-04 2011-11-02 三洋電機株式会社 Imaging device
JP5648866B2 (en) * 2012-10-02 2015-01-07 カシオ計算機株式会社 Imaging system, imaging method, imaging apparatus, and program
US9380198B2 (en) * 2012-09-28 2016-06-28 Casio Computer Co., Ltd. Photographing system, photographing method, light emitting apparatus, photographing apparatus, and computer-readable storage medium
JP5974819B2 (en) * 2012-10-22 2016-08-23 株式会社ニコン Auxiliary imaging device and program
JP6307922B2 (en) * 2013-03-21 2018-04-11 カシオ計算機株式会社 Imaging system, imaging device, light emitting device, imaging method, light emitting method, and program
JP6266331B2 (en) * 2013-12-13 2018-01-24 東芝ライフスタイル株式会社 Running body device
JP6261977B2 (en) * 2013-12-25 2018-01-17 東芝ライフスタイル株式会社 Running body device
EP3082005B1 (en) 2013-12-13 2019-06-12 Toshiba Lifestyle Products & Services Corporation Autonomously traveling electric cleaning device
CN113411493B (en) * 2014-07-07 2022-06-24 L·迪普 Image capturing device, camera and method implemented by device
CN107577247B (en) * 2014-07-30 2021-06-25 深圳市大疆创新科技有限公司 Target tracking system and method
WO2016065519A1 (en) 2014-10-27 2016-05-06 SZ DJI Technology Co., Ltd. Uav flight display
CN113628500A (en) 2014-09-30 2021-11-09 深圳市大疆创新科技有限公司 System and method for supporting analog mobility
CN106797438B (en) 2014-10-17 2020-03-06 索尼公司 Control device, control method and aircraft device
JP6470024B2 (en) * 2014-11-27 2019-02-13 みこらった株式会社 Levitating platform
KR101690502B1 (en) * 2015-04-07 2016-12-28 (주)코아텍 System for tracking using drone
JP2016220005A (en) * 2015-05-19 2016-12-22 オリンパス株式会社 Imaging apparatus
JP6475568B2 (en) * 2015-05-19 2019-02-27 オリンパス株式会社 Imaging apparatus and flight control method
JP2017011469A (en) * 2015-06-22 2017-01-12 カシオ計算機株式会社 Photographing device, photographing method, and program
CN105138126B (en) * 2015-08-26 2018-04-13 小米科技有限责任公司 Filming control method and device, the electronic equipment of unmanned plane
JP2017072986A (en) 2015-10-07 2017-04-13 パナソニックIpマネジメント株式会社 Autonomous flying device, control method and program of autonomous flying device
JP6711631B2 (en) 2016-01-28 2020-06-17 株式会社デンソーテン Monitoring system
WO2017168457A1 (en) * 2016-03-28 2017-10-05 株式会社 スカイロボット Automatic tracking image pickup system
JP6308238B2 (en) * 2016-04-07 2018-04-11 カシオ計算機株式会社 Flight camera device, flight camera system, terminal device, flight camera device control method and program
JP2017199172A (en) * 2016-04-27 2017-11-02 Kyb株式会社 Peripheral situation presentation system for vehicle, unmanned flying body, and peripheral situation presentation method for vehicle
CN105847207B (en) * 2016-06-08 2023-01-24 金陵科技学院 Unmanned aerial vehicle identity recognition device based on light wave information and information modulation and demodulation method
WO2018034033A1 (en) * 2016-08-16 2018-02-22 本郷飛行機株式会社 Communication control device
CN113955108A (en) * 2016-08-26 2022-01-21 索尼公司 Information processing apparatus, control method thereof, mobile unit, and recording medium
WO2019003264A1 (en) * 2017-06-26 2019-01-03 オリンパス株式会社 Wireless communication system, first communication terminal, wireless communication method, and program
US11364637B2 (en) 2017-07-18 2022-06-21 Hangzhou Taro Positioning Technology Co., Ltd. Intelligent object tracking
JP6856914B2 (en) * 2017-07-18 2021-04-14 ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. Intelligent object tracking
JP6387158B2 (en) * 2017-07-24 2018-09-05 みこらった株式会社 Defense device and defense system
JP6391194B2 (en) * 2017-07-24 2018-09-19 みこらった株式会社 Defense device and defense system
JP6943674B2 (en) 2017-08-10 2021-10-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Mobiles, control methods and control programs
JP7000910B2 (en) * 2018-02-22 2022-01-19 大日本印刷株式会社 Shooting system and shooting control device
JP6849272B2 (en) * 2018-03-14 2021-03-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Methods for controlling unmanned aerial vehicles, unmanned aerial vehicles, and systems for controlling unmanned aerial vehicles
JP2019168886A (en) * 2018-03-23 2019-10-03 カシオ計算機株式会社 Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program
JP6779474B2 (en) * 2019-01-16 2020-11-04 みこらった株式会社 Levitation mobile stand
JP6947452B2 (en) * 2019-01-16 2021-10-13 みこらった株式会社 Floating platform and program for floating platform
US20220129017A1 (en) * 2019-02-18 2022-04-28 Sony Group Corporation Flight body, information processing method, and program
JP7198526B2 (en) * 2019-11-07 2023-01-04 みこらった株式会社 Protective devices and protective systems and programs for protective devices
JP6986295B2 (en) * 2019-11-07 2021-12-22 みこらった株式会社 Defensive devices and defensive systems and programs for defensive devices
WO2021124524A1 (en) * 2019-12-19 2021-06-24 三菱電機株式会社 Target-tracking device and target-tracking method
JP7153397B2 (en) * 2020-09-30 2022-10-17 みこらった株式会社 Floating carriages and programs for levitating carriages
WO2022259799A1 (en) * 2021-06-09 2022-12-15 富士フイルム株式会社 Control device, flight vehicle system, control method, and program
WO2023238208A1 (en) * 2022-06-06 2023-12-14 株式会社RedDotDroneJapan Aerial photography system, aerial photography method, and aerial mobile body management device

Also Published As

Publication number Publication date
JP2004101616A (en) 2004-04-02

Similar Documents

Publication Publication Date Title
JP4284949B2 (en) Moving shooting system, moving shooting method, and shooting apparatus
US20230156319A1 (en) Autonomous media capturing
US20230291997A1 (en) Imaging Apparatus and Display Control Method Thereof
US9088721B2 (en) Imaging apparatus and display control method thereof
CN111294488B (en) Image pickup apparatus, control method thereof, and storage medium
US20100073497A1 (en) Operation input apparatus, operation input method, and program
US20080180537A1 (en) Camera system and methods
US8090254B2 (en) System and method for controlling shutter of image pickup device based on recognizable characteristic image
JP7233162B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP6476692B2 (en) System, apparatus, and control method
CN101516002A (en) Camera and method for adjusting flash
JP2004334269A (en) Image processing device and method, record medium, and program
US9380198B2 (en) Photographing system, photographing method, light emitting apparatus, photographing apparatus, and computer-readable storage medium
CN106791380A (en) The image pickup method and device of a kind of vivid photograph
CN104869303B (en) Photographic device, communication equipment, image capture method and information report method
CN105744147A (en) Image Processing Device and Image Playback Device Which Control Display Of Wide-Range Image
JP2023057157A (en) Image capturing apparatus, method for controlling the same, and program
JP7403218B2 (en) Imaging device, its control method, program, storage medium
TW201319724A (en) Image processing device, image processing method and recording medium
JP2014033265A (en) Imaging device, imaging method, and program
JP2016213548A (en) Imaging system, imaging method, detector and imaging device
KR101598921B1 (en) System and Method for Taking Pictures beyond Space Scale with Automatical Camera
CN113491099A (en) Image processing method, device, system, platform and computer readable storage medium
JP2004208229A (en) Object identification system, light emitting device, and detection apparatus
JP2003046842A (en) Method and apparatus for photographing virtual scene

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050527

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees