JP2023174452A - 制御装置、撮像装置、制御方法、およびプログラム - Google Patents

制御装置、撮像装置、制御方法、およびプログラム Download PDF

Info

Publication number
JP2023174452A
JP2023174452A JP2022160816A JP2022160816A JP2023174452A JP 2023174452 A JP2023174452 A JP 2023174452A JP 2022160816 A JP2022160816 A JP 2022160816A JP 2022160816 A JP2022160816 A JP 2022160816A JP 2023174452 A JP2023174452 A JP 2023174452A
Authority
JP
Japan
Prior art keywords
dimensional
unit
search area
control device
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022160816A
Other languages
English (en)
Inventor
拓光 土谷
Hiromitsu Tsuchiya
和紀 ▲高▼山
Kazunori Takayama
勇司 大森
Yuji Omori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US18/317,961 priority Critical patent/US20230388625A1/en
Priority to CN202310590136.1A priority patent/CN117135463A/zh
Publication of JP2023174452A publication Critical patent/JP2023174452A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Lens Barrels (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザの意図を正確に反映した探索エリアを用いてオートフレーミング制御を行うことが可能な制御装置を提供する。【解決手段】制御装置(1)は、距離計測部を用いて得られた3次元空間に関する情報と、ユーザにより指定された3次元図形に関する情報とを取得する取得部(101a)と、3次元空間に関する情報と3次元図形に関する情報とに基づいて探索エリアを決定する決定部(101b)と、探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御を行う制御部(101c)とを有する。【選択図】図3

Description

本発明は、制御装置、撮像装置、制御方法、およびプログラムに関する。
従来、ユーザの操作によらず自動で撮影画角の制御(オートフレーミング)を行う撮像装置が知られている。特許文献1には、3次元空間上に指定した任意の仮想オブジェクトを用いてオートレリーズする撮像装置が開示されている。具体的には、現実空間に存在する被写体が仮想オブジェクトの外に出る、あるいは、内に入るタイミングで自動的に撮影を行うことにより、ユーザの操作によらず自動で撮影を行うことが可能となる。
特開2014-155173号公報
特許文献1に開示された撮像装置では、仮想オブジェクトに基づく探索エリアにおいて被写体を探索することが開示されていないため、オートフレーミングを行うことができない。
そこで本発明は、ユーザの意図を正確に反映した探索エリアを用いてオートフレーミング制御を行うことが可能な制御装置を提供することを目的とする。
本発明の一側面としての制御装置は、距離計測部を用いて得られた3次元空間に関する情報と、ユーザにより指定された3次元図形に関する情報とを取得する取得部と、前記3次元空間に関する情報と前記3次元図形に関する情報とに基づいて探索エリアを決定する決定部と、前記探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御を行う制御部とを有する。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、ユーザの意図を正確に反映した探索エリアを用いてオートフレーミング制御を行うことが可能な制御装置を提供することができる。
各実施形態における撮像装置のブロック図である。 各実施形態における撮像装置の外観図である。 第1実施形態における制御方法のフローチャートである。 第1実施形態における探索エリアとオートフレーミング位置との関係を示す概略図である。 第1実施形態における複雑な形状の探索エリアの例を示す図である。 第2実施形態における撮像装置のブロック図である。 第2実施形態における制御方法のフローチャートである。 第2実施形態における探索エリアとオートフレーミング位置との関係を示す概略図である。 第3実施形態における撮像装置のブロック図である。 第3実施形態における制御方法のフローチャートである。 第3実施形態における距離の測定結果を示す図である。 第3実施形態における探索エリアとオートフレーミング位置との関係を示す概略図である。 第4実施形態における撮像装置のブロック図である。 第4実施形態における制御方法のフローチャートである。 第4実施形態における探索エリアとオートフレーミング位置との関係を示す概略図である。 第5実施形態における探索エリアとオートフレーミング位置との関係を示す概略図である。 第6実施形態における制御方法のフローチャートである。 第6実施形態における探索エリアとオートフレーミング位置との関係を示す概略図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
まず、図1および図2を参照して、各実施形態における撮像装置1について説明する。図1は、撮像装置1のハードウェア構成を示すブロック図である。図2は、撮像装置1の外観図である。なお、図1および図2において、同一符号は同一要素を示す。
撮像装置1は、演算部(CPU)101、情報処理部102、通信部103、一次記憶部(DRAM)104、二次記憶部(フラッシュメモリ)105、光学撮像部106、光学駆動部107、3次元空間認識部108、表示部109、および操作部110を有する。撮像装置1の各部は、バス111を介して、データをやり取りすることができる。
演算部101は、撮像装置1の各部を制御する制御装置であり、取得部101a、決定部101b、および制御部101cを有する。取得部101aは、3次元空間認識部108により認識された(3次元空間認識部108の距離計測部を用いて得られた)3次元空間に関する情報と、ユーザにより指定された3次元図形(仮想オブジェクト)に関する情報とを取得する。決定部101bは、3次元空間に関する情報と3次元図形に関する情報とに基づいて(3次元空間と、3次元空間内に配置された3次元図形とに基づいて)、探索エリアを決定する。制御部101cは、探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御(オートフレーミング制御)を行う。
情報処理部102は、光学撮像部106により取得された画像データの演算処理、光学撮像部106により取得された各種評価値の演算処理、通信部103により取得されたデータの演算処理、および光学駆動部107の制御に利用するデータの演算処理を行う。通信部103は、外部装置などとの通信を行う通信手段として機能する。一次記憶部104は、演算部101または情報処理部102により利用されるデータを一時的に記憶する。二次記憶装置105は、演算部101の処理で利用されるデータ、または情報処理部102で処理し符号化された記録画像などを記憶する。
光学撮像部106は、光学系および撮像素子を有し、光学系により形成された被写体像(光学像)を光電変換して画像データを出力する撮像手段として機能する。光学駆動部107は、光学撮像部106の光学系を駆動して光学系の位置を変化させる駆動手段として機能する。光学系は、光学駆動部107により、ズームやアイリス(絞り)の駆動が可能であり、例えば、画角をパン軸、ティルト軸、またはロール軸の少なくとも一つの軸を中心として回転可能である。パン軸およびティルト軸の回転は、光学系および撮像素子を含む光学撮像部106の全体の角度を調整することで行われる。ロール軸の回転は、撮像素子の角度を調整することで行う。また撮像装置1は、上下、左右、および前後への移動の少なくとも一つが可能に構成されてもよい。なお各実施形態において、撮像装置1として代表的な自動撮影カメラを説明するが、撮像装置1の光学駆動部107の形態は問わない。撮像装置1は、例えば、ドローンのように機体自体を移動または回転させることでフレーミング可能に構成されていてもよく、または、ジンバルなどの稼働雲台のように外付けの機材で光学駆動部107を装備してもよい。
3次元空間認識部108は、ステレオカメラやToF(Time of Flight)センサなどの距離計測部を含み、距離計測部を用いて現実空間(3次元空間)の距離情報を認識する認識手段として機能する。本実施形態において、3次元空間認識部108により認識された3次元空間に関する情報(3次元空間情報)は、演算部101に出力され、演算部101の取得部101aにより取得される。なお、3次元空間認識部108は、撮像装置1と一体的に設けられている構成に限定されるものではなく、撮像装置1のカメラ本体と別体として(カメラ本体から物理的に離れて)設けられていてもよい。また、3次元空間認識部108は、一つの距離計測部を有する構成に限定されるものではなく、互いに離れて配置された複数の距離計測部を備え、複数の距離計測部により計測された距離情報を利用して3次元空間を認識するように構成されていてもよい。
表示部109は、例えば、タッチパネルを装備したディスプレイなどの表示手段として機能し、画像を表示するとともにユーザの指やスタイラスなどを用いて操作を入力可能できる。操作部110は、ボタンまたはダイヤルなどのユーザの操作を入力する操作手段として機能し、1つ以上搭載されてもよいし、表示部109に代えてもよい。
以下、6つの実施形態について説明する。第1実施形態は、1つの撮像装置のみを用いたオートフレーミング制御に関する。オートフレーミング制御とは、ユーザの操作によらず自動で行う撮影画角の制御、例えば主要被写体を含むようなパン・ティルト制御、また主要被写体が画角の中で所定の大きさを保つように自動でズーミングを行う制御、あるいはその両方などである。第2実施形態は、複数の撮像装置を連携して用いた同オートフレーミング制御に関する。第3実施形態は、3次元空間認識部108により認識された3次元空間に関する情報(3次元空間情報)が、撮像装置1からの相対座標系で表現されており、簡単にオートフレーミング制御を行う形態である。第4実施形態は、主要被写体とユーザが指定した領域が撮影画角に含まれるようにオートフレーミング制御を行う形態である。第5実施形態は、主要被写体とユーザが指定した探索エリア外の領域が撮影画角に含まれるようにオートフレーミング制御を行う形態である。第6実施形態は、主要被写体とユーザが指定した複数の領域が撮影画角に含まれるようにオートフレーミング制御を行う形態である。
(第1実施形態)
まず、図3乃至図5を参照して、第1実施形態の制御方法(オートフレーミング制御)について説明する。本実施形態の制御方法は、図1および図2に示される撮像装置1を用いて実行される。図3は、本実施形態における制御方法のフローチャートである。図4は、探索エリアとオートフレーミング位置との関係を示す概略図である。図5は、複雑な形状の探索エリアの例を示す図である。
まず、図3のステップS300にてオートフレーミング制御が開始する。本実施形態では、ユーザが撮像装置1の操作部110を操作して撮像装置1が撮影モードへ移行すると、撮像装置1の演算部101は、ステップS300にてオートフレーミング制御を開始する。演算部101は、以下のフローに基づくプログラムを実行する。
まずステップS301において、演算部101(取得部101a)は、3次元空間認識部108から、少なくとも1つの視点からの画像と距離情報に基づき生成される現実空間における各物体のモデルおよび配置をそれぞれ規定した3次元空間情報を取得する。演算部101により取得された3次元空間情報は、一次記憶部104に記憶される。続いてステップS302において、演算部101は、通信部103または操作部110を介して入力されるユーザの指示に従い、図4に示されるような仮想オブジェクト400を配置する。すなわち演算部101は、現実空間(3次元空間)に仮想オブジェクト400を重畳させた画像を生成する。本実施形態では、例えば、拡張現実(Augmented Reality:AR)や複合現実(Mixed Reality:MR)などの技術を用いることができる。また撮像装置1として、頭部装着型表示装置(Head Mounted Display:HMD)、カメラ搭載のスマートフォン、またはタブレット端末などのカメラを用いることができる。これにより、仮想オブジェクト400は、奥行き方向の情報を保持し、かつ現実空間に連動した位置(現実空間に関連付けられた絶対位置)に配置(マッピング)することができる。
本実施形態において、オートフレーミングの対象となる探索エリアは、仮想オブジェクト400の内側エリアである。ただし本実施形態は、これに限定されるものではなく、探索エリアを仮想オブジェクト400の外側エリアとしてもよい。なお仮想オブジェクト400は、ライブビュー(LV)画像には補助的に表示されるが、記録画像には表示されないように設定可能である。
仮想オブジェクト400は、任意の3次元図形である。例えば、コンピュータなどを用いて事前に作成された任意の3次元図形に関する情報を、通信部103を介して外部装置(情報処理装置または第2撮像装置など)から取得して仮想オブジェクト400を設定することができる。または、直方体または円柱などの基本形状の図形(事前に作成され撮像装置1に記憶されている図形)を操作部110を用いて選択し、選択した図形を表示部109に表示されているLV画像における所望の位置に配置して仮想オブジェクト400を設定してもよい。仮想オブジェクト400は、ステップS301にて取得した3次元空間情報に関連付けられた位置に配置されることで、従来のような撮像装置との相対位置に関する情報ではなく、3次元空間に対する位置情報(絶対位置に関する情報)が撮像装置1に保持される。
なお図4において、探索エリア(仮想オブジェクト400の内側エリア)は直方体の図形形状であるが、これに限定されるものではなく、探索エリアを例えば図5に示されるようなドーナツ型の図形形状(仮想オブジェクト500の内部エリア)としてもよい。図5は、陸上トラック504における中央のレーンにのみ仮想オブジェクト500を配置し、被写体501~503のうち中央のレーンを走っている被写体502のみを主要被写体としてオートフレーミングを行う例である。この場合、中央のレーン以外を走る被写体501および被写体503をオートフレーミングの対象から除外することができる。
続いて、図3のステップS303において、演算部101は、探索エリアおよび探索エリアから所定範囲内のエリアが、光学撮像部106の撮影画角に収まるように光学駆動部107を制御する。そして演算部101は、探索エリアおよび探索エリアから所定範囲内のエリアにおいて主要被写体を探索する(被写体探索を行う)。主要被写体は、探索エリアに全て含まれている被写体から探索してもよく、または、探索エリアに一部含まれている被写体から探索してもよい。例えば、演算部101(決定部101b)は、探索エリアと被写体との重なり度合いに基づいて主要被写体を決定する。演算部101は、重なり度合いに基づいて、被写体の全体が探索エリアに含まれていると判定した場合、被写体を主要被写体として決定する。または、演算部101は、重なり度合いに基づいて、被写体の一部が探索エリアに含まれていると判定した場合、被写体を主要被写体として決定してもよい。主要被写体の探索は、例えば、公知の一般物体認識結果、特徴点検出結果、または動きベクトル検出結果などに基づいて実施される。
続いてステップS304において、演算部101は、主要被写体を決定したか否かを判定する。主要被写体が決定された場合、ステップS305に進む。一方、主要被写体が決定されていない場合、ステップS303に戻る。図4は、被写体401~406のうち、仮想オブジェクト400に含まれている被写体403、404がオートフレーミング対象の被写体であり、オートフレーミング対象の被写体403、404のうち被写体403が主要被写体として決定された場合を示す。
ステップS305において、演算部101は、主要被写体(被写体403)が撮影画角内に収まるように光学駆動部107を制御して、オートフレーミング位置407を決定する。続いてステップS306において、演算部101は、主要被写体が探索エリアに含まれているか否かを判定する。主要被写体が探索エリアに含まれている場合、ステップS305に戻り、演算部101はオートフレーミングを継続する。一方、主要被写体が探索エリアに含まれていない場合、演算部101はオートフレーミングを一度停止し、ステップS307に進む。ステップS307において、演算部101は、撮影モードが終了したか否か、すなわち操作部110による撮影モード終了が指示されたか否かを判定する。撮影モードが終了した場合、ステップS308に進み、撮影(オートフレーミング制御)を終了する。一方、撮影モードが終了していない場合、ステップS303に戻り、演算部101は、新たな主要被写体を探索して決定し、決定された新たな主要被写体に対してオートフレーミングを行う。
なお本実施形態では、撮像装置1の情報処理部102において各種の算出処理を行うが、撮像装置1の通信部103を用いてクラウドなど外部装置と通信し、クラウドなどの外部装置上で算出処理を行ってもよい。なお、本実施形態のオートフレーミング制御は、静止画撮影または動画撮影のいずれにも適用可能である。
本実施形態によれば、複雑な形状の探索エリアを指定することができる。また本実施形態によれば、現実空間に探索エリアを絶対座標としてマッピングさせることが可能となる。すなわち、撮像装置1を移動させても、探索エリアは移動することはなく、探索エリアを現実空間においてマッピングされた位置に固定させることができる。
(第2実施形態)
次に、図6乃至図8を参照して、第2実施形態の制御方法(オートフレーミング制御)について説明する。第1実施形態では、1つの撮像装置のみを用いてオートフレーミング制御を行う例を説明した。一方、複数の撮像装置を用いて共通の探索エリアにおいてオートフレーミング制御を行う場合、複数の撮像装置それぞれに対して、探索エリアを各々指定する必要がある。そこで本実施形態では、複数の撮像装置を連携してオートフレーミング制御を行い、探索エリアの共有を簡単化する。
図6は、本実施形態における撮像装置(第1撮像装置)1および撮像装置(第2撮像装置)2のハードウェア構成を示すブロック図である。図6に示される撮像装置1は、図1に示される撮像装置1のハードウェア構成と同様であるため、その説明は省略する。撮像装置2は、演算部(CPU)201、情報処理部202、通信部203、一次記憶部(DRAM)204、二次記憶部(フラッシュメモリ)205、光学撮像部206、光学駆動部207、3次元空間認識部208、表示部209、および操作部210を有する。演算部201は、取得部201a、決定部201b、および制御部201cを有する。撮像装置2の各部は、バス211を介して、データをやり取りすることができる。なお撮像装置2の各部は、撮像装置1の各部と同様であるため、その説明は省略する。撮像装置1と撮像装置2は、通信部103と通信部203とを介して通信を行う。本実施形態では、撮像装置1は探索エリアを送信するマスター側の撮像装置、撮像装置2は探索エリアを受信するスレーブ側の撮像装置として説明する。
図7は、本実施形態における制御方法のフローチャートである。図8は、探索エリアとオートフレーミング位置との関係を示す概略図である。なお図7において、図3と同様のステップは同じ符号を付し、その説明を省略する。
ステップS302にて撮像装置1の演算部101が探索エリアを指定すると、ステップS700に進む。ステップS700において、演算部101は、撮像装置1の通信部103を用いて、探索エリアに対応する仮想オブジェクト400の形状および位置の情報を撮像装置2(スレーブ側の撮像装置)の通信部203へ送信する。
ステップS701において、撮像装置2の演算部201は、通信部203を用いて、仮想オブジェクト400の形状および位置の情報を撮像装置1(マスター側の撮像装置)の通信部103から受信する。続いてステップS702において、演算部201は、受信した仮想オブジェクト400の情報と、3次元空間認識部208を用いて取得された3次元空間情報とを対応させ、撮像装置2の3次元空間情報に仮想オブジェクト400を配置して探索エリアを指定する。これにより、図8に示されるように、撮像装置1と撮像装置2とで仮想オブジェクト400が共有される。そして、仮想オブジェクト400に含まれている被写体403、404に対して、撮像装置1と撮像装置2とが各々にオートフレーミング制御を行うことが可能となる。図8は、被写体403が撮像装置1の撮影画角内に収まるようにオートフレーミング位置407が決定され、被写体404が撮像装置2の撮影画角内に収まるようにオートフレーミング位置800が決定される例を示す。
なお本実施形態は、2つの撮像装置の連携について説明したが、これに限定されるものではなく、3つ以上の撮像装置の連携にも適用可能である。また本実施形態では、撮像装置1をマスター側、撮像装置2をスレーブ側として説明したが、2つの撮像装置1、2が共にマスター機能およびスレーブ機能の両機能を有してもよい。
本実施形態によれば、複数の撮像装置を用いたオートフレーミング制御において、探索エリアの共有を簡単化することが可能となる。
(第3実施形態)
次に、図9乃至図12を参照して、第3実施形態の制御方法(オートフレーミング制御)について説明する。第1実施形態では、1つの撮像装置のみを用いてオートフレーミング制御を行う例を説明した。第2実施形態では、複数の撮像装置を連携してオートフレーミング制御を行い、探索エリアの共有を簡単化した。ここで、3次元空間認識部108にて3次元空間情報が絶対座標系で表現される場合、予め3次元空間を認識させておくキャリブレーション動作や、撮像装置付属の距離計測部で距離情報を取得する場合、通常、撮像装置からの距離情報(相対座標系)で表現される。このため、撮像装置の絶対座標上の位置を取得した後、相対座標から絶対座標への変換が必要など、複雑な手順が必要となる。そこで本実施形態では、3次元空間情報を撮像装置1からの相対座標系で表現することで、簡単にオートフレーミング制御を行えるようにする。
図9は、本実施形態における撮像装置3のハードウェア構成を示すブロック図である。図9に示される撮像装置3において、図1に示される撮像装置1のハードウェア構成と同様である部材は同じ符号を付し、その説明は省略する。撮像装置3は、相対座標系3次元空間認識部308を有する。相対座標系3次元空間認識部308は、ステレオカメラやToF(Time of Flight)センサなどの距離計測部を含み、距離計測部を用いて現実空間(3次元空間)のカメラと被写体の間の距離情報を認識する認識手段として機能する。本実施形態において、相対座標系3次元空間認識部308により認識された3次元空間に関する情報(3次元空間情報)は、演算部101に出力され、演算部101の取得部101aにより取得される。
図10は、本実施形態における制御方法のフローチャートである。図11は、撮像装置3から被写体1100までの距離の測定結果を示す概略図である。なお図10において、図3と同様のステップは同じ符号を付し、その説明を省略する。
まず、図10のステップS1000にてオートフレーミング制御が開始する。本実施形態では、ユーザが撮像装置3の操作部110を操作して撮像装置3が撮影モードへ移行すると、撮像装置3の演算部101は、ステップS1000にてオートフレーミング制御を開始する。演算部101は、以下のフローに基づくプログラムを実行する。
まずステップS1001において、演算部101(取得部101a)は、相対座標系3次元空間認識部308から、相対座標系の3次元空間情報を取得する。相対座標系の3次元空間情報とは、少なくとも1つの視点からの画像と距離情報に基づき生成される現実空間における各物体のモデルおよび配置をそれぞれ規定した3次元空間情報である。
ここで、通常、距離情報は、カメラと被写体までの相対座標系でされている。図11は、撮像装置3から被写体1100までの距離の測定結果を示しており、相対座標系の(s1,t1,u1)にあることを示している。現実空間が絶対座標系で表現されている場合、相対座標系から絶対座標系への変換が必要だが、現実空間が相対座標系で表現されていれば、この変換は不要である。
演算部101により取得された3次元空間情報は、一次記憶部104に記憶される。続いてステップS1002において、演算部101は、通信部103または操作部110を介して入力されるユーザの指示に従い、図12に示されるような仮想オブジェクト1101を配置する。すなわち演算部101は、現実空間(3次元空間)に仮想オブジェクト1101を重畳させた画像を生成する。これにより、仮想オブジェクト1101は、奥行き方向の情報を保持し、かつ現実空間に連動した位置(現実空間に関連付けられた相対位置)に配置(マッピング)することができる。図12においては、(s1,t1,u1)~(s9,t9,u9)の位置に配置される。
(第4実施形態)
次に、図13乃至図15を参照して、第4実施形態の制御方法(オートフレーミング制御)について説明する。第1実施形態では、1つの撮像装置のみを用いてオートフレーミング制御を行う例を説明した。第2実施形態では、複数の撮像装置を連携してオートフレーミング制御を行い、探索エリアの共有を簡単化した。第3実施形態は、3次元空間情報を相対座標系で表現してオートフレーミング制御を行う例を説明した。一方、主要被写体だけでなく主要被写体以外にも撮影画角に含めたい領域がある場合、主要被写体以外の撮影画角に含めたい領域もユーザが指定する必要がある。そこで本実施形態では、主要被写体と主要被写体以外のユーザが指定した領域の両方が撮影画角に含まれるようにオートフレーミング制御できるようにする。
図13は、本実施形態における撮像装置4のハードウェア構成を示すブロック図である。図13に示される撮像装置4において、図1に示される撮像装置1のハードウェア構成と同様である部材は同じ符号を付し、その説明は省略する。図14は、本実施形態における制御方法のフローチャートである。図14において、図3と同様のステップは同じ符号を付し、その説明を省略する。図15は、探索エリアとオートフレーミング位置との関係を示す概略図である。図15において、図4と同様のオブジェクトは同じ符号を付し、その説明を省略する。
図14のステップS1402にて、演算部101は、通信部103または操作部110を介して入力されるユーザの指示に従い、図15に示されるような仮想オブジェクト400と仮想オブジェクト1500を配置する。すなわち演算部101は、現実空間(3次元空間)に仮想オブジェクト400と仮想オブジェクト1500を重畳させた画像を生成する。本実施形態では、例えば、拡張現実(Augmented Reality:AR)や複合現実(Mixed Reality:MR)などの技術を用いることができる。また撮像装置1として、頭部装着型表示装置(Head Mounted Display:HMD)、カメラ搭載のスマートフォン、またはタブレット端末などのカメラを用いることができる。これにより、仮想オブジェクト400と仮想オブジェクト1500は、奥行き方向の情報を保持し、かつ現実空間に連動した位置(現実空間に関連付けられた絶対位置)に配置(マッピング)することができる。
仮想オブジェクト400と仮想オブジェクト1500は、任意の3次元図形である。例えば、コンピュータなどを用いて事前に作成された任意の3次元図形に関する情報を、通信部103を介して外部装置(情報処理装置または第2撮像装置など)から取得して仮想オブジェクト400と仮想オブジェクト1500を設定することができる。または、直方体または円柱などの基本形状の図形(事前に作成され撮像装置4に記憶されている図形)を、操作部110を用いて選択してもよい。このとき、選択した図形を表示部109に表示されているLV画像における所望の位置に配置して、仮想オブジェクト400と仮想オブジェクト1500を設定してもよい。仮想オブジェクト400と仮想オブジェクト1500は、ステップS301にて取得した3次元空間情報に関連付けられた位置に配置される。これにより、従来のような撮像装置との相対位置に関する情報ではなく、3次元空間に対する位置情報(絶対位置に関する情報)が撮像装置4に保持される。
ステップS1405において、演算部101は、主要被写体(被写体403)と仮想オブジェクト1500が撮影画角内に収まるように光学駆動部107を制御して、オートフレーミング位置1507を決定する。
本実施形態によれば、主要被写体とユーザが指定した領域の両方を撮影画角に含めるようにオートフレーミング制御することが可能となる。
(第5実施形態)
次に、図13、図14、図16を参照して、第5実施形態の制御方法(オートフレーミング制御)について説明する。第4実施形態では、主要被写体と主要被写体以外のユーザが指定した領域の両方が撮影画角に含まれるようにオートフレーミング制御を行う例を説明した。一方、主要被写体以外で撮影画角に含めたい領域が探索エリア外にある場合、主要被写体以外の撮影画角に含めたい領域もユーザが指定する必要がある。そこで本実施形態では、主要被写体と主要被写体以外のユーザが指定した領域の両方が撮影画角に含まれるようにオートフレーミング制御できるようにする。
図13は、本実施形態における撮像装置4のハードウェア構成を示すブロック図である。図13に示される撮像装置4において、図1に示される撮像装置1のハードウェア構成と同様である部材は同じ符号を付し、その説明は省略する。図14は、本実施形態における制御方法のフローチャートである。図14において、図3と同様のステップは同じ符号を付し、その説明を省略する。図16は、探索エリアとオートフレーミング位置との関係を示す概略図である。図16において、図4と同様のオブジェクトは同じ符号を付し、その説明を省略する。
図14のステップS1402にて、演算部101は、通信部103または操作部110を介して入力されるユーザの指示に従い、図16に示されるような仮想オブジェクト400と仮想オブジェクト1600を配置する。すなわち演算部101は、現実空間(3次元空間)に仮想オブジェクト400と仮想オブジェクト1600を重畳させた画像を生成する。実施形態4では、仮想オブジェクト1500を仮想オブジェクト400の内側に配置したが、本実施形態では、仮想オブジェクト1600を仮想オブジェクト400の外側に配置する。
ステップS1405において、演算部101は、主要被写体(被写体403)と仮想オブジェクト1600が撮影画角内に収まるように光学駆動部107を制御して、オートフレーミング位置1607を決定する。本実施形態では、主要被写体(被写体403)と仮想オブジェクト1600の両方が撮影画角内に収まるように、オートフレーミング位置1607を決定したが、これに限定されるものではない。例えば、主要被写体と仮想オブジェクト1600の距離が遠い場合には、主要被写体のみが撮影画角内に収まるように、オートフレーミング位置を決定してもよい。
本実施形態によれば、主要被写体とユーザが指定した探索エリア外の領域の両方を撮影画角に含めるようにオートフレーミング制御することが可能となる。
(第6実施形態)
次に、図13、図17、図18を参照して、第6実施形態の制御方法(オートフレーミング制御)について説明する。第4実施形態では、主要被写体と主要被写体以外のユーザが指定した領域の両方が撮影画角に含まれるようにオートフレーミング制御を行う例を説明した。一方、主要被写体以外で撮影画角に含めたい領域が複数ある場合、主要被写体以外の撮影画角に含めたい複数の領域もユーザが指定する必要がある。そこで本実施形態では、主要被写体と主要被写体以外のユーザが指定した複数の領域が撮影画角に含まれるようにオートフレーミング制御できるようにする。
図13は、本実施形態における撮像装置4のハードウェア構成を示すブロック図である。図13に示される撮像装置4において、図1に示される撮像装置1のハードウェア構成と同様である部材は同じ符号を付し、その説明は省略する。図17は、本実施形態における制御方法のフローチャートである。図17において、図3と同様のステップは同じ符号を付し、その説明を省略する。図18は、探索エリアとオートフレーミング位置との関係を示す概略図である。図18において、図4と同様のオブジェクトは同じ符号を付し、その説明を省略する。
図17のステップS1702にて、演算部101は、通信部103または操作部110を介して入力されるユーザの指示に従い、図18に示されるような仮想オブジェクト400、仮想オブジェクト1800、仮想オブジェクト1801を配置する。すなわち演算部101は、現実空間(3次元空間)に仮想オブジェクト400、仮想オブジェクト1800、仮想オブジェクト1801を重畳させた画像を生成する。本実施形態では、仮想オブジェクト1800を仮想オブジェクト400の外側に配置し、仮想オブジェクト1801を仮想オブジェクト400の内側に配置したが、これに限定されるものではない。例えば、両方の仮想オブジェクトを仮想オブジェクト400の内側に配置してもよいし、両方の仮想オブジェクトを仮想オブジェクト400の外側に配置してもよい。
ステップS1705において、演算部101は、主要被写体(被写体403)と仮想オブジェクト1800と仮想オブジェクト1801が撮影画角内に収まるように光学駆動部107を制御して、オートフレーミング位置1807を決定する。
本実施形態によれば、主要被写体とユーザが指定した複数の領域を撮影画角に含めるようにオートフレーミング制御することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施形態によれば、ユーザの意図を正確に反映した探索エリアを用いてオートフレーミング制御を行うことが可能な制御装置、撮像装置、制御方法、およびプログラムを提供することができる。
各実施例の開示は、以下の構成および方法を含む。
(構成1)
距離計測部を用いて得られた3次元空間に関する情報と、ユーザにより指定された3次元図形に関する情報とを取得する取得部と、
前記3次元空間に関する情報と前記3次元図形に関する情報とに基づいて探索エリアを決定する決定部と、
前記探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御を行う制御部と、を有することを特徴とする制御装置。
(構成2)
画像を表示する表示部を更に有し、
前記決定部は、ユーザにより指定された前記3次元図形が前記表示部に表示された前記画像における選択位置に配置されることで、前記探索エリアを決定することを特徴とする構成1に記載の制御装置。
(構成3)
前記決定部は、前記3次元空間に配置された前記3次元図形に基づいて、前記探索エリアを決定することを特徴とする構成1または2に記載の制御装置。
(構成4)
前記探索エリアは、前記3次元図形の内側であることを特徴とする構成1乃至3のいずれかに記載の制御装置。
(構成5)
前記探索エリアは、前記3次元図形の外側であることを特徴とする構成1乃至3のいずれかに記載の制御装置。
(構成6)
前記決定部は、前記探索エリアにおいて被写体探索を行い、前記主要被写体を決定することを特徴とする構成1乃至5のいずれかに記載の制御装置。
(構成7)
前記決定部は、前記探索エリアと被写体との重なり度合いに基づいて、前記主要被写体を決定することを特徴とする構成6に記載の制御装置。
(構成8)
前記決定部は、前記重なり度合いに基づいて、前記被写体の全体が前記探索エリアに含まれていると判定した場合、前記被写体を前記主要被写体として決定することを特徴とする構成7に記載の制御装置。
(構成9)
前記決定部は、前記重なり度合いに基づいて、前記被写体の一部が前記探索エリアに含まれていると判定した場合、前記被写体を前記主要被写体として決定することを特徴とする構成7に記載の制御装置。
(構成10)
前記3次元空間に関する情報および前記3次元図形に関する情報は、該制御装置を基準とする相対座標系で表現されていることを特徴とする構成1乃至9のいずれかに記載の制御装置。
(構成11)
前記3次元図形に関する情報は、第1の3次元図形に関する情報と、第2の3次元図形に関する情報とを含み、
前記決定部は、前記3次元空間に関する情報と前記第1の3次元図形に関する情報とに基づいて前記探索エリアを決定し、
前記制御部は、前記探索エリアにおける前記主要被写体と前記第2の3次元図形とが前記撮影画角に含まれるように前記画角制御を行うことを特徴とする構成1乃至10のいずれかに記載の制御装置。
(構成12)
前記制御部は、前記主要被写体の重心位置と前記第2の3次元図形の重心位置とに基づいて画角を評価し、評価結果に基づいて前記主要被写体と前記第2の3次元図形とが前記撮影画角に含まれるように前記画角制御を行うことを特徴とする構成11に記載の制御装置。
(構成13)
前記制御部は、前記主要被写体と前記第2の領域の距離が予め定めた閾値以上の場合、主要被写体のみが撮影画角に含まれるように画角制御を行うことを特徴とする構成11または12に記載の制御装置。
(構成14)
前記第2の3次元図形は、前記第1の3次元図形の内側に位置することを特徴とする構成11乃至13のいずれかに記載の制御装置。
(構成15)
前記第2の3次元図形は、前記第1の3次元図形の外側に位置することを特徴とする構成11乃至14のいずれかに記載の制御装置。
(構成16)
前記3次元図形に関する情報は、第1の3次元図形に関する情報と、第2の3次元図形に関する情報と、第3の3次元図形に関する情報とを含み、
前記決定部は、前記3次元空間に関する情報と前記第1の3次元図形に関する情報とに基づいて前記探索エリアを決定し、
前記制御部は、前記探索エリアにおける前記主要被写体と前記第2の3次元図形と前記第3の3次元図形とが前記撮影画角に含まれるように前記画角制御を行うことを特徴とする構成1乃至10のいずれかに記載の制御装置。
(構成17)
前記第2の3次元図形と前記第3の3次元図形は、前記第1の3次元図形の内側に位置することを特徴とする構成16に記載の制御装置。
(構成18)
前記第2の3次元図形と前記第3の3次元図形は、前記第1の3次元図形の外側に位置することを特徴とする構成16に記載の制御装置。
(構成19)
前記第2の3次元図形は前記第1の3次元図形の内側に位置し、前記第3の3次元図形は前記第1の3次元図形の外側に位置することを特徴とする構成16に記載の制御装置。
(構成20)
構成1乃至19のいずれか一項に記載の制御装置と、撮像部とを有することを特徴とする撮像装置。
(構成21)
前記撮像部を駆動する駆動部を更に有し、
前記決定部は、前記探索エリアにおいて前記駆動部を用いた被写体探索を行い、前記主要被写体を決定することを特徴とする構成20に記載の撮像装置。
(構成22)
操作部を更に有し、
前記3次元図形は、ユーザによる前記操作部の操作により作成されることを特徴とする構成20または21に記載の撮像装置。
(構成23)
外部装置と通信を行う通信部を更に有し、
前記通信部は、前記外部装置から前記3次元図形に関する情報を受信することを特徴とする構成20または21に記載の撮像装置。
(構成24)
前記画角制御は、前記主要被写体が前記撮影画角に含まれるように自動でパン、ティルト、及びズームの少なくとも1つを制御することであることを特徴とする構成20乃至23に記載の撮像装置。
(構成25)
前記外部装置は、情報処理装置であることを特徴とする構成23に記載の撮像装置。
(構成26)
前記外部装置は、第2撮像装置であることを特徴とする構成23に記載の撮像装置。
(構成27)
前記距離計測部を用いて前記3次元空間を認識する認識部を更に有することを特徴とする構成20乃至26のいずれかに記載の撮像装置。
(方法1)
距離計測部を用いて得られた3次元空間に関する情報を取得するステップと、
ユーザにより指定された3次元図形に関する情報を取得するステップと、
前記3次元空間に関する情報と前記3次元図形に関する情報とに基づいて探索エリアを決定するステップと、
前記探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御を行うステップと、を有することを特徴とする制御方法。
(構成28)
方法1に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
101 演算部(制御装置)
101a 取得部
101b 決定部
101c 制御部

Claims (29)

  1. 距離計測部を用いて得られた3次元空間に関する情報と、ユーザにより指定された3次元図形に関する情報とを取得する取得部と、
    前記3次元空間に関する情報と前記3次元図形に関する情報とに基づいて探索エリアを決定する決定部と、
    前記探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御を行う制御部と、を有することを特徴とする制御装置。
  2. 画像を表示する表示部を更に有し、
    前記決定部は、ユーザにより指定された前記3次元図形が前記表示部に表示された前記画像における選択位置に配置されることで、前記探索エリアを決定することを特徴とする請求項1に記載の制御装置。
  3. 前記決定部は、前記3次元空間に配置された前記3次元図形に基づいて、前記探索エリアを決定することを特徴とする請求項1に記載の制御装置。
  4. 前記探索エリアは、前記3次元図形の内側であることを特徴とする請求項1に記載の制御装置。
  5. 前記探索エリアは、前記3次元図形の外側であることを特徴とする請求項1に記載の制御装置。
  6. 前記決定部は、前記探索エリアにおいて被写体探索を行い、前記主要被写体を決定することを特徴とする請求項1に記載の制御装置。
  7. 前記決定部は、前記探索エリアと被写体との重なり度合いに基づいて、前記主要被写体を決定することを特徴とする請求項6に記載の制御装置。
  8. 前記決定部は、前記重なり度合いに基づいて、前記被写体の全体が前記探索エリアに含まれていると判定した場合、前記被写体を前記主要被写体として決定することを特徴とする請求項7に記載の制御装置。
  9. 前記決定部は、前記重なり度合いに基づいて、前記被写体の一部が前記探索エリアに含まれていると判定した場合、前記被写体を前記主要被写体として決定することを特徴とする請求項7に記載の制御装置。
  10. 前記3次元空間に関する情報および前記3次元図形に関する情報は、該制御装置を基準とする相対座標系で表現されていることを特徴とする請求項1に記載の制御装置。
  11. 前記3次元図形に関する情報は、第1の3次元図形に関する情報と、第2の3次元図形に関する情報とを含み、
    前記決定部は、前記3次元空間に関する情報と前記第1の3次元図形に関する情報とに基づいて前記探索エリアを決定し、
    前記制御部は、前記探索エリアにおける前記主要被写体と前記第2の3次元図形とが前記撮影画角に含まれるように前記画角制御を行うことを特徴とする請求項1に記載の制御装置。
  12. 前記制御部は、前記主要被写体の重心位置と前記第2の3次元図形の重心位置とに基づいて画角を評価し、評価結果に基づいて前記主要被写体と前記第2の3次元図形とが前記撮影画角に含まれるように前記画角制御を行うことを特徴とする請求項11に記載の制御装置。
  13. 前記制御部は、前記主要被写体と前記第2の領域の距離が予め定めた閾値以上の場合、主要被写体のみが撮影画角に含まれるように画角制御を行うことを特徴とする請求項11に記載の制御装置。
  14. 前記第2の3次元図形は、前記第1の3次元図形の内側に位置することを特徴とする請求項11に記載の制御装置。
  15. 前記第2の3次元図形は、前記第1の3次元図形の外側に位置することを特徴とする請求項11に記載の制御装置。
  16. 前記3次元図形に関する情報は、第1の3次元図形に関する情報と、第2の3次元図形に関する情報と、第3の3次元図形に関する情報とを含み、
    前記決定部は、前記3次元空間に関する情報と前記第1の3次元図形に関する情報とに基づいて前記探索エリアを決定し、
    前記制御部は、前記探索エリアにおける前記主要被写体と前記第2の3次元図形と前記第3の3次元図形とが前記撮影画角に含まれるように前記画角制御を行うことを特徴とする請求項1に記載の制御装置。
  17. 前記第2の3次元図形と前記第3の3次元図形は、前記第1の3次元図形の内側に位置することを特徴とする請求項16に記載の制御装置。
  18. 前記第2の3次元図形と前記第3の3次元図形は、前記第1の3次元図形の外側に位置することを特徴とする請求項16に記載の制御装置。
  19. 前記第2の3次元図形は前記第1の3次元図形の内側に位置し、前記第3の3次元図形は前記第1の3次元図形の外側に位置することを特徴とする請求項16に記載の制御装置。
  20. 請求項1乃至19のいずれか一項に記載の制御装置と、撮像部とを有することを特徴とする撮像装置。
  21. 前記撮像部を駆動する駆動部を更に有し、
    前記決定部は、前記探索エリアにおいて前記駆動部を用いた被写体探索を行い、前記主要被写体を決定することを特徴とする請求項20に記載の撮像装置。
  22. 操作部を更に有し、
    前記3次元図形は、ユーザによる前記操作部の操作により作成されることを特徴とする請求項20に記載の撮像装置。
  23. 外部装置と通信を行う通信部を更に有し、
    前記通信部は、前記外部装置から前記3次元図形に関する情報を受信することを特徴とする請求項20に記載の撮像装置。
  24. 前記画角制御は、前記主要被写体が前記撮影画角に含まれるように自動でパン、ティルト、及びズームの少なくとも1つを制御することであることを特徴とする請求項20に記載の撮像装置。
  25. 前記外部装置は、情報処理装置であることを特徴とする請求項23に記載の撮像装置。
  26. 前記外部装置は、第2撮像装置であることを特徴とする請求項23に記載の撮像装置。
  27. 前記距離計測部を用いて前記3次元空間を認識する認識部を更に有することを特徴とする請求項20に記載の撮像装置。
  28. 距離計測部を用いて得られた3次元空間に関する情報を取得するステップと、
    ユーザにより指定された3次元図形に関する情報を取得するステップと、
    前記3次元空間に関する情報と前記3次元図形に関する情報とに基づいて探索エリアを決定するステップと、
    前記探索エリアにおける主要被写体が撮影画角に含まれるように自動で画角制御を行うステップと、を有することを特徴とする制御方法。
  29. 請求項28に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2022160816A 2022-05-25 2022-10-05 制御装置、撮像装置、制御方法、およびプログラム Pending JP2023174452A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/317,961 US20230388625A1 (en) 2022-05-25 2023-05-16 Control apparatus, image pickup apparatus, control method, and storage medium
CN202310590136.1A CN117135463A (zh) 2022-05-25 2023-05-24 控制设备、摄像设备、控制方法和存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022085504 2022-05-25
JP2022085504 2022-05-25

Publications (1)

Publication Number Publication Date
JP2023174452A true JP2023174452A (ja) 2023-12-07

Family

ID=89030377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022160816A Pending JP2023174452A (ja) 2022-05-25 2022-10-05 制御装置、撮像装置、制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2023174452A (ja)

Similar Documents

Publication Publication Date Title
JP6951595B2 (ja) 住宅のデータ収集およびモデル生成方法
JP7231306B2 (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
US10872467B2 (en) Method for data collection and model generation of house
JP4825980B2 (ja) 魚眼カメラの校正方法。
JP2018535402A (ja) 異なる分解能を有するセンサーの出力を融合するシステム及び方法
JP2017112602A (ja) パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
JP2010165248A (ja) 画像処理装置、画像照合方法、および、プログラム
JP2010109783A (ja) 電子カメラ
JP2007024647A (ja) 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
JP2010239564A (ja) 撮像装置、撮像制御方法、及びプログラム
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2020153873A (ja) 診断処理装置、診断システム、診断処理方法、及びプログラム
JP7241812B2 (ja) 情報可視化システム、情報可視化方法、及びプログラム
JP2003296708A (ja) データ処理方法、データ処理プログラムおよび記録媒体
CN110191284B (zh) 对房屋进行数据采集的方法、装置、电子设备和存储介质
KR20110088275A (ko) 영상 변환 기능을 구비한 이동통신 단말기
JP2023174452A (ja) 制御装置、撮像装置、制御方法、およびプログラム
WO2017142130A1 (ko) 가상 현실을 제공하기 위한 이미지 처리 방법 및 가상 현실 디바이스
JP6882147B2 (ja) 操作案内システム
JP3221384B2 (ja) 三次元座標計測装置
US20230005213A1 (en) Imaging apparatus, imaging method, and program
CN109660733B (zh) 电子设备和移动平台
JP7439398B2 (ja) 情報処理装置、プログラム及び情報処理システム
KR20210079029A (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
CN112053444A (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备