JP6483661B2 - Imaging control apparatus, imaging control method, and program - Google Patents
Imaging control apparatus, imaging control method, and program Download PDFInfo
- Publication number
- JP6483661B2 JP6483661B2 JP2016508516A JP2016508516A JP6483661B2 JP 6483661 B2 JP6483661 B2 JP 6483661B2 JP 2016508516 A JP2016508516 A JP 2016508516A JP 2016508516 A JP2016508516 A JP 2016508516A JP 6483661 B2 JP6483661 B2 JP 6483661B2
- Authority
- JP
- Japan
- Prior art keywords
- marker
- unit
- imaging unit
- imaging
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 277
- 238000000034 method Methods 0.000 title claims description 56
- 239000003550 marker Substances 0.000 claims description 135
- 238000004364 calculation method Methods 0.000 claims description 63
- 238000001514 detection method Methods 0.000 claims description 14
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Description
本発明は、撮像制御技術に関する。 The present invention relates to an imaging control technique.
現在流通している撮像装置のほとんどにオートフォーカス(以下、「AF」と記載)機能が搭載されている。自動でピントを合わせる仕組みであるAFには、コントラスト(明暗差)AF、位相差AF等の手法が存在する。コントラストAFは、レンズと撮像素子(CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等)との間の距離を調節するために、ピント合わせに時間がかかるというデメリットが知られている。一方で、位相差AFについては、小型化及び軽量化が困難というデメリットが知られており、携帯端末に搭載される撮像装置には採用されていないのが現状である。 Most of the imaging devices currently distributed are equipped with an autofocus (hereinafter referred to as “AF”) function. In AF, which is a mechanism for automatically focusing, there are methods such as contrast (light / dark difference) AF and phase difference AF. Contrast AF is known to have a demerit that it takes time to focus in order to adjust the distance between a lens and an imaging device (CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor, etc.)). On the other hand, the phase difference AF is known to have a demerit that it is difficult to reduce the size and weight, and the phase difference AF is not currently used in an imaging device mounted on a portable terminal.
特許文献1は、フォーカスレンズの初期駆動速度をフォーカスレンズの駆動方向、結像光学系の焦点距離、AFスキャン範囲のいずれかに応じて動的に設定することで、焦点検出に要する時間を短縮することが可能な自動焦点検出装置およびその制御方法を提案する。特許文献2は、現実世界に重畳させる三次元コンテンツを現実世界に存在する現実オブジェクトを実写した画像で生成する手法を提案する。
Patent Document 1 reduces the time required for focus detection by dynamically setting the initial drive speed of the focus lens according to any of the focus lens drive direction, the focal length of the imaging optical system, and the AF scan range. An automatic focus detection apparatus and a control method thereof are proposed.
しかしながら、特許文献1および特許文献2に記載の方法や、既存の携帯機器に搭載される撮像装置では、コントラストAFのピント合わせの遅さにより、複数枚撮影する場合に時間を要するという問題がある。このような問題は、撮影者が動きながら多数の撮影を行いたい場合に生じ易い。具体的には、次のような撮影場面が例示される。
However, the method described in Patent Document 1 and
例えば、異なる複数の方向(前方、側方、後方、上方等)から被写体を撮影する場合である。以降、このような撮影方法を多方位撮影と表記する。多方位撮影では、被写体に撮像装置を向けた状態で撮影者が被写体の周りを移動しながら、撮影が行われるので、被写体と撮像装置との間の距離が、撮影者の移動に伴い、変化する。一方で、複数方向から被写体を撮影したいので、撮影者は、複数方向から当該被写体を多数回に亘って撮影することを望む。結果、携帯機器の撮像装置におけるコントラストAFのピント合わせの遅さにより、撮影時間に多くの時間を要する。このような多方位撮影は、被写体の全体像を個人的に第三者に伝えるので、被写体の形状を三次元解析するため等に、行われる。また、特許文献2で提案されるように、拡張現実(Augmented Reality;AR 以下、本願では「AR」と略記)技術で用いる三次元コンテンツを生成するために、このような多方位撮影が行われる場合がある。但し、多方位撮影における撮影方向の数は任意である。
For example, it is a case where the subject is photographed from a plurality of different directions (front, side, rear, upper, etc.). Hereinafter, such a photographing method is referred to as multidirectional photographing. In multidirectional shooting, shooting is performed while the photographer moves around the subject with the imaging device facing the subject, so the distance between the subject and the imaging device changes as the photographer moves. To do. On the other hand, since the photographer wants to photograph a subject from a plurality of directions, the photographer desires to photograph the subject many times from a plurality of directions. As a result, a long time is required for the photographing time due to the slow focusing of the contrast AF in the imaging device of the portable device. Such multi-directional shooting is performed to three-dimensionally analyze the shape of the subject because the entire image of the subject is personally communicated to a third party. Further, as proposed in
本発明は、このような事情に鑑みてなされた。本発明は、撮像装置のピント合わせ速度を向上させる撮像制御技術を提供することを主たる目的とする。 The present invention has been made in view of such circumstances. An object of the present invention is to provide an imaging control technique that improves the focusing speed of an imaging apparatus.
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.
第1の側面は、撮像制御装置に関する。第1の側面に係る撮像制御装置は、撮像部から撮影画像を取得する画像取得手段と、この画像取得手段により取得される撮影画像からマーカを検出するマーカ検出手段と、検出されたマーカに関する情報に基づいて、そのマーカと撮像部との位置関係を示す撮影位置関係を算出する基準算出手段と、算出された撮影位置関係、及び、マーカと撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部とオブジェクトとの現実距離を算出する距離算出手段と、算出された現実距離を用いて、オブジェクトに撮像部のピントを合わせるためのフォーカスパラメータを決定するパラメータ決定手段と、このフォーカスパラメータを撮像部に設定する設定手段と、を有する。 The first aspect relates to an imaging control device. An imaging control apparatus according to a first aspect includes an image acquisition unit that acquires a captured image from an imaging unit, a marker detection unit that detects a marker from a captured image acquired by the image acquisition unit, and information about the detected marker Based on the reference calculation means for calculating the shooting positional relationship indicating the positional relationship between the marker and the imaging unit, the calculated shooting positional relationship, and the object position indicating the positional relationship between the marker and the object shown in the shot image Distance calculating means for calculating the actual distance between the imaging unit and the object using the relationship, and parameter determining means for determining a focus parameter for focusing the imaging unit on the object using the calculated actual distance; Setting means for setting the focus parameter in the imaging unit.
第2の側面は、撮像制御方法に関する。第2の側面に係る撮像制御方法は、撮像部から撮影画像を取得し、取得された撮影画像からマーカを検出し、検出されたマーカに関する情報に基づいて、マーカと撮像部との位置関係を示す撮影位置関係を算出し、算出された撮影位置関係、及び、マーカと撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部とオブジェクトとの現実距離を算出し、算出された現実距離を用いて、オブジェクトに撮像部のピントを合わせるためのフォーカスパラメータを決定し、フォーカスパラメータを撮像部に設定する、ことを含む。 The second aspect relates to an imaging control method. The imaging control method according to the second aspect acquires a captured image from an imaging unit, detects a marker from the acquired captured image, and determines the positional relationship between the marker and the imaging unit based on information about the detected marker. And calculating the actual distance between the imaging unit and the object using the calculated shooting position relationship and the object position relationship indicating the positional relationship between the marker and the object shown in the shot image. Using the actual distance thus determined, determining a focus parameter for focusing the imaging unit on the object, and setting the focus parameter in the imaging unit.
なお、本発明の他の側面としては、上記第2の側面の方法を撮像部を有するコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。 Another aspect of the present invention may be a program that causes a computer having an imaging unit to execute the method of the second aspect, or a computer-readable recording medium that records such a program. There may be. This recording medium includes a non-transitory tangible medium.
上記各側面によれば、撮像装置のピント合わせ速度を向上させる撮像制御技術を提供することができる。 According to each aspect described above, it is possible to provide an imaging control technique that improves the focusing speed of the imaging apparatus.
以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態は例示であり、本発明は以下の各実施形態の構成に限定されない。本発明における撮像制御装置は、以下に例示される撮像装置の全部又は一部に相当する。 Embodiments of the present invention will be described below. In addition, each embodiment given below is an illustration and this invention is not limited to the structure of each following embodiment. The imaging control device according to the present invention corresponds to all or part of the imaging device exemplified below.
[第一実施形態]
〔ハードウェア構成〕
図1は、第一実施形態における撮像装置のハードウェア構成を概念的に示す図である。
図1に示されるように、撮像装置10は、CPU(Central Processing Unit)1、メモリ2、通信部4、表示部5、入力部6、撮像部7等を有する。CPU1は、他の各部とバス等の通信線により接続される。メモリ2は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等である。通信部4は、他の装置や機器と信号の送受信を行う。通信部4には、可搬型記録媒体等も接続され得る。[First embodiment]
[Hardware configuration]
FIG. 1 is a diagram conceptually illustrating a hardware configuration of the imaging apparatus according to the first embodiment.
As illustrated in FIG. 1, the
表示部5は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU1やGPU(Graphics Processing Unit)(図示せず)等により処理された描画データに対応する画面を表示するユニットである。入力部6は、ユーザ操作の入力を受け付けるユニットであり、例えば、ハードウェアボタンユニット、タッチセンサ等として実現される。表示部5及び入力部6は例えば一体化され、タッチパネルとして実現されることもできる。撮像部7は、レンズ、撮像素子等から形成されるカメラであり、リアルタイム映像の画像フレームを取得し、指示により静止画像及び動画像を撮像する。
The display unit 5 displays a screen corresponding to drawing data processed by a CPU 1 or a GPU (Graphics Processing Unit) (not shown) such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. Is a unit. The input unit 6 is a unit that receives an input of a user operation, and is realized as a hardware button unit, a touch sensor, or the like, for example. The display unit 5 and the input unit 6 are integrated, for example, and can be realized as a touch panel. The
撮像装置10は、撮像部7を有し、撮像部7により取得される画像を表示部5に表示させ、入力部6により受け付けられるユーザ操作に応じて静止画像及び動画像をキャプチャし、キャプチャした動画像を表す情報を保持する。撮像装置10は、静止画像及び動画像のキャプチャにあたり、後述する各処理部の処理により設定されるフォーカスパラメータを用いる。撮像装置10は、デジタルカメラ、携帯電話、スマートデバイス等のような撮像機能を有する装置であり、その具体的な製品形態は制限されず、そのハードウェア構成も制限されない。
The
〔処理構成〕
図2は、第一実施形態における撮像装置10の処理構成例を概念的に示す図である。図2に示されるように、撮像装置10は、画像取得部11、マーカ検出部12、基準算出部13、距離算出部14、パラメータ決定部15、設定部16等を有する。これら各処理部は、例えば、プログラムとしてメモリ2に格納され、CPU1によりこれらのプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワークに存在する他のコンピュータから通信部4を介してインストールされ、メモリ2に格納されてもよい。[Processing configuration]
FIG. 2 is a diagram conceptually illustrating a processing configuration example of the
画像取得部11は、撮像部7からリアルタイム撮影画像を逐次取得する。例えば、画像取得部11は、撮像部7からリアルタイム映像の画像フレームを上記リアルタイム撮影画像として所定周期で取得する。
The
マーカ検出部12は、画像取得部11により取得されるリアルタイム撮影画像からマーカを検出する。ここで、マーカとは、現実世界に配置された画像や物であり、ARマーカ等と呼ばれる。但し、本実施形態は、このマーカを基に、参照方向によらず或る基準点及びその基準点からの相互に直交する3つの方向を一定に得ることができるのであれば、このマーカの具体的形態を制限しない。例えば、マーカ検出部12は、マーカの形状情報、色情報等を予め保持しており、これら保持情報に基づいて、背景画像からマーカを検出する。このマーカ検出には、周知の画像認識手法が利用されればよい。
The
基準算出部13は、マーカ検出部12により検出されたマーカに関する現実情報及び画像情報に基づいて、そのマーカと撮像部7との位置関係を示す撮影位置関係を算出する。
マーカに関する現実情報とは、マーカの現実世界における情報を意味し、例えば、マーカの実際の形状や大きさ等を示す。また、マーカに関する画像情報とは、マーカのリアルタイム撮影画像内での情報を意味し、マーカのリアルタイム撮影画像内の形状や大きさ等を示す。マーカに関する現実情報は、予め基準算出部13により保持される。マーカに関する画像情報は、基準算出部13によりリアルタイム撮影画像から取得される。The
The actual information regarding the marker means information in the real world of the marker, and indicates, for example, the actual shape and size of the marker. The image information related to the marker means information in the real-time captured image of the marker, and indicates the shape, size, etc. of the marker in the real-time captured image. Real information about the marker is held in advance by the
基準算出部13は、マーカに関する現実情報と画像情報との比較により、マーカと撮像部7との位置関係を示す撮影位置関係を算出することができる。例えば、基準算出部13は、撮影位置関係として、マーカに対する撮像部7の相対的な仮想位置、及び、マーカと撮像部7との現実距離を算出することができる。基準算出部13による撮影位置関係の算出手法は、マーカに関する現実情報と画像情報とが利用されれば、特に制限されない。
The
基準算出部13は、当該撮影位置関係を算出するにあたり、マーカの位置に相当する基準位置を次のように設定することができる。例えば、その基準位置は、マーカ内における任意の点に設定される。マーカが複数の部分形状から構成される場合には、それら複数の部分形状から導かれる或る点がその基準位置に設定されてもよい。
In calculating the photographing position relationship, the
距離算出部14は、基準算出部13により算出された撮影位置関係、及び、マーカと共にリアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部7とそのオブジェクトとの現実距離を算出する。ここで、マーカと共にリアルタイム撮影画像に写るオブジェクトとは、撮影者が写したい被写体であり、現実世界においてマーカと近い位置に置かれる個体である。
The
オブジェクト位置関係は、マーカに対するオブジェクトの相対的な仮想位置を示してもよいし、マーカとオブジェクトとの現実世界における位置関係を示してもよい。オブジェクト位置関係は、距離算出部14により予め保持されてもよいし、他の情報を用いて、距離算出部14により算出されてもよい。また、距離算出部14による当該現実距離の算出手法には複数存在し得る。この算出手法の例は後述される実施例において説明される。当該現実距離の算出手法は特に制限されない。
The object positional relationship may indicate a relative virtual position of the object with respect to the marker, or may indicate a positional relationship in the real world between the marker and the object. The object position relationship may be stored in advance by the
距離算出部14は、撮像部7とオブジェクトとの現実距離を算出するにあたり、オブジェクトの位置に相当する基準位置を次のように設定することができる。例えば、その基準位置は、オブジェクト内における、重心点、最上位点、最下位点、マーカに最も近い点、マーカから最も遠い点、撮像部7に最も近い点、撮像部7から最も遠い点等、オブジェクト内における任意の位置に設定される。
In calculating the actual distance between the
パラメータ決定部15は、距離算出部14により算出された現実距離を用いて、そのオブジェクトに撮像部のピントを合わせるためのフォーカスパラメータを決定する。具体的には、パラメータ決定部15は、フォーカスパラメータとして、ピント位置を決定する。
但し、パラメータ決定部15は、フォーカスパラメータとして、ピント位置に加えて、被写界深度を調整するための絞り値等を決定することもできる。ピント位置は、撮像部7におけるピント合わせのための構成に応じて、例えば、レンズと撮像素子との間の距離、焦点距離等で表すことができる。パラメータ決定部15によるパラメータ決定手法には周知の手法が利用され得る。The
However, the
設定部16は、パラメータ決定部15により決定されたフォーカスパラメータを撮像部7に設定する。
The setting
〔動作例(撮像制御方法)〕
以下、第一実施形態における撮像制御方法について図3を用いて説明する。第一実施形態における撮像制御方法は、図3に示されるように、ステップS31からステップS36で示される複数の工程を含む。[Operation example (imaging control method)]
Hereinafter, the imaging control method in the first embodiment will be described with reference to FIG. The imaging control method in the first embodiment includes a plurality of steps shown in steps S31 to S36 as shown in FIG.
図3は、第一実施形態における撮像装置10の動作例を示すフローチャートである。以下の説明では、各工程の実行主体は、撮像装置10として説明されるが、各工程は、撮像装置10の一部であるCPU1により実行される。また、各工程は、撮像装置10が有する上述の各処理部の処理内容と同様であるので、各工程の詳細は、適宜省略される。
FIG. 3 is a flowchart illustrating an operation example of the
撮像装置10の画像取得部11は、撮像部7からリアルタイム撮影画像を逐次取得する(ステップS31)。例えば、の画像取得部11は、所定の周期で、リアルタイム撮影画像を順次取得する。
The
撮像装置10のマーカ検出部12は、ステップS31で取得されたリアルタイム撮影画像からマーカを検出する(ステップS32)。ステップS32は、リアルタイム撮影画像が取得される度に実行されてもよいし、リアルタイム撮影画像の取得タイミングとは非同期に所定周期で実行されてもよい。また、撮像装置10は、マーカの検出を試み、リアルタイム撮影画像内でマーカを検出することができない場合には、ステップS33以降を実行しない。
The
撮像装置10の基準算出部13は、ステップS32で検出されたマーカに関する現実情報及び画像情報に基づいて、そのマーカと撮像部7との位置関係を示す撮影位置関係を算出する(ステップS33)。
撮像装置10の距離算出部14は、ステップS33で算出された撮影位置関係、及び、マーカとリアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部7とそのオブジェクトとの現実距離を算出する(ステップS34)。The
The
撮像装置10のパラメータ決定部15は、ステップS34で算出された現実距離を用いて、オブジェクトに撮像部7のピントを合わせるためのフォーカスパラメータを決定する(ステップS35)。
撮像装置10の設定部16は、ステップS35で決定されたフォーカスパラメータを撮像部7に設定する(ステップS36)。撮像装置10は、入力部6により受け付けられたユーザ操作に従って、このようにフォーカスパラメータが設定された撮像部7に対して、静止画像又は動画像の撮像を指示する。The
The setting
〔第一実施形態における作用及び効果〕
上述のように、第一実施形態では、マーカ及びオブジェクトが写るリアルタイム撮影画像が逐次取得され、このリアルタイム撮影画像からマーカが検出され、この検出されたマーカと撮像部7との位置関係等から撮像部7とオブジェクトとの現実距離が算出される。そして、撮像部7とオブジェクトとの現実距離から決定されるフォーカスパラメータが撮像部7に設定される。[Operation and Effect in First Embodiment]
As described above, in the first embodiment, a real-time captured image in which a marker and an object are captured is sequentially acquired, a marker is detected from the real-time captured image, and imaging is performed based on the positional relationship between the detected marker and the
このように、第一実施形態によれば、リアルタイム撮影画像に写るマーカに基づいて、フォーカスパラメータが決定され、撮像部7に設定されるので、既存のコントラストAFと比較して、より早くピント合わせを行うことができる。これは、既存のコントラストAFがレンズを動かしながら画像のコントラストが最も高くなるレンズ位置を試行錯誤的に探し出すのに対して、第一実施形態では、マーカ情報から得られる撮像部7と被写体との現実距離から、適切なフォーカスパラメータを即座に決定することができるからである。
Thus, according to the first embodiment, since the focus parameter is determined and set in the
更に、第一実施形態によれば、撮像部7とオブジェクト(被写体)との現実距離を得るのに、距離センサ等の特別なデバイスを必要としないので、撮像装置10の小型化及び低価格化を実現することができる。
Furthermore, according to the first embodiment, since a special device such as a distance sensor is not required to obtain the actual distance between the
[第二実施形態]
以下、第二実施形態における撮像装置及び撮像制御方法について、上述の第一実施形態と異なる内容を中心に説明し、同一の内容については適宜省略する。
第二実施形態は、上述の多方位撮影に特に有効な形態である。[Second Embodiment]
Hereinafter, the imaging device and the imaging control method in the second embodiment will be described focusing on the contents different from those of the first embodiment described above, and the same contents will be appropriately omitted.
The second embodiment is a particularly effective form for the above-described multidirectional shooting.
〔処理構成〕
図4は、第二実施形態における撮像装置10aの処理構成例を概念的に示す図である。図4に示されるように、第二実施形態における撮像装置10aは、第一実施形態の構成に加えて、画像格納部17、方向算出部18及びキャプチャ指示部19を更に有する。これら処理部17、18及び19についても他の処理部と同様にプログラムが図1に例示した画像装置10が有するハードウェアにおいてCPU1によって実行されることによって実現される。画像格納部17は、メモリ2又は通信部4に接続される可搬型記録媒体内に実現される。[Processing configuration]
FIG. 4 is a diagram conceptually illustrating a processing configuration example of the
方向算出部18は、基準算出部13により算出された撮影位置関係及び上記オブジェクト位置関係を用いて、当該オブジェクトに対する撮像部7の撮影方向を算出する。オブジェクト位置関係は、方向算出部18により予め保持されてもよいし、他の情報を用いて、方向算出部18により算出されてもよい。例えば、方向算出部18は、上記撮影位置関係及び上記オブジェクト位置関係を基に、オブジェクトと撮像部7との位置関係を算出し、この位置関係を用いて、当該撮影方向を算出することができる。但し、当該撮影方向の算出手法は制限されない。
The
画像格納部17は、撮像部7によりキャプチャされた静止画像を、その静止画像をキャプチャする際に方向算出部18により算出されていた撮像部7の撮影方向に対応する方向情報と関連付けて格納する。静止画像と関連付けられる方向情報には、方向算出部18により算出される撮像部7の撮影方向がそのまま利用されてもよいし、その撮影方向から得られる方向情報が利用されてもよい。例えば、方向情報は、前方、右側方、左側方、後方及び上方のいずれか1つを示す情報であってもよい。
The
図5は、静止画像と方向情報との対応関係の例を示す図である。図5で、方向情報が、水平方向と垂直方向との2軸の座標空間に並べられて表記されている。方向情報における水平方向は、オブジェクトが置かれている平面を形成する一つの軸方向に相当する。垂直方向は、その平面に直行する一つの軸方向に相当する。 FIG. 5 is a diagram illustrating an example of a correspondence relationship between a still image and direction information. In FIG. 5, the direction information is represented by being arranged in a two-axis coordinate space of a horizontal direction and a vertical direction. The horizontal direction in the direction information corresponds to one axial direction that forms a plane on which the object is placed. The vertical direction corresponds to one axial direction perpendicular to the plane.
図5の例では、静止画像と関連付けられる方向情報は、オブジェクトの基準点を中心点とする球をオブジェクトが置かれている基準平面で切断した半球の球面上における垂直方向線Lvと水平方向線Lhとで囲まれた領域Rを識別する情報として示される。垂直方向線Lvは、その半球の球面と、基準平面に垂直でかつ中心点を通る所定角度間隔で設けられる複数平面との交線であり、水平方向線Lhは、その半球の球面と、基準平面に並行でかつその基準平面に垂直な方向に所定間隔で設けられる複数平面との交線である。垂直方向線Lvを決める所定角度間隔及び水平方向線Lhを決める所定間隔は、任意に決められ得る。 In the example of FIG. 5, the direction information associated with the still image includes the vertical direction line Lv and the horizontal direction line on the spherical surface of the hemisphere obtained by cutting a sphere centered on the reference point of the object along the reference plane on which the object is placed. It is shown as information for identifying the region R surrounded by Lh. The vertical direction line Lv is an intersection line of the spherical surface of the hemisphere and a plurality of planes provided at a predetermined angle interval perpendicular to the reference plane and passing through the center point, and the horizontal direction line Lh is the reference line of the hemisphere and the reference plane. These are intersection lines with a plurality of planes provided at predetermined intervals in a direction parallel to the plane and perpendicular to the reference plane. The predetermined angular interval for determining the vertical line Lv and the predetermined interval for determining the horizontal line Lh can be arbitrarily determined.
画像取得部11は、撮像部7によりキャプチャされた静止画像を取得し、その静止画像を、キャプチャ時に算出されていた撮像部7の撮影方向に対応する方向情報と関連付けて画像格納部17に格納する。画像取得部11は、方向算出部18により算出された撮影方向をそのまま方向情報とすることもできるし、その撮影方向を基に方向情報を生成することもできる。例えば、方向情報が、前方、右側方、左側方、後方及び上方のいずれか1つを示す場合、画像取得部11は、方向算出部18により算出された撮影方向が前方、右側方、左側方、後方及び上方のどれに属するかを判定し、いずれか1つの方向を示す方向情報を生成する。また、方向情報が、上述のように領域Rの識別情報である場合には、画像取得部11は、当該撮影方向が属する領域Rを特定し、その特定された領域Rの識別情報を方向情報とする。
The
キャプチャ指示部19は、方向算出部18により算出された撮像部7の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、その判定結果に基づいて、撮像部7に静止画像のキャプチャを指示する。言い換えれば、キャプチャ指示部19は、画像格納部17に未だ格納されていない撮影方向からの静止画像が得られるように、キャプチャを指示し、方向算出部18により算出された撮影方向が、既に静止画像が格納されている撮影方向となる場合には、キャプチャを指示しない。例えば、キャプチャ指示部19は、新たに方向算出部18により算出された撮像部7の撮影方向と画像格納部17に既に格納されている静止画像と関連付けられている方向情報との関係を基に、キャプチャを指示するか否かを判定することができる。撮像部7は、キャプチャ指示部19からの指示を受け、そのとき設定されているフォーカスパラメータを用いて、静止画像をキャプチャする。
The
〔動作例(撮像制御方法)〕
以下、第二実施形態における撮像制御方法について図6を用いて説明する。第二実施形態における撮像制御方法は、図6に示されるように、ステップS51からステップS58で示される複数の工程を含む。第二実施形態における撮像制御方法は、図3に示される第一実施形態における撮像制御方法と同期して又は非同期に実行される。[Operation example (imaging control method)]
Hereinafter, the imaging control method in the second embodiment will be described with reference to FIG. The imaging control method in the second embodiment includes a plurality of steps shown in steps S51 to S58 as shown in FIG. The imaging control method in the second embodiment is executed synchronously or asynchronously with the imaging control method in the first embodiment shown in FIG.
図6は、第二実施形態における撮像装置10の動作例を示すフローチャートである。以下の説明では、各工程の実行主体は、撮像装置10として説明されるが、各工程は、撮像装置10の一部であるCPU1により実行される。また、各工程は、撮像装置10が有する上述された各処理部の処理内容と同様であるので、各工程の詳細は、適宜省略される。
FIG. 6 is a flowchart illustrating an operation example of the
撮像装置10aは、図3に示されるステップS33で算出される撮影位置関係、及び、マーカとオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、オブジェクトに対する撮像部7の撮影方向を算出する(ステップS51)。
The
撮像装置10aは、画像格納部17に格納されている静止画像がない場合(ステップS52;NO)、ステップS56を実行する。一方で、撮像装置10は、画像格納部17に格納されている静止画像が存在する場合(S52;YES)、ステップS51で算出された撮像部7の撮影方向と画像格納部17に格納されている静止画像と関連付けられている方向情報との関係を基に、キャプチャを指示するか否かを判定する(ステップS53)。言い換えれば、ステップS53において、撮像装置10aは、ステップS51で算出された撮影方向からの静止画像が画像格納部17に既に格納されているか否かを判定する。ここで、キャプチャを指示するか否かを判定する際、撮像装置10aは、画像格納部17に格納されている静止画像が存在するか否かではなく、既に格納されている画像と新しく取得された画像を比較し、より良い状態と判断された場合には上書きするようキャプチャ指示をしてもよい。
If there is no still image stored in the image storage unit 17 (step S52; NO), the
撮像装置10aは、キャプチャを指示しないと決定した場合(ステップS55;NO)、キャプチャを指示せず、処理を終える。これは、ステップS51で算出された撮影方向からの静止画像が、画像格納部17に既に格納されているからである。
一方、撮像装置10aは、キャプチャを指示すると決定した場合(ステップS55;YES)、撮像部7に静止画像のキャプチャを指示する(ステップS56)。これは、ステップS51で算出された撮影方向からの静止画像が画像格納部17に未だ格納されていないからである。この指示により、撮像部7は、図3に示されるステップS36で設定されているフォーカスパラメータを用いて撮像された静止画像をキャプチャする。If the
On the other hand, when the
撮像装置10aは、キャプチャされた静止画像を撮像部7から取得する(ステップS57)。
撮像装置10aは、ステップS57で取得された静止画像を、ステップS51で算出された撮像部7の撮影方向と関連付けて画像格納部17に格納する(ステップS58)。The
The
ステップS51は、ステップS33で撮影位置関係が算出される度に実行されてもよいし、図3に示されるフローとは非同期に実行されてもよい。非同期に実行される場合、例えば、撮像装置10aは、入力部6により所定のユーザ操作(ハードウェア又はソフトウェアから成るボタンの押下操作、タッチ操作、ジェスチャ操作、音声操作等)が検出されたことを契機に、ステップS51を実行することができる。また、ステップS51は、図3に示されるフローにおいてステップS33の後に実行され、図6に示されるフローからは削除されてもよい。この場合には、第二実施形態における撮像制御方法は、ステップS52から実行される。
Step S51 may be executed every time the photographing positional relationship is calculated in step S33, or may be executed asynchronously with the flow shown in FIG. When executed asynchronously, for example, the
〔第二実施形態における作用及び効果〕
第二実施形態では、リアルタイム撮影画像に写るオブジェクトに対する撮像部7の撮影方向が算出され、画像格納部17に格納されている静止画像と関連付けられている方向情報と算出された撮影方向との関係を基に、静止画像のキャプチャを指示するか否かが判定される。[Operation and Effect in Second Embodiment]
In the second embodiment, the shooting direction of the
これにより、第二実施形態によれば、現在の撮影方向からの静止画像が未だ格納できていない場合に静止画像をキャプチャすることができ、結果として、同じ方向からの静止画像が重複して取得されることを避けることができる。また、既に格納されている画像と新しく取得された画像を比較し、より良い状態と判断された場合には上書きでキャプチャすることができ、結果として、より品質が良い静止画像を得ることができる。従って、第二実施形態によれば、ユーザに多方位撮影を効率よく行わせることができる。 Thereby, according to the second embodiment, still images can be captured when still images from the current shooting direction have not yet been stored. As a result, duplicate still images from the same direction are acquired. Can be avoided. In addition, the image stored in advance is compared with the newly acquired image, and if it is determined to be in a better state, it can be captured by overwriting, and as a result, a still image with better quality can be obtained. . Therefore, according to the second embodiment, the user can efficiently perform multidirectional shooting.
[第一実施形態の変形例(第一変形例)]
図7は、第一変形例における撮像装置10bの処理構成例を概念的に示す図である。図7に示されるように、上述の第一実施形態における撮像装置10bは、設定部16により設定されたフォーカスパラメータを用いた静止画像又は動画像のキャプチャを撮像部7へ指示するキャプチャ指示部19を更に有してもよい。この場合、キャプチャ指示部19は、設定部16によりフォーカスパラメータが撮像部7に設定された直後に、キャプチャを撮像部7に指示してもよい。また、設定部16及びキャプチャ指示部19が統一化された処理部が、パラメータ決定部15により決定されたフォーカスパラメータを指定して、撮像部7に静止画像又は動画像のキャプチャを指示するようにしてもよい。[Modification of First Embodiment (First Modification)]
FIG. 7 is a diagram conceptually illustrating a processing configuration example of the
[第二実施形態の変形例(第二変形例)]
上述の第二実施形態では、静止画像に対するキャプチャ指示をするか否かが、画像格納部17に格納される静止画像に関連付けられた方向情報と、現在の撮影方向との比較により判定される。しかしながら、例えば、撮影すべき所定方向が、前方、側方及び後方のように広い範囲で決められている場合には、撮影者にとって、同じ方向からの静止画像が重複して撮影されるのを防ぐのはある程度容易である。よって、このような場合、キャプチャ指示部19は、その比較をせず、方向算出部18により算出された撮像部7の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定することもできる。例えば、キャプチャ指示部19は、撮影すべき所定方向を予め保持しており、方向算出部18により算出された撮影方向がその所定方向となった場合に、静止画像のキャプチャの指示を決定する。この場合には、撮像装置10bは、画像格納部17を有していなくてもよい。[Modification of Second Embodiment (Second Modification)]
In the second embodiment described above, whether or not to instruct capture of a still image is determined by comparing the direction information associated with the still image stored in the
[各実施形態の変形例(第三変形例)]
図8は、第三変形例における撮像装置10cの処理構成例を概念的に示す図である。上述の各実施形態における撮像装置10cは、撮像部7にオートフォーカスの停止を指示する停止指示部21を更に有してもよい。なお、図8は、第一実施形態における撮像装置10cが停止指示部21を有する例を示す。停止指示部21についても他の処理部と同様に実現される。[Modification of each embodiment (third modification)]
FIG. 8 is a diagram conceptually illustrating a processing configuration example of the
ほとんどの撮像部7がオートフォーカス機能を有し、ほとんどの場合、撮像部7はオートフォーカスが動作するように設定されている。そこで、停止指示部21がそのオートフォーカスの停止を撮像部7に指示し、別途、上述の各実施形態に示されるように設定されたフォーカスパラメータを用いて、撮像部7が静止画像又は動画像を撮像する。これにより、設定されたフォーカスパラメータがオートフォーカス機能により変更されることを防ぐことができる。この場合、マーカ検出部12は、オートフォーカスが停止されるのを待って、処理を実行するようにしてもよい。同様に、上述の各実施形態における撮像制御方法は、オートフォーカスが停止された後、実行されてもよい。
(実施例)
以下に実施例を挙げ、上述の実施形態を更に詳細に説明する。上述の各実施形態によってフォーカスパラメータが一度も撮像部7に設定されていない初期状況で、撮像部7から取得されるリアルタイム撮影画像では、マーカに適切にピントが合っていない可能性がある。しかしながら、マーカは、参照方向によらず或る基準点及びその基準点からの相互に直交する3つの方向を一定に得ることができる程度に、リアルタイム撮影画像に写っていればよい。よって、上述のような初期状況でも、上述の各実施形態は適切に実現され得る。但し、撮像部7がオートフォーカス機能を持つ場合、当該初期状況において、リアルタイム撮影画像からマーカが適切に検出されるまでは、オートフォーカスを停止させないようにすることもできる。この場合、撮像装置10は、リアルタイム撮影画像からマーカが適切に検出されるか否かを判定し、適切に検出された場合のみ、オートフォーカスを停止させ、上述のような処理を実行する。(Example)
Examples will be given below to describe the above-described embodiment in more detail. There is a possibility that the marker is not properly focused on the real-time captured image acquired from the
一方、適切なフォーカスパラメータが一度でも撮像部7に設定されれば、多方位撮影において撮影方向が変更されたとしても、リアルタイム撮影画像に写るマーカに対するピントが大幅にずれることは少ない。よって、多方位撮影で撮影方向が変更されたとしても、マーカは適切に検出され、上述の各実施形態は適切に動作することができる。但し、撮影者の移動が大きく、マーカが適切に検出することができなくなってしまった場合には、マーカが適切に検出されるまで、オートフォーカスを再稼働させるようにすることもできる。
On the other hand, if an appropriate focus parameter is set even once in the
そこで、以下の実施例では、特に、撮像部7とオブジェクトとの現実距離を計算する手法の具体例を挙げる。以下には、上述の内容と異なる内容を中心に説明し、上述と同内容については適宜省略する。
Therefore, in the following embodiment, a specific example of a method for calculating the actual distance between the
図9は、実施例における撮像装置10dの処理構成例を概念的に示す図である。図9に示されるように、実施例における撮像装置10dは、情報取得部31を更に有する。情報取得部31についても他の処理部と同様に実現される。図9は、本実施例が上述の第一実施形態に適用された例を示すが、本実施例は、上述のいずれの実施形態及び変形例にも適用可能である。
FIG. 9 is a diagram conceptually illustrating a processing configuration example of the
情報取得部31は、マーカとオブジェクトとの現実位置関係を示す情報を取得する。この情報は、表示部5に表示される入力画面に対するユーザの入力操作が入力部6により検出されることで得られてもよいし、予めメモリ2に保持されそのメモリ2から取得されてもよいし、可搬型記録媒体、他のコンピュータ等から通信部4を経由して取得されてもよい。
The
この現実位置関係は、現実世界におけるマーカとオブジェクトとの位置関係を意味する。例えば、この現実位置関係は、マーカ及びオブジェクトが置かれる同一平面上での、マーカとオブジェクトとの現実の位置関係を示す二次元情報として示される。また、この現実位置関係は、更に、オブジェクトの現実高さが加味された三次元情報として示されることもできる。 This real positional relationship means the positional relationship between the marker and the object in the real world. For example, the actual positional relationship is shown as two-dimensional information indicating the actual positional relationship between the marker and the object on the same plane where the marker and the object are placed. Further, this actual positional relationship can be further indicated as three-dimensional information that takes into account the actual height of the object.
図10及び図11は、ARマーカ8(以下、マーカとも記載する)とオブジェクト9との現実位置関係の例を示す図である。
図10に示す例では、ARマーカ8の上辺SPの中心点から、上辺SPに垂直な方向に伸びる所定距離LRに、オブジェクト9の基準点PBが位置する(配置される)ように、オブジェクト9が置かれ、情報取得部31は、このようなマーカ8とオブジェクト9との現実位置関係を示す情報を現実位置情報として取得する。
図11は、オブジェクト9を上方から見た図である。図11の例では、マーカ8が6つの方形の部分マークM1からM6から形成されており、オブジェクト9は、マークM1の中心点SM1とマークM2の中心点SM2とを結ぶ線LRの中心点に、オブジェクト9の中心SCが位置するように、置かれる。FIG. 10 and FIG. 11 are diagrams showing examples of the actual position relationship between the AR marker 8 (hereinafter also referred to as a marker) and the object 9.
In the example shown in FIG. 10, from the center point of the upper side S P
FIG. 11 is a view of the object 9 as viewed from above. In the example of FIG. 11, the
基準算出部13は、マーカ検出部12により検出されたマーカ8に関する現実情報及び画像情報に基づいて、三次元仮想空間を設定し、この三次元仮想空間におけるそのマーカ8及び撮像部7の仮想位置、及び、マーカ8と撮像部7との現実距離を算出する。基準算出部13は、検出されたマーカ8から認識される基準点に応じた位置にその三次元仮想空間を設定する。マーカ8に関する現実世界の形状及び大きさの情報(現実情報)と、そのマーカ8に関するリアルタイム撮影画像内での形状及び大きさの情報とから、或る基準点及びその基準点からの相互に直交する3つの方向は、一定に得ることができる。このように得られる基準点及び3つの方向に基づいて、三次元仮想空間は設定され、その三次元仮想空間におけるマーカ8の仮想位置は決定され得る。但し、マーカ8から認識されるその基準点に対する三次元仮想空間の設定位置については、特に制限されない。更に、それら情報から、その三次元仮想空間における撮像部7の仮想位置、及び、撮像部7とマーカ8との現実距離も算出され得る。
The
距離算出部14は、情報取得部31により取得された情報により示されるマーカ8とオブジェクト9との現実位置関係、及び、基準算出部13により決定されたマーカ8の仮想位置に基づいて、その三次元仮想空間におけるオブジェクト9の仮想位置を算出する。情報取得部31により取得された情報が上述のような二次元情報である場合、距離算出部14は、オブジェクト9が置かれた平面上の或る1点の位置をオブジェクト9の仮想位置として算出する。また、その情報が三次元情報である場合には、距離算出部14は、オブジェクト9の高さ方向を加味した三次元位置をオブジェクト9の仮想位置として算出する。例えば、情報取得部31がオブジェクト9の現実高さを示す情報を取得する場合、距離算出部14は、オブジェクト9の現実高さを用いて、高さ方向の仮想位置を算出し、結果として、オブジェクト9の三次元位置を決定することができる。オブジェクト9の最高位の点がオブジェクト9の仮想位置として算出されてもよい。
The
距離算出部14は、基準算出部13により算出されたマーカ8と撮像部7との現実距離及び撮像部7の仮想位置、並びに、算出されたオブジェクト9の仮想位置を用いて、撮像部7とオブジェクト9との現実距離を算出する。
The
撮像部7とオブジェクトとの現実距離の計算は他の手法でも算出され得る。例えば、方向算出部18により算出される、オブジェクトに対する撮像部7の撮影方向を更に用いて、撮像部7とオブジェクトとの現実距離が算出されてもよい。また、距離算出部14は、リアルタイム撮影画像からオブジェクトの少なくとも一部を認識し、その認識された箇所に基づいて、三次元仮想空間におけるオブジェクトの仮想位置を算出することもできる。
リアルタイム撮影画像からオブジェクトの少なくとも一部の認識は、そのオブジェクトが有する所定の色及び所定の形状の少なくとも一方を用いた一般的な画像認識技術により行うことができる。この場合、撮像装置10は情報取得部31を持たなくてもよく、マーカとオブジェクトとの現実位置関係を示す情報は用いられなくてもよい。The calculation of the actual distance between the
Recognition of at least a part of an object from a real-time captured image can be performed by a general image recognition technique using at least one of a predetermined color and a predetermined shape of the object. In this case, the
撮像装置10は、撮像部7から取得されるリアルタイム撮影画像を、図12に示されるように、表示部5に表示させることもできる。
図12は、リアルタイム撮影画像の表示例を示す図である。図12の例によれば、表示部5には、オブジェクト9及びARマーカ8が写るリアルタイム撮影画像が表示され、更に、その一部に多方位撮影の撮影状況を示すインジケータIが重畳表示される。この場合、撮像装置10は、画像格納部17に格納されている静止画像に関連付けられた方向情報から、撮影済みの撮影方向DR及び未撮影の撮影方向DNを決定し、方向算出部18により算出される撮像部7の現在の撮影方向DWを取得する。撮像装置10は、図12に示されるように、これら各種の撮影方向DR、DN及びDWを区別可能なインジケータ画面要素を生成する。このインジケータによれば、撮影者は、多方位撮影の撮影状況を把握し易くなるので、この表示により、撮影者に、多方位撮影を効率的に実施させることができる。The
FIG. 12 is a diagram illustrating a display example of a real-time captured image. According to the example of FIG. 12, the display unit 5 displays a real-time captured image in which the object 9 and the
なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、記載された順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障がない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態及び実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。In addition, in the some flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the described order. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents. Moreover, each above-mentioned embodiment and each modification can be combined in the range with which the content does not conflict.
Although the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
上記の各実施形態及び各変形例の一部又は全部は、以下に示す付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。 A part or all of each of the above embodiments and modifications may be specified as in the following supplementary notes. However, each embodiment and each modification are not limited to the following description.
(付記1) 撮像部からリアルタイム撮影画像を逐次取得する画像取得手段と、
前記画像取得手段により取得されるリアルタイム撮影画像からマーカを検出するマーカ検出手段と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出する基準算出手段と、
前記算出された撮影位置関係、及び、前記マーカと前記リアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出する距離算出手段と、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定するパラメータ決定手段と、
前記フォーカスパラメータを前記撮像部に設定する設定手段と、
を備える撮像制御装置。
(付記2) 前記撮影位置関係及び前記オブジェクト位置関係を用いて、前記オブジェクトに対する前記撮像部の撮影方向を算出する方向算出手段と、
前記方向算出手段により算出された前記撮像部の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、該判定結果に基づいて、前記撮像部に静止画像のキャプチャを指示するキャプチャ指示手段と、
を更に備える付記1に記載の撮像制御装置。
(付記3) 前記画像取得手段は、前記撮像部によりキャプチャされた静止画像を、キャプチャ時に算出されていた前記撮像部の撮影方向に対応する方向情報と関連付けて画像格納部に格納し、
前記キャプチャ指示手段は、前記方向算出手段により算出された前記撮像部の撮影方向と前記画像格納部に格納されている静止画像と関連付けられている前記方向情報との関係から、前記キャプチャを指示するか否かを判定する、
付記2に記載の撮像制御装置。
(付記4) 前記設定手段により設定された前記フォーカスパラメータを用いた静止画像又は動画像のキャプチャを前記撮像部へ指示するキャプチャ指示手段、
を更に備える付記1から3のいずれか1つに記載の撮像制御装置。
(付記5) 前記撮像部にオートフォーカスの停止を指示する停止指示手段、
を更に備える付記1から4のいずれか1つに記載に撮像制御装置。
(付記6) 前記マーカと前記オブジェクトとの現実位置関係を示す情報を取得する情報取得手段、
を更に備え、
前記基準算出手段は、前記マーカに関する現実情報及び画像情報に基づいて、三次元仮想空間を設定し、該三次元仮想空間における前記マーカ及び前記撮像部の仮想位置、及び、前記マーカと前記撮像部との現実距離を算出し、
前記距離算出手段は、前記マーカと前記オブジェクトとの現実位置関係、及び、前記マーカの仮想位置に基づいて、前記三次元仮想空間における前記オブジェクトの仮想位置を算出し、前記マーカと前記撮像部との現実距離、前記撮像部の仮想位置及び前記オブジェクトの仮想位置を用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記1から5のいずれか1つに記載の撮像制御装置。
(付記7) 前記オブジェクトの現実高さ情報を取得する情報取得手段、
を更に備え、
前記距離算出手段は、前記オブジェクトの現実高さを更に用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記1から6のいずれか1つに記載の撮像制御装置。
(付記8) 撮像部からリアルタイム撮影画像を逐次取得し、
前記取得されたリアルタイム撮影画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出し、
前記算出された撮影位置関係、及び、前記マーカと前記リアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出し、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定し、
前記フォーカスパラメータを前記撮像部に設定する、
ことを含む撮像制御方法。
(付記9) 前記撮影位置関係及び前記オブジェクト位置関係を用いて、前記オブジェクトに対する前記撮像部の撮影方向を算出し、
前記算出された撮像部の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、
前記判定結果に基づいて、前記撮像部に静止画像のキャプチャを指示する、
ことを更に含む付記8に記載の撮像制御方法。
(付記10) 前記撮像部によりキャプチャされた静止画像を、キャプチャ時に算出されていた前記撮像部の撮影方向に対応する方向情報と関連付けて画像格納部に格納する、
ことを更に含み、
前記判定は、前記算出された撮像部の撮影方向と前記画像格納部に格納されている静止画像と関連付けられている前記方向情報との関係から、前記キャプチャを指示するか否かを判定する、
付記9に記載の撮像制御方法。
(付記11) 前記設定されたフォーカスパラメータを用いた静止画像又は動画像のキャプチャを前記撮像部へ指示する、
ことを更に含む付記8から10のいずれか1つに記載の撮像制御方法。
(付記12) 前記撮像部にオートフォーカスの停止を指示する、
ことを更に含む付記8から11のいずれか1つに記載に撮像制御方法。
(付記13) 前記マーカと前記オブジェクトとの現実位置関係を示す情報を取得し、
前記マーカに関する現実情報及び画像情報に基づいて、三次元仮想空間を設定する、
ことを更に含み、
前記撮影位置関係の算出は、前記三次元仮想空間における前記マーカ及び前記撮像部の仮想位置、及び、前記マーカと前記撮像部との現実距離を算出し、
前記撮像部と前記オブジェクトとの現実距離の算出は、
前記マーカと前記オブジェクトとの現実位置関係、及び、前記マーカの仮想位置に基づいて、前記三次元仮想空間における前記オブジェクトの仮想位置を算出することを含み、
前記マーカと前記撮像部との現実距離、前記撮像部の仮想位置及び前記オブジェクトの仮想位置を用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記8から12のいずれか1つに記載の撮像制御方法。
(付記14) 前記オブジェクトの現実高さ情報を取得する、
ことを更に含み、
前記撮像部と前記オブジェクトとの現実距離の算出は、前記オブジェクトの現実高さを更に用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記8から13のいずれか1つに記載の撮像制御方法。
(付記15)付記8から14のいずれか1つに記載の撮像制御方法を撮像部を有するコンピュータに実行させるプログラムを格納する記録媒体。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は2014年3月20日に出願された日本出願特願2014−057774を基礎とする優先権を主張し、その開示の全てをここに取り込む。
(Appendix 1) Image acquisition means for sequentially acquiring real-time captured images from the imaging unit;
Marker detection means for detecting a marker from a real-time captured image acquired by the image acquisition means;
Reference calculation means for calculating a photographing positional relationship indicating a positional relationship between the marker and the imaging unit based on the actual information and the image information regarding the detected marker;
Distance calculating means for calculating an actual distance between the imaging unit and the object by using the calculated imaging position relationship and an object positional relationship indicating a positional relationship between the marker and the object captured in the real-time captured image; ,
Parameter determining means for determining a focus parameter for focusing the imaging unit on the object using the calculated actual distance;
Setting means for setting the focus parameter in the imaging unit;
An imaging control apparatus comprising:
(Additional remark 2) The direction calculation means which calculates the imaging | photography direction of the said imaging part with respect to the said object using the said imaging | photography positional relationship and the said object positional relationship;
Whether to instruct to capture a still image is determined according to the shooting direction of the imaging unit calculated by the direction calculation unit, and based on the determination result, the imaging unit is instructed to capture a still image. Capture instruction means;
The imaging control apparatus according to appendix 1, further comprising:
(Supplementary Note 3) The image acquisition unit stores the still image captured by the imaging unit in an image storage unit in association with direction information corresponding to the shooting direction of the imaging unit that was calculated at the time of capture,
The capture instruction unit instructs the capture from a relationship between a shooting direction of the imaging unit calculated by the direction calculation unit and the direction information associated with the still image stored in the image storage unit. Whether or not
The imaging control device according to
(Supplementary Note 4) Capture instruction means for instructing the imaging unit to capture a still image or a moving image using the focus parameter set by the setting means,
The imaging control apparatus according to any one of appendices 1 to 3, further comprising:
(Supplementary Note 5) Stop instruction means for instructing the imaging unit to stop autofocus,
The imaging control device according to any one of appendices 1 to 4, further comprising:
(Supplementary Note 6) Information acquisition means for acquiring information indicating the actual positional relationship between the marker and the object;
Further comprising
The reference calculating unit sets a three-dimensional virtual space based on the real information and image information related to the marker, the marker and the virtual position of the imaging unit in the three-dimensional virtual space, and the marker and the imaging unit And calculate the actual distance from
The distance calculating means calculates a virtual position of the object in the three-dimensional virtual space based on a real positional relationship between the marker and the object and a virtual position of the marker, and the marker, the imaging unit, Using the real distance, the virtual position of the imaging unit, and the virtual position of the object, the real distance between the imaging unit and the object is calculated.
The imaging control device according to any one of appendices 1 to 5.
(Supplementary note 7) Information acquisition means for acquiring the actual height information of the object,
Further comprising
The distance calculating means further uses the actual height of the object to calculate the actual distance between the imaging unit and the object.
The imaging control device according to any one of appendices 1 to 6.
(Supplementary Note 8) Real-time captured images are sequentially acquired from the imaging unit,
A marker is detected from the acquired real-time captured image,
Based on the actual information and image information regarding the detected marker, calculate a shooting positional relationship indicating the positional relationship between the marker and the imaging unit,
Using the calculated positional relationship of the image and the object positional relationship indicating the positional relationship between the marker and the object captured in the real-time captured image, the actual distance between the imaging unit and the object is calculated,
Using the calculated actual distance, determine a focus parameter for focusing the imaging unit on the object,
Setting the focus parameter in the imaging unit;
An imaging control method.
(Additional remark 9) Using the said imaging | photography positional relationship and the said object positional relationship, the imaging | photography direction of the said imaging part with respect to the said object is calculated,
According to the calculated shooting direction of the imaging unit, determine whether to instruct to capture a still image,
Instructing the imaging unit to capture a still image based on the determination result,
The imaging control method according to
(Supplementary Note 10) The still image captured by the imaging unit is stored in the image storage unit in association with the direction information corresponding to the shooting direction of the imaging unit calculated at the time of capture.
Further including
The determination is based on a relationship between the calculated shooting direction of the imaging unit and the direction information associated with the still image stored in the image storage unit, and determines whether to instruct the capture.
The imaging control method according to appendix 9.
(Supplementary Note 11) Instructing the imaging unit to capture a still image or a moving image using the set focus parameter.
The imaging control method according to any one of
(Supplementary Note 12) Instructing the imaging unit to stop autofocus,
The imaging control method according to any one of
(Supplementary Note 13) Obtaining information indicating the actual positional relationship between the marker and the object,
Based on the real information and image information regarding the marker, a three-dimensional virtual space is set.
Further including
The calculation of the shooting position relationship is to calculate the virtual position of the marker and the imaging unit in the three-dimensional virtual space, and the actual distance between the marker and the imaging unit,
The calculation of the actual distance between the imaging unit and the object is as follows:
Calculating a virtual position of the object in the three-dimensional virtual space based on a real position relationship between the marker and the object, and a virtual position of the marker;
Using the actual distance between the marker and the imaging unit, the virtual position of the imaging unit, and the virtual position of the object, the actual distance between the imaging unit and the object is calculated.
The imaging control method according to any one of
(Supplementary Note 14) Obtaining the actual height information of the object,
Further including
The calculation of the actual distance between the imaging unit and the object further uses the actual height of the object to calculate the actual distance between the imaging unit and the object.
The imaging control method according to any one of
(Supplementary note 15) A recording medium for storing a program that causes a computer having an imaging unit to execute the imaging control method according to any one of
The present invention has been described above using the above-described embodiment as an exemplary example. However, the present invention is not limited to the above-described embodiment. That is, the present invention can apply various modes that can be understood by those skilled in the art within the scope of the present invention.
This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2014-057774 for which it applied on March 20, 2014, and takes in those the indications of all here.
1 CPU
2 メモリ
4 通信部
5 表示部
6 入力部
7 撮像部
10 撮像装置
11 画像取得部
12 マーカ検出部
13 基準算出部
14 距離算出部
15 パラメータ決定部
16 設定部
17 画像格納部
18 方向算出部
19 キャプチャ指示部
21 停止指示部
31 情報取得部1 CPU
2 Memory 4 Communication unit 5 Display unit 6
Claims (9)
前記画像取得手段により取得される撮影画像からマーカを検出するマーカ検出手段と、
前記検出されたマーカに関する情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出する基準算出手段と、
前記算出された撮影位置関係、及び、前記マーカと前記撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出する距離算出手段と、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定するパラメータ決定手段と、
決定された前記フォーカスパラメータを前記撮像部に設定し、ピントを調節する設定手段と、
を備える撮像制御装置。
An image obtaining unit for obtaining the shadow image shooting from the imaging unit,
A marker detection means for detecting a marker from the shooting image acquired by the image acquisition unit,
Reference calculation means for calculating a photographing positional relationship indicating a positional relationship between the marker and the imaging unit based on the information on the detected marker;
Distance calculation means for calculating the actual distance between the imaging unit and the object using the calculated shooting position relationship and the object position relationship indicating the positional relationship between the marker and the object captured in the captured image;
Parameter determining means for determining a focus parameter for focusing the imaging unit on the object using the calculated actual distance;
Setting means for setting the determined focus parameter in the imaging unit and adjusting a focus;
An imaging control apparatus comprising:
前記方向算出手段により算出された前記撮像部の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、該判定結果に基づいて、前記撮像部に静止画像のキャプチャを指示するキャプチャ指示手段と、
を更に備える請求項1に記載の撮像制御装置。Direction calculating means for calculating a shooting direction of the imaging unit with respect to the object using the shooting position relationship and the object position relationship;
Whether to instruct to capture a still image is determined according to the shooting direction of the imaging unit calculated by the direction calculation unit, and based on the determination result, the imaging unit is instructed to capture a still image. Capture instruction means;
The imaging control apparatus according to claim 1, further comprising:
前記キャプチャ指示手段は、前記方向算出手段により算出された前記撮像部の撮影方向と前記画像格納部に格納されている静止画像と関連付けられている前記方向情報との関係から、前記キャプチャを指示するか否かを判定する、
請求項2に記載の撮像制御装置。The image acquisition means stores the still image captured by the imaging unit in an image storage unit in association with direction information corresponding to the shooting direction of the imaging unit that was calculated at the time of capture,
The capture instruction unit instructs the capture from a relationship between a shooting direction of the imaging unit calculated by the direction calculation unit and the direction information associated with the still image stored in the image storage unit. Whether or not
The imaging control apparatus according to claim 2.
を更に備える請求項1から3のいずれか1項に記載の撮像制御装置。Capture instruction means for instructing the imaging unit to capture a still image or a moving image using the focus parameter set by the setting means;
The imaging control apparatus according to any one of claims 1 to 3, further comprising:
を更に備える請求項1から4のいずれか1項に記載に撮像制御装置。Stop instruction means for instructing the imaging unit to stop autofocus;
The imaging control apparatus according to any one of claims 1 to 4, further comprising:
前記基準算出手段は、前記マーカに関する情報に基づいて、三次元仮想空間を設定し、該三次元仮想空間における前記マーカ及び前記撮像部の仮想位置、及び、前記マーカと前記撮像部との現実距離を算出し、
前記距離算出手段は、前記マーカと前記オブジェクトとの現実位置関係、及び、前記マーカの仮想位置に基づいて、前記三次元仮想空間における前記オブジェクトの仮想位置を算出し、前記マーカと前記撮像部との現実距離、前記撮像部の仮想位置及び前記オブジェクトの仮想位置を用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
請求項1から5のいずれか1項に記載の撮像制御装置。Information acquisition means for acquiring information indicating a real positional relationship between the marker and the object;
The reference calculation means sets a three-dimensional virtual space based on the information about the marker, the virtual position of the marker and the imaging unit in the three-dimensional virtual space, and the actual distance between the marker and the imaging unit To calculate
The distance calculating means calculates a virtual position of the object in the three-dimensional virtual space based on a real positional relationship between the marker and the object and a virtual position of the marker, and the marker, the imaging unit, Using the real distance, the virtual position of the imaging unit, and the virtual position of the object, the real distance between the imaging unit and the object is calculated.
The imaging control apparatus according to any one of claims 1 to 5.
を更に備え、
前記距離算出手段は、前記オブジェクトの現実高さを更に用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
請求項1から6のいずれか1項に記載の撮像制御装置。Information acquisition means for acquiring real height information of the object;
Further comprising
The distance calculating means further uses the actual height of the object to calculate the actual distance between the imaging unit and the object.
The imaging control apparatus according to any one of claims 1 to 6.
前記取得された撮影画像からマーカを検出し、
前記検出されたマーカに関する情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出し、
前記算出された撮影位置関係、及び、前記マーカと前記撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出し、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定し、
決定された前記フォーカスパラメータを前記撮像部に設定し、ピントを調節する、
ことを含む撮像制御方法。
Acquire a captured image from the imaging unit,
A marker is detected from the acquired captured image,
Based on the information related to the detected marker, a shooting positional relationship indicating a positional relationship between the marker and the imaging unit is calculated,
The calculated photographing position relationship, and, by using the positional relationship object positional relationship shown of an object caught on the shooting image and the marker, and calculate the actual distance between the imaging unit and the object,
Using the calculated actual distance, determine a focus parameter for focusing the imaging unit on the object,
Set the determined focus parameter in the imaging unit and adjust the focus ;
An imaging control method.
The program which makes a computer perform the imaging control method of Claim 8 .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014057774 | 2014-03-20 | ||
JP2014057774 | 2014-03-20 | ||
PCT/JP2015/001315 WO2015141185A1 (en) | 2014-03-20 | 2015-03-11 | Imaging control device, imaging control method, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015141185A1 JPWO2015141185A1 (en) | 2017-04-06 |
JP6483661B2 true JP6483661B2 (en) | 2019-03-13 |
Family
ID=54144169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016508516A Active JP6483661B2 (en) | 2014-03-20 | 2015-03-11 | Imaging control apparatus, imaging control method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6483661B2 (en) |
WO (1) | WO2015141185A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6522768B2 (en) * | 2015-09-30 | 2019-05-29 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
CN111654688B (en) * | 2020-05-29 | 2022-03-29 | 亮风台(上海)信息科技有限公司 | Method and equipment for acquiring target control parameters |
CN115359048B (en) * | 2022-10-19 | 2023-01-31 | 中国工程物理研究院应用电子学研究所 | Real-time dynamic alignment measurement method based on closed-loop tracking and aiming and tracking and aiming device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175694A (en) * | 2011-02-24 | 2012-09-10 | Kyocera Corp | Electronic apparatus |
JP2012207344A (en) * | 2011-03-30 | 2012-10-25 | Mitsubishi Rayon Co Ltd | Method for producing polyacrylonitrile-based fiber |
JP5776903B2 (en) * | 2012-03-02 | 2015-09-09 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP2013207344A (en) * | 2012-03-27 | 2013-10-07 | Nikon Corp | Detection device, imaging device, and program |
-
2015
- 2015-03-11 JP JP2016508516A patent/JP6483661B2/en active Active
- 2015-03-11 WO PCT/JP2015/001315 patent/WO2015141185A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2015141185A1 (en) | 2015-09-24 |
JPWO2015141185A1 (en) | 2017-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6522708B2 (en) | Preview image display method and apparatus, and terminal | |
WO2018201809A1 (en) | Double cameras-based image processing device and method | |
US10306165B2 (en) | Image generating method and dual-lens device | |
KR102143456B1 (en) | Depth information acquisition method and apparatus, and image collection device | |
JP6157242B2 (en) | Image processing apparatus and image processing method | |
CN108432230B (en) | Imaging device and method for displaying an image of a scene | |
CN110677621B (en) | Camera calling method and device, storage medium and electronic equipment | |
US20120275648A1 (en) | Imaging device and imaging method and program | |
JP6448674B2 (en) | A portable information processing apparatus having a camera function for performing guide display for capturing an image capable of character recognition, a display control method thereof, and a program | |
CN109218606B (en) | Image pickup control apparatus, control method thereof, and computer readable medium | |
KR20130031207A (en) | Image capturing apparatus and control method thereof | |
KR102280000B1 (en) | Display control apparatus, display control method, and storage medium | |
EP3912336B1 (en) | Automatic generation of all-in-focus images with a mobile camera | |
KR20190075654A (en) | Electronic device comprising plurality of cameras and method for operating therepf | |
JP2019129410A (en) | Monitoring camera, control method thereof, and program | |
JP2020053774A (en) | Imaging apparatus and image recording method | |
CN106791456A (en) | A kind of photographic method and electronic equipment | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP2015026880A (en) | Imaging apparatus | |
CN106922181B (en) | Direction-aware autofocus | |
WO2018196854A1 (en) | Photographing method, photographing apparatus and mobile terminal | |
CN105467741A (en) | Panoramic shooting method and terminal | |
JP2016111561A (en) | Information processing device, system, information processing method, and program | |
JP2011193066A (en) | Image sensing device | |
CN115086558B (en) | Focusing method, image pickup apparatus, terminal apparatus, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6483661 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |