JP6483661B2 - Imaging control apparatus, imaging control method, and program - Google Patents

Imaging control apparatus, imaging control method, and program Download PDF

Info

Publication number
JP6483661B2
JP6483661B2 JP2016508516A JP2016508516A JP6483661B2 JP 6483661 B2 JP6483661 B2 JP 6483661B2 JP 2016508516 A JP2016508516 A JP 2016508516A JP 2016508516 A JP2016508516 A JP 2016508516A JP 6483661 B2 JP6483661 B2 JP 6483661B2
Authority
JP
Japan
Prior art keywords
marker
unit
imaging unit
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016508516A
Other languages
Japanese (ja)
Other versions
JPWO2015141185A1 (en
Inventor
英良 松嶋
英良 松嶋
岩元 浩太
浩太 岩元
尚志 野田
尚志 野田
幸司 森下
幸司 森下
克幸 永井
克幸 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Solutions Innovators Ltd
Original Assignee
NEC Corp
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Solutions Innovators Ltd filed Critical NEC Corp
Publication of JPWO2015141185A1 publication Critical patent/JPWO2015141185A1/en
Application granted granted Critical
Publication of JP6483661B2 publication Critical patent/JP6483661B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮像制御技術に関する。   The present invention relates to an imaging control technique.

現在流通している撮像装置のほとんどにオートフォーカス(以下、「AF」と記載)機能が搭載されている。自動でピントを合わせる仕組みであるAFには、コントラスト(明暗差)AF、位相差AF等の手法が存在する。コントラストAFは、レンズと撮像素子(CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等)との間の距離を調節するために、ピント合わせに時間がかかるというデメリットが知られている。一方で、位相差AFについては、小型化及び軽量化が困難というデメリットが知られており、携帯端末に搭載される撮像装置には採用されていないのが現状である。   Most of the imaging devices currently distributed are equipped with an autofocus (hereinafter referred to as “AF”) function. In AF, which is a mechanism for automatically focusing, there are methods such as contrast (light / dark difference) AF and phase difference AF. Contrast AF is known to have a demerit that it takes time to focus in order to adjust the distance between a lens and an imaging device (CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor, etc.)). On the other hand, the phase difference AF is known to have a demerit that it is difficult to reduce the size and weight, and the phase difference AF is not currently used in an imaging device mounted on a portable terminal.

特許文献1は、フォーカスレンズの初期駆動速度をフォーカスレンズの駆動方向、結像光学系の焦点距離、AFスキャン範囲のいずれかに応じて動的に設定することで、焦点検出に要する時間を短縮することが可能な自動焦点検出装置およびその制御方法を提案する。特許文献2は、現実世界に重畳させる三次元コンテンツを現実世界に存在する現実オブジェクトを実写した画像で生成する手法を提案する。   Patent Document 1 reduces the time required for focus detection by dynamically setting the initial drive speed of the focus lens according to any of the focus lens drive direction, the focal length of the imaging optical system, and the AF scan range. An automatic focus detection apparatus and a control method thereof are proposed. Patent Document 2 proposes a method of generating a three-dimensional content to be superimposed on the real world with an image obtained by actually capturing a real object existing in the real world.

特開2014−38291号公報JP 2014-38291 A 国際公開第2011/148595号International Publication No. 2011/148595

しかしながら、特許文献1および特許文献2に記載の方法や、既存の携帯機器に搭載される撮像装置では、コントラストAFのピント合わせの遅さにより、複数枚撮影する場合に時間を要するという問題がある。このような問題は、撮影者が動きながら多数の撮影を行いたい場合に生じ易い。具体的には、次のような撮影場面が例示される。   However, the method described in Patent Document 1 and Patent Document 2 and an imaging device mounted on an existing portable device have a problem that it takes time to shoot a plurality of images due to slow focusing of contrast AF. . Such a problem is likely to occur when the photographer wants to perform a large number of shootings while moving. Specifically, the following shooting scenes are exemplified.

例えば、異なる複数の方向(前方、側方、後方、上方等)から被写体を撮影する場合である。以降、このような撮影方法を多方位撮影と表記する。多方位撮影では、被写体に撮像装置を向けた状態で撮影者が被写体の周りを移動しながら、撮影が行われるので、被写体と撮像装置との間の距離が、撮影者の移動に伴い、変化する。一方で、複数方向から被写体を撮影したいので、撮影者は、複数方向から当該被写体を多数回に亘って撮影することを望む。結果、携帯機器の撮像装置におけるコントラストAFのピント合わせの遅さにより、撮影時間に多くの時間を要する。このような多方位撮影は、被写体の全体像を個人的に第三者に伝えるので、被写体の形状を三次元解析するため等に、行われる。また、特許文献2で提案されるように、拡張現実(Augmented Reality;AR 以下、本願では「AR」と略記)技術で用いる三次元コンテンツを生成するために、このような多方位撮影が行われる場合がある。但し、多方位撮影における撮影方向の数は任意である。   For example, it is a case where the subject is photographed from a plurality of different directions (front, side, rear, upper, etc.). Hereinafter, such a photographing method is referred to as multidirectional photographing. In multidirectional shooting, shooting is performed while the photographer moves around the subject with the imaging device facing the subject, so the distance between the subject and the imaging device changes as the photographer moves. To do. On the other hand, since the photographer wants to photograph a subject from a plurality of directions, the photographer desires to photograph the subject many times from a plurality of directions. As a result, a long time is required for the photographing time due to the slow focusing of the contrast AF in the imaging device of the portable device. Such multi-directional shooting is performed to three-dimensionally analyze the shape of the subject because the entire image of the subject is personally communicated to a third party. Further, as proposed in Patent Document 2, such multi-directional imaging is performed in order to generate three-dimensional content used in augmented reality (AR) (hereinafter referred to as “AR”) technology. There is a case. However, the number of shooting directions in multidirectional shooting is arbitrary.

本発明は、このような事情に鑑みてなされた。本発明は、撮像装置のピント合わせ速度を向上させる撮像制御技術を提供することを主たる目的とする。   The present invention has been made in view of such circumstances. An object of the present invention is to provide an imaging control technique that improves the focusing speed of an imaging apparatus.

本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の側面は、撮像制御装置に関する。第1の側面に係る撮像制御装置は、撮像部から撮影画像を取得する画像取得手段と、この画像取得手段により取得される撮影画像からマーカを検出するマーカ検出手段と、検出されたマーカに関する情報に基づいて、そのマーカと撮像部との位置関係を示す撮影位置関係を算出する基準算出手段と、算出された撮影位置関係、及び、マーカと撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部とオブジェクトとの現実距離を算出する距離算出手段と、算出された現実距離を用いて、オブジェクトに撮像部のピントを合わせるためのフォーカスパラメータを決定するパラメータ決定手段と、このフォーカスパラメータを撮像部に設定する設定手段と、を有する。   The first aspect relates to an imaging control device. An imaging control apparatus according to a first aspect includes an image acquisition unit that acquires a captured image from an imaging unit, a marker detection unit that detects a marker from a captured image acquired by the image acquisition unit, and information about the detected marker Based on the reference calculation means for calculating the shooting positional relationship indicating the positional relationship between the marker and the imaging unit, the calculated shooting positional relationship, and the object position indicating the positional relationship between the marker and the object shown in the shot image Distance calculating means for calculating the actual distance between the imaging unit and the object using the relationship, and parameter determining means for determining a focus parameter for focusing the imaging unit on the object using the calculated actual distance; Setting means for setting the focus parameter in the imaging unit.

第2の側面は、撮像制御方法に関する。第2の側面に係る撮像制御方法は、撮像部から撮影画像を取得し、取得された撮影画像からマーカを検出し、検出されたマーカに関する情報に基づいて、マーカと撮像部との位置関係を示す撮影位置関係を算出し、算出された撮影位置関係、及び、マーカと撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部とオブジェクトとの現実距離を算出し、算出された現実距離を用いて、オブジェクトに撮像部のピントを合わせるためのフォーカスパラメータを決定し、フォーカスパラメータを撮像部に設定する、ことを含む。   The second aspect relates to an imaging control method. The imaging control method according to the second aspect acquires a captured image from an imaging unit, detects a marker from the acquired captured image, and determines the positional relationship between the marker and the imaging unit based on information about the detected marker. And calculating the actual distance between the imaging unit and the object using the calculated shooting position relationship and the object position relationship indicating the positional relationship between the marker and the object shown in the shot image. Using the actual distance thus determined, determining a focus parameter for focusing the imaging unit on the object, and setting the focus parameter in the imaging unit.

なお、本発明の他の側面としては、上記第2の側面の方法を撮像部を有するコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   Another aspect of the present invention may be a program that causes a computer having an imaging unit to execute the method of the second aspect, or a computer-readable recording medium that records such a program. There may be. This recording medium includes a non-transitory tangible medium.

上記各側面によれば、撮像装置のピント合わせ速度を向上させる撮像制御技術を提供することができる。   According to each aspect described above, it is possible to provide an imaging control technique that improves the focusing speed of the imaging apparatus.

本発明の第一実施形態における撮像装置のハードウェア構成を概念的に示す図である。It is a figure which shows notionally the hardware constitutions of the imaging device in 1st embodiment of this invention. 本発明の第一実施形態における撮像装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the imaging device in 1st embodiment of this invention. 本発明の第一実施形態における撮像装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the imaging device in 1st embodiment of this invention. 本発明の第二実施形態における撮像装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the imaging device in 2nd embodiment of this invention. 静止画像と方向情報との対応関係の例を示す図である。It is a figure which shows the example of the correspondence of a still image and direction information. 本発明の第二実施形態における撮像装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the imaging device in 2nd embodiment of this invention. 本発明の第一実施形態における第一変形例における撮像装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the imaging device in the 1st modification in 1st embodiment of this invention. 第三変形例における撮像装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the imaging device in a 3rd modification. 本発明の実施例における撮像装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the imaging device in the Example of this invention. マーカとオブジェクトとの現実位置関係の例を示す図である。It is a figure which shows the example of the real position relationship between a marker and an object. マーカとオブジェクトとの現実位置関係の例を示す図である。It is a figure which shows the example of the real position relationship between a marker and an object. リアルタイム撮影画像の表示例を示す図である。It is a figure which shows the example of a display of a real-time picked-up image.

以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態は例示であり、本発明は以下の各実施形態の構成に限定されない。本発明における撮像制御装置は、以下に例示される撮像装置の全部又は一部に相当する。   Embodiments of the present invention will be described below. In addition, each embodiment given below is an illustration and this invention is not limited to the structure of each following embodiment. The imaging control device according to the present invention corresponds to all or part of the imaging device exemplified below.

[第一実施形態]
〔ハードウェア構成〕
図1は、第一実施形態における撮像装置のハードウェア構成を概念的に示す図である。
図1に示されるように、撮像装置10は、CPU(Central Processing Unit)1、メモリ2、通信部4、表示部5、入力部6、撮像部7等を有する。CPU1は、他の各部とバス等の通信線により接続される。メモリ2は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等である。通信部4は、他の装置や機器と信号の送受信を行う。通信部4には、可搬型記録媒体等も接続され得る。
[First embodiment]
[Hardware configuration]
FIG. 1 is a diagram conceptually illustrating a hardware configuration of the imaging apparatus according to the first embodiment.
As illustrated in FIG. 1, the imaging device 10 includes a CPU (Central Processing Unit) 1, a memory 2, a communication unit 4, a display unit 5, an input unit 6, an imaging unit 7, and the like. The CPU 1 is connected to other units via a communication line such as a bus. The memory 2 is a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, or the like. The communication unit 4 transmits and receives signals to and from other devices and devices. A portable recording medium or the like can be connected to the communication unit 4.

表示部5は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU1やGPU(Graphics Processing Unit)(図示せず)等により処理された描画データに対応する画面を表示するユニットである。入力部6は、ユーザ操作の入力を受け付けるユニットであり、例えば、ハードウェアボタンユニット、タッチセンサ等として実現される。表示部5及び入力部6は例えば一体化され、タッチパネルとして実現されることもできる。撮像部7は、レンズ、撮像素子等から形成されるカメラであり、リアルタイム映像の画像フレームを取得し、指示により静止画像及び動画像を撮像する。   The display unit 5 displays a screen corresponding to drawing data processed by a CPU 1 or a GPU (Graphics Processing Unit) (not shown) such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. Is a unit. The input unit 6 is a unit that receives an input of a user operation, and is realized as a hardware button unit, a touch sensor, or the like, for example. The display unit 5 and the input unit 6 are integrated, for example, and can be realized as a touch panel. The imaging unit 7 is a camera formed from a lens, an imaging element, and the like, acquires a real-time video image frame, and captures a still image and a moving image according to an instruction.

撮像装置10は、撮像部7を有し、撮像部7により取得される画像を表示部5に表示させ、入力部6により受け付けられるユーザ操作に応じて静止画像及び動画像をキャプチャし、キャプチャした動画像を表す情報を保持する。撮像装置10は、静止画像及び動画像のキャプチャにあたり、後述する各処理部の処理により設定されるフォーカスパラメータを用いる。撮像装置10は、デジタルカメラ、携帯電話、スマートデバイス等のような撮像機能を有する装置であり、その具体的な製品形態は制限されず、そのハードウェア構成も制限されない。   The imaging device 10 includes an imaging unit 7, displays an image acquired by the imaging unit 7 on the display unit 5, captures a still image and a moving image according to a user operation received by the input unit 6, and captures the captured image. Holds information representing moving images. The imaging device 10 uses focus parameters set by processing of each processing unit described later when capturing a still image and a moving image. The imaging device 10 is a device having an imaging function such as a digital camera, a mobile phone, a smart device, and the like, and its specific product form is not limited, and its hardware configuration is not limited.

〔処理構成〕
図2は、第一実施形態における撮像装置10の処理構成例を概念的に示す図である。図2に示されるように、撮像装置10は、画像取得部11、マーカ検出部12、基準算出部13、距離算出部14、パラメータ決定部15、設定部16等を有する。これら各処理部は、例えば、プログラムとしてメモリ2に格納され、CPU1によりこれらのプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワークに存在する他のコンピュータから通信部4を介してインストールされ、メモリ2に格納されてもよい。
[Processing configuration]
FIG. 2 is a diagram conceptually illustrating a processing configuration example of the imaging device 10 in the first embodiment. As illustrated in FIG. 2, the imaging device 10 includes an image acquisition unit 11, a marker detection unit 12, a reference calculation unit 13, a distance calculation unit 14, a parameter determination unit 15, a setting unit 16, and the like. Each of these processing units is realized, for example, as a program stored in the memory 2 and executed by the CPU 1. In addition, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer existing in the network via the communication unit 4 and stored in the memory 2. .

画像取得部11は、撮像部7からリアルタイム撮影画像を逐次取得する。例えば、画像取得部11は、撮像部7からリアルタイム映像の画像フレームを上記リアルタイム撮影画像として所定周期で取得する。   The image acquisition unit 11 sequentially acquires real-time captured images from the imaging unit 7. For example, the image acquisition unit 11 acquires an image frame of a real-time video from the imaging unit 7 as the real-time captured image at a predetermined period.

マーカ検出部12は、画像取得部11により取得されるリアルタイム撮影画像からマーカを検出する。ここで、マーカとは、現実世界に配置された画像や物であり、ARマーカ等と呼ばれる。但し、本実施形態は、このマーカを基に、参照方向によらず或る基準点及びその基準点からの相互に直交する3つの方向を一定に得ることができるのであれば、このマーカの具体的形態を制限しない。例えば、マーカ検出部12は、マーカの形状情報、色情報等を予め保持しており、これら保持情報に基づいて、背景画像からマーカを検出する。このマーカ検出には、周知の画像認識手法が利用されればよい。   The marker detection unit 12 detects a marker from the real-time captured image acquired by the image acquisition unit 11. Here, the marker is an image or an object arranged in the real world and is called an AR marker or the like. However, in the present embodiment, if a certain reference point and three directions orthogonal to each other from the reference point can be constantly obtained based on this marker, regardless of the reference direction, the specific example of this marker can be obtained. The form is not limited. For example, the marker detection unit 12 holds in advance marker shape information, color information, and the like, and detects the marker from the background image based on the held information. A known image recognition method may be used for this marker detection.

基準算出部13は、マーカ検出部12により検出されたマーカに関する現実情報及び画像情報に基づいて、そのマーカと撮像部7との位置関係を示す撮影位置関係を算出する。
マーカに関する現実情報とは、マーカの現実世界における情報を意味し、例えば、マーカの実際の形状や大きさ等を示す。また、マーカに関する画像情報とは、マーカのリアルタイム撮影画像内での情報を意味し、マーカのリアルタイム撮影画像内の形状や大きさ等を示す。マーカに関する現実情報は、予め基準算出部13により保持される。マーカに関する画像情報は、基準算出部13によりリアルタイム撮影画像から取得される。
The reference calculation unit 13 calculates a photographing positional relationship indicating the positional relationship between the marker and the imaging unit 7 based on the actual information and the image information regarding the marker detected by the marker detection unit 12.
The actual information regarding the marker means information in the real world of the marker, and indicates, for example, the actual shape and size of the marker. The image information related to the marker means information in the real-time captured image of the marker, and indicates the shape, size, etc. of the marker in the real-time captured image. Real information about the marker is held in advance by the reference calculation unit 13. Image information regarding the marker is acquired from the real-time captured image by the reference calculation unit 13.

基準算出部13は、マーカに関する現実情報と画像情報との比較により、マーカと撮像部7との位置関係を示す撮影位置関係を算出することができる。例えば、基準算出部13は、撮影位置関係として、マーカに対する撮像部7の相対的な仮想位置、及び、マーカと撮像部7との現実距離を算出することができる。基準算出部13による撮影位置関係の算出手法は、マーカに関する現実情報と画像情報とが利用されれば、特に制限されない。   The reference calculation unit 13 can calculate the photographing positional relationship indicating the positional relationship between the marker and the imaging unit 7 by comparing the actual information regarding the marker and the image information. For example, the reference calculation unit 13 can calculate the relative virtual position of the imaging unit 7 with respect to the marker and the actual distance between the marker and the imaging unit 7 as the shooting position relationship. The method for calculating the photographing position relationship by the reference calculation unit 13 is not particularly limited as long as the actual information and the image information regarding the marker are used.

基準算出部13は、当該撮影位置関係を算出するにあたり、マーカの位置に相当する基準位置を次のように設定することができる。例えば、その基準位置は、マーカ内における任意の点に設定される。マーカが複数の部分形状から構成される場合には、それら複数の部分形状から導かれる或る点がその基準位置に設定されてもよい。   In calculating the photographing position relationship, the reference calculation unit 13 can set a reference position corresponding to the marker position as follows. For example, the reference position is set at an arbitrary point in the marker. When the marker is composed of a plurality of partial shapes, a certain point derived from the plurality of partial shapes may be set as the reference position.

距離算出部14は、基準算出部13により算出された撮影位置関係、及び、マーカと共にリアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部7とそのオブジェクトとの現実距離を算出する。ここで、マーカと共にリアルタイム撮影画像に写るオブジェクトとは、撮影者が写したい被写体であり、現実世界においてマーカと近い位置に置かれる個体である。   The distance calculation unit 14 uses the imaging positional relationship calculated by the reference calculation unit 13 and the object positional relationship indicating the positional relationship between the marker and the object captured in the real-time captured image, and the reality between the imaging unit 7 and the object. Calculate the distance. Here, the object that appears in the real-time photographed image together with the marker is an object that the photographer wants to photograph and is an individual that is placed at a position close to the marker in the real world.

オブジェクト位置関係は、マーカに対するオブジェクトの相対的な仮想位置を示してもよいし、マーカとオブジェクトとの現実世界における位置関係を示してもよい。オブジェクト位置関係は、距離算出部14により予め保持されてもよいし、他の情報を用いて、距離算出部14により算出されてもよい。また、距離算出部14による当該現実距離の算出手法には複数存在し得る。この算出手法の例は後述される実施例において説明される。当該現実距離の算出手法は特に制限されない。   The object positional relationship may indicate a relative virtual position of the object with respect to the marker, or may indicate a positional relationship in the real world between the marker and the object. The object position relationship may be stored in advance by the distance calculation unit 14, or may be calculated by the distance calculation unit 14 using other information. There may be a plurality of methods for calculating the actual distance by the distance calculation unit 14. An example of this calculation method will be described in an embodiment described later. The method for calculating the actual distance is not particularly limited.

距離算出部14は、撮像部7とオブジェクトとの現実距離を算出するにあたり、オブジェクトの位置に相当する基準位置を次のように設定することができる。例えば、その基準位置は、オブジェクト内における、重心点、最上位点、最下位点、マーカに最も近い点、マーカから最も遠い点、撮像部7に最も近い点、撮像部7から最も遠い点等、オブジェクト内における任意の位置に設定される。   In calculating the actual distance between the imaging unit 7 and the object, the distance calculation unit 14 can set a reference position corresponding to the position of the object as follows. For example, the reference position is the center of gravity point, the highest point, the lowest point, the point closest to the marker, the point farthest from the marker, the point closest to the imaging unit 7, the point farthest from the imaging unit 7, etc. , It is set at an arbitrary position in the object.

パラメータ決定部15は、距離算出部14により算出された現実距離を用いて、そのオブジェクトに撮像部のピントを合わせるためのフォーカスパラメータを決定する。具体的には、パラメータ決定部15は、フォーカスパラメータとして、ピント位置を決定する。
但し、パラメータ決定部15は、フォーカスパラメータとして、ピント位置に加えて、被写界深度を調整するための絞り値等を決定することもできる。ピント位置は、撮像部7におけるピント合わせのための構成に応じて、例えば、レンズと撮像素子との間の距離、焦点距離等で表すことができる。パラメータ決定部15によるパラメータ決定手法には周知の手法が利用され得る。
The parameter determination unit 15 uses the actual distance calculated by the distance calculation unit 14 to determine a focus parameter for focusing the object on the imaging unit. Specifically, the parameter determination unit 15 determines the focus position as the focus parameter.
However, the parameter determination unit 15 can also determine an aperture value and the like for adjusting the depth of field in addition to the focus position as the focus parameter. The focus position can be represented by, for example, the distance between the lens and the image sensor, the focal length, and the like according to the configuration for focusing in the imaging unit 7. A known method can be used as the parameter determination method by the parameter determination unit 15.

設定部16は、パラメータ決定部15により決定されたフォーカスパラメータを撮像部7に設定する。   The setting unit 16 sets the focus parameter determined by the parameter determination unit 15 in the imaging unit 7.

〔動作例(撮像制御方法)〕
以下、第一実施形態における撮像制御方法について図3を用いて説明する。第一実施形態における撮像制御方法は、図3に示されるように、ステップS31からステップS36で示される複数の工程を含む。
[Operation example (imaging control method)]
Hereinafter, the imaging control method in the first embodiment will be described with reference to FIG. The imaging control method in the first embodiment includes a plurality of steps shown in steps S31 to S36 as shown in FIG.

図3は、第一実施形態における撮像装置10の動作例を示すフローチャートである。以下の説明では、各工程の実行主体は、撮像装置10として説明されるが、各工程は、撮像装置10の一部であるCPU1により実行される。また、各工程は、撮像装置10が有する上述の各処理部の処理内容と同様であるので、各工程の詳細は、適宜省略される。   FIG. 3 is a flowchart illustrating an operation example of the imaging apparatus 10 according to the first embodiment. In the following description, the execution subject of each step is described as the imaging device 10, but each step is executed by the CPU 1 that is a part of the imaging device 10. Further, since each process is the same as the processing content of each processing unit described above included in the imaging apparatus 10, details of each process are omitted as appropriate.

撮像装置10の画像取得部11は、撮像部7からリアルタイム撮影画像を逐次取得する(ステップS31)。例えば、の画像取得部11は、所定の周期で、リアルタイム撮影画像を順次取得する。   The image acquisition unit 11 of the imaging device 10 sequentially acquires real-time captured images from the imaging unit 7 (step S31). For example, the image acquisition unit 11 sequentially acquires real-time captured images at a predetermined cycle.

撮像装置10のマーカ検出部12は、ステップS31で取得されたリアルタイム撮影画像からマーカを検出する(ステップS32)。ステップS32は、リアルタイム撮影画像が取得される度に実行されてもよいし、リアルタイム撮影画像の取得タイミングとは非同期に所定周期で実行されてもよい。また、撮像装置10は、マーカの検出を試み、リアルタイム撮影画像内でマーカを検出することができない場合には、ステップS33以降を実行しない。   The marker detection unit 12 of the imaging device 10 detects a marker from the real-time captured image acquired in step S31 (step S32). Step S32 may be executed every time a real-time captured image is acquired, or may be executed in a predetermined cycle asynchronously with the acquisition timing of the real-time captured image. In addition, the imaging device 10 tries to detect the marker, and does not execute step S33 and subsequent steps when the marker cannot be detected in the real-time captured image.

撮像装置10の基準算出部13は、ステップS32で検出されたマーカに関する現実情報及び画像情報に基づいて、そのマーカと撮像部7との位置関係を示す撮影位置関係を算出する(ステップS33)。
撮像装置10の距離算出部14は、ステップS33で算出された撮影位置関係、及び、マーカとリアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、撮像部7とそのオブジェクトとの現実距離を算出する(ステップS34)。
The reference calculation unit 13 of the imaging device 10 calculates a shooting positional relationship indicating the positional relationship between the marker and the imaging unit 7 based on the actual information and the image information regarding the marker detected in step S32 (step S33).
The distance calculation unit 14 of the imaging apparatus 10 uses the imaging positional relationship calculated in step S33 and the object positional relationship indicating the positional relationship between the marker and the object captured in the real-time captured image, and the imaging unit 7 and the object. Is calculated (step S34).

撮像装置10のパラメータ決定部15は、ステップS34で算出された現実距離を用いて、オブジェクトに撮像部7のピントを合わせるためのフォーカスパラメータを決定する(ステップS35)。
撮像装置10の設定部16は、ステップS35で決定されたフォーカスパラメータを撮像部7に設定する(ステップS36)。撮像装置10は、入力部6により受け付けられたユーザ操作に従って、このようにフォーカスパラメータが設定された撮像部7に対して、静止画像又は動画像の撮像を指示する。
The parameter determination unit 15 of the imaging apparatus 10 determines a focus parameter for focusing the object on the imaging unit 7 using the actual distance calculated in step S34 (step S35).
The setting unit 16 of the imaging device 10 sets the focus parameter determined in step S35 in the imaging unit 7 (step S36). In accordance with the user operation received by the input unit 6, the imaging device 10 instructs the imaging unit 7 with the focus parameter set in this way to capture a still image or a moving image.

〔第一実施形態における作用及び効果〕
上述のように、第一実施形態では、マーカ及びオブジェクトが写るリアルタイム撮影画像が逐次取得され、このリアルタイム撮影画像からマーカが検出され、この検出されたマーカと撮像部7との位置関係等から撮像部7とオブジェクトとの現実距離が算出される。そして、撮像部7とオブジェクトとの現実距離から決定されるフォーカスパラメータが撮像部7に設定される。
[Operation and Effect in First Embodiment]
As described above, in the first embodiment, a real-time captured image in which a marker and an object are captured is sequentially acquired, a marker is detected from the real-time captured image, and imaging is performed based on the positional relationship between the detected marker and the imaging unit 7 or the like. The actual distance between the part 7 and the object is calculated. Then, a focus parameter determined from the actual distance between the imaging unit 7 and the object is set in the imaging unit 7.

このように、第一実施形態によれば、リアルタイム撮影画像に写るマーカに基づいて、フォーカスパラメータが決定され、撮像部7に設定されるので、既存のコントラストAFと比較して、より早くピント合わせを行うことができる。これは、既存のコントラストAFがレンズを動かしながら画像のコントラストが最も高くなるレンズ位置を試行錯誤的に探し出すのに対して、第一実施形態では、マーカ情報から得られる撮像部7と被写体との現実距離から、適切なフォーカスパラメータを即座に決定することができるからである。   Thus, according to the first embodiment, since the focus parameter is determined and set in the imaging unit 7 based on the marker appearing in the real-time captured image, the focus is adjusted more quickly than the existing contrast AF. It can be performed. This is because, while the existing contrast AF moves the lens, the lens position where the contrast of the image becomes the highest is found by trial and error, whereas in the first embodiment, the imaging unit 7 obtained from the marker information and the subject This is because an appropriate focus parameter can be immediately determined from the actual distance.

更に、第一実施形態によれば、撮像部7とオブジェクト(被写体)との現実距離を得るのに、距離センサ等の特別なデバイスを必要としないので、撮像装置10の小型化及び低価格化を実現することができる。   Furthermore, according to the first embodiment, since a special device such as a distance sensor is not required to obtain the actual distance between the imaging unit 7 and the object (subject), the imaging apparatus 10 can be reduced in size and price. Can be realized.

[第二実施形態]
以下、第二実施形態における撮像装置及び撮像制御方法について、上述の第一実施形態と異なる内容を中心に説明し、同一の内容については適宜省略する。
第二実施形態は、上述の多方位撮影に特に有効な形態である。
[Second Embodiment]
Hereinafter, the imaging device and the imaging control method in the second embodiment will be described focusing on the contents different from those of the first embodiment described above, and the same contents will be appropriately omitted.
The second embodiment is a particularly effective form for the above-described multidirectional shooting.

〔処理構成〕
図4は、第二実施形態における撮像装置10aの処理構成例を概念的に示す図である。図4に示されるように、第二実施形態における撮像装置10aは、第一実施形態の構成に加えて、画像格納部17、方向算出部18及びキャプチャ指示部19を更に有する。これら処理部17、18及び19についても他の処理部と同様にプログラムが図1に例示した画像装置10が有するハードウェアにおいてCPU1によって実行されることによって実現される。画像格納部17は、メモリ2又は通信部4に接続される可搬型記録媒体内に実現される。
[Processing configuration]
FIG. 4 is a diagram conceptually illustrating a processing configuration example of the imaging device 10a in the second embodiment. As illustrated in FIG. 4, the imaging device 10 a according to the second embodiment further includes an image storage unit 17, a direction calculation unit 18, and a capture instruction unit 19 in addition to the configuration of the first embodiment. The processing units 17, 18 and 19 are also realized by the CPU 1 executing the program in the hardware of the image apparatus 10 illustrated in FIG. The image storage unit 17 is realized in a portable recording medium connected to the memory 2 or the communication unit 4.

方向算出部18は、基準算出部13により算出された撮影位置関係及び上記オブジェクト位置関係を用いて、当該オブジェクトに対する撮像部7の撮影方向を算出する。オブジェクト位置関係は、方向算出部18により予め保持されてもよいし、他の情報を用いて、方向算出部18により算出されてもよい。例えば、方向算出部18は、上記撮影位置関係及び上記オブジェクト位置関係を基に、オブジェクトと撮像部7との位置関係を算出し、この位置関係を用いて、当該撮影方向を算出することができる。但し、当該撮影方向の算出手法は制限されない。   The direction calculation unit 18 calculates the shooting direction of the imaging unit 7 with respect to the object using the shooting position relationship calculated by the reference calculation unit 13 and the object position relationship. The object positional relationship may be stored in advance by the direction calculation unit 18 or may be calculated by the direction calculation unit 18 using other information. For example, the direction calculation unit 18 can calculate the positional relationship between the object and the imaging unit 7 based on the shooting positional relationship and the object positional relationship, and can calculate the shooting direction using this positional relationship. . However, the method for calculating the shooting direction is not limited.

画像格納部17は、撮像部7によりキャプチャされた静止画像を、その静止画像をキャプチャする際に方向算出部18により算出されていた撮像部7の撮影方向に対応する方向情報と関連付けて格納する。静止画像と関連付けられる方向情報には、方向算出部18により算出される撮像部7の撮影方向がそのまま利用されてもよいし、その撮影方向から得られる方向情報が利用されてもよい。例えば、方向情報は、前方、右側方、左側方、後方及び上方のいずれか1つを示す情報であってもよい。   The image storage unit 17 stores the still image captured by the imaging unit 7 in association with the direction information corresponding to the shooting direction of the imaging unit 7 calculated by the direction calculation unit 18 when capturing the still image. . For the direction information associated with the still image, the shooting direction of the imaging unit 7 calculated by the direction calculation unit 18 may be used as it is, or direction information obtained from the shooting direction may be used. For example, the direction information may be information indicating any one of the front side, the right side, the left side, the rear, and the upper side.

図5は、静止画像と方向情報との対応関係の例を示す図である。図5で、方向情報が、水平方向と垂直方向との2軸の座標空間に並べられて表記されている。方向情報における水平方向は、オブジェクトが置かれている平面を形成する一つの軸方向に相当する。垂直方向は、その平面に直行する一つの軸方向に相当する。   FIG. 5 is a diagram illustrating an example of a correspondence relationship between a still image and direction information. In FIG. 5, the direction information is represented by being arranged in a two-axis coordinate space of a horizontal direction and a vertical direction. The horizontal direction in the direction information corresponds to one axial direction that forms a plane on which the object is placed. The vertical direction corresponds to one axial direction perpendicular to the plane.

図5の例では、静止画像と関連付けられる方向情報は、オブジェクトの基準点を中心点とする球をオブジェクトが置かれている基準平面で切断した半球の球面上における垂直方向線Lvと水平方向線Lhとで囲まれた領域Rを識別する情報として示される。垂直方向線Lvは、その半球の球面と、基準平面に垂直でかつ中心点を通る所定角度間隔で設けられる複数平面との交線であり、水平方向線Lhは、その半球の球面と、基準平面に並行でかつその基準平面に垂直な方向に所定間隔で設けられる複数平面との交線である。垂直方向線Lvを決める所定角度間隔及び水平方向線Lhを決める所定間隔は、任意に決められ得る。   In the example of FIG. 5, the direction information associated with the still image includes the vertical direction line Lv and the horizontal direction line on the spherical surface of the hemisphere obtained by cutting a sphere centered on the reference point of the object along the reference plane on which the object is placed. It is shown as information for identifying the region R surrounded by Lh. The vertical direction line Lv is an intersection line of the spherical surface of the hemisphere and a plurality of planes provided at a predetermined angle interval perpendicular to the reference plane and passing through the center point, and the horizontal direction line Lh is the reference line of the hemisphere and the reference plane. These are intersection lines with a plurality of planes provided at predetermined intervals in a direction parallel to the plane and perpendicular to the reference plane. The predetermined angular interval for determining the vertical line Lv and the predetermined interval for determining the horizontal line Lh can be arbitrarily determined.

画像取得部11は、撮像部7によりキャプチャされた静止画像を取得し、その静止画像を、キャプチャ時に算出されていた撮像部7の撮影方向に対応する方向情報と関連付けて画像格納部17に格納する。画像取得部11は、方向算出部18により算出された撮影方向をそのまま方向情報とすることもできるし、その撮影方向を基に方向情報を生成することもできる。例えば、方向情報が、前方、右側方、左側方、後方及び上方のいずれか1つを示す場合、画像取得部11は、方向算出部18により算出された撮影方向が前方、右側方、左側方、後方及び上方のどれに属するかを判定し、いずれか1つの方向を示す方向情報を生成する。また、方向情報が、上述のように領域Rの識別情報である場合には、画像取得部11は、当該撮影方向が属する領域Rを特定し、その特定された領域Rの識別情報を方向情報とする。   The image acquisition unit 11 acquires the still image captured by the imaging unit 7 and stores the still image in the image storage unit 17 in association with the direction information corresponding to the shooting direction of the imaging unit 7 calculated at the time of capture. To do. The image acquisition unit 11 can directly use the shooting direction calculated by the direction calculation unit 18 as direction information, or can generate direction information based on the shooting direction. For example, when the direction information indicates any one of front, right side, left side, rear, and top, the image acquisition unit 11 determines that the shooting direction calculated by the direction calculation unit 18 is the front, right side, or left side. , It is determined which one belongs to the rear and the upper, and direction information indicating any one direction is generated. When the direction information is the identification information of the region R as described above, the image acquisition unit 11 identifies the region R to which the shooting direction belongs, and identifies the identification information of the identified region R as the direction information. And

キャプチャ指示部19は、方向算出部18により算出された撮像部7の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、その判定結果に基づいて、撮像部7に静止画像のキャプチャを指示する。言い換えれば、キャプチャ指示部19は、画像格納部17に未だ格納されていない撮影方向からの静止画像が得られるように、キャプチャを指示し、方向算出部18により算出された撮影方向が、既に静止画像が格納されている撮影方向となる場合には、キャプチャを指示しない。例えば、キャプチャ指示部19は、新たに方向算出部18により算出された撮像部7の撮影方向と画像格納部17に既に格納されている静止画像と関連付けられている方向情報との関係を基に、キャプチャを指示するか否かを判定することができる。撮像部7は、キャプチャ指示部19からの指示を受け、そのとき設定されているフォーカスパラメータを用いて、静止画像をキャプチャする。   The capture instruction unit 19 determines whether to instruct capture of a still image according to the shooting direction of the imaging unit 7 calculated by the direction calculation unit 18, and based on the determination result, the capture instruction unit 19 Instruct to capture image. In other words, the capture instruction unit 19 instructs capture so that a still image from a shooting direction that is not yet stored in the image storage unit 17 is obtained, and the shooting direction calculated by the direction calculation unit 18 is already stationary. When the shooting direction in which the image is stored is used, capture is not instructed. For example, the capture instruction unit 19 is based on the relationship between the shooting direction of the imaging unit 7 newly calculated by the direction calculation unit 18 and the direction information associated with the still image already stored in the image storage unit 17. It is possible to determine whether or not to instruct capture. The imaging unit 7 receives an instruction from the capture instruction unit 19 and captures a still image using the focus parameter set at that time.

〔動作例(撮像制御方法)〕
以下、第二実施形態における撮像制御方法について図6を用いて説明する。第二実施形態における撮像制御方法は、図6に示されるように、ステップS51からステップS58で示される複数の工程を含む。第二実施形態における撮像制御方法は、図3に示される第一実施形態における撮像制御方法と同期して又は非同期に実行される。
[Operation example (imaging control method)]
Hereinafter, the imaging control method in the second embodiment will be described with reference to FIG. The imaging control method in the second embodiment includes a plurality of steps shown in steps S51 to S58 as shown in FIG. The imaging control method in the second embodiment is executed synchronously or asynchronously with the imaging control method in the first embodiment shown in FIG.

図6は、第二実施形態における撮像装置10の動作例を示すフローチャートである。以下の説明では、各工程の実行主体は、撮像装置10として説明されるが、各工程は、撮像装置10の一部であるCPU1により実行される。また、各工程は、撮像装置10が有する上述された各処理部の処理内容と同様であるので、各工程の詳細は、適宜省略される。   FIG. 6 is a flowchart illustrating an operation example of the imaging apparatus 10 according to the second embodiment. In the following description, the execution subject of each step is described as the imaging device 10, but each step is executed by the CPU 1 that is a part of the imaging device 10. In addition, since each process is the same as the processing content of each processing unit described above that the imaging apparatus 10 has, details of each process are omitted as appropriate.

撮像装置10aは、図3に示されるステップS33で算出される撮影位置関係、及び、マーカとオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、オブジェクトに対する撮像部7の撮影方向を算出する(ステップS51)。   The imaging device 10a calculates the imaging direction of the imaging unit 7 with respect to the object using the imaging positional relationship calculated in step S33 shown in FIG. 3 and the object positional relationship indicating the positional relationship between the marker and the object ( Step S51).

撮像装置10aは、画像格納部17に格納されている静止画像がない場合(ステップS52;NO)、ステップS56を実行する。一方で、撮像装置10は、画像格納部17に格納されている静止画像が存在する場合(S52;YES)、ステップS51で算出された撮像部7の撮影方向と画像格納部17に格納されている静止画像と関連付けられている方向情報との関係を基に、キャプチャを指示するか否かを判定する(ステップS53)。言い換えれば、ステップS53において、撮像装置10aは、ステップS51で算出された撮影方向からの静止画像が画像格納部17に既に格納されているか否かを判定する。ここで、キャプチャを指示するか否かを判定する際、撮像装置10aは、画像格納部17に格納されている静止画像が存在するか否かではなく、既に格納されている画像と新しく取得された画像を比較し、より良い状態と判断された場合には上書きするようキャプチャ指示をしてもよい。   If there is no still image stored in the image storage unit 17 (step S52; NO), the imaging device 10a executes step S56. On the other hand, when there is a still image stored in the image storage unit 17 (S52; YES), the imaging device 10 stores the shooting direction of the imaging unit 7 calculated in step S51 and the image storage unit 17. It is determined whether or not to instruct capture based on the relationship between the still image and the direction information associated with the still image (step S53). In other words, in step S53, the imaging apparatus 10a determines whether or not the still image from the shooting direction calculated in step S51 is already stored in the image storage unit 17. Here, when determining whether or not to instruct capture, the imaging apparatus 10a newly acquires an already stored image, not whether or not a still image stored in the image storage unit 17 exists. The captured images may be compared, and if it is determined that the state is better, a capture instruction may be issued to overwrite.

撮像装置10aは、キャプチャを指示しないと決定した場合(ステップS55;NO)、キャプチャを指示せず、処理を終える。これは、ステップS51で算出された撮影方向からの静止画像が、画像格納部17に既に格納されているからである。
一方、撮像装置10aは、キャプチャを指示すると決定した場合(ステップS55;YES)、撮像部7に静止画像のキャプチャを指示する(ステップS56)。これは、ステップS51で算出された撮影方向からの静止画像が画像格納部17に未だ格納されていないからである。この指示により、撮像部7は、図3に示されるステップS36で設定されているフォーカスパラメータを用いて撮像された静止画像をキャプチャする。
If the imaging apparatus 10a determines not to instruct capture (step S55; NO), the imaging apparatus 10a ends the process without instructing capture. This is because the still image from the shooting direction calculated in step S51 is already stored in the image storage unit 17.
On the other hand, when the imaging device 10a determines to instruct capture (step S55; YES), the imaging device 10a instructs the imaging unit 7 to capture a still image (step S56). This is because the still image from the shooting direction calculated in step S51 is not yet stored in the image storage unit 17. In response to this instruction, the imaging unit 7 captures a still image captured using the focus parameter set in step S36 illustrated in FIG.

撮像装置10aは、キャプチャされた静止画像を撮像部7から取得する(ステップS57)。
撮像装置10aは、ステップS57で取得された静止画像を、ステップS51で算出された撮像部7の撮影方向と関連付けて画像格納部17に格納する(ステップS58)。
The imaging device 10a acquires the captured still image from the imaging unit 7 (step S57).
The imaging device 10a stores the still image acquired in step S57 in the image storage unit 17 in association with the shooting direction of the imaging unit 7 calculated in step S51 (step S58).

ステップS51は、ステップS33で撮影位置関係が算出される度に実行されてもよいし、図3に示されるフローとは非同期に実行されてもよい。非同期に実行される場合、例えば、撮像装置10aは、入力部6により所定のユーザ操作(ハードウェア又はソフトウェアから成るボタンの押下操作、タッチ操作、ジェスチャ操作、音声操作等)が検出されたことを契機に、ステップS51を実行することができる。また、ステップS51は、図3に示されるフローにおいてステップS33の後に実行され、図6に示されるフローからは削除されてもよい。この場合には、第二実施形態における撮像制御方法は、ステップS52から実行される。   Step S51 may be executed every time the photographing positional relationship is calculated in step S33, or may be executed asynchronously with the flow shown in FIG. When executed asynchronously, for example, the imaging apparatus 10a detects that a predetermined user operation (a pressing operation of a button made of hardware or software, a touch operation, a gesture operation, a voice operation, or the like) is detected by the input unit 6. In response to this, step S51 can be executed. Further, step S51 may be executed after step S33 in the flow shown in FIG. 3, and may be deleted from the flow shown in FIG. In this case, the imaging control method in the second embodiment is executed from step S52.

〔第二実施形態における作用及び効果〕
第二実施形態では、リアルタイム撮影画像に写るオブジェクトに対する撮像部7の撮影方向が算出され、画像格納部17に格納されている静止画像と関連付けられている方向情報と算出された撮影方向との関係を基に、静止画像のキャプチャを指示するか否かが判定される。
[Operation and Effect in Second Embodiment]
In the second embodiment, the shooting direction of the imaging unit 7 with respect to the object shown in the real-time shot image is calculated, and the relationship between the direction information associated with the still image stored in the image storage unit 17 and the calculated shooting direction. Based on this, it is determined whether or not an instruction to capture a still image is given.

これにより、第二実施形態によれば、現在の撮影方向からの静止画像が未だ格納できていない場合に静止画像をキャプチャすることができ、結果として、同じ方向からの静止画像が重複して取得されることを避けることができる。また、既に格納されている画像と新しく取得された画像を比較し、より良い状態と判断された場合には上書きでキャプチャすることができ、結果として、より品質が良い静止画像を得ることができる。従って、第二実施形態によれば、ユーザに多方位撮影を効率よく行わせることができる。   Thereby, according to the second embodiment, still images can be captured when still images from the current shooting direction have not yet been stored. As a result, duplicate still images from the same direction are acquired. Can be avoided. In addition, the image stored in advance is compared with the newly acquired image, and if it is determined to be in a better state, it can be captured by overwriting, and as a result, a still image with better quality can be obtained. . Therefore, according to the second embodiment, the user can efficiently perform multidirectional shooting.

[第一実施形態の変形例(第一変形例)]
図7は、第一変形例における撮像装置10bの処理構成例を概念的に示す図である。図7に示されるように、上述の第一実施形態における撮像装置10bは、設定部16により設定されたフォーカスパラメータを用いた静止画像又は動画像のキャプチャを撮像部7へ指示するキャプチャ指示部19を更に有してもよい。この場合、キャプチャ指示部19は、設定部16によりフォーカスパラメータが撮像部7に設定された直後に、キャプチャを撮像部7に指示してもよい。また、設定部16及びキャプチャ指示部19が統一化された処理部が、パラメータ決定部15により決定されたフォーカスパラメータを指定して、撮像部7に静止画像又は動画像のキャプチャを指示するようにしてもよい。
[Modification of First Embodiment (First Modification)]
FIG. 7 is a diagram conceptually illustrating a processing configuration example of the imaging device 10b in the first modification. As illustrated in FIG. 7, the imaging apparatus 10 b in the first embodiment described above captures a capture image 19 that instructs the imaging unit 7 to capture a still image or a moving image using the focus parameter set by the setting unit 16. May further be included. In this case, the capture instruction unit 19 may instruct the imaging unit 7 to capture immediately after the setting unit 16 sets the focus parameter in the imaging unit 7. Further, the processing unit in which the setting unit 16 and the capture instruction unit 19 are unified designates the focus parameter determined by the parameter determination unit 15 and instructs the imaging unit 7 to capture a still image or a moving image. May be.

[第二実施形態の変形例(第二変形例)]
上述の第二実施形態では、静止画像に対するキャプチャ指示をするか否かが、画像格納部17に格納される静止画像に関連付けられた方向情報と、現在の撮影方向との比較により判定される。しかしながら、例えば、撮影すべき所定方向が、前方、側方及び後方のように広い範囲で決められている場合には、撮影者にとって、同じ方向からの静止画像が重複して撮影されるのを防ぐのはある程度容易である。よって、このような場合、キャプチャ指示部19は、その比較をせず、方向算出部18により算出された撮像部7の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定することもできる。例えば、キャプチャ指示部19は、撮影すべき所定方向を予め保持しており、方向算出部18により算出された撮影方向がその所定方向となった場合に、静止画像のキャプチャの指示を決定する。この場合には、撮像装置10bは、画像格納部17を有していなくてもよい。
[Modification of Second Embodiment (Second Modification)]
In the second embodiment described above, whether or not to instruct capture of a still image is determined by comparing the direction information associated with the still image stored in the image storage unit 17 with the current shooting direction. However, for example, when a predetermined direction to be photographed is determined in a wide range such as front, side, and rear, the photographer may shoot still images from the same direction in duplicate. It is easy to prevent to some extent. Therefore, in such a case, the capture instruction unit 19 determines whether to instruct to capture a still image according to the shooting direction of the imaging unit 7 calculated by the direction calculation unit 18 without performing the comparison. You can also. For example, the capture instruction unit 19 holds a predetermined direction to be photographed in advance, and determines an instruction to capture a still image when the photographing direction calculated by the direction calculation unit 18 becomes the predetermined direction. In this case, the imaging device 10b may not include the image storage unit 17.

[各実施形態の変形例(第三変形例)]
図8は、第三変形例における撮像装置10cの処理構成例を概念的に示す図である。上述の各実施形態における撮像装置10cは、撮像部7にオートフォーカスの停止を指示する停止指示部21を更に有してもよい。なお、図8は、第一実施形態における撮像装置10cが停止指示部21を有する例を示す。停止指示部21についても他の処理部と同様に実現される。
[Modification of each embodiment (third modification)]
FIG. 8 is a diagram conceptually illustrating a processing configuration example of the imaging device 10c in the third modification. The imaging device 10c in each of the above embodiments may further include a stop instruction unit 21 that instructs the imaging unit 7 to stop autofocus. FIG. 8 illustrates an example in which the imaging device 10c according to the first embodiment includes a stop instruction unit 21. The stop instruction unit 21 is realized in the same manner as other processing units.

ほとんどの撮像部7がオートフォーカス機能を有し、ほとんどの場合、撮像部7はオートフォーカスが動作するように設定されている。そこで、停止指示部21がそのオートフォーカスの停止を撮像部7に指示し、別途、上述の各実施形態に示されるように設定されたフォーカスパラメータを用いて、撮像部7が静止画像又は動画像を撮像する。これにより、設定されたフォーカスパラメータがオートフォーカス機能により変更されることを防ぐことができる。この場合、マーカ検出部12は、オートフォーカスが停止されるのを待って、処理を実行するようにしてもよい。同様に、上述の各実施形態における撮像制御方法は、オートフォーカスが停止された後、実行されてもよい。   Most imaging units 7 have an autofocus function, and in most cases, the imaging unit 7 is set so that autofocusing operates. Therefore, the stop instructing unit 21 instructs the image capturing unit 7 to stop the autofocus, and the image capturing unit 7 uses a focus parameter separately set as described in each of the above-described embodiments, so that the image capturing unit 7 Image. Thereby, it is possible to prevent the set focus parameter from being changed by the autofocus function. In this case, the marker detection unit 12 may execute the processing after waiting for autofocus to stop. Similarly, the imaging control method in each of the above-described embodiments may be executed after autofocus is stopped.

(実施例)
以下に実施例を挙げ、上述の実施形態を更に詳細に説明する。上述の各実施形態によってフォーカスパラメータが一度も撮像部7に設定されていない初期状況で、撮像部7から取得されるリアルタイム撮影画像では、マーカに適切にピントが合っていない可能性がある。しかしながら、マーカは、参照方向によらず或る基準点及びその基準点からの相互に直交する3つの方向を一定に得ることができる程度に、リアルタイム撮影画像に写っていればよい。よって、上述のような初期状況でも、上述の各実施形態は適切に実現され得る。但し、撮像部7がオートフォーカス機能を持つ場合、当該初期状況において、リアルタイム撮影画像からマーカが適切に検出されるまでは、オートフォーカスを停止させないようにすることもできる。この場合、撮像装置10は、リアルタイム撮影画像からマーカが適切に検出されるか否かを判定し、適切に検出された場合のみ、オートフォーカスを停止させ、上述のような処理を実行する。
(Example)
Examples will be given below to describe the above-described embodiment in more detail. There is a possibility that the marker is not properly focused on the real-time captured image acquired from the imaging unit 7 in the initial state where the focus parameter has never been set in the imaging unit 7 according to the above-described embodiments. However, the marker only needs to be shown in the real-time captured image to such an extent that a certain reference point and three directions orthogonal to each other from the reference point can be constantly obtained regardless of the reference direction. Therefore, the above-described embodiments can be appropriately realized even in the initial situation as described above. However, when the imaging unit 7 has an autofocus function, it is possible to prevent the autofocus from stopping until the marker is properly detected from the real-time captured image in the initial situation. In this case, the imaging apparatus 10 determines whether or not the marker is appropriately detected from the real-time captured image, and stops autofocus only when the marker is appropriately detected, and executes the above-described processing.

一方、適切なフォーカスパラメータが一度でも撮像部7に設定されれば、多方位撮影において撮影方向が変更されたとしても、リアルタイム撮影画像に写るマーカに対するピントが大幅にずれることは少ない。よって、多方位撮影で撮影方向が変更されたとしても、マーカは適切に検出され、上述の各実施形態は適切に動作することができる。但し、撮影者の移動が大きく、マーカが適切に検出することができなくなってしまった場合には、マーカが適切に検出されるまで、オートフォーカスを再稼働させるようにすることもできる。   On the other hand, if an appropriate focus parameter is set even once in the imaging unit 7, even if the shooting direction is changed in multi-directional shooting, the focus on the marker shown in the real-time shot image is hardly shifted. Therefore, even if the shooting direction is changed in multidirectional shooting, the marker is appropriately detected, and each of the above-described embodiments can operate appropriately. However, when the photographer moves so much that the marker cannot be detected properly, the autofocus can be restarted until the marker is properly detected.

そこで、以下の実施例では、特に、撮像部7とオブジェクトとの現実距離を計算する手法の具体例を挙げる。以下には、上述の内容と異なる内容を中心に説明し、上述と同内容については適宜省略する。   Therefore, in the following embodiment, a specific example of a method for calculating the actual distance between the imaging unit 7 and the object will be given. The following description will be focused on the content different from the above content, and the same content as above will be omitted as appropriate.

図9は、実施例における撮像装置10dの処理構成例を概念的に示す図である。図9に示されるように、実施例における撮像装置10dは、情報取得部31を更に有する。情報取得部31についても他の処理部と同様に実現される。図9は、本実施例が上述の第一実施形態に適用された例を示すが、本実施例は、上述のいずれの実施形態及び変形例にも適用可能である。   FIG. 9 is a diagram conceptually illustrating a processing configuration example of the imaging apparatus 10d in the embodiment. As illustrated in FIG. 9, the imaging device 10 d in the embodiment further includes an information acquisition unit 31. The information acquisition unit 31 is realized in the same manner as other processing units. FIG. 9 shows an example in which this example is applied to the above-described first embodiment, but this example can be applied to any of the above-described embodiments and modifications.

情報取得部31は、マーカとオブジェクトとの現実位置関係を示す情報を取得する。この情報は、表示部5に表示される入力画面に対するユーザの入力操作が入力部6により検出されることで得られてもよいし、予めメモリ2に保持されそのメモリ2から取得されてもよいし、可搬型記録媒体、他のコンピュータ等から通信部4を経由して取得されてもよい。   The information acquisition unit 31 acquires information indicating the actual positional relationship between the marker and the object. This information may be obtained by the user's input operation on the input screen displayed on the display unit 5 being detected by the input unit 6 or may be stored in advance in the memory 2 and acquired from the memory 2. However, it may be acquired from the portable recording medium, another computer, or the like via the communication unit 4.

この現実位置関係は、現実世界におけるマーカとオブジェクトとの位置関係を意味する。例えば、この現実位置関係は、マーカ及びオブジェクトが置かれる同一平面上での、マーカとオブジェクトとの現実の位置関係を示す二次元情報として示される。また、この現実位置関係は、更に、オブジェクトの現実高さが加味された三次元情報として示されることもできる。   This real positional relationship means the positional relationship between the marker and the object in the real world. For example, the actual positional relationship is shown as two-dimensional information indicating the actual positional relationship between the marker and the object on the same plane where the marker and the object are placed. Further, this actual positional relationship can be further indicated as three-dimensional information that takes into account the actual height of the object.

図10及び図11は、ARマーカ8(以下、マーカとも記載する)とオブジェクト9との現実位置関係の例を示す図である。
図10に示す例では、ARマーカ8の上辺Sの中心点から、上辺Sに垂直な方向に伸びる所定距離Lに、オブジェクト9の基準点Pが位置する(配置される)ように、オブジェクト9が置かれ、情報取得部31は、このようなマーカ8とオブジェクト9との現実位置関係を示す情報を現実位置情報として取得する。
図11は、オブジェクト9を上方から見た図である。図11の例では、マーカ8が6つの方形の部分マークM1からM6から形成されており、オブジェクト9は、マークM1の中心点SM1とマークM2の中心点SM2とを結ぶ線Lの中心点に、オブジェクト9の中心Sが位置するように、置かれる。
FIG. 10 and FIG. 11 are diagrams showing examples of the actual position relationship between the AR marker 8 (hereinafter also referred to as a marker) and the object 9.
In the example shown in FIG. 10, from the center point of the upper side S P output AR marker 8, a predetermined distance L R extending in a direction perpendicular to the upper side S P, the reference point P B of the object 9 is located (deployed) so In addition, the object 9 is placed, and the information acquisition unit 31 acquires information indicating the actual position relationship between the marker 8 and the object 9 as actual position information.
FIG. 11 is a view of the object 9 as viewed from above. In the example of FIG. 11, the marker 8 is formed from six square partial marks M1 to M6, and the object 9 has a line L R that connects the center point S M1 of the mark M1 and the center point S M2 of the mark M2. the center point, the center S C of the object 9 to be positioned, placed.

基準算出部13は、マーカ検出部12により検出されたマーカ8に関する現実情報及び画像情報に基づいて、三次元仮想空間を設定し、この三次元仮想空間におけるそのマーカ8及び撮像部7の仮想位置、及び、マーカ8と撮像部7との現実距離を算出する。基準算出部13は、検出されたマーカ8から認識される基準点に応じた位置にその三次元仮想空間を設定する。マーカ8に関する現実世界の形状及び大きさの情報(現実情報)と、そのマーカ8に関するリアルタイム撮影画像内での形状及び大きさの情報とから、或る基準点及びその基準点からの相互に直交する3つの方向は、一定に得ることができる。このように得られる基準点及び3つの方向に基づいて、三次元仮想空間は設定され、その三次元仮想空間におけるマーカ8の仮想位置は決定され得る。但し、マーカ8から認識されるその基準点に対する三次元仮想空間の設定位置については、特に制限されない。更に、それら情報から、その三次元仮想空間における撮像部7の仮想位置、及び、撮像部7とマーカ8との現実距離も算出され得る。   The reference calculation unit 13 sets a three-dimensional virtual space based on real information and image information regarding the marker 8 detected by the marker detection unit 12, and the virtual positions of the marker 8 and the imaging unit 7 in the three-dimensional virtual space. And the actual distance between the marker 8 and the imaging unit 7 is calculated. The reference calculation unit 13 sets the three-dimensional virtual space at a position corresponding to the reference point recognized from the detected marker 8. Based on information on the shape and size of the real world regarding the marker 8 (actual information) and information on the shape and size of the marker 8 in the real-time captured image, the reference point and the reference point are orthogonal to each other. The three directions to be obtained can be obtained constantly. Based on the reference point thus obtained and the three directions, the three-dimensional virtual space is set, and the virtual position of the marker 8 in the three-dimensional virtual space can be determined. However, the setting position of the three-dimensional virtual space with respect to the reference point recognized from the marker 8 is not particularly limited. Furthermore, the virtual position of the imaging unit 7 in the three-dimensional virtual space and the actual distance between the imaging unit 7 and the marker 8 can be calculated from the information.

距離算出部14は、情報取得部31により取得された情報により示されるマーカ8とオブジェクト9との現実位置関係、及び、基準算出部13により決定されたマーカ8の仮想位置に基づいて、その三次元仮想空間におけるオブジェクト9の仮想位置を算出する。情報取得部31により取得された情報が上述のような二次元情報である場合、距離算出部14は、オブジェクト9が置かれた平面上の或る1点の位置をオブジェクト9の仮想位置として算出する。また、その情報が三次元情報である場合には、距離算出部14は、オブジェクト9の高さ方向を加味した三次元位置をオブジェクト9の仮想位置として算出する。例えば、情報取得部31がオブジェクト9の現実高さを示す情報を取得する場合、距離算出部14は、オブジェクト9の現実高さを用いて、高さ方向の仮想位置を算出し、結果として、オブジェクト9の三次元位置を決定することができる。オブジェクト9の最高位の点がオブジェクト9の仮想位置として算出されてもよい。   The distance calculation unit 14 is based on the real position relationship between the marker 8 and the object 9 indicated by the information acquired by the information acquisition unit 31 and the virtual position of the marker 8 determined by the reference calculation unit 13. The virtual position of the object 9 in the original virtual space is calculated. When the information acquired by the information acquisition unit 31 is two-dimensional information as described above, the distance calculation unit 14 calculates the position of a certain point on the plane on which the object 9 is placed as the virtual position of the object 9 To do. When the information is three-dimensional information, the distance calculation unit 14 calculates a three-dimensional position taking into account the height direction of the object 9 as a virtual position of the object 9. For example, when the information acquisition unit 31 acquires information indicating the actual height of the object 9, the distance calculation unit 14 calculates a virtual position in the height direction using the actual height of the object 9, and as a result, The three-dimensional position of the object 9 can be determined. The highest point of the object 9 may be calculated as the virtual position of the object 9.

距離算出部14は、基準算出部13により算出されたマーカ8と撮像部7との現実距離及び撮像部7の仮想位置、並びに、算出されたオブジェクト9の仮想位置を用いて、撮像部7とオブジェクト9との現実距離を算出する。   The distance calculation unit 14 uses the actual distance between the marker 8 and the imaging unit 7 calculated by the reference calculation unit 13, the virtual position of the imaging unit 7, and the calculated virtual position of the object 9 to The actual distance from the object 9 is calculated.

撮像部7とオブジェクトとの現実距離の計算は他の手法でも算出され得る。例えば、方向算出部18により算出される、オブジェクトに対する撮像部7の撮影方向を更に用いて、撮像部7とオブジェクトとの現実距離が算出されてもよい。また、距離算出部14は、リアルタイム撮影画像からオブジェクトの少なくとも一部を認識し、その認識された箇所に基づいて、三次元仮想空間におけるオブジェクトの仮想位置を算出することもできる。
リアルタイム撮影画像からオブジェクトの少なくとも一部の認識は、そのオブジェクトが有する所定の色及び所定の形状の少なくとも一方を用いた一般的な画像認識技術により行うことができる。この場合、撮像装置10は情報取得部31を持たなくてもよく、マーカとオブジェクトとの現実位置関係を示す情報は用いられなくてもよい。
The calculation of the actual distance between the imaging unit 7 and the object can be calculated by other methods. For example, the actual distance between the imaging unit 7 and the object may be calculated by further using the shooting direction of the imaging unit 7 with respect to the object calculated by the direction calculation unit 18. The distance calculation unit 14 can also recognize at least a part of the object from the real-time captured image and calculate the virtual position of the object in the three-dimensional virtual space based on the recognized location.
Recognition of at least a part of an object from a real-time captured image can be performed by a general image recognition technique using at least one of a predetermined color and a predetermined shape of the object. In this case, the imaging device 10 may not have the information acquisition unit 31, and information indicating the actual positional relationship between the marker and the object may not be used.

撮像装置10は、撮像部7から取得されるリアルタイム撮影画像を、図12に示されるように、表示部5に表示させることもできる。
図12は、リアルタイム撮影画像の表示例を示す図である。図12の例によれば、表示部5には、オブジェクト9及びARマーカ8が写るリアルタイム撮影画像が表示され、更に、その一部に多方位撮影の撮影状況を示すインジケータIが重畳表示される。この場合、撮像装置10は、画像格納部17に格納されている静止画像に関連付けられた方向情報から、撮影済みの撮影方向DR及び未撮影の撮影方向DNを決定し、方向算出部18により算出される撮像部7の現在の撮影方向DWを取得する。撮像装置10は、図12に示されるように、これら各種の撮影方向DR、DN及びDWを区別可能なインジケータ画面要素を生成する。このインジケータによれば、撮影者は、多方位撮影の撮影状況を把握し易くなるので、この表示により、撮影者に、多方位撮影を効率的に実施させることができる。
The imaging device 10 can also display the real-time captured image acquired from the imaging unit 7 on the display unit 5 as shown in FIG.
FIG. 12 is a diagram illustrating a display example of a real-time captured image. According to the example of FIG. 12, the display unit 5 displays a real-time captured image in which the object 9 and the AR marker 8 are captured, and an indicator I indicating a multi-directional shooting state is superimposed on a part of the captured image. . In this case, the imaging apparatus 10 determines the shooting direction DR that has been shot and the shooting direction DN that has not been shot from the direction information associated with the still image stored in the image storage unit 17, and is calculated by the direction calculation unit 18. The current shooting direction DW of the imaging unit 7 to be acquired is acquired. As illustrated in FIG. 12, the imaging apparatus 10 generates indicator screen elements that can distinguish these various shooting directions DR, DN, and DW. According to this indicator, the photographer can easily grasp the photographing situation of the multidirectional photographing, and this display enables the photographer to efficiently perform the multidirectional photographing.

なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、記載された順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障がない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態及び実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
In addition, in the some flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the described order. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents. Moreover, each above-mentioned embodiment and each modification can be combined in the range with which the content does not conflict.
Although the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

上記の各実施形態及び各変形例の一部又は全部は、以下に示す付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。   A part or all of each of the above embodiments and modifications may be specified as in the following supplementary notes. However, each embodiment and each modification are not limited to the following description.

(付記1) 撮像部からリアルタイム撮影画像を逐次取得する画像取得手段と、
前記画像取得手段により取得されるリアルタイム撮影画像からマーカを検出するマーカ検出手段と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出する基準算出手段と、
前記算出された撮影位置関係、及び、前記マーカと前記リアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出する距離算出手段と、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定するパラメータ決定手段と、
前記フォーカスパラメータを前記撮像部に設定する設定手段と、
を備える撮像制御装置。
(付記2) 前記撮影位置関係及び前記オブジェクト位置関係を用いて、前記オブジェクトに対する前記撮像部の撮影方向を算出する方向算出手段と、
前記方向算出手段により算出された前記撮像部の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、該判定結果に基づいて、前記撮像部に静止画像のキャプチャを指示するキャプチャ指示手段と、
を更に備える付記1に記載の撮像制御装置。
(付記3) 前記画像取得手段は、前記撮像部によりキャプチャされた静止画像を、キャプチャ時に算出されていた前記撮像部の撮影方向に対応する方向情報と関連付けて画像格納部に格納し、
前記キャプチャ指示手段は、前記方向算出手段により算出された前記撮像部の撮影方向と前記画像格納部に格納されている静止画像と関連付けられている前記方向情報との関係から、前記キャプチャを指示するか否かを判定する、
付記2に記載の撮像制御装置。
(付記4) 前記設定手段により設定された前記フォーカスパラメータを用いた静止画像又は動画像のキャプチャを前記撮像部へ指示するキャプチャ指示手段、
を更に備える付記1から3のいずれか1つに記載の撮像制御装置。
(付記5) 前記撮像部にオートフォーカスの停止を指示する停止指示手段、
を更に備える付記1から4のいずれか1つに記載に撮像制御装置。
(付記6) 前記マーカと前記オブジェクトとの現実位置関係を示す情報を取得する情報取得手段、
を更に備え、
前記基準算出手段は、前記マーカに関する現実情報及び画像情報に基づいて、三次元仮想空間を設定し、該三次元仮想空間における前記マーカ及び前記撮像部の仮想位置、及び、前記マーカと前記撮像部との現実距離を算出し、
前記距離算出手段は、前記マーカと前記オブジェクトとの現実位置関係、及び、前記マーカの仮想位置に基づいて、前記三次元仮想空間における前記オブジェクトの仮想位置を算出し、前記マーカと前記撮像部との現実距離、前記撮像部の仮想位置及び前記オブジェクトの仮想位置を用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記1から5のいずれか1つに記載の撮像制御装置。
(付記7) 前記オブジェクトの現実高さ情報を取得する情報取得手段、
を更に備え、
前記距離算出手段は、前記オブジェクトの現実高さを更に用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記1から6のいずれか1つに記載の撮像制御装置。
(付記8) 撮像部からリアルタイム撮影画像を逐次取得し、
前記取得されたリアルタイム撮影画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出し、
前記算出された撮影位置関係、及び、前記マーカと前記リアルタイム撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出し、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定し、
前記フォーカスパラメータを前記撮像部に設定する、
ことを含む撮像制御方法。
(付記9) 前記撮影位置関係及び前記オブジェクト位置関係を用いて、前記オブジェクトに対する前記撮像部の撮影方向を算出し、
前記算出された撮像部の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、
前記判定結果に基づいて、前記撮像部に静止画像のキャプチャを指示する、
ことを更に含む付記8に記載の撮像制御方法。
(付記10) 前記撮像部によりキャプチャされた静止画像を、キャプチャ時に算出されていた前記撮像部の撮影方向に対応する方向情報と関連付けて画像格納部に格納する、
ことを更に含み、
前記判定は、前記算出された撮像部の撮影方向と前記画像格納部に格納されている静止画像と関連付けられている前記方向情報との関係から、前記キャプチャを指示するか否かを判定する、
付記9に記載の撮像制御方法。
(付記11) 前記設定されたフォーカスパラメータを用いた静止画像又は動画像のキャプチャを前記撮像部へ指示する、
ことを更に含む付記8から10のいずれか1つに記載の撮像制御方法。
(付記12) 前記撮像部にオートフォーカスの停止を指示する、
ことを更に含む付記8から11のいずれか1つに記載に撮像制御方法。
(付記13) 前記マーカと前記オブジェクトとの現実位置関係を示す情報を取得し、
前記マーカに関する現実情報及び画像情報に基づいて、三次元仮想空間を設定する、
ことを更に含み、
前記撮影位置関係の算出は、前記三次元仮想空間における前記マーカ及び前記撮像部の仮想位置、及び、前記マーカと前記撮像部との現実距離を算出し、
前記撮像部と前記オブジェクトとの現実距離の算出は、
前記マーカと前記オブジェクトとの現実位置関係、及び、前記マーカの仮想位置に基づいて、前記三次元仮想空間における前記オブジェクトの仮想位置を算出することを含み、
前記マーカと前記撮像部との現実距離、前記撮像部の仮想位置及び前記オブジェクトの仮想位置を用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記8から12のいずれか1つに記載の撮像制御方法。
(付記14) 前記オブジェクトの現実高さ情報を取得する、
ことを更に含み、
前記撮像部と前記オブジェクトとの現実距離の算出は、前記オブジェクトの現実高さを更に用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
付記8から13のいずれか1つに記載の撮像制御方法。
(付記15)付記8から14のいずれか1つに記載の撮像制御方法を撮像部を有するコンピュータに実行させるプログラムを格納する記録媒体。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は2014年3月20日に出願された日本出願特願2014−057774を基礎とする優先権を主張し、その開示の全てをここに取り込む。
(Appendix 1) Image acquisition means for sequentially acquiring real-time captured images from the imaging unit;
Marker detection means for detecting a marker from a real-time captured image acquired by the image acquisition means;
Reference calculation means for calculating a photographing positional relationship indicating a positional relationship between the marker and the imaging unit based on the actual information and the image information regarding the detected marker;
Distance calculating means for calculating an actual distance between the imaging unit and the object by using the calculated imaging position relationship and an object positional relationship indicating a positional relationship between the marker and the object captured in the real-time captured image; ,
Parameter determining means for determining a focus parameter for focusing the imaging unit on the object using the calculated actual distance;
Setting means for setting the focus parameter in the imaging unit;
An imaging control apparatus comprising:
(Additional remark 2) The direction calculation means which calculates the imaging | photography direction of the said imaging part with respect to the said object using the said imaging | photography positional relationship and the said object positional relationship;
Whether to instruct to capture a still image is determined according to the shooting direction of the imaging unit calculated by the direction calculation unit, and based on the determination result, the imaging unit is instructed to capture a still image. Capture instruction means;
The imaging control apparatus according to appendix 1, further comprising:
(Supplementary Note 3) The image acquisition unit stores the still image captured by the imaging unit in an image storage unit in association with direction information corresponding to the shooting direction of the imaging unit that was calculated at the time of capture,
The capture instruction unit instructs the capture from a relationship between a shooting direction of the imaging unit calculated by the direction calculation unit and the direction information associated with the still image stored in the image storage unit. Whether or not
The imaging control device according to attachment 2.
(Supplementary Note 4) Capture instruction means for instructing the imaging unit to capture a still image or a moving image using the focus parameter set by the setting means,
The imaging control apparatus according to any one of appendices 1 to 3, further comprising:
(Supplementary Note 5) Stop instruction means for instructing the imaging unit to stop autofocus,
The imaging control device according to any one of appendices 1 to 4, further comprising:
(Supplementary Note 6) Information acquisition means for acquiring information indicating the actual positional relationship between the marker and the object;
Further comprising
The reference calculating unit sets a three-dimensional virtual space based on the real information and image information related to the marker, the marker and the virtual position of the imaging unit in the three-dimensional virtual space, and the marker and the imaging unit And calculate the actual distance from
The distance calculating means calculates a virtual position of the object in the three-dimensional virtual space based on a real positional relationship between the marker and the object and a virtual position of the marker, and the marker, the imaging unit, Using the real distance, the virtual position of the imaging unit, and the virtual position of the object, the real distance between the imaging unit and the object is calculated.
The imaging control device according to any one of appendices 1 to 5.
(Supplementary note 7) Information acquisition means for acquiring the actual height information of the object,
Further comprising
The distance calculating means further uses the actual height of the object to calculate the actual distance between the imaging unit and the object.
The imaging control device according to any one of appendices 1 to 6.
(Supplementary Note 8) Real-time captured images are sequentially acquired from the imaging unit,
A marker is detected from the acquired real-time captured image,
Based on the actual information and image information regarding the detected marker, calculate a shooting positional relationship indicating the positional relationship between the marker and the imaging unit,
Using the calculated positional relationship of the image and the object positional relationship indicating the positional relationship between the marker and the object captured in the real-time captured image, the actual distance between the imaging unit and the object is calculated,
Using the calculated actual distance, determine a focus parameter for focusing the imaging unit on the object,
Setting the focus parameter in the imaging unit;
An imaging control method.
(Additional remark 9) Using the said imaging | photography positional relationship and the said object positional relationship, the imaging | photography direction of the said imaging part with respect to the said object is calculated,
According to the calculated shooting direction of the imaging unit, determine whether to instruct to capture a still image,
Instructing the imaging unit to capture a still image based on the determination result,
The imaging control method according to appendix 8, further including:
(Supplementary Note 10) The still image captured by the imaging unit is stored in the image storage unit in association with the direction information corresponding to the shooting direction of the imaging unit calculated at the time of capture.
Further including
The determination is based on a relationship between the calculated shooting direction of the imaging unit and the direction information associated with the still image stored in the image storage unit, and determines whether to instruct the capture.
The imaging control method according to appendix 9.
(Supplementary Note 11) Instructing the imaging unit to capture a still image or a moving image using the set focus parameter.
The imaging control method according to any one of appendices 8 to 10, further including:
(Supplementary Note 12) Instructing the imaging unit to stop autofocus,
The imaging control method according to any one of appendices 8 to 11, further including:
(Supplementary Note 13) Obtaining information indicating the actual positional relationship between the marker and the object,
Based on the real information and image information regarding the marker, a three-dimensional virtual space is set.
Further including
The calculation of the shooting position relationship is to calculate the virtual position of the marker and the imaging unit in the three-dimensional virtual space, and the actual distance between the marker and the imaging unit,
The calculation of the actual distance between the imaging unit and the object is as follows:
Calculating a virtual position of the object in the three-dimensional virtual space based on a real position relationship between the marker and the object, and a virtual position of the marker;
Using the actual distance between the marker and the imaging unit, the virtual position of the imaging unit, and the virtual position of the object, the actual distance between the imaging unit and the object is calculated.
The imaging control method according to any one of appendices 8 to 12.
(Supplementary Note 14) Obtaining the actual height information of the object,
Further including
The calculation of the actual distance between the imaging unit and the object further uses the actual height of the object to calculate the actual distance between the imaging unit and the object.
The imaging control method according to any one of appendices 8 to 13.
(Supplementary note 15) A recording medium for storing a program that causes a computer having an imaging unit to execute the imaging control method according to any one of Supplementary notes 8 to 14.
The present invention has been described above using the above-described embodiment as an exemplary example. However, the present invention is not limited to the above-described embodiment. That is, the present invention can apply various modes that can be understood by those skilled in the art within the scope of the present invention.
This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2014-057774 for which it applied on March 20, 2014, and takes in those the indications of all here.

1 CPU
2 メモリ
4 通信部
5 表示部
6 入力部
7 撮像部
10 撮像装置
11 画像取得部
12 マーカ検出部
13 基準算出部
14 距離算出部
15 パラメータ決定部
16 設定部
17 画像格納部
18 方向算出部
19 キャプチャ指示部
21 停止指示部
31 情報取得部
1 CPU
2 Memory 4 Communication unit 5 Display unit 6 Input unit 7 Imaging unit 10 Imaging device 11 Image acquisition unit 12 Marker detection unit 13 Reference calculation unit 14 Distance calculation unit 15 Parameter determination unit 16 Setting unit 17 Image storage unit 18 Direction calculation unit 19 Capture Instruction unit 21 Stop instruction unit 31 Information acquisition unit

Claims (9)

撮像部から撮画像を取得する画像取得手段と、
前記画像取得手段により取得される撮画像からマーカを検出するマーカ検出手段と、
前記検出されたマーカに関する情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出する基準算出手段と、
前記算出された撮影位置関係、及び、前記マーカと前記撮影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出する距離算出手段と、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定するパラメータ決定手段と、
決定された前記フォーカスパラメータを前記撮像部に設定し、ピントを調節する設定手段と、
を備える撮像制御装置。

An image obtaining unit for obtaining the shadow image shooting from the imaging unit,
A marker detection means for detecting a marker from the shooting image acquired by the image acquisition unit,
Reference calculation means for calculating a photographing positional relationship indicating a positional relationship between the marker and the imaging unit based on the information on the detected marker;
Distance calculation means for calculating the actual distance between the imaging unit and the object using the calculated shooting position relationship and the object position relationship indicating the positional relationship between the marker and the object captured in the captured image;
Parameter determining means for determining a focus parameter for focusing the imaging unit on the object using the calculated actual distance;
Setting means for setting the determined focus parameter in the imaging unit and adjusting a focus;
An imaging control apparatus comprising:

前記撮影位置関係及び前記オブジェクト位置関係を用いて、前記オブジェクトに対する前記撮像部の撮影方向を算出する方向算出手段と、
前記方向算出手段により算出された前記撮像部の撮影方向に応じて、静止画像のキャプチャを指示するか否かを判定し、該判定結果に基づいて、前記撮像部に静止画像のキャプチャを指示するキャプチャ指示手段と、
を更に備える請求項1に記載の撮像制御装置。
Direction calculating means for calculating a shooting direction of the imaging unit with respect to the object using the shooting position relationship and the object position relationship;
Whether to instruct to capture a still image is determined according to the shooting direction of the imaging unit calculated by the direction calculation unit, and based on the determination result, the imaging unit is instructed to capture a still image. Capture instruction means;
The imaging control apparatus according to claim 1, further comprising:
前記画像取得手段は、前記撮像部によりキャプチャされた静止画像を、キャプチャ時に算出されていた前記撮像部の撮影方向に対応する方向情報と関連付けて画像格納部に格納し、
前記キャプチャ指示手段は、前記方向算出手段により算出された前記撮像部の撮影方向と前記画像格納部に格納されている静止画像と関連付けられている前記方向情報との関係から、前記キャプチャを指示するか否かを判定する、
請求項2に記載の撮像制御装置。
The image acquisition means stores the still image captured by the imaging unit in an image storage unit in association with direction information corresponding to the shooting direction of the imaging unit that was calculated at the time of capture,
The capture instruction unit instructs the capture from a relationship between a shooting direction of the imaging unit calculated by the direction calculation unit and the direction information associated with the still image stored in the image storage unit. Whether or not
The imaging control apparatus according to claim 2.
前記設定手段により設定された前記フォーカスパラメータを用いた静止画像又は動画像のキャプチャを前記撮像部へ指示するキャプチャ指示手段、
を更に備える請求項1から3のいずれか1項に記載の撮像制御装置。
Capture instruction means for instructing the imaging unit to capture a still image or a moving image using the focus parameter set by the setting means;
The imaging control apparatus according to any one of claims 1 to 3, further comprising:
前記撮像部にオートフォーカスの停止を指示する停止指示手段、
を更に備える請求項1から4のいずれか1項に記載に撮像制御装置。
Stop instruction means for instructing the imaging unit to stop autofocus;
The imaging control apparatus according to any one of claims 1 to 4, further comprising:
前記マーカと前記オブジェクトとの現実位置関係を示す情報を取得する情報取得手段、 を更に備え、
前記基準算出手段は、前記マーカに関する情報に基づいて、三次元仮想空間を設定し、該三次元仮想空間における前記マーカ及び前記撮像部の仮想位置、及び、前記マーカと前記撮像部との現実距離を算出し、
前記距離算出手段は、前記マーカと前記オブジェクトとの現実位置関係、及び、前記マーカの仮想位置に基づいて、前記三次元仮想空間における前記オブジェクトの仮想位置を算出し、前記マーカと前記撮像部との現実距離、前記撮像部の仮想位置及び前記オブジェクトの仮想位置を用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
請求項1から5のいずれか1項に記載の撮像制御装置。
Information acquisition means for acquiring information indicating a real positional relationship between the marker and the object;
The reference calculation means sets a three-dimensional virtual space based on the information about the marker, the virtual position of the marker and the imaging unit in the three-dimensional virtual space, and the actual distance between the marker and the imaging unit To calculate
The distance calculating means calculates a virtual position of the object in the three-dimensional virtual space based on a real positional relationship between the marker and the object and a virtual position of the marker, and the marker, the imaging unit, Using the real distance, the virtual position of the imaging unit, and the virtual position of the object, the real distance between the imaging unit and the object is calculated.
The imaging control apparatus according to any one of claims 1 to 5.
前記オブジェクトの現実高さ情報を取得する情報取得手段、
を更に備え、
前記距離算出手段は、前記オブジェクトの現実高さを更に用いて、前記撮像部と前記オブジェクトとの現実距離を算出する、
請求項1から6のいずれか1項に記載の撮像制御装置。
Information acquisition means for acquiring real height information of the object;
Further comprising
The distance calculating means further uses the actual height of the object to calculate the actual distance between the imaging unit and the object.
The imaging control apparatus according to any one of claims 1 to 6.
撮像部から撮影画像を取得し、
前記取得された撮影画像からマーカを検出し、
前記検出されたマーカに関する情報に基づいて、該マーカと前記撮像部との位置関係を示す撮影位置関係を算出し、
前記算出された撮影位置関係、及び、前記マーカと前記影画像に写るオブジェクトとの位置関係を示すオブジェクト位置関係を用いて、前記撮像部と該オブジェクトとの現実距離を算出し、
前記算出された現実距離を用いて、前記オブジェクトに前記撮像部のピントを合わせるためのフォーカスパラメータを決定し、
決定された前記フォーカスパラメータを前記撮像部に設定し、ピントを調節する、
ことを含む撮像制御方法。
Acquire a captured image from the imaging unit,
A marker is detected from the acquired captured image,
Based on the information related to the detected marker, a shooting positional relationship indicating a positional relationship between the marker and the imaging unit is calculated,
The calculated photographing position relationship, and, by using the positional relationship object positional relationship shown of an object caught on the shooting image and the marker, and calculate the actual distance between the imaging unit and the object,
Using the calculated actual distance, determine a focus parameter for focusing the imaging unit on the object,
Set the determined focus parameter in the imaging unit and adjust the focus ;
An imaging control method.
請求項8に記載の撮像制御方法をコンピュータに実行させるプログラム
The program which makes a computer perform the imaging control method of Claim 8 .
JP2016508516A 2014-03-20 2015-03-11 Imaging control apparatus, imaging control method, and program Active JP6483661B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014057774 2014-03-20
JP2014057774 2014-03-20
PCT/JP2015/001315 WO2015141185A1 (en) 2014-03-20 2015-03-11 Imaging control device, imaging control method, and storage medium

Publications (2)

Publication Number Publication Date
JPWO2015141185A1 JPWO2015141185A1 (en) 2017-04-06
JP6483661B2 true JP6483661B2 (en) 2019-03-13

Family

ID=54144169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508516A Active JP6483661B2 (en) 2014-03-20 2015-03-11 Imaging control apparatus, imaging control method, and program

Country Status (2)

Country Link
JP (1) JP6483661B2 (en)
WO (1) WO2015141185A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6522768B2 (en) * 2015-09-30 2019-05-29 富士フイルム株式会社 Imaging apparatus and imaging method
CN111654688B (en) * 2020-05-29 2022-03-29 亮风台(上海)信息科技有限公司 Method and equipment for acquiring target control parameters
CN115359048B (en) * 2022-10-19 2023-01-31 中国工程物理研究院应用电子学研究所 Real-time dynamic alignment measurement method based on closed-loop tracking and aiming and tracking and aiming device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175694A (en) * 2011-02-24 2012-09-10 Kyocera Corp Electronic apparatus
JP2012207344A (en) * 2011-03-30 2012-10-25 Mitsubishi Rayon Co Ltd Method for producing polyacrylonitrile-based fiber
JP5776903B2 (en) * 2012-03-02 2015-09-09 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2013207344A (en) * 2012-03-27 2013-10-07 Nikon Corp Detection device, imaging device, and program

Also Published As

Publication number Publication date
WO2015141185A1 (en) 2015-09-24
JPWO2015141185A1 (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6522708B2 (en) Preview image display method and apparatus, and terminal
WO2018201809A1 (en) Double cameras-based image processing device and method
US10306165B2 (en) Image generating method and dual-lens device
KR102143456B1 (en) Depth information acquisition method and apparatus, and image collection device
JP6157242B2 (en) Image processing apparatus and image processing method
CN108432230B (en) Imaging device and method for displaying an image of a scene
CN110677621B (en) Camera calling method and device, storage medium and electronic equipment
US20120275648A1 (en) Imaging device and imaging method and program
JP6448674B2 (en) A portable information processing apparatus having a camera function for performing guide display for capturing an image capable of character recognition, a display control method thereof, and a program
CN109218606B (en) Image pickup control apparatus, control method thereof, and computer readable medium
KR20130031207A (en) Image capturing apparatus and control method thereof
KR102280000B1 (en) Display control apparatus, display control method, and storage medium
EP3912336B1 (en) Automatic generation of all-in-focus images with a mobile camera
KR20190075654A (en) Electronic device comprising plurality of cameras and method for operating therepf
JP2019129410A (en) Monitoring camera, control method thereof, and program
JP2020053774A (en) Imaging apparatus and image recording method
CN106791456A (en) A kind of photographic method and electronic equipment
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
JP2015026880A (en) Imaging apparatus
CN106922181B (en) Direction-aware autofocus
WO2018196854A1 (en) Photographing method, photographing apparatus and mobile terminal
CN105467741A (en) Panoramic shooting method and terminal
JP2016111561A (en) Information processing device, system, information processing method, and program
JP2011193066A (en) Image sensing device
CN115086558B (en) Focusing method, image pickup apparatus, terminal apparatus, and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R150 Certificate of patent or registration of utility model

Ref document number: 6483661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150