JP2014209690A - Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program - Google Patents

Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program Download PDF

Info

Publication number
JP2014209690A
JP2014209690A JP2013086102A JP2013086102A JP2014209690A JP 2014209690 A JP2014209690 A JP 2014209690A JP 2013086102 A JP2013086102 A JP 2013086102A JP 2013086102 A JP2013086102 A JP 2013086102A JP 2014209690 A JP2014209690 A JP 2014209690A
Authority
JP
Japan
Prior art keywords
detection
posture
azimuth
imaging
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013086102A
Other languages
Japanese (ja)
Inventor
雄資 白川
Yusuke Shirakawa
雄資 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013086102A priority Critical patent/JP2014209690A/en
Publication of JP2014209690A publication Critical patent/JP2014209690A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To correctly detect an imaging direction even when installation accuracy of an azimuth detection device to an imaging device is insufficient or when an installation direction of the azimuth detection device to the imaging device is not settled.SOLUTION: An imaging device 100 comprises: an attitude detection part 106; a fixing part 115 capable of detachably fixing an azimuth detection device 101 having an electronic compass 117 capable of detecting an azimuth and an attitude detection part 119 capable of detecting an own attitude; and a CPU 108 for causing the attitude detection part 106 and the attitude detection part 119 to perform detection of attitudes a plurality of times at the same timing and calculating a relative angle with the azimuth detection device 101 fixed to the fixing part 115, from attitude detection results by the attitude detection part 106 and the attitude detection part 119.

Description

本発明は、姿勢を検出することができる撮像装置、および姿勢を検出することができる方位検出装置に関する。   The present invention relates to an imaging device capable of detecting a posture and an azimuth detecting device capable of detecting a posture.

近年、デジタルカメラに、電子コンパス、を搭載し、撮像した画像に、撮像方向の情報を関連付けることが行われている。例えば、特許文献1には、自機の向いている方向を、電子コンパスを用いて検出し、画像データに関連付けて保存する電子コンパス内蔵デジタルカメラが開示されている。また、電子コンパスをデジタルカメラに内蔵するのではなく、着脱可能な外部アクセサリとして提供するものも知られている。   In recent years, an electronic compass is mounted on a digital camera, and information on an imaging direction is associated with a captured image. For example, Patent Document 1 discloses a digital camera with a built-in electronic compass that detects the direction in which the device is facing using an electronic compass and stores the detected image in association with image data. There is also known an electronic compass that is provided not as a built-in digital camera but as a removable external accessory.

特開2006−33712号公報JP 2006-33712 A

しかしながら、電子コンパスを着脱可能とした場合、実際の撮像方向から大きくずれる可能性がある。電子コンパスの取得する方位情報は、電子コンパスが向いている方向を示すものであり、撮像装置の撮像方向を示すものではない。したがって、電子コンパスと撮像装置との位置関係が定まっていない場合、つまり撮像装置と電子コンパスとがそれぞれ互いに異なる方向を自由に向いてしまうような場合は、電子コンパスが示す方位情報が撮像方向を示していない可能性が高い。そのため、実際の撮像方向とは異なる方向を示す、不適切な方位情報が、画像データに対応づけられてしまう可能性がある。
本発明は、このような問題を鑑みてなされたものであり、適切な方位情報を提供することを目的とする。
However, when the electronic compass is made detachable, there is a possibility that it will deviate greatly from the actual imaging direction. The azimuth information acquired by the electronic compass indicates the direction in which the electronic compass is facing, and does not indicate the imaging direction of the imaging apparatus. Therefore, when the positional relationship between the electronic compass and the imaging device is not fixed, that is, when the imaging device and the electronic compass are freely oriented in different directions, the orientation information indicated by the electronic compass indicates the imaging direction. Most likely not shown. Therefore, there is a possibility that inappropriate orientation information indicating a direction different from the actual imaging direction is associated with the image data.
The present invention has been made in view of such a problem, and an object thereof is to provide appropriate orientation information.

上記目的を達成するために、本発明の撮像装置は、被写体を撮像して画像データを生成する撮像手段と、姿勢を検出する第1の姿勢検出手段と、方位を検出する方位検出手段と姿勢を検出する第2の姿勢検出手段とを有する方位検出装置と通信する通信手段と、前記第1の姿勢検出手段による姿勢の検出の結果と、前記第1の姿勢検出手段による姿勢の検出に対応して実行される前記第2の姿勢検出手段による前記方位検出装置の姿勢の検出の結果とに基づき、前記方位検出手段により検出された方位を補正する補正手段と、前記撮像手段により生成された画像データに前記補正手段により補正された方位を関連付ける関連付け手段とを有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and generates image data, a first orientation detection unit that detects an orientation, an orientation detection unit that detects an orientation, and an orientation. Corresponding to the communication means for communicating with the azimuth detecting device having the second attitude detecting means for detecting the position, the result of the attitude detection by the first attitude detecting means, and the attitude detection by the first attitude detecting means And a correction unit that corrects the azimuth detected by the azimuth detection unit based on a result of detection of the posture of the azimuth detection device by the second posture detection unit that is executed, and generated by the imaging unit. And an associating unit for associating the orientation corrected by the correcting unit with the image data.

本発明の方位検出装置は、姿勢を検出する第1の姿勢検出手段を有する撮像装置と通信することが可能な方位検出装置であって、方位を検出する方位検出手段と、前記方位検出装置の姿勢を検出する第2の姿勢検出手段と、前記第1の姿勢検出手段による前記撮像装置の姿勢の検出結果と前記第2の姿勢検出手段による前記方位検出装置の姿勢の検出結果とに基づき、前記方位検出手段が検出した方位を補正する補正手段と、前記補正手段により補正された方位を前記撮像装置に送信する送信手段とを有することを特徴とする。   An azimuth detection apparatus according to the present invention is an azimuth detection apparatus capable of communicating with an imaging apparatus having a first attitude detection unit that detects an attitude, the azimuth detection unit that detects an azimuth, Based on the second attitude detection means for detecting the attitude, the detection result of the attitude of the imaging device by the first attitude detection means, and the detection result of the attitude of the azimuth detection device by the second attitude detection means, And a correction unit that corrects the direction detected by the direction detection unit, and a transmission unit that transmits the direction corrected by the correction unit to the imaging apparatus.

本発明によれば、適切な方位情報を提供することができる。   According to the present invention, appropriate azimuth information can be provided.

本発明の実施形態にかかる撮像装置と方位検出装置とが適用された撮像システムの全体を表すブロック図である。1 is a block diagram illustrating an entire imaging system to which an imaging apparatus and an orientation detection apparatus according to an embodiment of the present invention are applied. 本発の実施形態にかかる撮像装置と方位検出装置の固定形態を説明する図である。It is a figure explaining the fixed form of the imaging device and azimuth | direction detection apparatus concerning this embodiment. 本発明の実施形態にかかる撮像装置と方位検出装置の内部演算における座標系を示した図である。It is the figure which showed the coordinate system in the internal calculation of the imaging device and azimuth | direction detection apparatus concerning embodiment of this invention. 本発明の実施形態にかかる相対角度の演算の処理を表したフローチャートである。It is a flowchart showing the process of the calculation of the relative angle concerning embodiment of this invention. 複数回にわたる姿勢の検出の結果を表した図である。It is a figure showing the result of the detection of the attitude | position in multiple times. 本発明の実施形態にかかる方位情報算出方法の処理を表したフローチャートである。It is a flowchart showing the process of the direction information calculation method concerning embodiment of this invention. 本発明の実施形態にかかる撮像装置と方位検出装置のそれぞれの加速度センサ出力の時間変化を表した図である。It is a figure showing the time change of each acceleration sensor output of the imaging device and azimuth | direction detection apparatus concerning embodiment of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
<撮像システム>
まず、本発明の第1の実施形態について説明する。図1は、本実施形態にかかる撮像装置100と方位検出装置101とが適用された撮像システムの構成を示すブロック図である。
本実施形態にかかる撮像装置100には、デジタルカメラが適用される。ただし、撮像装置100はデジタルカメラに限定されるものではない。例えば、撮像装置100は、撮像機能を有する携帯電話や、タブレットデバイス、パーソナルコンピュータなどの情報処理装置であってもよい。
CPU108は、入力された信号や、後述のコンピュータプログラムの実行により、撮像装置100の各部を制御する。なお、CPU108が撮像装置100の各部を制御する構成に代えて、複数のハードウェアが制御のための処理を分担することで撮像装置100の各部を制御してもよい。
撮像センサ104は、レンズ105により結像された被写体の光学像を、電気信号である画像データに変換する。そして、撮像センサ104は、画像データに対してノイズ低減処理などを行い、デジタル形式の画像データを生成して出力する。撮像センサ104が出力(生成)した画像データは、バッファメモリとして機能する作業用メモリ111に一時的に保持される。CPU108は、作業用メモリ111に保持された画像データに対して所定の演算を行い、記録媒体110に記録する。画像データに対する所定の処理には、撮像装置100の向きを示す補正した方位情報(後述)を関連付ける処理が含まれる。
不揮発性メモリ112は、電気的に消去・記録可能な不揮発性のメモリである。不揮発性メモリ112には、CPU108が実行するコンピュータプログラム(後述)等が格納される。
作業用メモリ111は、たとえば揮発性メモリ(RAM)が適用される。作業用メモリ111は、撮像センサ104で撮像された画像データを一時的に保持するバッファメモリや、表示部109の画像表示用メモリ、CPU108の作業領域等として使用される。
操作部114は、撮像装置100に対する指示をユーザから受け付けるために用いられる。操作部114は例えば、ユーザが撮像装置100の電源のON/OFFを指示するための電源ボタンや、撮像を指示するためのレリーズスイッチ、画像データの再生を指示するための再生ボタンなどの操作部材を含む。また、表示部109に形成されるタッチパネルも操作部114に含まれる。CPU108は、ユーザによる操作部114への操作を検出すると、操作部114の操作部材や操作内容に対応付けられた処理を実行する。特に、CPU108は、リレーズスイッチの操作(撮像の指示)を検出すると、撮像処理を実行する。撮像処理は、撮像の指示にしたがって、撮像を実行して画像データを生成する処理である。撮像処理においては、撮像装置100のCPU108は、レンズ105や撮像センサ104を制御し、撮像センサ104はCPU108による制御にしたがって画像データを生成する。
表示部109は、撮像の際のビューファインダー画像の表示、撮像した画像データの表示、対話的な操作のための文字表示などを行う。なお、表示部109は、必ずしも撮像装置100に設けられなくてもよい。撮像装置100は、少なくとも、表示部109と接続することができ、表示部109の表示を制御する表示制御機能を有していればよい。
記録媒体110は、撮像センサ104から出力された画像を記録することができる。記録媒体110は、撮像装置100に着脱可能なよう構成してもよいし、撮像装置100に内蔵されていてもよい。すなわち、撮像装置100は、少なくとも記録媒体110にアクセスする手段を有していればよい。
姿勢検出部106(第1の姿勢検出手段)は、撮像装置100の姿勢を検出する。姿勢検出部106(第1の姿勢検出手段)には例えば加速度センサを用いることができる。
通信部107は、外部装置と接続するためのインターフェースである。本実施形態にかかる撮像装置100は、通信部107を介して、外部装置とデータを送受信できる。なお、本実施形態では、通信部107はアンテナであり、CPU108は、アンテナを介して、外部装置と無線でデータを送受信できる。データ通信のプロトコルには、例えば無線LANを通じたPTP/IP(Picture Transfer Protocol over Internet Protocol)が適用できる。なお、外部装置との通信方法は、これに限られるものではない。例えば、通信部107は、赤外線通信モジュール、Bluewtooth(登録商標)通信モジュール、WirelessUSB等の無線通信モジュールを含むことができる。さらには、USBケーブルやHDMI(エイチディーエムアイ・ライセンシング,エルエルシーの登録商標)、IEEE1394など、有線接続であってもよい。
[First Embodiment]
<Imaging system>
First, a first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of an imaging system to which an imaging apparatus 100 and an orientation detection apparatus 101 according to the present embodiment are applied.
A digital camera is applied to the imaging apparatus 100 according to the present embodiment. However, the imaging apparatus 100 is not limited to a digital camera. For example, the imaging apparatus 100 may be an information processing apparatus such as a mobile phone having an imaging function, a tablet device, or a personal computer.
The CPU 108 controls each unit of the imaging apparatus 100 by executing an input signal or a computer program described later. Instead of the configuration in which the CPU 108 controls each unit of the imaging apparatus 100, each unit of the imaging apparatus 100 may be controlled by a plurality of pieces of hardware sharing control processing.
The imaging sensor 104 converts the optical image of the subject formed by the lens 105 into image data that is an electrical signal. The image sensor 104 performs noise reduction processing on the image data, and generates and outputs digital image data. Image data output (generated) by the image sensor 104 is temporarily held in the work memory 111 that functions as a buffer memory. The CPU 108 performs a predetermined calculation on the image data held in the work memory 111 and records it on the recording medium 110. The predetermined processing for the image data includes processing for associating corrected azimuth information (described later) indicating the orientation of the imaging apparatus 100.
The nonvolatile memory 112 is an electrically erasable / recordable nonvolatile memory. The nonvolatile memory 112 stores a computer program (described later) executed by the CPU 108.
As the work memory 111, for example, a volatile memory (RAM) is applied. The work memory 111 is used as a buffer memory that temporarily stores image data picked up by the image sensor 104, an image display memory of the display unit 109, a work area of the CPU 108, and the like.
The operation unit 114 is used for receiving an instruction for the imaging apparatus 100 from a user. The operation unit 114 is, for example, operation members such as a power button for instructing the user to turn on / off the power of the imaging apparatus 100, a release switch for instructing imaging, and a playback button for instructing reproduction of image data. including. A touch panel formed on the display unit 109 is also included in the operation unit 114. When the CPU 108 detects an operation on the operation unit 114 by the user, the CPU 108 executes a process associated with the operation member or operation content of the operation unit 114. In particular, when the CPU 108 detects an operation (an imaging instruction) of the relay switch, the CPU 108 executes an imaging process. The imaging process is a process of generating image data by executing imaging according to an imaging instruction. In the imaging process, the CPU 108 of the imaging apparatus 100 controls the lens 105 and the imaging sensor 104, and the imaging sensor 104 generates image data according to the control by the CPU 108.
The display unit 109 performs display of a viewfinder image at the time of imaging, display of captured image data, display of characters for interactive operation, and the like. Note that the display unit 109 is not necessarily provided in the imaging device 100. The imaging device 100 may be connected to at least the display unit 109 and has a display control function for controlling display on the display unit 109.
The recording medium 110 can record the image output from the imaging sensor 104. The recording medium 110 may be configured to be detachable from the imaging device 100 or may be built in the imaging device 100. In other words, the imaging apparatus 100 only needs to have at least means for accessing the recording medium 110.
The attitude detection unit 106 (first attitude detection means) detects the attitude of the imaging device 100. For example, an acceleration sensor can be used for the posture detection unit 106 (first posture detection means).
The communication unit 107 is an interface for connecting to an external device. The imaging device 100 according to the present embodiment can transmit and receive data to and from an external device via the communication unit 107. In the present embodiment, the communication unit 107 is an antenna, and the CPU 108 can transmit and receive data wirelessly with an external device via the antenna. As a data communication protocol, for example, PTP / IP (Picture Transfer Protocol over Internet Protocol) through a wireless LAN can be applied. Note that the communication method with the external device is not limited to this. For example, the communication unit 107 can include an infrared communication module, a Bluetooth (registered trademark) communication module, and a wireless communication module such as WirelessUSB. Furthermore, a wired connection such as a USB cable, HDMI (registered trademark of LM Licensing, LLC), IEEE 1394, or the like may be used.

固定部115は、方位検出装置101を撮像装置100に固定するための固定具である。例えば、固定部115は、ストロボ装置等の周辺機器を固定可能なアクセサリシュー等である。なお、周辺機器には、方位検出装置101も含まれる。この固定部115が方位検出装置101の固定部121に係合することにより、方位検出装置101が撮像装置100に着脱可能に固定される。なお、本実施形態においては、方位検出装置101は、方位検出装置101に含まれる電子コンパス117が取得する方位情報の示す方向と、撮像装置100の撮像方向(レンズ105の光軸方向)とが一致するように固定される。   The fixing unit 115 is a fixture for fixing the azimuth detecting device 101 to the imaging device 100. For example, the fixing unit 115 is an accessory shoe or the like that can fix a peripheral device such as a strobe device. Note that the peripheral device also includes an orientation detection device 101. The azimuth detecting device 101 is detachably fixed to the imaging device 100 by engaging the fixing portion 115 with the fixing portion 121 of the azimuth detecting device 101. In this embodiment, the azimuth detecting device 101 has a direction indicated by azimuth information acquired by the electronic compass 117 included in the azimuth detecting device 101 and an imaging direction of the imaging device 100 (optical axis direction of the lens 105). Fixed to match.

次に、本実施形態にかかる方位検出装置101の構成について説明する。本実施形態にかかる方位検出装置101は、撮像装置100に着脱可能に固定できる。そして、方位検出装置101は、自身の位置および方向を検出し、検出結果を撮像装置100に送信することができる。
CPU118は、入力された信号や、後述のプログラムの実行によって、方位検出装置101の各部を制御する。なお、CPU118が方位検出装置101の全体を制御する構成に代えて、複数のハードウェアが制御のための処理を分担することで、方位検出装置101の各部を制御してもよい。
GPS120は、測位処理を行う。測位処理とは、GPS衛星から信号を受信し、受信した信号から方位検出装置101の位置を示す位置情報を取得する処理である。GPS120が取得した位置情報は、通信部116を介して撮像装置100に送信することができる。送信された位置情報は、撮像装置100が撮像した画像に、撮像位置として関連付けられる。たとえば、撮像装置100のCPU101は、GPS120が取得した位置情報を受信し、撮像した(生成した)画像データに受信した位置情報を関連付ける。本実施形態では、位置情報は、緯度・経度の座標で表される。なお、本実施形態にかかる方位検出装置101は、GPS120を用いる構成に代えて、例えば携帯電話の基地局といった外部装置や加速度センサなどから位置情報を取得する装置であってもよい。あるいは、GPS120とそれらを併用する構成であってもよい。
電子コンパス117(方位検出手段)は、方位検出装置101自身の向いている方位を検出する。電子コンパス117(方位検出手段)には、例えば地磁気センサが適用できる。
姿勢検出部119(第2の姿勢検出手段)は、方位検出装置101自身の姿勢を検出する。姿勢検出部119(第2の姿勢検出手段)には、例えば加速度センサが適用できる。
このほか、方位検出装置101は、撮像装置100と同様に、不揮発性メモリと作業用メモリとを有する(いずれも図略)。不揮発性メモリには、方位検出装置101を制御するためのコンピュータプログラムが格納される。
Next, the configuration of the direction detection device 101 according to the present embodiment will be described. The orientation detection device 101 according to the present embodiment can be detachably fixed to the imaging device 100. Then, the azimuth detection device 101 can detect its own position and direction and transmit the detection result to the imaging device 100.
The CPU 118 controls each unit of the azimuth detecting device 101 by an input signal or execution of a program described later. Instead of the configuration in which the CPU 118 controls the entire azimuth detecting device 101, each unit of the azimuth detecting device 101 may be controlled by a plurality of pieces of hardware sharing control processing.
The GPS 120 performs a positioning process. The positioning process is a process of receiving a signal from a GPS satellite and acquiring position information indicating the position of the azimuth detecting device 101 from the received signal. The position information acquired by the GPS 120 can be transmitted to the imaging apparatus 100 via the communication unit 116. The transmitted position information is associated with an image captured by the image capturing apparatus 100 as an image capturing position. For example, the CPU 101 of the image capturing apparatus 100 receives the position information acquired by the GPS 120 and associates the received position information with the captured (generated) image data. In the present embodiment, the position information is represented by latitude / longitude coordinates. Note that the direction detection device 101 according to the present embodiment may be a device that acquires position information from an external device such as a mobile phone base station, an acceleration sensor, or the like, instead of the configuration using the GPS 120. Or the structure which uses GPS120 and them together may be sufficient.
The electronic compass 117 (orientation detection means) detects the orientation that the orientation detection device 101 itself faces. For example, a geomagnetic sensor can be applied to the electronic compass 117 (direction detection means).
The posture detection unit 119 (second posture detection means) detects the posture of the direction detection device 101 itself. For example, an acceleration sensor can be applied to the posture detection unit 119 (second posture detection means).
In addition, the azimuth detecting device 101 includes a nonvolatile memory and a working memory (both not shown), like the imaging device 100. The non-volatile memory stores a computer program for controlling the direction detection device 101.

<方位検出装置の撮像装置への固定形態>
図2は、方位検出装置101を撮像装置100に着脱可能に固定するための固定態様の例を模式的に示す図である。
図2(a)は、方位検出装置101を撮像装置100のアクセサリシューに取り付けた態様を模式的に示す図である。アクセサリシューは、撮像装置100の撮像方向(光軸の向き)に対して、メカ的に高い精度で構成されている。そのため、方位検出装置101がアクセサリシューに取り付けられると、方位検出装置101の正面方向が、撮像装置100の撮像方向と一致する。ただし、方位検出装置101の固定部の寸法精度や、方位検出装置101の内部の各種センサの取り付け精度が不十分であると、たとえば1°単位といった高い精度で正確に撮像方向を検出できないことがある。方位検出装置101と撮像装置100とは、通信部107、116を介して信号の送受信を行う。ここで、通信部107、116を介して送受信する信号には、方位情報や位置情報が含まれる。ただし、図2(a)に示すように、ケーブル201によって信号を送受信可能に接続される構成であってもよい。
<Fixed form of orientation detection device to imaging device>
FIG. 2 is a diagram schematically illustrating an example of a fixing mode for detachably fixing the azimuth detecting device 101 to the imaging device 100.
FIG. 2A is a diagram schematically illustrating an aspect in which the orientation detection device 101 is attached to the accessory shoe of the imaging device 100. FIG. The accessory shoe is mechanically configured with high accuracy with respect to the imaging direction (the direction of the optical axis) of the imaging device 100. Therefore, when the orientation detection device 101 is attached to the accessory shoe, the front direction of the orientation detection device 101 matches the imaging direction of the imaging device 100. However, if the dimensional accuracy of the fixed portion of the azimuth detecting device 101 and the mounting accuracy of various sensors inside the azimuth detecting device 101 are insufficient, the imaging direction cannot be detected with high accuracy, for example, in units of 1 °. is there. The direction detection device 101 and the imaging device 100 transmit and receive signals via the communication units 107 and 116. Here, the signals transmitted and received via the communication units 107 and 116 include azimuth information and position information. However, as shown to Fig.2 (a), the structure connected so that a signal can be transmitted / received by the cable 201 may be sufficient.

図2(b)は、方位検出装置101がアングル202を介して撮像装置100に着脱可能に固定される態様を模式的に示す図である。アングル202は、撮像装置100に設けられる三脚取り付け用のネジ穴を用いて撮像装置100に着脱可能に固定される。そして、方位検出装置101と撮像装置100とは、通信部107,116を介して信号の送受信を行う。ただし、図2(b)に示すように、ケーブル201によって信号を送受信可能に接続される構成であってもよい。この態様は、撮像装置100のアクセサリシューにストロボなどが取り付けている場合など、アクセサリシューが使えない場合に用いられる態様である。三脚取り付け用のねじ穴にアングル202を締め付けただけでは、撮像装置100とアングル202との取り付け方向が定まらない。このため、結果として、撮像装置100と、方位検出装置101との相対的な取り付け方向が定まらない。   FIG. 2B is a diagram schematically illustrating an aspect in which the azimuth detecting device 101 is detachably fixed to the imaging device 100 via the angle 202. The angle 202 is detachably fixed to the imaging device 100 using a tripod mounting screw hole provided in the imaging device 100. The orientation detection device 101 and the imaging device 100 transmit and receive signals via the communication units 107 and 116. However, as shown in FIG. 2B, a configuration in which signals can be transmitted and received by a cable 201 may be employed. This mode is used when the accessory shoe cannot be used, such as when a strobe is attached to the accessory shoe of the imaging apparatus 100. By simply tightening the angle 202 in the screw hole for attaching the tripod, the mounting direction of the imaging device 100 and the angle 202 cannot be determined. For this reason, as a result, the relative attachment direction of the imaging device 100 and the direction detection device 101 is not determined.

図3は、本実施形態にかかる撮像装置100と、本実施形態にかかる方位検出装置101の内部演算における座標系を模式的に示した図である。具体的には、図3(a)は、方位検出装置101を撮像装置100に固定した状態を示す図である。図3(b)は、撮像装置100の座標系を模式的に示す図である。図3(c)は、方位検出装置101の座標系を模式的に示す図である。図3(d)は、撮像装置100の座標系と方位検出装置101の座標系を重ねて示す図である。撮像装置100と方位検出装置101は、内部演算の際には、図3(b)と図3(c)に示すように、それぞれの独自の座標系を用いる。
図3(b)に示すように、撮像装置100は、z軸の正の方向を撮像方向(すなわち、レンズ105の光軸の方向)と定義している。撮像装置100の姿勢検出部106(加速度センサ)は、この座標系に合うように(この座標系を基準として)出力を補正し、補正した出力を加速度センサ出力としている。
図3(c)に示すように、方位検出装置101は、Z軸の正の方向を、方位検出装置101の正面方向と定義している。方位検出装置101の姿勢検出部119(加速度センサ)、および、電子コンパス117(地磁気センサ)は、この座標系に合うように出力を補正し、補正した出力をそれぞれ、加速度センサ出力、電子コンパス出力としている。
方位検出装置101を撮像装置100に固定した状態において、取り付け精度が十分に高ければ、それぞれの座標系における3つの軸は重なる。しかしながら実際には、図3(d)に示すように、方位検出装置101と撮像装置100の方向を合わせたつもりでも、さまざまな部分の寸法誤差が積み重なって座標系の軸にずれが生じる。図3(d)は、撮像装置100の座標系と方位検出装置101の座標系のずれを模式的に示す図である。このようなずれがある場合には、このずれを補正しなければ、方位検出装置101が検出した撮像方向は、実際の撮像方向に対してずれの分だけ精度が低下する。
FIG. 3 is a diagram schematically illustrating a coordinate system in the internal calculation of the imaging apparatus 100 according to the present embodiment and the azimuth detecting apparatus 101 according to the present embodiment. Specifically, FIG. 3A is a diagram illustrating a state in which the azimuth detecting device 101 is fixed to the imaging device 100. FIG. 3B is a diagram schematically illustrating the coordinate system of the imaging apparatus 100. FIG. 3C is a diagram schematically showing a coordinate system of the azimuth detecting device 101. FIG. 3D is a diagram in which the coordinate system of the imaging apparatus 100 and the coordinate system of the orientation detection apparatus 101 are overlapped. The imaging device 100 and the azimuth detecting device 101 use their own coordinate systems as shown in FIGS. 3B and 3C when performing internal calculations.
As illustrated in FIG. 3B, the imaging apparatus 100 defines the positive direction of the z axis as the imaging direction (that is, the direction of the optical axis of the lens 105). The posture detection unit 106 (acceleration sensor) of the imaging apparatus 100 corrects the output so as to match this coordinate system (with this coordinate system as a reference), and uses the corrected output as the acceleration sensor output.
As illustrated in FIG. 3C, the azimuth detecting device 101 defines the positive direction of the Z axis as the front direction of the azimuth detecting device 101. The orientation detection unit 119 (acceleration sensor) and the electronic compass 117 (geomagnetic sensor) of the azimuth detection device 101 correct the output so as to match this coordinate system, and the corrected output is an acceleration sensor output and an electronic compass output, respectively. It is said.
If the orientation detection device 101 is fixed to the imaging device 100 and the mounting accuracy is sufficiently high, the three axes in the respective coordinate systems overlap. However, actually, as shown in FIG. 3D, even if the directions of the azimuth detecting device 101 and the imaging device 100 are intended to be matched, the dimensional errors of various portions are accumulated and the axis of the coordinate system is shifted. FIG. 3D is a diagram schematically illustrating a shift between the coordinate system of the imaging apparatus 100 and the coordinate system of the orientation detection apparatus 101. If there is such a deviation, unless the deviation is corrected, the imaging direction detected by the azimuth detecting device 101 is less accurate than the actual imaging direction.

<方位情報の算出方法について>
次に、本実施形態にかかる方位情報算出方法について説明する。本実施形態においては、撮像装置100と方位検出装置101とが協働して方位情報算出方法の処理を実行する。そして、この方位情報算出方法を実行することによって、両装置間の固定方向のずれを補正する。
<About the calculation method of direction information>
Next, the direction information calculation method according to the present embodiment will be described. In the present embodiment, the imaging device 100 and the orientation detection device 101 cooperate to execute the orientation information calculation method. And the deviation | shift of the fixed direction between both apparatuses is correct | amended by performing this direction information calculation method.

図4(a)は、本実施形態にかかる撮像装置100の動作を示すフローチャートである。図4(a)のフローチャートに示す処理を実行するためのコンピュータプログラムは、あらかじめ不揮発性メモリ112に格納されている。そして、CPU108は、このコンピュータプログラムを不揮発性メモリ112から読み出し、作業用メモリ111に展開して実行する。これにより、CPU108は撮像装置100の各部を制御し、図4(b)に示す処理が実現する。
また、図4(b)は、本実施形態にかかる方位検出装置101の動作を示すフローチャートである。図4(b)に示す処理を実行するためのコンピュータプログラムは、あらかじめ、方位検出装置101の不揮発性メモリ(図略)に格納されている。そして、CPU118は、このコンピュータプログラムを不揮発性メモリから読み出し、作業用メモリ(図略)に展開して実行する。これにより、CPU118は、方位検出装置101の各部を制御し、図4(b)に示す処理が実現する。
撮像装置100のCPU108は、撮像装置100の電源がONになると、図4(a)に示すフローチャートの処理を開始する。同様に、方位検出装置101のCPU118は、方位検出装置101の電源がONになると(または、撮像装置100から電力の供給が開始されると)、図4(b)に示す処理を開始する。
FIG. 4A is a flowchart illustrating the operation of the imaging apparatus 100 according to the present embodiment. A computer program for executing the processing shown in the flowchart of FIG. 4A is stored in advance in the nonvolatile memory 112. Then, the CPU 108 reads out this computer program from the nonvolatile memory 112, expands it in the work memory 111, and executes it. As a result, the CPU 108 controls each unit of the imaging apparatus 100 and realizes the processing illustrated in FIG.
FIG. 4B is a flowchart showing the operation of the azimuth detecting apparatus 101 according to the present embodiment. A computer program for executing the processing shown in FIG. 4B is stored in advance in a non-volatile memory (not shown) of the azimuth detecting device 101. Then, the CPU 118 reads out the computer program from the non-volatile memory, develops it in a working memory (not shown), and executes it. Thereby, CPU118 controls each part of the direction detection apparatus 101, and the process shown in FIG.4 (b) is implement | achieved.
When the power of the imaging apparatus 100 is turned on, the CPU 108 of the imaging apparatus 100 starts the processing of the flowchart illustrated in FIG. Similarly, the CPU 118 of the azimuth detecting device 101 starts the process shown in FIG. 4B when the power of the azimuth detecting device 101 is turned on (or when the supply of power from the imaging device 100 is started).

撮像装置100のCPU108は、ステップS401において、撮像装置100と方位検出装置101が互いに固定されたかどうかを検出する(固定判定処理)。
同様に、方位検出装置101のCPU118は、ステップS410において、撮像装置100と方位検出装置101が互いに固定されたかどうかを検出する(固定判定処理)。
固定の検知については、例えば撮像装置100の固定部115と方位検出装置101の固定部121の少なくとも一方に設けられたハードウェアスイッチを利用してもよい。または、例えば、撮像装置100のCPU108が、通信部107を介して固定されたことを示す情報を受信することにより検知してもよい。固定が検出されない場合、本ステップの処理を繰り返す。一方、固定が検知された場合、処理はステップS402に進む。同様に、方位検出装置101のCPU118は、撮像装置100への固定が検出されるまでステップS410の処理を繰り返し、固定が検出された場合にはステップS411に進む。
In step S401, the CPU 108 of the imaging apparatus 100 detects whether the imaging apparatus 100 and the orientation detection apparatus 101 are fixed to each other (fixed determination process).
Similarly, the CPU 118 of the azimuth detecting device 101 detects whether or not the imaging device 100 and the azimuth detecting device 101 are fixed to each other in step S410 (fixed determination processing).
For detection of fixation, for example, a hardware switch provided in at least one of the fixing unit 115 of the imaging device 100 and the fixing unit 121 of the orientation detection device 101 may be used. Alternatively, for example, the CPU 108 of the imaging apparatus 100 may detect the information by receiving information indicating that the image is fixed via the communication unit 107. If fixing is not detected, the process of this step is repeated. On the other hand, if fixing is detected, the process proceeds to step S402. Similarly, the CPU 118 of the azimuth detecting apparatus 101 repeats the process of step S410 until the fixing to the imaging apparatus 100 is detected, and proceeds to step S411 when the fixing is detected.

撮像装置100のCPU108は、ステップS402において、方位検出装置101のCPU118は、ステップS411において、それぞれ通信部107、116を介して撮像装置100と方位検出装置101との通信を確立する。
このステップで確立する通信は、有線でも無線でも構わない。また、撮像装置100と方位検出装置101との通信の確立のタイミングは、このタイミングに限られるものではない。例えば、本フローチャートの処理が開始する前に撮像装置100と方位検出装置101との通信が確立していてもよい。その場合、本ステップは実行されない。また、その場合、本フローチャートの処理は、撮像装置100と方位検出装置101との通信の確立に応じて開始されるようにしてもよい。
In step S402, the CPU 108 of the imaging apparatus 100 establishes communication between the imaging apparatus 100 and the orientation detection apparatus 101 via the communication units 107 and 116, respectively, in step S411.
Communication established in this step may be wired or wireless. In addition, the timing of establishment of communication between the imaging device 100 and the direction detection device 101 is not limited to this timing. For example, communication between the imaging device 100 and the orientation detection device 101 may be established before the processing of the flowchart is started. In this case, this step is not executed. In this case, the processing of this flowchart may be started in response to establishment of communication between the imaging device 100 and the orientation detection device 101.

撮像装置100のCPU108は、ステップS403において、姿勢検出部106(加速度センサ)の出力を検出し記憶する。
また、方位検出装置101のCPU118は、ステップS412において、姿勢検出部119(加速度センサ)の出力を検出して記憶する。
なお、撮像装置100のCPU108は、このステップS403における姿勢検出部106(加速度センサ)の出力の検出タイミングを、方位検出装置101がステップS412において実行する加速度センサの出力の検知のタイミングと同期するよう制御する。タイミングの同期の方法としては、例えば、次のような方法が適用できる。まず、撮像装置100のCPU108が、姿勢検出部106の出力の検出タイミングを、方位検出装置101に通信部107を介して送信する。方位検出装置101のCPU118は、撮像装置100から受信した検出タイミングと同じタイミングで、姿勢検出部119の出力を検出する。
In step S403, the CPU 108 of the imaging apparatus 100 detects and stores the output of the posture detection unit 106 (acceleration sensor).
In step S412, the CPU 118 of the azimuth detecting device 101 detects and stores the output of the posture detecting unit 119 (acceleration sensor).
Note that the CPU 108 of the imaging device 100 synchronizes the detection timing of the output of the posture detection unit 106 (acceleration sensor) in step S403 with the detection timing of the output of the acceleration sensor executed by the azimuth detection device 101 in step S412. Control. As a timing synchronization method, for example, the following method can be applied. First, the CPU 108 of the imaging apparatus 100 transmits the detection timing of the output of the attitude detection unit 106 to the azimuth detection apparatus 101 via the communication unit 107. The CPU 118 of the orientation detection device 101 detects the output of the posture detection unit 119 at the same timing as the detection timing received from the imaging device 100.

なお、姿勢検出部106、119(加速度センサ)の出力を記憶するタイミングは、撮像装置100と方位検出装置101とが静止状態にあるタイミングであることが望ましい。これは、撮像装置100と方位検出装置101とでは姿勢検出部106、119(加速度センサ)の位置が異なるため、撮像装置100と方位検出装置101とが動いていると出力が異なる可能性があるからである。このため、撮像装置100の姿勢検出部106と方位検出装置101の姿勢検出部119の出力が激しく変動することが無く、重力加速度の大きさと一致する状態で記録することが理想的である。
そこで、撮像装置100のCPU108は、姿勢検出部106としての加速度センサの出力の単位時間当たりの変動が閾値以上であるか否かの判定を行う(静止判定手段)。そして、撮像装置100のCPU108は、出力の単位時間当たりの変動が閾値未満である場合には、撮像装置100が静止していると判定する。なお、方位検出装置101のCPU118が、姿勢検出部119の出力に基づいて静止判定を行ってもよい。この場合には、方位検出装置101のCPU118は、静止判定の結果を、通信部116を介して撮像装置100に送信する。
Note that the timing for storing the outputs of the posture detection units 106 and 119 (acceleration sensors) is desirably the timing at which the imaging device 100 and the orientation detection device 101 are in a stationary state. This is because the positions of the posture detection units 106 and 119 (acceleration sensors) are different between the imaging device 100 and the azimuth detection device 101, and therefore the output may be different when the imaging device 100 and the azimuth detection device 101 are moving. Because. For this reason, it is ideal that the outputs of the posture detection unit 106 of the imaging device 100 and the posture detection unit 119 of the azimuth detection device 101 do not fluctuate greatly and are recorded in a state that matches the gravitational acceleration.
Therefore, the CPU 108 of the imaging apparatus 100 determines whether or not the fluctuation per unit time of the output of the acceleration sensor serving as the posture detection unit 106 is equal to or greater than a threshold (stationary determination unit). Then, the CPU 108 of the imaging device 100 determines that the imaging device 100 is stationary when the output per unit time fluctuation is less than the threshold value. Note that the CPU 118 of the azimuth detection apparatus 101 may perform stillness determination based on the output of the attitude detection unit 119. In this case, the CPU 118 of the azimuth detection apparatus 101 transmits the result of the stillness determination to the imaging apparatus 100 via the communication unit 116.

撮像装置100のCPU108は、このステップS403において、姿勢検出部106の出力を複数回(少なくとも3回)にわたって検知し、それぞれの場合での撮像装置100の姿勢を決定する。そして、方位検出装置101のCPU118は、このステップS412において、姿勢検出部119の出力を撮像装置100に同期して同じ回数だけ複数回にわたって検出する。
図5(a)は、撮像装置100の3回の姿勢検出結果の一例を模式的に示し、図5(b)は、方位検出装置101の3回の姿勢検出結果の一例を模式的に示す。3回の検出タイミングにおける姿勢は、図5のように、なるべく異なる方向を示すことが望ましい。すなわち、撮像装置100および方位検出装置101を様々な向きに傾けた状態で姿勢を検出することが望ましい。
In step S403, the CPU 108 of the imaging apparatus 100 detects the output of the attitude detection unit 106 a plurality of times (at least three times), and determines the attitude of the imaging apparatus 100 in each case. In step S412, the CPU 118 of the azimuth detection device 101 detects the output of the posture detection unit 119 a plurality of times the same number of times in synchronization with the imaging device 100.
FIG. 5A schematically shows an example of three posture detection results of the imaging device 100, and FIG. 5B schematically shows an example of three posture detection results of the azimuth detection device 101. . It is desirable that the postures at the three detection timings indicate different directions as much as possible as shown in FIG. That is, it is desirable to detect the posture with the imaging device 100 and the orientation detection device 101 tilted in various directions.

ここで、撮像装置100のCPU108は、出力が異なる方向を示さない場合には、相対角度データの演算には使用しないようにする。例えば、撮像装置100のCPU108は、複数回のうちのある特定の回の姿勢の検出の結果を、当該ある特定の回の直前の回の姿勢の検出の結果と比較する。そして、ある特定の回とその直前の回とが同じ結果である場合には、撮像装置100のCPU108は、再び姿勢の検出を行う。そして、前記ある特定の回の姿勢の検出の結果を、新たな検出の結果に更新する。このようにして、複数回にわたる姿勢の検出の結果が、互いに異なる結果となるまで、姿勢の検出を行う。すなわち、ある特定の回がその直前の回と同じ結果である場合には、当該ある特定の回の結果を演算に用いない。   Here, the CPU 108 of the imaging apparatus 100 is not used for the calculation of the relative angle data when the output does not indicate a different direction. For example, the CPU 108 of the imaging apparatus 100 compares the result of detecting the posture at a specific time among a plurality of times with the result of detecting the posture at the time immediately before the specific time. If a specific time and the immediately previous time are the same result, the CPU 108 of the imaging apparatus 100 detects the posture again. Then, the result of detecting the posture at a specific time is updated to a new detection result. In this way, posture detection is performed until the results of posture detection multiple times are different from each other. That is, when a specific time is the same result as the previous time, the result of the specific time is not used for the calculation.

なお、演算に使用するための姿勢検出の回数は3回に限定されるものではない。さらに多くの姿勢の情報を使うことで、さらに演算精度を高めることが可能である。   Note that the number of posture detections for use in the calculation is not limited to three. By using more posture information, the calculation accuracy can be further improved.

方位検出装置101のCPU118は、ステップS413において、姿勢検出部119の出力の結果を、通信部116を介して撮像装置100に送信する。
撮像装置100のCPU108は、ステップS404において、方位検出装置101の姿勢検出部119の検出結果を受信する。
In step S <b> 413, the CPU 118 of the orientation detection device 101 transmits the output result of the orientation detection unit 119 to the imaging device 100 via the communication unit 116.
In step S404, the CPU 108 of the imaging device 100 receives the detection result of the posture detection unit 119 of the azimuth detection device 101.

撮像装置100のCPU108は、ステップS405において、それぞれの姿勢検出部106、119の出力に基づき、撮像装置100と方位検出装置101との相対角度を算出する。この相対角度が、撮像装置100の撮像方向と方位検出装置101の方向とのずれ量となる。具体的な算出方法については後述する。このように、撮像装置100の撮像方向を基準として、方位検出装置101の相対角度を算出(決定)する。   In step S <b> 405, the CPU 108 of the imaging device 100 calculates the relative angle between the imaging device 100 and the azimuth detection device 101 based on the outputs of the posture detection units 106 and 119. This relative angle is the amount of deviation between the imaging direction of the imaging device 100 and the direction of the orientation detection device 101. A specific calculation method will be described later. In this way, the relative angle of the azimuth detecting device 101 is calculated (determined) with the imaging direction of the imaging device 100 as a reference.

撮像装置100のCPU108は、ステップS406において、算出して得られた相対角度のデータを、通信部107を介して方位検出装置101に送信する。
方位検出装置101のCPU118は、ステップS414において、撮像装置100がステップS406において送信した相対角度のデータを、通信部116を介して受信する。
In step S <b> 406, the CPU 108 of the imaging apparatus 100 transmits the relative angle data obtained by the calculation to the azimuth detection apparatus 101 via the communication unit 107.
In step S414, the CPU 118 of the orientation detection device 101 receives the relative angle data transmitted from the imaging device 100 in step S406 via the communication unit 116.

方位検出装置101は、これ以降、姿勢検出部119から取得する方位情報を、この相対角度のデータを用いて補正する。これにより、方位検出装置101は、撮像装置100の向きと方位検出装置101の向きのずれをキャンセルした方位情報を生成し、通信部116を介して撮像装置100に提供することができる。その結果、撮像装置100は、自機の向きを示す精度の高い方位情報を利用することができる。なお、ステップS403〜ステップS406の処理、およびステップS412〜ステップS414の処理は、定期的に繰り返し実行されてもよい。その場合、繰り返し実行される度に、相対角度のデータを更新する。これにより、ズレの量が変化してしまう場合にも対応することができる。   Thereafter, the azimuth detecting device 101 corrects the azimuth information acquired from the posture detecting unit 119 using the data of the relative angle. Thereby, the azimuth detection device 101 can generate azimuth information in which the deviation between the orientation of the imaging device 100 and the orientation detection device 101 is canceled, and can provide the azimuth information to the imaging device 100 via the communication unit 116. As a result, the imaging apparatus 100 can use highly accurate azimuth information indicating the direction of the own device. Note that the processing in steps S403 to S406 and the processing in steps S412 to S414 may be periodically and repeatedly executed. In this case, the relative angle data is updated every time the process is repeatedly executed. Thereby, it is possible to cope with a case where the amount of deviation changes.

次に、相対角度の演算方法について説明する。図5において、撮像装置100の姿勢検出部106が複数回(ここでは3回)にわたって検出した3つの異なる姿勢における加速度センサ出力を姿勢1、姿勢2、姿勢3とする。そして、これらの加速度センサ出力ベクトルを、それぞれ、

姿勢1:(x1 , y1 , z1)
姿勢2:(x2 , y2 , z2)
姿勢3:(x3 , y3 , z3)

とする。また、方位検出装置101の姿勢検出部119が検出した3つの異なる姿勢における加速度センサ出力を、姿勢1’、姿勢2’、姿勢3’とする。そして、これらの加速度センサ出力ベクトルを、それぞれ、

姿勢1’:(x1’ , y1’ , z1’)
姿勢2’:(x2’ , y2’ , z2’)
姿勢3’:(x3’ , y3’ , z3’)

とする。また、基準となる撮像装置100の撮像方向(光軸の向き)を、

(0 , 0 , A)

とし、方位検出装置101の撮像方向(光軸の向き)を、

(a , b , c)

とする。方位検出装置101の座標系における(a , b , c)が求めたい未知数である。
Next, a method for calculating the relative angle will be described. In FIG. 5, acceleration sensor outputs in three different postures detected by the posture detection unit 106 of the imaging apparatus 100 a plurality of times (here, three times) are assumed to be posture 1, posture 2, and posture 3. And these acceleration sensor output vectors are respectively

Posture 1: (x1, y1, z1)
Posture 2: (x2, y2, z2)
Posture 3: (x3, y3, z3)

And Further, the acceleration sensor outputs in three different postures detected by the posture detection unit 119 of the azimuth detecting device 101 are assumed to be posture 1 ′, posture 2 ′, and posture 3 ′. And these acceleration sensor output vectors are respectively

Posture 1 ′: (x1 ′, y1 ′, z1 ′)
Posture 2 ′: (x2 ′, y2 ′, z2 ′)
Posture 3 ′: (x3 ′, y3 ′, z3 ′)

And In addition, the imaging direction (direction of the optical axis) of the imaging apparatus 100 serving as a reference is

(0, 0, A)

And the imaging direction (direction of the optical axis) of the azimuth detecting device 101 is

(A, b, c)

And (A 1, b 2, c) in the coordinate system of the azimuth detecting device 101 is an unknown to be obtained.

それぞれの姿勢において、加速度センサの出力と撮像方向とがなす角度は、撮像装置100で演算しても、方位検出装置101で演算しても、同一となる。これを条件とすると、それぞれの姿勢について、加速度センサの出力ベクトルと、撮像方向ベクトルとのベクトル内積は同一の値となる。これを式にあらわすと、

a×x1’+b×y1’+x×z1’=A×z1
a×x2’+b×y2’+x×z2’=A×z2
a×x3’+b×y3’+x×z3’=A×z3

となる。ここで、a、b、c以外は既知の数である。したがって、上記の連立方程式を解けば、求めたい方位検出装置101の方向(光軸の向き)である(a , b , c)を算出できる。
In each posture, the angle formed by the output of the acceleration sensor and the imaging direction is the same whether calculated by the imaging device 100 or the azimuth detection device 101. If this is a condition, the vector inner product of the output vector of the acceleration sensor and the imaging direction vector is the same value for each posture. When this is expressed in an expression,

a × x1 ′ + b × y1 ′ + xx × z1 ′ = A × z1
a × x2 ′ + b × y2 ′ + xx × z2 ′ = A × z2
a × x3 ′ + b × y3 ′ + xx × z3 ′ = A × z3

It becomes. Here, other than a, b, and c are known numbers. Therefore, by solving the above simultaneous equations, it is possible to calculate (a 1, b 2, c) which are directions (directions of the optical axis) of the direction detection device 101 to be obtained.

方位検出装置101のCPU118は、このようにして演算された撮像方向データを基準として用いて、電子コンパス117の出力を補正する。これにより、撮像方向の方位を正確に算出することができる。すなわち、撮像装置100と、撮像装置100に着脱可能な方位検出装置101において、両装置の取り付け部の精度が低い場合や、両装置の向きが定まっていない場合でも、方位検出装置101は、撮像方向を正確に検出して撮像装置100に提供できる。したがって、撮像装置100は、正しい撮像方向の情報を、画像データに関連付けて記録することが可能になる。   The CPU 118 of the azimuth detecting device 101 corrects the output of the electronic compass 117 using the imaging direction data calculated in this way as a reference. Thereby, the azimuth | direction of an imaging direction is computable correctly. That is, in the imaging device 100 and the orientation detection device 101 that can be attached to and detached from the imaging device 100, the orientation detection device 101 captures an image even when the accuracy of the attachment portions of both devices is low or the orientation of both devices is not fixed. The direction can be accurately detected and provided to the imaging apparatus 100. Therefore, the imaging apparatus 100 can record information on the correct imaging direction in association with the image data.

以下に、相対角度を用いて補正した方位情報の利用について説明する。
図6は、本実施形態に係る方位検出装置101の動作を示すフローチャートである。方位検出装置101のCPU118は、撮像装置100との通信が確立すると、このフローチャートの処理を開始する。このフローチャートに示す処理を実行するためのコンピュータプログラムは、あらかじめ方位検出装置101の不揮発性メモリ(図略)に格納されている。そして、方位検出装置101のCPU118は、このコンピュータプログラムを不揮発性メモリから読み出し、作業用メモリ(図略)に展開して実行する。なお、方位検出装置101のCPU118は、このフローチャートに示す処理を、図4(b)に示す処理の後に実行する。
Hereinafter, use of the azimuth information corrected using the relative angle will be described.
FIG. 6 is a flowchart showing the operation of the azimuth detecting apparatus 101 according to this embodiment. When communication with the imaging device 100 is established, the CPU 118 of the azimuth detecting device 101 starts the processing of this flowchart. A computer program for executing the processing shown in this flowchart is stored in advance in a nonvolatile memory (not shown) of the azimuth detecting device 101. Then, the CPU 118 of the azimuth detecting device 101 reads out the computer program from the nonvolatile memory, and develops and executes the computer program on a working memory (not shown). The CPU 118 of the azimuth detecting apparatus 101 executes the process shown in this flowchart after the process shown in FIG.

まず、ステップS601にて、CPU118は、撮像装置100から方位情報の要求を受け付けたか否かを判断する。CPU118は、撮像装置100から方位情報の要求を受け付けていないと判断した場合、ステップS601の処理を繰り返す。一方、CPU118は、撮像装置100から方位情報の要求を受け付けたと判断した場合には、ステップS602に進む。なお、撮像装置100が方位情報の要求を送信するタイミングは、例えば撮像の指示を受け付けたタイミングや、一定時間の経過毎が考えられる。
ステップS602では、CPU118は、電子コンパス117(地磁気センサ)を用いて地磁気を検出し、電子コンパス117の方向を示す方位情報を算出する。このステップの処理は、
ステップS603では、CPU118は、予め保持している相対角度のデータに基づき、ステップS602で算出した方位情報に補正を施し、撮像装置100の方向を示す方位情報を算出する。
ステップS604では、CPU118は、撮像装置100からの方情報の要求に対する応答として、ステップS603で算出した方位情報を、通信部116を介して撮像装置100に送信する。送信された方位情報は、撮像装置100の作業用メモリ111に保持される。
これにより、撮像装置100は、撮像装置100の向きを示す方位情報を利用することができる。たとえば、撮像装置100のCPU108は、撮像した(生成された)画像データに、画像データを生成したタイミングにおける補正した方位情報を関連付ける。
First, in step S <b> 601, the CPU 118 determines whether or not a request for orientation information has been received from the imaging apparatus 100. If the CPU 118 determines that it has not received a request for orientation information from the imaging apparatus 100, it repeats the process of step S601. On the other hand, if the CPU 118 determines that a request for azimuth information has been received from the imaging apparatus 100, the process proceeds to step S602. Note that the timing at which the imaging apparatus 100 transmits a request for orientation information may be, for example, the timing at which an imaging instruction is received or every elapse of a certain time.
In step S602, the CPU 118 detects geomagnetism using the electronic compass 117 (geomagnetic sensor), and calculates azimuth information indicating the direction of the electronic compass 117. The processing of this step is
In step S603, the CPU 118 corrects the azimuth information calculated in step S602 based on the relative angle data held in advance, and calculates azimuth information indicating the direction of the imaging apparatus 100.
In step S <b> 604, the CPU 118 transmits the orientation information calculated in step S <b> 603 to the imaging apparatus 100 via the communication unit 116 as a response to the request for the direction information from the imaging apparatus 100. The transmitted azimuth information is held in the work memory 111 of the imaging apparatus 100.
Thereby, the imaging apparatus 100 can use orientation information indicating the orientation of the imaging apparatus 100. For example, the CPU 108 of the imaging apparatus 100 associates the corrected azimuth information at the timing when the image data is generated with the captured (generated) image data.

[第2の実施形態]
次に、図7を参照して、本発明の第2の実施形態を説明する。なお、本発明の第2の実施形態にかかる撮像装置100と方位検出装置101の機能構成は、第1の実施形態と共通の構成が適用できる。図7(a)は、本実施形態にかかる撮像装置100の姿勢検出部106の出力の時間変化を表した図であり、図7(b)は、本実施形態にかかる方位検出装置101の姿勢検出部119の出力を表した図である。なお、図7(a)と図7(b)とは、同じタイミングでのそれぞれの出力を示す。撮像装置100には、撮像処理の実行中において、シャッターや、絞り、ミラーといった部分が稼動し、撮像装置に固有の振動が発生する。撮像装置100の本体と、方位検出装置101とが固定されている場合には、撮像装置100と方位検出装置101の振動(姿勢の変化)は略同じになるから、姿勢検出部106,119による振動の検出結果は略同一となる。そこで、CPU108は、この処理(固定判定処理)を、撮影処理の実行中に行う。具体的には、撮像の指示があってから撮像センサ104が画像データを生成するよりも前のタイミングで行う。方位検出装置101が撮像装置100に固定されていない場合には、撮像装置に固有の振動は、撮像装置100の姿勢検出部106のみで検出され、方位検出装置101の姿勢検出部119では検出されない。そこで、撮像装置100のCPU108は、撮像装置100の姿勢検出部106の出力と方位検出装置101の姿勢検出部119の出力とを比較する。そして、撮像装置100のCPU108は、2つの出力が略同一となった場合に、方位検出装置101が撮像装置100に固定されていると判断する(固定判定手段)。なお、ここでは、CPU108は、2つの出力の差(姿勢の変化の差)が予め定められた値(所定の差)よりも小さい場合に、略同一であると判断する。この処理(固定判定処理)は、第1の実施形態のステップS401に対応する(図4参照)。
このように、撮像装置100のCPU108は、方位検出装置101が撮像装置100に固定されているか否かを検出し、固定されている場合に相対角度を算出する。これにより、撮像装置100と方位検出装置101との相対角度を正確に算出することが可能である。そして、方位検出装置101のCPU118は、正確な相対角度で電子コンパス117の出力を補正する。撮像装置100のCPU108は、補正した相対角度のデータを用いて、撮像方向の方位情報を正確に決定し、画像データに関連付けて保存することが可能になる。なお、方位検出装置101が撮像装置100に固定されていないと判定した場合には、撮像装置100のCPU108は、画像データに方位情報を関連付ける処理を行わない。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG. Note that the functional configurations of the imaging apparatus 100 and the orientation detection apparatus 101 according to the second embodiment of the present invention can be the same as those in the first embodiment. FIG. 7A is a diagram illustrating a temporal change in the output of the posture detection unit 106 of the imaging apparatus 100 according to the present embodiment, and FIG. 7B is a posture of the direction detection device 101 according to the present embodiment. It is a figure showing the output of the detection part 119. 7A and 7B show the respective outputs at the same timing. In the imaging apparatus 100, parts such as a shutter, a diaphragm, and a mirror are operated during execution of imaging processing, and vibrations specific to the imaging apparatus are generated. When the main body of the imaging device 100 and the azimuth detection device 101 are fixed, the vibrations (changes in posture) of the imaging device 100 and the azimuth detection device 101 are substantially the same. The vibration detection results are substantially the same. Therefore, the CPU 108 performs this process (fixed determination process) during the execution of the shooting process. Specifically, it is performed at a timing before the imaging sensor 104 generates image data after an imaging instruction is given. When the azimuth detecting device 101 is not fixed to the imaging device 100, the vibration unique to the imaging device is detected only by the posture detecting unit 106 of the imaging device 100 and not detected by the posture detecting unit 119 of the azimuth detecting device 101. . Therefore, the CPU 108 of the imaging apparatus 100 compares the output of the attitude detection unit 106 of the imaging apparatus 100 with the output of the attitude detection unit 119 of the orientation detection apparatus 101. Then, the CPU 108 of the imaging apparatus 100 determines that the orientation detection apparatus 101 is fixed to the imaging apparatus 100 when the two outputs are substantially the same (fixed determination unit). Here, the CPU 108 determines that the two outputs are substantially the same when the difference between the two outputs (the difference in posture change) is smaller than a predetermined value (predetermined difference). This process (fixed determination process) corresponds to step S401 in the first embodiment (see FIG. 4).
As described above, the CPU 108 of the imaging apparatus 100 detects whether or not the azimuth detection apparatus 101 is fixed to the imaging apparatus 100, and calculates the relative angle when it is fixed. Thereby, it is possible to accurately calculate the relative angle between the imaging device 100 and the orientation detection device 101. Then, the CPU 118 of the azimuth detecting device 101 corrects the output of the electronic compass 117 with an accurate relative angle. Using the corrected relative angle data, the CPU 108 of the imaging apparatus 100 can accurately determine the orientation information in the imaging direction and store it in association with the image data. When it is determined that the azimuth detecting device 101 is not fixed to the imaging device 100, the CPU 108 of the imaging device 100 does not perform processing for associating azimuth information with image data.

[その他の実施形態]
上述の実施形態では、撮像装置100にて相対角度を算出する例について述べた。しかしながら、撮像装置100は撮像処理等、CPU108の負荷の高い処理を実行する可能性がある。そこで、方位検出装置101のCPU118が相対角度を算出してもよい。この場合には、撮像装置100のCPU108は、姿勢検出部106の出力を、通信部116を介して方位検出装置101に送信する。これにより、撮像装置100のCPU108に負荷が集中することを防ぐことができる。
また、上述の実施形態では、相対角度を用いた補正を方位検出装置101において行う構成を示した。ただし、本発明はこのような構成に限定されるものではない。すなわち、撮像装置100が相対角度のデータを保持し、撮像装置100のCPU108が方位検出装置101から受信した方位情報を補正する構成であってもよい。
また、上述の第2の実施形態に加えて、両装置の比較する姿勢の変化として、撮像時に検出された姿勢の変化を利用してもよい。このようにするのは以下の理由による。すなわち、撮像時には、撮像のために構えるため、撮像装置100が静止している状態である可能性が高く、撮像による振動以外には、重力加速度しか影響が無い状況に近いと考えられるためである。なお、この場合には、撮像装置100が撮像の指示を受け付けたことに応じて、姿勢を検出するとともに、方位検出装置101に対して姿勢を検出させる指示を送信する。これにより、方位検出装置101でも、撮像のタイミング(撮像の指示を受け付けてから画像データを生成するタイミング)で姿勢を検出することができる。
[Other Embodiments]
In the above-described embodiment, the example in which the imaging apparatus 100 calculates the relative angle has been described. However, there is a possibility that the imaging apparatus 100 executes processing with a high load on the CPU 108 such as imaging processing. Therefore, the CPU 118 of the direction detection device 101 may calculate the relative angle. In this case, the CPU 108 of the imaging apparatus 100 transmits the output of the attitude detection unit 106 to the azimuth detection apparatus 101 via the communication unit 116. Thereby, it is possible to prevent the load from being concentrated on the CPU 108 of the imaging apparatus 100.
In the above-described embodiment, the configuration in which the correction using the relative angle is performed in the azimuth detecting device 101 is shown. However, the present invention is not limited to such a configuration. In other words, the image capturing apparatus 100 may hold the relative angle data, and the CPU 108 of the image capturing apparatus 100 may correct the direction information received from the direction detection apparatus 101.
Further, in addition to the second embodiment described above, a change in posture detected at the time of imaging may be used as a change in posture compared between the two apparatuses. This is done for the following reason. In other words, since the imaging device 100 is in a stationary state at the time of imaging, the imaging device 100 is likely to be in a stationary state, and it is considered that it is close to a situation in which only gravitational acceleration is affected other than vibration due to imaging. . In this case, in response to the imaging device 100 receiving an imaging instruction, the orientation is detected, and an instruction for detecting the orientation is transmitted to the azimuth detecting device 101. Accordingly, the orientation detection apparatus 101 can also detect the posture at the timing of imaging (timing for generating image data after receiving an imaging instruction).

なお、上述の実施形態は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The above-described embodiment can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (16)

被写体を撮像して画像データを生成する撮像手段と、
姿勢を検出する第1の姿勢検出手段と、
方位を検出する方位検出手段と姿勢を検出する第2の姿勢検出手段とを有する方位検出装置と通信する通信手段と、
前記第1の姿勢検出手段による姿勢の検出の結果と、前記第1の姿勢検出手段による姿勢の検出に対応して実行される前記第2の姿勢検出手段による前記方位検出装置の姿勢の検出の結果とに基づき、前記方位検出手段により検出された方位を補正する補正手段と、
前記撮像手段により生成された画像データに前記補正手段により補正された方位を関連付ける関連付け手段と
を有することを特徴とする撮像装置。
Imaging means for imaging a subject and generating image data;
First posture detecting means for detecting posture;
A communication unit that communicates with an azimuth detection device having an azimuth detection unit that detects an azimuth and a second posture detection unit that detects an orientation;
The result of the posture detection by the first posture detection unit and the detection of the posture of the azimuth detection device by the second posture detection unit executed in response to the posture detection by the first posture detection unit. Correction means for correcting the orientation detected by the orientation detection means based on the result;
An imaging apparatus comprising: an association unit that associates the image data generated by the imaging unit with the orientation corrected by the correction unit.
前記第1の姿勢検出手段による姿勢の検出の結果と、前記第2の姿勢検出手段による前記方位検出装置の姿勢の検出の結果とに基づき、前記方位検出装置が前記撮像装置に固定されているか否かを判定する判定手段をさらに有し、
前記関連付け手段は、前記判定手段により前記方位検出装置が前記撮像装置に固定されていないと判定された場合、前記関連付けを行わないことを特徴とする請求項1に記載の撮像装置。
Whether the azimuth detecting device is fixed to the imaging device based on the result of the posture detection by the first posture detecting unit and the result of the posture detection of the azimuth detecting device by the second posture detecting unit. A determination means for determining whether or not,
The imaging apparatus according to claim 1, wherein the association unit does not perform the association when the determination unit determines that the azimuth detection apparatus is not fixed to the imaging apparatus.
前記判定手段は、撮像の指示を受け付けてから前記撮像手段が画像データを生成するよりも前のタイミングに前記第1の姿勢検出手段により検出される姿勢と、前記タイミングに前記第2の姿勢検出手段により検出される姿勢とに基づき前記方位検出装置が前記撮像装置に固定されているか否かを判定することを特徴とする請求項2に記載の撮像装置。   The determination unit is configured to detect an attitude detected by the first attitude detection unit at a timing before the imaging unit generates image data after receiving an imaging instruction, and detect the second attitude at the timing. The imaging apparatus according to claim 2, wherein it is determined whether or not the azimuth detection apparatus is fixed to the imaging apparatus based on an attitude detected by the means. 前記判定手段は、前記第1の姿勢検出手段が検出した複数の姿勢と、前記第2の姿勢検出手段が検出した複数の姿勢とに基づき、前記方位検出装置が前記撮像装置に固定されているか否かを判定することを特徴とする請求項3に記載の撮像装置。   Whether the determination unit is fixed to the imaging device based on the plurality of postures detected by the first posture detection unit and the plurality of postures detected by the second posture detection unit. The imaging apparatus according to claim 3, wherein it is determined whether or not. 前記第1の姿勢検出手段により検出される複数の姿勢から求められる前記撮像装置の姿勢の変化と、前記第2の姿勢検出手段により検出される複数の姿勢から求められる前記方位検出装置の姿勢の変化との差が、所定の差よりも小さい場合、前記判定手段は、前記方位検出装置が前記撮像装置に固定されていると判定することを特徴とする請求項4に記載の撮像装置。   Changes in the posture of the imaging device obtained from a plurality of postures detected by the first posture detection means, and postures of the azimuth detection device obtained from a plurality of postures detected by the second posture detection means. The imaging apparatus according to claim 4, wherein when the difference from the change is smaller than a predetermined difference, the determination unit determines that the azimuth detecting apparatus is fixed to the imaging apparatus. 前記第1の姿勢検出手段により姿勢が検出されるタイミングに応じて、前記第1の姿勢検出手段により検出される姿勢に対応する姿勢を、前記第2の姿勢検出手段により検出させるよう前記方位検出装置を制御する制御手段を更に有する請求項1乃至5のいずれか1項に記載の撮像装置。   The azimuth detection so as to cause the second posture detection unit to detect a posture corresponding to the posture detected by the first posture detection unit in accordance with the timing when the posture is detected by the first posture detection unit. The imaging apparatus according to claim 1, further comprising control means for controlling the apparatus. 前記補正手段は、撮像方向を基準として前記方位検出装置との相対角度を決定することにより、前記方位検出手段により検出された方位を補正することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。   The correction means corrects the azimuth detected by the azimuth detection means by determining a relative angle with the azimuth detection device with reference to the imaging direction. The imaging device according to item. 前記第1の姿勢検出手段により検出される複数の姿勢うち、特定の姿勢が他の姿勢と同じと判断された場合、前記補正手段は前記特定の姿勢を前記補正に用いないことを特徴とする請求項4に記載の撮像装置。   Of the plurality of postures detected by the first posture detection unit, when it is determined that a specific posture is the same as another posture, the correction unit does not use the specific posture for the correction. The imaging device according to claim 4. 前記第2の姿勢検出手段により検出される複数の姿勢うち、特定の姿勢が他の姿勢と同じと判断された場合には、前記補正手段は前記特定の姿勢を前記補正に用いないことを特徴とする請求項4または8に記載の撮像装置。   The correction unit does not use the specific posture for the correction when it is determined that the specific posture is the same as another posture among the plurality of postures detected by the second posture detection unit. The imaging device according to claim 4 or 8. 前記第1の姿勢検出手段は、加速度センサを含むことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first posture detection unit includes an acceleration sensor. 前記方位検出装置は更に、前記方位検出装置の位置を示す位置情報を取得する手段を有し、
前記通信手段は、前記方位検出装置で取得された位置情報を、前記方位検出装置から受信し、
前記関連付け手段は更に、前記方位検出装置から受信した位置情報を前記画像データに関連付けることを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。
The azimuth detecting device further includes means for acquiring position information indicating a position of the azimuth detecting device,
The communication means receives the position information acquired by the azimuth detection device from the azimuth detection device,
The imaging apparatus according to claim 1, wherein the associating unit further associates position information received from the azimuth detecting apparatus with the image data.
姿勢を検出する第1の姿勢検出手段を有する撮像装置と通信することが可能な方位検出装置であって、
方位を検出する方位検出手段と、
前記方位検出装置の姿勢を検出する第2の姿勢検出手段と、
前記第1の姿勢検出手段による前記撮像装置の姿勢の検出結果と前記第2の姿勢検出手段による前記方位検出装置の姿勢の検出結果とに基づき、前記方位検出手段が検出した方位を補正する補正手段と、
前記補正手段により補正された方位を前記撮像装置に送信する送信手段と
を有することを特徴とする方位検出装置。
An azimuth detection device capable of communicating with an imaging device having first posture detection means for detecting a posture,
Azimuth detecting means for detecting the azimuth;
Second attitude detecting means for detecting the attitude of the azimuth detecting device;
Correction for correcting the orientation detected by the orientation detection unit based on the detection result of the orientation of the imaging device by the first orientation detection unit and the detection result of the orientation of the orientation detection device by the second orientation detection unit Means,
An azimuth detection device comprising: a transmission unit that transmits the azimuth corrected by the correction unit to the imaging device.
姿勢を検出する第1の姿勢検出ステップと、
方位を検出する方位検出手段と自身の姿勢を検出する第2の姿勢検出手段とを有する方位検出装置と通信する通信ステップと、
前記第1の姿勢検出ステップでの姿勢の検出の結果と、前記第2の姿勢検出手段による前記方位検出装置の姿勢の検出との結果とに基づき、前記方位検出手段により検出された方位を補正する補正ステップと、
を有することを特徴とする撮像装置の制御方法。
A first posture detecting step for detecting a posture;
A communication step of communicating with an azimuth detecting device having an azimuth detecting means for detecting an azimuth and a second attitude detecting means for detecting its own attitude;
The orientation detected by the orientation detection means is corrected based on the result of the orientation detection in the first orientation detection step and the result of the orientation detection of the orientation detection device by the second orientation detection means. A correction step to
A method for controlling an imaging apparatus, comprising:
姿勢を検出する第1の姿勢検出手段を有する撮像装置と通信することが可能な方位検出装置の制御方法であって、
方位を検出する方位検出ステップと、
前記方位検出装置の姿勢を検出する第2の姿勢検出ステップと、
前記第1の姿勢検出手段による前記撮像装置の姿勢の検出結果と前記第2の姿勢検出ステップでの前記方位検出装置の姿勢の検出結果とに基づき、前記方位検出ステップで検出する方位を補正する補正ステップと、
を有することを特徴とする方位検出装置の制御方法。
A method of controlling an azimuth detecting device capable of communicating with an imaging device having first posture detecting means for detecting a posture,
An azimuth detection step for detecting an azimuth;
A second posture detecting step for detecting the posture of the azimuth detecting device;
The orientation detected in the orientation detection step is corrected based on the detection result of the orientation of the imaging device by the first orientation detection means and the detection result of the orientation of the orientation detection device in the second orientation detection step. A correction step;
A control method for an azimuth detecting device, comprising:
コンピュータを、請求項1乃至11のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claims 1 thru | or 11. コンピュータを、請求項12に記載の方位検出装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the azimuth | direction detection apparatus of Claim 12.
JP2013086102A 2013-04-16 2013-04-16 Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program Pending JP2014209690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013086102A JP2014209690A (en) 2013-04-16 2013-04-16 Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013086102A JP2014209690A (en) 2013-04-16 2013-04-16 Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program

Publications (1)

Publication Number Publication Date
JP2014209690A true JP2014209690A (en) 2014-11-06

Family

ID=51903654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013086102A Pending JP2014209690A (en) 2013-04-16 2013-04-16 Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program

Country Status (1)

Country Link
JP (1) JP2014209690A (en)

Similar Documents

Publication Publication Date Title
KR101722068B1 (en) Methods and systems for synchronizing data received from multiple sensors of a device
KR101753316B1 (en) Methods and systems for providing sensor data and image data to an application processor in a digital image format
US9667826B2 (en) Image pickup apparatus, method for controlling the same, and program for obtaining position information and direction information
KR101856947B1 (en) Photographing apparatus, motion estimation apparatus, method for image compensation, method for motion estimation, computer-readable recording medium
US10171736B2 (en) Control an imaging mode of an imaging device based on posture information of the imaging device
US20140063279A1 (en) Image capture device and image processor
JP6383439B2 (en) Method and system for calibrating a sensor using a recognized object
JP2007218896A (en) Imaging device, position information recording method and program
JP2016014720A (en) Information processor and method
JP5771508B2 (en) Display device, imaging device, and video display system
JP6220992B2 (en) Imaging apparatus and image blur correction method
JPWO2019064399A1 (en) Information processing system and object information acquisition method
JP6320020B2 (en) Electronic device, control method thereof, and program
WO2018143360A1 (en) Relative position detection system and image display system
JP2016072786A (en) Overhead image display system, terminal device, and program thereof
JP2014209690A (en) Imaging device, azimuth detection device, imaging device control method, azimuth detection device control method and program
US10321056B2 (en) Imaging system, imaging apparatus, information processing apparatus, and information processing method
JP6815439B2 (en) A system including a terminal device and a server device for displaying a virtual object, and the server device.
JP7082175B2 (en) A system including a terminal device for displaying a virtual object and a server device, and the server device.
US9800790B2 (en) Image capturing apparatus capable of detecting geomagnetism, control method, and storage medium
JP6541704B2 (en) System including terminal device for displaying virtual object and server device
JP5822579B2 (en) Orientation acquisition apparatus, control method of orientation acquisition apparatus, and program thereof
WO2021256310A1 (en) Information processing device, terminal device, information processing system, information processing method, and program
JP7434207B2 (en) System, information processing method, and information processing program
JP5767575B2 (en) Position measuring apparatus and position measuring system