JP2015049446A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2015049446A
JP2015049446A JP2013182264A JP2013182264A JP2015049446A JP 2015049446 A JP2015049446 A JP 2015049446A JP 2013182264 A JP2013182264 A JP 2013182264A JP 2013182264 A JP2013182264 A JP 2013182264A JP 2015049446 A JP2015049446 A JP 2015049446A
Authority
JP
Japan
Prior art keywords
subject
imaging
distance
position information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013182264A
Other languages
Japanese (ja)
Inventor
石井 康史
Yasushi Ishii
康史 石井
成文 後田
Narifumi Nochida
成文 後田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013182264A priority Critical patent/JP2015049446A/en
Publication of JP2015049446A publication Critical patent/JP2015049446A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of accurately correcting blur of a subject.SOLUTION: An imaging device 10 and a terminal device 20 are communicable with each other. A subject carries the terminal device 20. The imaging device 10 acquires two or more pieces of position information on the terminal device 20 from the terminal device 20 before accepting a photographing instruction, calculates a direction and speed of movement of the terminal device 20 by using the two or more pieces of position information, and calculates a direction and quantity of correction by using the direction and speed of movement. When accepting the photographing instruction, the imaging device 10 corrects blur of the subject in an imaged image by using the calculated direction and quantity of correction.

Description

本発明は、被写体を撮像するための撮像装置に関する。   The present invention relates to an imaging apparatus for imaging a subject.

カメラなどの撮像装置で、移動する被写体を撮像する機会は多い。従来、撮像装置において、当該被写体を撮像するのに好適なものが望まれている。たとえば、移動する被写体の位置情報を取得して撮像する撮像システムが知られている。具体的には、以下のような撮像システムが開示されている。   There are many opportunities to image a moving subject with an imaging device such as a camera. Conventionally, an imaging apparatus that is suitable for imaging the subject has been desired. For example, an imaging system that acquires position information of a moving subject and captures an image is known. Specifically, the following imaging system is disclosed.

たとえば、特開2006−317848号公報(特許文献1)では、静止画撮影時において被写体が動いたことにより生じる「被写体ぶれ」の補正が検討されている。より具体的には、特許文献1では、静止画撮影を始める前にあらかじめ複数枚の画像が撮影され、当該撮影された複数枚の画像の分析に基づいて被写体の動きベクトルが算出され、当該動きベクトルが光軸シフトレンズの移動量に換算される。そして、静止画の撮影が開始された時、先に計算していた光軸シフトレズの移動量分、光軸シフトレンズを移動させる。   For example, Japanese Patent Laid-Open No. 2006-317848 (Patent Document 1) discusses correction of “subject blurring” caused by movement of a subject during still image shooting. More specifically, in Patent Document 1, a plurality of images are captured in advance before starting still image capturing, and a motion vector of a subject is calculated based on an analysis of the captured images. The vector is converted into the movement amount of the optical axis shift lens. Then, when shooting of a still image is started, the optical axis shift lens is moved by the previously calculated movement amount of the optical axis shift lens.

特開2006−317848号公報JP 2006-317848 A 特開2010−193324号公報JP 2010-193324 A 特開2012−189827号公報JP 2012-189827 A

しかしながら、従来の被写体ぶれの補正は、少なくとも2つの課題を含む。1つ目の課題は、静止画撮影の直前まで撮影装置の撮影範囲内に被写体が存在しない場合(例えば、画角外から画角内に高速で移動してきた被写体を撮影する場合)、従来の被写体ぶれ補正は対応出来ない事態が想定されることである。2つ目の課題は、特に、暗所での撮影等でフレームレートが低くなっているときに想定される事態に関する。より具体的には、フレームレートが低くなっている場合、(被写体の動く量を算出するための)事前の複数の画像の撮影において、撮影間隔が広くなりすぎる。このため、被写体の動きの速さの算出に比較的長い時間を要する。このため、被写体の速さが変化するような状況において、静止画撮影の直前の被写体の速度を測定することが困難な事態が想定される。   However, the conventional subject blur correction includes at least two problems. The first problem is that when there is no subject within the photographing range of the photographing apparatus until just before the still image photographing (for example, when photographing a subject moving at high speed from outside the angle of view), It is assumed that the subject blur correction cannot be handled. The second problem particularly relates to a situation assumed when the frame rate is low due to shooting in a dark place or the like. More specifically, when the frame rate is low, the shooting interval is too wide in the shooting of a plurality of images in advance (for calculating the amount of movement of the subject). For this reason, it takes a relatively long time to calculate the speed of movement of the subject. For this reason, in a situation where the speed of the subject changes, it is assumed that it is difficult to measure the speed of the subject immediately before the still image shooting.

本開示は、かかる実情に鑑み考え出されたものであり、その目的は、確実に被写体ぶれを補正できる撮像装置を提供することである。   The present disclosure has been conceived in view of such circumstances, and an object thereof is to provide an imaging apparatus that can reliably correct subject shake.

ある局面に従った撮像装置は、自装置の位置情報を取得可能に構成された端末装置と通信可能な撮像装置であって、被写体を撮影することにより撮像画像を生成するための撮像手段と、撮像装置の位置を示す装置位置情報を取得するための第1の位置取得手段と、撮像装置の向きを示す向き情報を取得するための向き取得手段と、被写体に取り付けられた端末装置から送信される情報に基づいて、当該被写体の位置を示す端末位置情報を取得するための第2の位置取得手段と、装置位置情報と、端末位置情報と、向き情報とに基づいて、撮像手段により撮像された撮像画像上での被写体の単位時間内の移動の向きおよび距離を算出するための算出手段と、撮像画像上での被写体の単位時間内の移動の向きおよび距離に基づいて、撮像画像における被写体のぶれを補正するための補正手段とを備える。   An imaging apparatus according to an aspect is an imaging apparatus capable of communicating with a terminal device configured to be able to acquire position information of the own apparatus, and an imaging unit for generating a captured image by photographing a subject; First position acquisition means for acquiring device position information indicating the position of the imaging device, direction acquisition means for acquiring orientation information indicating the orientation of the imaging device, and a terminal device attached to the subject. On the basis of the second position acquisition means for acquiring the terminal position information indicating the position of the subject, the apparatus position information, the terminal position information, and the orientation information. The captured image is calculated based on the calculation means for calculating the direction and distance of the subject within the unit time on the captured image and the direction and distance of the subject within the unit time on the captured image. And a correcting means for correcting the blur of that object.

好ましくは、算出手段は、装置位置情報および端末位置情報に基づいて、撮像手段の撮像面と被写体との間の距離を算出し、端末位置情報に基づいて、被写体の単位時間内の移動距離を算出し、被写体の単位時間内の移動の距離は、撮像手段の焦点距離と撮像面と被写体との間の距離と被写体の単位時間内の移動距離とに基づいて、算出される。   Preferably, the calculation means calculates a distance between the imaging surface of the imaging means and the subject based on the device position information and the terminal position information, and calculates a movement distance of the subject within the unit time based on the terminal position information. The distance of movement of the subject within the unit time is calculated based on the focal length of the imaging means, the distance between the imaging surface and the subject, and the movement distance of the subject within the unit time.

好ましくは、撮像装置は、第2の位置取得手段によって取得された所定時間ごとの端末位置情報を順次格納するための情報格納手段をさらに備え、被写体の単位時間内の移動の距離は、情報格納手段に格納されている端末位置情報に基づいて、算出される。   Preferably, the imaging apparatus further includes information storage means for sequentially storing terminal position information for each predetermined time acquired by the second position acquisition means, and the distance of movement of the subject within the unit time is stored as information. It is calculated based on the terminal location information stored in the means.

好ましくは、端末位置情報は、撮像手段が撮像画像の生成を開始する前の被写体の位置である、第1の位置の情報と第2の位置の情報とを含み、算出手段は、撮像方向を示す第1の方向と第1の方向に直交する第2の方向とから規定される平面内での第1の位置を起点とした第2の方向上であって、かつ平面内での第2の位置および平面内での撮像手段の焦点位置を結ぶ方向上の位置を示す被写体の仮想位置を算出し、被写体の単位時間内の移動の距離は、撮像手段の焦点距離と第1の位置と被写体の仮想位置とに基づいて、算出される。   Preferably, the terminal position information includes information on a first position and information on a second position, which are positions of a subject before the imaging unit starts generating a captured image, and the calculation unit determines the imaging direction. On the second direction starting from the first position in the plane defined by the first direction shown and the second direction orthogonal to the first direction, and in the second direction in the plane And the virtual position of the subject indicating the position in the direction connecting the focal position of the imaging means in the plane and the distance of movement of the subject within the unit time are calculated by comparing the focal length of the imaging means and the first position. This is calculated based on the virtual position of the subject.

好ましくは、補正手段は、被写体のぶれの補正の量として、被写体のぶれの補正の対象となる期間に被写体が移動することが期待される距離を算出する。   Preferably, the correction unit calculates a distance at which the subject is expected to move during a period to be corrected for subject blur as an amount of subject blur correction.

本開示によれば、撮像装置において確実に被写体ぶれを補正できる。   According to the present disclosure, it is possible to reliably correct subject shake in the imaging apparatus.

撮像システムの概略的な構成を示す図である。1 is a diagram illustrating a schematic configuration of an imaging system. 撮像システムが適用される具体的な状況の一例を模式的に示す図である。It is a figure which shows typically an example of the specific condition where an imaging system is applied. 撮像装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of an imaging device. 端末装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a terminal device. 撮像装置の機能ブロック図である。It is a functional block diagram of an imaging device. 撮像装置における撮像画像上での被写体の移動距離の第1の算出方式を説明するための図である。It is a figure for demonstrating the 1st calculation method of the moving distance of the to-be-photographed object on the captured image in an imaging device. 撮像装置における撮像画像上での被写体の移動距離の第2の算出方式を説明するための図である。It is a figure for demonstrating the 2nd calculation method of the moving distance of the to-be-photographed object on the captured image in an imaging device. 撮像装置および端末装置が実行する処理手順の一例を示す図である。It is a figure which shows an example of the process sequence which an imaging device and a terminal device perform.

以下、本開示の情報処理装置の実施の形態について、図面を参照して説明する。以下の説明において、同一の機能および作用を有する部品は、各図を通して同じ符号を付し、重複する説明を繰返さない。   Hereinafter, an embodiment of an information processing apparatus according to the present disclosure will be described with reference to the drawings. In the following description, parts having the same function and action are denoted by the same reference numerals throughout the drawings, and redundant description will not be repeated.

<システム構成>
以下に、撮像装置の一実施の形態を適用された撮像システムについて説明する。図1は、撮像システムの概略的な構成を示す図である。
<System configuration>
An imaging system to which an embodiment of the imaging apparatus is applied will be described below. FIG. 1 is a diagram illustrating a schematic configuration of an imaging system.

図1に示されるように、撮像システムでは、撮像装置10は、撮像装置10が撮影可能な範囲FV内に存在する被写体を撮影する。範囲FVは、撮像装置10の画角に含まれる範囲ともいう。図1において、被写体A11と被写体A12は、同一の被写体(以下、適宜「被写体A」と呼ぶ)の異なる時刻における状態を表す。被写体Aは、露光時間内に、被写体A11で示される位置から被写体A12で示される位置まで移動する。   As illustrated in FIG. 1, in the imaging system, the imaging device 10 captures a subject that exists within a range FV that the imaging device 10 can capture. The range FV is also referred to as a range included in the angle of view of the imaging device 10. In FIG. 1, a subject A11 and a subject A12 represent states of the same subject (hereinafter referred to as “subject A” as appropriate) at different times. Subject A moves from the position indicated by subject A11 to the position indicated by subject A12 within the exposure time.

被写体は、端末装置20を取り付けられている。撮像装置10は、端末装置20の位置情報と、撮像装置10の撮影の向きとを取得することにより、被写体の露光時間内の移動の向きと量、つまり、「被写体ぶれ」の向きおよび量を算出する。そして、当該被写体ぶれの向きおよび量に基づいて、撮像画像における被写体ぶれを補正する。撮像装置10は、たとえば地磁気センサによって、撮影の向き(たとえば、後述するカメラ122の対物レンズが向けられている方向)を検出する。   The terminal device 20 is attached to the subject. The imaging device 10 acquires the position information of the terminal device 20 and the shooting direction of the imaging device 10 to obtain the direction and amount of movement of the subject within the exposure time, that is, the direction and amount of “subject blur”. calculate. Then, based on the direction and amount of the subject blur, the subject blur in the captured image is corrected. The imaging device 10 detects a shooting direction (for example, a direction in which an objective lens of a camera 122 described later is directed) by, for example, a geomagnetic sensor.

撮像装置10と端末装置20のそれぞれは、互いに通信するためのインタフェースを備える。撮像装置10と端末装置20の間の通信は、「peer to peer」のように直接的であっても良いし、図示しないサーバを介する通信等の間接的なものであっても良い。また、撮像装置10と端末装置20のそれぞれは、それぞれ自装置の位置情報を取得可能である。たとえば、撮像装置10および端末装置20は、GPS(Global Positioning System)衛星などその他の衛星からの測位用の電波を受信して、それぞれ自装置の現在位置情報(経度や緯度を含む位置座標)を取得する。   Each of the imaging device 10 and the terminal device 20 includes an interface for communicating with each other. Communication between the imaging device 10 and the terminal device 20 may be direct such as “peer to peer”, or may be indirect such as communication via a server (not shown). In addition, each of the imaging device 10 and the terminal device 20 can acquire position information of its own device. For example, the imaging device 10 and the terminal device 20 receive radio waves for positioning from other satellites such as GPS (Global Positioning System) satellites, and each presents their current position information (position coordinates including longitude and latitude). get.

撮像装置10は、例えば、撮影機能を有する装置によって実現される。撮像装置10は、デジタルカメラ、ビデオカメラ、PDA(Personal Digital Assistance)、タブレット端末装置などとして実現することもできる。撮像装置10は、また、撮像機能付きのスマートフォンによって実現されても良い。   The imaging device 10 is realized by a device having a shooting function, for example. The imaging device 10 can also be realized as a digital camera, a video camera, a PDA (Personal Digital Assistance), a tablet terminal device, or the like. The imaging device 10 may also be realized by a smartphone with an imaging function.

被写体は、端末装置20を携帯する。端末装置20は、位置情報を取得可能な装置であれば任意の装置によって実現され得る。たとえば、端末装置20は、GPS機能付きの携帯電話機であってもよいし、被写体Aが身に付けている時計等に内蔵されていてもよい。   The subject carries the terminal device 20. The terminal device 20 can be realized by any device as long as it can acquire position information. For example, the terminal device 20 may be a mobile phone with a GPS function, or may be built in a watch or the like worn by the subject A.

図1の撮像システムでは、概ね、以下の[1]〜[3]で示される制御が実行される。
[1]被写体には、あらかじめ端末装置20が取り付けられている。そして、端末装置20は、断続的に、撮像装置10に、当該端末装置20のGPS位置情報を送信する。
In the imaging system of FIG. 1, generally, the following controls [1] to [3] are executed.
[1] The terminal device 20 is attached to the subject in advance. Then, the terminal device 20 intermittently transmits the GPS position information of the terminal device 20 to the imaging device 10.

[2]撮像装置10は、撮影の向きと、端末装置20のGPS位置情報と、撮像装置10の位置情報とから、撮像装置10の撮影素子(イメージセンサ)上での被写体の移動の向きと速さを、逐次算出し、格納する。   [2] The imaging apparatus 10 determines the direction of movement of the subject on the imaging element (image sensor) of the imaging apparatus 10 based on the imaging direction, the GPS position information of the terminal apparatus 20, and the position information of the imaging apparatus 10. The speed is sequentially calculated and stored.

[3]撮像装置10は、ぶれ補正機能を有する。シャッタボタンが操作される等、撮像装置10において撮影が指示されると、撮像装置10は、当該ぶれ補正機能を利用して撮像画像を補正する。具体的には、撮像装置10は、上記[2]に従って事前に格納された被写体の移動の向きと速さに基づいて、被写体のぶれを補正する。   [3] The imaging device 10 has a blur correction function. When shooting is instructed in the imaging apparatus 10 such as when a shutter button is operated, the imaging apparatus 10 corrects the captured image using the shake correction function. Specifically, the imaging apparatus 10 corrects the shake of the subject based on the movement direction and speed of the subject stored in advance according to [2].

本実施の形態は、適用され得るぶれ補正の方法を限定しない。たとえば、光学的なぶれ補正の方法の例としては、撮像素子(イメージセンサ)を動かす方法と、レンズを移動させる方法とが挙げられる。そして、本実施の形態では、これらのいずれの方法をも採用することができる。本明細書では、一例として、撮像素子を動かすことでぶれを補正する方法が採用された場合について説明する。   This embodiment does not limit the blur correction method that can be applied. For example, examples of the optical blur correction method include a method of moving an image sensor (image sensor) and a method of moving a lens. In the present embodiment, any of these methods can be employed. In the present specification, as an example, a case will be described in which a method of correcting blur by moving an image sensor is employed.

<具体的な状況の一例>
図2は、撮像システムが適用される具体的な状況の一例を模式的に示す図である。図2の被写体A01、被写体A02、被写体A11、および被写体A12は、同一の被写体の異なるタイミングのそれぞれでの位置を順に示す。被写体A01および被写体A02は、撮像装置10に対して撮像指示が受け付けられる前の被写体Aの位置を示す。
<Example of specific situation>
FIG. 2 is a diagram schematically illustrating an example of a specific situation where the imaging system is applied. The subject A01, the subject A02, the subject A11, and the subject A12 in FIG. 2 sequentially indicate the positions of the same subject at different timings. A subject A01 and a subject A02 indicate the positions of the subject A before the imaging instruction is accepted by the imaging device 10.

図2に示された状況では、端末装置20の周りには障害物901〜905が存在する。撮像装置10は、障害物901〜905の隙間からしか、被写体を撮影出来ない。つまり、撮像装置10による撮影可能な範囲は、障害物901〜905によって狭められる。撮像装置10による撮影可能な範囲は、範囲FVで示されている。被写体A01および被写体A02は、範囲FVの外に位置している。このため、図2に示された状況では、被写体A11の位置から被写体Aの撮影が開始される場合、撮像装置10が撮影の開始前に被写体Aの画像を取得することは困難である。   In the situation shown in FIG. 2, obstacles 901 to 905 exist around the terminal device 20. The imaging apparatus 10 can only photograph the subject from the gap between the obstacles 901 to 905. That is, the range that can be imaged by the imaging apparatus 10 is narrowed by the obstacles 901 to 905. A range that can be captured by the imaging apparatus 10 is indicated by a range FV. The subject A01 and the subject A02 are located outside the range FV. For this reason, in the situation shown in FIG. 2, when shooting of the subject A is started from the position of the subject A11, it is difficult for the imaging device 10 to acquire an image of the subject A before the start of shooting.

図2に示された状況において、被写体Aが持っている端末(端末装置20)は、撮像装置10に、端末装置20の位置情報を随時送信する。つまり、被写体Aが、被写体A01とそれに続く被写体A02の位置にあるときも、端末装置20は、撮像装置10に、当該端末装置20の位置情報を送信する。「随時」とは、所与の時間間隔であっても良いし、所定距離以上端末装置20の位置が変化したときであっても良いし、撮像装置10または上記サーバからの要求を受けた時であっても良い。撮像装置10は、端末装置20から送信される2以上の位置情報に基づいて、端末装置20の移動の向きと速さとを算出する。   In the situation shown in FIG. 2, the terminal (terminal device 20) possessed by the subject A transmits the position information of the terminal device 20 to the imaging device 10 as needed. That is, even when the subject A is at the position of the subject A01 and the subsequent subject A02, the terminal device 20 transmits the position information of the terminal device 20 to the imaging device 10. “As needed” may be a given time interval, may be when the position of the terminal device 20 has changed by a predetermined distance or more, or when a request from the imaging device 10 or the server is received. It may be. The imaging device 10 calculates the direction and speed of movement of the terminal device 20 based on two or more pieces of position information transmitted from the terminal device 20.

撮像装置10は、被写体がユーザによって撮影を希望される位置に到達した時(図2の被写体A11)に、撮影を開始する。具体的には、ユーザは、被写体Aが撮像装置10のファインダ内に入ってきたのを確認すると、シャッタボタンを押す。これに応じて、撮像装置10は、露光を開始する。所与の露光期間が満了すると、撮像装置10は、露光を終了する。シャッタボタンの押圧は、撮像装置10への撮像指示の一例である。   The imaging device 10 starts shooting when the subject reaches a position where the user wants to take a photo (subject A11 in FIG. 2). Specifically, when the user confirms that the subject A has entered the finder of the imaging device 10, the user presses the shutter button. In response to this, the imaging apparatus 10 starts exposure. When the given exposure period expires, the imaging device 10 ends the exposure. The pressing of the shutter button is an example of an imaging instruction to the imaging device 10.

撮像装置10は、被写体の動き(画面内ぶれ)を補正するために、上記のようにして事前に算出された端末装置20の移動の向きと速さとに基づいて、光学的なぶれ補正を行う。当該移動の向きと速さとは、少なくとも、被写体A01と被写体A02のそれぞれの位置において端末装置20から送信された2つの位置情報に基づいて算出される。   The imaging device 10 performs optical shake correction based on the movement direction and speed of the terminal device 20 calculated in advance as described above in order to correct the movement of the subject (in-screen shake). . The direction and speed of the movement are calculated based on at least two pieces of position information transmitted from the terminal device 20 at the positions of the subject A01 and the subject A02.

<ハードウェア構成>
図3は、本実施の形態に従う撮像装置10のハードウェア構成を示すブロック図である。図3を参照して、撮像装置10は、CPU(central processing unit)100と、メモリ102と、タッチパネル104と、ディスプレイ106と、スピーカ108と、ボタン110と、メモリインタフェイス(I/F)112と、通信インタフェイス(I/F)114と、電子コンパス116と、加速度センサ118と、GPSコントローラ120と、カメラ122とを含む。
<Hardware configuration>
FIG. 3 is a block diagram showing a hardware configuration of imaging apparatus 10 according to the present embodiment. With reference to FIG. 3, the imaging apparatus 10 includes a central processing unit (CPU) 100, a memory 102, a touch panel 104, a display 106, a speaker 108, a button 110, and a memory interface (I / F) 112. A communication interface (I / F) 114, an electronic compass 116, an acceleration sensor 118, a GPS controller 120, and a camera 122.

CPU100は、メモリ102に格納されたプログラムを読み出して実行することで、撮像装置10の各部の動作を制御する。より詳細にはCPU100は、当該プログラムを実行することによって、後述する撮像装置10の処理(ステップ)の各々を実現する。CPU100は、例えば、マイクロプロセッサである。CPU100の代わりに、FPGA(Field Programmable Gate Array)、ASIC(Application SpecI/Fic Integrated Circuit)およびその他の演算機能を有する回路が採用されてもよい。   The CPU 100 controls the operation of each unit of the imaging apparatus 10 by reading and executing a program stored in the memory 102. More specifically, the CPU 100 implements each process (step) of the imaging apparatus 10 to be described later by executing the program. The CPU 100 is, for example, a microprocessor. Instead of the CPU 100, an FPGA (Field Programmable Gate Array), an ASIC (Application Spec I / Fic Integrated Circuit), and other circuits having arithmetic functions may be employed.

メモリ102は、RAM(Random Access Memory)、ROM(Read-Only Memory)、ハードディスクなどによって実現される。メモリ102は、CPU100によって実行されるプログラム、および/またはCPU100が利用するデータを格納する。メモリ102は、端末装置20から取得した被写体の位置情報を順次格納し得る。   The memory 102 is realized by a RAM (Random Access Memory), a ROM (Read-Only Memory), a hard disk, or the like. The memory 102 stores programs executed by the CPU 100 and / or data used by the CPU 100. The memory 102 can sequentially store subject position information acquired from the terminal device 20.

タッチパネル104は、表示部としての機能を有するディスプレイ106上に設けられており、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル104は、光センサ液晶を含んでもよい。タッチパネル104は、所定時間毎に外部の物体によるタッチパネル104へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU100に入力する。   The touch panel 104 is provided on a display 106 having a function as a display unit, and may be any type such as a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. . The touch panel 104 may include an optical sensor liquid crystal. The touch panel 104 detects a touch operation on the touch panel 104 by an external object every predetermined time, and inputs touch coordinates (touch position) to the CPU 100.

スピーカ108は、CPU100からの命令に基づいて、音声を出力する。例えば、CPU100は、音声データに基づいて、スピーカ108に各種の通知音を出力させる。   The speaker 108 outputs sound based on a command from the CPU 100. For example, the CPU 100 causes the speaker 108 to output various notification sounds based on the audio data.

ボタン110は、撮像装置10の表面に配置され、ユーザからの命令を受け付け、CPU100に当該命令に応じた信号を出力し、例えば、表示を遷移させるボタン,確定ボタン,キャンセルボタン,シャッタボタン,および,カメラの起動ボタンを含む。   The button 110 is arranged on the surface of the imaging device 10, receives a command from the user, outputs a signal corresponding to the command to the CPU 100, and includes, for example, a button for transitioning a display, a confirm button, a cancel button, a shutter button, , Includes camera activation button.

メモリI/F112は、外部の記憶媒体113からデータを読み出す。すなわち、CPU100は、メモリI/F112を介して外部の記憶媒体113に格納されているデータを読み出して、当該データをメモリ102に格納する。CPU100は、メモリ102からデータを読み出して、メモリI/F112を介して当該データを外部の記憶媒体113に格納する。記憶媒体113は、たとえば、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray(登録商標) Disc)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体である。   The memory I / F 112 reads data from the external storage medium 113. That is, the CPU 100 reads data stored in the external storage medium 113 via the memory I / F 112 and stores the data in the memory 102. The CPU 100 reads data from the memory 102 and stores the data in the external storage medium 113 via the memory I / F 112. The storage medium 113 is, for example, a CD (Compact Disc), a DVD (Digital Versatile Disk), a BD (Blu-ray (registered trademark) Disc), a USB (Universal Serial Bus) memory, a memory card, an FD (Flexible Disk), or a hard disk. , Magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (except memory card), optical card, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), etc. A medium for storing a program in a nonvolatile manner.

通信I/F114は、アンテナやコネクタによって実現される。通信I/F114は、無線通信によって端末装置20との間でデータを送受信する。CPU100は、通信I/F114を介して、端末装置20から端末装置20の現在の位置情報を受信する。   Communication I / F 114 is realized by an antenna or a connector. The communication I / F 114 transmits and receives data to and from the terminal device 20 by wireless communication. The CPU 100 receives the current position information of the terminal device 20 from the terminal device 20 via the communication I / F 114.

電子コンパス116は、磁気センサを含み、地球のわずかな磁気を感知して撮像装置10の方位を検出する。電子コンパス116は、取得した撮像装置10の向き(方位)情報をCPU100に入力する。   The electronic compass 116 includes a magnetic sensor, and detects the orientation of the imaging device 10 by sensing the slight magnetism of the earth. The electronic compass 116 inputs the acquired orientation (orientation) information of the imaging device 10 to the CPU 100.

加速度センサ118は、たとえば、MEMS(Micro-Electro-Mechanical Systems)の3軸加速度センサによって実現され、撮像装置10の動きを検知する。加速度センサ118は、撮像装置10自体の移動方向や加速度などを検知する。たとえば、CPU100は、加速度センサ118からのセンサ信号に基づいて撮像装置10の姿勢を検出し、それによってディスプレイ106の表示される画面の表示方向を決定する。具体的には、CPU100は、撮像装置10が縦向きである場合(ユーザが撮像装置10を縦向きで把持している場合)には、ディスプレイ106に表示画面を同じ縦向きに表示するよう表示方向を決定する。撮像装置10が横向きである場合には、CPU100は、ディスプレイ106に表示画面を同じ横向きに表示するよう表示方向を決定する。また、電子コンパス116によって検出された撮像装置10の向きが、加速度センサ118によって取得された動きに基づいて補正され得る。   The acceleration sensor 118 is realized by, for example, a three-axis acceleration sensor of MEMS (Micro-Electro-Mechanical Systems), and detects the movement of the imaging device 10. The acceleration sensor 118 detects the moving direction and acceleration of the imaging device 10 itself. For example, the CPU 100 detects the orientation of the imaging device 10 based on the sensor signal from the acceleration sensor 118, and thereby determines the display direction of the screen displayed on the display 106. Specifically, when the imaging device 10 is in the portrait orientation (when the user is holding the imaging device 10 in the portrait orientation), the CPU 100 displays the display screen on the display 106 so as to display the same portrait orientation. Determine the direction. When the imaging device 10 is in the landscape orientation, the CPU 100 determines the display direction so that the display screen is displayed on the display 106 in the same landscape orientation. Further, the orientation of the imaging device 10 detected by the electronic compass 116 can be corrected based on the movement acquired by the acceleration sensor 118.

GPSコントローラ120は、GPS信号または基地局からの位置信号(測位信号)を受信して撮像装置10の位置情報を取得する。GPSコントローラ120は、取得した撮像装置10の位置情報をCPU100に入力する。   The GPS controller 120 receives a GPS signal or a position signal (positioning signal) from the base station, and acquires position information of the imaging device 10. The GPS controller 120 inputs the acquired position information of the imaging device 10 to the CPU 100.

カメラ122は、例えばCCD(Charge Coupled Device)方式、CMOS(Complementary Mental Oxide Semiconductor)センサなどの撮像センサ、撮像レンズ、レンズを駆動するためのレンズ駆動部、シャッタなどを含む。カメラ122は、レンズを介して取り込んだ被写体の像を受光面(撮像面)で光電変換する撮像センサによって撮像画像を生成する。カメラ122には、ぶれ補正機能が搭載されている。ぶれ補正機能は、たとえば、公知の技術に従ってCCDセンサやCMOSセンサ等のセンサがシフトされることにより実現される。なお、カメラ122は、ズーム倍率を変更するためのズーム機能および焦点距離を調整するためのフォーカス機能などを有していてもよい。   The camera 122 includes, for example, an imaging sensor such as a CCD (Charge Coupled Device) system, a CMOS (Complementary Mental Oxide Semiconductor) sensor, an imaging lens, a lens driving unit for driving the lens, a shutter, and the like. The camera 122 generates a captured image by an imaging sensor that photoelectrically converts an image of a subject captured via a lens on a light receiving surface (imaging surface). The camera 122 has a shake correction function. The blur correction function is realized, for example, by shifting a sensor such as a CCD sensor or a CMOS sensor according to a known technique. The camera 122 may have a zoom function for changing the zoom magnification and a focus function for adjusting the focal length.

図4は、本実施の形態に従う端末装置20のハードウェア構成を示すブロック図である。図4に示されるように、端末装置20は、CPU200と、メモリ202と、通信I/F204と、GPSコントローラ206と、タイマ208とを含む。   FIG. 4 is a block diagram showing a hardware configuration of terminal device 20 according to the present embodiment. As illustrated in FIG. 4, the terminal device 20 includes a CPU 200, a memory 202, a communication I / F 204, a GPS controller 206, and a timer 208.

CPU200は、メモリ202に格納されたプログラムを読み出して実行することで、端末装置20の各部の動作を制御する。メモリ202は、RAM、ROMなどによって実現される。メモリ202は、CPU200によって実行されるプログラム、またはCPU200によって用いられるデータなどを格納する。メモリ202は、たとえば、端末装置20の位置情報、端末装置20を識別するための端末識別情報を格納する。   The CPU 200 controls the operation of each unit of the terminal device 20 by reading and executing the program stored in the memory 202. The memory 202 is realized by a RAM, a ROM, or the like. The memory 202 stores a program executed by the CPU 200, data used by the CPU 200, and the like. The memory 202 stores, for example, position information of the terminal device 20 and terminal identification information for identifying the terminal device 20.

通信I/F204は、アンテナやコネクタによって実現され、無線通信によって撮像装置10との間でデータを送受信する。CPU200は、撮像装置10に、通信I/F204を介して、端末装置20の現在の位置情報を随時送信する。CPU200は、撮像装置10に、通信I/F204を介して、端末識別情報を送信してもよい。   The communication I / F 204 is realized by an antenna or a connector, and transmits / receives data to / from the imaging device 10 by wireless communication. The CPU 200 transmits the current position information of the terminal device 20 to the imaging device 10 as needed via the communication I / F 204. The CPU 200 may transmit terminal identification information to the imaging apparatus 10 via the communication I / F 204.

GPSコントローラ206は、GPS信号または基地局からの位置信号を受信して端末装置20の位置情報を取得する。GPSコントローラ206は、取得した端末装置20の位置情報をCPU200に入力する。   The GPS controller 206 receives the GPS signal or the position signal from the base station and acquires the position information of the terminal device 20. The GPS controller 206 inputs the acquired position information of the terminal device 20 to the CPU 200.

タイマ208は、時刻を計測する部位であり、計測した時刻に応じた信号をCPU200に送出する。CPU200は、当該信号に基づき、たとえば一定時間間隔で、予め定められた処理をすることができる。   The timer 208 is a part that measures time, and sends a signal corresponding to the measured time to the CPU 200. CPU 200 can perform a predetermined process based on the signal, for example, at regular time intervals.

<機能構成>
図5は、本実施の形態に従う撮像装置10の機能ブロック図である。撮像装置10は、その主たる機能構成として、位置取得部302と、向き取得部304と、端末位置取得部306と、補正部310と、出力制御部312と、算出部314と、撮像部320とを含む。これらの機能は、主に、撮像装置10のCPU100がメモリ102に格納されたプログラムを実行し、撮像装置10の構成要素へ指令を与えることなどによって実現される。CPU100は、撮像装置10の動作全体を制御する制御部としての機能を有する。なお、これらの機能構成の一部または全部はハードウェア資源によって実現されてもよい。撮像装置10は、さらに、メモリ102によって実現される情報格納部308を含む。
<Functional configuration>
FIG. 5 is a functional block diagram of imaging apparatus 10 according to the present embodiment. The imaging device 10 has, as its main functional configuration, a position acquisition unit 302, a direction acquisition unit 304, a terminal position acquisition unit 306, a correction unit 310, an output control unit 312, a calculation unit 314, and an imaging unit 320. including. These functions are realized mainly by the CPU 100 of the imaging apparatus 10 executing a program stored in the memory 102 and giving a command to the components of the imaging apparatus 10. The CPU 100 has a function as a control unit that controls the entire operation of the imaging apparatus 10. Note that some or all of these functional configurations may be realized by hardware resources. The imaging device 10 further includes an information storage unit 308 realized by the memory 102.

位置取得部302は、GPSコントローラ120を介して、撮像装置10の位置情報を取得する。向き取得部304は、電子コンパス116を介して、撮像装置10の向き情報、具体的には、カメラ122の撮像の向きを示す方位情報を取得する。   The position acquisition unit 302 acquires position information of the imaging device 10 via the GPS controller 120. The orientation acquisition unit 304 acquires orientation information of the imaging device 10, specifically, orientation information indicating the imaging orientation of the camera 122 via the electronic compass 116.

端末位置取得部306は、通信I/F114を介して、端末装置20から所定時間ごと(たとえば、1秒ごと)に送信される端末装置20の位置情報(端末位置情報)を順次取得(受信)する。なお、端末位置取得部306は、通信I/F114を介して、所定時間ごとに端末装置20に当該端末位置情報を送信するように要求してもよい。   The terminal location acquisition unit 306 sequentially acquires (receives) the location information (terminal location information) of the terminal device 20 transmitted from the terminal device 20 every predetermined time (for example, every second) via the communication I / F 114. To do. Note that the terminal location acquisition unit 306 may request the terminal device 20 to transmit the terminal location information via the communication I / F 114 every predetermined time.

情報格納部308は、端末位置取得部306によって取得された、時間の経過に従う所定時間ごとの端末位置情報を順次格納する。情報格納部308は、端末装置20(被写体)の位置履歴(端末位置情報の履歴)として、端末位置情報を取得した時刻と端末位置情報とを関連付けて格納する。   The information storage unit 308 sequentially stores the terminal position information for each predetermined time acquired by the terminal position acquisition unit 306 according to the passage of time. The information storage unit 308 stores the time when the terminal position information is acquired and the terminal position information in association with each other as the position history of the terminal device 20 (subject) (terminal position information history).

算出部314は、位置取得部302により取得された撮像装置10の位置情報および端末位置取得部306により取得された端末位置情報と、向き取得部304により取得された向き情報とに基づいて、撮像部320により撮像された撮像画像上での被写体の単位時間内の移動距離(移動の速さ)を算出する。具体的には、算出部314は、撮像装置10の位置情報と端末位置情報とに基づいて、撮像部320の撮像面から被写体までの距離を算出し、そして、被写体の単位時間内の移動距離を算出する。そして、算出部314は、撮像部320の焦点距離と、撮像面と被写体との間の距離と、被写体の単位時間内の移動距離とに基づいて、撮像画像上での被写体の単位時間内の移動距離を算出する。   The calculation unit 314 performs imaging based on the position information of the imaging device 10 acquired by the position acquisition unit 302, the terminal position information acquired by the terminal position acquisition unit 306, and the direction information acquired by the direction acquisition unit 304. The movement distance (speed of movement) of the subject within the unit time on the captured image captured by the unit 320 is calculated. Specifically, the calculation unit 314 calculates the distance from the imaging surface of the imaging unit 320 to the subject based on the position information of the imaging device 10 and the terminal position information, and the movement distance of the subject within the unit time Is calculated. Based on the focal length of the imaging unit 320, the distance between the imaging surface and the subject, and the movement distance of the subject within the unit time, the calculation unit 314 includes the subject within the unit time on the captured image. Calculate the travel distance.

より詳細には、算出部314は、撮像の向きを示す第1の方向と当該第1の方向に直交する第2の方向とから規定される平面内での被写体の第1の位置(被写体A01)を起点とした当該第2の方向上であって、かつ当該平面内での被写体の第2の位置(被写体A02)および当該平面内での焦点位置を結ぶ方向上の位置を示す被写体の仮想位置を算出する。そして、算出部314は、焦点距離と被写体の位置と被写体の仮想位置とに基づいて、撮像画像上での被写体の単位時間内の移動距離を算出する。また、算出部314は、これらの情報に基づいて、被写体の移動の向きを算出する。移動距離等の算出方式は、具体的な事例を用いて後述する。   More specifically, the calculation unit 314 has a first position of the subject (subject A01 in a plane defined by a first direction indicating the imaging direction and a second direction orthogonal to the first direction. ) Of the subject indicating the position in the second direction starting from) and indicating the position in the direction connecting the second position (subject A02) of the subject in the plane and the focal position in the plane. Calculate the position. Then, the calculation unit 314 calculates the movement distance of the subject within the unit time on the captured image based on the focal length, the position of the subject, and the virtual position of the subject. Also, the calculation unit 314 calculates the direction of movement of the subject based on these pieces of information. A method for calculating the movement distance will be described later using specific examples.

撮像部320は、被写体を撮像して撮像画像を生成する。なお、撮像部320は、主にカメラ122およびCPU100が連係することによって実現される機能である。   The imaging unit 320 captures a subject and generates a captured image. Note that the imaging unit 320 is a function realized mainly by the camera 122 and the CPU 100 working together.

撮像部320は、補正部310によってぶれ補正機能を実現する。より具体的には、撮像部320では、補正部310からの制御信号に基づいて、CCDセンサやCMOSセンサなどのセンサが継続的に一定速度で動作されることにより、ぶれ補正機能が実現される。撮像部320は、撮像画像のデータを、出力制御部312へ出力する。   The imaging unit 320 realizes a shake correction function by the correction unit 310. More specifically, in the imaging unit 320, a shake correction function is realized by continuously operating sensors such as a CCD sensor and a CMOS sensor based on a control signal from the correction unit 310. . The imaging unit 320 outputs captured image data to the output control unit 312.

出力制御部312は、撮像部320により順次撮像して生成された撮像画像をディスプレイに表示させる。ディスプレイは、たとえばタッチパネル104であっても良いし、外部の装置のディスプレイであっても良い。   The output control unit 312 displays captured images generated by sequentially capturing images by the imaging unit 320 on a display. The display may be, for example, the touch panel 104 or an external device display.

<算出方式>
図6を参照して、撮像画像上の被写体Aの移動の向きおよび速さの算出方式の一例(第1の算出方式)を説明する。主に算出部314(CPU100)が、当該算出を行う。
<Calculation method>
With reference to FIG. 6, an example (first calculation method) of the calculation method of the direction and speed of movement of the subject A on the captured image will be described. The calculation unit 314 (CPU 100) mainly performs the calculation.

図6は、撮像装置10における撮像画像上での被写体Aの移動距離の第1の算出方式を説明するための図である。図6には、被写体Aが撮像装置10の撮像面と平行に移動する場合の算出方式(第1の算出方式)が示されている。図6には、さらに、第1の算出方式における、被写体Aの撮像画像上での移動距離を算出するための計算式が示されている。説明の容易化のため、撮像装置10は移動することなく被写体Aを撮像するものとする。   FIG. 6 is a diagram for explaining a first calculation method of the moving distance of the subject A on the captured image in the imaging apparatus 10. FIG. 6 illustrates a calculation method (first calculation method) when the subject A moves in parallel with the imaging surface of the imaging device 10. FIG. 6 further shows a calculation formula for calculating the moving distance of the subject A on the captured image in the first calculation method. For ease of explanation, it is assumed that the imaging device 10 images the subject A without moving.

図6では、撮像面に沿った方向に、x座標軸が定義されている。撮像方向に、y座標軸が定義されている。撮像レンズの中心(主点)が原点(0,0)として定義されている。焦点位置は、座標(0,f)で示される。被写体A01の位置(第1の位置)が、座標(x1,y1)で示される。被写体A02の位置(第2の位置)が、座標(x2,y2)で示される。撮像装置10は、被写体Aの各座標を、端末装置20から送信された端末位置情報に基づいて特定できる。各端末位置情報は、端末装置20から当該端末位置情報が送信された時刻を特定する情報を含む。   In FIG. 6, the x coordinate axis is defined in the direction along the imaging surface. A y coordinate axis is defined in the imaging direction. The center (principal point) of the imaging lens is defined as the origin (0, 0). The focal position is indicated by coordinates (0, f). The position (first position) of the subject A01 is indicated by coordinates (x1, y1). The position (second position) of the subject A02 is indicated by coordinates (x2, y2). The imaging device 10 can specify each coordinate of the subject A based on the terminal position information transmitted from the terminal device 20. Each terminal location information includes information that identifies the time at which the terminal location information is transmitted from the terminal device 20.

CPU100は、第1の位置および第2の位置の座標に基づいて、被写体Aの単位時間内の実際の移動距離Mrを算出できる。実際の移動距離Mrと撮像画像上での移動距離Miとの比は、距離Dから焦点距離fを減じた値と焦点距離f(D−f)との比に等しい。これにより、図6の式(1)が成立する。そして、図6の式(1)から図6の式(2)が導出される。距離Dは、撮像面から被写体Aまでの距離を示す。より詳細には、距離Dは、被写体Aが位置する撮像面に平行な面から撮像面までの距離である。図6では、当該距離は、第1の位置および第2の位置のy座標(y1,y2)で表される。   The CPU 100 can calculate the actual moving distance Mr within the unit time of the subject A based on the coordinates of the first position and the second position. The ratio of the actual moving distance Mr to the moving distance Mi on the captured image is equal to the ratio of the value obtained by subtracting the focal distance f from the distance D to the focal distance f (D−f). Thereby, Formula (1) of FIG. 6 is materialized. Then, equation (2) in FIG. 6 is derived from equation (1) in FIG. The distance D indicates the distance from the imaging surface to the subject A. More specifically, the distance D is a distance from a plane parallel to the imaging plane where the subject A is located to the imaging plane. In FIG. 6, the distance is represented by y coordinates (y1, y2) of the first position and the second position.

CPU100は、図6の式(2)を用いて、距離Dと、焦点距離fと、単位時間内での実際の移動距離Mrとに基づいて、被写体の単位時間内の撮像画像上の移動距離Miを算出できる。CPU100は、被写体Aの単位時間内の撮像画像上での移動距離Mi(移動の速さ)に基づいて、ぶれ補正の処理(後述する図8のステップS26)が対象となる期間において想定される、撮像画像上の被写体Aの移動距離(補正の量)を算出する。   The CPU 100 uses the equation (2) in FIG. 6 to move the subject on the captured image within the unit time based on the distance D, the focal length f, and the actual movement distance Mr within the unit time. Mi can be calculated. The CPU 100 is assumed in a period in which blur correction processing (step S26 in FIG. 8 described later) is targeted based on the moving distance Mi (speed of movement) of the subject A on the captured image within the unit time. Then, the moving distance (correction amount) of the subject A on the captured image is calculated.

また、CPU100は、第1の位置および第2の位置の座標を撮像面に投影することにより、被写体Aの移動の向きを算出する。   Further, the CPU 100 calculates the direction of movement of the subject A by projecting the coordinates of the first position and the second position on the imaging surface.

次に、図7を参照して、撮像画像上の被写体Aの移動の向きおよび速さの算出方式の他の例(第2の算出方式)を説明する。主に算出部314(CPU100)が、当該算出を行う。図7は、撮像装置10における撮像画像上での被写体の移動距離の第2の算出方式を説明するための図である。図7には、被写体Aが撮像装置10の撮像面に交わる方向(斜め方向)に移動する場合の算出方式(第2の算出方式)が示される。図7には、さらに、第2の算出方式における、被写体Aの撮像画像上での移動距離を算出するための計算式が示されている。   Next, another example (second calculation method) of the calculation method of the direction and speed of movement of the subject A on the captured image will be described with reference to FIG. The calculation unit 314 (CPU 100) mainly performs the calculation. FIG. 7 is a diagram for explaining a second calculation method of the moving distance of the subject on the captured image in the imaging apparatus 10. FIG. 7 shows a calculation method (second calculation method) in the case where the subject A moves in a direction (oblique direction) intersecting the imaging surface of the imaging device 10. FIG. 7 further shows a calculation formula for calculating the moving distance of the subject A on the captured image in the second calculation method.

図7では、図6と同様に、撮像面に沿った方向に、x座標軸が定義されている。撮像方向に、y座標軸が定義されている。撮像レンズの中心(主点)が原点(0,0)として定義されている。焦点位置は、座標(0,f)で示される。被写体A01の位置(第1の位置)が、座標(x1,y1)で示される。被写体A02の位置(第2の位置)が、座標(x2,y2)で示される。撮像装置10は、被写体Aの各座標を、端末装置20から送信された端末位置情報に基づいて特定できる。各端末位置情報は、端末装置20から当該端末位置情報が送信された時刻を特定する情報を含む。   In FIG. 7, as in FIG. 6, the x coordinate axis is defined in the direction along the imaging surface. A y coordinate axis is defined in the imaging direction. The center (principal point) of the imaging lens is defined as the origin (0, 0). The focal position is indicated by coordinates (0, f). The position (first position) of the subject A01 is indicated by coordinates (x1, y1). The position (second position) of the subject A02 is indicated by coordinates (x2, y2). The imaging device 10 can specify each coordinate of the subject A based on the terminal position information transmitted from the terminal device 20. Each terminal location information includes information that identifies the time at which the terminal location information is transmitted from the terminal device 20.

CPU100は、被写体Aの仮想位置の座標(x3,y2)を算出する。座標(x3,y2)は、図7に示されたxy平面において、第2の位置の座標(x2,y2)を通るx軸と平行な線(y=y2)と、第1の位置の座標(x1,y1)と焦点位置の座標(0,f)とを結ぶ線(当該線の方向が図7の矢印400で示される)の交点である。   The CPU 100 calculates the coordinates (x3, y2) of the virtual position of the subject A. The coordinates (x3, y2) are a line (y = y2) parallel to the x axis passing through the coordinates (x2, y2) of the second position and the coordinates of the first position in the xy plane shown in FIG. This is an intersection of a line connecting (x1, y1) and the coordinate (0, f) of the focal position (the direction of the line is indicated by an arrow 400 in FIG. 7).

ここで、第1の位置のx座標(x1)と仮想的な位置のx座標(x3)との比は、第1の位置のy座標(y1)から焦点距離fを減じた値(y1−f)と、仮想的な位置のy座標(y2)から焦点距離fを減じた値(y2−f)との比に等しい。このため、図7の式(1)が成立する。また、仮想的な移動距離Mr1と撮像画像上での移動距離Miとの比は、距離Dから焦点距離fを減じた値(D−f)と焦点距離fとの比に等しい。このため、図7の式(2)が成立する。   Here, the ratio between the x-coordinate (x1) of the first position and the x-coordinate (x3) of the virtual position is a value obtained by subtracting the focal length f from the y-coordinate (y1) of the first position (y1− It is equal to the ratio of f) to the value obtained by subtracting the focal length f from the y-coordinate (y2) of the virtual position (y2-f). For this reason, Formula (1) of FIG. 7 is materialized. Further, the ratio between the virtual moving distance Mr1 and the moving distance Mi on the captured image is equal to the ratio of the value obtained by subtracting the focal distance f from the distance D (D−f) and the focal distance f. For this reason, Formula (2) of FIG. 7 is materialized.

そして、CPU100は、図7の式(1)および式(2)を用いて、距離D(=y2)と、焦点距離fと、単位時間内での仮想的な移動距離Mr1とに基づいて、被写体の単位時間内の撮像画像上の移動距離Miを算出する。なお、単位時間内での仮想的な移動距離Mr1は、第2の位置および仮想位置におけるx座標の差分の絶対値|x2−x3|で示される。CPU100は、被写体Aの単位時間内の撮像画像上での移動距離Mi(移動の速さ)に基づいて、ぶれ補正の処理(後述する図8のステップS26)が実行される周期ごとの、撮像画像上の被写体Aの移動距離(補正の量)を算出する。   Then, the CPU 100 uses the equations (1) and (2) in FIG. 7 based on the distance D (= y2), the focal length f, and the virtual moving distance Mr1 within the unit time. The movement distance Mi on the captured image within the unit time of the subject is calculated. The virtual movement distance Mr1 within the unit time is indicated by the absolute value | x2-x3 | of the difference between the x-coordinates at the second position and the virtual position. Based on the moving distance Mi (speed of movement) of the subject A within the unit time of the subject A, the CPU 100 picks up the image for each period in which the blur correction process (step S26 in FIG. 8 described later) is executed. The moving distance (correction amount) of the subject A on the image is calculated.

また、CPU100は、第1の位置および第2の位置の座標を撮像面に投影することにより、被写体Aの移動の向きを算出する。   Further, the CPU 100 calculates the direction of movement of the subject A by projecting the coordinates of the first position and the second position on the imaging surface.

本明細書では、被写体の撮像画像上での移動距離の算出方式の理解を深めるために、まず、図6を参照して、撮像装置10の撮像面に対して被写体が平行に移動している場合の算出方式が説明され、次に、図7を参照して、被写体が撮像装置10の撮像面に交わる方向に移動している場合の算出方式が説明された。しかしながら、図7に示された算出方式は、被写体が撮像装置10の撮像面と平行に移動している場合にも適用できることは、明らかである。つまり、図7において第2の位置のy座標(y2)を、第1の位置のy座標(y1)として扱えばよい。このとき、仮想位置は、第1の位置と同じ位置となる。   In this specification, in order to deepen the understanding of the calculation method of the moving distance on the captured image of the subject, first, referring to FIG. 6, the subject is moving in parallel with the imaging surface of the imaging device 10. Next, the calculation method when the subject is moving in the direction intersecting the imaging surface of the imaging device 10 has been described with reference to FIG. However, it is obvious that the calculation method shown in FIG. 7 can be applied even when the subject is moving in parallel with the imaging surface of the imaging device 10. That is, in FIG. 7, the y coordinate (y2) of the second position may be handled as the y coordinate (y1) of the first position. At this time, the virtual position is the same position as the first position.

なお、x軸方向を撮像画像上の水平方向に対応させた場合、x軸方向およびy軸方向の双方に直交するz軸方向は、撮像画像上の垂直方向に対応する。この場合、zy平面においても、上述したxy平面の場合と同様の算出方式を援用することができる。   When the x-axis direction corresponds to the horizontal direction on the captured image, the z-axis direction orthogonal to both the x-axis direction and the y-axis direction corresponds to the vertical direction on the captured image. In this case, the same calculation method as in the case of the xy plane described above can also be used for the zy plane.

<処理手順>
図8は、本実施の形態に従う撮像装置10および端末装置20が実行する処理手順の一例を示す図である。基本的に、図8中の各ステップのうち、撮像装置10側のステップは、CPU100がメモリ102に格納されたプログラムを実行することによって実現され、端末装置20側のステップは、CPU200がメモリ202に格納されたプログラムを実行することによって実現される。
<Processing procedure>
FIG. 8 is a diagram illustrating an example of a processing procedure executed by the imaging device 10 and the terminal device 20 according to the present embodiment. Basically, among the steps in FIG. 8, the steps on the imaging device 10 side are realized by the CPU 100 executing a program stored in the memory 102, and the steps on the terminal device 20 side are performed by the CPU 200 in the memory 202. This is realized by executing the program stored in the.

まず、端末装置20が実行する処理手順について説明する。CPU200は、GPSコントローラ206を介して、端末装置20の位置情報(端末位置情報)を取得する(ステップS40)。CPU200は、常時、端末装置20の位置情報を取得しても良い。   First, a processing procedure executed by the terminal device 20 will be described. CPU200 acquires the positional information (terminal positional information) of the terminal device 20 via the GPS controller 206 (step S40). The CPU 200 may always acquire the position information of the terminal device 20.

次に、CPU200は、通信I/F204を介して、取得した端末位置情報を撮像装置10に送信する(ステップS42)。CPU200は、タイマ208を参照して、所定時間が経過したか否かを判断する(ステップS44)。具体的には、CPU200は、撮像装置10に最後に端末位置情報を送信してから所定時間が経過したか否かを判断する。所定時間が経過していないと判断した場合には(ステップS44においてNO)、CPU200は、ステップS44の処理を繰り返す。これに対して、所定時間が経過したと判断した場合には(ステップS44においてYES)、CPU200は、ステップS42以降の処理を実行する。すなわち、CPU200は、通信I/F204を介して、所定時間ごとに、撮像装置10に、端末位置情報を送信する。   Next, the CPU 200 transmits the acquired terminal position information to the imaging device 10 via the communication I / F 204 (step S42). CPU 200 refers to timer 208 to determine whether or not a predetermined time has elapsed (step S44). Specifically, the CPU 200 determines whether or not a predetermined time has elapsed since the terminal position information was last transmitted to the imaging device 10. If it is determined that the predetermined time has not elapsed (NO in step S44), CPU 200 repeats the process of step S44. On the other hand, when it is determined that the predetermined time has elapsed (YES in step S44), CPU 200 executes the processing after step S42. That is, the CPU 200 transmits terminal position information to the imaging device 10 at predetermined intervals via the communication I / F 204.

次に、撮像装置10が実行する処理手順について説明する。CPU100は、タッチパネル104(またはボタン110)を介してカメラ122の起動指示を受け付けたか否かを判断する(ステップS10)。CPU100は、当該起動指示を受け付けていないと判断した場合には(ステップS10においてNO)、ステップS10の処理を繰り返す。これに対して、CPU100は、当該起動指示を受け付けたと判断した場合には(ステップS10においてYES)、ステップS12へ制御を進める。   Next, a processing procedure executed by the imaging apparatus 10 will be described. CPU 100 determines whether an activation instruction for camera 122 has been received via touch panel 104 (or button 110) (step S10). When CPU 100 determines that the activation instruction has not been received (NO in step S10), CPU 100 repeats the process of step S10. On the other hand, when CPU 100 determines that the activation instruction has been received (YES in step S10), control proceeds to step S12.

ステップS12で、CPU100は、端末装置20から端末位置情報を受信する。そして、CPU100は、すでにメモリ102に格納されている端末位置情報とステップS12で受信した端末位置情報とを比較する。そして、これらが異なれば、CPU100は、新しい端末位置情報をメモリ102に格納する(ステップS14)。このとき、それまでメモリ102に格納されていた端末位置情報は消去されても良い。   In step S <b> 12, the CPU 100 receives terminal position information from the terminal device 20. Then, the CPU 100 compares the terminal position information already stored in the memory 102 with the terminal position information received in step S12. If they are different, the CPU 100 stores new terminal position information in the memory 102 (step S14). At this time, the terminal location information stored in the memory 102 until then may be deleted.

次に、CPU100は、GPSコントローラ120の検出出力に基づいて撮像装置10の位置情報を取得し、また、電子コンパス116の検出出力に基づいて撮像装置10の撮像面の角度情報を取得する(ステップS16)。角度情報は、加速度センサ118の検出出力に基づいて補正されても良い。次に、CPU100は、図6または図7を参照して説明したように、端末装置20の移動の向きと速さを算出する(ステップS18)。次に、CPU100は、ステップS18で算出された向きと量とを利用して、補正の向きと補正の量とを算出する(ステップS20)。補正の向きは、たとえばステップS18で算出された向きである。当該向きは、図7では、撮像画像上での移動距離Miを示す矢印の向きとして例示されている。補正の量は、たとえば後述するステップS26が実行される周期(所定の周期)で特定される期間に被写体が移動することが期待される距離である。   Next, the CPU 100 acquires position information of the imaging device 10 based on the detection output of the GPS controller 120, and acquires angle information of the imaging surface of the imaging device 10 based on the detection output of the electronic compass 116 (step). S16). The angle information may be corrected based on the detection output of the acceleration sensor 118. Next, as described with reference to FIG. 6 or FIG. 7, the CPU 100 calculates the direction and speed of movement of the terminal device 20 (step S18). Next, the CPU 100 calculates the correction direction and the correction amount by using the direction and the amount calculated in step S18 (step S20). The correction direction is, for example, the direction calculated in step S18. The direction is illustrated in FIG. 7 as the direction of the arrow indicating the movement distance Mi on the captured image. The amount of correction is, for example, a distance that the subject is expected to move in a period specified by a period (predetermined period) in which step S26 described later is executed.

次に、CPU100は、撮像指示を受け付けたか否かを判断する(ステップS22)。CPU100は、たとえば、シャッタボタンが操作されると、撮像指示を受け付ける。そして、CPU100は、撮像指示を受け付けたと判断した場合(ステップS22でYES)、ステップS24へ制御を進める。一方、CPU100は、まだ撮像指示を受け付けていないと判断すると(ステップS22でNO)、ステップS12へ制御を戻す。   Next, the CPU 100 determines whether an imaging instruction has been received (step S22). For example, when the shutter button is operated, the CPU 100 receives an imaging instruction. If CPU 100 determines that an imaging instruction has been received (YES in step S22), control proceeds to step S24. On the other hand, when CPU 100 determines that it has not received an imaging instruction (NO in step S22), it returns control to step S12.

ステップS24では、CPU100は、撮影(露光)を開始する。そして、ステップS26で、CPU100は、ステップS20で算出した補正の向きと補正の量に基づいて、撮像画像中の被写体のぶれを補正する処理を実行する。そして、ステップS28で、CPU100は、ステップS24で露光を開始してから、所与の露光時間が経過したか否かを判断する。まだ露光時間が経過していないと判断すると(ステップS28でNO)、CPU100は、制御をステップS26へ戻す。一方、露光時間が経過したと判断すると(ステップS28でYES)、CPU100は、制御をステップS30へ進める。ステップS30で、CPU100は、露光(撮影)を終了し、撮像画像を出力して、制御を終了する。   In step S24, the CPU 100 starts photographing (exposure). In step S26, the CPU 100 executes processing for correcting blurring of the subject in the captured image based on the correction direction and the correction amount calculated in step S20. In step S28, the CPU 100 determines whether or not a given exposure time has elapsed since the exposure was started in step S24. If CPU 100 determines that the exposure time has not yet elapsed (NO in step S28), CPU 100 returns control to step S26. On the other hand, if CPU 100 determines that the exposure time has elapsed (YES in step S28), CPU 100 advances the control to step S30. In step S30, the CPU 100 ends the exposure (shooting), outputs the captured image, and ends the control.

以上図8を参照して説明された処理では、撮像装置10は、撮影指示を受け付ける前に、端末装置20から送信された当該端末装置20の位置情報を取得し、当該位置情報を利用して端末装置20の移動の向きと速さとを算出し、そして、当該移動の向きと速さを利用して補正の向きと量とを算出する。撮影指示を受け付けると、撮像装置10は、このように算出された補正の向きと量とを利用して、撮像画像中の被写体のぶれを補正する。   In the process described above with reference to FIG. 8, the imaging device 10 acquires the position information of the terminal device 20 transmitted from the terminal device 20 before receiving the shooting instruction, and uses the position information. The direction and speed of movement of the terminal device 20 are calculated, and the direction and amount of correction are calculated using the direction and speed of the movement. When the imaging instruction is received, the imaging apparatus 10 corrects blurring of the subject in the captured image using the correction direction and amount calculated in this way.

本実施の形態では、撮像指示が受け付けられる前の被写体の少なくとも2つの位置情報に基づいて、被写体ぶれの補正の向きと量が算出された。補正の向きと量の算出は、当該算出に利用された位置情報の中の1つの位置情報が露光開始時の被写体の位置へと移動されるような態様で位置情報の変換が行なわれた後で、実行されても良い。より具体的には、CPU100は、ステップS24における露光開始時に、図3の被写体A01の座標を被写体A11の座標へと変換するための変換式を算出する。そして、CPU100は、被写体A01の座標を被写体A11の座標へと変換し、さらに、被写体A02の座標を当該変換式を利用して変換する。そして、CPU100は、変換後の被写体A01の座標と変換後の被写体A02の座標とを利用して、図6または図7を参照して説明した方式に従って、補正の向きと量とを算出する。   In the present embodiment, the direction and amount of subject blur correction are calculated based on at least two pieces of position information of the subject before the imaging instruction is accepted. The correction direction and amount are calculated after the position information is converted in such a manner that one position information in the position information used for the calculation is moved to the position of the subject at the start of exposure. It may be executed. More specifically, the CPU 100 calculates a conversion formula for converting the coordinates of the subject A01 in FIG. 3 into the coordinates of the subject A11 at the start of exposure in step S24. Then, the CPU 100 converts the coordinates of the subject A01 into the coordinates of the subject A11, and further converts the coordinates of the subject A02 using the conversion formula. Then, the CPU 100 uses the coordinates of the converted subject A01 and the coordinates of the converted subject A02 to calculate the correction direction and amount according to the method described with reference to FIG. 6 or FIG.

<その他の実施の形態>
以上説明した本実施の形態では、撮像装置10は移動することなく被写体Aを撮影する場合が説明されたが、撮像装置10は移動しながら被写体Aを撮影してもよい。この場合、撮像装置10は、撮像装置10および端末装置20の位置情報に基づいて、被写体Aの撮像装置10に対する相対的な移動距離を算出することで、移動する被写体Aに対する適切な補正の向きと量とを算出できる。
<Other embodiments>
In the present embodiment described above, the case where the imaging device 10 captures the subject A without moving has been described. However, the imaging device 10 may capture the subject A while moving. In this case, the imaging device 10 calculates the relative movement distance of the subject A with respect to the imaging device 10 based on the position information of the imaging device 10 and the terminal device 20, and thereby performs an appropriate correction direction for the moving subject A. And quantity can be calculated.

なお、コンピュータに、上述のフローチャートで説明したような制御を実行させるためのプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録されて、プログラム製品として提供され得る。あるいは、当該プログラムは、コンピュータに内蔵するハードディスクなどの記録媒体に記録されて、または、ネットワークを介したダウンロードによって、提供され得る。当該プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本開示のプログラムに含まれ得る。また、本開示のプログラムは他のプログラムの一部に組込まれて提供される場合もある。   Note that it is also possible to provide a program for causing a computer to execute control as described in the above flowchart. Such a program may be recorded on a non-transitory computer-readable recording medium such as a memory card attached to the computer and provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer, or downloaded via a network. The program may be a program module that is provided as a part of an operating system (OS) of a computer and that calls a required module in a predetermined arrangement at a predetermined timing to execute processing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module may also be included in the program of the present disclosure. In addition, the program of the present disclosure may be provided by being incorporated in a part of another program.

<実施の形態の効果>
本実施の形態では、撮像装置は、被写体に取り付けられた端末装置から当該被写体の位置を取得することにより、被写体ぶれの距離および向きを算出する。これにより、撮像装置は、静止画撮影の直前まで撮影装置の撮影範囲内に被写体が存在しない場合であっても、被写体ぶれを補正できる。また、撮像装置は、事前の複数の画像の撮影を行うことなく、被写体ぶれを補正する。これにより、暗所での撮影等でフレームレートが低くなっている場合であっても、被写体ぶれを補正できる。
<Effect of Embodiment>
In the present embodiment, the imaging apparatus calculates the distance and direction of subject blur by obtaining the position of the subject from a terminal device attached to the subject. Thus, the imaging apparatus can correct subject shake even when there is no subject within the imaging range of the imaging apparatus until immediately before still image shooting. In addition, the imaging apparatus corrects subject blur without taking a plurality of images in advance. This makes it possible to correct subject blur even when the frame rate is low due to shooting in a dark place or the like.

今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be thought that embodiment disclosed this time and its modification are illustrations in all the points, and are not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 撮像装置、20 端末装置、116 電子コンパス、118 加速度センサ、120,206 GPSコントローラ、122 カメラ。   10 imaging device, 20 terminal device, 116 electronic compass, 118 acceleration sensor, 120, 206 GPS controller, 122 camera.

Claims (5)

自装置の位置情報を取得可能に構成された端末装置と通信可能な撮像装置であって、
被写体を撮影することにより撮像画像を生成するための撮像手段と、
前記撮像装置の位置を示す装置位置情報を取得するための第1の位置取得手段と、
前記撮像装置の向きを示す向き情報を取得するための向き取得手段と、
前記被写体に取り付けられた前記端末装置から送信される情報に基づいて、当該被写体の位置を示す端末位置情報を取得するための第2の位置取得手段と、
前記装置位置情報と、前記端末位置情報と、前記向き情報とに基づいて、前記撮像手段により撮像された前記撮像画像上での前記被写体の単位時間内の移動の向きおよび距離を算出するための算出手段と、
前記撮像画像上での前記被写体の単位時間内の移動の向きおよび距離に基づいて、前記撮像画像における被写体のぶれを補正するための補正手段とを備える、撮像装置。
An imaging device capable of communicating with a terminal device configured to be able to acquire position information of the own device,
Imaging means for generating a captured image by photographing a subject;
First position acquisition means for acquiring apparatus position information indicating the position of the imaging apparatus;
Orientation acquisition means for acquiring orientation information indicating the orientation of the imaging device;
Second position acquisition means for acquiring terminal position information indicating the position of the subject based on information transmitted from the terminal device attached to the subject;
Based on the device position information, the terminal position information, and the orientation information, a direction and distance of movement of the subject within the unit time on the captured image captured by the imaging unit are calculated. A calculation means;
An imaging apparatus comprising: correction means for correcting blurring of a subject in the captured image based on a moving direction and a distance of the subject in the unit time on the captured image.
前記算出手段は、
前記装置位置情報および前記端末位置情報に基づいて、前記撮像手段の撮像面と前記被写体との間の距離を算出し、
前記端末位置情報に基づいて、前記被写体の単位時間内の移動距離を算出し、
前記被写体の単位時間内の移動の距離は、前記撮像手段の焦点距離と前記撮像面と前記被写体との間の距離と前記被写体の単位時間内の移動距離とに基づいて、算出される、請求項1に記載の撮像装置。
The calculating means includes
Based on the device position information and the terminal position information, the distance between the imaging surface of the imaging means and the subject is calculated,
Based on the terminal position information, the moving distance of the subject within a unit time is calculated,
The distance of movement of the subject within a unit time is calculated based on a focal length of the imaging unit, a distance between the imaging surface and the subject, and a movement distance of the subject within the unit time. Item 2. The imaging device according to Item 1.
前記第2の位置取得手段によって取得された所定時間ごとの前記端末位置情報を順次格納するための情報格納手段をさらに備え、
前記被写体の単位時間内の移動の距離は、前記情報格納手段に格納されている前記端末位置情報に基づいて、算出される、請求項1または2に記載の撮像装置。
Further comprising information storage means for sequentially storing the terminal position information for each predetermined time acquired by the second position acquisition means;
The imaging apparatus according to claim 1, wherein a distance of movement of the subject within a unit time is calculated based on the terminal position information stored in the information storage unit.
前記端末位置情報は、前記撮像手段が撮像画像の生成を開始する前の前記被写体の位置である、第1の位置の情報と第2の位置の情報とを含み、
前記算出手段は、撮像方向を示す第1の方向と前記第1の方向に直交する第2の方向とから規定される平面内での前記第1の位置を起点とした前記第2の方向上であって、かつ前記平面内での前記第2の位置および前記平面内での前記撮像手段の焦点位置を結ぶ方向上の位置を示す前記被写体の仮想位置を算出し、
前記被写体の単位時間内の移動の距離は、前記撮像手段の焦点距離と前記第1の位置と前記被写体の仮想位置とに基づいて、算出される、請求項3に記載の撮像装置。
The terminal position information includes information on a first position and information on a second position, which are positions of the subject before the imaging unit starts generating a captured image,
The calculating means is on the second direction starting from the first position in a plane defined by a first direction indicating an imaging direction and a second direction orthogonal to the first direction. And calculating the virtual position of the subject indicating the position in the direction connecting the second position in the plane and the focal position of the imaging means in the plane,
The imaging apparatus according to claim 3, wherein the distance of movement of the subject within a unit time is calculated based on a focal length of the imaging unit, the first position, and a virtual position of the subject.
前記補正手段は、前記被写体のぶれの補正の量として、前記被写体の単位時間内の移動の距離に基づいて、前記被写体のぶれの補正の対象となる期間に前記被写体が移動することが期待される距離を算出する、請求項1〜請求項4のいずれか1項に記載の撮像装置。   The correction means is expected to move the subject during a period subject to blur correction of the subject based on a distance of movement of the subject within a unit time as a correction amount of the subject blur. The imaging device according to claim 1, wherein a distance to be calculated is calculated.
JP2013182264A 2013-09-03 2013-09-03 Imaging device Pending JP2015049446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013182264A JP2015049446A (en) 2013-09-03 2013-09-03 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013182264A JP2015049446A (en) 2013-09-03 2013-09-03 Imaging device

Publications (1)

Publication Number Publication Date
JP2015049446A true JP2015049446A (en) 2015-03-16

Family

ID=52699486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013182264A Pending JP2015049446A (en) 2013-09-03 2013-09-03 Imaging device

Country Status (1)

Country Link
JP (1) JP2015049446A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109379533A (en) * 2018-10-15 2019-02-22 Oppo广东移动通信有限公司 A kind of photographic method, camera arrangement and terminal device
CN113228630A (en) * 2018-11-16 2021-08-06 日本株式会社皆爱公司 Image pickup apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109379533A (en) * 2018-10-15 2019-02-22 Oppo广东移动通信有限公司 A kind of photographic method, camera arrangement and terminal device
CN113228630A (en) * 2018-11-16 2021-08-06 日本株式会社皆爱公司 Image pickup apparatus
CN113228630B (en) * 2018-11-16 2023-12-22 日本株式会社皆爱公司 Image pickup apparatus

Similar Documents

Publication Publication Date Title
US10440277B2 (en) Image processing device, electronic equipment, image processing method and non-transitory computer-readable medium for enlarging objects on display
KR101498442B1 (en) Image capture device having tilt or perspective correction
KR101256543B1 (en) Image capturing apparatus, image capturing method, and storage medium
WO2014141522A1 (en) Image assessment device, capturing device, 3d measuring device, image assessment method, and program
US20140063279A1 (en) Image capture device and image processor
US10412306B1 (en) Optical image stabilization method and apparatus
US9413952B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP2011058854A (en) Portable terminal
CN108260360B (en) Scene depth calculation method and device and terminal
CN112414400A (en) Information processing method and device, electronic equipment and storage medium
EP3267675B1 (en) Terminal device and photographing method
WO2018143360A1 (en) Relative position detection system and image display system
JP2015049446A (en) Imaging device
JP5514062B2 (en) Electronic device, imaging screen display method with information, and program
JP6018419B2 (en) Imaging device, control method thereof, and control program thereof
JP2014236304A (en) Imaging device
US20180316840A1 (en) Optical image stabilization devices and methods for gyroscope alignment
US8977493B2 (en) Self-position measuring terminal
JP2015095670A (en) Imaging apparatus, control method thereof and control program
JPWO2018168228A1 (en) Image processing apparatus, image processing method, and image processing program
CN110058272B (en) Electronic device, positioning control method, and recording medium
KR101733792B1 (en) Method and apparatus for correcting position
WO2021044585A1 (en) Imaging device, system, image blurring correction method, program, and recording medium
JP2014216744A (en) Imaging device
US9800790B2 (en) Image capturing apparatus capable of detecting geomagnetism, control method, and storage medium