JP2015049446A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2015049446A JP2015049446A JP2013182264A JP2013182264A JP2015049446A JP 2015049446 A JP2015049446 A JP 2015049446A JP 2013182264 A JP2013182264 A JP 2013182264A JP 2013182264 A JP2013182264 A JP 2013182264A JP 2015049446 A JP2015049446 A JP 2015049446A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- imaging
- distance
- position information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、被写体を撮像するための撮像装置に関する。 The present invention relates to an imaging apparatus for imaging a subject.
カメラなどの撮像装置で、移動する被写体を撮像する機会は多い。従来、撮像装置において、当該被写体を撮像するのに好適なものが望まれている。たとえば、移動する被写体の位置情報を取得して撮像する撮像システムが知られている。具体的には、以下のような撮像システムが開示されている。 There are many opportunities to image a moving subject with an imaging device such as a camera. Conventionally, an imaging apparatus that is suitable for imaging the subject has been desired. For example, an imaging system that acquires position information of a moving subject and captures an image is known. Specifically, the following imaging system is disclosed.
たとえば、特開2006−317848号公報(特許文献1)では、静止画撮影時において被写体が動いたことにより生じる「被写体ぶれ」の補正が検討されている。より具体的には、特許文献1では、静止画撮影を始める前にあらかじめ複数枚の画像が撮影され、当該撮影された複数枚の画像の分析に基づいて被写体の動きベクトルが算出され、当該動きベクトルが光軸シフトレンズの移動量に換算される。そして、静止画の撮影が開始された時、先に計算していた光軸シフトレズの移動量分、光軸シフトレンズを移動させる。
For example, Japanese Patent Laid-Open No. 2006-317848 (Patent Document 1) discusses correction of “subject blurring” caused by movement of a subject during still image shooting. More specifically, in
しかしながら、従来の被写体ぶれの補正は、少なくとも2つの課題を含む。1つ目の課題は、静止画撮影の直前まで撮影装置の撮影範囲内に被写体が存在しない場合(例えば、画角外から画角内に高速で移動してきた被写体を撮影する場合)、従来の被写体ぶれ補正は対応出来ない事態が想定されることである。2つ目の課題は、特に、暗所での撮影等でフレームレートが低くなっているときに想定される事態に関する。より具体的には、フレームレートが低くなっている場合、(被写体の動く量を算出するための)事前の複数の画像の撮影において、撮影間隔が広くなりすぎる。このため、被写体の動きの速さの算出に比較的長い時間を要する。このため、被写体の速さが変化するような状況において、静止画撮影の直前の被写体の速度を測定することが困難な事態が想定される。 However, the conventional subject blur correction includes at least two problems. The first problem is that when there is no subject within the photographing range of the photographing apparatus until just before the still image photographing (for example, when photographing a subject moving at high speed from outside the angle of view), It is assumed that the subject blur correction cannot be handled. The second problem particularly relates to a situation assumed when the frame rate is low due to shooting in a dark place or the like. More specifically, when the frame rate is low, the shooting interval is too wide in the shooting of a plurality of images in advance (for calculating the amount of movement of the subject). For this reason, it takes a relatively long time to calculate the speed of movement of the subject. For this reason, in a situation where the speed of the subject changes, it is assumed that it is difficult to measure the speed of the subject immediately before the still image shooting.
本開示は、かかる実情に鑑み考え出されたものであり、その目的は、確実に被写体ぶれを補正できる撮像装置を提供することである。 The present disclosure has been conceived in view of such circumstances, and an object thereof is to provide an imaging apparatus that can reliably correct subject shake.
ある局面に従った撮像装置は、自装置の位置情報を取得可能に構成された端末装置と通信可能な撮像装置であって、被写体を撮影することにより撮像画像を生成するための撮像手段と、撮像装置の位置を示す装置位置情報を取得するための第1の位置取得手段と、撮像装置の向きを示す向き情報を取得するための向き取得手段と、被写体に取り付けられた端末装置から送信される情報に基づいて、当該被写体の位置を示す端末位置情報を取得するための第2の位置取得手段と、装置位置情報と、端末位置情報と、向き情報とに基づいて、撮像手段により撮像された撮像画像上での被写体の単位時間内の移動の向きおよび距離を算出するための算出手段と、撮像画像上での被写体の単位時間内の移動の向きおよび距離に基づいて、撮像画像における被写体のぶれを補正するための補正手段とを備える。 An imaging apparatus according to an aspect is an imaging apparatus capable of communicating with a terminal device configured to be able to acquire position information of the own apparatus, and an imaging unit for generating a captured image by photographing a subject; First position acquisition means for acquiring device position information indicating the position of the imaging device, direction acquisition means for acquiring orientation information indicating the orientation of the imaging device, and a terminal device attached to the subject. On the basis of the second position acquisition means for acquiring the terminal position information indicating the position of the subject, the apparatus position information, the terminal position information, and the orientation information. The captured image is calculated based on the calculation means for calculating the direction and distance of the subject within the unit time on the captured image and the direction and distance of the subject within the unit time on the captured image. And a correcting means for correcting the blur of that object.
好ましくは、算出手段は、装置位置情報および端末位置情報に基づいて、撮像手段の撮像面と被写体との間の距離を算出し、端末位置情報に基づいて、被写体の単位時間内の移動距離を算出し、被写体の単位時間内の移動の距離は、撮像手段の焦点距離と撮像面と被写体との間の距離と被写体の単位時間内の移動距離とに基づいて、算出される。 Preferably, the calculation means calculates a distance between the imaging surface of the imaging means and the subject based on the device position information and the terminal position information, and calculates a movement distance of the subject within the unit time based on the terminal position information. The distance of movement of the subject within the unit time is calculated based on the focal length of the imaging means, the distance between the imaging surface and the subject, and the movement distance of the subject within the unit time.
好ましくは、撮像装置は、第2の位置取得手段によって取得された所定時間ごとの端末位置情報を順次格納するための情報格納手段をさらに備え、被写体の単位時間内の移動の距離は、情報格納手段に格納されている端末位置情報に基づいて、算出される。 Preferably, the imaging apparatus further includes information storage means for sequentially storing terminal position information for each predetermined time acquired by the second position acquisition means, and the distance of movement of the subject within the unit time is stored as information. It is calculated based on the terminal location information stored in the means.
好ましくは、端末位置情報は、撮像手段が撮像画像の生成を開始する前の被写体の位置である、第1の位置の情報と第2の位置の情報とを含み、算出手段は、撮像方向を示す第1の方向と第1の方向に直交する第2の方向とから規定される平面内での第1の位置を起点とした第2の方向上であって、かつ平面内での第2の位置および平面内での撮像手段の焦点位置を結ぶ方向上の位置を示す被写体の仮想位置を算出し、被写体の単位時間内の移動の距離は、撮像手段の焦点距離と第1の位置と被写体の仮想位置とに基づいて、算出される。 Preferably, the terminal position information includes information on a first position and information on a second position, which are positions of a subject before the imaging unit starts generating a captured image, and the calculation unit determines the imaging direction. On the second direction starting from the first position in the plane defined by the first direction shown and the second direction orthogonal to the first direction, and in the second direction in the plane And the virtual position of the subject indicating the position in the direction connecting the focal position of the imaging means in the plane and the distance of movement of the subject within the unit time are calculated by comparing the focal length of the imaging means and the first position. This is calculated based on the virtual position of the subject.
好ましくは、補正手段は、被写体のぶれの補正の量として、被写体のぶれの補正の対象となる期間に被写体が移動することが期待される距離を算出する。 Preferably, the correction unit calculates a distance at which the subject is expected to move during a period to be corrected for subject blur as an amount of subject blur correction.
本開示によれば、撮像装置において確実に被写体ぶれを補正できる。 According to the present disclosure, it is possible to reliably correct subject shake in the imaging apparatus.
以下、本開示の情報処理装置の実施の形態について、図面を参照して説明する。以下の説明において、同一の機能および作用を有する部品は、各図を通して同じ符号を付し、重複する説明を繰返さない。 Hereinafter, an embodiment of an information processing apparatus according to the present disclosure will be described with reference to the drawings. In the following description, parts having the same function and action are denoted by the same reference numerals throughout the drawings, and redundant description will not be repeated.
<システム構成>
以下に、撮像装置の一実施の形態を適用された撮像システムについて説明する。図1は、撮像システムの概略的な構成を示す図である。
<System configuration>
An imaging system to which an embodiment of the imaging apparatus is applied will be described below. FIG. 1 is a diagram illustrating a schematic configuration of an imaging system.
図1に示されるように、撮像システムでは、撮像装置10は、撮像装置10が撮影可能な範囲FV内に存在する被写体を撮影する。範囲FVは、撮像装置10の画角に含まれる範囲ともいう。図1において、被写体A11と被写体A12は、同一の被写体(以下、適宜「被写体A」と呼ぶ)の異なる時刻における状態を表す。被写体Aは、露光時間内に、被写体A11で示される位置から被写体A12で示される位置まで移動する。
As illustrated in FIG. 1, in the imaging system, the
被写体は、端末装置20を取り付けられている。撮像装置10は、端末装置20の位置情報と、撮像装置10の撮影の向きとを取得することにより、被写体の露光時間内の移動の向きと量、つまり、「被写体ぶれ」の向きおよび量を算出する。そして、当該被写体ぶれの向きおよび量に基づいて、撮像画像における被写体ぶれを補正する。撮像装置10は、たとえば地磁気センサによって、撮影の向き(たとえば、後述するカメラ122の対物レンズが向けられている方向)を検出する。
The
撮像装置10と端末装置20のそれぞれは、互いに通信するためのインタフェースを備える。撮像装置10と端末装置20の間の通信は、「peer to peer」のように直接的であっても良いし、図示しないサーバを介する通信等の間接的なものであっても良い。また、撮像装置10と端末装置20のそれぞれは、それぞれ自装置の位置情報を取得可能である。たとえば、撮像装置10および端末装置20は、GPS(Global Positioning System)衛星などその他の衛星からの測位用の電波を受信して、それぞれ自装置の現在位置情報(経度や緯度を含む位置座標)を取得する。
Each of the
撮像装置10は、例えば、撮影機能を有する装置によって実現される。撮像装置10は、デジタルカメラ、ビデオカメラ、PDA(Personal Digital Assistance)、タブレット端末装置などとして実現することもできる。撮像装置10は、また、撮像機能付きのスマートフォンによって実現されても良い。
The
被写体は、端末装置20を携帯する。端末装置20は、位置情報を取得可能な装置であれば任意の装置によって実現され得る。たとえば、端末装置20は、GPS機能付きの携帯電話機であってもよいし、被写体Aが身に付けている時計等に内蔵されていてもよい。
The subject carries the
図1の撮像システムでは、概ね、以下の[1]〜[3]で示される制御が実行される。
[1]被写体には、あらかじめ端末装置20が取り付けられている。そして、端末装置20は、断続的に、撮像装置10に、当該端末装置20のGPS位置情報を送信する。
In the imaging system of FIG. 1, generally, the following controls [1] to [3] are executed.
[1] The
[2]撮像装置10は、撮影の向きと、端末装置20のGPS位置情報と、撮像装置10の位置情報とから、撮像装置10の撮影素子(イメージセンサ)上での被写体の移動の向きと速さを、逐次算出し、格納する。
[2] The
[3]撮像装置10は、ぶれ補正機能を有する。シャッタボタンが操作される等、撮像装置10において撮影が指示されると、撮像装置10は、当該ぶれ補正機能を利用して撮像画像を補正する。具体的には、撮像装置10は、上記[2]に従って事前に格納された被写体の移動の向きと速さに基づいて、被写体のぶれを補正する。
[3] The
本実施の形態は、適用され得るぶれ補正の方法を限定しない。たとえば、光学的なぶれ補正の方法の例としては、撮像素子(イメージセンサ)を動かす方法と、レンズを移動させる方法とが挙げられる。そして、本実施の形態では、これらのいずれの方法をも採用することができる。本明細書では、一例として、撮像素子を動かすことでぶれを補正する方法が採用された場合について説明する。 This embodiment does not limit the blur correction method that can be applied. For example, examples of the optical blur correction method include a method of moving an image sensor (image sensor) and a method of moving a lens. In the present embodiment, any of these methods can be employed. In the present specification, as an example, a case will be described in which a method of correcting blur by moving an image sensor is employed.
<具体的な状況の一例>
図2は、撮像システムが適用される具体的な状況の一例を模式的に示す図である。図2の被写体A01、被写体A02、被写体A11、および被写体A12は、同一の被写体の異なるタイミングのそれぞれでの位置を順に示す。被写体A01および被写体A02は、撮像装置10に対して撮像指示が受け付けられる前の被写体Aの位置を示す。
<Example of specific situation>
FIG. 2 is a diagram schematically illustrating an example of a specific situation where the imaging system is applied. The subject A01, the subject A02, the subject A11, and the subject A12 in FIG. 2 sequentially indicate the positions of the same subject at different timings. A subject A01 and a subject A02 indicate the positions of the subject A before the imaging instruction is accepted by the
図2に示された状況では、端末装置20の周りには障害物901〜905が存在する。撮像装置10は、障害物901〜905の隙間からしか、被写体を撮影出来ない。つまり、撮像装置10による撮影可能な範囲は、障害物901〜905によって狭められる。撮像装置10による撮影可能な範囲は、範囲FVで示されている。被写体A01および被写体A02は、範囲FVの外に位置している。このため、図2に示された状況では、被写体A11の位置から被写体Aの撮影が開始される場合、撮像装置10が撮影の開始前に被写体Aの画像を取得することは困難である。
In the situation shown in FIG. 2,
図2に示された状況において、被写体Aが持っている端末(端末装置20)は、撮像装置10に、端末装置20の位置情報を随時送信する。つまり、被写体Aが、被写体A01とそれに続く被写体A02の位置にあるときも、端末装置20は、撮像装置10に、当該端末装置20の位置情報を送信する。「随時」とは、所与の時間間隔であっても良いし、所定距離以上端末装置20の位置が変化したときであっても良いし、撮像装置10または上記サーバからの要求を受けた時であっても良い。撮像装置10は、端末装置20から送信される2以上の位置情報に基づいて、端末装置20の移動の向きと速さとを算出する。
In the situation shown in FIG. 2, the terminal (terminal device 20) possessed by the subject A transmits the position information of the
撮像装置10は、被写体がユーザによって撮影を希望される位置に到達した時(図2の被写体A11)に、撮影を開始する。具体的には、ユーザは、被写体Aが撮像装置10のファインダ内に入ってきたのを確認すると、シャッタボタンを押す。これに応じて、撮像装置10は、露光を開始する。所与の露光期間が満了すると、撮像装置10は、露光を終了する。シャッタボタンの押圧は、撮像装置10への撮像指示の一例である。
The
撮像装置10は、被写体の動き(画面内ぶれ)を補正するために、上記のようにして事前に算出された端末装置20の移動の向きと速さとに基づいて、光学的なぶれ補正を行う。当該移動の向きと速さとは、少なくとも、被写体A01と被写体A02のそれぞれの位置において端末装置20から送信された2つの位置情報に基づいて算出される。
The
<ハードウェア構成>
図3は、本実施の形態に従う撮像装置10のハードウェア構成を示すブロック図である。図3を参照して、撮像装置10は、CPU(central processing unit)100と、メモリ102と、タッチパネル104と、ディスプレイ106と、スピーカ108と、ボタン110と、メモリインタフェイス(I/F)112と、通信インタフェイス(I/F)114と、電子コンパス116と、加速度センサ118と、GPSコントローラ120と、カメラ122とを含む。
<Hardware configuration>
FIG. 3 is a block diagram showing a hardware configuration of
CPU100は、メモリ102に格納されたプログラムを読み出して実行することで、撮像装置10の各部の動作を制御する。より詳細にはCPU100は、当該プログラムを実行することによって、後述する撮像装置10の処理(ステップ)の各々を実現する。CPU100は、例えば、マイクロプロセッサである。CPU100の代わりに、FPGA(Field Programmable Gate Array)、ASIC(Application SpecI/Fic Integrated Circuit)およびその他の演算機能を有する回路が採用されてもよい。
The
メモリ102は、RAM(Random Access Memory)、ROM(Read-Only Memory)、ハードディスクなどによって実現される。メモリ102は、CPU100によって実行されるプログラム、および/またはCPU100が利用するデータを格納する。メモリ102は、端末装置20から取得した被写体の位置情報を順次格納し得る。
The
タッチパネル104は、表示部としての機能を有するディスプレイ106上に設けられており、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル104は、光センサ液晶を含んでもよい。タッチパネル104は、所定時間毎に外部の物体によるタッチパネル104へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU100に入力する。
The
スピーカ108は、CPU100からの命令に基づいて、音声を出力する。例えば、CPU100は、音声データに基づいて、スピーカ108に各種の通知音を出力させる。
The
ボタン110は、撮像装置10の表面に配置され、ユーザからの命令を受け付け、CPU100に当該命令に応じた信号を出力し、例えば、表示を遷移させるボタン,確定ボタン,キャンセルボタン,シャッタボタン,および,カメラの起動ボタンを含む。
The
メモリI/F112は、外部の記憶媒体113からデータを読み出す。すなわち、CPU100は、メモリI/F112を介して外部の記憶媒体113に格納されているデータを読み出して、当該データをメモリ102に格納する。CPU100は、メモリ102からデータを読み出して、メモリI/F112を介して当該データを外部の記憶媒体113に格納する。記憶媒体113は、たとえば、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray(登録商標) Disc)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体である。
The memory I /
通信I/F114は、アンテナやコネクタによって実現される。通信I/F114は、無線通信によって端末装置20との間でデータを送受信する。CPU100は、通信I/F114を介して、端末装置20から端末装置20の現在の位置情報を受信する。
Communication I /
電子コンパス116は、磁気センサを含み、地球のわずかな磁気を感知して撮像装置10の方位を検出する。電子コンパス116は、取得した撮像装置10の向き(方位)情報をCPU100に入力する。
The
加速度センサ118は、たとえば、MEMS(Micro-Electro-Mechanical Systems)の3軸加速度センサによって実現され、撮像装置10の動きを検知する。加速度センサ118は、撮像装置10自体の移動方向や加速度などを検知する。たとえば、CPU100は、加速度センサ118からのセンサ信号に基づいて撮像装置10の姿勢を検出し、それによってディスプレイ106の表示される画面の表示方向を決定する。具体的には、CPU100は、撮像装置10が縦向きである場合(ユーザが撮像装置10を縦向きで把持している場合)には、ディスプレイ106に表示画面を同じ縦向きに表示するよう表示方向を決定する。撮像装置10が横向きである場合には、CPU100は、ディスプレイ106に表示画面を同じ横向きに表示するよう表示方向を決定する。また、電子コンパス116によって検出された撮像装置10の向きが、加速度センサ118によって取得された動きに基づいて補正され得る。
The
GPSコントローラ120は、GPS信号または基地局からの位置信号(測位信号)を受信して撮像装置10の位置情報を取得する。GPSコントローラ120は、取得した撮像装置10の位置情報をCPU100に入力する。
The
カメラ122は、例えばCCD(Charge Coupled Device)方式、CMOS(Complementary Mental Oxide Semiconductor)センサなどの撮像センサ、撮像レンズ、レンズを駆動するためのレンズ駆動部、シャッタなどを含む。カメラ122は、レンズを介して取り込んだ被写体の像を受光面(撮像面)で光電変換する撮像センサによって撮像画像を生成する。カメラ122には、ぶれ補正機能が搭載されている。ぶれ補正機能は、たとえば、公知の技術に従ってCCDセンサやCMOSセンサ等のセンサがシフトされることにより実現される。なお、カメラ122は、ズーム倍率を変更するためのズーム機能および焦点距離を調整するためのフォーカス機能などを有していてもよい。
The
図4は、本実施の形態に従う端末装置20のハードウェア構成を示すブロック図である。図4に示されるように、端末装置20は、CPU200と、メモリ202と、通信I/F204と、GPSコントローラ206と、タイマ208とを含む。
FIG. 4 is a block diagram showing a hardware configuration of
CPU200は、メモリ202に格納されたプログラムを読み出して実行することで、端末装置20の各部の動作を制御する。メモリ202は、RAM、ROMなどによって実現される。メモリ202は、CPU200によって実行されるプログラム、またはCPU200によって用いられるデータなどを格納する。メモリ202は、たとえば、端末装置20の位置情報、端末装置20を識別するための端末識別情報を格納する。
The
通信I/F204は、アンテナやコネクタによって実現され、無線通信によって撮像装置10との間でデータを送受信する。CPU200は、撮像装置10に、通信I/F204を介して、端末装置20の現在の位置情報を随時送信する。CPU200は、撮像装置10に、通信I/F204を介して、端末識別情報を送信してもよい。
The communication I /
GPSコントローラ206は、GPS信号または基地局からの位置信号を受信して端末装置20の位置情報を取得する。GPSコントローラ206は、取得した端末装置20の位置情報をCPU200に入力する。
The
タイマ208は、時刻を計測する部位であり、計測した時刻に応じた信号をCPU200に送出する。CPU200は、当該信号に基づき、たとえば一定時間間隔で、予め定められた処理をすることができる。
The
<機能構成>
図5は、本実施の形態に従う撮像装置10の機能ブロック図である。撮像装置10は、その主たる機能構成として、位置取得部302と、向き取得部304と、端末位置取得部306と、補正部310と、出力制御部312と、算出部314と、撮像部320とを含む。これらの機能は、主に、撮像装置10のCPU100がメモリ102に格納されたプログラムを実行し、撮像装置10の構成要素へ指令を与えることなどによって実現される。CPU100は、撮像装置10の動作全体を制御する制御部としての機能を有する。なお、これらの機能構成の一部または全部はハードウェア資源によって実現されてもよい。撮像装置10は、さらに、メモリ102によって実現される情報格納部308を含む。
<Functional configuration>
FIG. 5 is a functional block diagram of
位置取得部302は、GPSコントローラ120を介して、撮像装置10の位置情報を取得する。向き取得部304は、電子コンパス116を介して、撮像装置10の向き情報、具体的には、カメラ122の撮像の向きを示す方位情報を取得する。
The
端末位置取得部306は、通信I/F114を介して、端末装置20から所定時間ごと(たとえば、1秒ごと)に送信される端末装置20の位置情報(端末位置情報)を順次取得(受信)する。なお、端末位置取得部306は、通信I/F114を介して、所定時間ごとに端末装置20に当該端末位置情報を送信するように要求してもよい。
The terminal
情報格納部308は、端末位置取得部306によって取得された、時間の経過に従う所定時間ごとの端末位置情報を順次格納する。情報格納部308は、端末装置20(被写体)の位置履歴(端末位置情報の履歴)として、端末位置情報を取得した時刻と端末位置情報とを関連付けて格納する。
The
算出部314は、位置取得部302により取得された撮像装置10の位置情報および端末位置取得部306により取得された端末位置情報と、向き取得部304により取得された向き情報とに基づいて、撮像部320により撮像された撮像画像上での被写体の単位時間内の移動距離(移動の速さ)を算出する。具体的には、算出部314は、撮像装置10の位置情報と端末位置情報とに基づいて、撮像部320の撮像面から被写体までの距離を算出し、そして、被写体の単位時間内の移動距離を算出する。そして、算出部314は、撮像部320の焦点距離と、撮像面と被写体との間の距離と、被写体の単位時間内の移動距離とに基づいて、撮像画像上での被写体の単位時間内の移動距離を算出する。
The
より詳細には、算出部314は、撮像の向きを示す第1の方向と当該第1の方向に直交する第2の方向とから規定される平面内での被写体の第1の位置(被写体A01)を起点とした当該第2の方向上であって、かつ当該平面内での被写体の第2の位置(被写体A02)および当該平面内での焦点位置を結ぶ方向上の位置を示す被写体の仮想位置を算出する。そして、算出部314は、焦点距離と被写体の位置と被写体の仮想位置とに基づいて、撮像画像上での被写体の単位時間内の移動距離を算出する。また、算出部314は、これらの情報に基づいて、被写体の移動の向きを算出する。移動距離等の算出方式は、具体的な事例を用いて後述する。
More specifically, the
撮像部320は、被写体を撮像して撮像画像を生成する。なお、撮像部320は、主にカメラ122およびCPU100が連係することによって実現される機能である。
The
撮像部320は、補正部310によってぶれ補正機能を実現する。より具体的には、撮像部320では、補正部310からの制御信号に基づいて、CCDセンサやCMOSセンサなどのセンサが継続的に一定速度で動作されることにより、ぶれ補正機能が実現される。撮像部320は、撮像画像のデータを、出力制御部312へ出力する。
The
出力制御部312は、撮像部320により順次撮像して生成された撮像画像をディスプレイに表示させる。ディスプレイは、たとえばタッチパネル104であっても良いし、外部の装置のディスプレイであっても良い。
The
<算出方式>
図6を参照して、撮像画像上の被写体Aの移動の向きおよび速さの算出方式の一例(第1の算出方式)を説明する。主に算出部314(CPU100)が、当該算出を行う。
<Calculation method>
With reference to FIG. 6, an example (first calculation method) of the calculation method of the direction and speed of movement of the subject A on the captured image will be described. The calculation unit 314 (CPU 100) mainly performs the calculation.
図6は、撮像装置10における撮像画像上での被写体Aの移動距離の第1の算出方式を説明するための図である。図6には、被写体Aが撮像装置10の撮像面と平行に移動する場合の算出方式(第1の算出方式)が示されている。図6には、さらに、第1の算出方式における、被写体Aの撮像画像上での移動距離を算出するための計算式が示されている。説明の容易化のため、撮像装置10は移動することなく被写体Aを撮像するものとする。
FIG. 6 is a diagram for explaining a first calculation method of the moving distance of the subject A on the captured image in the
図6では、撮像面に沿った方向に、x座標軸が定義されている。撮像方向に、y座標軸が定義されている。撮像レンズの中心(主点)が原点(0,0)として定義されている。焦点位置は、座標(0,f)で示される。被写体A01の位置(第1の位置)が、座標(x1,y1)で示される。被写体A02の位置(第2の位置)が、座標(x2,y2)で示される。撮像装置10は、被写体Aの各座標を、端末装置20から送信された端末位置情報に基づいて特定できる。各端末位置情報は、端末装置20から当該端末位置情報が送信された時刻を特定する情報を含む。
In FIG. 6, the x coordinate axis is defined in the direction along the imaging surface. A y coordinate axis is defined in the imaging direction. The center (principal point) of the imaging lens is defined as the origin (0, 0). The focal position is indicated by coordinates (0, f). The position (first position) of the subject A01 is indicated by coordinates (x1, y1). The position (second position) of the subject A02 is indicated by coordinates (x2, y2). The
CPU100は、第1の位置および第2の位置の座標に基づいて、被写体Aの単位時間内の実際の移動距離Mrを算出できる。実際の移動距離Mrと撮像画像上での移動距離Miとの比は、距離Dから焦点距離fを減じた値と焦点距離f(D−f)との比に等しい。これにより、図6の式(1)が成立する。そして、図6の式(1)から図6の式(2)が導出される。距離Dは、撮像面から被写体Aまでの距離を示す。より詳細には、距離Dは、被写体Aが位置する撮像面に平行な面から撮像面までの距離である。図6では、当該距離は、第1の位置および第2の位置のy座標(y1,y2)で表される。
The
CPU100は、図6の式(2)を用いて、距離Dと、焦点距離fと、単位時間内での実際の移動距離Mrとに基づいて、被写体の単位時間内の撮像画像上の移動距離Miを算出できる。CPU100は、被写体Aの単位時間内の撮像画像上での移動距離Mi(移動の速さ)に基づいて、ぶれ補正の処理(後述する図8のステップS26)が対象となる期間において想定される、撮像画像上の被写体Aの移動距離(補正の量)を算出する。
The
また、CPU100は、第1の位置および第2の位置の座標を撮像面に投影することにより、被写体Aの移動の向きを算出する。
Further, the
次に、図7を参照して、撮像画像上の被写体Aの移動の向きおよび速さの算出方式の他の例(第2の算出方式)を説明する。主に算出部314(CPU100)が、当該算出を行う。図7は、撮像装置10における撮像画像上での被写体の移動距離の第2の算出方式を説明するための図である。図7には、被写体Aが撮像装置10の撮像面に交わる方向(斜め方向)に移動する場合の算出方式(第2の算出方式)が示される。図7には、さらに、第2の算出方式における、被写体Aの撮像画像上での移動距離を算出するための計算式が示されている。
Next, another example (second calculation method) of the calculation method of the direction and speed of movement of the subject A on the captured image will be described with reference to FIG. The calculation unit 314 (CPU 100) mainly performs the calculation. FIG. 7 is a diagram for explaining a second calculation method of the moving distance of the subject on the captured image in the
図7では、図6と同様に、撮像面に沿った方向に、x座標軸が定義されている。撮像方向に、y座標軸が定義されている。撮像レンズの中心(主点)が原点(0,0)として定義されている。焦点位置は、座標(0,f)で示される。被写体A01の位置(第1の位置)が、座標(x1,y1)で示される。被写体A02の位置(第2の位置)が、座標(x2,y2)で示される。撮像装置10は、被写体Aの各座標を、端末装置20から送信された端末位置情報に基づいて特定できる。各端末位置情報は、端末装置20から当該端末位置情報が送信された時刻を特定する情報を含む。
In FIG. 7, as in FIG. 6, the x coordinate axis is defined in the direction along the imaging surface. A y coordinate axis is defined in the imaging direction. The center (principal point) of the imaging lens is defined as the origin (0, 0). The focal position is indicated by coordinates (0, f). The position (first position) of the subject A01 is indicated by coordinates (x1, y1). The position (second position) of the subject A02 is indicated by coordinates (x2, y2). The
CPU100は、被写体Aの仮想位置の座標(x3,y2)を算出する。座標(x3,y2)は、図7に示されたxy平面において、第2の位置の座標(x2,y2)を通るx軸と平行な線(y=y2)と、第1の位置の座標(x1,y1)と焦点位置の座標(0,f)とを結ぶ線(当該線の方向が図7の矢印400で示される)の交点である。
The
ここで、第1の位置のx座標(x1)と仮想的な位置のx座標(x3)との比は、第1の位置のy座標(y1)から焦点距離fを減じた値(y1−f)と、仮想的な位置のy座標(y2)から焦点距離fを減じた値(y2−f)との比に等しい。このため、図7の式(1)が成立する。また、仮想的な移動距離Mr1と撮像画像上での移動距離Miとの比は、距離Dから焦点距離fを減じた値(D−f)と焦点距離fとの比に等しい。このため、図7の式(2)が成立する。 Here, the ratio between the x-coordinate (x1) of the first position and the x-coordinate (x3) of the virtual position is a value obtained by subtracting the focal length f from the y-coordinate (y1) of the first position (y1− It is equal to the ratio of f) to the value obtained by subtracting the focal length f from the y-coordinate (y2) of the virtual position (y2-f). For this reason, Formula (1) of FIG. 7 is materialized. Further, the ratio between the virtual moving distance Mr1 and the moving distance Mi on the captured image is equal to the ratio of the value obtained by subtracting the focal distance f from the distance D (D−f) and the focal distance f. For this reason, Formula (2) of FIG. 7 is materialized.
そして、CPU100は、図7の式(1)および式(2)を用いて、距離D(=y2)と、焦点距離fと、単位時間内での仮想的な移動距離Mr1とに基づいて、被写体の単位時間内の撮像画像上の移動距離Miを算出する。なお、単位時間内での仮想的な移動距離Mr1は、第2の位置および仮想位置におけるx座標の差分の絶対値|x2−x3|で示される。CPU100は、被写体Aの単位時間内の撮像画像上での移動距離Mi(移動の速さ)に基づいて、ぶれ補正の処理(後述する図8のステップS26)が実行される周期ごとの、撮像画像上の被写体Aの移動距離(補正の量)を算出する。
Then, the
また、CPU100は、第1の位置および第2の位置の座標を撮像面に投影することにより、被写体Aの移動の向きを算出する。
Further, the
本明細書では、被写体の撮像画像上での移動距離の算出方式の理解を深めるために、まず、図6を参照して、撮像装置10の撮像面に対して被写体が平行に移動している場合の算出方式が説明され、次に、図7を参照して、被写体が撮像装置10の撮像面に交わる方向に移動している場合の算出方式が説明された。しかしながら、図7に示された算出方式は、被写体が撮像装置10の撮像面と平行に移動している場合にも適用できることは、明らかである。つまり、図7において第2の位置のy座標(y2)を、第1の位置のy座標(y1)として扱えばよい。このとき、仮想位置は、第1の位置と同じ位置となる。
In this specification, in order to deepen the understanding of the calculation method of the moving distance on the captured image of the subject, first, referring to FIG. 6, the subject is moving in parallel with the imaging surface of the
なお、x軸方向を撮像画像上の水平方向に対応させた場合、x軸方向およびy軸方向の双方に直交するz軸方向は、撮像画像上の垂直方向に対応する。この場合、zy平面においても、上述したxy平面の場合と同様の算出方式を援用することができる。 When the x-axis direction corresponds to the horizontal direction on the captured image, the z-axis direction orthogonal to both the x-axis direction and the y-axis direction corresponds to the vertical direction on the captured image. In this case, the same calculation method as in the case of the xy plane described above can also be used for the zy plane.
<処理手順>
図8は、本実施の形態に従う撮像装置10および端末装置20が実行する処理手順の一例を示す図である。基本的に、図8中の各ステップのうち、撮像装置10側のステップは、CPU100がメモリ102に格納されたプログラムを実行することによって実現され、端末装置20側のステップは、CPU200がメモリ202に格納されたプログラムを実行することによって実現される。
<Processing procedure>
FIG. 8 is a diagram illustrating an example of a processing procedure executed by the
まず、端末装置20が実行する処理手順について説明する。CPU200は、GPSコントローラ206を介して、端末装置20の位置情報(端末位置情報)を取得する(ステップS40)。CPU200は、常時、端末装置20の位置情報を取得しても良い。
First, a processing procedure executed by the
次に、CPU200は、通信I/F204を介して、取得した端末位置情報を撮像装置10に送信する(ステップS42)。CPU200は、タイマ208を参照して、所定時間が経過したか否かを判断する(ステップS44)。具体的には、CPU200は、撮像装置10に最後に端末位置情報を送信してから所定時間が経過したか否かを判断する。所定時間が経過していないと判断した場合には(ステップS44においてNO)、CPU200は、ステップS44の処理を繰り返す。これに対して、所定時間が経過したと判断した場合には(ステップS44においてYES)、CPU200は、ステップS42以降の処理を実行する。すなわち、CPU200は、通信I/F204を介して、所定時間ごとに、撮像装置10に、端末位置情報を送信する。
Next, the
次に、撮像装置10が実行する処理手順について説明する。CPU100は、タッチパネル104(またはボタン110)を介してカメラ122の起動指示を受け付けたか否かを判断する(ステップS10)。CPU100は、当該起動指示を受け付けていないと判断した場合には(ステップS10においてNO)、ステップS10の処理を繰り返す。これに対して、CPU100は、当該起動指示を受け付けたと判断した場合には(ステップS10においてYES)、ステップS12へ制御を進める。
Next, a processing procedure executed by the
ステップS12で、CPU100は、端末装置20から端末位置情報を受信する。そして、CPU100は、すでにメモリ102に格納されている端末位置情報とステップS12で受信した端末位置情報とを比較する。そして、これらが異なれば、CPU100は、新しい端末位置情報をメモリ102に格納する(ステップS14)。このとき、それまでメモリ102に格納されていた端末位置情報は消去されても良い。
In step S <b> 12, the
次に、CPU100は、GPSコントローラ120の検出出力に基づいて撮像装置10の位置情報を取得し、また、電子コンパス116の検出出力に基づいて撮像装置10の撮像面の角度情報を取得する(ステップS16)。角度情報は、加速度センサ118の検出出力に基づいて補正されても良い。次に、CPU100は、図6または図7を参照して説明したように、端末装置20の移動の向きと速さを算出する(ステップS18)。次に、CPU100は、ステップS18で算出された向きと量とを利用して、補正の向きと補正の量とを算出する(ステップS20)。補正の向きは、たとえばステップS18で算出された向きである。当該向きは、図7では、撮像画像上での移動距離Miを示す矢印の向きとして例示されている。補正の量は、たとえば後述するステップS26が実行される周期(所定の周期)で特定される期間に被写体が移動することが期待される距離である。
Next, the
次に、CPU100は、撮像指示を受け付けたか否かを判断する(ステップS22)。CPU100は、たとえば、シャッタボタンが操作されると、撮像指示を受け付ける。そして、CPU100は、撮像指示を受け付けたと判断した場合(ステップS22でYES)、ステップS24へ制御を進める。一方、CPU100は、まだ撮像指示を受け付けていないと判断すると(ステップS22でNO)、ステップS12へ制御を戻す。
Next, the
ステップS24では、CPU100は、撮影(露光)を開始する。そして、ステップS26で、CPU100は、ステップS20で算出した補正の向きと補正の量に基づいて、撮像画像中の被写体のぶれを補正する処理を実行する。そして、ステップS28で、CPU100は、ステップS24で露光を開始してから、所与の露光時間が経過したか否かを判断する。まだ露光時間が経過していないと判断すると(ステップS28でNO)、CPU100は、制御をステップS26へ戻す。一方、露光時間が経過したと判断すると(ステップS28でYES)、CPU100は、制御をステップS30へ進める。ステップS30で、CPU100は、露光(撮影)を終了し、撮像画像を出力して、制御を終了する。
In step S24, the
以上図8を参照して説明された処理では、撮像装置10は、撮影指示を受け付ける前に、端末装置20から送信された当該端末装置20の位置情報を取得し、当該位置情報を利用して端末装置20の移動の向きと速さとを算出し、そして、当該移動の向きと速さを利用して補正の向きと量とを算出する。撮影指示を受け付けると、撮像装置10は、このように算出された補正の向きと量とを利用して、撮像画像中の被写体のぶれを補正する。
In the process described above with reference to FIG. 8, the
本実施の形態では、撮像指示が受け付けられる前の被写体の少なくとも2つの位置情報に基づいて、被写体ぶれの補正の向きと量が算出された。補正の向きと量の算出は、当該算出に利用された位置情報の中の1つの位置情報が露光開始時の被写体の位置へと移動されるような態様で位置情報の変換が行なわれた後で、実行されても良い。より具体的には、CPU100は、ステップS24における露光開始時に、図3の被写体A01の座標を被写体A11の座標へと変換するための変換式を算出する。そして、CPU100は、被写体A01の座標を被写体A11の座標へと変換し、さらに、被写体A02の座標を当該変換式を利用して変換する。そして、CPU100は、変換後の被写体A01の座標と変換後の被写体A02の座標とを利用して、図6または図7を参照して説明した方式に従って、補正の向きと量とを算出する。
In the present embodiment, the direction and amount of subject blur correction are calculated based on at least two pieces of position information of the subject before the imaging instruction is accepted. The correction direction and amount are calculated after the position information is converted in such a manner that one position information in the position information used for the calculation is moved to the position of the subject at the start of exposure. It may be executed. More specifically, the
<その他の実施の形態>
以上説明した本実施の形態では、撮像装置10は移動することなく被写体Aを撮影する場合が説明されたが、撮像装置10は移動しながら被写体Aを撮影してもよい。この場合、撮像装置10は、撮像装置10および端末装置20の位置情報に基づいて、被写体Aの撮像装置10に対する相対的な移動距離を算出することで、移動する被写体Aに対する適切な補正の向きと量とを算出できる。
<Other embodiments>
In the present embodiment described above, the case where the
なお、コンピュータに、上述のフローチャートで説明したような制御を実行させるためのプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録されて、プログラム製品として提供され得る。あるいは、当該プログラムは、コンピュータに内蔵するハードディスクなどの記録媒体に記録されて、または、ネットワークを介したダウンロードによって、提供され得る。当該プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本開示のプログラムに含まれ得る。また、本開示のプログラムは他のプログラムの一部に組込まれて提供される場合もある。 Note that it is also possible to provide a program for causing a computer to execute control as described in the above flowchart. Such a program may be recorded on a non-transitory computer-readable recording medium such as a memory card attached to the computer and provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer, or downloaded via a network. The program may be a program module that is provided as a part of an operating system (OS) of a computer and that calls a required module in a predetermined arrangement at a predetermined timing to execute processing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module may also be included in the program of the present disclosure. In addition, the program of the present disclosure may be provided by being incorporated in a part of another program.
<実施の形態の効果>
本実施の形態では、撮像装置は、被写体に取り付けられた端末装置から当該被写体の位置を取得することにより、被写体ぶれの距離および向きを算出する。これにより、撮像装置は、静止画撮影の直前まで撮影装置の撮影範囲内に被写体が存在しない場合であっても、被写体ぶれを補正できる。また、撮像装置は、事前の複数の画像の撮影を行うことなく、被写体ぶれを補正する。これにより、暗所での撮影等でフレームレートが低くなっている場合であっても、被写体ぶれを補正できる。
<Effect of Embodiment>
In the present embodiment, the imaging apparatus calculates the distance and direction of subject blur by obtaining the position of the subject from a terminal device attached to the subject. Thus, the imaging apparatus can correct subject shake even when there is no subject within the imaging range of the imaging apparatus until immediately before still image shooting. In addition, the imaging apparatus corrects subject blur without taking a plurality of images in advance. This makes it possible to correct subject blur even when the frame rate is low due to shooting in a dark place or the like.
今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be thought that embodiment disclosed this time and its modification are illustrations in all the points, and are not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10 撮像装置、20 端末装置、116 電子コンパス、118 加速度センサ、120,206 GPSコントローラ、122 カメラ。 10 imaging device, 20 terminal device, 116 electronic compass, 118 acceleration sensor, 120, 206 GPS controller, 122 camera.
Claims (5)
被写体を撮影することにより撮像画像を生成するための撮像手段と、
前記撮像装置の位置を示す装置位置情報を取得するための第1の位置取得手段と、
前記撮像装置の向きを示す向き情報を取得するための向き取得手段と、
前記被写体に取り付けられた前記端末装置から送信される情報に基づいて、当該被写体の位置を示す端末位置情報を取得するための第2の位置取得手段と、
前記装置位置情報と、前記端末位置情報と、前記向き情報とに基づいて、前記撮像手段により撮像された前記撮像画像上での前記被写体の単位時間内の移動の向きおよび距離を算出するための算出手段と、
前記撮像画像上での前記被写体の単位時間内の移動の向きおよび距離に基づいて、前記撮像画像における被写体のぶれを補正するための補正手段とを備える、撮像装置。 An imaging device capable of communicating with a terminal device configured to be able to acquire position information of the own device,
Imaging means for generating a captured image by photographing a subject;
First position acquisition means for acquiring apparatus position information indicating the position of the imaging apparatus;
Orientation acquisition means for acquiring orientation information indicating the orientation of the imaging device;
Second position acquisition means for acquiring terminal position information indicating the position of the subject based on information transmitted from the terminal device attached to the subject;
Based on the device position information, the terminal position information, and the orientation information, a direction and distance of movement of the subject within the unit time on the captured image captured by the imaging unit are calculated. A calculation means;
An imaging apparatus comprising: correction means for correcting blurring of a subject in the captured image based on a moving direction and a distance of the subject in the unit time on the captured image.
前記装置位置情報および前記端末位置情報に基づいて、前記撮像手段の撮像面と前記被写体との間の距離を算出し、
前記端末位置情報に基づいて、前記被写体の単位時間内の移動距離を算出し、
前記被写体の単位時間内の移動の距離は、前記撮像手段の焦点距離と前記撮像面と前記被写体との間の距離と前記被写体の単位時間内の移動距離とに基づいて、算出される、請求項1に記載の撮像装置。 The calculating means includes
Based on the device position information and the terminal position information, the distance between the imaging surface of the imaging means and the subject is calculated,
Based on the terminal position information, the moving distance of the subject within a unit time is calculated,
The distance of movement of the subject within a unit time is calculated based on a focal length of the imaging unit, a distance between the imaging surface and the subject, and a movement distance of the subject within the unit time. Item 2. The imaging device according to Item 1.
前記被写体の単位時間内の移動の距離は、前記情報格納手段に格納されている前記端末位置情報に基づいて、算出される、請求項1または2に記載の撮像装置。 Further comprising information storage means for sequentially storing the terminal position information for each predetermined time acquired by the second position acquisition means;
The imaging apparatus according to claim 1, wherein a distance of movement of the subject within a unit time is calculated based on the terminal position information stored in the information storage unit.
前記算出手段は、撮像方向を示す第1の方向と前記第1の方向に直交する第2の方向とから規定される平面内での前記第1の位置を起点とした前記第2の方向上であって、かつ前記平面内での前記第2の位置および前記平面内での前記撮像手段の焦点位置を結ぶ方向上の位置を示す前記被写体の仮想位置を算出し、
前記被写体の単位時間内の移動の距離は、前記撮像手段の焦点距離と前記第1の位置と前記被写体の仮想位置とに基づいて、算出される、請求項3に記載の撮像装置。 The terminal position information includes information on a first position and information on a second position, which are positions of the subject before the imaging unit starts generating a captured image,
The calculating means is on the second direction starting from the first position in a plane defined by a first direction indicating an imaging direction and a second direction orthogonal to the first direction. And calculating the virtual position of the subject indicating the position in the direction connecting the second position in the plane and the focal position of the imaging means in the plane,
The imaging apparatus according to claim 3, wherein the distance of movement of the subject within a unit time is calculated based on a focal length of the imaging unit, the first position, and a virtual position of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013182264A JP2015049446A (en) | 2013-09-03 | 2013-09-03 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013182264A JP2015049446A (en) | 2013-09-03 | 2013-09-03 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015049446A true JP2015049446A (en) | 2015-03-16 |
Family
ID=52699486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013182264A Pending JP2015049446A (en) | 2013-09-03 | 2013-09-03 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015049446A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109379533A (en) * | 2018-10-15 | 2019-02-22 | Oppo广东移动通信有限公司 | A kind of photographic method, camera arrangement and terminal device |
CN113228630A (en) * | 2018-11-16 | 2021-08-06 | 日本株式会社皆爱公司 | Image pickup apparatus |
-
2013
- 2013-09-03 JP JP2013182264A patent/JP2015049446A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109379533A (en) * | 2018-10-15 | 2019-02-22 | Oppo广东移动通信有限公司 | A kind of photographic method, camera arrangement and terminal device |
CN113228630A (en) * | 2018-11-16 | 2021-08-06 | 日本株式会社皆爱公司 | Image pickup apparatus |
CN113228630B (en) * | 2018-11-16 | 2023-12-22 | 日本株式会社皆爱公司 | Image pickup apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10440277B2 (en) | Image processing device, electronic equipment, image processing method and non-transitory computer-readable medium for enlarging objects on display | |
KR101498442B1 (en) | Image capture device having tilt or perspective correction | |
KR101256543B1 (en) | Image capturing apparatus, image capturing method, and storage medium | |
WO2014141522A1 (en) | Image assessment device, capturing device, 3d measuring device, image assessment method, and program | |
US20140063279A1 (en) | Image capture device and image processor | |
US10412306B1 (en) | Optical image stabilization method and apparatus | |
US9413952B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
JP2011058854A (en) | Portable terminal | |
CN108260360B (en) | Scene depth calculation method and device and terminal | |
CN112414400A (en) | Information processing method and device, electronic equipment and storage medium | |
EP3267675B1 (en) | Terminal device and photographing method | |
WO2018143360A1 (en) | Relative position detection system and image display system | |
JP2015049446A (en) | Imaging device | |
JP5514062B2 (en) | Electronic device, imaging screen display method with information, and program | |
JP6018419B2 (en) | Imaging device, control method thereof, and control program thereof | |
JP2014236304A (en) | Imaging device | |
US20180316840A1 (en) | Optical image stabilization devices and methods for gyroscope alignment | |
US8977493B2 (en) | Self-position measuring terminal | |
JP2015095670A (en) | Imaging apparatus, control method thereof and control program | |
JPWO2018168228A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN110058272B (en) | Electronic device, positioning control method, and recording medium | |
KR101733792B1 (en) | Method and apparatus for correcting position | |
WO2021044585A1 (en) | Imaging device, system, image blurring correction method, program, and recording medium | |
JP2014216744A (en) | Imaging device | |
US9800790B2 (en) | Image capturing apparatus capable of detecting geomagnetism, control method, and storage medium |