JP2014116789A - Photographing device, control method therefor, and program - Google Patents

Photographing device, control method therefor, and program Download PDF

Info

Publication number
JP2014116789A
JP2014116789A JP2012269516A JP2012269516A JP2014116789A JP 2014116789 A JP2014116789 A JP 2014116789A JP 2012269516 A JP2012269516 A JP 2012269516A JP 2012269516 A JP2012269516 A JP 2012269516A JP 2014116789 A JP2014116789 A JP 2014116789A
Authority
JP
Japan
Prior art keywords
subject
distance
unit
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012269516A
Other languages
Japanese (ja)
Inventor
Noriko Tamura
紀子 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2012269516A priority Critical patent/JP2014116789A/en
Publication of JP2014116789A publication Critical patent/JP2014116789A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To contribute to appropriate acquisition of information on a subject, and contribute to easy acquisition of an image and information desired by a user.SOLUTION: A photographing device comprises: a photographing unit; an identification unit that identifies one or two or more subjects included in a subject image acquired by the photographing unit; a distance estimation unit that estimates a subject distance to each subject; and a subject information estimation unit that estimates subject information on the basis of the subject distance.

Description

本発明は、撮影装置、その制御方法及びプログラムに関する。   The present invention relates to a photographing apparatus, a control method thereof, and a program.

近年、ユーザは、様々な用途でカメラを利用している。例えば、ユーザは、カメラで、人物、風景、食事等を撮影する。さらに、ユーザは、文書を撮影し、カメラをスキャナの代わりとして利用する場合もある。ユーザがカメラで所定の被写体を撮影する場合、被写体に応じて、ユーザが所望する情報は異なる。   In recent years, users have used cameras for various purposes. For example, a user photographs a person, a landscape, a meal, etc. with a camera. Further, the user may take a document and use the camera as a substitute for the scanner. When a user shoots a predetermined subject with a camera, information desired by the user differs depending on the subject.

特許文献1において、撮影時の撮影条件データを抽出し、この撮影条件データから被写体に関する情報を抽出する技術が開示されている。   Patent Document 1 discloses a technique for extracting shooting condition data at the time of shooting and extracting information about the subject from the shooting condition data.

特開2005―108027号公報JP 2005-108027 A

なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。   The disclosure of the above prior art document is incorporated herein by reference. The following analysis has been made from the viewpoint of the present invention.

上述の通り、被写体に応じて、ユーザが所望する情報は異なる。例えば、ユーザは、被写体として、特定の植物を撮影したい場合を考える。その場合、主要な被写体(撮影対象の植物等)の領域が、他の被写体(背景)より鮮明に撮影されることが好ましい。   As described above, the information desired by the user differs depending on the subject. For example, consider a case where the user wants to photograph a specific plant as a subject. In that case, it is preferable that the area of the main subject (such as a plant to be photographed) is photographed more clearly than the other subjects (background).

また、ユーザが植物毎に、撮影画像を分類したい場合を考える。その場合、撮影対象の植物の領域が抽出されることが好ましい。そこで、ユーザが植物毎に、撮影画像を分類したい場合、ユーザは、撮影対象の植物の領域が抽出されるように、撮影する必要がある。さらに、ユーザは、撮影対象の植物に関する情報を入力する必要がある。   Also, consider a case where the user wants to classify captured images for each plant. In that case, it is preferable to extract the region of the plant to be imaged. Therefore, when the user wants to classify the photographed image for each plant, the user needs to photograph so that the region of the plant to be photographed is extracted. Furthermore, the user needs to input information on the plant to be imaged.

一方、雑誌に掲載された風景写真をカメラで撮影する場合、ユーザは、カメラをスキャナの代わりとして利用している可能性がある。その場合、撮影対象とする風景写真全体が、鮮明に撮影されることが好ましい。   On the other hand, when taking a landscape photograph published in a magazine with a camera, the user may use the camera instead of a scanner. In that case, it is preferable that the entire landscape photograph to be photographed is photographed clearly.

特許文献1において開示された技術では、ユーザは、適切に、焦点距離等の撮影条件を設定することが求められる。つまり、特許文献1において開示された技術では、ユーザは、適切に撮影条件を設定しなければ、被写体に関する情報を得ることはできない。   In the technique disclosed in Patent Document 1, the user is required to appropriately set shooting conditions such as a focal length. In other words, with the technique disclosed in Patent Document 1, the user cannot obtain information about the subject unless the shooting conditions are set appropriately.

従って、適切に被写体に関する情報を取得することに貢献し、ユーザが所望する画像、及び情報を容易に取得することに貢献する撮影装置、その制御方法及びプログラムが、望まれる。   Accordingly, there is a demand for an imaging apparatus that contributes to appropriately acquiring information related to a subject and contributes to easily acquiring images and information desired by a user, and a control method and program thereof.

本発明の第1の視点によれば、撮影部と、前記撮影部が取得した被写体画像に含まれる、1又は2以上の被写体を識別する識別部と、前記各被写体までの被写体距離を推定する距離推定部と、前記被写体距離に基づいて、被写体情報を推定する被写体情報推定部と、を備える撮影装置が、提供される。   According to the first aspect of the present invention, an imaging unit, an identification unit that identifies one or more subjects included in the subject image acquired by the imaging unit, and a subject distance to each subject are estimated. An imaging device is provided that includes a distance estimation unit and a subject information estimation unit that estimates subject information based on the subject distance.

本発明の第2の視点によれば、撮影部を備える撮影装置を制御する制御方法であって、被写体画像に含まれる、1又は2以上の被写体を識別する工程と、前記各被写体までの被写体距離を推定する距離推定工程と、前記被写体距離に基づいて、被写体情報を推定する被写体情報推定工程と、を含む撮影装置の制御方法が、提供される。
なお、本方法は、撮影部を備える撮影装置という特定の機械に結び付けられている。
According to a second aspect of the present invention, there is provided a control method for controlling a photographing apparatus including a photographing unit, the step of identifying one or more subjects included in a subject image, and the subject up to each subject. There is provided a control method for an imaging apparatus, including a distance estimation step for estimating a distance and a subject information estimation step for estimating subject information based on the subject distance.
Note that the present method is linked to a specific machine called an imaging apparatus including an imaging unit.

本発明の第3の視点によれば、撮影部を備える撮影装置を制御するコンピュータに、被写体画像に含まれる、1又は2以上の被写体を識別する処理と、前記各被写体までの被写体距離を推定する距離推定処理と、前記被写体距離に基づいて、被写体情報を推定する被写体情報推定処理と、を実行させるプログラムが、提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to the third aspect of the present invention, a computer that controls a photographing device including a photographing unit performs processing for identifying one or more subjects included in a subject image, and estimates a subject distance to each subject. And a subject information estimating process for estimating subject information based on the subject distance are provided.
This program can be recorded on a computer-readable storage medium. The storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. The present invention can also be embodied as a computer program product.

本発明の各視点によれば、適切に被写体に関する情報を取得することに貢献し、ユーザが所望する画像、及び情報を容易に取得することに貢献する撮影装置、その制御方法及びプログラムが、提供される。   According to each aspect of the present invention, there is provided an imaging device, a control method, and a program that contribute to appropriately acquiring information related to a subject and that contribute to easily acquiring an image desired by a user and information. Is done.

一実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of one Embodiment. 第1の実施形態に係る撮影装置1の全体構成の一例を示す平面図である。It is a top view which shows an example of the whole structure of the imaging device 1 which concerns on 1st Embodiment. 第1の実施形態に係る撮影装置1の内部構成の一例を示すブロック図である。It is a block diagram which shows an example of the internal structure of the imaging device 1 which concerns on 1st Embodiment. 第1の実施形態に係る撮影装置1の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of an operation of the photographing apparatus 1 according to the first embodiment. 推定される距離の一例を示す図である。It is a figure which shows an example of the estimated distance. 推定される距離の一例を示す図である。It is a figure which shows an example of the estimated distance. 推定される距離の一例を示す図である。It is a figure which shows an example of the estimated distance. 第2の実施形態に係る撮影装置1aの内部構成の一例を示すブロック図である。It is a block diagram which shows an example of the internal structure of the imaging device 1a which concerns on 2nd Embodiment. 傾きを補正する処理の一例を示す図である。It is a figure which shows an example of the process which correct | amends inclination. 第2の実施形態に係る撮影装置1aの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the imaging device 1a which concerns on 2nd Embodiment.

初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。   First, an outline of an embodiment will be described with reference to FIG. Note that the reference numerals of the drawings attached to the outline are attached to the respective elements for convenience as an example for facilitating understanding, and the description of the outline is not intended to be any limitation.

上述の通り、被写体に応じて、ユーザが所望する情報は異なる。従って、適切に被写体に関する情報を取得することに貢献し、ユーザが所望する画像、及び情報を容易に取得することに貢献する撮影装置が、望まれる。   As described above, the information desired by the user differs depending on the subject. Therefore, an imaging apparatus that contributes to appropriately acquiring information related to the subject and that easily contributes to acquiring images and information desired by the user is desired.

そこで、一例として図1に示す撮影装置100を提供する。撮影装置100は、撮影部101と、撮影部が取得した被写体画像に含まれる、1又は2以上の被写体を識別する識別部102と、各被写体までの被写体距離を推定する距離推定部103と、被写体距離に基づいて、被写体情報を推定する被写体情報推定部104と、を備える。   Therefore, an imaging apparatus 100 shown in FIG. 1 is provided as an example. The imaging apparatus 100 includes an imaging unit 101, an identification unit 102 that identifies one or more subjects included in the subject image acquired by the imaging unit, a distance estimation unit 103 that estimates a subject distance to each subject, A subject information estimation unit 104 that estimates subject information based on the subject distance.

撮影装置100は、まず、被写体画像に含まれる被写体を識別する。撮影装置100は、複数の被写体を識別しても良い。そして、撮影装置100は、各被写体の被写体距離を推定する。ここで、被写体距離は、撮影装置100から、被写体までの距離を意味する。   First, the imaging apparatus 100 identifies a subject included in the subject image. The imaging apparatus 100 may identify a plurality of subjects. Then, the photographing apparatus 100 estimates the subject distance of each subject. Here, the subject distance means a distance from the photographing apparatus 100 to the subject.

そして、撮影装置100は、被写体距離に基づいて、被写体情報を推定する。被写体情報とは、被写体に関する情報を意味する。そのため、撮影装置100は、被写体に関する情報を、ユーザに入力させる必要がない。従って、撮影装置100は、適切に被写体に関する情報を取得することに貢献し、ユーザが所望する画像、及び情報を容易に取得することに貢献する。   Then, the image capturing apparatus 100 estimates subject information based on the subject distance. The subject information means information related to the subject. Therefore, the image capturing apparatus 100 does not require the user to input information regarding the subject. Therefore, the imaging device 100 contributes to appropriately acquiring information related to the subject, and contributes to easily acquiring images and information desired by the user.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。   Hereinafter, specific embodiments will be described in more detail with reference to the drawings.

[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

図2は、本実施形態に係る撮影装置1の全体構成の一例を示す平面図である。図2(a)は、撮影装置1の前面図である。図2(b)は、撮影装置1の背面図である。なお、以下の説明では、撮影部10の方向の面を前面とする。一方、撮影部10と相対する面を背面とする。   FIG. 2 is a plan view illustrating an example of the overall configuration of the imaging apparatus 1 according to the present embodiment. FIG. 2A is a front view of the photographing apparatus 1. FIG. 2B is a rear view of the photographing apparatus 1. In the following description, the surface in the direction of the photographing unit 10 is the front surface. On the other hand, the surface facing the imaging unit 10 is the back surface.

撮影装置1は、撮影部10と、表示部20と、操作部30と、を含んで構成される。なお、これは、撮影装置1を図2で示す形態に限定する趣旨ではない。例えば、携帯電話、スマートフォン、ゲーム機、タブレットPC、PDA(Personal Data Assistants:携帯情報端末)、デジタルカメラ、デジタルビデオカメラ等も、本実施形態に係る撮影装置1に該当する。   The photographing apparatus 1 includes a photographing unit 10, a display unit 20, and an operation unit 30. This is not intended to limit the photographing apparatus 1 to the form shown in FIG. For example, a mobile phone, a smartphone, a game machine, a tablet PC, a PDA (Personal Data Assistants: personal digital assistant), a digital camera, a digital video camera, and the like also correspond to the photographing apparatus 1 according to the present embodiment.

撮影部10は、被写体の画像を取得する。   The imaging unit 10 acquires an image of a subject.

表示部20は、撮影部10が取得した画像等を表示する。表示部20は、液晶パネル、有機EL(Electro Luminescence)パネル等が好ましい。   The display unit 20 displays an image or the like acquired by the imaging unit 10. The display unit 20 is preferably a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like.

操作部30は、撮影装置1に対するユーザの操作を受け付ける操作キー等である。操作部30は、シャッターボタンを含む。操作部30は、タッチセンサであっても良い。タッチセンサの方式には、静電容量方式を初めとして各種存在するが、その方式は問わない。なお、図2は、操作部30の位置を、撮影装置1の背面に限定する趣旨ではない。操作部30は、撮影装置1の前面、又は側面に配置しても良い。   The operation unit 30 is an operation key or the like that receives a user operation on the photographing apparatus 1. The operation unit 30 includes a shutter button. The operation unit 30 may be a touch sensor. There are various types of touch sensor methods including a capacitance method, but any method can be used. Note that FIG. 2 is not intended to limit the position of the operation unit 30 to the back surface of the photographing apparatus 1. The operation unit 30 may be disposed on the front surface or the side surface of the photographing apparatus 1.

操作部30は、表示部20と一体化したタッチパネルであっても良い。そして、撮影装置1は、表示部20に表示されるアイコン等に対する操作を、操作部30に対する操作としても良い。その際、タッチパネルの構成、入力検出方法等は各種あるが、その詳細は問わない。   The operation unit 30 may be a touch panel integrated with the display unit 20. Then, the photographing apparatus 1 may perform an operation on an icon or the like displayed on the display unit 20 as an operation on the operation unit 30. At that time, there are various types of touch panel configurations, input detection methods, etc., but the details are not limited.

図3は、撮影装置1の内部構成の一例を示す図である。撮影装置1は、撮影部10と、表示部20と、操作部30と、記憶部40と、制御部50と、を含んで構成される。制御部50は、識別部51と、距離推定部52と、被写体情報推定部53と、撮影条件決定部54と、を含んで構成される。図3には、簡単のため、本実施形態に係る撮影装置1に関係するモジュールを主に記載する。なお、表示部20、操作部30は、上述の通りであるため、更なる説明は省略する。   FIG. 3 is a diagram illustrating an example of the internal configuration of the photographing apparatus 1. The photographing apparatus 1 includes a photographing unit 10, a display unit 20, an operation unit 30, a storage unit 40, and a control unit 50. The control unit 50 includes an identification unit 51, a distance estimation unit 52, a subject information estimation unit 53, and a shooting condition determination unit 54. For the sake of simplicity, FIG. 3 mainly describes modules related to the imaging apparatus 1 according to the present embodiment. In addition, since the display part 20 and the operation part 30 are as above-mentioned, further description is abbreviate | omitted.

撮影部10は、上述の通り、被写体画像を生成する。具体的には、撮影部10は、レンズ(図示せず)と、撮像素子(図示せず)と、を含んで構成される。まず、レンズで集光した光信号は、撮像素子の受光面で結像する。そして、撮像素子は、受光した光信号を電気信号(アナログ信号)に変換する。そして、撮影部10は、撮像素子が変換した電気信号に基づいて、被写体画像を生成する。なお、後述する撮影条件決定部54が、撮影条件を決定した場合、撮影部10は、決定された撮影条件に基づいて、被写体画像を生成する。なお、以下の説明では、撮像部10が生成した画像データを、被写体画像と呼ぶ。また、以下の説明では、シャッターボタンを押下する前の被写体画像を、撮像画像と呼ぶ。また、シャッターボタンを押下し、記憶される被写体画像を、撮影画像と呼ぶ。   The imaging unit 10 generates a subject image as described above. Specifically, the imaging unit 10 includes a lens (not shown) and an image sensor (not shown). First, the optical signal collected by the lens forms an image on the light receiving surface of the image sensor. The imaging device converts the received optical signal into an electrical signal (analog signal). And the imaging | photography part 10 produces | generates a to-be-photographed image based on the electrical signal which the image pick-up element converted. Note that when a shooting condition determination unit 54 described later determines shooting conditions, the shooting unit 10 generates a subject image based on the determined shooting conditions. In the following description, the image data generated by the imaging unit 10 is referred to as a subject image. In the following description, the subject image before the shutter button is pressed is referred to as a captured image. A subject image stored by pressing the shutter button is called a captured image.

さらに、撮影部10は、被写体距離に関する情報を取得できることが好ましい。例えば、撮影部10は、2つのレンズを水平に配置した、ステレオカメラであっても良い。ステレオカメラの場合、2つのレンズの視差に基づいて、距離推定部52は、撮影部10から被写体までの距離を推定できる。   Furthermore, it is preferable that the imaging unit 10 can acquire information regarding the subject distance. For example, the photographing unit 10 may be a stereo camera in which two lenses are arranged horizontally. In the case of a stereo camera, the distance estimation unit 52 can estimate the distance from the imaging unit 10 to the subject based on the parallax between the two lenses.

または、撮影部10は、ライトフィールドカメラであっても良い。ライトフィールドカメラは、メインレンズと、撮像素子との間に、配列上に配置された、複数の小型レンズを備える。そして、ライトフィールドカメラは、配列上に配置された小型レンズに入射する光線を記録する。つまり、ライトフィールドカメラは、複数の視差画像を取得することができる。そのため、ライトフィールドカメラの場合、複数の小型レンズに入射する光線に基づいて、距離推定部52は、撮影部10から被写体までの距離を推定できる。   Alternatively, the photographing unit 10 may be a light field camera. The light field camera includes a plurality of small lenses arranged in an array between a main lens and an image sensor. The light field camera then records the light rays incident on the small lenses arranged on the array. That is, the light field camera can acquire a plurality of parallax images. Therefore, in the case of a light field camera, the distance estimation unit 52 can estimate the distance from the imaging unit 10 to the subject based on light rays incident on a plurality of small lenses.

または、撮影部10は、可視光カメラと、赤外線カメラと、を含んでいても良い。可視光カメラは、可視光線に基づいて、撮影する。また、赤外線カメラは、例えば、赤外線を照射し、被写体に反射して返ってくるまでの時間を算出する。そして、距離推定部52は、赤外線カメラに入射する赤外線に基づいて、撮影部10から被写体までの距離を推定できる。   Alternatively, the photographing unit 10 may include a visible light camera and an infrared camera. The visible light camera captures images based on visible light. In addition, the infrared camera, for example, calculates the time until the infrared ray is irradiated and reflected back to the subject. The distance estimation unit 52 can estimate the distance from the photographing unit 10 to the subject based on the infrared rays incident on the infrared camera.

あるいは、撮影部10は、可視光と、赤外線と、を入射可能な撮像素子を含んでいても良い。具体的には、撮影部10は、可視光を入射する領域と、赤外線を入射する領域と、が独立して構成された撮像素子を含んでいても良い。その場合、距離推定部52は、撮像素子に入射する赤外線に基づいて、撮影部10から被写体までの距離を推定できる。なお、撮影部10の構成は各種あるが、その詳細は問わない。   Alternatively, the imaging unit 10 may include an image sensor that can receive visible light and infrared light. Specifically, the imaging unit 10 may include an imaging element in which a region where visible light is incident and a region where infrared light is incident are independently configured. In that case, the distance estimation unit 52 can estimate the distance from the imaging unit 10 to the subject based on the infrared rays incident on the imaging element. Although there are various configurations of the photographing unit 10, the details are not limited.

記憶部40は、撮影装置1の動作に必要な情報を記憶する。例えば、記憶部40は、識別のための辞書データを記憶する。記憶部40は、予め登録した画像を、辞書データとして、記憶することが好ましい。なお、記憶部40は、物体の種類ごとの辞書データを記憶することが好ましい。   The storage unit 40 stores information necessary for the operation of the photographing apparatus 1. For example, the storage unit 40 stores dictionary data for identification. The storage unit 40 preferably stores an image registered in advance as dictionary data. In addition, it is preferable that the memory | storage part 40 memorize | stores the dictionary data for every kind of object.

制御部50は、撮影装置1の全体を制御すると共に、図3に示す各部を制御する。制御部50は、撮影装置1に搭載されたコンピュータに、そのハードウェアを用いて、撮影装置1の処理を実行させるコンピュータプログラムにより実現することもできる。   The control unit 50 controls the entire photographing apparatus 1 and controls each unit shown in FIG. The control unit 50 can also be realized by a computer program that causes a computer mounted on the photographing apparatus 1 to execute processing of the photographing apparatus 1 using its hardware.

識別部51は、撮影部10が取得した撮像画像に含まれる、被写体を識別する。識別部51は、撮像画像に含まれる1又は2以上の被写体を識別しても良い。具体的には、識別部51は、撮像画像と、予め登録された所定の画像と、の照合結果に基づいて、被写体を識別することが好ましい。   The identification unit 51 identifies a subject included in the captured image acquired by the imaging unit 10. The identification unit 51 may identify one or more subjects included in the captured image. Specifically, it is preferable that the identification unit 51 identifies the subject on the basis of the collation result between the captured image and a predetermined image registered in advance.

また、識別部51は、撮像画像内において、所定の面積以下の被写体を、識別対象から除去しても良い。さらに、例えば、識別部51は、複数の種類の被写体を検出した場合、最大の面積の被写体を、主の被写体(以下、メイン被写体と呼ぶ)としても良い。   The identification unit 51 may remove a subject having a predetermined area or less from the identification target in the captured image. Furthermore, for example, when the identification unit 51 detects a plurality of types of subjects, the subject having the largest area may be a main subject (hereinafter referred to as a main subject).

距離推定部52は、各被写体までの被写体距離を推定する。ここで、被写体距離とは、自撮影装置1から被写体までの距離を意味する。なお、被写体距離の推定方法は各種あるが、その詳細は問わない。   The distance estimation unit 52 estimates the subject distance to each subject. Here, the subject distance means the distance from the self-photographing device 1 to the subject. There are various methods for estimating the subject distance, but the details are not limited.

例えば、距離推定部52が被写体距離を推定する場合、特開2010−079807号公報で開示される技術を用いてもよい。具体的には、まず、距離推定部52は、被写体領域内の各特徴点に対応する、実空間における位置の距離を推定する。そして、距離推定部52は、各距離において存在する特徴点の個数を算出する。つまり、距離推定部52は、特徴点の個数と、推定される距離と、を対応付ける。そして、距離推定部52は、被写体領域内において、特徴点の個数が最大である距離を、その被写体の被写体距離として推定してもよい。なお、これは、被写体距離の推定方法を限定する趣旨ではない。   For example, when the distance estimation unit 52 estimates the subject distance, a technique disclosed in Japanese Patent Application Laid-Open No. 2010-0779807 may be used. Specifically, the distance estimation unit 52 first estimates the distance of the position in the real space corresponding to each feature point in the subject area. Then, the distance estimation unit 52 calculates the number of feature points existing at each distance. That is, the distance estimation unit 52 associates the number of feature points with the estimated distance. Then, the distance estimation unit 52 may estimate the distance having the maximum number of feature points in the subject area as the subject distance of the subject. This is not intended to limit the method of estimating the subject distance.

さらに、距離推定部52は、各被写体の被写体距離の相対距離を推定することが好ましい。例えば、距離推定部52は、メイン被写体の被写体距離と、他の被写体の被写体距離と、の差分を、相対距離として推定することが好ましい。ここで、距離推定部52は、メイン被写体の被写体距離と、背景の距離と、の差分を相対距離として推定しても良い。また、距離推定部52は、2以上の被写体間の相対距離を推定しても良い。   Furthermore, the distance estimation unit 52 preferably estimates the relative distance of the subject distance of each subject. For example, the distance estimation unit 52 preferably estimates the difference between the subject distance of the main subject and the subject distance of another subject as a relative distance. Here, the distance estimation unit 52 may estimate the difference between the subject distance of the main subject and the background distance as a relative distance. The distance estimation unit 52 may estimate a relative distance between two or more subjects.

被写体情報推定部53は、被写体距離に基づいて、被写体情報を推定する。具体的には、被写体情報推定部53は、少なくとも被写体距離、又は相対距離のいずれかに基づいて、被写体情報を推定することが好ましい。ここで、被写体情報とは、被写体の次元数、被写体領域、被写体の種類の少なくともいずれか一を含む情報を意味する。   The subject information estimation unit 53 estimates subject information based on the subject distance. Specifically, it is preferable that the subject information estimation unit 53 estimates subject information based on at least either the subject distance or the relative distance. Here, the subject information means information including at least one of the number of dimensions of the subject, the subject area, and the type of subject.

撮影条件決定部54は、被写体情報に基づいて、撮影条件を決定する。具体的には、撮影条件決定部54は、推定された被写体の次元数、被写体領域、被写体の種類の少なくともいずれか一に基づいて、撮影条件を決定することが好ましい。ここで、撮影条件は、焦点距離、明度、色調、彩度、シャッター速度、露出、ホワイトバランスの少なくともいずれかのパラメータを含むことが好ましい。   The shooting condition determination unit 54 determines shooting conditions based on the subject information. Specifically, it is preferable that the shooting condition determination unit 54 determines the shooting condition based on at least one of the estimated number of dimensions of the subject, the subject area, and the type of the subject. Here, the photographing condition preferably includes at least one of parameters of focal length, brightness, color tone, saturation, shutter speed, exposure, and white balance.

また、距離推定部52が、2以上の被写体間の相対距離を推定した場合、撮影条件決定部54は、相対距離に基づいて、撮影条件を決定しても良い。その場合、距離推定部52が、相対距離に基づいて、被写体の次元数を推定しても良い。そして、撮影条件決定部54は、推定された被写体の次元数に基づいて、撮影条件を決定しても良い。   When the distance estimation unit 52 estimates the relative distance between two or more subjects, the shooting condition determination unit 54 may determine the shooting condition based on the relative distance. In that case, the distance estimation unit 52 may estimate the number of dimensions of the subject based on the relative distance. Then, the shooting condition determination unit 54 may determine shooting conditions based on the estimated number of dimensions of the subject.

例えば、距離推定部52が、2以上の被写体の相対距離を推定した場合を考える。そして、被写体間の相対距離が所定の閾値を超えている場合、それらの被写体は、異なる位置に配置されていると推定される。つまり、それらの被写体は3次元物体であると考えられる。その場合、撮影条件決定部54は、被写体領域が鮮明な撮影画像となるように、撮影条件を決定することが好ましい。一方、被写体間の相対距離が所定の閾値以下である場合、それらの被写体は、平面に描画された絵(2次元物体)である可能性がある。その場合、撮影条件決定部54は、被写体を含む領域(平面領域)が、鮮明な撮影画像となるように、撮影条件を決定することが好ましい。   For example, consider a case where the distance estimation unit 52 estimates the relative distance between two or more subjects. And when the relative distance between subjects exceeds a predetermined threshold, it is estimated that those subjects are arranged in different positions. That is, these subjects are considered to be three-dimensional objects. In that case, it is preferable that the shooting condition determination unit 54 determines the shooting conditions so that the subject region becomes a clear shot image. On the other hand, when the relative distance between the subjects is equal to or less than a predetermined threshold, those subjects may be pictures (two-dimensional objects) drawn on a plane. In that case, it is preferable that the imaging condition determination unit 54 determines the imaging condition so that the area including the subject (planar area) becomes a clear captured image.

次に、本実施形態に係る撮影装置1の動作について説明する。   Next, the operation of the photographing apparatus 1 according to this embodiment will be described.

図4は、本実施形態に係る撮影装置1の動作の一例を示すフローチャートである。   FIG. 4 is a flowchart showing an example of the operation of the photographing apparatus 1 according to the present embodiment.

ステップS1において、撮影部10は、撮像画像を生成する。ステップS2において、識別部51は、撮像画像から、画像特徴を抽出する。そして、ステップS3に遷移する。   In step S1, the imaging unit 10 generates a captured image. In step S2, the identification unit 51 extracts an image feature from the captured image. And it changes to step S3.

ここで、画像特徴は、エッジ、コーナー等の情報を含む。また、識別部51は、識別対象の物体等の種類に応じて、異なる画像特徴を抽出することが好ましい。さらに、予め、識別対象の物体等の種類が設定されている場合、識別部51は、その物体の識別に必要な画像特徴を抽出することが好ましい。   Here, the image features include information such as edges and corners. Moreover, it is preferable that the identification part 51 extracts a different image feature according to the types of objects to be identified. Furthermore, when the type of an object to be identified is set in advance, the identifying unit 51 preferably extracts an image feature necessary for identifying the object.

例えば、識別部51は、人物の顔を識別対象の物体として設定している場合、撮像画像から、人物の眼、鼻などの特徴を画像特徴として抽出することが好ましい。また、識別部51は、識別対象の物体の種類が設定されていない場合、辞書データに含まれる物体の種類に応じて、画像特徴を抽出することが好ましい。つまり、識別部51は、撮像画像から、複数の種類の画像特徴を抽出しても良い。   For example, when the person's face is set as an object to be identified, the identification unit 51 preferably extracts features such as a person's eyes and nose from the captured image as image features. Further, when the type of the object to be identified is not set, the identification unit 51 preferably extracts the image feature according to the type of the object included in the dictionary data. That is, the identification unit 51 may extract a plurality of types of image features from the captured image.

ステップS3において、識別部51は、撮像画像に含まれる被写体を識別する。ここで、識別部51は、撮像画像から、複数の種類の画像特徴を抽出した場合、各物体の種類ごとに、被写体を識別する。なお、識別部51は、照合処理を行う際に、辞書データに応じて、撮像画像のサイズ変更、回転等の処理を行っても良いことは、勿論である。さらに、識別部51は、抽出された画像特徴の一部を用いて、識別処理を行っても良いことは勿論である。   In step S3, the identification unit 51 identifies the subject included in the captured image. Here, when a plurality of types of image features are extracted from the captured image, the identification unit 51 identifies a subject for each type of object. Needless to say, the identification unit 51 may perform processing such as size change and rotation of the captured image in accordance with the dictionary data when performing the collation processing. Furthermore, it goes without saying that the identification unit 51 may perform identification processing using a part of the extracted image features.

ステップS4において、距離推定部52は、被写体距離を推定する。そして、ステップS5において、被写体情報推定部53は、被写体距離に基づいて、被写体情報を推定する。そして、ステップS6において、撮影条件決定部54は、被写体情報に基づいて、撮影条件を決定する。   In step S4, the distance estimation unit 52 estimates the subject distance. In step S5, the subject information estimation unit 53 estimates subject information based on the subject distance. In step S6, the shooting condition determining unit 54 determines shooting conditions based on the subject information.

図5は、2次元物体に関して、推定される距離の一例を示す図である。図5(a)は、撮影装置1と、被写体と、の位置関係の一例を示す図である。図5(b)は、図5(a)の場合に推定される距離の一例を示す図である。そして、図5(b)において、点P221、点P222は、それぞれ、花221、花222の被写体距離を示す。具体的には、点P221は、距離推定部52が、撮影装置1から花221までの距離として推定した距離を示す。また、点P222は、距離推定部52が、撮影装置1から花222までの距離として推定した距離を示す。   FIG. 5 is a diagram illustrating an example of an estimated distance for a two-dimensional object. FIG. 5A is a diagram illustrating an example of a positional relationship between the imaging device 1 and a subject. FIG.5 (b) is a figure which shows an example of the distance estimated in the case of Fig.5 (a). In FIG. 5B, points P221 and P222 indicate subject distances of the flowers 221 and 222, respectively. Specifically, the point P221 indicates the distance estimated by the distance estimation unit 52 as the distance from the imaging device 1 to the flower 221. A point P222 indicates the distance estimated by the distance estimation unit 52 as the distance from the imaging device 1 to the flower 222.

ここで、図5(a)は、撮影装置1の前方に、花221と、花222と、が描画された平面223が配置された図である。そして、図5(b)に示す、点P221で示す距離と、点P222で示す距離と、の差分は、所定の閾値以下であるとする。その場合、撮影条件決定部54は、点P221と、点P222を結んだ延長線L1上の距離に位置する被写体を、平面に描画された物体であると推定する。そして、図5(a)の場合、例えば、撮影条件決定部54は、焦点距離を、直線L1に対応する距離と決定しても良い。   Here, FIG. 5A is a diagram in which a plane 223 on which the flower 221 and the flower 222 are drawn is arranged in front of the photographing apparatus 1. Then, it is assumed that the difference between the distance indicated by the point P221 and the distance indicated by the point P222 shown in FIG. 5B is equal to or less than a predetermined threshold value. In that case, the imaging condition determination unit 54 estimates that the subject located at a distance on the extension line L1 connecting the point P221 and the point P222 is an object drawn on a plane. In the case of FIG. 5A, for example, the imaging condition determination unit 54 may determine the focal length as a distance corresponding to the straight line L1.

図6は、3次元物体に関して、推定される距離の一例を示す図である。図6(a)は、撮影装置1と、被写体と、の位置関係の一例を示す図である。図6(b)は、図6(a)の場合に推定される距離の一例を示す図である。そして、図6(b)において、点P231、点P232は、それぞれ、花231、花232までの距離を示す。具体的には、点P231は、距離推定部52が、撮影装置1から花231までの距離として推定した距離を示す。また、点P232は、距離推定部52が、撮影装置1から花232までの距離として推定した距離を示す。   FIG. 6 is a diagram illustrating an example of an estimated distance for a three-dimensional object. FIG. 6A is a diagram illustrating an example of a positional relationship between the imaging device 1 and a subject. FIG. 6B is a diagram illustrating an example of the distance estimated in the case of FIG. In FIG. 6B, points P231 and P232 indicate distances to the flowers 231 and 232, respectively. Specifically, the point P231 indicates the distance estimated by the distance estimation unit 52 as the distance from the imaging device 1 to the flower 231. A point P232 indicates the distance estimated by the distance estimation unit 52 as the distance from the imaging device 1 to the flower 232.

ここで、図6(a)は、撮影装置1の前方に、花231、花232が配置された図である。そして、花232は、撮影装置1に向かって、花231の後方に配置されている。そのため、図6(b)に示すように、点P231で示す距離は、点P232で示す距離より小さい。従って、撮影条件決定部54は、花231、花232を、3次元物体であると推定する。そして、図6(a)の場合、例えば、撮影条件決定部54は、花231、又は花232が鮮明になるように、明度、焦点距離等の撮影条件を決定しても良い。   Here, FIG. 6A is a diagram in which a flower 231 and a flower 232 are arranged in front of the photographing apparatus 1. The flower 232 is arranged behind the flower 231 toward the photographing apparatus 1. Therefore, as shown in FIG. 6B, the distance indicated by the point P231 is smaller than the distance indicated by the point P232. Therefore, the imaging condition determination unit 54 estimates the flower 231 and the flower 232 as a three-dimensional object. In the case of FIG. 6A, for example, the shooting condition determination unit 54 may determine shooting conditions such as brightness and focal length so that the flowers 231 or the flowers 232 are clear.

図7は、3次元物体、及び2次元物体に関して、推定される距離の一例を示す図である。図7(a)は、撮影装置1と、被写体と、の位置関係の一例を示す図である。図7(b)は、図7(a)の場合に推定される距離の一例を示す図である。そして、図7(b)において、点P241は、花241までの距離を示す。また、直線L2は、平面242までの距離を示す。   FIG. 7 is a diagram illustrating an example of an estimated distance for a three-dimensional object and a two-dimensional object. FIG. 7A is a diagram illustrating an example of a positional relationship between the imaging device 1 and a subject. FIG.7 (b) is a figure which shows an example of the distance estimated in the case of Fig.7 (a). And in FIG.7 (b), the point P241 shows the distance to the flower 241. FIG. A straight line L2 indicates the distance to the plane 242.

ここで、図7(a)は、撮影装置1の前方に、花241が配置された図である。そして、花241の後方に、平面242が配置されている。ここで、図7(b)に示すように、点P241は、直線L2上ではない。従って、撮影条件決定部54は、花241を、3次元物体であると推定する。そして、図7(a)の場合、例えば、撮影条件決定部54は、最大の焦点距離を、直線L2に対応する距離と決定しても良い。   Here, FIG. 7A is a diagram in which a flower 241 is arranged in front of the photographing apparatus 1. A flat surface 242 is disposed behind the flower 241. Here, as shown in FIG. 7B, the point P241 is not on the straight line L2. Therefore, the imaging condition determination unit 54 estimates the flower 241 as a three-dimensional object. In the case of FIG. 7A, for example, the imaging condition determination unit 54 may determine the maximum focal length as the distance corresponding to the straight line L2.

ステップS7において、シャッターボタンが押下されたか否かを、制御部50は判断する。シャッターボタンが押下された場合(ステップS7のYes分岐)には、撮影部10は、決定された撮影条件で撮影する(ステップS8)。そして、制御部50は、撮影画像を保存する(ステップS9)。具体的には、制御部50は、撮影画像を記憶部40に記憶させる。   In step S7, the control unit 50 determines whether or not the shutter button has been pressed. When the shutter button is pressed (Yes branch in step S7), the photographing unit 10 photographs under the determined photographing condition (step S8). And the control part 50 preserve | saves a picked-up image (step S9). Specifically, the control unit 50 stores the captured image in the storage unit 40.

一方、シャッターボタンが押下されない場合(ステップS7のNo分岐)には、ステップS1に戻り、処理を継続する。制御部50は、シャッターボタンが押下されるまで、撮像画像を、表示部20に表示(プレビュー表示)しても良い。   On the other hand, when the shutter button is not pressed (No branch of step S7), the process returns to step S1 and the process is continued. The control unit 50 may display (preview display) the captured image on the display unit 20 until the shutter button is pressed.

[変形例1]
第1の実施形態に係る撮影装置1の変形例1として、距離推定部52は、撮像画像内の被写体の大きさに基づいて、被写体距離を推定しても良い。具体的には、記憶部40は、撮像画像内での被写体の大きさを、撮影装置1から被写体までの距離に対応させて記憶しても良い。つまり、記憶部40は、被写体の種類ごとに、撮像画像内での被写体の大きさと、撮影装置1から被写体までの距離と、の対応関係を、テーブル、又は関数として記憶しても良い。
[Modification 1]
As a first modification of the photographing apparatus 1 according to the first embodiment, the distance estimation unit 52 may estimate the subject distance based on the size of the subject in the captured image. Specifically, the storage unit 40 may store the size of the subject in the captured image in association with the distance from the photographing apparatus 1 to the subject. That is, the storage unit 40 may store a correspondence relationship between the size of the subject in the captured image and the distance from the photographing apparatus 1 to the subject as a table or a function for each type of subject.

以上のように、本実施形態に係る撮影装置1は、撮像画像から、被写体を識別する。さらに、本実施形態に係る撮影装置1は、撮影装置1から被写体までの距離に基づいて、被写体情報を推定する。従って、本実施形態に係る撮影装置1は、適切に被写体に関する情報を取得することに貢献し、ユーザが所望する画像、及び情報を容易に取得することに貢献する。   As described above, the photographing apparatus 1 according to the present embodiment identifies a subject from a captured image. Furthermore, the imaging device 1 according to the present embodiment estimates subject information based on the distance from the imaging device 1 to the subject. Therefore, the imaging device 1 according to the present embodiment contributes to appropriately acquiring information related to the subject, and contributes to easily acquiring images and information desired by the user.

[第2の実施形態]
次に、第2の実施形態について、図面を用いてより詳細に説明する。
[Second Embodiment]
Next, the second embodiment will be described in more detail with reference to the drawings.

本実施形態は、撮影画像を加工する形態である。具体的には、本実施形態では、アプリケーションの入力に適した画像に、撮影画像を加工する。   In the present embodiment, a captured image is processed. Specifically, in this embodiment, the captured image is processed into an image suitable for application input.

図8は、本実施形態に係る撮影装置1aの内部構成の一例を示す図である。図8において図3と同一の構成要素には、同一の符号を付し、その説明を省略する。撮影装置1と撮影装置1aの相違点は、制御部50aが画像加工部55を備える点である。   FIG. 8 is a diagram illustrating an example of an internal configuration of the photographing apparatus 1a according to the present embodiment. 8, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted. The difference between the imaging device 1 and the imaging device 1a is that the control unit 50a includes an image processing unit 55.

画像加工部55は、撮影画像を加工する。具体的には、画像加工部55は、少なくとも、撮影条件、被写体距離、アプリケーションのいずれかに基づいて、撮影画像を加工することが好ましい。   The image processing unit 55 processes the captured image. Specifically, it is preferable that the image processing unit 55 processes the captured image based on at least one of the shooting conditions, the subject distance, and the application.

例えば、制御部50aが、撮影画像に含まれる対象物(例えば、植物)を分類するアプリケーションに、撮影画像を入力する場合を考える。その場合、撮影条件決定部54は、被写体である植物が、鮮明になるように、撮影条件を決定することが好ましい。そして、画像加工部55は、対象物の領域(分類対象の植物の領域)を抽出することが好ましい。なぜなら、対象物以外の画像(背景領域等)が含まれていると、アプリケーションにおいて、対象物の分類精度が低下する恐れがあるからである。   For example, consider a case where the control unit 50a inputs a captured image to an application that classifies objects (for example, plants) included in the captured image. In that case, it is preferable that the photographing condition determination unit 54 determines the photographing condition so that the plant as a subject becomes clear. And it is preferable that the image process part 55 extracts the area | region (area | region of the plant of classification | category object) of a target object. This is because if the image (background area or the like) other than the object is included, the classification accuracy of the object may be reduced in the application.

さらに、画像加工部55は、アプリケーションに応じて、対象物の領域の明度、彩度等を変更しても良い。また、画像加工部55は、アプリケーションに応じて、対象物の領域の解像度が向上するように、画像処理を行っても良い。例えば、画像加工部55は、まず、対象物の領域を抽出する。そして、画像加工部55は、抽出した画像に基づいて、隣接する画素間において、分解能を上げた拡大画像を生成しても良い。   Furthermore, the image processing unit 55 may change the brightness, saturation, and the like of the object area in accordance with the application. Further, the image processing unit 55 may perform image processing so that the resolution of the object region is improved according to the application. For example, the image processing unit 55 first extracts an object region. And the image process part 55 may produce | generate the enlarged image which raised the resolution between adjacent pixels based on the extracted image.

または、画像加工部55は、対象物の領域において、例えば、光の反射した部分の画素値を、その周辺の画素値に基づいて、補正しても良い。なお、これは、画像加工部55が行う処理を限定する趣旨ではない。画像加工部55は、アプリケーションに応じて、各種の画像処理を行うことが好ましい。   Alternatively, the image processing unit 55 may correct, for example, the pixel value of the portion where the light is reflected in the region of the object based on the surrounding pixel values. Note that this is not intended to limit the processing performed by the image processing unit 55. The image processing unit 55 preferably performs various kinds of image processing according to the application.

また、撮影部10がライトフィールドカメラである場合、画像加工部55は、撮影画像の焦点位置を変更しても良い。なぜなら、ライトフィールドカメラは、異なる焦点の複数のレンズを備える。そのため、ライトフィールドカメラでは、焦点位置を変更した画像を容易に生成できるからである。   When the photographing unit 10 is a light field camera, the image processing unit 55 may change the focal position of the photographed image. This is because the light field camera includes a plurality of lenses having different focal points. Therefore, the light field camera can easily generate an image with the focal position changed.

また、画像加工部55は、被写体情報に基づいて、加工処理を変更しても良い。例えば、被写体情報推定部53が、被写体距離に基づいて、被写体が二次元物体であると推定した場合を考える。その場合、ユーザは、スキャナの代わりとして、撮影装置1aを使用した可能性がある。そのため、画像加工部55は、被写体が含まれる平面を検出しても良い。そして、画像加工部55は、検出した平面の傾きを補正した画像生成し、記憶部40に記憶しても良い。   The image processing unit 55 may change the processing based on the subject information. For example, consider a case where the subject information estimation unit 53 estimates that the subject is a two-dimensional object based on the subject distance. In that case, the user may have used the photographing apparatus 1a instead of the scanner. Therefore, the image processing unit 55 may detect a plane including the subject. Then, the image processing unit 55 may generate an image in which the detected inclination of the plane is corrected and store the image in the storage unit 40.

図9は、傾きを補正する処理の一例を示す図である。図9(a)の場合、撮影装置1aの前方に、花301、花302が描画された平面303が配置されている。図9(a)の場合、撮影条件決定部54は、花301と、花302と、の相対距離に基づいて、花301、花302が二次元物体であると推定する。その場合、画像加工部55は、撮影画像から、平面303に対応する領域を検出する。そして、画像加工部55は、検出した領域の傾きを補正し、図9(b)に示す画像313を生成しても良い。   FIG. 9 is a diagram illustrating an example of processing for correcting inclination. In the case of FIG. 9A, a plane 303 on which a flower 301 and a flower 302 are drawn is arranged in front of the photographing apparatus 1a. In the case of FIG. 9A, the imaging condition determination unit 54 estimates that the flower 301 and the flower 302 are two-dimensional objects based on the relative distance between the flower 301 and the flower 302. In that case, the image processing unit 55 detects an area corresponding to the plane 303 from the captured image. Then, the image processing unit 55 may correct the inclination of the detected region and generate an image 313 shown in FIG.

次に、本実施形態に係る撮影装置1aの動作について説明する。   Next, the operation of the photographing apparatus 1a according to this embodiment will be described.

図10は、撮影画像をアプリケーションの入力画像とする場合に、撮影画像を加工する処理の一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of processing for processing a captured image when the captured image is used as an input image of the application.

ステップS101において、撮影画像をアプリケーションの入力画像とするか否かを、画像加工部55は判断する。撮影画像をアプリケーションの入力画像とする場合(ステップS101のYes分岐)には、ステップS102に遷移する。撮影画像をアプリケーションの入力画像としない場合(ステップS101のNo分岐)には、撮影画像を加工する処理を終了する。   In step S101, the image processing unit 55 determines whether or not the captured image is to be an input image of the application. When the captured image is used as the input image of the application (Yes branch in step S101), the process proceeds to step S102. When the captured image is not used as the input image of the application (No branch in step S101), the processing for processing the captured image is terminated.

ステップS102において、アプリケーションが要求する対象物等、所定の対象物が、撮影画像に含まれるか否かを、画像加工部55は判断する。アプリケーションが対象物を特定していない場合、例えば、撮影画像内に、所定の面積を超えるメイン被写体があるか否かを、画像加工部55は判断しても良い。   In step S102, the image processing unit 55 determines whether or not a predetermined object such as an object requested by the application is included in the captured image. When the application does not specify the target object, for example, the image processing unit 55 may determine whether or not there is a main subject exceeding a predetermined area in the captured image.

所定の対象物が、撮影画像に含まれる場合(ステップS102のYes分岐)には、ステップS103に遷移する。所定の対象物が、撮影画像に含まれない場合(ステップS102のNo分岐)には、撮影画像を加工する処理を終了する。   When the predetermined object is included in the captured image (Yes branch in step S102), the process proceeds to step S103. When the predetermined object is not included in the photographed image (No branch in step S102), the processing for processing the photographed image is ended.

ステップS103において、画像加工部55は、アプリケーションに応じて、対象物の領域を抽出する。ステップS104において、画像加工部55は、アプリケーションに応じて、対象物の領域内の画像を加工する。ステップS105において、制御部50aは、加工した画像をアプリケーションの入力画像にする。   In step S <b> 103, the image processing unit 55 extracts a region of the target object according to the application. In step S104, the image processing unit 55 processes the image in the region of the target object according to the application. In step S105, the control unit 50a converts the processed image into an input image of the application.

以上のように、本実施形態に係る撮影装置1aでは、アプリケーションに基づいて、撮影画像を加工する。つまり、本実施形態に係る撮影装置1aでは、ユーザは、アプリケーションに応じて、撮影画像を加工する必要がない。従って、本実施形態に係る撮影装置1aは、より一層、ユーザが所望する画像、及び情報を容易に取得することに貢献する。   As described above, in the photographing apparatus 1a according to the present embodiment, the photographed image is processed based on the application. That is, in the photographing apparatus 1a according to the present embodiment, the user does not need to process the photographed image according to the application. Therefore, the imaging device 1a according to the present embodiment further contributes to easily acquiring images and information desired by the user.

なお、上記した実施形態では、撮影装置が、アプリケーションを実行するものとして説明した。しかし、撮影装置と異なる装置が、アプリケーションを実行しても良いことは勿論である。その場合、撮影装置は、撮影画像(加工した画像を含む)を、アプリケーションを実行する装置に送信しても良い。   In the above-described embodiment, the imaging apparatus has been described as executing an application. However, it goes without saying that a device different from the photographing device may execute the application. In that case, the imaging device may transmit the captured image (including the processed image) to a device that executes the application.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。   A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.

(付記1)上記第1の視点に係る撮影装置の通りである。   (Additional remark 1) It is as the imaging device which concerns on a said 1st viewpoint.

(付記2)前記距離推定部は、前記各被写体の前記被写体距離の相対距離を推定する付記1に記載の撮影装置。   (Additional remark 2) The said distance estimation part is an imaging device of Additional remark 1 which estimates the relative distance of the said subject distance of each said subject.

(付記3)前記被写体情報推定部は、少なくとも前記被写体距離、又は前記相対距離のいずれかに基づいて、前記被写体情報を推定する付記2に記載の撮影装置。   (Supplementary note 3) The photographing apparatus according to supplementary note 2, wherein the subject information estimation unit estimates the subject information based on at least either the subject distance or the relative distance.

(付記4)前記被写体情報は、被写体の次元数、被写体領域、被写体の種類の少なくともいずれか一の情報を含む付記1乃至3のいずれか一に記載の撮影装置。   (Supplementary note 4) The photographing apparatus according to any one of supplementary notes 1 to 3, wherein the subject information includes at least one of a dimension number of a subject, a subject region, and a subject type.

(付記5)前記被写体情報に基づいて、撮影条件を決定する撮影条件決定部を備える付記1乃至4のいずれか一に記載の撮影装置。   (Additional remark 5) The imaging device as described in any one of Additional remarks 1 thru | or 4 provided with the imaging condition determination part which determines an imaging condition based on the said to-be-photographed object information.

(付記6)少なくとも、前記被写体情報、前記被写体距離、アプリケーションのいずれかに基づいて、前記被写体画像を加工する画像加工部を備える付記1乃至5のいずれか一に記載の撮影装置。   (Supplementary note 6) The photographing apparatus according to any one of supplementary notes 1 to 5, further comprising an image processing unit that processes the subject image based on at least one of the subject information, the subject distance, and an application.

(付記7)前記距離推定部は、前記被写体画像内の前記被写体の大きさに基づいて、前記被写体距離を推定する付記1乃至6のいずれか一に記載の撮影装置。   (Supplementary note 7) The photographing apparatus according to any one of supplementary notes 1 to 6, wherein the distance estimation unit estimates the subject distance based on a size of the subject in the subject image.

(付記8)上記第2の視点に係る撮影装置の制御方法の通りである。   (Additional remark 8) It is as the control method of the imaging device concerning the said 2nd viewpoint.

(付記9)前記距離推定工程において、前記各被写体の前記被写体距離の相対距離を推定する付記8に記載の撮影装置の制御方法。   (Supplementary note 9) The method for controlling the photographing apparatus according to supplementary note 8, wherein in the distance estimation step, a relative distance of the subject distances of the subjects is estimated.

(付記10)前記被写体情報推定工程において、少なくとも前記被写体距離、又は前記相対距離のいずれかに基づいて、前記被写体情報を推定する付記9に記載の撮影装置の制御方法。   (Supplementary note 10) The method of controlling the photographing apparatus according to supplementary note 9, wherein in the subject information estimation step, the subject information is estimated based on at least either the subject distance or the relative distance.

(付記11)前記被写体情報に基づいて、撮影条件を決定する工程を含む付記8乃至10のいずれか一に記載の撮影装置の制御方法。   (Additional remark 11) The control method of the imaging device as described in any one of additional remark 8 thru | or 10 including the process of determining imaging | photography condition based on the said to-be-photographed object information.

(付記12)少なくとも、前記被写体情報、前記被写体距離、アプリケーションのいずれかに基づいて、前記被写体画像を加工する工程を含む付記8乃至11のいずれか一に記載の撮影装置の制御方法。   (Supplementary note 12) The method for controlling the photographing apparatus according to any one of supplementary notes 8 to 11, including a step of processing the subject image based on at least one of the subject information, the subject distance, and an application.

(付記13)前記距離推定工程において、前記被写体画像内の前記被写体の大きさに基づいて、前記被写体距離を推定する付記8乃至12のいずれか一に記載の撮影装置の制御方法。   (Supplementary note 13) The method for controlling an imaging device according to any one of supplementary notes 8 to 12, wherein, in the distance estimation step, the subject distance is estimated based on a size of the subject in the subject image.

(付記14)上記第3の視点に係るプログラムの通りである。   (Additional remark 14) It is as the program which concerns on the said 3rd viewpoint.

(付記15)前記距離推定処理において、前記各被写体の前記被写体距離の相対距離を推定する付記14に記載のプログラム。   (Additional remark 15) The program of Additional remark 14 which estimates the relative distance of the said object distance of each said object in the said distance estimation process.

(付記16)前記被写体情報推定処理において、少なくとも前記被写体距離、又は前記相対距離のいずれかに基づいて、前記被写体情報を推定する付記15に記載のプログラム。   (Supplementary note 16) The program according to supplementary note 15, wherein in the subject information estimation process, the subject information is estimated based on at least either the subject distance or the relative distance.

(付記17)前記被写体情報に基づいて、撮影条件を決定する処理を実行する付記14乃至16に記載のプログラム。   (Additional remark 17) The program of Additional remarks 14 thru | or 16 which performs the process which determines imaging | photography conditions based on the said to-be-photographed object information.

(付記18)少なくとも、前記被写体情報、前記被写体距離、アプリケーションのいずれかに基づいて、前記被写体画像を加工する処理を実行する付記14乃至17のいずれか一に記載のプログラム。   (Additional remark 18) The program as described in any one of additional remark 14 thru | or 17 which performs the process which processes the said to-be-photographed image based on at least any one of the said to-be-photographed object information, the to-be-photographed object distance, and an application.

(付記19)前記距離推定処理において、前記被写体画像内の前記被写体の大きさに基づいて、前記被写体距離を推定する請求項14乃至18のいずれか一に記載のプログラム。   (Supplementary note 19) The program according to any one of claims 14 to 18, wherein in the distance estimation processing, the subject distance is estimated based on a size of the subject in the subject image.

なお、引用した上記の特許文献の開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。   The disclosure of the cited patent document is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. In addition, various combinations of various indication elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the scope of the claims of the present invention, Selection is possible. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical value or small range included in the range should be construed as being specifically described even if there is no specific description.

1、1a、100 撮影装置
10、101 撮影部
20 表示部
30 操作部
40 記憶部
50 制御部
51、102 識別部
52、103 距離推定部
53、104 被写体情報推定部
54 撮影条件決定部
55 画像加工部
221、222、231、232、241、301、302 花
223、242、303 平面
313 画像
DESCRIPTION OF SYMBOLS 1, 1a, 100 Image pick-up device 10, 101 Image pick-up part 20 Display part 30 Operation part 40 Storage part 50 Control part 51,102 Identification part 52,103 Distance estimation part 53,104 Subject information estimation part 54 Shooting condition determination part 55 Image processing Part 221, 222, 231, 232, 241, 301, 302 flower 223, 242, 303 plane 313 image

Claims (9)

撮影部と、
前記撮影部が取得した被写体画像に含まれる、1又は2以上の被写体を識別する識別部と、
前記各被写体までの被写体距離を推定する距離推定部と、
前記被写体距離に基づいて、被写体情報を推定する被写体情報推定部と、
を備えることを特徴とする撮影装置。
A shooting section;
An identification unit for identifying one or more subjects included in the subject image acquired by the photographing unit;
A distance estimation unit for estimating a subject distance to each subject;
A subject information estimation unit for estimating subject information based on the subject distance;
An imaging apparatus comprising:
前記距離推定部は、前記各被写体の前記被写体距離の相対距離を推定する請求項1に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the distance estimation unit estimates a relative distance of the subject distances of the subjects. 前記被写体情報推定部は、少なくとも前記被写体距離、又は前記相対距離のいずれかに基づいて、前記被写体情報を推定する請求項2に記載の撮影装置。   The imaging device according to claim 2, wherein the subject information estimation unit estimates the subject information based at least on either the subject distance or the relative distance. 前記被写体情報は、被写体の次元数、被写体領域、被写体の種類の少なくともいずれか一の情報を含む請求項1乃至3のいずれか一に記載の撮影装置。   The imaging device according to any one of claims 1 to 3, wherein the subject information includes at least any one of a dimensionality of a subject, a subject region, and a subject type. 前記被写体情報に基づいて、撮影条件を決定する撮影条件決定部を備える請求項1乃至4のいずれか一に記載の撮影装置。   The imaging apparatus according to claim 1, further comprising an imaging condition determining unit that determines imaging conditions based on the subject information. 少なくとも、前記被写体情報、前記被写体距離、アプリケーションのいずれかに基づいて、前記被写体画像を加工する画像加工部を備える請求項1乃至5のいずれか一に記載の撮影装置。   The imaging apparatus according to claim 1, further comprising an image processing unit that processes the subject image based on at least one of the subject information, the subject distance, and an application. 前記距離推定部は、前記被写体画像内の前記被写体の大きさに基づいて、前記被写体距離を推定する請求項1乃至6のいずれか一に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the distance estimation unit estimates the subject distance based on a size of the subject in the subject image. 撮影部を備える撮影装置を制御する制御方法であって、
被写体画像に含まれる、1又は2以上の被写体を識別する工程と、
前記各被写体までの被写体距離を推定する距離推定工程と、
前記被写体距離に基づいて、被写体情報を推定する被写体情報推定工程と、
を含むことを特徴とする撮影装置の制御方法。
A control method for controlling a photographing apparatus including a photographing unit,
Identifying one or more subjects included in the subject image;
A distance estimation step of estimating a subject distance to each subject;
Subject information estimation step for estimating subject information based on the subject distance;
A control method for an imaging apparatus, comprising:
撮影部を備える撮影装置を制御するコンピュータに、
被写体画像に含まれる、1又は2以上の被写体を識別する処理と、
前記各被写体までの被写体距離を推定する距離推定処理と、
前記被写体距離に基づいて、被写体情報を推定する被写体情報推定処理と、
を実行させるプログラム。
In a computer that controls a photographing apparatus including a photographing unit,
A process of identifying one or more subjects included in the subject image;
A distance estimation process for estimating a subject distance to each subject;
Subject information estimation processing for estimating subject information based on the subject distance;
A program that executes
JP2012269516A 2012-12-10 2012-12-10 Photographing device, control method therefor, and program Pending JP2014116789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012269516A JP2014116789A (en) 2012-12-10 2012-12-10 Photographing device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012269516A JP2014116789A (en) 2012-12-10 2012-12-10 Photographing device, control method therefor, and program

Publications (1)

Publication Number Publication Date
JP2014116789A true JP2014116789A (en) 2014-06-26

Family

ID=51172374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012269516A Pending JP2014116789A (en) 2012-12-10 2012-12-10 Photographing device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2014116789A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035108A1 (en) * 2014-09-03 2016-03-10 オリンパス株式会社 Image pickup device
JP2021022185A (en) * 2019-07-29 2021-02-18 富士通株式会社 Image processing device, image processing program, and image processing method
WO2023170865A1 (en) * 2022-03-10 2023-09-14 日本電気株式会社 Identification device, identification system, identification method, and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035108A1 (en) * 2014-09-03 2016-03-10 オリンパス株式会社 Image pickup device
JPWO2016035108A1 (en) * 2014-09-03 2017-06-15 オリンパス株式会社 Imaging device
US10107620B2 (en) 2014-09-03 2018-10-23 Olympus Corporation Image pickup apparatus
JP2021022185A (en) * 2019-07-29 2021-02-18 富士通株式会社 Image processing device, image processing program, and image processing method
JP7326965B2 (en) 2019-07-29 2023-08-16 富士通株式会社 Image processing device, image processing program, and image processing method
WO2023170865A1 (en) * 2022-03-10 2023-09-14 日本電気株式会社 Identification device, identification system, identification method, and recording medium

Similar Documents

Publication Publication Date Title
JP6271990B2 (en) Image processing apparatus and image processing method
TWI518436B (en) Image capturing apparatus and image processing method
JP5657343B2 (en) Electronics
JP6347675B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
JP5834410B2 (en) Imaging apparatus and imaging method
CN108605087B (en) Terminal photographing method and device and terminal
US20110242395A1 (en) Electronic device and image sensing device
KR20070118036A (en) Imaging apparatus, control method of imaging apparatus, and computer program
JPWO2012001975A1 (en) Apparatus, method, and program for determining obstacle in imaging area at the time of imaging for stereoscopic display
JP2010093422A (en) Imaging apparatus
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
KR20110089655A (en) Apparatus and method for capturing digital image for guiding photo composition
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2012015642A (en) Imaging device
JP6611531B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2010226362A (en) Imaging apparatus and control method thereof
JP5857712B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP2010091669A (en) Imaging device
JP2011223294A (en) Imaging apparatus
JP2014116789A (en) Photographing device, control method therefor, and program
KR101663226B1 (en) Digital image processing apparatus and digital image processing method
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP6645711B2 (en) Image processing apparatus, image processing method, and program