JP2013197894A - Image processing device and image processing method and program - Google Patents

Image processing device and image processing method and program Download PDF

Info

Publication number
JP2013197894A
JP2013197894A JP2012062863A JP2012062863A JP2013197894A JP 2013197894 A JP2013197894 A JP 2013197894A JP 2012062863 A JP2012062863 A JP 2012062863A JP 2012062863 A JP2012062863 A JP 2012062863A JP 2013197894 A JP2013197894 A JP 2013197894A
Authority
JP
Japan
Prior art keywords
image
information
index
index image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012062863A
Other languages
Japanese (ja)
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012062863A priority Critical patent/JP2013197894A/en
Publication of JP2013197894A publication Critical patent/JP2013197894A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user to grasp a size of a subject intuitively.SOLUTION: An image acquisition unit 51 acquires raw image data including the subject. On the basis of the raw image data acquired by the image acquisition unit 51, an information acquisition unit 42 acquires, as information on the main subject image included in the raw image, data on the length (exact size) thereof, for example. An indicator image selection unit 53 searches for an indicator image indicating an object having a length within a predetermined range of the length of the main subject to select an indicator image to be combined with the raw image. An indicator image conversion unit 54 converts the indicator image data into image data constituting information in which the indicator image is expressed in the same scale as the raw image. An image synthesis unit 55 generates combined image data in which the indicator image is shown on the top of the raw image.

Description

本発明は、被写体の情報を直感的に把握させることができる、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program capable of intuitively grasping subject information.

従来、被写体を撮影する際に、撮影した被写体の画像を鑑賞する鑑賞者に被写体像の実際の大きさを伝えるため、被写体の傍らに大きさの指標となる物体を配置して撮影することが行われている。
例えば、長さが数センチ程度の被写体を撮影する場合、直径が既知の硬貨(例えば、日本国で発行されている直径が2.5cmの10円玉)を被写体の傍らに置いて、デジタルカメラで撮影する。得られた原画像には、鑑賞者が大きさを把握できる硬貨の像が写しだされているため、鑑賞者は、画像に写る硬貨の像と被写体の像とを比較することによって、被写体の実際の大きさを認識することができる。
Conventionally, when an object is photographed, an object that serves as an index of the size is placed next to the subject in order to convey the actual size of the subject image to a viewer who appreciates the photographed subject image. Has been done.
For example, when shooting a subject with a length of several centimeters, place a coin with a known diameter (for example, a 10-yen coin with a diameter of 2.5 cm issued in Japan) beside the subject, Shoot with. In the original image obtained, an image of a coin that allows the viewer to grasp the size is copied, so that the viewer can compare the image of the coin in the image with the image of the subject. The actual size can be recognized.

しかし、被写体の傍らに大きさの指標となる物体を置いて撮影することは困難な状況がある。例えば、ビルや橋といった大きな物体が被写体となる場合には、当該被写体の傍らに、大きさの指標となる物体を実際に配置することは困難である。また、小さな物体が被写体となる場合であっても、ユーザは、撮影時に、大きさの指標となる適切な物体を所持していなければ、被写体の大きさを正確に認識することができる原画像を得ることはできない。
そこで、特許文献1には、被写体の大きさを正確に把握するためのスケールを、被写体像を含む画像に表示させる技術が開示されている。
However, there are situations in which it is difficult to shoot with an object that serves as a size index beside the subject. For example, when a large object such as a building or a bridge is a subject, it is difficult to actually place an object serving as a size index beside the subject. Even when a small object is a subject, the user can accurately recognize the size of the subject if he / she does not have an appropriate object as an index of size at the time of shooting. Can't get.
Therefore, Patent Document 1 discloses a technique for displaying a scale for accurately grasping the size of a subject on an image including the subject image.

特許第3059773号公報Japanese Patent No. 3059773

しかしながら、特許文献1記載の技術では、鑑賞者は、表示されたスケールから被写体の大きさを把握するように試みるが、鑑賞者が得ることのできる情報は、被写体の長さ等に相当する数値表現である。鑑賞者は、被写体の長さ等の正確な数値情報が得られても、被写体の情報を直感的に把握することが困難となる場合がある。   However, in the technique described in Patent Document 1, the viewer tries to grasp the size of the subject from the displayed scale, but the information that the viewer can obtain is a numerical value corresponding to the length of the subject. Is an expression. Even if the viewer can obtain accurate numerical information such as the length of the subject, it may be difficult to intuitively grasp the subject information.

本発明は、このような状況に鑑みてなされたものであり、被写体の情報を直感的に把握させることができる画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and a program capable of intuitively grasping subject information.

上記目的を達成するため、本発明の一態様の画像処理装置は、画像を取得する取得手段と、前記取得手段により取得された画像に含まれる被写体像の情報を取得する情報取得手段と、前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択手段と、前記情報取得手段により取得された情報と、前記選択手段により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換手段と、前記画像と、前記変換手段により変換された前記指標画像とを合成する合成手段と、を備えることを特徴とする。   To achieve the above object, an image processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires an image, an information acquisition unit that acquires information about a subject image included in the image acquired by the acquisition unit, Based on information acquired by the information acquisition means, a selection means for selecting an index image corresponding to the subject image, information acquired by the information acquisition means, and information on the index image selected by the selection means The image processing apparatus includes: conversion means for converting the index image, and combining means for combining the image with the index image converted by the conversion means.

本発明によれば、被写体の情報を直感的に把握させることができる。   According to the present invention, it is possible to intuitively grasp subject information.

本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置の機能的構成のうち、指標画像表示処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing an index image display process among the functional structures of the image processing apparatus of FIG. 主要被写体の情報を測定する手法を示す模式図である。It is a schematic diagram which shows the method of measuring the information of a main subject. 指標画像表示処理に使用される指標画像の具体例を示す模式図である。It is a schematic diagram which shows the specific example of the index image used for an index image display process. 指標画像表示処理の結果の具体例としての各画像を示す模式図である。It is a schematic diagram which shows each image as a specific example of the result of an index image display process. 図2の機能的構成を有する図1の画像処理装置が実行する指標画像表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the index image display process which the image processing apparatus of FIG. 1 which has the functional structure of FIG. 2 performs. 本発明の第2実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on 2nd Embodiment of this invention. 図7の画像処理装置の機能的構成のうち、指標画像表示処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing an index image display process among the functional structures of the image processing apparatus of FIG. 第2実施形態に係る指標画像表示処理の結果の具体例としての各画像を示す模式図である。It is a schematic diagram which shows each image as a specific example of the result of the index image display process which concerns on 2nd Embodiment.

以下、本発明の一実施形態について図面を用いて説明する。
[第1実施形態]
図1は、本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラにより構成することができる。なお、本実施形態においては、画像処理装置1が撮像機能を備えるものとして説明するが、画像処理装置1の撮像機能と画像処理機能とを分離し、他の撮像装置で撮像された画像のデータを対象として、画像処理装置1が各種処理を実行することとも可能である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 1 can be configured by a digital camera, for example. In the present embodiment, the image processing apparatus 1 is described as having an imaging function. However, the imaging function and the image processing function of the image processing apparatus 1 are separated, and image data captured by another imaging apparatus. It is also possible for the image processing apparatus 1 to execute various processes for the above.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、DSP(Digital Signal Processor)14と、バス15と、入出力インターフェース16と、撮像部17と、操作部18と、表示部19と、記憶部20、通信部21と、ドライブ22と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a DSP (Digital Signal Processor) 14, a bus 15, and an input / output interface 16. An imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.
The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

DSP14は、CPU11の指示に応じて、画像のデータに対して各種画像処理を施す。   The DSP 14 performs various image processing on the image data in accordance with instructions from the CPU 11.

CPU11、ROM12、RAM13、及びDSP14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、表示部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, RAM 13, and DSP 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、光学レンズ部31と、イメージセンサ32と、レンズ駆動部33と、を備えている。   The imaging unit 17 includes an optical lens unit 31, an image sensor 32, and a lens driving unit 33.

光学レンズ部31は、被写体を撮影するために、フォーカスレンズ(後述する図3のフォーカスレンズ31F)やズームレンズ(後述する図3のズームレンズ31Z)等の各種レンズで構成される。
フォーカスレンズは、後述のレンズ駆動部33によって駆動され、後述のイメージセンサ32の受光面に被写体の像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
The optical lens unit 31 includes various lenses such as a focus lens (a focus lens 31F in FIG. 3 described later) and a zoom lens (a zoom lens 31Z in FIG. 3 described later) in order to photograph a subject.
The focus lens is a lens that is driven by a lens driving unit 33 described later, and forms an image of a subject on a light receiving surface of an image sensor 32 described later. The zoom lens is a lens that freely changes the focal length within a certain range.

イメージセンサ32は、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部31から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
なお、以下、撮像部17の出力信号を以下、「撮像画像のデータ」と呼ぶ。撮像部17からは撮像画像のデータが出力されて、CPU11やDSP14等に適宜供給される。
The image sensor 32 includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit 31. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Hereinafter, the output signal of the imaging unit 17 is referred to as “captured image data”. Data of the captured image is output from the imaging unit 17 and is appropriately supplied to the CPU 11, DSP 14, and the like.

レンズ駆動部33は、CPU11によるAF(Auto Focus)処理の結果に基づいて、光学レンズ部31のフォーカスレンズを駆動させ、そのレンズ位置を変化させることで所定の被写体に合焦させる。   The lens driving unit 33 drives the focus lens of the optical lens unit 31 based on the result of AF (Auto Focus) processing by the CPU 11 and changes the lens position to focus on a predetermined subject.

操作部18は、各種釦等で構成され、ユーザの指示操作を受け付ける。また、操作部18は、必要に応じて、表示部19に積層されるタッチパネルを含むように構成される。
表示部19は、液晶ディスプレイ等で構成され、各種画像(例えば、後に詳述する合成画像)を表示する。
The operation unit 18 includes various buttons and the like, and accepts user instruction operations. Moreover, the operation part 18 is comprised so that the touch panel laminated | stacked on the display part 19 may be included as needed.
The display unit 19 is composed of a liquid crystal display or the like, and displays various images (for example, a composite image described in detail later).

記憶部20は、DRAM(Dynamic Random Access Memory)等で構成され、DSP14等から出力された画像のデータを記憶する。また、記憶部20は、DSP14等の処理に必要な各種データも記憶する。   The storage unit 20 includes a DRAM (Dynamic Random Access Memory) or the like, and stores image data output from the DSP 14 or the like. The storage unit 20 also stores various data necessary for processing of the DSP 14 and the like.

通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。   The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア34が適宜装着される。ドライブ22によってリムーバブルメディア34から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア34は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。また、リムーバブルメディア34には、本実施形態においては、後述する合成画像等のデータが記憶される。   A removable medium 34 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 34 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 34 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20. In the present embodiment, the removable medium 34 stores data such as a composite image described later.

図2は、図1の画像処理装置の機能的構成のうち、指標画像表示処理を実行するための機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram showing a functional configuration for executing the index image display process among the functional configurations of the image processing apparatus of FIG.

指標画像表示処理とは、撮像画像等の原画像のデータを取得し、当該原画像に含まれる被写体の長さ等の大きさを表す情報をユーザに把握させる指標となる画像(後述する指標画像)を、当該原画像とともに表示させるまでの一連の処理をいう。   The index image display process is an image (an index image to be described later) that acquires data of an original image such as a captured image and makes a user grasp information indicating the size of a subject included in the original image. ) Is a series of processing until it is displayed together with the original image.

指標画像表示処理が実行される場合、CPU11においては、主要被写体検出部41と、情報取得部42と、表示制御部43と、記憶制御部44と、が機能する。
なお、主要被写体検出部41乃至記憶制御部44の機能の少なくとも一部を、CPU11以外の他の構成要素(DSP14等)に移譲させてもよい。
When the index image display process is executed, the main subject detection unit 41, the information acquisition unit 42, the display control unit 43, and the storage control unit 44 function in the CPU 11.
Note that at least a part of the functions of the main subject detection unit 41 to the storage control unit 44 may be transferred to other components (such as the DSP 14) than the CPU 11.

また、指標画像表示処理が実行される場合、DSP14においては、画像取得部51と、指標画像取得部52と、指標画像選択部53と、指標画像変換部54と、画像合成部55と、指標画像生成部56と、が機能する。
なお、画像取得部51乃至指標画像生成部56の機能の少なくとも一部を、DSP14以外の他の構成要素(CPU11等)に移譲させることも当然可能である。
When the index image display process is executed, in the DSP 14, the image acquisition unit 51, the index image acquisition unit 52, the index image selection unit 53, the index image conversion unit 54, the image composition unit 55, the index The image generation unit 56 functions.
Of course, it is possible to transfer at least part of the functions of the image acquisition unit 51 to the index image generation unit 56 to other components (CPU 11 or the like) other than the DSP 14.

画像取得部51は、撮像部17から出力される撮像画像のデータを原画像のデータとして取得するとともに、撮像条件のデータを取得する。ここで、撮像条件のデータとは、ズーム値、フォーカス値、フォーカス・エリア(撮像画像中のフォーカスレンズの合焦領域)等のデータをいう。
本実施形態においては、原画像のデータは、Exif(Exchange Image File Format for Digital Still Cameras)形式であるものとする。ここで、Exifは、画像のデータにタグ情報を付加して保存することができる規格であるため、原画像のデータには、撮像条件等のデータがタグ情報として付加される。
The image acquisition unit 51 acquires captured image data output from the imaging unit 17 as original image data, and acquires imaging condition data. Here, the imaging condition data refers to data such as a zoom value, a focus value, a focus area (a focusing area of a focus lens in a captured image), and the like.
In the present embodiment, it is assumed that the original image data is in an Exif (Exchange Image File Format for Digital Still Camera) format. Here, since Exif is a standard that allows tag information to be added to image data and stored, data such as imaging conditions is added to the original image data as tag information.

主要被写体検出部41は、原画像のデータが画像取得部51から供給されると、当該原画像に含まれる主要被写体像を検出し、その検出結果とともに原画像のデータを情報取得部42に供給する。
ここで、主要被写体とは、フォーカスレンズが合焦している被写体をいう。このため、フォーカス・エリア内の少なくとも一部の画像のデータは、主要被写体像のデータである。
主要被写体像の検出手法は、特に限定されないが、例えば本実施形態においては、原画像のデータに付加されたタグ情報に含まれるフォーカス・エリアのデータに基づいて、フォーカス・エリア内又はフォーカス・エリアを含む所定範囲内の画像のコントラストの勾配から、主要被写体像を検出する、といった検出手法が採用されている。
When the original image data is supplied from the image acquisition unit 51, the main subject detection unit 41 detects the main subject image included in the original image, and supplies the original image data to the information acquisition unit 42 together with the detection result. To do.
Here, the main subject refers to a subject on which the focus lens is focused. For this reason, at least a part of the image data in the focus area is data of the main subject image.
The detection method of the main subject image is not particularly limited. For example, in the present embodiment, in the focus area or in the focus area based on the focus area data included in the tag information added to the original image data. A detection method is adopted in which a main subject image is detected from the contrast gradient of an image within a predetermined range including.

主要被写体検出部41は、主要被写体像を検出した後、当該主要被写体像を囲む最小の矩形枠(以下、「主要被写体像の枠」と呼ぶ)を決定する。本実施形態では、主要被写体像の枠は、主要被写体像の画像領域のX軸方向(横方向)の座標の最大値と最小値との差から求められる水平幅と、主要被写体像の領域のY軸方向(縦方向)の座標の最大値と最小値との差から求められる垂直幅と、を有する矩形領域の外縁である。
主要被写体像の枠の形状は、当該枠の4つの頂点が特定されれば決定できる。そこで、本実施形態では、主要被写体像の枠のデータは、当該枠の4つの頂点の位置情報により構成されているとする。
主要被写体検出部41は、主要被写体像の枠のデータを検出結果として、原画像のデータとともに情報取得部42に供給する。
After detecting the main subject image, the main subject detection unit 41 determines a minimum rectangular frame surrounding the main subject image (hereinafter referred to as a “main subject image frame”). In the present embodiment, the frame of the main subject image includes the horizontal width obtained from the difference between the maximum and minimum coordinates in the X-axis direction (lateral direction) of the image area of the main subject image, and the area of the main subject image. It is an outer edge of a rectangular area having a vertical width obtained from the difference between the maximum value and the minimum value of coordinates in the Y-axis direction (vertical direction).
The frame shape of the main subject image can be determined if the four vertices of the frame are specified. Therefore, in the present embodiment, it is assumed that the frame data of the main subject image is configured by positional information of the four vertices of the frame.
The main subject detection unit 41 supplies the data of the frame of the main subject image as a detection result to the information acquisition unit 42 together with the original image data.

情報取得部42は、主要被写体像の枠のデータ及び原画像のデータが主要被写体検出部41から供給されると、主要被写体の実世界における大きさを表す情報(例えば、実寸の長さのデータ)を取得する。本実施形態では、後述するように、撮像時に得られるフォーカスレンズの位置等の情報から、主要被写体の実世界における大きさの情報を計測するものとする。なお、この大きさの情報は、撮像画像のデータとともに、他の装置から取得することも可能である。
情報取得部42による主要被写体の情報(例えば、長さのデータ)の計測手法は、特に限定されないが、例えば本実施形態では、被写体までの距離及び撮像範囲に占める被写体像の長さの比の情報に基づいて、主要被写体の長さを計測する、といった計測手法が採用されている。
When the main subject image frame data and the original image data are supplied from the main subject detection unit 41, the information acquisition unit 42 is information indicating the size of the main subject in the real world (for example, data of the actual length). ) To get. In the present embodiment, as will be described later, information on the size of the main subject in the real world is measured from information such as the position of the focus lens obtained at the time of imaging. Note that this size information can be acquired from another apparatus together with the captured image data.
The method of measuring information (for example, length data) of the main subject by the information acquisition unit 42 is not particularly limited. For example, in the present embodiment, the ratio of the distance to the subject and the length of the subject image in the imaging range is used. A measurement technique is employed in which the length of the main subject is measured based on the information.

以下、本実施形態で採用されている具体的な主要被写体の大きさの情報(例えば、長さの情報)の計測手法について、図3を参照して説明する。
図3は、主要被写体の大きさ(例えば、長さ)を測定する手法を示す模式図である。
Hereinafter, a specific measuring method of the size information (for example, length information) of the main subject employed in the present embodiment will be described with reference to FIG.
FIG. 3 is a schematic diagram showing a method for measuring the size (for example, length) of the main subject.

図3(A)には、釣り人OB1、岩OB2、林OB3、山OB4といった各被写体の像を含む原画像71が示されている。ここで、実世界(デジタルカメラとして構成される画像処理装置1の撮像空間)においては画像処理装置1からみて、釣り人OB1、岩OB2、林OB3、及び山OB4の順に距離が遠いものとする。   FIG. 3A shows an original image 71 including images of subjects such as a fisherman OB1, a rock OB2, a forest OB3, and a mountain OB4. Here, in the real world (imaging space of the image processing apparatus 1 configured as a digital camera), the distance from the image processing apparatus 1 is as follows: angler OB1, rock OB2, forest OB3, and mountain OB4. .

図3(B)は、画像処理装置1のフォーカスレンズ31Fの位置(以下、「レンズアドレス」と呼ぶ)とフォーカスレンズ31Fが合焦する被写体までの距離との関係を説明する図である。
図3(B)に示すように、レンズアドレスは、ズームレンズ31Lとイメージセンサ32との間に位置する。レンズアドレスがイメージセンサ32から離れるほど、合焦する実世界上の位置が画像処理装置1に近くなる。
フォーカスレンズ31Fから被写体までの距離(以下、「被写体距離」と呼ぶ)とフォーカスレンズ31Fからイメージセンサ32までの距離とはレンズの公式である次の式(1)によって関係付けられる。

Figure 2013197894
式(1)において、Lは、フォーカスレンズ31Fと被写体との距離を、bは、フォーカスレンズ31Fとイメージセンサ32との距離を、fは、焦点距離を、示している。
レンズの焦点距離fは予め定められているので、被写体距離Lと、フォーカスレンズ31Fとイメージセンサ32との距離bは、一方が大きくなれば他方が小さくなる関係にある。
図3(B)に示すように、フォーカスレンズ31Fと釣り人OB1、岩OB2、林OB3、山OB4との距離は、それぞれ1m、5m、15m、無限大であるものとみなされている。この場合、上記のそれぞれの被写体に合焦するフォーカスレンズ31Fのレンズアドレスは、釣り人OB1、岩OB2、林OB3、山OB4の順にイメージセンサ32に近くなる。 FIG. 3B is a diagram for explaining the relationship between the position of the focus lens 31F (hereinafter referred to as “lens address”) of the image processing apparatus 1 and the distance to the subject on which the focus lens 31F is focused.
As shown in FIG. 3B, the lens address is located between the zoom lens 31L and the image sensor 32. The farther the lens address is from the image sensor 32, the closer the in-focus position in the real world is to the image processing apparatus 1.
The distance from the focus lens 31F to the subject (hereinafter referred to as “subject distance”) and the distance from the focus lens 31F to the image sensor 32 are related by the following formula (1) which is a lens formula.
Figure 2013197894
In Expression (1), L represents the distance between the focus lens 31F and the subject, b represents the distance between the focus lens 31F and the image sensor 32, and f represents the focal length.
Since the focal length f of the lens is determined in advance, the subject distance L and the distance b between the focus lens 31F and the image sensor 32 have a relationship in which the larger the one, the smaller the other.
As shown in FIG. 3B, the distances between the focus lens 31F and the angler OB1, rock OB2, forest OB3, and mountain OB4 are considered to be 1 m, 5 m, 15 m, and infinity, respectively. In this case, the lens address of the focus lens 31F that focuses on each of the subjects is close to the image sensor 32 in the order of angler OB1, rock OB2, forest OB3, and mountain OB4.

ここで、上述の説明において、フォーカスレンズ31Fと山OB4との距離は、無限大とみなされているものとしたが、焦点距離が無限大となることについて、更に説明する。
一般に、被写体に合焦すると、その被写体の前後にもピントが合っているとみなせる範囲が存在する。この範囲のことを被写界深度という。そして、画像処理装置1から見て被写体の後方側の被写界深度、即ち後方被写界深度Lrは、次の式(2)のように表される。

Figure 2013197894
式(2)において、δは、許容錯乱円の直径を、Lは、被写体距離を、Fは、F値(絞り値)を、fは、焦点距離を、示している。
ここで、被写体距離Lがf・f/(δ・F)の値をとる場合、分母が0となるので、後方被写界深度Lrは無限大となる。したがって、被写体距離L=f・f/(δ・F)に位置する被写体に、フォーカスレンズ31Fを合焦させたときは、被写体だけでなく無限遠までの物体にピントがあっているように見えることになる。このため、フォーカスレンズ31Fとイメージセンサ32との距離bが一定値以下に達したときは、実用上、被写体距離Lが無限大までの被写体に合焦したものとして被写体距離は無限大として扱われる。 Here, in the above description, the distance between the focus lens 31F and the mountain OB4 is assumed to be infinite, but the fact that the focal length is infinite will be further described.
Generally, when a subject is focused, there is a range in which the subject can be regarded as being in focus before and after the subject. This range is called depth of field. Then, the depth of field on the rear side of the subject as viewed from the image processing apparatus 1, that is, the rear depth of field Lr is expressed by the following equation (2).
Figure 2013197894
In Expression (2), δ represents the diameter of the allowable circle of confusion, L represents the subject distance, F represents the F value (aperture value), and f represents the focal length.
Here, when the subject distance L takes a value of f · f / (δ · F), the denominator is 0, and the rear depth of field Lr is infinite. Therefore, when the focus lens 31F is focused on a subject located at a subject distance L = f · f / (δ · F), it seems that not only the subject but also an object up to infinity is in focus. It will be. For this reason, when the distance b between the focus lens 31F and the image sensor 32 reaches a certain value or less, the subject distance is treated as infinite as being practically focused on the subject up to the subject distance L being infinite. .

式(1)に戻って説明する。式(1)において、レンズの焦点距離fは予め定められているので、被写体距離Lと、フォーカスレンズ31Fとイメージセンサ32との距離bの、どちらか一方が定まれば、他方の値が求められる関係にあることがわかる。
本実施形態では、レンズアドレスは、撮像部17から撮像条件のデータとして出力される。イメージセンサ32は、通常、固定された位置にあるので、レンズアドレスが決定されると、フォーカスレンズ31Fとイメージセンサ32との距離bは算定される。つまり、レンズアドレスが決定されれば、被写体距離Lが算出されることになる。
即ち、フォーカスレンズ31Fが被写体に合焦したときのレンズアドレスの情報に基づき、式(1)によって、被写体距離Lを算出することができる。
したがって、情報取得部42は、原画像データのタグ情報に記録されているレンズアドレスと焦点距離の情報に基づいて、被写体距離を算出する。そして、情報取得部42は、算出された被写体距離を原画像データのタグ情報に記録する。
Returning to Equation (1), description will be made. In Expression (1), since the focal length f of the lens is determined in advance, if one of the object distance L and the distance b between the focus lens 31F and the image sensor 32 is determined, the other value is obtained. It can be seen that there is a relationship.
In the present embodiment, the lens address is output from the imaging unit 17 as imaging condition data. Since the image sensor 32 is normally in a fixed position, when the lens address is determined, the distance b between the focus lens 31F and the image sensor 32 is calculated. That is, when the lens address is determined, the subject distance L is calculated.
That is, the subject distance L can be calculated by the equation (1) based on the lens address information when the focus lens 31F is focused on the subject.
Therefore, the information acquisition unit 42 calculates the subject distance based on the lens address and focal length information recorded in the tag information of the original image data. Then, the information acquisition unit 42 records the calculated subject distance in the tag information of the original image data.

図3(C)は、原画像の水平幅W0(水平画角に相当する撮影範囲の原画像の水平幅)と釣り人の像の水平幅W1を示す図である。
ここで、画像処理装置1のフォーカスレンズの光軸を法線とする実世界の平面であって、かつ、被写体である釣り人を含む平面を考える。水平画角がなす角が当該平面に投影する撮像範囲の水平幅、即ち、撮像範囲の幅(実寸)L0は、被写体距離及びフォーカスレンズ31Fの焦点距離から幾何学的に求めることができる。
そして、撮像面又は撮像画像と上記の平面とは相似の関係にあるため、撮像範囲の幅(実寸)L0と原画像の水平幅W0との比は、被写体の水平幅(実寸)L1と被写体である釣り人の像の水平幅W1との比に等しい。
以上より、被写体の水平幅(実寸)L1は、次の式(3)により求めることができる。

Figure 2013197894
式(3)において、L0は、水平画角に相当する撮像範囲の幅(実寸)を、W0は、原画像の水平幅を、W1は、原画像に含まれる被写体像の水平幅を、示している。
また、主要被写体像の水平幅W1は、主要被写体像の枠の水平幅を測定することにより求められる。 FIG. 3C shows the horizontal width W0 of the original image (the horizontal width of the original image in the shooting range corresponding to the horizontal angle of view) and the horizontal width W1 of the angler's image.
Here, a plane in the real world having the normal of the optical axis of the focus lens of the image processing apparatus 1 and a plane including the angler who is the subject is considered. The horizontal width of the imaging range projected by the angle formed by the horizontal angle of view on the plane, that is, the width (actual size) L0 of the imaging range can be obtained geometrically from the subject distance and the focal length of the focus lens 31F.
Since the imaging plane or the captured image and the plane are similar, the ratio of the imaging range width (actual size) L0 to the original image horizontal width W0 is the subject horizontal width (actual size) L1 and the subject. Is equal to the ratio to the horizontal width W1 of the angler's image.
From the above, the horizontal width (actual size) L1 of the subject can be obtained by the following equation (3).
Figure 2013197894
In Expression (3), L0 indicates the width (actual size) of the imaging range corresponding to the horizontal angle of view, W0 indicates the horizontal width of the original image, and W1 indicates the horizontal width of the subject image included in the original image. ing.
Further, the horizontal width W1 of the main subject image can be obtained by measuring the horizontal width of the frame of the main subject image.

以上、被写体の幅(実寸)を計測する計測手法について説明した。被写体の垂直方向の長さを計測する場合には、上記の計測手法において、水平画角及び水平幅の代わりに垂直画角及び垂直幅を用いればよい。
図3(A)〜(C)を参照して説明したとおり、フォーカスレンズのレンズアドレス、及び、原画像の水平幅に対する被写体像の長さの比が決定されると、被写体の長さ(実寸)を計測することが可能である。
The measurement method for measuring the width (actual size) of the subject has been described above. When measuring the length of the subject in the vertical direction, the vertical angle of view and the vertical width may be used instead of the horizontal angle of view and the horizontal width in the measurement method described above.
As described with reference to FIGS. 3A to 3C, when the lens address of the focus lens and the ratio of the length of the subject image to the horizontal width of the original image are determined, the length of the subject (actual size) ) Can be measured.

以下、図2に戻って、指標画像表示処理の各機能の説明をする。
なお、本実施形態においては、情報取得部42は、主要被写体の長手方向の長さを、主要被写体の長さとして計測する。そして、主要被写体像の横方向の長さは、主要被写体像の枠の水平幅を計測することにより求めることができる。また、主要被写体像の垂直方向の長さは主要被写体像の枠の垂直幅を計測することにより求めることができる。
計測対象の情報は、長さに特に限定されず、例えば主要被写体の面積等、大きさを表す情報であれば、任意の情報でよい。
Hereinafter, returning to FIG. 2, each function of the index image display processing will be described.
In the present embodiment, the information acquisition unit 42 measures the length of the main subject in the longitudinal direction as the length of the main subject. The horizontal length of the main subject image can be obtained by measuring the horizontal width of the main subject image frame. Further, the vertical length of the main subject image can be obtained by measuring the vertical width of the main subject image frame.
The information on the measurement target is not particularly limited to the length, and may be any information as long as the information indicates the size, such as the area of the main subject.

情報取得部42は、主要被写体の情報(例えば、長さのデータ)を計測した後、当該情報を指標画像取得部52に供給する。そして、後述するように、原画像のデータから指標画像のデータを生成する場合には、情報取得部42は、当該情報及び主要被写体の枠のデータを指標画像生成部56に供給する。   The information acquisition unit 42 measures main subject information (for example, length data), and then supplies the information to the index image acquisition unit 52. Then, as will be described later, when generating index image data from original image data, the information acquisition unit 42 supplies the information and main subject frame data to the index image generation unit 56.

更に、情報取得部42は、上述の被写体の長さ(実寸)を求める過程で、被写体の水平幅(実寸)L1と被写体像の水平幅W1の値の比を算定する。つまり、情報取得部42は、実世界における被写体の長さ(実寸)に対する、表示部19に表示された被写体像の長さの比(以下、「縮尺情報」と呼ぶ)、即ち、W1/L1を算定する。そして、情報取得部42は、算定された原画像の縮尺情報を指標画像変換部54に供給する。   Further, the information acquisition unit 42 calculates the ratio of the horizontal width (actual size) L1 of the subject and the horizontal width W1 of the subject image in the process of obtaining the length (actual size) of the subject. That is, the information acquisition unit 42 has a ratio of the length of the subject image displayed on the display unit 19 to the length (actual size) of the subject in the real world (hereinafter referred to as “scale information”), that is, W1 / L1. Is calculated. Then, the information acquisition unit 42 supplies the calculated scale information of the original image to the index image conversion unit 54.

指標画像取得部52は、情報取得部42により計測された主要被写体の情報(例えば、長さのデータ)を情報取得部42から取得する。
更に、指標画像取得部52は、当該主要被写体の情報をユーザに直感的に把握させる指標となる画像(以下、「指標画像」と呼ぶ)のデータを記憶部20から取得する。
本実施形態では、指標画像取得部52が記憶部20から指標画像のデータを取得するとしたが、これに限定されない。指標画像取得部52は、通信部21を介して、インターネット上のWebサイトから指標画像のデータを取得してもよい。この場合、通信部21は、インターネットを含むネットワークを介してWebサーバとの間で行う通信を制御する。更に、指標画像取得部52は、リムーバブルメディア34に記憶された指標画像のデータを取得してもよい。
The index image acquisition unit 52 acquires information (for example, length data) of the main subject measured by the information acquisition unit 42 from the information acquisition unit 42.
Further, the index image acquisition unit 52 acquires data of an image (hereinafter referred to as “index image”) serving as an index that allows the user to intuitively grasp the information of the main subject from the storage unit 20.
In the present embodiment, the index image acquisition unit 52 acquires the index image data from the storage unit 20, but the present invention is not limited to this. The index image acquisition unit 52 may acquire index image data from a website on the Internet via the communication unit 21. In this case, the communication unit 21 controls communication performed with the Web server via a network including the Internet. Further, the index image acquisition unit 52 may acquire index image data stored in the removable medium 34.

指標画像が表す物体は、必ずしも鑑賞者が当該物体の長さ等の数値自体を認識している必要はなく、鑑賞者が当該物体の長さを直感的に把握しているものであればよい。例えば、指標画像が表す物体は、鑑賞者が日常的に使用する物体や、経験的に見たことがある物体や建造物等であることが好適である。
図4は、指標画像表示処理に使用される指標画像の具体例を示す模式図である。
図4には、(A)タバコの箱を示す指標画像C1、(B)飲料用350ml缶を示す指標画像C2、(C)飲料用ペットボトルを示す指標画像C3、大仏を示す指標画像C4、及びTタワーを示す指標画像C5が示されている。
指標画像のデータは、その形態は特に限定されないが、本実施形態では、Exif形式の画像ファイルであるものとする。本実施形態においては、Exif形式の画像ファイルのタグ情報には、指標画像のID(Identification)情報及び指標画像の表す物体の実世界における大きさを表す情報(例えば、長さ)が含まれているものとする。
The object represented by the index image does not necessarily have to be recognized by the viewer, such as the length of the object itself, and may be any object that the viewer can intuitively grasp the length of the object. . For example, the object represented by the index image is preferably an object that is regularly used by a viewer, an object that has been seen empirically, a building, or the like.
FIG. 4 is a schematic diagram illustrating a specific example of the index image used for the index image display processing.
FIG. 4 includes (A) an index image C1 indicating a cigarette box, (B) an index image C2 indicating a 350 ml can for beverages, (C) an index image C3 indicating a beverage bottle, and an index image C4 indicating a Buddha. And the index image C5 showing the T tower is shown.
The form of the index image data is not particularly limited, but in the present embodiment, it is assumed to be an Exif format image file. In the present embodiment, the tag information of the Exif format image file includes ID (Identification) information of the index image and information (for example, length) indicating the size of the object represented by the index image in the real world. It shall be.

以下、図2に戻って、指標画像表示処理を実行する場合における機能ブロックの各機能を説明する。
指標画像取得部52は、情報取得部42により計測された主要被写体像の情報(例えば、長さのデータ)と指標画像のデータを指標画像選択部53に供給する。
Hereinafter, returning to FIG. 2, each function of the functional block when the index image display process is executed will be described.
The index image acquisition unit 52 supplies information (for example, length data) of the main subject image and index image data measured by the information acquisition unit 42 to the index image selection unit 53.

指標画像選択部53は、情報取得部42により取得された情報に基づいて、主要被写体像に対応する指標画像のデータを選択する。   The index image selection unit 53 selects index image data corresponding to the main subject image based on the information acquired by the information acquisition unit 42.

具体的には、指標画像選択部53は、主要被写体像の情報(例えば、長さのデータ)と指標画像のデータとを指標画像取得部52から取得する。
指標画像選択部53は、主要被写体像の情報に近似する情報をもつ物体(主要被写体の長さの所定範囲内にある長さをもつ物体)を示す指標画像のデータを選択する。ここで、所定範囲は、主要被写体の長さに対する比率の範囲(例えば、主要被写体の長さの0.7〜1.3倍)としてもよく、差の範囲(例えば、主要被写体の長さとの差が±5cm以内)としてもよい。更に、これらの比率や差は、主要被写体の長さに応じて変化させてよい。
Specifically, the index image selection unit 53 acquires information on the main subject image (for example, length data) and index image data from the index image acquisition unit 52.
The index image selection unit 53 selects index image data indicating an object (an object having a length within a predetermined range of the length of the main subject) having information approximate to the information of the main subject image. Here, the predetermined range may be a range of a ratio to the length of the main subject (for example, 0.7 to 1.3 times the length of the main subject), or a range of difference (for example, the length of the main subject). The difference may be within ± 5 cm). Further, these ratios and differences may be changed according to the length of the main subject.

指標画像選択部53が、主要被写体像の情報に近似する情報をもつ指標画像(主要被写体の長さの所定範囲内にある長さをもつ指標画像)を選択すると、当該指標画像のデータを表示制御部43に供給する。表示制御部43は、当該指標画像、及び当該指標画像をユーザが選択する画像を表示部19に表示させるよう制御する。
そして、表示部19に表示された当該指標画像の中から、ユーザは、操作部18を操作して、所望の指標画像を選択し、指定する。ユーザにより指定された指標画像(以下、「指定指標画像」と呼ぶ)のID情報は、指標画像選択部53に通知される。
次に、ユーザは、操作部18を操作して、指定指標画像を原画像に重畳させて表示する位置(以下、「指定位置」と呼ぶ)を指定する。この際、ユーザは、原画像が表示されたタッチパネル等により、指定位置を決定するようにしてもよい。
指標画像選択部53は、指定指標画像のID情報を、指標画像変換部54に供給する。
また、指標画像選択部53は、指定位置の情報を、画像合成部55に供給する。
When the index image selection unit 53 selects an index image (an index image having a length within a predetermined range of the length of the main subject) having information approximate to the information of the main subject image, the index image data is displayed. It supplies to the control part 43. The display control unit 43 controls the display unit 19 to display the index image and an image from which the user selects the index image.
Then, the user operates the operation unit 18 from the index images displayed on the display unit 19 to select and specify a desired index image. ID information of the index image designated by the user (hereinafter referred to as “designated index image”) is notified to the index image selection unit 53.
Next, the user operates the operation unit 18 to designate a position (hereinafter referred to as “designated position”) where the designated index image is displayed superimposed on the original image. At this time, the user may determine the designated position using a touch panel or the like on which the original image is displayed.
The index image selection unit 53 supplies the ID information of the designated index image to the index image conversion unit 54.
In addition, the index image selection unit 53 supplies the information on the designated position to the image composition unit 55.

指標画像変換部54は、指標画像選択部53から通知された指標画像のID情報に対応する指標画像のデータを記憶部20から取得するとともに、原画像の縮尺情報を情報取得部42から取得する。そして、指標画像変換部54は、取得した指標画像のデータを、実世界における指標画像が表す物体の長さと表示される指標画像の長さとの比が、原画像の縮尺情報が示す比と同一となるように変換する。
ここで、指標画像変換部54により変換された指標画像のデータを、以下、「変換指標画像のデータ」と呼ぶ。
指標画像変換部54は、変換指標画像のデータを画像合成部55に供給する。
The index image conversion unit 54 acquires index image data corresponding to the ID information of the index image notified from the index image selection unit 53 from the storage unit 20, and acquires scale information of the original image from the information acquisition unit 42. . Then, the index image conversion unit 54 has the same ratio of the length of the object represented by the index image in the real world and the length of the displayed index image as the ratio indicated by the scale information of the original image. Is converted to
The index image data converted by the index image conversion unit 54 is hereinafter referred to as “converted index image data”.
The index image conversion unit 54 supplies the converted index image data to the image synthesis unit 55.

画像合成部55は、画像取得部51から原画像のデータを取得する。
また、画像合成部55は、指標画像変換部54から変換指標画像のデータを取得する。
更に、画像合成部55は、指標画像選択部53から指定位置の情報を取得する。
そして、画像合成部55は、指定位置の情報に基づいて、原画像のデータに対して変換指標画像のデータを合成することによって、変換指標画像を原画像のなかの指定位置に重畳させた画像(以下、「合成画像」と呼ぶ)のデータを生成する。
The image composition unit 55 acquires the original image data from the image acquisition unit 51.
Further, the image composition unit 55 acquires the data of the conversion index image from the index image conversion unit 54.
Further, the image composition unit 55 acquires information on the designated position from the index image selection unit 53.
Then, the image composition unit 55 synthesizes the data of the conversion index image with the data of the original image based on the information on the designated position, thereby superimposing the conversion index image on the designated position in the original image. (Hereinafter referred to as “composite image”).

原画像に含まれる主要被写体像を、次回以降の撮像時に指標画像として使用したいとユーザが所望する場合がある。かかる場合、ユーザは、操作部18を操作することにより、主要被写体像から指標画像を生成することを指示する。
指標画像生成部56は、指標画像の生成指示を受け取ると、画像取得部51から原画像のデータ、情報取得部42から主要被写体の情報(例えば、長さのデータ)及び主要被写体像の枠のデータを受け取る。そして、指標画像生成部56は、主要被写体像の枠内の画像領域のデータを指標画像のデータとして生成する。この際、記憶制御部44は、生成された指標画像のデータを記憶部20に記憶するよう制御する。同時に、記憶制御部44は、指標画像のデータに付加されたタグ情報に、上記の主要被写体の情報(長さ(実寸)のデータ)を記憶するよう制御する。
In some cases, the user desires to use the main subject image included in the original image as an index image in the next and subsequent imaging. In such a case, the user operates the operation unit 18 to instruct to generate an index image from the main subject image.
Upon receiving the index image generation instruction, the index image generation unit 56 receives the original image data from the image acquisition unit 51, the main subject information (for example, length data) from the information acquisition unit 42, and the main subject image frame. Receive data. Then, the index image generation unit 56 generates data of the image area within the frame of the main subject image as index image data. At this time, the storage control unit 44 controls to store the generated index image data in the storage unit 20. At the same time, the storage control unit 44 controls to store the information on the main subject (length (actual size) data) in the tag information added to the index image data.

表示制御部43は、原画像や合成画像等を表示部19に表示させる制御を実行する。   The display control unit 43 executes control for causing the display unit 19 to display an original image, a composite image, and the like.

記憶制御部44は、ユーザによる指示があった場合等、必要に応じて、画像合成部55により生成された合成画像のデータを、リムーバブルメディア34に記録する。   The storage control unit 44 records the composite image data generated by the image composition unit 55 on the removable medium 34 as necessary, for example, when there is an instruction from the user.

以上、図2乃至図4を参照して、本実施形態の画像処理装置1の機能的構成について説明した。   The functional configuration of the image processing apparatus 1 according to the present embodiment has been described above with reference to FIGS.

次に、CPU11により構成される主要被写体検出部41乃至記憶制御部44、並びに、DSP14により構成される画像取得部51乃至指標画像生成部56の各機能の詳細について、即ち、指標画像表示処理の実行機能の詳細について、図5を参照して具体的に説明する。
図5は、指標画像表示処理の結果の具体例としての各画像を示す模式図である。
図5(A)には、釣り人91や魚92の被写体像を含む原画像81が示されている。
また、図5(A)では、魚92の像の中央付近にフォーカス・エリアを示す枠FW5が示されている。つまり、フォーカスレンズは、被写体としての魚の中央付近に合焦するレンズアドレスに位置している。
Next, details of each function of the main subject detection unit 41 to storage control unit 44 configured by the CPU 11 and the image acquisition unit 51 to index image generation unit 56 configured by the DSP 14, that is, index image display processing. Details of the execution function will be specifically described with reference to FIG.
FIG. 5 is a schematic diagram showing each image as a specific example of the result of the index image display process.
FIG. 5A shows an original image 81 including subject images of anglers 91 and fish 92.
In FIG. 5A, a frame FW5 indicating a focus area is shown near the center of the fish 92 image. That is, the focus lens is positioned at a lens address that focuses on the vicinity of the center of the fish as the subject.

そして、主要被写体検出部41は、フォーカス・エリアを示す枠FW5内又はフォーカス・エリアを含む所定範囲の原画像のコントラストの勾配から、主要被写体像、即ち、魚92の像を検出する。
この場合、表示制御部43は、検出された主要被写体を特定可能なシンボル等を原画像81に重畳させて表示部19に表示させる。具体的には例えば図5(A)の例では、主要被写体像の枠CW5によって、魚92が主要被写体であることが特定される。
Then, the main subject detection unit 41 detects the main subject image, that is, the image of the fish 92, from the contrast gradient of the original image within a predetermined range including the focus area within the frame FW5 indicating the focus area.
In this case, the display control unit 43 causes the display unit 19 to display a symbol or the like that can identify the detected main subject superimposed on the original image 81. Specifically, in the example of FIG. 5A, for example, the fish 92 is specified as the main subject by the frame CW5 of the main subject image.

次に、情報取得部42は、主要被写体像の情報として、主要被写体の長さ、即ち、魚92の長手方向(垂直方向)の長さを取得する。本実施形態においては、情報取得部42により、魚92の長さは22cmであると計測されたものとする。情報取得部42は、指標画像取得部52に計測した魚92の長さのデータを、主要被写体像の情報として供給する。
そして、指標画像取得部52は、情報取得部42から供給される主要被写体像の情報(長さのデータ)を取得するとともに、記憶部20から指標画像のデータを取得する。
指標画像取得部52は、指標画像のデータ及び主要被写体像の情報(長さのデータ)を、指標画像選択部53に供給する。
Next, the information acquisition unit 42 acquires the length of the main subject, that is, the length of the fish 92 in the longitudinal direction (vertical direction) as information on the main subject image. In the present embodiment, it is assumed that the length of the fish 92 is measured by the information acquisition unit 42 to be 22 cm. The information acquisition unit 42 supplies the data of the length of the fish 92 measured to the index image acquisition unit 52 as information on the main subject image.
The index image acquisition unit 52 acquires information (length data) of the main subject image supplied from the information acquisition unit 42 and acquires index image data from the storage unit 20.
The index image acquisition unit 52 supplies index image data and main subject image information (length data) to the index image selection unit 53.

指標画像選択部53は、指標画像取得部52から供給された指標画像のデータと主要被写体像の情報(長さのデータ)とに基づき、主要被写体の長さに対して所定範囲内の長さの物体を示す指標画像のデータを選択する。
本実施形態では、指標画像選択部53は、主要被写体の長さが30cm以下の場合は、主要被写体の長さを基準として0.4倍〜1.2倍の範囲内の長さの物体の指標画像を選択するものとする。即ち、指標画像取得部52は、主要被写体である魚92の長さ22cmの0.4倍〜1.2倍に相当する8.8cm〜26cmの範囲内の長さの物体の指標画像のデータを選択する。この結果、指標画像選択部53は、長さ9cmのタバコの箱を示す指標画像C1、長さ12cmの飲料用350ml缶を示す指標画像C2、長さ20cmの飲料用ペットボトルを示す指標画像C3を、指定指標画像となる候補として決定する。
The index image selection unit 53 has a length within a predetermined range with respect to the length of the main subject based on the index image data and the main subject image information (length data) supplied from the index image acquisition unit 52. The index image data indicating the object is selected.
In this embodiment, when the length of the main subject is 30 cm or less, the index image selection unit 53 selects an object having a length within a range of 0.4 to 1.2 times with respect to the length of the main subject. Assume that an index image is selected. That is, the index image acquisition unit 52 stores index image data of an object having a length in the range of 8.8 cm to 26 cm corresponding to 0.4 times to 1.2 times the length 22 cm of the main subject fish 92. Select. As a result, the index image selection unit 53 displays an index image C1 indicating a cigarette box having a length of 9 cm, an index image C2 indicating a 350 ml can for beverage having a length of 12 cm, and an index image C3 indicating a plastic bottle for beverage having a length of 20 cm. Are determined as candidates for the designated index image.

指標画像選択部53は、表示制御部43に、当該指標画像C1、C2、C3、及び指標画像を選択するための表示画面(以下、「指標画像選択画面」と呼ぶ)を表示するように通知する。   The index image selection unit 53 notifies the display control unit 43 to display the index image C1, C2, C3 and a display screen for selecting the index image (hereinafter referred to as “index image selection screen”). To do.

そして、表示制御部43は、指標画像選択画面KW1を表示部19に表示させる。図5(B)に示すように、指標画像選択画面KW1内には、指標画像選択部53により決定された指定指標画像の候補が、指標画像選択画面KW1内の上から下に向かって、指標画像の表す物体の長さの大きい順に、指標画像C3、C2、C1が表示されている。
したがって、ユーザは、指標画像選択画面KW1内の指標画像が示す物体の長さの大小関係を容易に把握することができる。
Then, the display control unit 43 causes the display unit 19 to display the index image selection screen KW1. As shown in FIG. 5B, in the index image selection screen KW1, candidates for the designated index image determined by the index image selection unit 53 are indexed from the top to the bottom in the index image selection screen KW1. Index images C3, C2, and C1 are displayed in descending order of the length of the object represented by the image.
Therefore, the user can easily grasp the magnitude relationship between the lengths of the objects indicated by the index images in the index image selection screen KW1.

更に、指定指標画像の候補の画像の横にはスケールSL1が表示される。指示線CL1、CL2、CL3は、指標画像C1、C2、C3がそれぞれ示す物体の長さに相当する目盛りを指し示している。即ち、指示線CL1、CL2、CL3は、指標画像C1、C2、C3の示す物体が、それぞれ9cm、12cm、20cmであることを示している。ユーザは、これらの指示線の示す目盛りを読み取ることにより、指標画像の示す物体の長さを数値として把握することができる。
更に、指標画像選択画面KW1内では、矢印AR1が、主要被写体である魚92の長さ22cmに相当するスケールSL1の目盛りを指し示している。ユーザは、矢印の指し示す目盛りを読み取ることにより、主要被写体の長さを数値として把握することができる。
Further, a scale SL1 is displayed beside the candidate image for the designated index image. The instruction lines CL1, CL2, and CL3 indicate scales corresponding to the lengths of the objects indicated by the index images C1, C2, and C3, respectively. That is, the instruction lines CL1, CL2, and CL3 indicate that the objects indicated by the index images C1, C2, and C3 are 9 cm, 12 cm, and 20 cm, respectively. The user can grasp the length of the object indicated by the index image as a numerical value by reading the scales indicated by these instruction lines.
Further, in the index image selection screen KW1, the arrow AR1 indicates the scale SL1 corresponding to the length of 22 cm of the main subject fish 92. The user can grasp the length of the main subject as a numerical value by reading the scale indicated by the arrow.

次に、ユーザは、指標画像選択画面KW1内に表示された指標画像C1、C2、C3のなかから、操作部18を操作して、タバコの箱を示す指標画像C1及び飲料用350ml缶を示す指標画像C2を、指定指標画像として指定したとする。この場合、ユーザにより指定された指標画像のID情報は、指標画像選択部53に通知される。
更に、ユーザは、操作部18を操作して、当該指定指標画像、即ち、指標画像C1及びC2を、魚92の像の右隣及び左隣に、それぞれ配置するよう指定したとする。
指標画像選択部53は、指標画像C1及びC2のデータのID情報を指標画像変換部54に供給する。
Next, the user operates the operation unit 18 from among the index images C1, C2, and C3 displayed in the index image selection screen KW1, and shows the index image C1 indicating a cigarette box and a 350 ml can for beverages. Assume that the index image C2 is designated as the designated index image. In this case, the index image selection unit 53 is notified of the ID information of the index image designated by the user.
Furthermore, it is assumed that the user operates the operation unit 18 and designates the designated index images, that is, the index images C1 and C2 to be arranged on the right side and the left side of the image of the fish 92, respectively.
The index image selection unit 53 supplies the ID information of the data of the index images C1 and C2 to the index image conversion unit 54.

指標画像変換部54は、指標画像選択部53から供給された指標画像のデータのID情報に対応する指標画像C1及びC2のデータを原画像の縮尺情報と同一の変換指標画像D1及びD2のデータに変換する。
指標画像変換部54は、変換指標画像D1及びD2のデータを画像合成部55に供給する。
The index image conversion unit 54 converts the index image data C1 and C2 corresponding to the ID information of the index image data supplied from the index image selection unit 53 to the same converted index image D1 and D2 data as the scale information of the original image. Convert to
The index image conversion unit 54 supplies the data of the conversion index images D1 and D2 to the image synthesis unit 55.

画像合成部55は、画像取得部51から供給される原画像のデータと、指標画像選択部53から供給される指定位置の情報と、指標画像変換部54から供給される変換指標画像D2及びD3のデータと、指定位置の情報を受け取る。そして、画像合成部55は、変換指標画像を原画像中の指定位置に重畳して表示させた合成画像101のデータを生成する。
そして、表示制御部43は、図5(C)に示すような合成画像101を表示部19に表示させる。
なお、図5(A)及び(B)においては、説明の便宜上、フォーカス・エリアを示す枠FW5が示されているが、このようなフォーカス・エリアの枠の表示は特に必須ではなく、実際には表示を省略しても構わない。
The image composition unit 55 includes data of the original image supplied from the image acquisition unit 51, information on the designated position supplied from the index image selection unit 53, and conversion index images D2 and D3 supplied from the index image conversion unit 54. Data and information on the specified position. Then, the image composition unit 55 generates data of the composite image 101 that is displayed by superimposing the conversion index image on the designated position in the original image.
Then, the display control unit 43 causes the display unit 19 to display the composite image 101 as shown in FIG.
In FIGS. 5A and 5B, a frame FW5 indicating a focus area is shown for convenience of explanation, but such a display of the frame of the focus area is not particularly essential, and actually May be omitted.

指標画像生成部56は、主要被写体像の枠内の画像領域のデータを新たな指標画像のデータとして生成するか否かをユーザに選択させる画面のデータを生成する。表示制御部43は、当該画面を表示部19に表示させる。
指標画像生成部56は、ユーザによる操作部18の操作により、指標画像を生成する旨の通知を受けると、画像取得部51から原画像のデータ、情報取得部42から主要被写体像の情報(ここでは魚92の長さのデータ)及び主要被写体像の枠CW5のデータを受け取る。
そして、指標画像生成部56は、主要被写体像の枠CW5内の魚92の像を含む画像領域のデータを新たな指標画像のデータとして生成する。この際、記憶制御部44は、生成した指標画像のデータに付加されたタグ情報に、主要被写体である魚92の長さのデータを記録する。
The index image generation unit 56 generates screen data that allows the user to select whether or not to generate data of an image area within the frame of the main subject image as new index image data. The display control unit 43 causes the display unit 19 to display the screen.
When the index image generation unit 56 receives a notification to generate an index image by the operation of the operation unit 18 by the user, the index image generation unit 56 receives the original image data from the image acquisition unit 51 and the information on the main subject image from the information acquisition unit 42 Then, the data of the length of the fish 92) and the data of the frame CW5 of the main subject image are received.
Then, the index image generation unit 56 generates data of an image area including the image of the fish 92 within the frame CW5 of the main subject image as new index image data. At this time, the storage control unit 44 records the length data of the fish 92 as the main subject in the tag information added to the generated index image data.

記憶制御部44は、必要に応じて、合成画像101のデータをリムーバブルメディア34に記憶させる。   The storage control unit 44 stores the data of the composite image 101 in the removable medium 34 as necessary.

なお、指標画像のデータは、指標画像取得部52によって取得される段階で、記憶部20に記憶されていれば足りる。
また、ユーザが操作部18を操作して、上記のように指標画像生成部56により新たな指標画像のデータが生成された場合、当該指標画像のデータを記憶部20に事後的に記憶させることもできる。
更に、通信部21やドライブ22等を介して得られた指標画像のデータを、記憶部20に記憶させることもできる。
The index image data only needs to be stored in the storage unit 20 at the stage of being acquired by the index image acquisition unit 52.
When the user operates the operation unit 18 and the index image generation unit 56 generates new index image data as described above, the index image data is stored in the storage unit 20 afterwards. You can also.
Furthermore, index image data obtained via the communication unit 21, the drive 22, and the like can be stored in the storage unit 20.

本実施形態では、指標画像の示す物体の情報(例えば、長さ等のデータ)及び撮像条件のデータを指標画像のデータに付加されたタグ情報として格納しているが、これに特に限定されない。例えば、複数の指標画像のデータの各々に対して、当該指標画像の情報(例えば長さのデータ)が対応付けられたテーブルが参照されてもよい。   In this embodiment, object information (for example, data such as length) indicated by the index image and imaging condition data are stored as tag information added to the index image data. However, the present invention is not particularly limited thereto. For example, a table in which information (for example, length data) of the index image is associated with each of the plurality of index image data may be referred to.

次に、このような機能的構成を有する画像処理装置1が実行する処理のうち、指標画像表示処理の流れについて説明する。
図6は、図2の機能的構成を有する図1の画像処理装置1が実行する指標画像表示処理の流れを示すフローチャートである。
Next, the flow of the index image display process among the processes executed by the image processing apparatus 1 having such a functional configuration will be described.
FIG. 6 is a flowchart showing the flow of the index image display process executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

指標画像表示処理は、本実施形態においては、ユーザが操作部18を操作して、指標画像表示処理の指示をした後に、撮像部17による撮像動作が行われたことを契機にして開始される。   In this embodiment, the index image display process is started when the user operates the operation unit 18 to instruct the index image display process and then the imaging operation by the imaging unit 17 is performed. .

ステップS1において、画像取得部51は、撮像部17から出力された撮像画像のデータを、原画像のデータとして取得する。例えば、図5(A)の原画像81のデータが取得されたものとする。   In step S <b> 1, the image acquisition unit 51 acquires captured image data output from the imaging unit 17 as original image data. For example, it is assumed that the data of the original image 81 in FIG.

ステップS2において、主要被写体検出部41は、ステップS1の処理で取得された原画像のデータに基づいて、当該原画像の中の主要被写体像を検出する。例えば、主要被写体検出部41は、図5(A)に示すように、主要被写体像の枠で囲まれる魚92の像を主要被写体像として検出したものとする。   In step S2, the main subject detection unit 41 detects the main subject image in the original image based on the original image data acquired in the process of step S1. For example, as shown in FIG. 5A, the main subject detection unit 41 detects a fish 92 image surrounded by a frame of the main subject image as the main subject image.

ステップS3において、情報取得部42は、ステップS2の処理で検出された主要被写体の長さのデータを、主要被写体像の情報として取得する。例えば、情報取得部42は、ステップS2の処理で検出された魚92の長手方向(垂直方向)の長さ(実寸)のデータを、主要被写体像の情報として取得する。例えば、主要被写体である魚92の長さ22cmが計測されて、その計測結果のデータが主要被写体像の情報として取得されたものとする。   In step S3, the information acquisition unit 42 acquires data on the length of the main subject detected in the process of step S2 as information on the main subject image. For example, the information acquisition unit 42 acquires data on the length (actual size) in the longitudinal direction (vertical direction) of the fish 92 detected in the process of step S2 as information on the main subject image. For example, it is assumed that a length of 22 cm of the fish 92 as the main subject is measured, and data of the measurement result is acquired as information on the main subject image.

ステップS4において、指標画像取得部52は、主要被写体像の情報の所定範囲内にある指標画像のデータを選択する。具体的には、指標画像取得部52は、主要被写体像の情報(長さのデータ)を情報取得部42から取得し、記憶部20から指標画像のデータを取得する。そして、指標画像選択部53は、指標画像取得部52から指標画像のデータ及び主要被写体の長さのデータが供給されると、主要被写体の長さの所定範囲内の長さの物体を示す指標画像のデータを選択する。
例えばここでは、主要被写体である魚92の長さは22cmであると計測されており、所定範囲は、主要被写体の長さの0.4〜1.2倍と設定されている。したがって、物体の長さが、8.8cm〜26cmの範囲内にある指標画像、即ち、長さが9cmのタバコの箱を示す指標画像C1と、長さが12cmの飲料用350ml缶を示す指標画像C2と、長さが20cmの飲料用ペットボトルを示す指標画像C3の各データが選択される。
In step S4, the index image acquisition unit 52 selects index image data within a predetermined range of information of the main subject image. Specifically, the index image acquisition unit 52 acquires information (length data) of the main subject image from the information acquisition unit 42 and acquires index image data from the storage unit 20. Then, when the index image data and the length data of the main subject are supplied from the index image acquisition unit 52, the index image selection unit 53 indicates an object having a length within a predetermined range of the length of the main subject. Select image data.
For example, here, the length of the main subject fish 92 is measured to be 22 cm, and the predetermined range is set to 0.4 to 1.2 times the length of the main subject. Therefore, an index image in which the length of the object is in the range of 8.8 cm to 26 cm, that is, an index image C1 indicating a cigarette box having a length of 9 cm, and an index indicating a 350 ml can for beverage having a length of 12 cm. Each data of the image C2 and the index image C3 indicating a beverage plastic bottle having a length of 20 cm is selected.

ステップS5において、表示制御部43は、指標画像選択画面を表示部19に表示させる。
例えば本実施形態では、図5(B)に示すように指標画像選択画面KW1が表示部19に表示される。そして、指標画像選択画面KW1内では、上から下に大きい順に指標画像C3、C2、C1が表示される。
In step S5, the display control unit 43 causes the display unit 19 to display an index image selection screen.
For example, in the present embodiment, an index image selection screen KW1 is displayed on the display unit 19 as shown in FIG. In the index image selection screen KW1, index images C3, C2, and C1 are displayed in descending order from top to bottom.

ステップS6において、指標画像選択部53は、指標画像選択画面内の指標画像のなかから指定指標画像を選択するようにユーザに報知する。   In step S6, the index image selection unit 53 notifies the user to select the specified index image from the index images in the index image selection screen.

ステップS7において、指標画像選択部53は、指標画像が選択されたか否かを判定する。   In step S7, the index image selection unit 53 determines whether an index image has been selected.

指標画像が選択されない場合には、ステップS7においてNOであると判定されて、処理はステップS6に戻される。即ち、指標画像選択部53は、指標画像選択画面内の指標画像のなかから指定指標画像を選択するようにユーザに再び報知する。指標画像が選択されるまでの間、ステップS6及びS7のループ処理が繰り返し実行されることによって、指標画像表示処理は待機状態になる。なお、図示はしないが、所定時間経過しても未だ指標画像が選択されない場合には、指標画像表示処理を終了するようにしてもよい。   When the index image is not selected, it is determined as NO in Step S7, and the process returns to Step S6. That is, the index image selection unit 53 notifies the user again so as to select the designated index image from among the index images in the index image selection screen. Until the index image is selected, the index image display process enters a standby state by repeatedly executing the loop processing of steps S6 and S7. Although not shown, the index image display process may be terminated if the index image is not yet selected even after a predetermined time has elapsed.

その後、指標画像が選択された場合には、ステップS7においてYESであると判定されて、処理はステップS8に進む。   Thereafter, when the index image is selected, it is determined as YES in Step S7, and the process proceeds to Step S8.

ステップS8において、指標画像選択部53は、ユーザによる操作部18の操作により、指定指標画像の原画像における指定位置を決定する。これに対応して、指標画像変換部54は、原画像の縮尺情報と同一の縮尺情報となるように指定指標画像のデータを変換指標画像のデータに変換する。   In step S8, the index image selection unit 53 determines the designated position in the original image of the designated index image by the operation of the operation unit 18 by the user. In response to this, the index image conversion unit 54 converts the data of the specified index image into the data of the converted index image so that the scale information is the same as the scale information of the original image.

ステップS9において、画像合成部55は、ステップS1の処理で取得された原画像のデータと、ステップS8の処理で生成された変換指標画像のデータとを合成することによって、合成画像のデータを生成する。   In step S <b> 9, the image composition unit 55 generates composite image data by combining the original image data acquired in step S <b> 1 and the conversion index image data generated in step S <b> 8. To do.

ステップS10において、表示制御部43は、ステップS9の処理で生成された合成画像のデータを表示部19に表示させる。   In step S <b> 10, the display control unit 43 causes the display unit 19 to display the composite image data generated in the process of step S <b> 9.

ステップS11において、指標画像変換部54は、指標画像の選択が全て終了したか否かを判定する。全て終了していない場合には、ステップS11においてNOであると判定されて、処理はステップS7に戻される。即ち、ユーザが複数の指標画像を原画像に重畳させて表示させたいと望む場合には、ステップS7に戻って、再度、指標画像を選択することによって、複数の指標画像を原画像に重畳させて表示させることができる。
本実施形態では図5(C)に示すように、原画像81の魚92の横に、タバコの箱の指標画像C1と飲料用350ml缶の指標画像C2とを重畳させた合成画像101のデータが生成される。
指標画像の選択が全て終了した場合には、ステップS11においてYESであると判定されて、処理はステップS12に進む。
In step S11, the index image conversion unit 54 determines whether or not all index image selections have been completed. If all the processes have not been completed, it is determined as NO in Step S11, and the process returns to Step S7. In other words, when the user desires to display a plurality of index images superimposed on the original image, the process returns to step S7 to select the index image again, thereby superimposing the plurality of index images on the original image. Can be displayed.
In this embodiment, as shown in FIG. 5C, data of the composite image 101 in which the index image C1 of the cigarette box and the index image C2 of the 350 ml can for beverage are superimposed next to the fish 92 of the original image 81. Is generated.
If all the index images have been selected, it is determined as YES in Step S11, and the process proceeds to Step S12.

ステップS12において、記憶制御部44は、保存指示があったか否かを判定する。
即ち、ユーザは、操作部18を操作することによって、表示部19に表示された合成画像のデータを保存するか否かの保存指示をすることができる。
このような保存指示があった場合には、ステップS12においてYESであると判定されて、処理はステップS13に進む。
保存の指示がない場合には、ステップS12においてNOであると判定されて、処理はステップS14に進む。
In step S12, the storage control unit 44 determines whether or not there is a save instruction.
That is, the user can instruct to save whether or not to save the composite image data displayed on the display unit 19 by operating the operation unit 18.
If there is such a storage instruction, it is determined as YES in step S12, and the process proceeds to step S13.
If there is no save instruction, it is determined as NO in step S12, and the process proceeds to step S14.

ステップS13において、記憶制御部44は、リムーバブルメディア34に合成画像のデータを記録(保存)させる。   In step S <b> 13, the storage control unit 44 causes the removable media 34 to record (save) the composite image data.

ステップS14において、指標画像生成部56は、生成指示があったか否かを判定する。即ち、ユーザは、操作部18を操作することによって、指標画像のデータを生成するか否かの生成指示をすることができる。
このような生成指示があった場合には、ステップS14においてYESであると判定されて、処理はステップS15に進む。
これに対して、生成指示がなかった場合は、ステップS14においてNOであると判定されて、ステップS15の処理は実行されずに、即ち、指標画像のデータは生成されずに、指標画像表示処理は終了となる。
In step S <b> 14, the index image generation unit 56 determines whether or not there is a generation instruction. That is, the user can instruct generation of whether or not to generate index image data by operating the operation unit 18.
If there is such a generation instruction, it is determined as YES in step S14, and the process proceeds to step S15.
On the other hand, if there is no generation instruction, it is determined as NO in step S14, and the index image display process is performed without executing the process of step S15, that is, without generating the index image data. Ends.

ステップS15において、記憶制御部44は、指標画像のデータを記憶部20に記録(保存)させる。これにより、指標画像表示処理は終了となる。   In step S <b> 15, the storage control unit 44 records (saves) the index image data in the storage unit 20. Thereby, the index image display process is ended.

以上のように構成される画像処理装置1は、画像取得部51と、指標画像取得部52と、指標画像選択部53と、指標画像変換部54と、画像合成部55と、指標画像生成部56と、主要被写体検出部41と、情報取得部42と、表示制御部43と、記憶制御部44と、表示部19と、を備える。
画像取得部51は、被写体を含む画像のデータを、原画像のデータとして取得する。
主要被写体検出部41は、原画像のなかの主要被写体像を検出する。
情報取得部42は、原画像のデータに基づいて、原画像に含まれる主要被写体の長さ等のデータを、主要被写体像の情報として取得する。
指標画像取得部52は、主要被写体像の情報(主要被写体の長さのデータ)の所定範囲内の情報(長さ)をもつ物体の指標画像のデータを取得する。
指標画像選択部53は、指標画像のデータのなかからユーザの所望する指標画像のデータを選択する。
指標画像変換部54は、選択された指定指標画像のデータを原画像と同一の縮尺情報をもつ変換指標画像のデータに変換する。
画像合成部55は、変換指標画像が原画像に重畳された合成画像を生成する。
表示制御部43は、表示部19に各種画像を表示するよう制御を行う。
記憶制御部44は、指標画像のデータを記憶部20に記憶するように制御し、合成画像のデータをリムーバブルメディア34に記録するよう制御する。
表示部19は、主要被写体の長さに基づいて、原画像とともに指標画像を表示する。
The image processing apparatus 1 configured as described above includes an image acquisition unit 51, an index image acquisition unit 52, an index image selection unit 53, an index image conversion unit 54, an image composition unit 55, and an index image generation unit. 56, a main subject detection unit 41, an information acquisition unit 42, a display control unit 43, a storage control unit 44, and a display unit 19.
The image acquisition unit 51 acquires image data including a subject as original image data.
The main subject detection unit 41 detects a main subject image in the original image.
The information acquisition unit 42 acquires data such as the length of the main subject included in the original image as information on the main subject image based on the data of the original image.
The index image acquisition unit 52 acquires index image data of an object having information (length) within a predetermined range of main subject image information (main subject length data).
The index image selection unit 53 selects index image data desired by the user from the index image data.
The index image conversion unit 54 converts the data of the selected designated index image into data of a converted index image having the same scale information as the original image.
The image composition unit 55 generates a composite image in which the conversion index image is superimposed on the original image.
The display control unit 43 performs control to display various images on the display unit 19.
The storage control unit 44 controls the index image data to be stored in the storage unit 20 and controls the composite image data to be recorded on the removable medium 34.
The display unit 19 displays the index image together with the original image based on the length of the main subject.

要するに、第1実施形態に係る画像処理装置1は、主要被写体の情報(長さ)を、原画像及び撮像条件に基づいて、自動的に計測し、計測された主要被写体の長さの所定範囲内の長さをもつ物体の指標画像を選択する。そして、画像処理装置1は、選択された指標画像のなかから、更にユーザにより選択された指標画像のデータを、原画像と同一縮尺情報となるように原画像のデータに重畳させるようにして、合成画像のデータを生成する。
したがって、長さを直感的に把握できる物体の指標画像を主要被写体像の傍らに表示させることができる。これにより、合成画像の鑑賞者は、主要被写体の長さを直感的に把握することができる。
そして、画像処理装置1は、主要被写体の長さを、フォーカスレンズの位置及び画角の情報に基づいて、主要被写体の長さを計測し、当該主要被写体の長さの所定範囲内の長さをもつ物体の指標画像を検索することが可能である。したがって、指定指標画像の候補画像を絞り込むことができるため、ユーザは、効率的に指標画像を指定できる。
In short, the image processing apparatus 1 according to the first embodiment automatically measures the information (length) of the main subject based on the original image and the imaging conditions, and the predetermined range of the measured length of the main subject. An index image of an object having a length within is selected. Then, the image processing apparatus 1 further superimposes the index image data selected by the user from the selected index image on the original image data so as to have the same scale information as the original image. Generate composite image data.
Accordingly, an index image of an object whose length can be intuitively grasped can be displayed beside the main subject image. As a result, the viewer of the composite image can intuitively grasp the length of the main subject.
Then, the image processing apparatus 1 measures the length of the main subject based on the focus lens position and the angle of view, and measures the length of the main subject within a predetermined range of the length of the main subject. It is possible to search for an index image of an object having. Therefore, since the candidate images for the designated index image can be narrowed down, the user can efficiently designate the index image.

更に、指標画像生成部56は、原画像に含まれる主要被写体像を含む画像のデータを指標画像のデータとして生成する。
これにより、ユーザは、新たな指標画像を生成することができるので、次回以降の撮像時に今回新たに生成された指標画像を大きさの指標とすることができる。
Further, the index image generation unit 56 generates image data including the main subject image included in the original image as index image data.
As a result, the user can generate a new index image, so that the index image newly generated this time at the next and subsequent imaging can be used as an index of size.

[第2実施形態]
第1実施形態では、情報取得部42により、フォーカスレンズのレンズアドレスから算出された被写体距離と主要被写体像の長さの情報に基づいて、主要被写体の長さ(実寸)が計測され、このデータが主要被写体像のデータとして取得された。しかし、情報取得部42の主要被写体像の情報の取得手法、換言すると主要被写体の長さ(実寸)の計測手法は、特に第1実施形態の例に限定されない。
第1実施形態において説明したように、被写体距離Lがf・f/(δ・F)の値をとる場合、分母が0となるので、後方被写界深度Lrは無限大となる(式(2)参照)。これにより、一般に、フォーカスレンズ31Fとイメージセンサ32との距離bが一定値以下に達したときは、実用上、被写体距離Lが無限大までの被写体に合焦したものとして被写体距離は無限大として扱われる。したがって、被写体距離は、一定の距離以上になると、フォーカスレンズのレンズアドレス等から正確な値を測定することができないこととなる。
そこで、第2実施形態では、主要被写体の被写体距離を算定することができない場合であっても、主要被写体の大きさを表す情報(例えば、高さのデータ)を算定することができる手法について説明する。
[Second Embodiment]
In the first embodiment, the information acquisition unit 42 measures the length (actual size) of the main subject based on the information on the subject distance and the length of the main subject image calculated from the lens address of the focus lens. Was acquired as data of the main subject image. However, the main subject image information acquisition method of the information acquisition unit 42, in other words, the main subject length (actual size) measurement method is not particularly limited to the example of the first embodiment.
As described in the first embodiment, when the subject distance L takes the value of f · f / (δ · F), the denominator is 0, so that the rear depth of field Lr is infinite (formula ( 2)). Thus, generally, when the distance b between the focus lens 31F and the image sensor 32 reaches a certain value or less, the subject distance is assumed to be infinite as practically focusing on the subject up to the subject distance L being infinite. Be treated. Therefore, if the subject distance is greater than a certain distance, an accurate value cannot be measured from the lens address of the focus lens.
Therefore, in the second embodiment, a method that can calculate information (for example, height data) indicating the size of the main subject even when the subject distance of the main subject cannot be calculated will be described. To do.

以下、第1実施形態におけるハードウェア構成及び機能的構成と異なる部分を主として説明する。
図7は、第2実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。画像処理装置1は、例えばデジタルカメラにより構成することができる。
図7において、本実施形態における画像処理装置1は、第1実施形態における図1の構成に加え、GPS受信機23を備えている。
GPS受信機23は、GPS衛星からの電波を受信することによって、画像処理装置1の位置情報を得ることができる。
In the following, differences from the hardware configuration and functional configuration in the first embodiment will be mainly described.
FIG. 7 is a block diagram illustrating a hardware configuration of the image processing apparatus according to the second embodiment. The image processing apparatus 1 can be configured by a digital camera, for example.
In FIG. 7, the image processing apparatus 1 in the present embodiment includes a GPS receiver 23 in addition to the configuration in FIG. 1 in the first embodiment.
The GPS receiver 23 can obtain position information of the image processing apparatus 1 by receiving radio waves from GPS satellites.

図8は、図7の画像処理装置の機能的構成のうち、指標画像表示処理を実行するための機能的構成を示す機能ブロック図である。
GPS受信機23によって実現される位置情報取得部61は、画像処理装置1の位置情報を取得する。そして、位置情報取得部61は、情報取得部42に位置情報を供給する。
情報取得部42は、位置情報取得部61から位置情報を取得する。
また、情報取得部42は、記憶部20から、建造物の画像、高さ、及び位置の情報が相互に関連付けられた情報(以下、「建造物情報」と呼ぶ)を取得する。
FIG. 8 is a functional block diagram showing a functional configuration for executing the index image display process among the functional configurations of the image processing apparatus of FIG.
A position information acquisition unit 61 realized by the GPS receiver 23 acquires position information of the image processing apparatus 1. Then, the position information acquisition unit 61 supplies position information to the information acquisition unit 42.
The information acquisition unit 42 acquires position information from the position information acquisition unit 61.
In addition, the information acquisition unit 42 acquires information (hereinafter referred to as “building information”) in which information on the image, height, and position of the building is associated with each other from the storage unit 20.

以下、図9を参照して、第2実施形態の画像処理装置1が実行する指標画像表示処理について説明する。
図9は、第2実施形態に係る指標画像表示処理の結果の具体例としての各画像を示す模式図である。
図9(A)には、建造物131及びSタワー132の被写体像を含む原画像121が示されている。また、図9(A)では、Sタワー132の像の中央付近にフォーカス・エリアを示す枠FW6が示されている。つまり、フォーカスレンズは、Sタワー132の中央付近に合焦している。
Hereinafter, the index image display process executed by the image processing apparatus 1 according to the second embodiment will be described with reference to FIG.
FIG. 9 is a schematic diagram showing each image as a specific example of the result of the index image display process according to the second embodiment.
FIG. 9A shows an original image 121 including subject images of the building 131 and the S tower 132. In FIG. 9A, a frame FW6 indicating a focus area is shown near the center of the image of the S tower 132. That is, the focus lens is focused near the center of the S tower 132.

主要被写体検出部41は、フォーカス・エリアを示す枠FW6内又はフォーカス・エリアを含む所定範囲内の原画像のコントラストの勾配から、主要被写体像、即ち、Sタワー132の像を検出する。
この場合、表示制御部43は、検出された主要被写体を特定可能なシンボル等を原画像121に重畳させて表示部19に表示させる。具体的には例えば図9(A)の例では、主要被写体像の枠CW6によって、Sタワー132が主要被写体であることが特定される。
The main subject detection unit 41 detects the main subject image, that is, the image of the S tower 132, from the contrast gradient of the original image within the frame FW6 indicating the focus area or within a predetermined range including the focus area.
In this case, the display control unit 43 causes the display unit 19 to display a symbol or the like that can identify the detected main subject superimposed on the original image 121. Specifically, in the example of FIG. 9A, for example, it is specified that the S tower 132 is the main subject by the frame CW6 of the main subject image.

図9(A)において、フォーカスレンズとSタワー132との距離を、式(2)に基づく被写体距離の算定手法により求めようとしても、被写体距離が無限大であるという情報しか得られず、正確な被写体距離が得られない。   In FIG. 9A, even if the distance between the focus lens and the S tower 132 is obtained by the subject distance calculation method based on the formula (2), only information that the subject distance is infinite can be obtained, and The subject distance cannot be obtained.

本実施形態では、記憶部20には、建造物情報が記憶されているものとする。
そして、情報取得部42は、位置情報取得部61から画像処理装置1の位置情報を取得する。次に、情報取得部42内にある建造物情報取得部421は、当該位置を中心とする所定範囲内にある建造物情報を取得する。例えば、本実施形態においては、画像処理装置1の位置を中心とする半径500m以内の建造物情報を検索する。その結果、建造物131とSタワー132等に対応する建造物情報が検索されたとする。
In the present embodiment, it is assumed that building information is stored in the storage unit 20.
Then, the information acquisition unit 42 acquires the position information of the image processing apparatus 1 from the position information acquisition unit 61. Next, the building information acquisition unit 421 in the information acquisition unit 42 acquires building information in a predetermined range centered on the position. For example, in the present embodiment, building information within a radius of 500 m centering on the position of the image processing apparatus 1 is searched. As a result, it is assumed that building information corresponding to the building 131, the S tower 132, and the like is retrieved.

次に、情報取得部42は、上記の検索された建造物情報に含まれる建造物の画像と主要被写体像とに基づき、画像認識技術等を用いて画像の類似度を算定する。この結果、情報取得部42は、主要被写体像と一致又は最も類似する建造物の画像を、主要被写体の画像であると判断する。例えば、情報取得部42は、位置情報取得部61から画像処理装置1の位置情報を取得すると、当該位置情報の位置を中心に半径500m以内にある建造物情報の画像と主要被写体であるSタワー132の画像とを比較する。そして、主要被写体像と建造物情報に含まれるSタワー132の画像とが一致又は類似度が最も高いと判断されると、当該建造物情報をSタワー132についての建造物情報であると特定する。   Next, the information acquisition unit 42 calculates image similarity using an image recognition technique or the like based on the building image and the main subject image included in the searched building information. As a result, the information acquisition unit 42 determines that the image of the building that matches or is most similar to the main subject image is the image of the main subject. For example, when the information acquisition unit 42 acquires the position information of the image processing apparatus 1 from the position information acquisition unit 61, the image of the building information within the radius of 500 m around the position of the position information and the S tower that is the main subject 132 images are compared. When it is determined that the main subject image and the image of the S tower 132 included in the building information match or have the highest similarity, the building information is specified as the building information for the S tower 132. .

次に、情報取得部42は、特定された建造物情報の高さのデータ、即ち、Sタワー132の高さのデータを、主要被写体像の情報として取得する。そして、情報取得部42は、取得された建造物の高さのデータを、指標画像取得部52に供給する。   Next, the information acquisition unit 42 acquires the height data of the specified building information, that is, the height data of the S tower 132 as information on the main subject image. Then, the information acquisition unit 42 supplies the acquired building height data to the index image acquisition unit 52.

指標画像取得部52は、情報取得部42から主要被写体像の情報(建造物のデータ)を取得するとともに、記憶部20から指標画像のデータを取得する。
指標画像取得部52は、主要被写体像の情報(建造物のデータ)及び指標画像のデータを指標画像選択部53に供給する。
The index image acquisition unit 52 acquires information on the main subject image (building data) from the information acquisition unit 42 and acquires index image data from the storage unit 20.
The index image acquisition unit 52 supplies the main subject image information (building data) and the index image data to the index image selection unit 53.

指標画像選択部53は、主要被写体像の情報に近似する情報(主要被写体の高さの所定範囲内の高さ)の建造物の指標画像のデータを選択する。例えば本実施形態では、指標画像選択部53は、主要被写体の高さの1.2倍以下の範囲内の高さの建造物の指標画像のデータを選択するものとする。したがって、指標画像選択部53は、高さが12mである大仏を示す指標画像C4及び高さが333mであるTタワーを示す指標画像C5の各データを、指定指標画像の候補画像のデータとして選択する。   The index image selection unit 53 selects the index image data of the building having information (height within a predetermined range of the height of the main subject) that approximates the information of the main subject image. For example, in this embodiment, the index image selection unit 53 selects index image data of a building having a height within a range of 1.2 times or less the height of the main subject. Therefore, the index image selection unit 53 selects each data of the index image C4 indicating the Great Buddha having a height of 12 m and the index image C5 indicating the T tower having a height of 333 m as data of a candidate image of the designated index image. To do.

次に、指標画像選択部53は、表示制御部43を介して表示部19に、指標画像選択画面を原画像121に重畳させた画像を表示させる。
図9(B)は、指標画像選択画面KW2内に、指定指標画像の候補画像が表示されていることを示している。指標画像選択画面KW2内には、指標画像選択部53により決定された指定指標画像の候補画像、即ち、指標画像C4及びC5が、上方から下方に向かって、指標画像の示す物体の高さの高い順に表示されている。
したがって、ユーザは、指標画像選択画面KW2内の指標画像が示す建造物の高さの大小関係を容易に把握することができる。
Next, the index image selection unit 53 causes the display unit 19 to display an image in which the index image selection screen is superimposed on the original image 121 via the display control unit 43.
FIG. 9B shows that candidate images for designated index images are displayed in the index image selection screen KW2. In the index image selection screen KW2, candidate images of designated index images determined by the index image selection unit 53, that is, index images C4 and C5, indicate the height of the object indicated by the index image from the top to the bottom. Displayed in descending order.
Therefore, the user can easily grasp the magnitude relationship of the height of the building indicated by the index image in the index image selection screen KW2.

更に、指定指標画像の候補の画像の横にはスケールSL2が表示される。指示線CL4、CL5は、指標画像C4、C5がそれぞれ示す建造物の高さに相当する目盛りを示している。即ち、指示線CL4、CL5は、指標画像C4、C5の示す建造物が、それぞれ12m、333mであることを示している。ユーザは、これらの指示線の示す目盛りを読み取ることにより、指標画像の示す建造物の高さを数値として把握することができる。
更に、指標画像選択画面KW2内では、矢印AR2が、Sタワー132の高さ634mに相当するスケールSL2の目盛りを指し示している。
ユーザは、操作部18の操作により、指標画像選択画面KW2内の指定指標画像の候補画像のなかから少なくとも1つの指標画像を指定する。これに対応して、画像合成部55は、指定指標画像のデータを原画像と同一の縮尺情報の変換指標画像のデータに変換する。
Further, a scale SL2 is displayed beside the candidate image for the designated index image. The instruction lines CL4 and CL5 indicate the scale corresponding to the height of the building indicated by the index images C4 and C5, respectively. That is, the instruction lines CL4 and CL5 indicate that the buildings indicated by the index images C4 and C5 are 12 m and 333 m, respectively. The user can grasp the height of the building indicated by the index image as a numerical value by reading the scales indicated by these instruction lines.
Further, in the index image selection screen KW2, the arrow AR2 points to the scale SL2 corresponding to the height 634m of the S tower 132.
The user designates at least one index image from among the candidate images of the designated index image in the index image selection screen KW2 by operating the operation unit 18. In response to this, the image composition unit 55 converts the data of the designated index image into the data of the conversion index image having the same scale information as the original image.

図9(C)は、Tタワーを示す変換指標画像D5の像が原画像と合成された合成画像141を示している。ユーザがTタワーを示す変換指標画像D5の像を指定し、Sタワー132の横を指定位置に決定すると、Sタワー132の像の横にTタワーを示す変換指標画像D5が重畳して表示される。
図9(C)に示す例では、合成画像の鑑賞者は、合成画像141のSタワー132の像とTタワーの変換指標画像D5とを比較して、Sタワー132がTタワーの2倍近く高いことを直感的に把握することができる。
FIG. 9C shows a composite image 141 in which an image of the conversion index image D5 indicating the T tower is combined with the original image. When the user designates the image of the conversion index image D5 indicating the T tower and determines the side of the S tower 132 as the designated position, the conversion index image D5 indicating the T tower is superimposed and displayed next to the image of the S tower 132. The
In the example shown in FIG. 9C, the viewer of the composite image compares the image of the S tower 132 of the composite image 141 with the conversion index image D5 of the T tower, and the S tower 132 is nearly twice the T tower. Intuitively grasp what is expensive.

要するに、第2実施形態に係る画像処理装置1は、主要被写体像の情報(主要被写体の高さのデータ)を、GPS受信機23が受信する位置情報に基づき、建造物の画像、高さ、及び位置の情報(建造物情報)から取得する。そして、画像処理装置1は、取得された主要被写体像の情報に近似する情報(主要被写体の高さ)のデータに基づいて、指標画像のデータを選択する。選択された指標画像は、指定指標画像の候補として選択表示画面に表示される。ユーザは、操作部18の操作により、指標画像を指定する。そして、指定された指標画像のデータは原画像と同一の縮尺情報の変換指標画像のデータに変換され、その結果として表示部19には変換指標画像が原画像に重畳して表示される。
したがって、主要被写体が、焦点距離が無限大とみなされる距離に位置し、正確な被写体距離が得られない場合であっても、第2実施形態の画像処理装置1によれば、大きさの指標となる指標画像が原画像に重畳して表示される合成画像を生成することができる。
したがって、長さを直感的に把握できる建造物の指標画像を主要被写体像の傍らに表示させることができる。これにより、合成画像の鑑賞者は、主要被写体の高さを直感的に把握することができる。
そして、画像処理装置1は、主要被写体の高さに対して所定範囲内の高さをもつ建造物の指標画像を検索することが可能であるので、指定指標画像の候補画像を絞り込むことができる。このため、ユーザは、効率的に指標画像を指定できる。
In short, the image processing apparatus 1 according to the second embodiment is based on the position information received by the GPS receiver 23 on the main subject image information (main subject height data). And the position information (building information). Then, the image processing apparatus 1 selects index image data based on data of information (height of the main subject) that approximates the acquired information of the main subject image. The selected index image is displayed on the selection display screen as a candidate for the specified index image. The user designates an index image by operating the operation unit 18. The designated index image data is converted into converted index image data having the same scale information as the original image, and as a result, the display unit 19 displays the converted index image superimposed on the original image.
Therefore, even if the main subject is located at a distance where the focal length is considered to be infinite and an accurate subject distance cannot be obtained, the image processing apparatus 1 according to the second embodiment can measure the size. It is possible to generate a composite image in which the index image to be displayed is superimposed on the original image.
Therefore, it is possible to display an index image of a building whose length can be intuitively grasped beside the main subject image. As a result, the viewer of the composite image can intuitively grasp the height of the main subject.
The image processing apparatus 1 can search for an index image of a building having a height within a predetermined range with respect to the height of the main subject, and thus can narrow down candidate images for designated index images. . For this reason, the user can designate an index image efficiently.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

即ち、本発明が適用される画像処理装置は、上記実施形態に特に限定されず、次のような構成を有するように各種各様の実施形態を取ることができる。
即ち、画像処理装置は、
画像を取得する取得手段と、
前記取得手段により取得された画像に含まれる被写体像の情報を取得する情報取得手段と、
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択手段と、
前記情報取得手段により取得された情報と、前記選択手段により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換手段と、
前記画像と、前記変換手段により変換された前記指標画像とを合成する合成手段と、
を備えるように構成することができる。
このような構成を有する画像処理装置では、被写体を含む画像に対して、被写体の情報に基づいて変換された指標画像が合成された合成画像の表示が可能になる。
ユーザは、当該合成画像をみることで、被写体の情報を直感的に把握することができる。
That is, the image processing apparatus to which the present invention is applied is not particularly limited to the above-described embodiment, and various various embodiments can be adopted so as to have the following configuration.
That is, the image processing apparatus
An acquisition means for acquiring an image;
Information acquisition means for acquiring information of a subject image included in the image acquired by the acquisition means;
Selection means for selecting an index image corresponding to the subject image based on the information acquired by the information acquisition means;
Conversion means for converting the index image based on the information acquired by the information acquisition means and the information of the index image selected by the selection means;
Combining means for combining the image with the index image converted by the converting means;
It can comprise.
In the image processing apparatus having such a configuration, it is possible to display a composite image in which an index image converted based on information on a subject is combined with an image including the subject.
The user can intuitively grasp subject information by viewing the composite image.

更に、画像処理装置は、
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する複数の候補画像を表示させる表示制御手段を更に備え、
前記選択手段は、前記表示制御手段により表示された複数の候補画像から、ユーザ操作により前記指標画像を選択する、
ように構成することもできる。
これにより、ユーザは、所望の指標画像を自在に選択する操作を容易に行うことができる。即ち、ユーザは、指標画像を絞り込むことができるため、効率的に所望の指標画像を指定できる。
Furthermore, the image processing apparatus
Further comprising display control means for displaying a plurality of candidate images corresponding to the subject image based on the information acquired by the information acquisition means;
The selection unit selects the index image by a user operation from a plurality of candidate images displayed by the display control unit.
It can also be configured as follows.
Thereby, the user can easily perform an operation of freely selecting a desired index image. That is, since the user can narrow down the index image, the user can efficiently specify a desired index image.

更に、画像処理装置においては、
前記情報取得手段は、前記画像に基づいて、前記被写体像の大ききの情報を取得し、
前記表示制御手段は、前記被写体像の大きさの情報に基づいて、複数の候補画像を表示させ、
前記変換手段は、前記被写体像の大きさの情報と、前記指標画像の大きさの比に応じて、前記指標画像の大きさを変換し、
前記合成手段は、前記画像と、前記変換手段により大きさが変換された指標画像とを合成する、
ように構成することもできる。
これにより、ユーザは、被写体像の情報として、特に大きさを直感的に把握することができる。
Furthermore, in the image processing apparatus,
The information acquisition means acquires large information of the subject image based on the image,
The display control means displays a plurality of candidate images based on the information on the size of the subject image,
The conversion means converts the size of the index image according to the ratio of the size information of the subject image and the size of the index image,
The synthesizing unit synthesizes the image and the index image whose size is converted by the converting unit.
It can also be configured as follows.
Thereby, the user can intuitively grasp the size of the subject image information in particular.

更に、画像処理装置は、
フォーカスレンズを用いて前記被写体像に合焦する合焦手段を更に備え、
前記情報取得手段は、前記合焦手段による被写体像の合焦時の前記フォーカスレンズの位置及び画角の情報に基づいて、前記被写体像の大きさの情報を取得する、
ように構成することができる。
これにより、従来から存在するAF処理を流用して、被写体像の大きさの情報を取得できるので、簡素な構成でかつ容易に画像処理装置を実現できる。
Furthermore, the image processing apparatus
A focusing unit for focusing on the subject image using a focus lens;
The information acquisition means acquires information on the size of the subject image based on information on the position and angle of view of the focus lens when the subject image is focused by the focusing means.
It can be constituted as follows.
As a result, the information on the size of the subject image can be acquired by utilizing the existing AF processing, and thus the image processing apparatus can be easily realized with a simple configuration.

更に、画像処理装置においては、
前記表示制御手段は、前記複数の候補画像の大小関係に基づいた順序で当該候補画像を表示させ、
前記選択手段は、前記表示制御手段により大小関係に基づいた順序で表示された複数の候補画像から、ユーザ操作により指標画像を選択する、
ように構成することができる。
これにより、ユーザは、複数の指標画像が示す物体(建造物等)の高さの大小関係を容易に把握することができ、その結果、所望の指標画像を容易かつ効率的に選択することができる。
Furthermore, in the image processing apparatus,
The display control means displays the candidate images in an order based on the magnitude relationship of the plurality of candidate images,
The selection means selects an index image by a user operation from a plurality of candidate images displayed in an order based on a magnitude relationship by the display control means.
It can be constituted as follows.
Thereby, the user can easily grasp the magnitude relationship between the heights of the objects (buildings, etc.) indicated by the plurality of index images, and as a result, the desired index image can be easily and efficiently selected. it can.

更に、画像処理装置は、
前記被写体像を含む前記画像のデータに基づいて、前記指標画像のデータを生成する指標画像生成手段、
を備えるように構成することができる。
これにより、画像に含まれる被写体像にとって適切な指標画像のデータが生成される。ユーザは、このような指標画像を含む合成画像をみることで、被写体の情報をより直感的に把握することができる。
また、被写体像を含む画像のデータに基づいて、生成される指標画像のデータを、次回の撮像時において、指標画像のデータとして用いることができる。
Furthermore, the image processing apparatus
Index image generation means for generating data of the index image based on the data of the image including the subject image;
It can comprise.
Thereby, index image data appropriate for the subject image included in the image is generated. The user can grasp the subject information more intuitively by looking at the composite image including such an index image.
Further, the index image data generated based on the image data including the subject image can be used as index image data at the next imaging.

更に、画像処理装置は、
位置情報を取得する位置情報取得手段と、
建造物の画像、高さ及び位置のデータが相互に対応付けられた建造物情報を取得する建造物情報取得手段と、
を更に備え、
前記情報取得手段は、前記位置情報取得手段により取得された前記位置情報と前記建造物情報取得手段により取得された前記建造物情報とに基づいて、前記取得手段により取得された前記被写体像に係る前記被写体の大きさを表す情報を取得する、
ように構成することができる。
これにより、特に被写体像として建造物と比較できるようなものが含まれている場合、ユーザは、被写体像の情報として、特に大きさを直感的に把握することができる。
Furthermore, the image processing apparatus
Position information acquisition means for acquiring position information;
Building information acquisition means for acquiring building information in which the image, height and position data of the building are associated with each other;
Further comprising
The information acquisition means relates to the subject image acquired by the acquisition means based on the position information acquired by the position information acquisition means and the building information acquired by the building information acquisition means. Obtaining information representing the size of the subject;
It can be constituted as follows.
As a result, in particular, when a subject image that can be compared with a building is included, the user can intuitively grasp the size especially as the subject image information.

上記実施形態においては、指標画像により表現される主要被写体の情報は、高さが使用されたが、特にこれに限定されない。例えば、主被写体像の情報としては、重さを使用してもよい。   In the above embodiment, the height of the main subject information represented by the index image is used, but the present invention is not limited to this. For example, weight may be used as information on the main subject image.

また、上記実施形態においては、GPS受信機23から得られる位置情報を中心とした所定範囲内の建造物の高さのデータを検索した。この際、例えば、更にジャイロセンサ或いは地磁気センサから撮像方向の情報を求め、当該方向に限定した範囲において、主要被写体の高さのデータを検索することも可能である。   Moreover, in the said embodiment, the data of the height of the building in the predetermined range centering on the positional information obtained from the GPS receiver 23 were searched. At this time, for example, it is also possible to obtain information on the imaging direction from a gyro sensor or a geomagnetic sensor, and to retrieve data on the height of the main subject within a range limited to the direction.

更に、上記実施形態においては、建造物情報を記憶部20に記憶しているが、通信部21を介して、インターネットを含むネットワーク上から建造物情報を取得してもよい。この場合、記憶部20に記憶されていない建造物情報の建造物を撮像する際に、インターネットを介してWebサイト等から建造物情報を取得することが可能となる。   Furthermore, in the said embodiment, although building information is memorize | stored in the memory | storage part 20, you may acquire building information from the network containing the internet via the communication part 21. FIG. In this case, when imaging a building having building information that is not stored in the storage unit 20, it is possible to acquire building information from a website or the like via the Internet.

上述の第1実施形態及び第2実施形態では、本発明が適用される電子装置は、デジタルカメラ等の画像処理装置1を例として説明したが、特にこれに限定されない。本発明は、上述の指標画像表示処理を実行可能な電子機器一般に適用することができる。具体的には、例えば、本発明は、ビデオカメラ、撮像装置付きの携帯電話装置等に適用可能である。   In the first embodiment and the second embodiment described above, the electronic apparatus to which the present invention is applied has been described by taking the image processing apparatus 1 such as a digital camera as an example, but is not particularly limited thereto. The present invention can be applied to general electronic devices capable of executing the index image display process described above. Specifically, for example, the present invention is applicable to a video camera, a mobile phone device with an imaging device, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また例えば、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。換言すると、図2及び図8の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2及び図8の例に限定されない。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。   The series of processes described above can be executed by hardware or can be executed by software. For example, the series of processes described above can be executed by hardware or can be executed by software. In other words, the functional configurations of FIGS. 2 and 8 are merely examples, and are not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is particularly the example shown in FIGS. It is not limited to. In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される外部メモリにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。外部メモリは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1及び図7のROM12や、図1及び図7の記憶部20に含まれるハードディスク等で構成される。   A recording medium including such a program is provided not only to an external memory distributed separately from the apparatus main body in order to provide the program to the user, but also provided to the user in a state of being preinstalled in the apparatus main body. It consists of a recording medium. The external memory is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. The recording medium provided to the user in a state of being pre-installed in the apparatus main body is, for example, the hard disk included in the ROM 12 in FIGS. 1 and 7 in which the program is recorded or the storage unit 20 in FIGS. 1 and 7. Etc.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像を取得する取得手段と、
前記取得手段により取得された画像に含まれる被写体像の情報を取得する情報取得手段と、
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択手段と、
前記情報取得手段により取得された情報と、前記選択手段により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換手段と、
前記画像と、前記変換手段により変換された前記指標画像とを合成する合成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する複数の候補画像を表示させる表示制御手段を更に備え、
前記選択手段は、前記表示制御手段により表示された複数の候補画像から、ユーザ操作により前記指標画像を選択する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記情報取得手段は、前記画像に基づいて、前記被写体像の大ききの情報を取得し、
前記表示制御手段は、前記被写体像の大きさの情報に基づいて、複数の候補画像を表示させ、
前記変換手段は、前記被写体像の大きさの情報と、前記指標画像の大きさの比に応じて、前記指標画像の大きさを変換し、
前記合成手段は、前記画像と、前記変換手段により大きさが変換された指標画像とを合成する
ことを特徴とする付記2記載の画像処理装置。
[付記4]
フォーカスレンズを用いて前記被写体像に合焦する合焦手段を更に備え、
前記情報取得手段は、前記合焦手段による前記被写体像の合焦時の前記フォーカスレンズの位置及び画角の情報に基づいて、前記被写体像の大きさの情報を取得する、
ことを特徴とする付記3記載の画像処理装置。
[付記5]
前記表示制御手段は、前記複数の候補画像の大小関係に基づいた順序で当該候補画像を表示させ、
前記選択手段は、前記表示制御手段により大小関係に基づいた順序で表示された複数の候補画像から、ユーザ操作により指標画像を選択する、
ことを特徴とする付記3又は4記載の画像処理装置。
[付記6]
前記被写体像を含む前記画像のデータに基づいて、前記指標画像のデータを生成する指標画像生成手段、
を備えたことを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記7]
位置情報を取得する位置情報取得手段と、
建造物の画像、高さ及び位置のデータが相互に対応付けられた建造物情報を取得する建造物情報取得手段と、
を更に備え、
前記情報取得手段は、前記位置情報取得手段により取得された前記位置情報と前記建造物情報取得手段により取得された前記建造物情報とに基づいて、前記取得手段により取得された前記被写体像に係る被写体の大きさを表す情報を取得する、
ことを特徴とする付記1記載の画像処理装置。
[付記8]
画像処理装置が実行する画像処理方法において、
画像を取得する取得ステップと、
前記取得ステップの処理により取得された前記画像に含まれる被写体像の情報を取得する情報取得ステップと、
前記情報取得ステップの処理により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択ステップと、
前記情報取得ステップの処理により取得された前記被写体像の情報と、前記選択ステップの処理により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換ステップと、
前記画像と、前記変換ステップの処理により変換された前記指標画像とを合成する合成ステップと、
を含む画像処理方法。
[付記9]
コンピュータを、
画像を取得する取得手段、
前記取得手段により取得された前記画像に含まれる被写体像の情報を取得する情報取得手段、
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択手段、
前記情報取得手段により取得された情報と、前記選択手段により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換手段、
前記画像と、前記変換手段により変換された指標画像とを合成する合成手段、
として機能させるプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
An acquisition means for acquiring an image;
Information acquisition means for acquiring information of a subject image included in the image acquired by the acquisition means;
Selection means for selecting an index image corresponding to the subject image based on the information acquired by the information acquisition means;
Conversion means for converting the index image based on the information acquired by the information acquisition means and the information of the index image selected by the selection means;
Combining means for combining the image with the index image converted by the converting means;
An image processing apparatus comprising:
[Appendix 2]
Further comprising display control means for displaying a plurality of candidate images corresponding to the subject image based on the information acquired by the information acquisition means;
The selection unit selects the index image by a user operation from a plurality of candidate images displayed by the display control unit.
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The information acquisition means acquires large information of the subject image based on the image,
The display control means displays a plurality of candidate images based on the information on the size of the subject image,
The conversion means converts the size of the index image according to the ratio of the size information of the subject image and the size of the index image,
The image processing apparatus according to appendix 2, wherein the synthesizing unit synthesizes the image and an index image whose size has been converted by the converting unit.
[Appendix 4]
A focusing unit for focusing on the subject image using a focus lens;
The information acquisition means acquires information on the size of the subject image based on information on the position and angle of view of the focus lens when the subject image is focused by the focusing means.
The image processing apparatus according to Supplementary Note 3, wherein
[Appendix 5]
The display control means displays the candidate images in an order based on the magnitude relationship of the plurality of candidate images,
The selection means selects an index image by a user operation from a plurality of candidate images displayed in an order based on a magnitude relationship by the display control means.
The image processing apparatus according to appendix 3 or 4, characterized by the above.
[Appendix 6]
Index image generation means for generating data of the index image based on the data of the image including the subject image;
The image processing apparatus according to any one of appendices 1 to 4, further comprising:
[Appendix 7]
Position information acquisition means for acquiring position information;
Building information acquisition means for acquiring building information in which the image, height and position data of the building are associated with each other;
Further comprising
The information acquisition means relates to the subject image acquired by the acquisition means based on the position information acquired by the position information acquisition means and the building information acquired by the building information acquisition means. Obtain information about the size of the subject,
The image processing apparatus according to appendix 1, wherein
[Appendix 8]
In the image processing method executed by the image processing apparatus,
An acquisition step of acquiring an image;
An information acquisition step of acquiring information on a subject image included in the image acquired by the processing of the acquisition step;
A selection step of selecting an index image corresponding to the subject image based on the information acquired by the processing of the information acquisition step;
A conversion step of converting the index image based on the information of the subject image acquired by the process of the information acquisition step and the information of the index image selected by the process of the selection step;
A synthesis step of synthesizing the image and the index image converted by the process of the conversion step;
An image processing method including:
[Appendix 9]
Computer
Acquisition means for acquiring images,
Information acquisition means for acquiring information on a subject image included in the image acquired by the acquisition means;
Selection means for selecting an index image corresponding to the subject image based on the information acquired by the information acquisition means;
Conversion means for converting the index image based on the information acquired by the information acquisition means and the information of the index image selected by the selection means;
Synthesizing means for synthesizing the image and the index image converted by the converting means;
Program to function as.

1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・DSP、記憶制御部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・操作部、19・・・表示部、20・・・記憶部、21・・・通信部、22・・・ドライブ、23・・・GPS受信機、31・・・レンズ光学部、32・・・イメージセンサ、33・・・レンズ駆動部、34・・・リムーバブルメディア、41・・・主要被写体検出部、42・・・情報取得部、43・・・表示制御部、44・・・記憶制御部、51・・・画像取得部、52・・・指標画像取得部、53・・・指標画像選択部、54・・・指標画像変換部、55・・・画像合成部、56・・・指標画像生成部、61・・・位置情報取得部、421・・・建造物情報取得部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... DSP, storage control part, 15 ... Bus, 16 ... Input / output interface, DESCRIPTION OF SYMBOLS 17 ... Imaging part, 18 ... Operation part, 19 ... Display part, 20 ... Memory | storage part, 21 ... Communication part, 22 ... Drive, 23 ... GPS receiver, 31 ... Lens optical part, 32 ... Image sensor, 33 ... Lens drive part, 34 ... Removable media, 41 ... Main subject detection part, 42 ... Information acquisition part, 43 ... Display control unit 44 ... Storage control unit 51 ... Image acquisition unit 52 ... Index image acquisition unit 53 ... Index image selection unit 54 ... Index image conversion unit 55 ... Image compositing unit, 56... Index image generating unit, 61. 1 ... building information acquisition unit

Claims (9)

画像を取得する取得手段と、
前記取得手段により取得された画像に含まれる被写体像の情報を取得する情報取得手段と、
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択手段と、
前記情報取得手段により取得された情報と、前記選択手段により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換手段と、
前記画像と、前記変換手段により変換された前記指標画像とを合成する合成手段と、
を備えることを特徴とする画像処理装置。
An acquisition means for acquiring an image;
Information acquisition means for acquiring information of a subject image included in the image acquired by the acquisition means;
Selection means for selecting an index image corresponding to the subject image based on the information acquired by the information acquisition means;
Conversion means for converting the index image based on the information acquired by the information acquisition means and the information of the index image selected by the selection means;
Combining means for combining the image with the index image converted by the converting means;
An image processing apparatus comprising:
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する複数の候補画像を表示させる表示制御手段を更に備え、
前記選択手段は、前記表示制御手段により表示された複数の候補画像から、ユーザ操作により前記指標画像を選択する、
ことを特徴とする請求項1に記載の画像処理装置。
Further comprising display control means for displaying a plurality of candidate images corresponding to the subject image based on the information acquired by the information acquisition means;
The selection unit selects the index image by a user operation from a plurality of candidate images displayed by the display control unit.
The image processing apparatus according to claim 1.
前記情報取得手段は、前記画像に基づいて、前記被写体像の大ききの情報を取得し、
前記表示制御手段は、前記被写体像の大きさの情報に基づいて、複数の候補画像を表示させ、
前記変換手段は、前記被写体像の大きさの情報と、前記指標画像の大きさの比に応じて、前記指標画像の大きさを変換し、
前記合成手段は、前記画像と、前記変換手段により大きさが変換された指標画像とを合成する
ことを特徴とする請求項2記載の画像処理装置。
The information acquisition means acquires large information of the subject image based on the image,
The display control means displays a plurality of candidate images based on the information on the size of the subject image,
The conversion means converts the size of the index image according to the ratio of the size information of the subject image and the size of the index image,
The image processing apparatus according to claim 2, wherein the synthesizing unit synthesizes the image and an index image whose size is converted by the converting unit.
フォーカスレンズを用いて前記被写体像に合焦する合焦手段を更に備え、
前記情報取得手段は、前記合焦手段による前記被写体像の合焦時の前記フォーカスレンズの位置及び画角の情報に基づいて、前記被写体像の大きさの情報を取得する、
ことを特徴とする請求項3記載の画像処理装置。
A focusing unit for focusing on the subject image using a focus lens;
The information acquisition means acquires information on the size of the subject image based on information on the position and angle of view of the focus lens when the subject image is focused by the focusing means.
The image processing apparatus according to claim 3.
前記表示制御手段は、前記複数の候補画像の大小関係に基づいた順序で当該候補画像を表示させ、
前記選択手段は、前記表示制御手段により大小関係に基づいた順序で表示された複数の候補画像から、ユーザ操作により指標画像を選択する、
ことを特徴とする請求項3又は4記載の画像処理装置。
The display control means displays the candidate images in an order based on the magnitude relationship of the plurality of candidate images,
The selection means selects an index image by a user operation from a plurality of candidate images displayed in an order based on a magnitude relationship by the display control means.
The image processing apparatus according to claim 3 or 4,
前記被写体像を含む前記画像のデータに基づいて、前記指標画像のデータを生成する指標画像生成手段、
を備えたことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
Index image generation means for generating data of the index image based on the data of the image including the subject image;
The image processing apparatus according to claim 1, further comprising:
位置情報を取得する位置情報取得手段と、
建造物の画像、高さ及び位置のデータが相互に対応付けられた建造物情報を取得する建造物情報取得手段と、
を更に備え、
前記情報取得手段は、前記位置情報取得手段により取得された前記位置情報と前記建造物情報取得手段により取得された前記建造物情報とに基づいて、前記取得手段により取得された前記被写体像に係る被写体の大きさを表す情報を取得する、
ことを特徴とする請求項1記載の画像処理装置。
Position information acquisition means for acquiring position information;
Building information acquisition means for acquiring building information in which the image, height and position data of the building are associated with each other;
Further comprising
The information acquisition means relates to the subject image acquired by the acquisition means based on the position information acquired by the position information acquisition means and the building information acquired by the building information acquisition means. Obtain information about the size of the subject,
The image processing apparatus according to claim 1.
画像処理装置が実行する画像処理方法において、
画像を取得する取得ステップと、
前記取得ステップの処理により取得された前記画像に含まれる被写体像の情報を取得する情報取得ステップと、
前記情報取得ステップの処理により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択ステップと、
前記情報取得ステップの処理により取得された前記被写体像の情報と、前記選択ステップの処理により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換ステップと、
前記画像と、前記変換ステップの処理により変換された前記指標画像とを合成する合成ステップと、
を含む画像処理方法。
In the image processing method executed by the image processing apparatus,
An acquisition step of acquiring an image;
An information acquisition step of acquiring information on a subject image included in the image acquired by the processing of the acquisition step;
A selection step of selecting an index image corresponding to the subject image based on the information acquired by the processing of the information acquisition step;
A conversion step of converting the index image based on the information of the subject image acquired by the process of the information acquisition step and the information of the index image selected by the process of the selection step;
A synthesis step of synthesizing the image and the index image converted by the process of the conversion step;
An image processing method including:
コンピュータを、
画像を取得する取得手段、
前記取得手段により取得された前記画像に含まれる被写体像の情報を取得する情報取得手段、
前記情報取得手段により取得された情報に基づいて、前記被写体像に対応する指標画像を選択する選択手段、
前記情報取得手段により取得された情報と、前記選択手段により選択された指標画像の情報とに基づいて、前記指標画像を変換する変換手段、
前記画像と、前記変換手段により変換された指標画像とを合成する合成手段、
として機能させるプログラム。
Computer
Acquisition means for acquiring images,
Information acquisition means for acquiring information on a subject image included in the image acquired by the acquisition means;
Selection means for selecting an index image corresponding to the subject image based on the information acquired by the information acquisition means;
Conversion means for converting the index image based on the information acquired by the information acquisition means and the information of the index image selected by the selection means;
Synthesizing means for synthesizing the image and the index image converted by the converting means;
Program to function as.
JP2012062863A 2012-03-19 2012-03-19 Image processing device and image processing method and program Pending JP2013197894A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012062863A JP2013197894A (en) 2012-03-19 2012-03-19 Image processing device and image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062863A JP2013197894A (en) 2012-03-19 2012-03-19 Image processing device and image processing method and program

Publications (1)

Publication Number Publication Date
JP2013197894A true JP2013197894A (en) 2013-09-30

Family

ID=49396312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062863A Pending JP2013197894A (en) 2012-03-19 2012-03-19 Image processing device and image processing method and program

Country Status (1)

Country Link
JP (1) JP2013197894A (en)

Similar Documents

Publication Publication Date Title
KR101990073B1 (en) Method and apparatus for shooting and storing multi-focused image in electronic device
JP5299054B2 (en) Electronic device, display control method and program
WO2010001778A1 (en) Imaging device, image display device, and electronic camera
US10116862B2 (en) Imaging apparatus
JP2010283802A (en) Image processing apparatus, and method of managing images
US7643060B2 (en) User guiding apparatus and an image capturing system, method and program for using same
TW201113628A (en) Digital camera equipped with photo subject landmark detection capability and its method
JP6210807B2 (en) Display control device and control method of display control device
JP2011041145A (en) Image display apparatus, image display method, and computer program
JP6179315B2 (en) Information processing apparatus, image processing system, image processing method and program in information processing apparatus
JP2013197894A (en) Image processing device and image processing method and program
JP2009111827A (en) Photographing apparatus and image file providing system
JP5753514B2 (en) Image display device and computer program
JP5147737B2 (en) Imaging device
JP2009177611A (en) Digital camera
JP2010021934A (en) Image display device, and electronic camera
JP5884260B2 (en) Image processing apparatus, image processing method, and program
JP4742927B2 (en) Electronic camera
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP6197830B2 (en) Image processing apparatus, image processing method, and program
JP6436191B2 (en) Server apparatus, information processing method and program using server apparatus
JP2007142525A (en) Photographing apparatus, photographing module, and search system
JP2012170100A (en) Image display unit, image display method and computer program
JP5247909B2 (en) Image display device, image display method, and computer program
JP5868776B2 (en) Image display device and computer program