JP2015026894A - Imaging program, imaging method and information processing device - Google Patents

Imaging program, imaging method and information processing device Download PDF

Info

Publication number
JP2015026894A
JP2015026894A JP2013153607A JP2013153607A JP2015026894A JP 2015026894 A JP2015026894 A JP 2015026894A JP 2013153607 A JP2013153607 A JP 2013153607A JP 2013153607 A JP2013153607 A JP 2013153607A JP 2015026894 A JP2015026894 A JP 2015026894A
Authority
JP
Japan
Prior art keywords
image
information
subject
target
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013153607A
Other languages
Japanese (ja)
Other versions
JP6205941B2 (en
Inventor
亘 森田
Wataru Morita
亘 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013153607A priority Critical patent/JP6205941B2/en
Publication of JP2015026894A publication Critical patent/JP2015026894A/en
Application granted granted Critical
Publication of JP6205941B2 publication Critical patent/JP6205941B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging program and the like which can simply image a target image.SOLUTION: An imaging program causes a computer to execute: processing of acquiring images of a subject which are serially imaged and acquiring distance information between the subject at the time of imaging the images and a camera which images the images; processing of extracting from the images, a constituent element in which a portion of the subject and a position of the portion on the images are related with each other; processing of referring to a storage part which stores learning information in which the constituent element of relating a portion of a subject with a position of the portion on a target image at the time of imaging the target image including the portion of the subject, and the distance information between the subject and the camera are related with each other; and processing of outputting an image among the acquired images, which has the constituent element coinciding with that in the learning information and distance information having a difference with that in the learning information being within an allowable range.

Description

本発明は、撮像プログラム、撮像方法および情報処理装置に関する。   The present invention relates to an imaging program, an imaging method, and an information processing apparatus.

カメラには、カメラのユーザが被写体を意図する構図で撮影できるように、被写体に含まれる撮影の目的とする部位、例えば、顔を合わせる照準をファインダ等に表示させる支援機能を有するものがある。   Some cameras have a support function for displaying on a finder or the like a target part included in the subject, for example, an aim for matching the face, so that the user of the camera can photograph the subject with the intended composition.

特開2007−174548号公報JP 2007-174548 A 特開2005−269562号公報JP 2005-269562 A

しかしながら、上記の技術では、目的の画像を簡便に撮影できない。例えば、ユーザが自身の頭部や背中を撮影する場合には、ユーザは、ファインダ等に照準が表示されたとしても撮影しながら目視することができない。このため、ユーザは、カメラへの被写体の映り方を確認できないまま撮影することになる。従って、上記の撮影の支援機能を用いたとしても、ユーザは、自身が意図する構図で被写体を偶然に撮影できるまで繰り返し撮影する手間が生じてしまう。   However, the above technique cannot easily capture a target image. For example, when the user takes a picture of his / her head or back, the user cannot view while photographing even if the aim is displayed on the finder or the like. For this reason, the user shoots without confirming how the subject appears on the camera. Therefore, even if the above-described shooting support function is used, the user will have trouble shooting repeatedly until the subject can be shot accidentally with the composition intended by the user.

一つの側面では、目的の画像を簡便に撮影できる撮像プログラム、撮像方法および情報処理装置を提供することにある。   In one aspect, an object is to provide an imaging program, an imaging method, and an information processing apparatus that can easily capture a target image.

1つの実施態様では、撮像プログラムは、コンピュータに、被写体が連続して撮像された画像を取得し、前記画像の撮像時における前記被写体および前記画像を撮像したカメラの間の距離情報を取得する処理を実行させる。撮像プログラムは、コンピュータに、前記画像から被写体の部位および前記画像上の前記部位の位置が対応付けられた構成要素を抽出する処理を実行させる。撮像プログラムは、コンピュータに、目的とする被写体の部位を含む目的の画像の撮像時における、前記目的とする被写体の部位および前記目的の画像上の前記部位の位置が対応付けられた構成要素が対応付けられた学習情報を記憶する記憶部を参照する処理を実行させる。撮像プログラムは、コンピュータに、目的とする被写体の部位を含む目的の画像の撮像時における、前記目的とする被写体および前記目的の画像を撮像したカメラの間の距離情報が対応付けられた学習情報を記憶する記憶部を参照する処理を実行させる。撮像プログラムは、コンピュータに、前記取得された画像のうち前記学習情報との間で構成要素が一致し、かつ、距離情報の差が許容範囲内である画像を出力する処理を実行させる。   In one embodiment, the imaging program acquires, in a computer, an image in which a subject is continuously captured, and acquires distance information between the subject and the camera that has captured the image at the time of capturing the image. Is executed. The imaging program causes the computer to execute a process of extracting a component in which the part of the subject and the position of the part on the image are associated from the image. In the imaging program, a component in which the target subject part and the position of the part on the target image are associated with each other when the target image including the target subject part is captured corresponds to the computer. A process of referring to the storage unit for storing the attached learning information is executed. The imaging program stores learning information in which distance information between the target subject and the camera that captured the target image is associated with the computer at the time of capturing the target image including the target subject portion. A process of referring to the storage unit to be stored is executed. The imaging program causes the computer to execute a process of outputting an image whose constituent elements match the learning information in the acquired image and whose difference in distance information is within an allowable range.

目的の画像を簡便に撮影できる。   A desired image can be easily captured.

図1は、実施例の携帯端末装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of the configuration of the mobile terminal device according to the embodiment. 図2は、学習情報DBの一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of the learning information DB. 図3は、経過情報DBの一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of the progress information DB. 図4は、経過情報DBの画像の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of an image of the progress information DB. 図5は、部位の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of a part. 図6は、学習処理の一例の概略を示す説明図である。FIG. 6 is an explanatory diagram illustrating an outline of an example of the learning process. 図7は、実施例の携帯端末装置の学習処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of learning processing of the mobile terminal device according to the embodiment. 図8は、類似画像撮像処理の一例の概略を示す説明図である。FIG. 8 is an explanatory diagram illustrating an outline of an example of the similar image capturing process. 図9は、実施例の携帯端末装置の類似画像撮像処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the similar image capturing process of the mobile terminal device according to the embodiment. 図10は、学習情報の更新処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a learning information update process. 図11は、経過情報の蓄積による学習情報の変化の一例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a change in learning information due to accumulation of progress information. 図12は、撮像プログラムを実行するコンピュータの一例を示す説明図である。FIG. 12 is an explanatory diagram illustrating an example of a computer that executes an imaging program.

以下、図面に基づいて、本願の開示する撮像プログラム、撮像方法および情報処理装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。   Hereinafter, embodiments of an imaging program, an imaging method, and an information processing apparatus disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. Further, the following embodiments may be appropriately combined within a consistent range.

図1は、実施例の携帯端末装置の構成の一例を示すブロック図である。図1に示す携帯端末装置10は、カメラ11と、表示部12と、操作部13と、近接センサ14と、ジャイロセンサ15と、スピーカ16と、モータ17と、通信部18と、記憶部19と、制御部20とを有する。なお、携帯端末装置10は、例えば、スマートフォン、携帯電話機、PHS(Personal Handy phone System)、PDA(Personal Digital Assistant、または、Personal Data Assistance)等を用いることができる。   FIG. 1 is a block diagram illustrating an example of the configuration of the mobile terminal device according to the embodiment. A mobile terminal device 10 shown in FIG. 1 includes a camera 11, a display unit 12, an operation unit 13, a proximity sensor 14, a gyro sensor 15, a speaker 16, a motor 17, a communication unit 18, and a storage unit 19. And a control unit 20. As the mobile terminal device 10, for example, a smartphone, a mobile phone, a PHS (Personal Handy phone System), a PDA (Personal Digital Assistant, or Personal Data Assistance) can be used.

カメラ11は、画像を撮像するモジュールである。カメラ11は、撮像素子を有する。撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサ等を用いることができる。カメラ11は、撮像素子が受光した光を光電変換しA/D(Analog/Digital)変換を行って画像を生成する。カメラ11は、撮像した画像を制御部20に出力する。   The camera 11 is a module that captures an image. The camera 11 has an image sensor. As the imaging device, a complementary metal oxide semiconductor (CMOS) image sensor, a charge coupled device (CCD) image sensor, or the like can be used. The camera 11 photoelectrically converts light received by the image sensor and performs A / D (Analog / Digital) conversion to generate an image. The camera 11 outputs the captured image to the control unit 20.

表示部12は、各種情報を表示するための表示デバイスである。例えば、表示部12は、液晶ディスプレイ等によって実現される。操作部13は、ユーザから各種操作を受け付ける入力デバイスである。例えば、操作部13は、カーソルキーやテンキー等によって実現される。なお、携帯端末装置10にタッチパネルが採用されている場合には、表示部12および操作部13は一体化される。また、タッチパネルが採用された携帯端末装置10は、タッチパネルの他に、電源ボタン、音量ボタンおよびホームボタン等のハードウエアキーを有してもよい。   The display unit 12 is a display device for displaying various information. For example, the display unit 12 is realized by a liquid crystal display or the like. The operation unit 13 is an input device that receives various operations from the user. For example, the operation unit 13 is realized by a cursor key, a numeric keypad, or the like. In addition, when the touch panel is employ | adopted for the portable terminal device 10, the display part 12 and the operation part 13 are integrated. In addition to the touch panel, the mobile terminal device 10 employing the touch panel may have hardware keys such as a power button, a volume button, and a home button.

近接センサ14は、携帯端末装置10と被写体との距離を計測する。近接センサ14は、例えば、超音波や赤外線等を被写体に照射して反射した超音波や赤外線の強さ、または、超音波や赤外線を被写体に照射してから反射して戻ってくるまでの時間を計測することで、距離を計測する。近接センサ14に超音波や赤外線を用いる場合は、超音波や赤外線に指向性があるので、近接センサ14は、カメラ11と撮像される画像の中心付近にある被写体との距離を計測する。なお、近接センサ14は、1mm〜500mm程度の距離が計測可能であれば、その他の方式でもよい。近接センサ14は、超音波や赤外線の強さを計測する場合は、例えば、所定範囲の電圧を計測情報として制御部20に出力する。また、近接センサ14は、反射時間を計測する場合は、例えば、反射時間を計測情報として制御部20に出力する。   The proximity sensor 14 measures the distance between the mobile terminal device 10 and the subject. The proximity sensor 14 is, for example, the intensity of ultrasonic waves or infrared rays reflected by irradiating the subject with ultrasonic waves or infrared rays, or the time from when the subject is irradiated with ultrasonic waves or infrared rays until it is reflected and returned. Measure the distance by measuring. When ultrasonic waves or infrared rays are used for the proximity sensor 14, since the ultrasonic waves and infrared rays are directional, the proximity sensor 14 measures the distance between the camera 11 and a subject near the center of the image to be captured. The proximity sensor 14 may be of any other method as long as a distance of about 1 mm to 500 mm can be measured. When measuring the intensity of ultrasonic waves or infrared rays, the proximity sensor 14 outputs a voltage within a predetermined range to the control unit 20 as measurement information, for example. Moreover, when measuring the reflection time, the proximity sensor 14 outputs the reflection time to the control unit 20 as measurement information, for example.

ジャイロセンサ15は、携帯端末装置10の角速度または加速度を検出する。ジャイロセンサ15は、いわゆるMEMS(Micro Electro Mechanical Systems)ジャイロを用いることができ、3軸ジャイロを用いることでX,Y,Zの3軸の角速度を検出することができる。ジャイロセンサ15は、検出した各軸の角速度を、角速度情報として制御部20に出力する。ここで、携帯端末装置10は、例えば、水平に設置された机上に携帯端末装置10を置いた場合を基準として、X,Y軸を0°とすることができる。また、Z軸は、例えば、図示しない磁気センサ等を用いて磁北または真北を0°とすることができる。   The gyro sensor 15 detects the angular velocity or acceleration of the mobile terminal device 10. As the gyro sensor 15, a so-called MEMS (Micro Electro Mechanical Systems) gyro can be used, and by using the triaxial gyro, the angular velocities of the X, Y, and Z axes can be detected. The gyro sensor 15 outputs the detected angular velocity of each axis to the control unit 20 as angular velocity information. Here, the mobile terminal device 10 can set the X and Y axes to 0 °, for example, with reference to the case where the mobile terminal device 10 is placed on a horizontally installed desk. For the Z axis, for example, a magnetic north or true north can be set to 0 ° using a magnetic sensor (not shown).

また、ジャイロセンサ15は、3軸加速度センサを用いて重力加速度を計測することで携帯端末装置10の傾きを検出して、角速度情報の代わりに加速度情報を出力するようにしてもよい。なお、ジャイロセンサ15は、MEMSジャイロと加速度センサを組み合わせることで、角度等の精度を高めることができる。   Further, the gyro sensor 15 may detect the inclination of the mobile terminal device 10 by measuring the gravitational acceleration using a three-axis acceleration sensor, and output the acceleration information instead of the angular velocity information. Note that the gyro sensor 15 can increase the accuracy of the angle and the like by combining the MEMS gyro and the acceleration sensor.

スピーカ16は、ユーザに対して携帯端末装置10の位置を誘導するための案内音声および撮影完了通知等を出力する。スピーカ16は、制御部20から電気信号である音声信号が入力されると、音声信号に応じた音波を空間に出力する。   The speaker 16 outputs a guidance voice for guiding the position of the mobile terminal device 10 to the user, a shooting completion notification, and the like. When an audio signal that is an electrical signal is input from the control unit 20, the speaker 16 outputs a sound wave corresponding to the audio signal to the space.

モータ17は、小型の電動機であり、軸に半月形の錘を取り付けることで、回転によりモータ17が固定されている携帯端末装置10の筐体を振動させる。モータ17は、制御部20から振動させる旨の指示が入力されると、回転して携帯端末装置10の筐体を振動させる。   The motor 17 is a small electric motor, and by attaching a half-moon-shaped weight to the shaft, the casing of the mobile terminal device 10 to which the motor 17 is fixed is vibrated by rotation. When an instruction to vibrate is input from the control unit 20, the motor 17 rotates to vibrate the casing of the mobile terminal device 10.

通信部18は、例えば、携帯電話回線、無線LAN(Local Area Network)、Bluetooth(登録商標)、および、NFC(Near Field Communication)等に対応する無線通信モジュールによって実現される。通信部18は、例えば、無線基地局を介して、インターネットに接続され、各種情報の通信を司る通信インタフェースである。   The communication unit 18 is realized by a wireless communication module that supports, for example, a mobile phone line, a wireless local area network (LAN), Bluetooth (registered trademark), and near field communication (NFC). The communication unit 18 is a communication interface that is connected to the Internet via, for example, a wireless base station and manages communication of various types of information.

記憶部19は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部19は、学習情報データベース(以下、学習情報DBという)21と、経過情報データベース(以下、経過情報DBという)22とを有する。また、記憶部19は、制御部20での処理に用いる情報を記憶する。   The storage unit 19 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 19 includes a learning information database (hereinafter referred to as learning information DB) 21 and a progress information database (hereinafter referred to as progress information DB) 22. Further, the storage unit 19 stores information used for processing in the control unit 20.

学習情報DB21は、ユーザが目的とする画像の距離情報、角度情報および構図情報等を有する学習情報を格納する。学習情報DB21は、異なる構図ごとにレコードを分けて学習情報を格納する。ここで、図2は、学習情報DBの一例を示す説明図である。図2に示すように、学習情報DB21は、距離情報101、距離情報の+側許容誤差102、距離情報の−側許容誤差103、角度情報104、角度情報の+側許容誤差105、角度情報の−側許容誤差106等の項目を対応付けて管理している。また、学習情報DB21は、構図情報107、構成要素108、部位109、位置110、初回撮影日時111、情報更新日時112、画像113等の項目を対応付けて管理している。   The learning information DB 21 stores learning information including distance information, angle information, composition information, and the like of an image intended by the user. The learning information DB 21 stores learning information by dividing records for different compositions. Here, FIG. 2 is an explanatory diagram illustrating an example of the learning information DB. As shown in FIG. 2, the learning information DB 21 includes distance information 101, distance information + side tolerance 102, distance information −side tolerance 103, angle information 104, angle information + side tolerance 105, and angle information Items such as the -side allowable error 106 are managed in association with each other. In addition, the learning information DB 21 manages items such as composition information 107, components 108, parts 109, positions 110, first shooting date / time 111, information update date / time 112, and images 113 in association with each other.

距離情報101は、目的の画像を撮影した撮影距離を示す。距離情報101は、学習が進んで複数の画像の情報を反映させた場合には、各画像の撮影距離の平均値を示す。距離情報の+側許容誤差102は、目的の画像を撮影した撮影距離の+側の許容誤差を示す。距離情報の+側許容誤差102は、従前の距離情報と、新たに撮影した画像の距離情報との差分に基づいて新たな許容誤差が算出されると、新たな許容誤差で更新される。距離情報の−側許容誤差103は、目的の画像を撮影した撮影距離の−側の許容誤差を示す。距離情報の−側許容誤差103は、距離情報の+側許容誤差102と同様の手順で更新される。   The distance information 101 indicates the shooting distance at which the target image is shot. The distance information 101 indicates an average value of the shooting distance of each image when learning progresses and information of a plurality of images is reflected. The + side allowable error 102 of the distance information indicates the + side allowable error of the shooting distance at which the target image is taken. The + side allowable error 102 of the distance information is updated with the new allowable error when a new allowable error is calculated based on the difference between the previous distance information and the distance information of the newly captured image. The -side allowable error 103 of the distance information indicates an allowable error on the-side of the shooting distance at which the target image is shot. The -side allowable error 103 of the distance information is updated in the same procedure as the + side allowable error 102 of the distance information.

角度情報104は、目的の画像を撮影したときの携帯端末装置10の角度を示す。角度情報104は、学習が進んで複数の画像の情報を反映させた場合には、各画像に対応する角度の平均値を示す。ここで、角度情報104は、例えば、携帯端末装置10の向きを表す向き情報とすることができる。角度情報104は、向き情報として、例えば、各軸の角度から携帯端末装置10の表示部12と水平面との角度、つまり、携帯端末装置10がどの程度傾いているかのみを表すことができる。また、角度情報104は、向き情報として、例えば、下向き、斜め下向き、上向きおよび斜め上向き等の大まかな向きのみを表すようにしてもよい。   The angle information 104 indicates an angle of the mobile terminal device 10 when a target image is captured. The angle information 104 indicates an average value of angles corresponding to each image when learning progresses and information of a plurality of images is reflected. Here, the angle information 104 can be orientation information representing the orientation of the mobile terminal device 10, for example. The angle information 104 can represent, for example, only the angle between the display unit 12 of the mobile terminal device 10 and the horizontal plane, that is, how much the mobile terminal device 10 is tilted from the angle of each axis as the orientation information. Further, the angle information 104 may represent only a rough direction such as downward, diagonally downward, upward, and diagonally upward as the orientation information.

角度情報の+側許容誤差105は、目的の画像を撮影したときの携帯端末装置10の角度の+側の許容誤差を示す。角度情報の+側許容誤差105は、従前の角度情報と、新たに撮影した画像の角度情報との差分に基づいて新たな許容誤差が算出されると、新たな許容誤差で更新される。角度情報の−側許容誤差106は、目的の画像を撮影したときの携帯端末装置10の角度の−側の許容誤差を示す。角度情報の−側許容誤差106は、角度情報の+側許容誤差105と同様の手順で更新される。なお、距離情報および角度情報の許容誤差は、予め設定された最大許容誤差内の値である場合に、新たな許容誤差に更新される。   The + side allowable error 105 of the angle information indicates an allowable error on the + side of the angle of the mobile terminal device 10 when the target image is captured. The + side allowable error 105 of the angle information is updated with the new allowable error when a new allowable error is calculated based on the difference between the previous angle information and the angle information of the newly captured image. The -side allowable error 106 of the angle information indicates an allowable error on the negative side of the angle of the mobile terminal device 10 when the target image is captured. The -side allowable error 106 of the angle information is updated in the same procedure as the + side allowable error 105 of the angle information. It should be noted that the allowable error of the distance information and the angle information is updated to a new allowable error when the value is within a preset maximum allowable error.

構図情報107は、さらに構成要素108を1つ以上含む。なお、図2の例では、構図情報107は、構成要素108を3つ含んでいるが、これに限られない。構成要素108は、部位109と、位置110とを有する。部位109は、目的とする被写体の部位を示す。部位109は、例えば、「頭頂部」、「耳」および「鼻」等といった情報である。なお、患部等の注目すべき特徴部位には、「頭頂部(患部)」のように追加情報またはフラグ情報等を含んでもよい。位置110は、目的の画像上における部位109の位置を示す。位置110は、例えば、「中央」、「右下」、「左下」といった情報である。初回撮影日時111は、学習情報DB21に、ある構図の画像を目的の画像として最初に格納した日時を示す。情報更新日時112は、新たに撮影した画像によって各項目を更新した場合、つまり、学習した場合の日時を示す。画像113は、目的の画像のファイルを示す。   The composition information 107 further includes one or more components 108. In the example of FIG. 2, the composition information 107 includes three constituent elements 108, but is not limited thereto. The component 108 has a portion 109 and a position 110. A part 109 indicates a target part of the subject. The part 109 is information such as “head of head”, “ear”, “nose”, and the like. It should be noted that the feature part to be noted such as the affected part may include additional information or flag information such as “the top of the head (affected part)”. A position 110 indicates the position of the part 109 on the target image. The position 110 is, for example, information such as “center”, “lower right”, and “lower left”. The first shooting date and time 111 indicates the date and time when an image having a certain composition is first stored in the learning information DB 21 as a target image. The information update date 112 indicates the date when each item is updated with a newly taken image, that is, when learning is performed. The image 113 shows a target image file.

図1の説明に戻って、経過情報DB22は、継続して撮影された、目的の画像と類似する画像である類似画像の撮影日時、距離情報、角度情報および構図情報等を有する経過情報を格納する。ここで、図3は、経過情報DBの一例を示す説明図である。図3に示すように、経過情報DB22は、撮影日時121、距離情報122、角度情報123、構図情報124、構成要素125、部位126、位置127、画像128等の項目を対応付けて管理している。   Returning to the description of FIG. 1, the progress information DB 22 stores progress information including the shooting date and time, distance information, angle information, composition information, and the like of a similar image that is continuously captured and is similar to the target image. To do. Here, FIG. 3 is an explanatory diagram showing an example of the progress information DB. As shown in FIG. 3, the progress information DB 22 manages items such as the shooting date / time 121, the distance information 122, the angle information 123, the composition information 124, the component 125, the part 126, the position 127, and the image 128 in association with each other. Yes.

撮影日時121は、類似画像が撮影された日時を示す。距離情報122は、類似画像が撮影されたときの携帯端末装置10と被写体との距離を示す。角度情報123は、類似画像が撮影されたときの携帯端末装置10の角度を示す。構図情報124は、さらに構成要素125を1つ以上含む。なお、図3の例では、構図情報124は、構成要素125を3つ含んでいるが、これに限られない。構成要素125は、部位126と、位置127とを有する。部位126は、類似画像上の目的とする被写体の部位を示す。部位126は、例えば、「頭頂部」、「耳」および「鼻」等といった情報である。なお、患部等の注目すべき特徴部位には、「頭頂部(患部)」のように追加情報またはフラグ情報等を含んでもよい。位置127は、類似画像上における部位126の位置を示す。位置127は、例えば、「中央」、「右下」、「左下」といった情報である。画像128は、類似画像のファイルを示す。   The shooting date / time 121 indicates the date / time when a similar image was shot. The distance information 122 indicates the distance between the mobile terminal device 10 and the subject when a similar image is captured. The angle information 123 indicates the angle of the mobile terminal device 10 when a similar image is captured. The composition information 124 further includes one or more components 125. In the example of FIG. 3, the composition information 124 includes three components 125, but is not limited thereto. The component 125 has a portion 126 and a position 127. A part 126 indicates a part of the target subject on the similar image. The part 126 is information such as “head of head”, “ear”, “nose”, and the like. It should be noted that the feature part to be noted such as the affected part may include additional information or flag information such as “the top of the head (affected part)”. A position 127 indicates the position of the part 126 on the similar image. The position 127 is information such as “center”, “lower right”, and “lower left”. The image 128 shows a similar image file.

ここで、画像128の具体例の一例を図4に示す。図4は、経過情報DBの画像の一例を示す説明図である。画像31〜画像34は、例えば、頭頂部の患部の画像であり、画像31から画像34の順に時間が経過した画像である。例えば、画像31〜画像34は、頭頂部の患部を継続的に観察するために、なるべく同じ構図で撮影された画像であることが好ましい。つまり、経過情報DB22は、患部等の所定部位における、時間の経過による変化を記録するためのデータベースである。   Here, an example of a specific example of the image 128 is shown in FIG. FIG. 4 is an explanatory diagram illustrating an example of an image of the progress information DB. The images 31 to 34 are, for example, images of the affected part of the top of the head, and are images in which time has passed in order from the image 31 to the image 34. For example, the images 31 to 34 are preferably images taken with the same composition as much as possible in order to continuously observe the affected area on the top of the head. That is, the progress information DB 22 is a database for recording changes over time in a predetermined site such as an affected part.

図1の説明に戻って、制御部20は、例えば、CPUやMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部20は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部20は、取得部23と、学習部24と、抽出部25と、判定部26と、出力部27とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部20の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   Returning to the description of FIG. 1, the control unit 20 is realized by a program stored in an internal storage device being executed using the RAM as a work area, for example, by a CPU, an MPU (Micro Processing Unit), or the like. . The control unit 20 may be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The control unit 20 includes an acquisition unit 23, a learning unit 24, an extraction unit 25, a determination unit 26, and an output unit 27, and implements or executes information processing functions and operations described below. Note that the internal configuration of the control unit 20 is not limited to the configuration illustrated in FIG. 1, and may be another configuration as long as information processing described later is performed.

取得部23は、カメラ11から画像が入力され、カメラ11で撮像された画像を取得する。また、取得部23は、近接センサ14から計測情報が入力され、ジャイロセンサ15から角速度情報および加速度情報のうち1つ以上が入力される。取得部23は、計測情報の電圧または反射時間に基づいて、携帯端末装置10と被写体との距離を算出し、画像の距離情報とする。また、取得部23は、角速度情報および加速度情報のうち1つ以上に基づいて、画像取得時の携帯端末装置10の角度を算出して角度情報とする。ここで、取得部23は、角速度情報の角度を積分することで角度を算出する。また、取得部23は、加速度情報の各軸の重力加速度に基づいて、携帯端末装置10の各軸の角度を算出する。   The acquisition unit 23 receives an image from the camera 11 and acquires an image captured by the camera 11. The acquisition unit 23 receives measurement information from the proximity sensor 14 and receives one or more of angular velocity information and acceleration information from the gyro sensor 15. The acquisition unit 23 calculates the distance between the mobile terminal device 10 and the subject based on the voltage or the reflection time of the measurement information, and sets it as the distance information of the image. Moreover, the acquisition part 23 calculates the angle of the portable terminal device 10 at the time of image acquisition based on one or more of angular velocity information and acceleration information, and makes it into angle information. Here, the acquisition unit 23 calculates the angle by integrating the angle of the angular velocity information. In addition, the acquisition unit 23 calculates the angle of each axis of the mobile terminal device 10 based on the gravitational acceleration of each axis of the acceleration information.

ここで、取得部23は、携帯端末装置10の向きを表す向き情報として、例えば、各軸の角度から携帯端末装置10の表示部12と水平面との角度、つまり、携帯端末装置10がどの程度傾いているかのみを表す角度を算出してもよい。さらに、取得部23は、向き情報として、例えば、下向き、斜め下向き、上向きおよび斜め上向き等の大まかな向きのみを表すようにしてもよい。なお、取得部23は、加速度を積分することにより、携帯端末装置10の移動量(移動距離)を算出することができる。   Here, as the orientation information indicating the orientation of the mobile terminal device 10, the acquisition unit 23, for example, the angle between the display unit 12 of the mobile terminal device 10 and the horizontal plane from the angle of each axis, that is, how much the mobile terminal device 10 is. You may calculate the angle showing only whether it inclines. Furthermore, the acquisition unit 23 may represent only rough directions such as downward, diagonally downward, upward, and diagonally upward as the orientation information. The acquisition unit 23 can calculate the movement amount (movement distance) of the mobile terminal device 10 by integrating the acceleration.

また、取得部23は、ユーザの指示により類似画像の撮像処理を行う際に、学習情報DB21から学習情報を読み出して、目的の画像の画像例を表示部12に表示する。取得部23は、ユーザによって撮影したい画像例が選択されると、カメラ11、近接センサ14およびジャイロセンサ15を起動し、画像、計測情報、角速度情報または加速度情報の取得を開始する。取得部23は、計測情報に基づいて画像の距離情報を算出し、角速度情報または加速度情報に基づいて、画像取得時の携帯端末装置10の角度情報または向き情報を算出する。取得部23は、画像を学習部24および抽出部25に出力する。また、取得部23は、画像の距離情報、および、画像取得時の携帯端末装置10の角度情報または向き情報を、学習部24および判定部26に出力する。また、取得部23は、ユーザによって選択された画像例の情報を判定部26に出力する。   The acquisition unit 23 reads learning information from the learning information DB 21 and displays an image example of a target image on the display unit 12 when performing a similar image capturing process according to a user instruction. The acquisition unit 23 activates the camera 11, the proximity sensor 14, and the gyro sensor 15 when the user selects an example of an image to be photographed, and starts acquiring images, measurement information, angular velocity information, or acceleration information. The acquisition unit 23 calculates distance information of the image based on the measurement information, and calculates angle information or orientation information of the mobile terminal device 10 at the time of image acquisition based on the angular velocity information or the acceleration information. The acquisition unit 23 outputs the image to the learning unit 24 and the extraction unit 25. Further, the acquisition unit 23 outputs the distance information of the image and the angle information or orientation information of the mobile terminal device 10 at the time of image acquisition to the learning unit 24 and the determination unit 26. Further, the acquisition unit 23 outputs information on the image example selected by the user to the determination unit 26.

なお、取得部23は、カメラ11で撮像された画像を、動画像または静止画像として、記憶部19に出力してもよい。取得部23は、動画像として、例えば、1080i等のFHD(Full High Definition video)画質、または、720p等のHD(High Definition video)画質の動画像を出力する。また、取得部23は、静止画像として、例えば、カメラ11のイメージセンサの画素数が800万画素であれば、3264×2448ピクセルまでの画素を有する静止画像を出力する。なお、静止画像は、必要とする情報が写っていれば、イメージセンサの画素数以下である任意の画素数とすることができる。   The acquisition unit 23 may output an image captured by the camera 11 to the storage unit 19 as a moving image or a still image. The acquisition unit 23 outputs, for example, a moving image having an FHD (Full High Definition video) image quality such as 1080i or an HD (High Definition video) image quality such as 720p as a moving image. For example, when the number of pixels of the image sensor of the camera 11 is 8 million pixels, the acquisition unit 23 outputs a still image having pixels of up to 3264 × 2448 pixels. Note that the still image can have any number of pixels equal to or less than the number of pixels of the image sensor as long as necessary information is captured.

学習部24には、取得部23から画像、画像の距離情報、および、画像取得時の携帯端末装置10の角度情報または向き情報が入力される。学習部24は、画像の距離情報、および、画像取得時の携帯端末装置10の角度情報または向き情報が取得できた画像について、所定間隔、例えば、0.5秒間隔で所定枚数を抽出して、抽出した複数の画像を候補の画像として表示部12に出力して表示する。つまり、学習部24は、所定間隔の連続した画像を、候補の画像としてユーザに提示する。   The learning unit 24 receives an image, image distance information, and angle information or orientation information of the mobile terminal device 10 at the time of image acquisition from the acquisition unit 23. The learning unit 24 extracts a predetermined number of images at a predetermined interval, for example, an interval of 0.5 seconds, from the image distance information and the angle information or orientation information of the mobile terminal device 10 at the time of image acquisition. The plurality of extracted images are output as candidate images to the display unit 12 and displayed. That is, the learning unit 24 presents a continuous image at a predetermined interval to the user as a candidate image.

学習部24は、ユーザによって目的の画像であるとして選択された候補の画像について、画像処理により被写体の構成要素として、部位と部位の位置とを抽出する。学習部24は、部位として、例えば、人物の頭部が写っている画像について、頭髪部と他の領域とに分割し、患部、眉、耳、鼻、および、つむじ等を抽出する。学習部24は、各部位を抽出すると、各部位と各部位の位置が対応付けられた構成要素を1つ以上含む構図情報を生成する。ここで、部位について図5に例示する。図5は、部位の一例を示す説明図である。学習部24は、画像35について、頭髪部36と他の領域とに分割する。学習部24は、頭髪部36からは、つむじ37を部位として抽出する。また、学習部24は、他の領域からは、耳38、鼻39、および、眉40を部位として抽出する。   The learning unit 24 extracts a part and a position of the part as a constituent element of the subject by image processing for the candidate image selected as the target image by the user. For example, the learning unit 24 divides an image showing a person's head into a hair portion and other regions, and extracts an affected part, eyebrows, ears, nose, and a toothpick. When each part is extracted, the learning unit 24 generates composition information including one or more components in which each part is associated with the position of each part. Here, the part is illustrated in FIG. FIG. 5 is an explanatory diagram illustrating an example of a part. The learning unit 24 divides the image 35 into the hair unit 36 and other regions. The learning unit 24 extracts the toothpick 37 from the hair unit 36 as a part. Further, the learning unit 24 extracts the ear 38, the nose 39, and the eyebrow 40 as parts from other regions.

学習部24は、構図情報が生成できた画像について、画像の距離情報、画像取得時の携帯端末装置10の角度情報または向き情報、および、構図情報を対応付けて、経過情報として経過情報DB22に格納する。また、学習部24は、当該画像の経過情報に、画像の距離情報および画像取得時の携帯端末装置10の角度情報または向き情報に対して、予め設定された許容範囲である許容誤差を付加して学習情報を生成し、学習情報DB21に格納する。つまり、学習部24は、学習情報を生成する生成部である。   The learning unit 24 associates the distance information of the image, the angle information or orientation information of the mobile terminal device 10 at the time of image acquisition, and the composition information with respect to the image for which the composition information has been generated, and stores it in the progress information DB 22 as progress information. Store. Further, the learning unit 24 adds to the progress information of the image an allowable error that is a preset allowable range with respect to the distance information of the image and the angle information or the orientation information of the mobile terminal device 10 at the time of image acquisition. Learning information is generated and stored in the learning information DB 21. That is, the learning unit 24 is a generation unit that generates learning information.

また、学習部24は、判定部26から更新情報が入力されると、経過情報DB22を参照して更新する経過情報を読み出し、対応する学習情報との間で距離情報および角度情報の差分を算出する。学習部24は、学習情報の距離情報および角度情報の許容誤差に算出した差分を加えて、新たな許容誤差を算出する。学習部24は、新たな許容誤差が最大許容誤差内であれば、新たな許容誤差を学習情報に反映する。学習部24は、新たな許容誤差が最大許容誤差外であれば、算出した新たな許容誤差は反映せずに破棄する。学習部24は、距離情報および角度情報の差分が未算出の経過情報がある場合は、次の経過情報を参照し、同様に新たな許容誤差を算出する。学習部24は、距離情報および角度情報の差分が未算出の経過情報がない場合は、学習情報の更新処理を終了する。なお、学習部24は、角度情報に代わって向き情報の許容誤差を算出するようにしてもよい。   Further, when update information is input from the determination unit 26, the learning unit 24 reads the progress information to be updated with reference to the progress information DB 22, and calculates the difference between the distance information and the angle information with the corresponding learning information. To do. The learning unit 24 calculates a new allowable error by adding the calculated difference to the allowable error of the distance information and the angle information of the learning information. If the new allowable error is within the maximum allowable error, the learning unit 24 reflects the new allowable error in the learning information. If the new allowable error is outside the maximum allowable error, the learning unit 24 discards the calculated new allowable error without reflecting it. When there is progress information for which the difference between the distance information and the angle information has not been calculated, the learning unit 24 refers to the next progress information and similarly calculates a new allowable error. If there is no progress information for which the difference between the distance information and the angle information has not been calculated, the learning unit 24 ends the learning information update process. Note that the learning unit 24 may calculate an allowable error of the orientation information instead of the angle information.

図1の説明に戻って、抽出部25は、取得部23から画像が入力されると、画像の被写体に対してパターンマッチング等の画像処理を実行する。抽出部25は、画像処理により、画像から被写体の部位および画像上の部位の位置を抽出して、抽出した部位と部位の位置とを構成要素とする。抽出部25は、抽出した1つ以上の構成要素を纏めて構図情報を生成する。抽出部25は、生成した構図情報を判定部26に出力する。   Returning to the description of FIG. 1, when an image is input from the acquisition unit 23, the extraction unit 25 performs image processing such as pattern matching on the subject of the image. The extraction unit 25 extracts the part of the subject and the position of the part on the image from the image by image processing, and uses the extracted part and the position of the part as components. The extraction unit 25 collects one or more extracted components and generates composition information. The extraction unit 25 outputs the generated composition information to the determination unit 26.

判定部26は、抽出部25から構図情報が入力されると、学習情報DB21に格納された学習情報を読み出す。判定部26は、構図情報の構成要素と、学習情報の構成要素が一致するか否かを判定する。判定部26は、まず、構成要素の部位が互いに一致するか否かを判定する。判定部26は、構成要素が複数ある場合にはそれぞれ判定し、少なくとも1つ以上一致する部位があれば、当該部位の位置が一致するか否かを判定する。つまり、判定部26は、構図情報および学習情報の構成要素が、少なくとも1つ以上一致するか否かを判定する。   When the composition information is input from the extraction unit 25, the determination unit 26 reads the learning information stored in the learning information DB 21. The determination unit 26 determines whether the constituent element of the composition information matches the constituent element of the learning information. First, the determination unit 26 determines whether or not the component parts match each other. The determination unit 26 determines whether there are a plurality of constituent elements, and determines whether or not the positions of the parts match if there is at least one or more matching parts. That is, the determination unit 26 determines whether or not at least one constituent element of the composition information and the learning information matches.

また、判定部26には、取得部23から画像の距離情報、および、画像取得時の携帯端末装置10の角度情報または向き情報が入力される。判定部26は、構図情報および学習情報の構成要素が、少なくとも1つ以上一致する場合には、画像の距離情報を、学習情報の距離情報と比較する。判定部26は、互いの距離情報の差が許容範囲内、つまり、+側、−側それぞれの許容誤差の範囲内であれば、画像に、距離情報、角度情報または向き情報、および、構図情報を対応付けて、出力部27に出力する。このとき、判定部26は、画像が出力されたことをユーザに通知するために、例えば、音声で「撮影が完了しました」と通知し、または、携帯端末装置10を振動させて通知するようにしてもよい。   Further, the distance information of the image and the angle information or the orientation information of the mobile terminal device 10 at the time of image acquisition are input to the determination unit 26 from the acquisition unit 23. The determining unit 26 compares the distance information of the image with the distance information of the learning information when at least one of the constituent elements of the composition information and the learning information matches. If the difference between the distance information is within an allowable range, that is, within the allowable error range on each of the + side and the − side, the determination unit 26 adds distance information, angle information or orientation information, and composition information to the image. Are associated with each other and output to the output unit 27. At this time, in order to notify the user that the image has been output, the determination unit 26 notifies, for example, by voice that “shooting is completed” or vibrates the mobile terminal device 10. It may be.

判定部26は、構図情報および学習情報の構成要素が、所定数一致しない場合、または、互いの距離情報の差が許容範囲外である場合には、ユーザに対して、当該画像の構図情報または距離情報を学習情報へ向けて誘導する。判定部26は、ユーザを誘導するために、音声で携帯端末装置10を動かす方向を案内する。判定部26は、例えば、被写体の目的とする部位が画像の下部にあると判定した場合は、携帯端末装置10を下方に移動させるように、例えば、「下に動かしてください」等と案内する。また、判定部26は、ユーザを誘導するために、携帯端末装置10を振動させて案内してもよい。判定部26は、例えば、被写体の目的とする部位が画像の中心にある程、振動を強くして、画像の端になる程、振動を弱くし、画像の撮像範囲から外れている場合には、振動しないようにすることで、ユーザを案内できる。また、判定部26は、例えば、携帯端末装置10が被写体に近づきすぎている場合には、例えば、「カメラを遠ざけてください」等と案内する。つまり、判定部26は、案内を通知する通知部でもある。   If the predetermined number of constituent elements of the composition information and the learning information do not match, or if the difference between the distance information is outside the allowable range, the determination unit 26 notifies the user of the composition information of the image. Or it guides distance information toward learning information. The determination unit 26 guides the direction in which the mobile terminal device 10 is moved by voice in order to guide the user. For example, if the determination unit 26 determines that the target portion of the subject is at the bottom of the image, the determination unit 26 guides the user to move the mobile terminal device 10 downward, for example, “Move it down”. . Further, the determination unit 26 may guide the mobile terminal device 10 by vibrating it in order to guide the user. For example, the determination unit 26 increases the vibration as the target portion of the subject is at the center of the image, and decreases the vibration as the end of the image is out of the image capturing range. By preventing vibration, the user can be guided. For example, when the mobile terminal device 10 is too close to the subject, the determination unit 26 guides, for example, “Please keep the camera away”. That is, the determination unit 26 is also a notification unit that notifies the guidance.

判定部26は、取得部23から入力された、ユーザによって選択された画像例の情報に基づいて、全ての画像例に対応する画像を撮影したか判定する。判定部26は、全ての画像例に対応する画像の撮影が完了していない場合は、次の画像例に対応する撮影位置にユーザを誘導する。判定部26は、全ての画像例に対応する画像の撮影が完了した場合は、学習部24に対して、更新情報を出力する。   The determination unit 26 determines whether images corresponding to all the image examples have been captured based on the information on the image examples selected by the user input from the acquisition unit 23. The determination unit 26 guides the user to a shooting position corresponding to the next image example when shooting of images corresponding to all the image examples is not completed. The determination unit 26 outputs update information to the learning unit 24 when imaging of images corresponding to all image examples is completed.

出力部27には、判定部26から画像、ならびに、画像に対応付けられた距離情報、角度情報または向き情報、および、構図情報が入力される。出力部27は、画像、ならびに、画像に対応付けられた距離情報、角度情報または向き情報、および、構図情報を経過情報として経過情報DB22に格納する。また、出力部27は、ユーザが撮影した画像を確認できるように、画像を表示部12に出力して表示する。さらに、出力部27は、画像に対してエンコード処理を実行し、画像のファイルサイズを圧縮するようにしてもよい。出力部27は、エンコードされた画像を記憶部19に出力してもよいし、通信部18およびインターネットを介して、他のサーバに格納するようにしてもよい。   The output unit 27 receives an image from the determination unit 26, and distance information, angle information or orientation information, and composition information associated with the image. The output unit 27 stores the image, distance information associated with the image, angle information or orientation information, and composition information in the progress information DB 22 as progress information. Further, the output unit 27 outputs and displays the image on the display unit 12 so that the user can confirm the captured image. Further, the output unit 27 may perform an encoding process on the image to compress the file size of the image. The output unit 27 may output the encoded image to the storage unit 19 or may store the encoded image in another server via the communication unit 18 and the Internet.

次に、実施例の携帯端末装置10の動作について説明する。   Next, the operation of the mobile terminal device 10 according to the embodiment will be described.

まず、図6を用いて、学習情報がない状態からの学習処理の概略を説明する。図6は、学習処理の一例の概略を示す説明図である。ユーザは、携帯端末装置10を手に持って、自身では目視できない頭頂部および後頭部等を撮影して、目的の画像の候補となる画像を取得する。このとき、携帯端末装置10は、撮像範囲に頭部全体が収まっているのか、または、一部分が写っている状態であるかを案内してもよい。携帯端末装置10は、表示部12に、候補の画像をサムネイル表示する枠41を表示し、候補の各画像を表示する。ユーザは、指で画像をタッチする等して画像42を選択する。携帯端末装置10は、選択された画像42に、画像の距離情報、画像取得時の携帯端末装置10の角度情報または向き情報、および、構図情報等を対応付けて学習情報を生成し、学習情報DB21に格納する。   First, an outline of a learning process from a state where there is no learning information will be described with reference to FIG. FIG. 6 is an explanatory diagram illustrating an outline of an example of the learning process. The user holds the mobile terminal device 10 in his / her hand and takes images of the top of the head and the back of the head that cannot be seen by himself / herself, and acquires an image that is a candidate for a target image. At this time, the mobile terminal device 10 may guide whether the entire head is within the imaging range or whether a part of the head is captured. The mobile terminal device 10 displays a frame 41 for displaying candidate images as thumbnails on the display unit 12 and displays each candidate image. The user selects the image 42 by touching the image with a finger or the like. The mobile terminal device 10 generates learning information by associating the selected image 42 with image distance information, angle information or orientation information of the mobile terminal device 10 at the time of image acquisition, composition information, and the like. Store in DB21.

図7は、実施例の携帯端末装置の学習処理の一例を示すフローチャートである。携帯端末装置10は、ユーザの指示によって学習処理が開始されると、取得部23が、カメラ11、近接センサ14およびジャイロセンサ15を起動し、画像、計測情報、角速度情報または加速度情報の取得を開始する(ステップS1)。取得部23は、計測情報に基づいて画像の距離情報を算出し、角速度情報または加速度情報に基づいて、画像取得時の携帯端末装置10の角度情報または向き情報を算出する。ここで、取得部23は、計測情報に基づいて画像の距離情報が算出できたか否か、つまり、距離情報が取得できたか否かを判定する(ステップS2)。取得部23は、距離情報が取得できない場合は(ステップS2:否定)、新たな計測情報に基づいて、再度画像の距離情報を算出する。   FIG. 7 is a flowchart illustrating an example of learning processing of the mobile terminal device according to the embodiment. In the mobile terminal device 10, when the learning process is started by an instruction from the user, the acquisition unit 23 activates the camera 11, the proximity sensor 14, and the gyro sensor 15 to acquire images, measurement information, angular velocity information, or acceleration information. Start (step S1). The acquisition unit 23 calculates distance information of the image based on the measurement information, and calculates angle information or orientation information of the mobile terminal device 10 at the time of image acquisition based on the angular velocity information or the acceleration information. Here, the acquisition unit 23 determines whether the distance information of the image has been calculated based on the measurement information, that is, whether the distance information has been acquired (step S2). If the distance information cannot be acquired (No at Step S2), the acquisition unit 23 calculates the distance information of the image again based on the new measurement information.

取得部23は、距離情報が取得できた場合は(ステップS2:肯定)、角速度情報または加速度情報に基づいて、角度情報または向き情報を算出できたか否か、つまり、角度情報または向き情報が取得できたか否かを判定する(ステップS3)。取得部23は、角度情報または向き情報が取得できない場合は(ステップS3:否定)、ステップS2に戻り、距離情報が取得できた場合は、新たな角速度情報または加速度情報に基づいて、再度角度情報または向き情報を算出する。取得部23は、角度情報または向き情報が取得できた場合は(ステップS3:肯定)、画像、画像の距離情報、および、角度情報または向き情報を学習部24に出力する。   When the distance information can be acquired (step S2: affirmative), the acquisition unit 23 determines whether the angle information or the direction information can be calculated based on the angular velocity information or the acceleration information, that is, the angle information or the direction information is acquired. It is determined whether or not it has been completed (step S3). If the angle information or the direction information cannot be acquired (No at Step S3), the acquisition unit 23 returns to Step S2, and if the distance information can be acquired, the angle information is again obtained based on the new angular velocity information or acceleration information. Alternatively, orientation information is calculated. When the angle information or the direction information can be acquired (Step S3: Yes), the acquisition unit 23 outputs the image, the distance information of the image, and the angle information or the direction information to the learning unit 24.

学習部24は、取得部23から入力された、画像の距離情報、および、角度情報または向き情報が取得できた画像について、取得部23が所定間隔で所定枚数を抽出したか否かを判定する(ステップS4)。学習部24は、取得部23が所定間隔で所定枚数の画像を抽出できなかった場合は(ステップS4:否定)、ステップS2に戻り、取得部23に対して、画像、画像の距離情報、および、角度情報または向き情報の再取得を指示する。学習部24は、取得部23が所定間隔で所定枚数の画像を抽出できた場合は(ステップS4:肯定)、抽出した所定枚数の画像を候補の画像として表示部12に出力して表示し、ユーザに提示する(ステップS5)。   The learning unit 24 determines whether or not the acquisition unit 23 has extracted a predetermined number of images at predetermined intervals for the image distance information and angle information or orientation information input from the acquisition unit 23. (Step S4). If the acquisition unit 23 cannot extract a predetermined number of images at predetermined intervals (No at Step S4), the learning unit 24 returns to Step S2 to the acquisition unit 23, and the image, image distance information, and Instructing reacquisition of angle information or orientation information. The learning unit 24 outputs and displays the extracted predetermined number of images as candidate images on the display unit 12 when the acquisition unit 23 can extract the predetermined number of images at predetermined intervals (step S4: Yes). Present to the user (step S5).

学習部24は、携帯端末装置10の表示部12に提示された候補の画像から、ユーザによって目的の画像が選択されたか否か判定する(ステップS6)。学習部24は、ユーザによって目的の画像が選択されなかった場合には(ステップS6:否定)、ステップS2に戻り、取得部23に対して、画像、画像の距離情報、および、角度情報または向き情報の再取得を指示する。学習部24は、ユーザによって目的の画像が選択された場合には(ステップS6:肯定)、被写体の構成要素として、部位と部位の位置とを抽出して構成要素とし、構成要素から構図情報を生成する(ステップS7)。   The learning unit 24 determines whether a target image has been selected by the user from the candidate images presented on the display unit 12 of the mobile terminal device 10 (step S6). If the target image is not selected by the user (No at Step S6), the learning unit 24 returns to Step S2 and returns the image, the distance information of the image, and the angle information or orientation to the acquisition unit 23. Instructs reacquisition of information. When the target image is selected by the user (step S6: affirmative), the learning unit 24 extracts a part and a position of the part as constituent elements of the subject to form constituent elements, and obtains composition information from the constituent elements. Generate (step S7).

学習部24は、構図情報が生成できたか否かを判定する(ステップS8)。学習部24は、構図情報が生成できなかった場合には(ステップS8:否定)、ステップS2に戻り、取得部23に対して、画像、画像の距離情報、および、角度情報または向き情報の再取得を指示する。学習部24は、構図情報が生成できた場合には(ステップS8:肯定)、画像に対して、画像の距離情報、角度情報または向き情報、および、構図情報を対応付けて、経過情報として経過情報DB22に格納する(ステップS9)。また、学習部24は、当該画像の経過情報に、画像の距離情報および角度情報または向き情報に対して予め設定された許容範囲である許容誤差を付加して学習情報を生成し、学習情報DB21に格納する(ステップS10)。   The learning unit 24 determines whether composition information has been generated (step S8). If the composition information could not be generated (No at Step S8), the learning unit 24 returns to Step S2 and re-generates the image, the distance information of the image, and the angle information or the orientation information. Instruct acquisition. When the composition information can be generated (step S8: affirmative), the learning unit 24 associates the image distance information, the angle information or the orientation information, and the composition information with each other as progress information. The information is stored in the information DB 22 (step S9). Further, the learning unit 24 generates learning information by adding to the progress information of the image an allowable error that is a predetermined allowable range with respect to the distance information and angle information or orientation information of the image, and generates learning information. (Step S10).

携帯端末装置10は、学習処理によって、自動撮影のための目的となる画像と、当該画像に対応する構図情報等とを取得し、学習情報を生成することができる。   The mobile terminal device 10 can acquire learning information by acquiring the target image for automatic shooting and composition information corresponding to the image by learning processing.

続いて、図8を用いて、経過情報として目標の画像に類似する画像を撮像する処理の概略を説明する。図8は、類似画像撮像処理の一例の概略を示す説明図である。ユーザは、携帯端末装置10の表示部12に表示された学習情報の画像から、撮影したい画像例43を選択する。ここで、画像例43として、例えば、画像例43A,43B,43Cが選択されたとする。画像例43A〜43Cには、それぞれ学習情報が対応付けられている。ユーザは、携帯端末装置10を手に持って、画像例43A〜43Cに類似する画像を撮影するために、自身では目視できない頭頂部および後頭部等に向けて携帯端末装置10を移動させる。   Next, an outline of processing for capturing an image similar to a target image as progress information will be described with reference to FIG. FIG. 8 is an explanatory diagram illustrating an outline of an example of the similar image capturing process. The user selects an image example 43 to be photographed from the learning information image displayed on the display unit 12 of the mobile terminal device 10. Here, as the image example 43, for example, it is assumed that image examples 43A, 43B, and 43C are selected. Learning information is associated with each of the image examples 43A to 43C. The user holds the mobile terminal device 10 in his / her hand and moves the mobile terminal device 10 toward the top of the head and the back of the head which cannot be seen by himself / herself in order to capture images similar to the image examples 43A to 43C.

携帯端末装置10は、被写体であるユーザの目標とする部位が、例えば、撮像範囲内に入ると、目標とする部位が撮像範囲の中央にくるように、ユーザを誘導する。携帯端末装置10は、ユーザが誘導に従って携帯端末装置10を移動させ、目標とする部位が撮像範囲の中央にくると、自動的に撮影を行う。携帯端末装置10は、例えば、画像例43Aの学習情報と、撮影中の画像の構図情報とが同じになる方向に誘導し、類似の画像を撮像する。携帯端末装置10は、画像例43Aの撮像が終了すると、続いて、画像例43B,43Cについて誘導および撮像を行う。なお、携帯端末装置10は、画像例43A〜43Cの撮影の順番は任意とし、最も近い画像例から撮影する。携帯端末装置10は、撮像した画像例43A〜43Cに類似する画像を、撮像時の距離情報、携帯端末装置10の角度情報または向き情報、および、構図情報等を対応付けて経過情報を生成し、経過情報DB22に格納する。   For example, when the target part of the user who is the subject enters the imaging range, the mobile terminal device 10 guides the user so that the target part is in the center of the imaging range. The mobile terminal device 10 automatically performs imaging when the user moves the mobile terminal device 10 according to the guidance and the target site is in the center of the imaging range. For example, the mobile terminal device 10 guides in a direction in which the learning information of the image example 43A and the composition information of the image being captured are the same, and captures a similar image. When the imaging of the image example 43A is completed, the portable terminal device 10 performs guidance and imaging for the image examples 43B and 43C. Note that the mobile terminal device 10 captures images of the image examples 43A to 43C in any order, and captures images from the closest image example. The mobile terminal device 10 generates progress information by associating images similar to the captured image examples 43A to 43C with distance information at the time of imaging, angle information or orientation information of the mobile terminal device 10, composition information, and the like. And stored in the progress information DB 22.

図9は、実施例の携帯端末装置の類似画像撮像処理の一例を示すフローチャートである。携帯端末装置10は、ユーザの指示によって類似画像の撮像処理が開始されると、取得部23が学習情報DB21から学習情報を読み出して、目的の画像の画像例を表示部12に表示する(ステップS51)。取得部23は、ユーザによって撮影したい画像例が選択されると、選択された画像例の情報を判定部26に出力する(ステップS52)。また、取得部23は、カメラ11、近接センサ14およびジャイロセンサ15を起動し、画像、計測情報、角速度情報または加速度情報の取得を開始する(ステップS53)。取得部23は、計測情報に基づいて画像の距離情報を算出し、角速度情報または加速度情報に基づいて、画像取得時の携帯端末装置10の角度情報または向き情報を算出する。取得部23は、画像を抽出部25に出力する。また、取得部23は、画像の距離情報、および、画像取得時の携帯端末装置10の角度情報または向き情報を、判定部26に出力する。   FIG. 9 is a flowchart illustrating an example of the similar image capturing process of the mobile terminal device according to the embodiment. In the portable terminal device 10, when a similar image capturing process is started in accordance with a user instruction, the acquisition unit 23 reads out learning information from the learning information DB 21 and displays an image example of a target image on the display unit 12 (step 1). S51). When the user selects an example image to be photographed, the acquisition unit 23 outputs information on the selected example image to the determination unit 26 (step S52). In addition, the acquisition unit 23 activates the camera 11, the proximity sensor 14, and the gyro sensor 15, and starts acquiring images, measurement information, angular velocity information, or acceleration information (step S53). The acquisition unit 23 calculates distance information of the image based on the measurement information, and calculates angle information or orientation information of the mobile terminal device 10 at the time of image acquisition based on the angular velocity information or the acceleration information. The acquisition unit 23 outputs the image to the extraction unit 25. The acquisition unit 23 outputs the distance information of the image and the angle information or the orientation information of the mobile terminal device 10 at the time of image acquisition to the determination unit 26.

抽出部25は、取得部23から画像が入力されると、画像から被写体の部位および画像上の部位の位置を抽出して、抽出した部位と部位の位置とを構成要素とする。抽出部25は、抽出した1つ以上の構成要素を纏めて構図情報を生成する(ステップS54)。抽出部25は、生成した構図情報を判定部26に出力する。   When the image is input from the acquisition unit 23, the extraction unit 25 extracts the part of the subject and the position of the part on the image from the image, and uses the extracted part and the position of the part as components. The extraction unit 25 collects one or more extracted components and generates composition information (step S54). The extraction unit 25 outputs the generated composition information to the determination unit 26.

判定部26は、抽出部25から構図情報が入力されると、学習情報DB21に格納された学習情報を読み出す。判定部26は、構図情報の構成要素と、学習情報の構成要素が少なくとも1つ以上一致するか否かを判定する(ステップS55)。判定部26は、それぞれの構成要素が少なくとも1つ以上一致する場合は(ステップS55:肯定)、画像の距離情報を、学習情報の距離情報と比較し、互いの距離情報の差が許容範囲内であるか否かを判定する(ステップS56)。つまり、判定部26は、被写体と携帯端末装置10との距離が、学習情報における距離情報の許容範囲内であるか否かを判定する。判定部26は、それぞれの構成要素が所定数一致しない場合(ステップS55:否定)、または、互いの距離情報の差が許容範囲外である場合は(ステップS56:否定)、ユーザを撮像位置に誘導し(ステップS60)、ステップS54へ戻る。つまり、判定部26は、当該画像の構図情報または距離情報を学習情報へ向けて、ユーザを誘導する。判定部26は、互いの距離情報の差が許容範囲内である場合は(ステップS56:肯定)、画像に、距離情報、角度情報または向き情報、および、構図情報を対応付けて、出力部27に出力する。また、判定部26は、画像が出力されたことをユーザに通知するために、例えば、音声で「撮影が完了しました」と通知し、または、携帯端末装置10を振動させて通知する。   When the composition information is input from the extraction unit 25, the determination unit 26 reads the learning information stored in the learning information DB 21. The determination unit 26 determines whether or not at least one constituent element of the composition information matches at least one constituent element of the learning information (step S55). The determination unit 26 compares the distance information of the image with the distance information of the learning information when at least one of the respective constituent elements matches (step S55: Yes), and the difference between the distance information is within the allowable range. It is determined whether or not (step S56). That is, the determination unit 26 determines whether the distance between the subject and the mobile terminal device 10 is within the allowable range of the distance information in the learning information. When the predetermined number of components does not match each other (step S55: negative), or when the difference between the distance information is outside the allowable range (step S56: negative), the determination unit 26 determines that the user is in the imaging position. (Step S60), and the process returns to step S54. That is, the determination unit 26 guides the user with the composition information or distance information of the image directed to the learning information. When the difference between the distance information is within the allowable range (step S56: Yes), the determination unit 26 associates the distance information, the angle information or the orientation information, and the composition information with the image, and outputs the output unit 27. Output to. Further, in order to notify the user that the image has been output, the determination unit 26 notifies, for example, “Shooting has been completed” by voice, or notifies the user by vibrating the mobile terminal device 10.

出力部27は、判定部26から画像、距離情報、角度情報または向き情報、および、構図情報が入力されると、画像に、距離情報、角度情報または向き情報、および、構図情報を対応付けて経過情報とし、経過情報DB22に格納する(ステップS57)。   When the image, distance information, angle information or orientation information, and composition information are input from the determination unit 26, the output unit 27 associates the distance information, angle information, orientation information, and composition information with the image. The progress information is stored in the progress information DB 22 (step S57).

判定部26は、取得部23から入力された、選択された画像例の情報に基づいて、全ての画像例に対応する画像を撮像したか否かを判定する(ステップS58)。判定部26は、全ての画像例に対応する画像を撮像していない場合は(ステップS58:否定)、ユーザを次の撮像位置に誘導し(ステップS60)、ステップS54へ戻る。つまり、判定部26は、画像の構図情報または距離情報を次の画像例の学習情報へ向けて、ユーザを誘導する。判定部26は、全ての画像例に対応する画像を撮像した場合は(ステップS58:肯定)、学習部24に対して学習情報の更新処理の実行を指示する更新情報を出力する(ステップS59)。また、判定部26は、全ての画像例に対応する画像の撮像が完了したことをユーザに通知するために、例えば、音声で「全ての撮影が完了しました」と通知し、または、携帯端末装置10を振動させて通知する。   The determination unit 26 determines whether images corresponding to all the image examples have been captured based on the information of the selected image examples input from the acquisition unit 23 (step S58). If the images corresponding to all the image examples have not been captured (No at Step S58), the determination unit 26 guides the user to the next imaging position (Step S60) and returns to Step S54. That is, the determination unit 26 guides the user by directing the composition information or distance information of the image toward the learning information of the next image example. When the determination unit 26 has captured images corresponding to all the image examples (step S58: Yes), the determination unit 26 outputs update information instructing the learning unit 24 to execute learning information update processing (step S59). . In addition, the determination unit 26 notifies the user that imaging of images corresponding to all image examples has been completed, for example, notifies the user that “all shooting has been completed” or a portable terminal. The device 10 is notified by vibrating.

図10は、学習情報の更新処理の一例を示すフローチャートである。学習部24は、判定部26から更新情報が入力されると、経過情報DB22を参照して更新する経過情報を読み出し、対応する学習情報との間で、距離情報および角度情報の差分を算出する(ステップS591)。学習部24は、学習情報の距離情報および角度情報の許容誤差に算出した差分を加えて、新たな許容誤差を算出する(ステップS592)。   FIG. 10 is a flowchart illustrating an example of a learning information update process. When the update information is input from the determination unit 26, the learning unit 24 reads the progress information to be updated with reference to the progress information DB 22, and calculates the difference between the distance information and the angle information with the corresponding learning information. (Step S591). The learning unit 24 calculates a new allowable error by adding the calculated difference to the allowable error of the distance information and the angle information of the learning information (step S592).

学習部24は、新たな許容誤差が最大許容誤差内であるか否かを判定する(ステップS593)。学習部24は、新たな許容誤差が最大許容誤差内である場合は(ステップS593:肯定)、新たな許容誤差を学習情報に反映する(ステップS594)。学習部24は、新たな許容誤差が最大許容誤差外である場合は(ステップS593:否定)、算出した新たな許容誤差は反映せずに破棄する。学習部24は、距離情報および角度情報の差分が未算出の経過情報があるか否かを判定する(ステップS595)。学習部24は、距離情報および角度情報の差分が未算出の経過情報がある場合は(ステップS595:肯定)、次の経過情報を参照し(ステップS596)、ステップS591に戻って同様に新たな許容誤差を算出する。学習部24は、距離情報および角度情報の差分が未算出の経過情報がない場合は(ステップS595:否定)、学習情報の更新処理を終了する。   The learning unit 24 determines whether or not the new allowable error is within the maximum allowable error (step S593). If the new allowable error is within the maximum allowable error (step S593: Yes), the learning unit 24 reflects the new allowable error in the learning information (step S594). When the new allowable error is outside the maximum allowable error (No at Step S593), the learning unit 24 discards the calculated new allowable error without reflecting it. The learning unit 24 determines whether there is progress information for which the difference between the distance information and the angle information has not been calculated (step S595). If there is progress information for which the difference between the distance information and the angle information has not been calculated (step S595: affirmative), the learning unit 24 refers to the next progress information (step S596), returns to step S591, and is similarly new. Calculate the tolerance. If there is no progress information for which the difference between the distance information and the angle information has not yet been calculated (step S595: No), the learning unit 24 ends the learning information update process.

携帯端末装置10の学習部24は、学習情報の更新処理によって、経過情報を蓄積することで、撮像の条件である被写体と携帯端末装置10との間の距離と、携帯端末装置10の角度または向きとについて、最大許容誤差の範囲内において許容誤差を拡大できる。その結果、より簡便に目的の画像を撮像することができる。   The learning unit 24 of the mobile terminal device 10 accumulates the progress information through the learning information update process, so that the distance between the subject that is the imaging condition and the mobile terminal device 10 and the angle of the mobile terminal device 10 or Regarding the orientation, the allowable error can be expanded within the range of the maximum allowable error. As a result, a target image can be taken more easily.

携帯端末装置10は、学習情報DB21から画像例をユーザに提示し、撮像する画像例が選択される。携帯端末装置10は、撮像した画像から構図情報を生成し、構図情報と距離情報等が一致する場合に画像を経過情報として経過情報DB22に格納する。また、携帯端末装置10は、構図情報と距離情報等が一致しない場合に、一致する方向にユーザを誘導する。その結果、誘導する案内に従ってユーザが携帯端末装置10を動かすことで、目的の画像を簡便に撮影できる。   The mobile terminal device 10 presents an example image to the user from the learning information DB 21 and an image example to be captured is selected. The mobile terminal device 10 generates composition information from the captured image, and stores the image in the progress information DB 22 as progress information when the composition information matches the distance information and the like. In addition, when the composition information does not match the distance information, the mobile terminal device 10 guides the user in the matching direction. As a result, the user can easily take a desired image by moving the mobile terminal device 10 in accordance with the guidance to be guided.

次に、図11を用いて、経過情報の蓄積と学習情報との関係について説明する。図11は、経過情報の蓄積による学習情報の変化の一例を示す説明図である。まず、ユーザは、携帯端末装置10の学習処理を実行して、側頭部の目的とする部位である患部44が中央に位置する画像45を撮像する。画像45は、目的の画像として学習情報DB21に格納される。   Next, the relationship between accumulation of progress information and learning information will be described with reference to FIG. FIG. 11 is an explanatory diagram illustrating an example of a change in learning information due to accumulation of progress information. First, the user executes a learning process of the mobile terminal device 10 and captures an image 45 in which the affected part 44 that is a target part of the temporal region is located at the center. The image 45 is stored in the learning information DB 21 as a target image.

携帯端末装置10は、2回目以降の撮影では、学習情報DB21を参照して撮像を実行する。このとき、携帯端末装置10は、画像46,47,48に示すように、患部44が画像内に含まれる場合には、許容する画像として経過情報に蓄積する。これに対し、携帯端末装置10は、画像49,50に示すように、患部44が画像に全く含まれていなかったり、一部分のみ含まれる場合には、許容しない画像、つまり、経過情報として蓄積を行わない。   The mobile terminal device 10 performs imaging with reference to the learning information DB 21 in the second and subsequent imaging. At this time, as shown in images 46, 47, and 48, when the affected part 44 is included in the image, the mobile terminal device 10 accumulates in the progress information as an allowable image. On the other hand, as shown in the images 49 and 50, the mobile terminal device 10 accumulates an unacceptable image, that is, progress information when the affected part 44 is not included in the image at all or only partially included. Not performed.

携帯端末装置10は、経過情報を蓄積することで、例えば、当初は学習情報と一致しないと判定された画像51のような画像であっても、経過情報を蓄積し、学習情報の許容誤差が更新されて拡大されることで、許容する画像として経過情報に蓄積する。つまり、携帯端末装置10は、目的の画像45と被写体の向きが変化していても許容して撮像を行うようになる。また、携帯端末装置10は、さらに経過情報を蓄積することで、側頭部にある患部44が画像内に含まれれば、正面から撮像した画像52であっても許容することができる。   The mobile terminal device 10 accumulates the progress information. For example, even if the image is an image 51 that is initially determined not to match the learning information, the mobile terminal device 10 accumulates the progress information, and the tolerance of the learning information is small. By updating and enlarging, it accumulates in the progress information as an acceptable image. In other words, the mobile terminal device 10 allows imaging even when the target image 45 and the direction of the subject are changed. Further, the portable terminal device 10 can accumulate the progress information, and if the affected part 44 in the temporal region is included in the image, even the image 52 captured from the front can be allowed.

このように、携帯端末装置10は、被写体が連続して撮像された画像を取得し、当該画像の撮像時における被写体および当該画像を撮像したカメラの間の距離情報を取得する。携帯端末装置10は、画像から被写体の部位および画像上の部位の位置が対応付けられた構成要素を抽出する。携帯端末装置10は、目的とする被写体の部位を含む目的の画像の撮像時における、目的とする被写体の部位および目的の画像上の部位の位置が対応付けられた構成要素が対応付けられた学習情報を記憶する記憶部を参照する。携帯端末装置10は、目的とする被写体の部位を含む目的の画像の撮像時における、目的とする被写体および目的の画像を撮像したカメラの間の距離情報が対応付けられた学習情報を記憶する記憶部を参照する。携帯端末装置10は、取得された画像のうち学習情報との間で構成要素が一致し、かつ、距離情報の差が許容範囲内である画像を出力する。その結果、目的の画像を簡便に撮影できる。   In this way, the mobile terminal device 10 acquires images obtained by continuously capturing the subject, and acquires distance information between the subject and the camera that captured the image at the time of capturing the image. The mobile terminal device 10 extracts a component in which the position of the subject and the position of the part on the image are associated from the image. The mobile terminal device 10 learns by associating a component in which the position of the target object and the position of the part on the target image are associated with each other at the time of capturing the target image including the target object region. A storage unit for storing information is referred to. The portable terminal device 10 stores learning information in which distance information between a target subject and a camera that has captured the target image is associated with the target image including a target image including a target subject region. Refer to the section. The mobile terminal device 10 outputs an image in which the constituent elements match the learning information in the acquired image and the difference in the distance information is within an allowable range. As a result, a target image can be easily taken.

また、携帯端末装置10は、画像から構成要素を複数抽出し、学習情報との間で互いの構成要素が少なくとも1つ以上一致し、かつ、距離情報の差が許容範囲内である画像を出力する。その結果、学習情報の全ての構成要素について一致しなくとも、構成要素のうち目的とする部位が画像に含まれていれば、目的の画像に類似するとして、より簡便に撮影できる。   Also, the mobile terminal device 10 extracts a plurality of components from the image, and outputs an image in which at least one of the components matches with the learning information and the difference in distance information is within an allowable range To do. As a result, even if all the constituent elements of the learning information do not match, if the target part of the constituent elements is included in the image, it can be more easily photographed as being similar to the target image.

また、携帯端末装置10は、学習情報との間で構成要素が一致しない画像もしくは互いの距離情報の差が許容範囲外である画像が取得された場合に、当該画像の構成要素または距離情報を学習情報へ向けて誘導する案内を通知する。その結果、ユーザが案内に従って携帯端末装置10を動かすことで、目的の画像をより簡便に撮影できる。   In addition, when the mobile terminal device 10 acquires an image whose constituent elements do not match the learning information or an image whose difference in distance information is outside the allowable range, the mobile terminal device 10 displays the constituent elements or distance information of the images. Notify guidance to guide towards learning information. As a result, when the user moves the mobile terminal device 10 according to the guidance, the target image can be taken more easily.

また、携帯端末装置10は、学習情報として、目的の画像の撮像時における前記画像を撮像するカメラの向き情報がさらに対応付けられるものを用いる。携帯端末装置10は、画像の撮像時のカメラの向き情報を取得し、学習情報との間で互いの向き情報の差が許容範囲内である画像を出力する。その結果、画像の構成要素(構図)、および、撮像時の被写体と携帯端末装置10との距離だけでなく、携帯端末装置10の向きを考慮することで、ユーザに携帯端末装置10の向きについても誘導できる。   In addition, the mobile terminal device 10 uses, as learning information, information further associated with orientation information of a camera that captures the image at the time of capturing the target image. The mobile terminal device 10 acquires camera orientation information at the time of capturing an image, and outputs an image in which the difference between the orientation information and the learning information is within an allowable range. As a result, the orientation of the mobile terminal device 10 is shown to the user by considering not only the component of the image (composition) and the distance between the subject at the time of imaging and the mobile terminal device 10 but also the orientation of the mobile terminal device 10. Can also be guided.

また、携帯端末装置10は、被写体が連続して撮像された画像を、目的の画像の候補となる画像として取得し、候補の画像の撮像時における被写体および画像を撮像したカメラの間の距離情報を取得し、候補の画像の撮像時における前記画像を撮像するカメラの向き情報を取得する。携帯端末装置10は、候補の画像をユーザに提示して、ユーザにより選択された候補の画像から構成要素を抽出する。携帯端末装置10は、構成要素が抽出された候補の画像を目的の画像とし、目的の画像に構成要素および目的の画像の撮像時における距離情報が対応付けられた学習情報を生成する。その結果、携帯端末装置10は、目的の画像と対応する学習情報とを取得できる。   Further, the mobile terminal device 10 acquires images obtained by continuously capturing the subject as images that are candidates for the target image, and distance information between the subject and the camera that captured the image at the time of capturing the candidate image. And the orientation information of the camera that captures the image at the time of capturing the candidate image is acquired. The mobile terminal device 10 presents candidate images to the user and extracts components from the candidate images selected by the user. The mobile terminal device 10 uses the candidate image from which the component is extracted as a target image, and generates learning information in which the component image and distance information at the time of capturing the target image are associated with the target image. As a result, the mobile terminal device 10 can acquire the target image and corresponding learning information.

また、上記実施例では、判定部26は、抽出部25から入力される構図情報と併せて、取得部23から画像の距離情報、および、角度情報または向き情報が入力されたが、これに限定されない。例えば、判定部26は、構図情報および距離情報の一致を判定してから、取得部23に対して、角度情報または向き情報を要求するようにしてもよい。   In the above embodiment, the determination unit 26 receives the distance information of the image and the angle information or the orientation information from the acquisition unit 23 together with the composition information input from the extraction unit 25. However, the determination unit 26 is not limited thereto. Not. For example, the determination unit 26 may request angle information or orientation information from the acquisition unit 23 after determining whether the composition information and the distance information match.

また、上記実施例では、ユーザが目視できない被写体として、ユーザ自身の頭部や背中等を例として挙げたが、これに限定されない。例えば、被写体は、壁に隣接して設置された装置の裏側等、ユーザが目視できない被写体であれば、いずれにも適用することができる。   Moreover, in the said Example, although the user's own head, the back, etc. were mentioned as an example as a to-be-visible subject for a user, it is not limited to this. For example, the subject can be applied to any subject that cannot be seen by the user, such as the back side of an apparatus installed adjacent to a wall.

また、上記実施例では、目的の画像の画像例を複数としたが、これに限定されず、1枚の画像例をユーザに選択させてもよい。   In the above embodiment, a plurality of image examples of the target image are used. However, the present invention is not limited to this, and one image example may be selected by the user.

また、上記実施例では、目的の画像に類似する画像を記憶部19の経過情報DB22に格納したが、これに限定されない。例えば、携帯端末装置10は、患部の画像を経過観察のために継続的に撮像して、適宜、通信部18を介して通信回線を経由し、医師のコンピュータに送信するようにしてもよい。   Moreover, in the said Example, although the image similar to the target image was stored in progress information DB22 of the memory | storage part 19, it is not limited to this. For example, the mobile terminal device 10 may continuously take images of the affected area for follow-up observation, and may appropriately transmit the images to the doctor's computer via the communication line via the communication unit 18.

また、上記実施例では、被写体の目的とする部位として患部を挙げたが、治療により患部が判別できなくなる場合がある。このため、携帯端末装置10は、学習情報のうち最も優先される部位が含まれる構成要素が、画像の構図情報の中で一致しない場合であっても、その他の構成要素が一致すれば撮像を行い、画像を取得する。これにより、例えば、携帯端末装置10は、耳が画像の中に存在すれば画像を取得することで、側頭部の患部が治癒して判別できない場合でも、目的とする画像を得ることができる。   In the above embodiment, the affected part is cited as the target part of the subject. However, the affected part may not be identified by treatment. For this reason, the mobile terminal device 10 captures an image if the other constituent elements match even if the constituent element including the most prioritized portion of the learning information does not match in the composition information of the image. And get an image. Thereby, for example, the portable terminal device 10 can obtain a target image by acquiring an image if the ear is present in the image, even when the affected part of the temporal region is healed and cannot be determined. .

また、上記実施例では、取得部23は、近接センサ14から入力された計測情報に基づいて、携帯端末装置10と被写体との間の距離を計測したが、これに限定されない。例えば、取得部23は、被写体の部位の寸法aについて、予めユーザによって入力される等して判明していれば、部位の寸法aと、カメラ11の焦点距離bと、カメラ11から入力された画像上の部位の寸法cとに基づいて、当該距離を算出できる。つまり、携帯端末装置10と被写体との間の距離Xは、a:c=x:b、および、X=x+bより算出できる。これにより、取得部23は、距離Xを画像の距離情報とすることができる。   Moreover, in the said Example, the acquisition part 23 measured the distance between the portable terminal device 10 and a to-be-photographed based on the measurement information input from the proximity sensor 14, However, It is not limited to this. For example, the acquisition unit 23 inputs the dimension a of the subject, the focal length b of the camera 11, and the camera 11 if the dimension a of the subject is known in advance by the user. The distance can be calculated based on the dimension c of the part on the image. That is, the distance X between the mobile terminal device 10 and the subject can be calculated from a: c = x: b and X = x + b. Thereby, the acquisition part 23 can make distance X into the distance information of an image.

また、上記実施例では、情報処理装置として携帯端末装置10を例示したが、これに限定されない。情報処理装置は、例えば、据え置き型のパーソナルコンピュータであってもよい。   Moreover, in the said Example, although the portable terminal device 10 was illustrated as information processing apparatus, it is not limited to this. The information processing apparatus may be, for example, a stationary personal computer.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、上記実施例では、学習処理における構図情報の生成を学習部24で実行したが、類似画像の撮像処理で構図情報を生成する抽出部25で実行するようにしてもよい。   In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured. For example, in the above embodiment, the composition information is generated in the learning process by the learning unit 24, but may be executed by the extraction unit 25 that generates the composition information in the similar image capturing process.

更に、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。   Furthermore, various processing functions performed in each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as an MPU or MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.

ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図12は、撮像プログラムを実行するコンピュータの一例を示す説明図である。   By the way, the various processes described in the above embodiments can be realized by executing a program prepared in advance by a computer. Therefore, in the following, an example of a computer that executes a program having the same function as in the above embodiment will be described. FIG. 12 is an explanatory diagram illustrating an example of a computer that executes an imaging program.

図12に示す撮像プログラムを実行するコンピュータ200は、インタフェース部211と、RAM212と、ROM(Read Only Memory)213と、プロセッサ214とを有する。インタフェース部211は、例えば、USB(Universal Serial Bus)等の各種インタフェースまたは通信回線を介して、被写体が撮像された画像、および、画像の撮像時における被写体およびカメラの間の距離情報を取得する。プロセッサ214は、コンピュータ200全体を制御する。   A computer 200 that executes the imaging program illustrated in FIG. 12 includes an interface unit 211, a RAM 212, a ROM (Read Only Memory) 213, and a processor 214. The interface unit 211 acquires, for example, an image in which a subject is captured and distance information between the subject and the camera at the time of capturing the image via various interfaces such as USB (Universal Serial Bus) or a communication line. The processor 214 controls the entire computer 200.

そして、ROM213には、上記実施例と同様の機能を発揮する撮像プログラムが予め記憶されている。尚、ROM213ではなく、図示せぬドライブで読取可能な記録媒体に撮像プログラムが記録されていてもよい。また、記録媒体としては、例えば、CD−ROM、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ等でもよい。撮像プログラムとしては、図12に示すように、取得プログラム213A、抽出プログラム213Bおよび出力プログラム213Cである。なお、プログラム213A〜213Cについては、適宜統合または分散してもよい。また、RAM212には、学習情報および経過情報等を格納するデータベースが記憶してある。   The ROM 213 stores in advance an imaging program that exhibits the same function as in the above-described embodiment. Note that the imaging program may be recorded on a recording medium that can be read by a drive (not shown) instead of the ROM 213. The recording medium may be, for example, a portable recording medium such as a CD-ROM, a DVD disk, or a USB memory, or a semiconductor memory such as a flash memory. As the imaging program, as shown in FIG. 12, there are an acquisition program 213A, an extraction program 213B, and an output program 213C. Note that the programs 213A to 213C may be integrated or distributed as appropriate. The RAM 212 stores a database that stores learning information, progress information, and the like.

そして、プロセッサ214が、これらのプログラム213A〜213CをROM213から読み出し、これらの読み出された各プログラムを実行する。そして、プロセッサ214は、図12に示すように、各プログラム213A〜213Cを、取得プロセス214A、抽出プロセス214Bおよび出力プロセス214Cとして機能することになる。   Then, the processor 214 reads these programs 213A to 213C from the ROM 213, and executes each of these read programs. As shown in FIG. 12, the processor 214 functions as the acquisition process 214A, the extraction process 214B, and the output process 214C with respect to each program 213A to 213C.

プロセッサ214は、被写体が連続して撮像された画像を取得し、当該画像の撮像時における被写体および画像を撮像したカメラの間の距離情報を取得する。プロセッサ214は、画像から被写体の部位および画像上の部位の位置が対応付けられた構成要素を抽出する。プロセッサ214は、目的とする被写体の部位を含む目的の画像の撮像時における、目的とする被写体の部位および目的の画像上の部位の位置が対応付けられた構成要素を記憶する記憶部を参照する。プロセッサ214は、目的とする被写体の部位を含む目的の画像の撮像時における、目的とする被写体および目的の画像を撮像したカメラの間の距離情報が対応付けられた学習情報を記憶する記憶部を参照する。プロセッサ214は、取得された画像のうち学習情報との間で構成要素が一致し、かつ、距離情報の差が許容範囲内である画像を出力する。その結果、目的の画像を簡便に撮影できる。   The processor 214 acquires images in which the subject is continuously captured, and acquires distance information between the subject and the camera that captured the image at the time of capturing the image. The processor 214 extracts the component in which the position of the subject and the position of the part on the image are associated from the image. The processor 214 refers to a storage unit that stores a component that associates the position of the target subject and the position of the target image on the target image when capturing the target image including the target subject part. . The processor 214 has a storage unit that stores learning information in which distance information between the target subject and the camera that captured the target image is associated with the target image including the target subject region. refer. The processor 214 outputs an image in which the constituent elements match the learning information in the acquired image and the difference in the distance information is within an allowable range. As a result, a target image can be easily taken.

10 携帯端末装置
11 カメラ
12 表示部
13 操作部
14 近接センサ
15 ジャイロセンサ
16 スピーカ
17 モータ
18 通信部
19 記憶部
20 制御部
21 学習情報DB
22 経過情報DB
23 取得部
24 学習部
25 抽出部
26 判定部
27 出力部
DESCRIPTION OF SYMBOLS 10 Portable terminal device 11 Camera 12 Display part 13 Operation part 14 Proximity sensor 15 Gyro sensor 16 Speaker 17 Motor 18 Communication part 19 Storage part 20 Control part 21 Learning information DB
22 Progress information DB
23 acquisition unit 24 learning unit 25 extraction unit 26 determination unit 27 output unit

Claims (7)

コンピュータに、
被写体が連続して撮像された画像を取得し、
前記画像の撮像時における前記被写体および前記画像を撮像したカメラの間の距離情報を取得し、
前記画像から被写体の部位および前記画像上の前記部位の位置が対応付けられた構成要素を抽出し、
目的とする被写体の部位を含む目的の画像の撮像時における、前記目的とする被写体の部位および前記目的の画像上の前記部位の位置が対応付けられた構成要素、ならびに、前記目的とする被写体および前記目的の画像を撮像したカメラの間の距離情報が対応付けられた学習情報を記憶する記憶部を参照し、前記取得された画像のうち前記学習情報との間で構成要素が一致し、かつ、距離情報の差が許容範囲内である画像を出力する
処理を実行させることを特徴とする撮像プログラム。
On the computer,
Acquire an image of the subject continuously captured,
Obtaining distance information between the subject and the camera that captured the image at the time of capturing the image;
Extracting a component in which the position of the subject and the position of the part on the image are associated from the image,
The component in which the position of the target subject and the position of the part on the target image are associated with each other at the time of capturing the target image including the target subject part, and the target subject and With reference to a storage unit that stores learning information associated with distance information between cameras that have captured the target image, the constituent elements match the learning information in the acquired image, and An imaging program for executing a process of outputting an image in which a difference in distance information is within an allowable range.
前記構成要素を抽出する処理として、
前記画像から前記構成要素を複数抽出し、
前記画像を出力する処理として、
前記学習情報との間で構成要素が少なくとも1つ以上一致し、かつ、距離情報の差が許容範囲内である画像を出力する処理を実行させることを特徴とする請求項1に記載の撮像プログラム。
As a process of extracting the component,
Extracting a plurality of the constituent elements from the image;
As a process of outputting the image,
2. The imaging program according to claim 1, wherein a process of outputting an image in which at least one component matches with the learning information and a difference in distance information is within an allowable range is executed. .
前記コンピュータに、
前記学習情報との間で構成要素が一致しない画像もしくは互いの距離情報の差が許容範囲外である画像が取得された場合に、当該画像の構成要素または距離情報を前記学習情報へ向けて誘導する案内を通知する処理をさらに実行させることを特徴とする請求項1または2に記載の撮像プログラム。
In the computer,
When an image whose component does not match with the learning information or an image whose difference in distance information is outside the allowable range is acquired, the component or distance information of the image is guided toward the learning information The imaging program according to claim 1, further comprising executing a process of notifying a guidance to be performed.
前記学習情報は、前記目的の画像の撮像時における前記カメラの向き情報がさらに対応付けられるものであって、
前記コンピュータに、
前記画像の撮像時の前記カメラの向き情報を取得する処理をさらに実行させ、
前記画像を出力する処理として、
前記学習情報との間で互いの向き情報の差が許容範囲内である画像を出力する処理を実行させることを特徴とする請求項1〜3のいずれか1つに記載の撮像プログラム。
The learning information is further associated with orientation information of the camera at the time of capturing the target image,
In the computer,
Further executing a process of acquiring orientation information of the camera at the time of capturing the image,
As a process of outputting the image,
The imaging program according to any one of claims 1 to 3, wherein a process of outputting an image in which a difference in mutual orientation information is within an allowable range with the learning information is executed.
前記コンピュータに、
前記被写体が連続して撮像された画像を、前記目的の画像の候補となる画像として取得し、
前記候補の画像の撮像時における前記被写体および前記画像を撮像したカメラの間の距離情報を取得し、
前記候補の画像の撮像時における前記カメラの向き情報を取得し、
前記候補の画像をユーザに提示する処理をさらに実行させ、
前記構成要素を抽出する処理として、前記ユーザにより選択された候補の画像から構成要素を抽出し、
前記構成要素が抽出された前記候補の画像を前記目的の画像とし、前記目的の画像に前記構成要素および前記目的の画像の撮像時における前記距離情報が対応付けられた学習情報を生成する処理を実行させることを特徴とする請求項1〜4のいずれか1つに記載の撮像プログラム。
In the computer,
An image obtained by continuously capturing the subject is acquired as an image as a candidate for the target image;
Obtaining distance information between the subject and the camera that captured the image at the time of capturing the candidate image;
Obtaining orientation information of the camera at the time of capturing the candidate image;
Further executing a process of presenting the candidate image to the user,
As the process of extracting the component, the component is extracted from the candidate image selected by the user,
Processing for generating learning information in which the candidate image from which the component is extracted is set as the target image and the target image is associated with the distance information at the time of capturing the component and the target image. The imaging program according to any one of claims 1 to 4, wherein the imaging program is executed.
コンピュータが、
被写体が連続して撮像された画像を取得し、
前記画像の撮像時における前記被写体および前記画像を撮像したカメラの間の距離情報を取得し、
前記画像から被写体の部位および前記画像上の前記部位の位置が対応付けられた構成要素を抽出し、
目的とする被写体の部位を含む目的の画像の撮像時における、前記目的とする被写体の部位および前記目的の画像上の前記部位の位置が対応付けられた構成要素、ならびに、前記目的とする被写体および前記目的の画像を撮像したカメラの間の距離情報が対応付けられた学習情報を記憶する記憶部を参照し、前記取得された画像のうち前記学習情報との間で構成要素が一致し、かつ、距離情報の差が許容範囲内である画像を出力する
処理を実行することを特徴とする撮像方法。
Computer
Acquire an image of the subject continuously captured,
Obtaining distance information between the subject and the camera that captured the image at the time of capturing the image;
Extracting a component in which the position of the subject and the position of the part on the image are associated from the image,
The component in which the position of the target subject and the position of the part on the target image are associated with each other at the time of capturing the target image including the target subject part, and the target subject and With reference to a storage unit that stores learning information associated with distance information between cameras that have captured the target image, the constituent elements match the learning information in the acquired image, and An imaging method comprising: executing an output process of an image in which a difference in distance information is within an allowable range.
被写体が連続して撮像された画像を取得し、
前記画像の撮像時における前記被写体および前記画像を撮像したカメラの間の距離情報を取得する取得部と、
前記画像から被写体の部位および前記画像上の前記部位の位置が対応付けられた構成要素を抽出する抽出部と、
目的とする被写体の部位を含む目的の画像の撮像時における、前記目的とする被写体の部位および前記目的の画像上の前記部位の位置が対応付けられた構成要素、ならびに、前記目的とする被写体および前記目的の画像を撮像したカメラの間の距離情報が対応付けられた学習情報を記憶する記憶部を参照し、前記取得された画像のうち前記学習情報との間で構成要素が一致し、かつ、距離情報の差が許容範囲内である画像を出力する出力部と、
を有することを特徴とする情報処理装置。
Acquire an image of the subject continuously captured,
An acquisition unit that acquires distance information between the subject and the camera that captured the image at the time of capturing the image;
An extraction unit that extracts a component in which the position of the subject and the position of the part on the image are associated from the image;
The component in which the position of the target subject and the position of the part on the target image are associated with each other at the time of capturing the target image including the target subject part, and the target subject and With reference to a storage unit that stores learning information associated with distance information between cameras that have captured the target image, the constituent elements match the learning information in the acquired image, and An output unit that outputs an image in which the difference in distance information is within an allowable range;
An information processing apparatus comprising:
JP2013153607A 2013-07-24 2013-07-24 Imaging program, imaging method, and information processing apparatus Expired - Fee Related JP6205941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153607A JP6205941B2 (en) 2013-07-24 2013-07-24 Imaging program, imaging method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153607A JP6205941B2 (en) 2013-07-24 2013-07-24 Imaging program, imaging method, and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2015026894A true JP2015026894A (en) 2015-02-05
JP6205941B2 JP6205941B2 (en) 2017-10-04

Family

ID=52491248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153607A Expired - Fee Related JP6205941B2 (en) 2013-07-24 2013-07-24 Imaging program, imaging method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6205941B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130920A (en) * 2016-01-19 2017-07-27 Line株式会社 Method for recommending position of photography, computer program and system for recommending position of photography
JP2019191933A (en) * 2018-04-25 2019-10-31 オリンパス株式会社 Learning device, imaging device, image processing device, and learning method
WO2019215797A1 (en) * 2018-05-07 2019-11-14 株式会社ウフル Composition advice system, composition advice method, camera and program
JP2020008904A (en) * 2018-07-02 2020-01-16 パナソニックIpマネジメント株式会社 Learning data collection apparatus, learning data collection system and learning data collection method
JP2020061761A (en) * 2017-12-26 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010162A (en) * 2010-06-25 2012-01-12 Kyocera Corp Camera device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010162A (en) * 2010-06-25 2012-01-12 Kyocera Corp Camera device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130920A (en) * 2016-01-19 2017-07-27 Line株式会社 Method for recommending position of photography, computer program and system for recommending position of photography
JP2020061761A (en) * 2017-12-26 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and program
JP2019191933A (en) * 2018-04-25 2019-10-31 オリンパス株式会社 Learning device, imaging device, image processing device, and learning method
WO2019215797A1 (en) * 2018-05-07 2019-11-14 株式会社ウフル Composition advice system, composition advice method, camera and program
JP2020008904A (en) * 2018-07-02 2020-01-16 パナソニックIpマネジメント株式会社 Learning data collection apparatus, learning data collection system and learning data collection method
JP7122625B2 (en) 2018-07-02 2022-08-22 パナソニックIpマネジメント株式会社 LEARNING DATA COLLECTION DEVICE, LEARNING DATA COLLECTION SYSTEM, AND LEARNING DATA COLLECTION METHOD
US11579904B2 (en) 2018-07-02 2023-02-14 Panasonic Intellectual Property Management Co., Ltd. Learning data collection device, learning data collection system, and learning data collection method

Also Published As

Publication number Publication date
JP6205941B2 (en) 2017-10-04

Similar Documents

Publication Publication Date Title
JP6678122B2 (en) Image processing apparatus, image processing method, and image processing program
JP6408692B2 (en) Fingerprint input guidance method and apparatus
JP6205941B2 (en) Imaging program, imaging method, and information processing apparatus
JP2010514044A (en) Automatic image direction change based on face detection on display
US11258940B2 (en) Imaging apparatus
WO2015127743A1 (en) Distance measurement method and device in terminal, and terminal
JP2017168882A (en) Image processing apparatus, image processing method, and program
JP5477777B2 (en) Image acquisition device
JP2018148272A (en) Imaging apparatus, image processing apparatus, imaging method, and program
CN105141942A (en) 3d image synthesizing method and device
KR20170060411A (en) Method and photographing device for controlling the photographing device according to proximity of a user
RU2635873C2 (en) Method and device for displaying framing information
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
WO2022061541A1 (en) Control method, handheld gimbal, system, and computer-readable storage medium
JP2009177480A (en) Imaging device
CN108989666A (en) Image pickup method, device, mobile terminal and computer-readable storage medium
JP2006319470A (en) Image pickup device
US10868956B2 (en) Picture-taking technique for self-photography using device having camera and device therefor
JP2017037375A (en) Imaging apparatus and control method thereof
JP2010278624A (en) Photographing device, photographing method, and program
JP2016111521A (en) Information processing device, information processing program and information processing method
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
JP5702037B1 (en) Imaging apparatus, imaging method, and program
JP2015019215A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R150 Certificate of patent or registration of utility model

Ref document number: 6205941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees