JP2014033392A - Electronic apparatus, method, and program for calculating height of subject - Google Patents

Electronic apparatus, method, and program for calculating height of subject Download PDF

Info

Publication number
JP2014033392A
JP2014033392A JP2012173826A JP2012173826A JP2014033392A JP 2014033392 A JP2014033392 A JP 2014033392A JP 2012173826 A JP2012173826 A JP 2012173826A JP 2012173826 A JP2012173826 A JP 2012173826A JP 2014033392 A JP2014033392 A JP 2014033392A
Authority
JP
Japan
Prior art keywords
subject
user
height
imaging unit
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012173826A
Other languages
Japanese (ja)
Inventor
Takuya Sato
琢也 佐藤
Daiki Ito
大樹 伊藤
Satoshi Ejima
聡 江島
Minako Nakahata
美奈子 中畑
Hiroyuki Mushu
宏行 無州
Tomoko Sugawara
知子 菅原
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012173826A priority Critical patent/JP2014033392A/en
Publication of JP2014033392A publication Critical patent/JP2014033392A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem associated with a conventional method for measuring a height of a subject from a photographed image in which, when a person is photographed from obliquely above for example, an actual head-top area of the person to be a subject may not be captured in an image due to a thickness of the head, thereby easily causing an error in the measurement, and the height may not be accurately measured due to the subject wearing a cap and a hair style of the subject.SOLUTION: An electronic apparatus is held by a user to photograph a subject, and includes a first imaging unit that photographs the subject, and a calculation unit that calculates a relative height of the subject to the user on the basis of a first image obtained by photographing the subject.

Description

本発明は、被写体の身長を算出する電子機器、方法、及びプログラムに関する。   The present invention relates to an electronic device, a method, and a program for calculating the height of a subject.

従来から、撮影画像から被写体の身長を測定する手法が提案されている(例えば、特許文献1)。しかし、特許文献1によると、被写体となる人物の頭部と足下を撮影しなければならならず、足下の写っていない写真からは被写体の身長を計測できないという問題があった。さらに特許文献1では、被写体となる人物の頭部の位置にカメラの撮影範囲を合わせる必要があるが、例えば人物を斜め上から撮影した場合には、頭部の厚みによって被写体となる人物の実際の頭頂部を画像に収められないことがあり、測定に誤差を含みやすい問題があった。また、被写体の帽子の着用、および、髪型によっては正しく身長が測定できない問題があった。   Conventionally, a method for measuring the height of a subject from a captured image has been proposed (for example, Patent Document 1). However, according to Patent Document 1, there is a problem that the head and feet of a person who is a subject must be photographed, and the height of the subject cannot be measured from a photograph in which the feet are not photographed. Furthermore, in Patent Document 1, it is necessary to match the shooting range of the camera to the position of the head of the person who is the subject. For example, when a person is taken from above, the actual person who is the subject depends on the thickness of the head. In some cases, the top of the head could not be included in the image, and the measurement was likely to contain errors. In addition, there is a problem that the height cannot be measured correctly depending on the wearing of the subject hat and the hairstyle.

特許文献2には、洗面台に設けられたカメラで被写体の顔を撮影し、カメラの高さを基準とした被写体の身長を特定する健康管理装置が記載されている。しかし、特許文献2の装置によると、被写体の全身像を撮影する必要はないが、装置ごと持ち歩いて使用できるようなものではなく、利便性が悪いという問題があった。
[特許文献1] 特許第4374490号公報
[特許文献2] 特開平11−197116号公報
Patent Document 2 describes a health management device that captures the face of a subject with a camera provided on a washstand and identifies the height of the subject based on the height of the camera. However, according to the device of Patent Document 2, it is not necessary to take a whole body image of a subject, but there is a problem in that the device cannot be carried and used, and convenience is poor.
[Patent Document 1] Japanese Patent No. 4374490 [Patent Document 2] Japanese Patent Laid-Open No. 11-197116

本願は、このような従来の問題を解決する電子機器、方法、及びプログラムを提供することを課題とする。   This application makes it a subject to provide the electronic device, method, and program which solve such a conventional problem.

本発明の第1の態様においては、使用者により保持されて被写体を撮像する電子機器であって、被写体を撮像する第1撮像部と、前記被写体を撮像して得られた第1画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する算出部とを備える電子機器を提供する。   In the first aspect of the present invention, an electronic device that is held by a user and images a subject, the first imaging unit that images the subject, and a first image obtained by imaging the subject. And an electronic device including a calculating unit that calculates a relative height of the subject with respect to the user.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

第1実施形態に係る電子機器10の外観斜視図を示す。1 is an external perspective view of an electronic device 10 according to a first embodiment. 本実施形態の電子機器10の機能構成を示す。1 shows a functional configuration of an electronic device 10 of the present embodiment. 本実施形態に係る被写体の身長算出方法の概要を示す。An outline of a method for calculating the height of a subject according to the present embodiment will be described. 本実施形態の第1撮像部110および第2撮像部120による画像を示す。The image by the 1st imaging part 110 of this embodiment and the 2nd imaging part 120 is shown. 本実施形態に係る被写体の身長を測定する全体フローチャートを示す。3 shows an overall flowchart for measuring the height of a subject according to the present embodiment. 本実施形態に係る図5のS200の詳細な処理のフローチャートを示す。The flowchart of the detailed process of S200 of FIG. 5 which concerns on this embodiment is shown. 本実施形態に係る図5のS230の詳細な処理のフローチャートを示す。The flowchart of the detailed process of S230 of FIG. 5 which concerns on this embodiment is shown. 第2実施形態に係る電子機器10の外観斜視図を示す。The external appearance perspective view of the electronic device 10 which concerns on 2nd Embodiment is shown. 本実施形態に係るキャリブレーションの概要を示す。The outline | summary of the calibration which concerns on this embodiment is shown. 本実施形態に係るキャリブレーションにおける画像を示す。The image in the calibration which concerns on this embodiment is shown. 本実施形態に係る係数fを算出するキャリブレーションの処理フローを示す。6 shows a calibration processing flow for calculating a coefficient f according to the present embodiment. 第3の実施形態に係る電子機器20の外観斜視図を示す。The external appearance perspective view of the electronic device 20 which concerns on 3rd Embodiment is shown. 第4の実施形態に係る電子機器30の外観斜視図を示す。The external appearance perspective view of the electronic device 30 which concerns on 4th Embodiment is shown. 電子機器10と他の機器のネットワーク上の接続を示す。The connection on the network of the electronic device 10 and another device is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、第1実施形態に係る電子機器10の外観斜視図を示す。図1(a)は被写体側から見た電子機器10の斜視図であり、図1(b)は使用者側から見た電子機器10の斜視図である。電子機器10は、使用者により保持されて被写体を撮像し、撮像した画像を表示する。また、電子機器10は、撮像した画像から被写体の身長を算出する。   FIG. 1 is an external perspective view of an electronic device 10 according to the first embodiment. FIG. 1A is a perspective view of the electronic device 10 viewed from the subject side, and FIG. 1B is a perspective view of the electronic device 10 viewed from the user side. The electronic device 10 captures a subject held by the user and displays the captured image. In addition, the electronic device 10 calculates the height of the subject from the captured image.

電子機器10は、筐体100と、第1撮像部110と、第2撮像部120と、表示部130と、1対の照明用LED142と、1対の集音部144と、一対のステレオスピーカー146と、操作スイッチ150と、グリップ160と、バッテリー162と、USBコネクタ164とを備える。筐体100は、電子機器10の内部に各種センサ及び制御回路等を収納する横長の略直方体の部材である。   The electronic device 10 includes a housing 100, a first imaging unit 110, a second imaging unit 120, a display unit 130, a pair of illumination LEDs 142, a pair of sound collection units 144, and a pair of stereo speakers. 146, an operation switch 150, a grip 160, a battery 162, and a USB connector 164. The housing 100 is a horizontally long, substantially rectangular parallelepiped member that houses various sensors, control circuits, and the like inside the electronic device 10.

第1撮像部110は、筐体100の被写体側の一面に設けられ、被写体を撮像する。第1撮像部110は、左撮像部112、右撮像部114、左撮像部116、及び、右撮像部118を有する。左撮像部112、右撮像部114、左撮像部116、及び、右撮像部118は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。   The first imaging unit 110 is provided on one surface of the subject side of the housing 100 and images the subject. The first imaging unit 110 includes a left imaging unit 112, a right imaging unit 114, a left imaging unit 116, and a right imaging unit 118. The left imaging unit 112, the right imaging unit 114, the left imaging unit 116, and the right imaging unit 118 may be imaging units that obtain image data by causing a light beam to enter and form an image on an element such as a CCD or a CMOS. , Pixels having lateral 3000 pixels and lateral 2000 pixels may be provided.

左撮像部112と右撮像部114は、一対のステレオカメラを構成し、被写体を撮像する。これにより第1撮像部110は、左撮像部112及び右撮像部114からの1対の画像を取り込んで左目用画像及び右目用画像を出力し、視差のある立体視用画像を得る。また、電子機器10は、この立体視用画像の視差量から、第1撮像部110から被写体までの距離を測定することができる。   The left imaging unit 112 and the right imaging unit 114 constitute a pair of stereo cameras and image a subject. As a result, the first imaging unit 110 captures a pair of images from the left imaging unit 112 and the right imaging unit 114 and outputs a left-eye image and a right-eye image to obtain a stereoscopic image with parallax. In addition, the electronic device 10 can measure the distance from the first imaging unit 110 to the subject from the parallax amount of the stereoscopic image.

これに代えて、第1撮像部110は、被写体の撮像時にオートフォーカス機構又は測距センサーが取得した被写体までの距離を出力してもよい。この場合、第1撮像部110は、複数の撮像部に代えて単一の撮像部を有してよい。   Instead, the first imaging unit 110 may output the distance to the subject acquired by the autofocus mechanism or the distance measuring sensor when the subject is imaged. In this case, the first imaging unit 110 may include a single imaging unit instead of the plurality of imaging units.

左撮像部112及び右撮像部114は、遠方の被写体を撮影する場合に用いられ、例えば、被写体が第1撮像部110から50cm以上離れている場合に用いられる。左撮像部112と右撮像部114の間隔は、人の眼の眼幅距離(左目と右目との間隔)である64mmの近傍の値でよく、例えば、50mm〜70mmであってよい。これにより、左撮像部112及び右撮像部114により遠方を撮影した立体視用画像を再生する場合に、観察時の映像と近い立体視用画像を表示できる。   The left imaging unit 112 and the right imaging unit 114 are used when shooting a distant subject, for example, when the subject is separated from the first imaging unit 110 by 50 cm or more. The interval between the left imaging unit 112 and the right imaging unit 114 may be a value in the vicinity of 64 mm, which is the eye width distance (interval between the left eye and the right eye) of a human eye, and may be, for example, 50 mm to 70 mm. As a result, when a stereoscopic image captured by the left imaging unit 112 and the right imaging unit 114 is reproduced, it is possible to display a stereoscopic image that is close to the image during observation.

左撮像部116と右撮像部118は、左撮像部112及び右撮像部114の内側に配置されて一対のステレオカメラを構成し、被写体を撮像する。第1撮像部110は、左撮像部116及び右撮像部118から1対の画像を取り込んで左目用画像及び右目用画像を出力し、立体視用画像を得る。電子機器10は、この立体視用画像の視差量から第1撮像部110から被写体までの距離を測定することができる。ここで、左撮像部116及び右撮像部118は、近傍の被写体を撮影する場合に用いられ、例えば、被写体が電子機器10から50cm未満に位置する場合に用いられる。   The left imaging unit 116 and the right imaging unit 118 are arranged inside the left imaging unit 112 and the right imaging unit 114 to form a pair of stereo cameras, and image a subject. The first imaging unit 110 captures a pair of images from the left imaging unit 116 and the right imaging unit 118 and outputs a left-eye image and a right-eye image to obtain a stereoscopic image. The electronic device 10 can measure the distance from the first imaging unit 110 to the subject from the parallax amount of the stereoscopic image. Here, the left imaging unit 116 and the right imaging unit 118 are used when photographing a nearby subject, for example, when the subject is located less than 50 cm from the electronic device 10.

ここで、左撮像部116と右撮像部118の間隔は、左撮像部112と右撮像部114の間隔より小さく、5mm〜50mmであってよい。これにより、近傍の被写体を撮影した場合に、立体視用画像の視差が大きくなりすぎて不自然な表示となることを防ぐことができる。   Here, the interval between the left imaging unit 116 and the right imaging unit 118 is smaller than the interval between the left imaging unit 112 and the right imaging unit 114 and may be 5 mm to 50 mm. Accordingly, when a subject in the vicinity is photographed, it is possible to prevent the parallax of the stereoscopic image from becoming too large and resulting in an unnatural display.

第2撮像部120は、筐体100の使用者側の一面に設けられ、使用者を撮像する。第2撮像部120は、左撮像部122及び右撮像部124を有する。左撮像部122及び右撮像部124は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。   The second imaging unit 120 is provided on one surface of the housing 100 on the user side, and images the user. The second imaging unit 120 includes a left imaging unit 122 and a right imaging unit 124. The left imaging unit 122 and the right imaging unit 124 may be imaging means for obtaining image data by causing a light beam to enter and form an image on an element such as a CCD or a CMOS. You can do it.

左撮像部122と右撮像部124は、一対のステレオカメラを構成し、使用者を撮像する。第2撮像部120は、左撮像部122及び右撮像部124からの1対の画像を同時に取り込んで、左目用画像及び右目用画像を出力し、視差のある立体視用画像を得る。当該画像を観察することにより、使用者は鏡を見た場合のように自分自身の映像を確認することができる。また、電子機器10は、この立体視用画像の視差量から、第2撮像部120から使用者までの距離を測定して出力することができる。   The left imaging unit 122 and the right imaging unit 124 constitute a pair of stereo cameras and image the user. The second imaging unit 120 simultaneously captures a pair of images from the left imaging unit 122 and the right imaging unit 124 and outputs a left-eye image and a right-eye image to obtain a stereoscopic image with parallax. By observing the image, the user can confirm his / her own image as if he / she looked at the mirror. Further, the electronic device 10 can measure and output the distance from the second imaging unit 120 to the user from the parallax amount of the stereoscopic image.

左撮像部122と右撮像部124の間隔は、一例として標準的な眼幅距離及び/又は左撮像部112と右撮像部114の間隔の半分である32mmに設定される。これにより、使用者が左撮像部122及び右撮像部124で撮影した画像を電子機器10で観察する場合の輻輳角を、使用者が鏡で自分の顔を観察する場合の輻輳角と等しくし、使用者が鏡を見る場合と同じように電子機器10に自分の顔を表示させることができる。   As an example, the interval between the left imaging unit 122 and the right imaging unit 124 is set to 32 mm, which is a standard eye width distance and / or half the interval between the left imaging unit 112 and the right imaging unit 114. Thereby, the convergence angle when the user observes the image captured by the left imaging unit 122 and the right imaging unit 124 with the electronic device 10 is made equal to the convergence angle when the user observes his / her face with a mirror. The user can display his / her face on the electronic device 10 in the same manner as when the user looks in the mirror.

表示部130は、液晶表示装置(LCD)、又は、有機EL表示装置等の表示装置であり、筐体100の使用者側の一面に設けられてよい。表示部130は、平面視又は立体視用の画像を表示する。表示部130は、表面に貼付けられたレンチキュラーレンズを有し、これにより使用者の右目と左目に対して視差のある右目用画像及び左目用画像を表示してよい。   The display unit 130 is a display device such as a liquid crystal display device (LCD) or an organic EL display device, and may be provided on one surface of the housing 100 on the user side. The display unit 130 displays an image for planar view or stereoscopic view. The display unit 130 may have a lenticular lens affixed to the surface, thereby displaying a right-eye image and a left-eye image having parallax with respect to the user's right eye and left eye.

表示部130は、第1撮像部110で撮影した立体視用画像、及び、第2撮像部120で撮像した立体視用画像を表示してよい。また、表示部130には、その表面に透明なタッチパネル132が設けられてよく、これにより使用者が手指等で触れることにより電子機器10の各種操作を可能とする。   The display unit 130 may display the stereoscopic image captured by the first imaging unit 110 and the stereoscopic image captured by the second imaging unit 120. In addition, the display unit 130 may be provided with a transparent touch panel 132 on the surface thereof, thereby enabling various operations of the electronic device 10 when the user touches with a finger or the like.

照明用LED142は、筐体100の被写体側の一面に設けられ、被写体に光を照射する一対の照明であってよい。電子機器10は、照明用LED142に代えて、キセノン管フラッシュライト等の他の照明用光源を備えてもよい。一対の照明用LED142の代わりに単一の照明用LED142が筐体100に設けられてもよい。   The illumination LED 142 may be a pair of illuminations that are provided on one surface of the casing 100 on the subject side and irradiate the subject with light. The electronic device 10 may include another illumination light source such as a xenon tube flashlight instead of the illumination LED 142. A single illumination LED 142 may be provided in the housing 100 instead of the pair of illumination LEDs 142.

集音部144は、筐体100の被写体側の一面に設けられた一対のステレオマイクであり、被写体の音声等を集音する。一対の集音部144の代わりに単一の集音部144が筐体100に設けられてもよい。   The sound collecting unit 144 is a pair of stereo microphones provided on one surface of the subject side of the housing 100 and collects sound of the subject. A single sound collection unit 144 may be provided in the housing 100 instead of the pair of sound collection units 144.

ステレオスピーカー146は、筐体100の使用者側の一面に設けられた一対のスピーカーであってよい。ステレオスピーカー146に代えて、モノラルスピーカーを筐体100に設けてもよい。   The stereo speaker 146 may be a pair of speakers provided on one surface of the user side of the housing 100. Instead of the stereo speaker 146, a monaural speaker may be provided in the housing 100.

操作スイッチ150は、電子機器10の任意の場所に設けられ、使用者の様々な操作を入力する。操作スイッチ150は、例えば、筐体100の使用者側、被写体側、上面、下面、及び/又は、側面に設けられる。操作スイッチ150は、グリップ160に設けられてもよい。操作スイッチ150は使用者による電源のON/OFFを含めた操作を入力する。   The operation switch 150 is provided in any place of the electronic device 10 and inputs various operations of the user. The operation switch 150 is provided on the user side, the subject side, the upper surface, the lower surface, and / or the side surface of the housing 100, for example. The operation switch 150 may be provided on the grip 160. The operation switch 150 inputs an operation including ON / OFF of the power by the user.

グリップ160は、使用者が電子機器10を保持するための部材であり、例えば、筐体100の下部に設けられる円筒状の部材である。バッテリー162は、電子機器10に電力を供給する部材であり、例えば、リチウムイオン電池、及び、ニッケル水素電池等の充電可能な二次電池、又は、使い捨ての一次電池であってよい。バッテリー162は、例えば、図1の破線で示されるようにグリップ160の内部に装着される円筒形の部材である。これに代えて、バッテリー162は、筐体100の内部に装着されてもよい。   The grip 160 is a member for the user to hold the electronic device 10, and is, for example, a cylindrical member provided at the lower part of the housing 100. The battery 162 is a member that supplies power to the electronic device 10, and may be a rechargeable secondary battery such as a lithium ion battery and a nickel metal hydride battery, or a disposable primary battery. The battery 162 is, for example, a cylindrical member that is mounted inside the grip 160 as indicated by a broken line in FIG. Instead of this, the battery 162 may be mounted inside the housing 100.

USBコネクタ164は、USB(Universal Serial Bus)デバイスの接続端子であり、グリップ160及び/又は筐体100に設けられる。USBコネクタ164は、電子機器10と他の機器との通信を可能にする。さらにUSBコネクタ164は、電源に接続されてバッテリー162を充電してもよい。   The USB connector 164 is a connection terminal of a USB (Universal Serial Bus) device, and is provided in the grip 160 and / or the housing 100. The USB connector 164 enables communication between the electronic device 10 and other devices. Further, the USB connector 164 may be connected to a power source to charge the battery 162.

このように、電子機器10は、被写体側に設けられた第1撮像部110で被写体を撮影した画像を取得し、第2撮像部120で使用者を撮影した画像を取得することができる構成をとる。   As described above, the electronic apparatus 10 can acquire an image obtained by photographing the subject with the first imaging unit 110 provided on the subject side, and can obtain an image obtained by photographing the user with the second imaging unit 120. Take.

図2は、本実施形態の電子機器10の機能構成の一例を示す。電子機器10は、図1において説明した第1撮像部110、第2撮像部120、表示部130、タッチパネル132、照明用LED142、集音部144、ステレオスピーカー146、操作スイッチ150、バッテリー162、及び、USBコネクタ164に加えて、エンコーダ200、3G/LTE通信回路202、GPSセンサー204、検出部208、方位センサー210、メモリ214、電源回路216、デコーダ221、表示ドライバ222、スピーカーアンプ224、処理部230を備えてよい。   FIG. 2 shows an example of a functional configuration of the electronic device 10 of the present embodiment. The electronic device 10 includes the first imaging unit 110, the second imaging unit 120, the display unit 130, the touch panel 132, the illumination LED 142, the sound collecting unit 144, the stereo speaker 146, the operation switch 150, the battery 162, and the like described in FIG. In addition to the USB connector 164, the encoder 200, 3G / LTE communication circuit 202, GPS sensor 204, detection unit 208, direction sensor 210, memory 214, power circuit 216, decoder 221, display driver 222, speaker amplifier 224, processing unit 230 may be provided.

エンコーダ200は、第1撮像部110、及び、第2撮像部120からアナログ画像信号出力を受け取り、これをデジタル画像データに変換して処理部230に入力する。また、エンコーダ200は、集音部144からアナログ音声信号をデジタル音声データに変換して処理部230に入力する。さらに、エンコーダ200は、第1撮像部110及び/又は第2撮像部120から、被写体及び/又は使用者までの距離を示す信号を受け取り、これをデジタルデータに変換して処理部230に入力してよい。   The encoder 200 receives analog image signal outputs from the first imaging unit 110 and the second imaging unit 120, converts them into digital image data, and inputs the digital image data to the processing unit 230. The encoder 200 also converts the analog audio signal from the sound collection unit 144 into digital audio data and inputs the digital audio data to the processing unit 230. Furthermore, the encoder 200 receives a signal indicating the distance to the subject and / or the user from the first imaging unit 110 and / or the second imaging unit 120, converts this into digital data, and inputs the digital data to the processing unit 230. It's okay.

3G/LTE通信回路202は、3G及びLTEの通信規格に準拠して他の機器との移動通信を行う通信回路である。電子機器10は、3G及びLTE以外の通信規格による通信を行う通信回路を備えてよい。3G/LTE通信回路202は、他の機器への送信データを処理部230から受け取り、他の機器からの受信データを処理部230に供給する。   The 3G / LTE communication circuit 202 is a communication circuit that performs mobile communication with other devices in accordance with 3G and LTE communication standards. The electronic device 10 may include a communication circuit that performs communication according to a communication standard other than 3G and LTE. The 3G / LTE communication circuit 202 receives transmission data to other devices from the processing unit 230 and supplies reception data from other devices to the processing unit 230.

GPSセンサー204は、GPS(Global Positioning System)を利用した測位検出を行う。GPSセンサー204は、検出した電子機器10の位置に関する情報を処理部230に供給する。   The GPS sensor 204 performs positioning detection using GPS (Global Positioning System). The GPS sensor 204 supplies information regarding the detected position of the electronic device 10 to the processing unit 230.

検出部208は、例えば、加速度センサであり、重力及び電子機器10に作用した加速度を測定することにより、電子機器10の傾きを検出する。検出部208は、多くの場合、重力の方向を測定することで、電子機器10の姿勢を検出する。検出部208は、検出した電子機器10の傾きを処理部230に供給する。方位センサー210は、地磁気を検出することにより、電子機器10の水平面上の方位(東西南北)を検出する。   The detection unit 208 is an acceleration sensor, for example, and detects the inclination of the electronic device 10 by measuring the gravity and the acceleration acting on the electronic device 10. In many cases, the detection unit 208 detects the posture of the electronic device 10 by measuring the direction of gravity. The detection unit 208 supplies the detected inclination of the electronic device 10 to the processing unit 230. The orientation sensor 210 detects the orientation (east, west, south, and north) of the electronic device 10 on the horizontal plane by detecting geomagnetism.

メモリ214は、画像データ、及び、音声データが格納されるとともに、処理部230の動作プログラム及びその他必要な情報が記録される。   The memory 214 stores image data and audio data, and records an operation program of the processing unit 230 and other necessary information.

電源回路216は、バッテリー162が接続されており、電子機器10の各回路に必要な電源を供給するとともに、電子機器10の電源のON/OFFを制御する。   The power supply circuit 216 is connected to the battery 162, supplies necessary power to each circuit of the electronic device 10, and controls ON / OFF of the power supply of the electronic device 10.

デコーダ221は、入力された画像データをデコードしてアナログ映像信号に変換し、表示ドライバ222に出力する。また、デコーダ221は、入力された音声データをデコードしてアナログ音声信号に変換し、スピーカーアンプ224に出力する。   The decoder 221 decodes the input image data, converts it into an analog video signal, and outputs it to the display driver 222. The decoder 221 decodes the input audio data, converts it into an analog audio signal, and outputs the analog audio signal to the speaker amplifier 224.

表示ドライバ222は、デコーダ221からのアナログ映像信号に基づいて表示部130を駆動するパルスを生成し、表示部130に画像を表示させる。スピーカーアンプ224は、デコーダ221からのアナログ音声信号を増幅してステレオスピーカー146に出力する。   The display driver 222 generates a pulse for driving the display unit 130 based on the analog video signal from the decoder 221 and causes the display unit 130 to display an image. The speaker amplifier 224 amplifies the analog audio signal from the decoder 221 and outputs it to the stereo speaker 146.

処理部230は、CPU等を含み、電子機器10を制御する。処理部230は、エンコーダ200から被写体及び使用者の画像データと、集音した音声データと、被写体及び/又は使用者との距離データを受け取る。処理部230は、表示部130に表示させる画像データ、及び、ステレオスピーカー146に出力させる音声データをデコーダ221に出力する。処理部230は、タッチパネル132、及び、操作スイッチ150から使用者の操作情報を受け取る。処理部230は、USBコネクタ164、3G/LTE通信回路202、及び、メモリ214との間でデータの送受信をする。また、処理部230は、GPSセンサー204、検出部208、及び、方位センサー210からの各種データを受信する。また、処理部230は、照明用LED142の出力及び電源回路216からの電源の供給を制御する。   The processing unit 230 includes a CPU and the like and controls the electronic device 10. The processing unit 230 receives the image data of the subject and the user, the collected sound data, and the distance data of the subject and / or the user from the encoder 200. The processing unit 230 outputs image data to be displayed on the display unit 130 and audio data to be output to the stereo speaker 146 to the decoder 221. The processing unit 230 receives user operation information from the touch panel 132 and the operation switch 150. The processing unit 230 transmits / receives data to / from the USB connector 164, the 3G / LTE communication circuit 202, and the memory 214. Further, the processing unit 230 receives various data from the GPS sensor 204, the detection unit 208, and the direction sensor 210. Further, the processing unit 230 controls the output of the lighting LED 142 and the supply of power from the power supply circuit 216.

処理部230は、被写体の身長の算出に関する機能を実行する算出部232、及び、調整部234を有する。   The processing unit 230 includes a calculation unit 232 that executes a function related to the calculation of the height of the subject, and an adjustment unit 234.

算出部232は、使用者により保持されて被写体および使用者を撮像することにより得られた第1画像および第2画像に基づいて、使用者に対する被写体の相対的な高さを算出する。例えば、算出部232は、第1画像と第2画像に基づいて第1撮像部110が位置する高さに対する被写体の相対的な高さ及び第2撮像部120が位置する高さに対する使用者の相対的な高さを算出し、算出したこれらの高さと、第1撮像部110に対する第2撮像部120の相対的な高さとに基づいて、使用者に対する被写体の相対的な高さを算出してよい。   The calculation unit 232 calculates the relative height of the subject with respect to the user based on the first image and the second image that are obtained by capturing the subject and the user while being held by the user. For example, the calculation unit 232 may determine the relative height of the subject with respect to the height at which the first imaging unit 110 is located and the height at which the second imaging unit 120 is located based on the first image and the second image. The relative height is calculated, and the relative height of the subject with respect to the user is calculated based on the calculated height and the relative height of the second imaging unit 120 with respect to the first imaging unit 110. It's okay.

一例として、算出部232は、第2撮像部120が位置する高さに対する使用者の相対的な高さと、第1撮像部110に対する第2撮像部120の相対的な高さとの和を、第1撮像部110が位置する高さに対する被写体の相対的な高さから差分することにより、使用者に対する被写体の相対的な高さを算出することができる。さらに、算出部232は、使用者の身体的特徴に基づいて、被写体の高さを算出してよい。例えば、算出部232は、使用者の身長に使用者に対する被写体の相対的な高さを加えることにより、被写体の高さを算出してよい。   As an example, the calculation unit 232 calculates the sum of the relative height of the user with respect to the height at which the second imaging unit 120 is located and the relative height of the second imaging unit 120 with respect to the first imaging unit 110. The relative height of the subject relative to the user can be calculated by subtracting from the relative height of the subject relative to the height at which one imaging unit 110 is located. Furthermore, the calculation unit 232 may calculate the height of the subject based on the physical characteristics of the user. For example, the calculation unit 232 may calculate the height of the subject by adding the relative height of the subject to the user to the height of the user.

より具体的には、算出部232は、被写体の一部が撮像された第1画像を解析し、第1画像中における被写体の特定部位の位置を特定する。被写体の特定部位は、被写体の画像を解析することにより特定可能な場所であればよく、例えば、被写体の一方又は両方の眼であってよい。次に、算出部232は、第1画像中における被写体の特定部位の視差量を解析することにより、第1撮像部110から当該特定部位までの距離を算出する。そして、算出部232は、第1画像中における被写体の特定部位が撮像された位置、第1撮像部110から被写体の特定部位までの距離、及び、検出部208から受信した電子機器10の傾きに基づいて、第1撮像部110が位置する高さに対する被写体の相対的な高さを算出する。   More specifically, the calculation unit 232 analyzes the first image in which a part of the subject is captured, and specifies the position of the specific part of the subject in the first image. The specific part of the subject may be a place that can be specified by analyzing the image of the subject, and may be, for example, one or both eyes of the subject. Next, the calculation unit 232 calculates the distance from the first imaging unit 110 to the specific part by analyzing the parallax amount of the specific part of the subject in the first image. Then, the calculation unit 232 determines the position at which the specific part of the subject in the first image is imaged, the distance from the first imaging unit 110 to the specific part of the subject, and the inclination of the electronic device 10 received from the detection unit 208. Based on this, the relative height of the subject with respect to the height at which the first imaging unit 110 is located is calculated.

同様に、算出部232は、使用者の一部が撮像された第2画像を解析し、第2画像中における使用者の特定部位の位置を特定する。使用者の特定部位は、使用者の画像を解析することにより特定可能な場所であればよく、例えば、使用者の一方又は両方の眼であってよい。次に、算出部232は、第2画像中における使用者の特定部位の視差量を解析することにより、第2撮像部120から当該特定部位までの距離を算出する。そして、算出部232は、第2画像中における使用者の特定部位の位置、第2撮像部120から使用者の特定部位までの距離、及び、検出部208から受信した電子機器10の傾きに基づいて、第2撮像部120が位置する高さに対する使用者の相対的な高さを算出する。   Similarly, the calculation unit 232 analyzes the second image obtained by capturing a part of the user, and specifies the position of the specific part of the user in the second image. The specific part of the user may be a place that can be specified by analyzing the user's image, and may be, for example, one or both eyes of the user. Next, the calculation unit 232 calculates the distance from the second imaging unit 120 to the specific part by analyzing the parallax amount of the specific part of the user in the second image. Then, the calculation unit 232 is based on the position of the specific part of the user in the second image, the distance from the second imaging unit 120 to the specific part of the user, and the inclination of the electronic device 10 received from the detection unit 208. Thus, the height of the user relative to the height at which the second imaging unit 120 is located is calculated.

さらに、算出部232は、予め設定された調整量αに基づいて被写体の高さを算出してよい。これにより、電子機器10は、測定誤差等をキャンセルして、より正確な被写体の高さを算出することができる。   Furthermore, the calculation unit 232 may calculate the height of the subject based on a preset adjustment amount α. Thereby, the electronic device 10 can cancel a measurement error or the like and calculate a more accurate subject height.

調整部234は、被写体の高さの調整量αを算出する。調整量αは、電子機器10固有の測定誤差等を補正するための値であってよい。例えば、調整部234は、鏡に映る使用者の姿を撮像することにより得られた第3画像に基づいて、調整量αを算出してよい。   The adjustment unit 234 calculates an adjustment amount α of the subject height. The adjustment amount α may be a value for correcting a measurement error or the like unique to the electronic device 10. For example, the adjustment unit 234 may calculate the adjustment amount α based on the third image obtained by imaging the user's appearance reflected in the mirror.

このように、図2によると、算出部232は、第1撮像部及び第2撮像部から被写体及び使用者の立体視用画像を取得し、検出部208から電子機器10の傾きを取得する。そして、算出部232は、取得したこれらの画像と傾きから、使用者に対する被写体の相対的な高さを算出する。   As described above, according to FIG. 2, the calculation unit 232 acquires the stereoscopic image of the subject and the user from the first imaging unit and the second imaging unit, and acquires the tilt of the electronic device 10 from the detection unit 208. Then, the calculation unit 232 calculates the relative height of the subject with respect to the user from these acquired images and inclination.

図3は、本実施形態に係る被写体の身長算出方法の概要を示す。なお、図中のサフィックスのoは被写体、yはユーザー、cはカメラを表す。プリフィックスのSは標準、dは差分値、Tは身長、Hは高さを表す。Hoは第1撮像部110が位置する基準水平面を表し、Hyは第2撮像部120が位置する基準水平面を表す。   FIG. 3 shows an overview of the subject height calculation method according to the present embodiment. In the figure, the suffix o indicates the subject, y indicates the user, and c indicates the camera. The prefix S is standard, d is a difference value, T is height, and H is height. Ho represents the reference horizontal plane where the first imaging unit 110 is located, and Hy represents the reference horizontal plane where the second imaging unit 120 is located.

図3に示されるように、使用者1に対する被写体2の相対的な高さdHは、第1撮像部110に対する被写体2の相対的な高さdHoと、第1撮像部110に対する第2撮像部120の相対的な高さdHcと、第2撮像部120に対する使用者1の相対的な高さdHyとに基づき、以下の式(1)から算出される。
dH = dHy + dHc − dHo …(1)
As shown in FIG. 3, the relative height dH of the subject 2 with respect to the user 1 is the relative height dHo of the subject 2 with respect to the first imaging unit 110 and the second imaging unit with respect to the first imaging unit 110. Based on the relative height dHc of 120 and the relative height dHy of the user 1 with respect to the second imaging unit 120, the following calculation (1) is performed.
dH = dHy + dHc-dHo (1)

また、被写体2の地面からの高さ、つまり被写体2の身長は、既知の使用者1の身長Tyに基づき以下の式(2)から算出される。
To = Ty − dH …(2)
Further, the height of the subject 2 from the ground, that is, the height of the subject 2 is calculated from the following equation (2) based on the height Ty of the known user 1.
To = Ty−dH (2)

第1撮像部110に対する被写体2の相対的な高さdHoは、被写体2の特定部位に対する被写体2の高さsHoと、被写体2の特定部位(例えば、眼)に対する第1撮像部110の高さdIoとに基づき、以下の式(3)から算出される。
dHo = sHo − dIo …(3)
被写体2の特定部位に対する被写体2の高さsHoは、例えば、統計データの値を予めメモリ214等に記録しておくことで得られる。
The relative height dHo of the subject 2 with respect to the first imaging unit 110 is the height sHo of the subject 2 with respect to the specific part of the subject 2 and the height of the first imaging unit 110 with respect to the specific part (for example, the eye) of the subject 2. Based on dIo, it is calculated from the following equation (3).
dHo = sHo−dIo (3)
The height sHo of the subject 2 with respect to a specific part of the subject 2 can be obtained, for example, by previously recording statistical data values in the memory 214 or the like.

被写体2の特定部位に対する第1撮像部110の高さdIoは、第1撮像部110から特定部位までの距離Do、及び、基準水平面Hoから、被写体2の特定部位及び第1撮像部110を結ぶ直線Ioまでの角度θoに基づいて、以下の数式(4)から算出される。
dIo = Do × sinθo …(4)
The height dIo of the first imaging unit 110 with respect to the specific part of the subject 2 connects the specific part of the subject 2 and the first imaging unit 110 from the distance Do from the first imaging unit 110 to the specific part and the reference horizontal plane Ho. Based on the angle θo to the straight line Io, it is calculated from the following mathematical formula (4).
dIo = Do × sin θo (4)

第1撮像部110から特定部位までの距離Doは、三角測量等の原理に基づいて、立体視用画像である第1画像における被写体2の特定部位の視差量から算出することができる。   The distance Do from the first imaging unit 110 to the specific part can be calculated from the parallax amount of the specific part of the subject 2 in the first image, which is a stereoscopic image, based on a principle such as triangulation.

角度θoは、電子機器10の傾きθcと、第1撮像部110の垂直方向画角の二分線Coと直線Ioとの角度θcoに基づいて、以下の式(5)から算出される。
θo = θc − θco …(5)
The angle θo is calculated from the following equation (5) based on the inclination θc of the electronic device 10 and the angle θco between the bisector Co and the straight line Io of the vertical field angle of the first imaging unit 110.
θo = θc−θco (5)

傾き角度θcは、検出部208の検出した値が用いられる。図3において、電子機器10は、使用者1から見て奥側が低くなるように傾いており角度θcは正である。なお、電子機器10の使用者1から見て手前側が低くなるように傾く場合、傾き角度θcは負の値となる。   A value detected by the detection unit 208 is used as the inclination angle θc. In FIG. 3, the electronic device 10 is tilted so that the back side is low as viewed from the user 1, and the angle θc is positive. Note that when the electronic device 10 is tilted so that the front side is low as viewed from the user 1, the tilt angle θc is a negative value.

角度θcoは、第1画像における被写体2の特定部位が撮像された位置から算出される。例えば、図4(a)において、二分線Coと重なり第1画像を垂直方向に等分する表示二分線から、被写体2の特定部位までの画素数Pioを計測することにより、角度θcoが求められる。なお、第1画像の表示二分線よりも被写体2の特定部位が下に位置する場合、画素数Pioは負の値となる。   The angle θco is calculated from the position where the specific part of the subject 2 in the first image is imaged. For example, in FIG. 4A, the angle θco is obtained by measuring the number of pixels Pio from the display bisector that overlaps the bisector Co and equally divides the first image in the vertical direction to the specific part of the subject 2. . In addition, when the specific part of the subject 2 is located below the display bisector of the first image, the pixel number Pio is a negative value.

例えば、角度θcoは、第1画像の垂直方向の画素数Pz1、第1撮像部110の縦方向の画角θv1に基づいて、以下の式(6)から算出される。
θco = θv1 × Pio/Pz1 (6)
For example, the angle θco is calculated from the following equation (6) based on the number of pixels Pz1 in the vertical direction of the first image and the vertical field angle θv1 of the first imaging unit 110.
θco = θv1 × Pio / Pz1 (6)

角度θcoは、第1画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。このように、電子機器10は、式(3)〜(6)等により、dHoを算出することができる。   The angle θco may be calculated from one of the left image and the right image constituting the first image, or may be an average of values calculated from both the left image and the right image. As described above, the electronic device 10 can calculate dHo by the equations (3) to (6).

第2撮像部120に対する使用者1の相対的な高さdHyは、使用者1の特定部位に対する使用者1の高さsHyと、第2撮像部120の高さに対する使用者1の特定部位(例えば、眼)の高さdIyとに基づき、以下の式(7)から算出される。
dHy = sHy + dIy …(7)
使用者1の特定部位に対する使用者1の高さsHyは、sHoと同様に統計データを用いることができる。
The relative height dHy of the user 1 with respect to the second imaging unit 120 is the height sHy of the user 1 with respect to the specific part of the user 1 and the specific part of the user 1 with respect to the height of the second imaging part 120 ( For example, it is calculated from the following formula (7) based on the eye height dIy.
dHy = sHy + dIy (7)
Statistical data can be used for the height sHy of the user 1 with respect to the specific part of the user 1 as in the case of sHo.

第2撮像部120に対する使用者1の特定部位の高さdIyは、第2撮像部120から特定部位までの距離Dy、及び、基準水平面Hyから第2撮像部120と使用者1の特定部位とを結ぶ直線Iyへの角度θyに基づいて、以下の数式(8)から算出される。
dIy = Dy × sinθy …(8)
The height dIy of the specific part of the user 1 with respect to the second imaging unit 120 is the distance Dy from the second imaging part 120 to the specific part and the specific part of the second imaging unit 120 and the user 1 from the reference horizontal plane Hy. Is calculated from the following formula (8) based on the angle θy to the straight line Iy that connects.
dIy = Dy × sin θy (8)

第2撮像部120から特定部位までの距離Dyは、距離Doと同様に、立体視用画像である第2画像における使用者1の特定部位の視差量から算出することができる。   Similar to the distance Do, the distance Dy from the second imaging unit 120 to the specific part can be calculated from the parallax amount of the specific part of the user 1 in the second image that is a stereoscopic image.

基準水平面Hyから、直線Iyまでの角度θyは、電子機器10の傾きθcと、第2撮像部120の垂直方向画角の二分線Cyからの直線Iyへの角度θcyに基づいて、以下の式(9)から算出される。
θy = θc + θcy …(9)
The angle θy from the reference horizontal plane Hy to the straight line Iy is based on the inclination θc of the electronic device 10 and the angle θcy from the bisector Cy of the vertical direction angle of view of the second imaging unit 120 to the straight line Iy. Calculated from (9).
θy = θc + θcy (9)

角度θcyは、第2画像における使用者1の特定部位が撮像された位置から算出される。例えば、図4(b)に示される第2画像において、二分線Cyと重なり第2画像を垂直方向に等分する表示二分線から、使用者1の特定部位までの画素数Piyを計測することにより、角度θcoと同様の方法で、角度θcyが求められる。なお、第2画像の表示二分線よりも使用者1の特定部位が下に位置する場合、画素数Piyは負の値となる。   The angle θcy is calculated from the position where the specific part of the user 1 in the second image is imaged. For example, in the second image shown in FIG. 4B, the number of pixels Piy from the display bisector that overlaps the bisector Cy and equally divides the second image in the vertical direction to the specific part of the user 1 is measured. Thus, the angle θcy is obtained in the same manner as the angle θco. In addition, when the specific part of the user 1 is located below the display bisector of the second image, the pixel number Piy is a negative value.

例えば、角度θcyは、第2画像の垂直方向の画素数Pz2、第2撮像部120の縦方向の画角θv2に基づいて、以下の式(10)から算出される。
θcy = θv2 × Piy/Pz2 (10)
For example, the angle θcy is calculated from the following equation (10) based on the number of pixels Pz2 in the vertical direction of the second image and the vertical field angle θv2 of the second imaging unit 120.
θcy = θv2 × Piy / Pz2 (10)

角度θcyは、第2画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。このように、式(7)〜(10)等により、dHyを算出することができる。   The angle θcy may be calculated from one of the left image and the right image constituting the second image, or may be an average of values calculated from both the left image and the right image. In this way, dHy can be calculated by the equations (7) to (10).

第1撮像部110に対する第2撮像部120の相対的な高さdHcは、第1撮像部110に対する第2撮像部120の高さZc、及び、電子機器10の傾きθcから、以下の式(11)に基づいて算出できる。
dHc = Zc × cosθc …(11)
The relative height dHc of the second imaging unit 120 with respect to the first imaging unit 110 is calculated from the height Zc of the second imaging unit 120 with respect to the first imaging unit 110 and the inclination θc of the electronic device 10 by the following formula ( 11).
dHc = Zc × cos θc (11)

電子機器10の厚みを考慮する場合には、さらに、電子機器10の厚み方向における第1撮像部110と第2撮像部120との距離Xcから、式(11)に代えて以下の式(11')に基づいてdHcを算出できる。
dHc = Zc × cosθc + Xc × sinθc …(11')
When considering the thickness of the electronic device 10, the following equation (11) is used instead of the equation (11) from the distance Xc between the first imaging unit 110 and the second imaging unit 120 in the thickness direction of the electronic device 10. DHc can be calculated based on ').
dHc = Zc × cos θc + Xc × sin θc (11 ′)

このように、本実施形態によると、被写体2の特定部位が撮像された第1画像、使用者1の特定部位が撮像された第2画像、及び、電子機器の傾きから、式(1)〜(11)に基づいて、被写体2の高さを算出することができる。これにより、電子機器10は、被写体2の頭頂部から足元までの全身を撮像しなくとも、被写体2の身長を算出することができる。   Thus, according to the present embodiment, from the first image in which the specific part of the subject 2 is imaged, the second image in which the specific part of the user 1 is imaged, and the inclination of the electronic device, the equations (1) to (1) to Based on (11), the height of the subject 2 can be calculated. Thereby, the electronic device 10 can calculate the height of the subject 2 without imaging the whole body from the top of the subject 2 to the feet.

また、本実施形態によると、電子機器10は、被写体2の髪型及び帽子の着用等に影響を受けることなく、被写体2の身長を算出することができる。さらに、本実施形態によると、電子機器10は、撮影者である使用者1の身長を基準値として被写体の身長を推定するので、他の基準となる機械要素を使用者1が持参する必要が無く、極めて軽量なシステムにより被写体2の身長を測定できる。   In addition, according to the present embodiment, the electronic device 10 can calculate the height of the subject 2 without being affected by the hairstyle, the hat, etc. of the subject 2. Furthermore, according to the present embodiment, the electronic device 10 estimates the height of the subject using the height of the user 1 who is the photographer as a reference value, and thus the user 1 needs to bring other reference mechanical elements. The height of the subject 2 can be measured by a very lightweight system.

図5〜7は、本実施形態に係る被写体の身長を測定するフローチャートを示す。図5は、全体フローチャートを示す。電子機器10は、被写体の身長を算出する場合において、図5のステップS100からS230までの処理を実行する。   5 to 7 show flowcharts for measuring the height of the subject according to the present embodiment. FIG. 5 shows an overall flowchart. When calculating the height of the subject, the electronic device 10 executes the processing from steps S100 to S230 in FIG.

まず、S100において、処理部230は、使用者1に身長Ty、国籍、年齢、及び、性別の入力を促すメッセージを表示部130に表示させる。電子機器10は、使用者1が最初に使用する際の初期設定段階でこの処理を実行しても良いが、毎回実行する必要はない。使用者から入力されたデータは、メモリ214に記憶される。   First, in S100, the processing unit 230 causes the display unit 130 to display a message that prompts the user 1 to input height Ty, nationality, age, and gender. The electronic device 10 may execute this process at the initial setting stage when the user 1 uses it for the first time, but it is not necessary to execute it every time. Data input from the user is stored in the memory 214.

次に、S110において、電子機器10は、使用者1の身長Tyの入力があった場合には、処理をS140へ進め(Y)、身長Tyの入力が無かった場合には処理をS120へ進める。   Next, in S110, the electronic device 10 advances the process to S140 if the height Ty of the user 1 is input (Y), and advances the process to S120 if there is no input of the height Ty. .

S120において、電子機器10は、第2撮像部120により使用者1を撮影する。次に、S130において、電子機器10は、撮影した画像から使用者1の顔の特徴を抽出し、S100において使用者1の性別、年齢及び/又は人種情報を取得していない場合には、公知の技術により使用者1の性別、年齢、及び/又は人種を推定する。そして、電子機器10は、使用者1に入力された又は推定された使用者1の性別、年齢及び/又は人種情報を元に使用者1の身長Tyを推定する。   In S <b> 120, the electronic device 10 photographs the user 1 with the second imaging unit 120. Next, in S <b> 130, the electronic device 10 extracts the facial features of the user 1 from the photographed image, and if the gender, age and / or race information of the user 1 is not acquired in S <b> 100, The gender, age, and / or race of the user 1 are estimated by a known technique. Then, the electronic device 10 estimates the height Ty of the user 1 based on the gender, age and / or race information of the user 1 input or estimated by the user 1.

S140において、電子機器10は、キャリブレーションを実行するかどうかの確認メッセージを表示部130に表示する。そして電子機器10は、タッチパネル132等を介して使用者1からキャリブレーションを実行する指示を受けた場合には、処理をS230へ移行する。S140において使用者1がキャリブレーションを望まない場合には、電子機器10は処理をS160へ移行する。   In S140, the electronic device 10 displays a confirmation message on the display unit 130 as to whether or not to execute calibration. When the electronic device 10 receives an instruction to execute calibration from the user 1 via the touch panel 132 or the like, the electronic device 10 proceeds to S230. If the user 1 does not want calibration in S140, the electronic device 10 proceeds to S160.

なお、電子機器10は、このキャリブレーションを1回行えば良く、2回目以降にフローを実行する場合にはS140を実行せず、S160に移行してよい。この場合、電子機器10は、設定モード等において、使用者1から別途指示を受けた場合に、キャリブレーションを実行するためにS230に移行してよい。   The electronic device 10 may perform this calibration once, and may execute S160 without executing S140 when the flow is executed after the second time. In this case, in the setting mode or the like, the electronic device 10 may proceed to S230 in order to execute calibration when receiving a separate instruction from the user 1.

S160において、使用者1による被写体2の撮影指示を、タッチパネル132又は操作スイッチ150等を介して入力するまで、電子機器10は処理を行わず待機する。電子機器10は、使用者1から撮影の指示を受け取った場合には処理をS170に移行する。   In step S <b> 160, the electronic device 10 does not perform processing until the user 1 inputs an instruction to shoot the subject 2 via the touch panel 132 or the operation switch 150. When the electronic device 10 receives a shooting instruction from the user 1, the process proceeds to S170.

S170において、電子機器10は、第1撮像部110の左撮像部112及び右撮像部114により被写体2を撮像する。なお、オートフォーカス機構等により被写体2と第1撮像部110との距離が概ね50cm以内であると判断された場合には、適切な立体効果を有する立体視用画像を得る目的で、間隔がより狭い左撮像部116及び右撮像部118により被写体2を撮像する。なお、本実施形態では左撮像部112及び右撮像部114により被写体2を撮像した場合を想定して説明する。撮像された被写体2の立体視用画像のデータは、エンコーダ200を介して、第1撮像部110から処理部230に送信される。   In S <b> 170, the electronic device 10 images the subject 2 using the left imaging unit 112 and the right imaging unit 114 of the first imaging unit 110. When the distance between the subject 2 and the first imaging unit 110 is determined to be approximately 50 cm or less by an autofocus mechanism or the like, the interval is further increased for the purpose of obtaining a stereoscopic image having an appropriate stereoscopic effect. The subject 2 is imaged by the narrow left imaging unit 116 and right imaging unit 118. In the present embodiment, the case where the subject 2 is imaged by the left imaging unit 112 and the right imaging unit 114 will be described. Data of the captured stereoscopic image of the subject 2 is transmitted from the first imaging unit 110 to the processing unit 230 via the encoder 200.

次に、S180において、電子機器10は、第2撮像部120により使用者1を撮像する。使用者1は表示部130に映された被写体2を観察しているので、第2撮像部120はその撮影範囲に使用者1を捕らえることができる。撮像された使用者1の立体視用画像のデータは、エンコーダ200を介して、第2撮像部120から処理部230に渡される。なお、S170とS180は、同時に実行されてもよい。   Next, in S <b> 180, the electronic device 10 images the user 1 with the second imaging unit 120. Since the user 1 is observing the subject 2 displayed on the display unit 130, the second imaging unit 120 can capture the user 1 in the shooting range. Data of the captured stereoscopic image of the user 1 is transferred from the second imaging unit 120 to the processing unit 230 via the encoder 200. Note that S170 and S180 may be executed simultaneously.

次にS190において、処理部230は、第1撮像部110で撮像した被写体2が人物であるか否か判断する。被写体2が人物でない場合には、身長測定の意味がないので一連のシーケンスを終了する。被写体2が人物である場合にはS200へ移行する。なお、処理部230は、被写体2が人物であるが、撮像した被写体2の画像に予め定められた眼等の特定部位が含まれていない場合には、被写体2の特定部位を撮影するように使用者に促すメッセージを表示部130に表示させ、処理をS160に戻してよい。   Next, in S190, the processing unit 230 determines whether or not the subject 2 imaged by the first imaging unit 110 is a person. If the subject 2 is not a person, there is no meaning for measuring the height, and the series of sequences is terminated. If the subject 2 is a person, the process proceeds to S200. Note that the processing unit 230 captures the specific part of the subject 2 when the subject 2 is a person but the captured image of the subject 2 does not include a predetermined specific part such as an eye. A message prompting the user may be displayed on the display unit 130, and the process may return to S160.

次にS200において、電子機器10は算出部232により、被写体2の身長Toを算出する。次にS210において、電子機器10は、算出した被写体2の身長To及び撮影年月日等を表示部130に表示する。表示部130は、例えば図4(a)に示されるように、被写体2の身長To及び撮影年月日等を、撮影した被写体2の第1画像と共に表示してよい。   Next, in S <b> 200, the electronic device 10 calculates the height To of the subject 2 by the calculation unit 232. In step S <b> 210, the electronic device 10 displays the calculated height To of the subject 2 and the shooting date on the display unit 130. For example, as shown in FIG. 4A, the display unit 130 may display the height To and the shooting date of the subject 2 together with the first image of the taken subject 2.

次に、S220において、電子機器10は、算出された被写体2の身長To、撮影年月日、及び撮影した被写体2の画像をメモリ214に記録してよい。   Next, in S <b> 220, the electronic device 10 may record the calculated height To of the subject 2, the shooting date and the image of the shot subject 2 in the memory 214.

S140で使用者1がキャリブレーションモードを希望した場合は、S230において、電子機器10は、調整量αをキャリブレーションし、キャリブレーションが完了した後に処理をS160に進める。電子機器10は、一端キャリブレーションを実行した後は、使用者が電子機器10のメニュー操作等でキャリブレーションの実行を指示しない限り、キャリブレーションモードの確認画面を表示しなくてよい。   When the user 1 desires the calibration mode in S140, in S230, the electronic device 10 calibrates the adjustment amount α, and proceeds to S160 after the calibration is completed. The electronic device 10 does not have to display the calibration mode confirmation screen after the calibration is executed unless the user instructs the execution of the calibration through a menu operation of the electronic device 10 or the like.

図6は、図5のS200の詳細な処理のフローチャートを示す。電子機器10は、S200において、図6のステップS2002からS2022までの処理を実行する。   FIG. 6 shows a flowchart of detailed processing in S200 of FIG. In S200, the electronic device 10 executes the processes from Steps S2002 to S2022 in FIG.

まず、S2002において、検出部208は、電子機器10の傾き角度θcを測定し、測定した傾き角度θcの情報を処理部230に入力する。   First, in S2002, the detection unit 208 measures the tilt angle θc of the electronic device 10 and inputs information on the measured tilt angle θc to the processing unit 230.

次に、S2004において、処理部230の算出部232は、受け取った被写体2の立体視用画像である第1画像から被写体2の特定部位の視差量を算出し、当該視差量から、第1撮像部110から特定部位である眼までの距離Doを算出する。例えば、算出部232は、三角測量の原理に基づいて、被写体2の眼の視差量から距離Doを算出することができる。これに代えて、算出部232は、立体視用画像における物体の視差量と物体までの距離を対応付けて記録したルックアップテーブル等により、眼の視差量から距離Doを算出してもよい。   Next, in S2004, the calculation unit 232 of the processing unit 230 calculates the parallax amount of the specific part of the subject 2 from the first image that is the received stereoscopic image of the subject 2, and performs the first imaging from the parallax amount. A distance Do from the unit 110 to the eye that is the specific part is calculated. For example, the calculation unit 232 can calculate the distance Do from the parallax amount of the eye of the subject 2 based on the principle of triangulation. Instead of this, the calculation unit 232 may calculate the distance Do from the parallax amount of the eye by using a lookup table or the like that records the parallax amount of the object in the stereoscopic image and the distance to the object in association with each other.

なお、電子機器10は、立体視用画像の視差を用いることに代えて、第1撮像部110がオートフォーカスをする場合にレンズの移動位置を検出することで被写体2までの距離Doを測定してよく、別途設けた測距センサーにより被写体2までの距離Doを測定しても良い。この場合、処理部230は、S2004を省略する代わりに、S170において、被写体2の画像データとともに被写体2の距離Doに関する情報をオートフォーカス機構または測距センサーから受け取ってよい。   The electronic device 10 measures the distance Do to the subject 2 by detecting the lens movement position when the first imaging unit 110 performs autofocusing instead of using the parallax of the stereoscopic image. Alternatively, the distance Do to the subject 2 may be measured by a separately provided distance measuring sensor. In this case, instead of omitting S2004, the processing unit 230 may receive information regarding the distance Do of the subject 2 together with the image data of the subject 2 from the autofocus mechanism or the distance measuring sensor in S170.

次に、S2006において、算出部232は、被写体2を撮影した第1画像を垂直方向に等分する表示二分線から、被写体2の特定部位までの垂直方向の画素数Pioを計測する。算出部232は、画素数Pioは、図4(a)に示されるように被写体2の特定部位である眼と表示二分線との画素数を計算することにより算出する。例えば図4(a)において、表示二分線と被写体2の眼との間の画素数が100画素であったとすると、画素数Pio=100となる。   Next, in S2006, the calculation unit 232 measures the number of pixels Pio in the vertical direction from the display bisector that equally divides the first image obtained by photographing the subject 2 to the specific part of the subject 2. The calculation unit 232 calculates the number of pixels Pio by calculating the number of pixels between the eye that is a specific part of the subject 2 and the display bisector, as shown in FIG. For example, in FIG. 4A, if the number of pixels between the display bisector and the eye of the subject 2 is 100, the number of pixels Pio = 100.

画素数Pioは、第1画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。また、例えば、左右の眼がそれぞれ表示二分線から異なる画素数の位置にある場合には、算出部232は、左右の眼の一方又は平均値を画素数Pioと判断してよい。   The number of pixels Pio may be calculated from one of the left image and the right image constituting the first image, or may be an average of values calculated from both the left image and the right image. Further, for example, when the left and right eyes are at different pixel positions from the display bisector, the calculation unit 232 may determine one or the average of the left and right eyes as the pixel number Pio.

次に、S2008において、算出部232は、被写体2の眼から頭頂部までの高さsHoを推定する。被写体2の眼から頭頂部までの高さsHoは、統計データから得られる。例えば、人の眼を基準にした頭頂部までの高さは、男性の平均値110mm、女性の平均値106mmである。この寸法は多少の個人差はあるものの、成長によってあまり大きく変わらない数値である。例えば、男児7歳の平均が111.6ミリ、40〜49歳の平均が110.9ミリ、80〜99歳の平均が109ミリである。   Next, in S2008, the calculation unit 232 estimates the height sHo from the eye of the subject 2 to the top of the head. The height sHo from the eye of the subject 2 to the top of the head is obtained from the statistical data. For example, the height to the top of the head with respect to the human eye is an average value of 110 mm for men and an average value of 106 mm for women. This dimension is a numerical value that does not vary greatly with growth, although there are some individual differences. For example, the average of boys 7 years old is 111.6 mm, the average of 40-49 years old is 110.9 mm, and the average of 80-99 years old is 109 mm.

ここで、算出部232は、公知の画像認識技術により、被写体2の顔を含む第1画像から、被写体2の人物の性別を判断する。そして、算出部232は、この判断と統計データを元に被写体2の眼から頭頂部までの高さsHoを推定する。例えば、算出部232は、被写体2の人物が男性であると判断した場合は、sHo=110mmとし、女性であると判断した場合はsHo=106mmとし、性別が不明な場合はその中間値としてsHo=108mmとしてよい。   Here, the calculation unit 232 determines the gender of the person of the subject 2 from the first image including the face of the subject 2 by a known image recognition technique. Then, the calculation unit 232 estimates the height sHo from the eye of the subject 2 to the top of the head based on this determination and statistical data. For example, the calculation unit 232 sets sHo = 110 mm when it is determined that the person of the subject 2 is a male, sets sHo = 106 mm when it is determined that the person is a female, and sets sHo as an intermediate value when the gender is unknown. = 108 mm.

ここで、第1画像において、算出部232は、統計データ等を用いることに代えて、被写体2の頭部を含む第1画像からsHoを算出してよい。例えば、被写体2の頭部と背景のコントラストが明確で被写体2の頭頂部の輪郭が明確に検出でき、被写体2の後頭部が写り込んでなく、さらに傾きθcが略0であると判断される場合には、算出部232は、図4(a)に示されるように、sHoに相当する画素数を測定しても良い。   Here, in the first image, the calculation unit 232 may calculate sHo from the first image including the head of the subject 2 instead of using statistical data or the like. For example, when the contrast between the head of the subject 2 and the background is clear, the contour of the top of the subject 2 can be clearly detected, the back of the head of the subject 2 is not reflected, and the inclination θc is determined to be substantially zero. Alternatively, the calculation unit 232 may measure the number of pixels corresponding to sHo, as shown in FIG.

例えば、算出部232は、当該画素数を第1画像の垂直方向の画素数(例えば、2000画素)で割り、これに第1撮像部110の縦方向の画角θv1(例えば、60度)を乗じて、第1撮像部110、被写体2の頭頂部、及び被写体2の特定部位が形成する角度を算出し、さらに当該角度の正弦と距離Doを乗じることにより、sHoを算出してよい。   For example, the calculation unit 232 divides the number of pixels by the number of pixels in the vertical direction of the first image (for example, 2000 pixels), and divides this by the vertical angle of view θv1 (for example, 60 degrees) of the first imaging unit 110. By multiplying, the angle formed by the first imaging unit 110, the top of the subject 2 and the specific part of the subject 2 may be calculated, and sHo may be calculated by multiplying the sine of the angle and the distance Do.

次に、S2010において、算出部232は、第1撮像部110に対する被写体2の相対的な高さdHoを算出する。具体的には、算出部232は、画素数Pioに基づいて、第1撮像部110の垂直方向画角の等分線Coから被写体2の特定部位と第1撮像部110とを結ぶ直線Ioへの角度θcoを算出する。例えば、算出部232は、式(6)に従って、画素数Pioを第1画像の垂直方向の画素数(例えば、2000画素)で割り、これに第1撮像部110の縦方向の画角θv1(例えば、60度)を乗じた値を求めて、これを角度θcoする。   Next, in S2010, the calculation unit 232 calculates the relative height dHo of the subject 2 with respect to the first imaging unit 110. Specifically, based on the number of pixels Pio, the calculation unit 232 changes from the equidivision line Co of the vertical field angle of the first imaging unit 110 to the straight line Io connecting the specific part of the subject 2 and the first imaging unit 110. The angle θco is calculated. For example, the calculation unit 232 divides the number of pixels Pio by the number of pixels in the vertical direction of the first image (for example, 2000 pixels) according to Equation (6), and divides this into the vertical field angle θv1 ( For example, a value obtained by multiplying by 60 degrees is obtained, and this is set as an angle θco.

次に、算出部232は、式(5)に従って、電子機器10の傾きθcから角度θcoを減算することにより、第1撮像部110が含まれる基準水平面Hoから直線Ioへの角度θoを算出する。次に、算出部232は、式(4)に従って、距離Doにsinθoを乗じることにより、被写体2の特定部位に対する第1撮像部110の高さdIoを算出する。さらに、算出部232は、式(3)に従って、被写体2の眼からの頭頂部の高さsHoからdIoを減ずることにより、第1撮像部110に対する被写体2の相対的な高さdHoを算出する。   Next, the calculation unit 232 calculates the angle θo from the reference horizontal plane Ho including the first imaging unit 110 to the straight line Io by subtracting the angle θco from the inclination θc of the electronic device 10 according to Equation (5). . Next, the calculation unit 232 calculates the height dIo of the first imaging unit 110 with respect to the specific part of the subject 2 by multiplying the distance Do by sin θo according to Equation (4). Further, the calculation unit 232 calculates the relative height dHo of the subject 2 with respect to the first imaging unit 110 by subtracting dIo from the height sHo of the top of the subject 2 from the eye according to Equation (3). .

次に、S2012において、算出部232は、受け取った使用者1の立体視用画像である第2画像から使用者1の特定部位の視差量を算出し、当該視差量から、第2撮像部120から特定部位である眼までの距離Dyを算出する。算出部232は、S2004で説明した距離Doの算出と同様の方法により、眼の視差量等から距離Dyを求めてもよい。   Next, in S2012, the calculation unit 232 calculates the parallax amount of the specific part of the user 1 from the received second image that is the stereoscopic image of the user 1, and uses the second imaging unit 120 based on the parallax amount. The distance Dy from the eye to the eye as the specific part is calculated. The calculation unit 232 may obtain the distance Dy from the amount of parallax of the eyes, etc., by the same method as the calculation of the distance Do described in S2004.

次に、S2014において、算出部232は、使用者1を撮影した第2画像を垂直方向に等分する表示二分線から、使用者1の特定部位までの垂直方向の画素数Piyを計測する。算出部232は、画素数Piyは、図4(b)に示されるように使用者1の特定部位である眼と表示二分線との画素数を計算することにより算出する。   Next, in S2014, the calculation unit 232 measures the number of pixels Piy in the vertical direction from the display bisector that equally divides the second image obtained by capturing the user 1 to the specific part of the user 1. The calculation unit 232 calculates the number of pixels Piy by calculating the number of pixels between the eye that is the specific part of the user 1 and the display bisector, as shown in FIG. 4B.

画素数Piyは、第2画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。また、例えば、左右の眼がそれぞれ表示二分線から異なる画素数の位置にある場合には、左右の眼の一方又は平均値を画素数Piyとしてよい。   The pixel number Piy may be calculated from one of the left image and the right image constituting the second image, or may be an average of values calculated from both the left image and the right image. Further, for example, when the left and right eyes are at different pixel positions from the display bisector, one or the average value of the left and right eyes may be used as the pixel number Piy.

次に、S2016において、算出部232は、使用者1の眼から頭頂部までの高さsHyを推定する。算出部232は、S100又はS130で取得した使用者1の性別、年齢、及び/又は人種のデータ等と、統計データとに基づいて高さsHyを推定する。   Next, in S2016, the calculation unit 232 estimates the height sHy from the user's 1 eye to the top of the head. The calculation unit 232 estimates the height sHy based on the gender, age, and / or race data of the user 1 acquired in S100 or S130, and the statistical data.

次に、S2018において、算出部232は、第2撮像部120に対する使用者1の相対的な高さdHyを算出する。具体的には、算出部232は、画素数Piyに基づいて、第2撮像部120の垂直方向画角の等分線Cyから使用者1の特定部位と第2撮像部120とを結ぶ直線Iyへの角度θcyを算出する。例えば、算出部232は、式(10)の通り画素数Piy(例えば、120画素)を第2画像の垂直方向の画素数(例えば、2000画素)で割り、これに第2撮像部120の縦方向の画角θv2(例えば、60度)を乗じた値を求めて、これを角度θcyする。   Next, in S2018, the calculation unit 232 calculates the relative height dHy of the user 1 with respect to the second imaging unit 120. Specifically, based on the number of pixels Piy, the calculation unit 232 defines a straight line Iy that connects the specific part of the user 1 and the second imaging unit 120 from the equal line Cy of the vertical field angle of the second imaging unit 120. The angle θcy to is calculated. For example, the calculation unit 232 divides the number of pixels Piy (for example, 120 pixels) by the number of pixels in the vertical direction of the second image (for example, 2000 pixels) as shown in Expression (10), and divides this by the vertical length of the second imaging unit 120. A value obtained by multiplying the directional angle of view θv2 (for example, 60 degrees) is obtained, and this value is set as an angle θcy.

次に、算出部232は、式(9)に従って、電子機器10の傾きθcと角度θcyとを加算することにより、第2撮像部120が含まれる基準水平面Hyから直線Iyへの角度θyを算出する。次に、算出部232は、式(8)に従って、距離Dyにsinθyを乗じることにより、使用者1の特定部位に対する第2撮像部120の高さdIyを算出する。さらに、算出部232は、式(7)に従って使用者1の眼からの頭頂部の高さsHyとdIyとを加算することにより、第2撮像部120に対する使用者1の相対的な高さdHyを算出する。   Next, the calculation unit 232 calculates the angle θy from the reference horizontal plane Hy including the second imaging unit 120 to the straight line Iy by adding the inclination θc and the angle θcy of the electronic device 10 according to Expression (9). To do. Next, the calculation unit 232 calculates the height dIy of the second imaging unit 120 with respect to the specific part of the user 1 by multiplying the distance Dy by sin θy according to Expression (8). Further, the calculating unit 232 adds the heights sHy and dIy of the crown from the user's 1 eye according to the equation (7), so that the relative height dHy of the user 1 with respect to the second imaging unit 120 is calculated. Is calculated.

次に、S2020において、使用者1と被写体2の身長差dHを算出する。まず、算出部232は、式(11)に従って第1撮像部110に対する第2撮像部120の高さZcにcosθcを乗ずることにより、第1撮像部110に対する第2撮像部120の相対的な高さdHcを算出する。電子機器10の厚みをさらに考慮する場合には、算出部232は、式(11')に従って第1撮像部110と第2撮像部120の電子機器10の厚み方向の距離Xcにsinθcを乗じて得た値を加えて、高さdHcを算出する。   Next, in S2020, the height difference dH between the user 1 and the subject 2 is calculated. First, the calculation unit 232 multiplies cos θc by the height Zc of the second imaging unit 120 with respect to the first imaging unit 110 according to Equation (11), so that the relative height of the second imaging unit 120 with respect to the first imaging unit 110 is increased. DHc is calculated. When the thickness of the electronic device 10 is further taken into consideration, the calculation unit 232 multiplies the distance Xc in the thickness direction of the electronic device 10 between the first imaging unit 110 and the second imaging unit 120 by sin θc according to the equation (11 ′). The obtained value is added to calculate the height dHc.

算出部232は、式(1)に従って、このdHcにS2018で得たdHyを加え、ここからS2010で得たdHoを減ずることにより、使用者1に対する被写体2の相対的な高さdHを得る。算出部232は、このようにして得たdHに対して、調整量αを加算してよい。調整量αは、工場出荷時には0であり、S230のキャリブレーションにおいて調整されてよい。   The calculation unit 232 obtains the relative height dH of the subject 2 with respect to the user 1 by adding dHy obtained in S2018 to this dHc and subtracting dHo obtained in S2010 from here according to the equation (1). The calculation unit 232 may add the adjustment amount α to dH obtained in this way. The adjustment amount α is 0 at the time of factory shipment, and may be adjusted in the calibration of S230.

次に、S2022において、算出部232は、式(2)に従って、S100またはS130で得た使用者1の身長TyからdHを減算して、被写体の身長Toを算出する。   Next, in S2022, the calculation unit 232 calculates the height To of the subject by subtracting dH from the height Ty of the user 1 obtained in S100 or S130 according to Expression (2).

図7は、図5のS230の詳細な処理のフローチャートを示す。電子機器10は、S230において、図7のステップS2302からS2326までの処理によりキャリブレーションを実行する。   FIG. 7 shows a flowchart of detailed processing in S230 of FIG. In S230, the electronic device 10 executes calibration by the processes from Steps S2302 to S2326 in FIG.

S2302において、表示部130は、使用者1が鏡に映した自身を撮影するようにガイダンスを表示する。   In S2302, the display unit 130 displays the guidance so that the user 1 takes a picture of himself / herself reflected in the mirror.

S2304において、電子機器10は、使用者1が操作スイッチ150により撮影を指示するまで待機する。これにより、電子機器10は、鏡に写る使用者以外の第三者の画像を第1撮像部110が捕らえてキャリブレーションすることを防ぐことができ、鏡に映る使用者1の画像により確実にキャリブレーションを実行できる。使用者1から撮影の指示を受け取ると、電子機器10は処理をS2306に進める。一定時間使用者1から指示を受け取らない場合は、電子機器10は図5のS230の処理を終了し処理をS160に進める。   In step S <b> 2304, the electronic device 10 stands by until the user 1 instructs to perform shooting using the operation switch 150. Thereby, the electronic device 10 can prevent the first imaging unit 110 from capturing and calibrating an image of a third party other than the user reflected in the mirror, and more reliably by the image of the user 1 reflected in the mirror. Calibration can be performed. Upon receiving a shooting instruction from the user 1, the electronic device 10 advances the process to step S2306. If no instruction is received from the user 1 for a certain period of time, the electronic device 10 ends the process of S230 in FIG. 5 and advances the process to S160.

次にS2306において、電子機器10は、第1撮像部110の左撮像部112と右撮像部114、又は、左撮像部116と右撮像部118により被写体2として鏡に映った使用者1を撮像する。撮像された被写体2の立体視用画像のデータは、エンコーダ200を介して、処理部230に送信される。   In step S <b> 2306, the electronic device 10 captures the user 1 reflected in the mirror as the subject 2 by the left imaging unit 112 and the right imaging unit 114 of the first imaging unit 110 or the left imaging unit 116 and the right imaging unit 118. To do. Data of the captured stereoscopic image of the subject 2 is transmitted to the processing unit 230 via the encoder 200.

次に、S2308において、電子機器10は、第2撮像部120により使用者1を直接撮像する。撮像された使用者1の立体視用画像のデータは、エンコーダ200を会して、処理部230に渡される。なお、S2306とS2308は、同時に実行されてもよい。   Next, in S <b> 2308, the electronic device 10 directly images the user 1 by the second imaging unit 120. Data of the captured stereoscopic image of the user 1 meets the encoder 200 and is passed to the processing unit 230. Note that S2306 and S2308 may be executed simultaneously.

次に、S2310において、検出部208は、電子機器10の傾き角度θcを測定し、測定した傾き角度θcの情報を処理部230に入力する。   In step S <b> 2310, the detection unit 208 measures the tilt angle θc of the electronic device 10 and inputs information on the measured tilt angle θc to the processing unit 230.

次に、S2312において、処理部230の算出部232は、受け取った立体視用画像である第1画像から被写体2の特定部位の視差量を算出し、当該視差量から、第1撮像部110から特定部位である眼までの距離Doを算出する。算出部232は、距離DoをS2004と同様の方法で算出してよい。算出される距離Doは、第1撮像部110から鏡に映る使用者1の特定部位の像までの距離である。   Next, in S2312, the calculation unit 232 of the processing unit 230 calculates the parallax amount of the specific part of the subject 2 from the first image that is the received stereoscopic image, and from the first imaging unit 110 based on the parallax amount. A distance Do to the eye which is the specific part is calculated. The calculation unit 232 may calculate the distance Do by the same method as in S2004. The calculated distance Do is a distance from the first imaging unit 110 to the image of the specific part of the user 1 reflected in the mirror.

次に、S2314において、算出部232は、被写体2を撮影した第1画像を垂直方向に等分する表示二分線から、使用者1の鏡像である被写体2の特定部位までの垂直方向の画素数Pioを計測する。算出部232は、画素数PioをS2006と同様の方法で計測してよい。   Next, in S2314, the calculation unit 232 counts the number of pixels in the vertical direction from the display bisector that equally divides the first image obtained by photographing the subject 2 to the specific part of the subject 2 that is a mirror image of the user 1. Pio is measured. The calculation unit 232 may measure the number of pixels Pio using the same method as in S2006.

次に、S2316において、算出部232は、第1撮像部110に対する被写体2の相対的な高さdHoを算出する。算出部232は、S2008又はS2016と同様の方法でsHoを算出した後、S2010と同様の方法でdHoを算出されてよい。   Next, in S <b> 2316, the calculation unit 232 calculates the relative height dHo of the subject 2 with respect to the first imaging unit 110. The calculation unit 232 may calculate sHo by a method similar to S2008 or S2016, and then calculate dHo by a method similar to S2010.

次に、S2318において、算出部232は、使用者1と第2撮像部120の距離Dyを検出する。算出部232は、距離DyをS2012と同様の方法で検出してよい。   Next, in S2318, the calculation unit 232 detects the distance Dy between the user 1 and the second imaging unit 120. The calculation unit 232 may detect the distance Dy by the same method as in S2012.

次に、S2320において、算出部232は、表示二分線から使用者1の特定部位までの垂直方向の画素数Piyを計測する。算出部232は、画素数PiyをS2014と同様の方法で計測してよい。   Next, in S2320, the calculation unit 232 measures the number of pixels Piy in the vertical direction from the display bisector to the specific part of the user 1. The calculation unit 232 may measure the pixel number Piy by the same method as in S2014.

次に、S2322において、算出部232は、算出部232は、第2撮像部120に対する使用者1の相対的な高さdHyを算出する。算出部232は、S2316で得たsHoと同じ値をsHyとして用い、S2018と同様の方法で高さdHyを算出してよい。   Next, in S2322, the calculation unit 232 calculates the relative height dHy of the user 1 with respect to the second imaging unit 120. The calculating unit 232 may use the same value as sHo obtained in S2316 as sHy and calculate the height dHy in the same manner as in S2018.

次に、S2324において、調整部234は、S2020と同様の方法でdHcを算出し、下記式(12)において身長差dHが0となるように、式(13)により調整量αを算定する。
dH = dHy + dHc − dHo + α …(12)
α = dHo − dHy − dHc …(13)
Next, in S2324, the adjustment unit 234 calculates dHc by the same method as in S2020, and calculates the adjustment amount α according to Expression (13) so that the height difference dH is 0 in Expression (12) below.
dH = dHy + dHc−dHo + α (12)
α = dHo−dHy−dHc (13)

第1撮像部110が被写体2として撮像した対象は、鏡に映った使用者1自身であるので、使用者1と被写体2との身長差dHは、本来α=0の場合に0となるはずである。αが0にならない場合は、第1撮像部110及び/又は第2撮像部120による距離Do/Dyの測定誤差、及び/又は、検出部208による傾きθcの測定誤差等によるものが考えられる。次に、S2326において、調整部234は、算出した調整量αをメモリ214等に記録する。   Since the target imaged by the first imaging unit 110 as the subject 2 is the user 1 himself / herself reflected in the mirror, the height difference dH between the user 1 and the subject 2 should be 0 when α = 0 originally. It is. When α does not become 0, it may be due to a measurement error of the distance Do / Dy by the first imaging unit 110 and / or the second imaging unit 120 and / or a measurement error of the inclination θc by the detection unit 208, or the like. Next, in S2326, the adjustment unit 234 records the calculated adjustment amount α in the memory 214 or the like.

このように電子機器10は、S230においてキャリブレーションモードを実行し、鏡に映る使用者1自身の身長を測定する。そして、使用者1と鏡に移った使用者1との身長差dHが0となるように調整量αを決定する。これにより、電子機器10は、鏡を使用した簡便な方法で測定誤差を低減することができる。   Thus, the electronic device 10 executes the calibration mode in S230 and measures the height of the user 1 himself / herself reflected in the mirror. Then, the adjustment amount α is determined so that the height difference dH between the user 1 and the user 1 who has moved to the mirror becomes zero. Thereby, the electronic device 10 can reduce a measurement error by a simple method using a mirror.

図8は、第2実施形態に係る電子機器10の外観斜視図を示す。本実施形態における電子機器10は、第2撮像部120は単一の撮像部から構成させる。例えば、電子機器10は、背面に単一の第2撮像部120を備えたスマートフォン等であってよく、当該単一の第2撮像部120により使用者1との距離を測定する。ここで、スマートフォン等の背面に設けられた撮像部は所謂パンフォーカスに設定され、使用者1との距離を直接測定することが難しい場合がある。   FIG. 8 is an external perspective view of the electronic device 10 according to the second embodiment. In the electronic apparatus 10 according to the present embodiment, the second imaging unit 120 is configured from a single imaging unit. For example, the electronic device 10 may be a smartphone or the like provided with a single second imaging unit 120 on the back surface, and the distance from the user 1 is measured by the single second imaging unit 120. Here, the imaging unit provided on the back surface of the smartphone or the like is set to so-called pan focus, and it may be difficult to directly measure the distance to the user 1.

そこで、本実施形態の算出部232は、単一の第2撮像部120で使用者1の体の一部を撮像し、撮像した画像中の体の一部の大きさに基づいて第2撮像部120と使用者1との距離を算出する。体の一部は、使用者1の画像から位置を特定可能な一定の大きさの顔のパーツであり、例えば、使用者1の2つの眼、鼻の穴、口の両端等である。   Therefore, the calculation unit 232 according to the present embodiment images a part of the body of the user 1 with the single second imaging unit 120, and performs the second imaging based on the size of the part of the body in the captured image. The distance between the unit 120 and the user 1 is calculated. A part of the body is a part of a face of a certain size whose position can be specified from the image of the user 1, for example, two eyes of the user 1, a nostril, both ends of the mouth, and the like.

算出部232は、このように算出した使用者1までの距離、第2画像中における使用者1の特定部位の位置、および電子機器10の傾き等に基づいて、第1実施形態と同様に、第2撮像部120が位置する高さに対する使用者1の相対的な高さを算出する。   Based on the distance to the user 1 calculated in this way, the position of the specific part of the user 1 in the second image, the inclination of the electronic device 10, and the like, the calculation unit 232, as in the first embodiment, The relative height of the user 1 with respect to the height at which the second imaging unit 120 is located is calculated.

ここで、体の一部の大きさは人により異なることがあるので、使用者1の体の一部の画像から使用者1との距離を測定することはできない場合がある。そこで、本実施形態の電子機器10は、キャリブレーションモードにおいて高さの分かっている物体(例えば、高さ0の床上のマーク等)を撮影し、撮影された画像データにおける使用者1の体の一部の大きさと使用者と第2撮像部120との距離の関係を示す係数fを算出する。   Here, since the size of the part of the body may differ depending on the person, it may not be possible to measure the distance to the user 1 from the image of the part of the body of the user 1. Therefore, the electronic device 10 of the present embodiment captures an object whose height is known in the calibration mode (for example, a mark on the floor having a height of 0) and the body of the user 1 in the captured image data. A coefficient f indicating the relationship between the partial size and the distance between the user and the second imaging unit 120 is calculated.

具体的には、調整部234が、第1撮像部110および第2撮像部120により撮像された、既知の高さに位置する物が撮像された第4画像および使用者が撮像された第5画像に基づいて、第2撮像部により撮像される使用者1の大きさから使用者1までの距離を算出するための係数fを調整する。   Specifically, the adjustment unit 234 captures the fourth image captured by the first image capturing unit 110 and the second image capturing unit 120, in which an object located at a known height is captured, and the fifth image in which the user is captured. Based on the image, the coefficient f for calculating the distance from the size of the user 1 imaged by the second imaging unit to the user 1 is adjusted.

キャリブレーションの後、算出部232は、調整された係数fと第2撮像部120により撮像された第2画像における使用者1の体の一部の大きさとに基づいて、使用者1までの距離を算出する。   After calibration, the calculation unit 232 determines the distance to the user 1 based on the adjusted coefficient f and the size of a part of the body of the user 1 in the second image captured by the second imaging unit 120. Is calculated.

図9は、本実施形態に係るキャリブレーションの概要を示す。図9に示されるように、第2撮像部120と使用者1の眼との距離Dyは、第2撮像部120に対する使用者1の特定部位の高さdIy、及び、第2撮像部120を含む基準水平面Hyから第2撮像部120と使用者1の特定部位とを結ぶ直線Iyへの角度θyに基づき、以下の式(14)から算出される。
Dy = dIy/sinθy …(14)
ここで、角度θyは、電子機器10の傾きθcと第2撮像部120の垂直方向画角の二分線Cyからの直線Iyへの角度θcyとに基づいて、以下の式(15)から算出される。
θy = θc + θcy …(15)
FIG. 9 shows an outline of calibration according to the present embodiment. As shown in FIG. 9, the distance Dy between the second imaging unit 120 and the eye of the user 1 is the height dIy of the specific part of the user 1 with respect to the second imaging unit 120 and the second imaging unit 120. Based on the angle θy from the included reference horizontal plane Hy to the straight line Iy connecting the second imaging unit 120 and the specific part of the user 1, it is calculated from the following equation (14).
Dy = dIy / sin θy (14)
Here, the angle θy is calculated from the following equation (15) based on the inclination θc of the electronic device 10 and the angle θcy from the bisector Cy of the vertical field angle of the second imaging unit 120 to the straight line Iy. The
θy = θc + θcy (15)

傾き角度θcは、検出部208の検出した値が用いられる。図9において、電子機器10は、使用者1から見て奥側が低くなるように傾いており角度θcは正である。なお、電子機器10の使用者1から見て手前側が低くなるように傾く場合、傾き角度θcは負の値となる。   A value detected by the detection unit 208 is used as the inclination angle θc. In FIG. 9, the electronic device 10 is tilted so that the back side is lower as viewed from the user 1, and the angle θc is positive. Note that when the electronic device 10 is tilted so that the front side is low as viewed from the user 1, the tilt angle θc is a negative value.

角度θcyは、第5画像における使用者1の特定部位が撮像された位置から算出される。例えば、図10(b)に示される第5画像において、二分線Cyと重なり第5画像を垂直方向に等分する表示二分線から、使用者1の特定部位までの画素数Piyを計測することにより、角度θcyが求められる。図10(b)に示される場合、第5画像の表示二分線よりも使用者1の特定部位が下に位置するので画素数Piyは負の値となる。   The angle θcy is calculated from the position where the specific part of the user 1 in the fifth image is imaged. For example, in the fifth image shown in FIG. 10B, the number of pixels Piy from the display bisector that overlaps the bisector Cy and equally divides the fifth image in the vertical direction to the specific part of the user 1 is measured. Thus, the angle θcy is obtained. In the case shown in FIG. 10 (b), the specific part of the user 1 is located below the display bisector of the fifth image, so the number of pixels Piy has a negative value.

例えば、角度θcyは、第5画像の垂直方向の画素数Pz2、第2撮像部120の縦方向の画角θv2に基づいて、以下の式(16)から算出される。
θcy = θv2 × Piy/Pz2 (16)
For example, the angle θcy is calculated from the following equation (16) based on the number of pixels Pz2 in the vertical direction of the fifth image and the vertical field angle θv2 of the second imaging unit 120.
θcy = θv2 × Pyy / Pz2 (16)

第2撮像部120に対する使用者1の特定部位の高さdIyは、使用者1の眼の高さTiy、第1撮像部110に対する第2撮像部120の相対的な高さdHc、及び、第1撮像部110の高さTcに基づいて、以下の式(17)から算出される。
dIy = Tiy − dHc − Tc …(17)
The height dIy of the specific part of the user 1 with respect to the second imaging unit 120 is the eye height Tiy of the user 1, the relative height dHc of the second imaging unit 120 with respect to the first imaging unit 110, and the first Based on the height Tc of one imaging unit 110, it is calculated from the following equation (17).
dIy = Tiy−dHc−Tc (17)

第1撮像部110に対する第2撮像部120の相対的な高さdHcは、式(10)、式(11)及び式(11')から算出することができる。   The relative height dHc of the second imaging unit 120 with respect to the first imaging unit 110 can be calculated from Expression (10), Expression (11), and Expression (11 ′).

また、使用者1の眼の高さTiyは、S2016と同様の方法で得た使用者1の頭頂部と眼との距離sHyと、使用者1の身長Tyとに基づいて算出される。   Further, the eye height Tiy of the user 1 is calculated based on the distance sHy between the top of the user 1 and the eye obtained by the same method as in S2016 and the height Ty of the user 1.

さらに、第1撮像部110の高さTcは、第1撮像部110と床上のマーク3との距離Dmに基づいて、以下の式(18)から算出される。
Tc = Dm × sinθc …(18)
Further, the height Tc of the first imaging unit 110 is calculated from the following equation (18) based on the distance Dm between the first imaging unit 110 and the mark 3 on the floor.
Tc = Dm × sin θc (18)

第1撮像部110と床上のマーク3との距離Dmは、三角測量等の原理に基づいて、立体視用画像である第4画像におけるマーク3の視差量から算出することができる。図10(a)に示されるように、表示部130は、第4画像の中央の表示4部分にマーク3を撮影するようにガイダンスを表示する。このように式(14)〜(18)から、第2撮像部120と使用者1の眼との距離Dyが算出される。   The distance Dm between the first imaging unit 110 and the mark 3 on the floor can be calculated from the parallax amount of the mark 3 in the fourth image, which is a stereoscopic image, based on a principle such as triangulation. As shown in FIG. 10A, the display unit 130 displays guidance so as to photograph the mark 3 on the display 4 portion in the center of the fourth image. As described above, the distance Dy between the second imaging unit 120 and the eye of the user 1 is calculated from the equations (14) to (18).

図10(b)に示される第5画像における使用者1の眼の間隔Wyと距離Dyとの係数fを以下の式(19)から算出する。
f = Dy / Wy …(19)
係数fはメモリ214等に記録される。
A coefficient f between the eye distance Wy and the distance Dy of the user 1 in the fifth image shown in FIG. 10B is calculated from the following equation (19).
f = Dy / Wy (19)
The coefficient f is recorded in the memory 214 or the like.

間隔Wyは、使用者1との距離Dyと比例関係にあり、使用者1と第2撮像部120との距離が離れると値が小さくなる。従って、測定された使用者1の眼の間隔Wyと記録された係数fとに基づいて、以下の式(20)に基づいて随時距離Dyを算出することができる。
Dy = f × Wy …(20)
The interval Wy is proportional to the distance Dy to the user 1 and decreases as the distance between the user 1 and the second imaging unit 120 increases. Accordingly, the distance Dy can be calculated as needed based on the following equation (20) based on the measured eye distance Wy of the user 1 and the recorded coefficient f.
Dy = f × Wy (20)

このように、本実施形態によると、電子機器10の第2撮像部120が単一の撮像部で構成された場合であっても、第2撮像部120と使用者1との距離を正確に算出することができる。これにより、本実施形態によると、第1の実施形態と同様に、利便性の高い電子機器10を提供することができる。   Thus, according to the present embodiment, the distance between the second imaging unit 120 and the user 1 can be accurately determined even when the second imaging unit 120 of the electronic device 10 is configured by a single imaging unit. Can be calculated. Thereby, according to this embodiment, the highly convenient electronic device 10 can be provided similarly to the first embodiment.

ここで、本実施形態の電子機器10の処理フローについて説明する。本実施形態において、電子機器10は、図5〜図7に係る第1の実施形態の処理フローと同様の処理を実行することにより、被写体2の身長を算出することができる。ここで、被写体2の高さHoの算出に係るS200内のS2012において、立体視用画像の視差等により使用者1との距離Dyを算出する方法に代えて、本実施形態の算出部232は、記録された係数fと第2画像中の眼の間隔Wyとを用いて距離Dyを算出する。   Here, a processing flow of the electronic apparatus 10 of the present embodiment will be described. In the present embodiment, the electronic device 10 can calculate the height of the subject 2 by executing the same processing as the processing flow of the first embodiment according to FIGS. Here, in S2012 in S200 related to the calculation of the height Ho of the subject 2, instead of the method of calculating the distance Dy from the user 1 based on the parallax or the like of the stereoscopic image, the calculation unit 232 of the present embodiment The distance Dy is calculated using the recorded coefficient f and the eye interval Wy in the second image.

また、電子機器10は、第1実施形態のキャリブレーションに係るS230の処理に代えて、又は、加えて、本実施形態においては係数fを算出するキャリブレーションに係る処理フローを実行する。   The electronic device 10 executes a processing flow related to calibration for calculating the coefficient f in this embodiment instead of or in addition to the processing of S230 related to the calibration of the first embodiment.

図11は、係数fを算出する本実施形態に係るキャリブレーションの処理フローを示す。電子機器10は、S230において、図11のステップS2352からS2376までの処理を実行する。   FIG. 11 shows a processing flow of calibration according to the present embodiment for calculating the coefficient f. In S230, the electronic device 10 executes the processing from Steps S2352 to S2376 in FIG.

S2352において、表示部130は、使用者の立っている床と同一高さにあるマーク等のターゲットを画面の中央で撮影するように指示を表示する。床上のマークは、例えば、フローリングの床の模様、畳の縁、又は出口表示等であって良い。図10(a)に示す例では、使用者1は床上の「Exit」マークを撮影している。   In S2352, the display unit 130 displays an instruction to photograph a target such as a mark at the same height as the floor on which the user is standing at the center of the screen. The mark on the floor may be, for example, a flooring floor pattern, a tatami edge, or an exit indication. In the example shown in FIG. 10A, the user 1 is photographing the “Exit” mark on the floor.

ここで、使用者1が遠くの指標を選び、さらに第2撮像部120と眼が同等の高さになると、sin(θc+θcy)の値がゼロに近づき、式(14)の計算精度が低下する。そこで、このような場合に、電子機器10は表示部130に「もう少し足下に近い指標を選んでください」という旨のアナウンスを表示させて良い。   Here, when the user 1 selects a distant index, and the second imaging unit 120 and the eye have the same height, the value of sin (θc + θcy) approaches zero, and the calculation accuracy of Expression (14) decreases. . Therefore, in such a case, the electronic device 10 may display an announcement stating “Please select an index that is a little closer to your feet” on the display unit 130.

S2354において、電子機器10は、使用者1が操作スイッチ150により撮影を指示するまで待機する。電子機器10は、使用者1から撮影の指示を受け取ると処理をS2356に進める。電子機器10は、一定時間使用者1から指示を受け取らない場合は、図5のS230の処理を終了し、処理をS160に進めてよい。   In step S <b> 2354, the electronic device 10 stands by until the user 1 instructs to perform shooting using the operation switch 150. When the electronic device 10 receives a shooting instruction from the user 1, the processing proceeds to S2356. If the electronic device 10 does not receive an instruction from the user 1 for a certain period of time, the electronic device 10 may end the process of S230 of FIG. 5 and advance the process to S160.

次にS2356において、電子機器10は、第1撮像部110の左撮像部112と右撮像部114、又は、左撮像部116と右撮像部118により床上のマーク3を撮像する。撮像されたマーク3の立体視用画像のデータは、エンコーダ200を介して、処理部230に送信される。   Next, in S2356, the electronic device 10 images the mark 3 on the floor by the left imaging unit 112 and the right imaging unit 114 or the left imaging unit 116 and the right imaging unit 118 of the first imaging unit 110. The captured stereoscopic image data of the mark 3 is transmitted to the processing unit 230 via the encoder 200.

次に、S2358において、電子機器10は、第2撮像部120により使用者1を撮像する。使用者1は表示部130に映されたマーク3を観察しているので、第2撮像部120はその撮影範囲に使用者1を捕らえることができる。撮像された使用者1の画像のデータは、エンコーダ200を会して、処理部230に渡される。なお、S2356とS2358は、同時に実行されてもよい。   Next, in S <b> 2358, the electronic device 10 images the user 1 by the second imaging unit 120. Since the user 1 is observing the mark 3 displayed on the display unit 130, the second imaging unit 120 can capture the user 1 in the shooting range. The captured image data of the user 1 meets the encoder 200 and is transferred to the processing unit 230. Note that S2356 and S2358 may be executed simultaneously.

次に、S2360において、検出部208は、電子機器10の傾き角度θcを測定し、測定した傾き角度θcの情報を処理部230に入力する。   Next, in S <b> 2360, the detection unit 208 measures the tilt angle θc of the electronic device 10 and inputs information on the measured tilt angle θc to the processing unit 230.

次に、S2362において、処理部230の算出部232は、受け取った立体視用画像である第4画像からマークの特定部位の視差量を算出し、当該視差量から、第1撮像部110からマーク3までの距離Dmを算出する。算出部232は、距離DmをS2004と同様の方法で算出してよい。   Next, in S2362, the calculation unit 232 of the processing unit 230 calculates the parallax amount of the specific part of the mark from the received fourth image that is the stereoscopic image, and the mark from the first imaging unit 110 is calculated from the parallax amount. A distance Dm up to 3 is calculated. The calculation unit 232 may calculate the distance Dm by the same method as in S2004.

次に、S2364において、算出部232は、第1撮像部110に対するマーク3の相対的な高さTcを算出する。算出部232は、式(18)に従って距離Dmにsinθcを乗じることにより、高さTcを算出してよい。   Next, in S <b> 2364, the calculation unit 232 calculates the relative height Tc of the mark 3 with respect to the first imaging unit 110. The calculation unit 232 may calculate the height Tc by multiplying the distance Dm by sin θc according to the equation (18).

次に、S2366において、第2撮像部120に対する使用者1の眼の高さdIyを算出する。具体的には、算出部232は、まず、S2016と同様の方法により高さsHyを推定し、当該sHyをS100又はS130で取得した取得した使用者1の身長Tyから減じることにより、高さTiyを算出する。次に、算出部232は、S2020と同様の方法によりdHcを算出する。   Next, in S2366, the eye height dIy of the user 1 with respect to the second imaging unit 120 is calculated. Specifically, the calculation unit 232 first estimates the height sHy by the same method as in S2016, and subtracts the sHy from the acquired height 1 Ty of the user 1 acquired in S100 or S130, thereby obtaining the height Tiy. Is calculated. Next, the calculation unit 232 calculates dHc by the same method as in S2020.

ここで、算出部232は、式(17)に従って使用者1の眼の高さTiyから、第1撮像部110に対する第2撮像部120の相対的な高さdHc及び第1撮像部110の高さTcを減じることにより、第2撮像部120に対する使用者1の眼の高さdIyを算出する。   Here, the calculation unit 232 calculates the relative height dHc of the second imaging unit 120 with respect to the first imaging unit 110 and the height of the first imaging unit 110 from the eye height Tiy of the user 1 according to Expression (17). By reducing the length Tc, the eye height dIy of the user 1 relative to the second imaging unit 120 is calculated.

次に、S2368において、算出部232は、S2014と同様の方法により、使用者1を撮影した第5画像を垂直方向に等分する表示二分線から、使用者1の眼までの垂直方向の画素数Piyを計測する。   Next, in S2368, the calculation unit 232 performs vertical pixels from the display bisector that equally divides the fifth image obtained by capturing the user 1 in the vertical direction to the eyes of the user 1 in the same manner as in S2014. The number Piy is measured.

次に、S2370において、算出部232は、第2撮像部120と使用者1の眼との距離Dyを算出する。具体的には、算出部232は、まず、式(16)に従って、第2撮像部120の垂直方向画角の等分線Cyから使用者1の眼と第2撮像部120とを結ぶ直線Iyへの角度θcyを算出する。次に、算出部232は、式(15)に従って傾き角度θcとθcyとを加算して、第2撮像部120を含む基準水平面Hyから第2撮像部120と使用者1の眼とを結ぶ直線Iyへの角度θyを算出する。さらに、算出部232は、式(14)に従って、dIyをsinθyで除することにより、第2撮像部120と使用者1の眼との距離Dyを算出する。   Next, in S <b> 2370, the calculation unit 232 calculates a distance Dy between the second imaging unit 120 and the eyes of the user 1. Specifically, the calculation unit 232 firstly follows a straight line Iy connecting the eye of the user 1 and the second imaging unit 120 from the equal line Cy of the vertical angle of view of the second imaging unit 120 according to Expression (16). The angle θcy to is calculated. Next, the calculation unit 232 adds the inclination angles θc and θcy according to the equation (15), and a straight line connecting the second imaging unit 120 and the eye of the user 1 from the reference horizontal plane Hy including the second imaging unit 120. An angle θy to Iy is calculated. Further, the calculation unit 232 calculates the distance Dy between the second imaging unit 120 and the user 1 eye by dividing dIy by sin θy according to the equation (14).

次に、S2372において、算出部232は、第5画像における使用者1の眼の間隔Wyを演算する。間隔Wyは、第5画像における使用者1の眼の間隔に対応する画素数でよく、またはこれに代えて、第5画像における使用者1の眼の間隔に対応する画角であってもよい。   Next, in S2372, the calculation unit 232 calculates the eye interval Wy of the user 1 in the fifth image. The interval Wy may be the number of pixels corresponding to the interval between the eyes of the user 1 in the fifth image, or may be an angle of view corresponding to the interval between the eyes of the user 1 in the fifth image instead. .

次に、S2374において、調整部234は、使用者1の眼の間隔Wyと距離Dyとの関係を算出する。例えば、調整部234は、式(19)に従って距離Dyを間隔Wyで除することにより、両者の係数fを調整してよい。   Next, in S2374, the adjustment unit 234 calculates the relationship between the eye interval Wy and the distance Dy of the user 1. For example, the adjustment unit 234 may adjust the coefficient f of both by dividing the distance Dy by the interval Wy according to the equation (19).

次に、S2376において、調整部234は、S2374で得た係数fをメモリ214等に記録して保存する。これにより、電子機器10は、S2012において、使用者1の眼の間隔Wyを測定し、式(20)に従って間隔Wyに係数fを乗じて距離Dyを得ることができる。   Next, in S2376, the adjustment unit 234 records and stores the coefficient f obtained in S2374 in the memory 214 or the like. Thereby, the electronic device 10 can measure the distance Wy between the eyes of the user 1 in S2012, and can obtain the distance Dy by multiplying the distance Wy by the coefficient f according to the equation (20).

このように、本実施形態によれば、電子機器10は、床上のマーク等の高さが既知の物体を用いてキャリブレーションを予め実行して、使用者1の眼の間隔等と距離Dyとの係数fを記録する。そして、電子機器10は、当該係数fを用いて使用者1の眼と電子機器10との距離Dyを算出する。これにより、電子機器10は、ステレオカメラを備えていない場合でも被写体2の身長を推定することができる。   As described above, according to the present embodiment, the electronic device 10 performs calibration in advance using an object whose height is already known, such as a mark on the floor, and the distance between the eye 1 of the user 1 and the distance Dy. Record the coefficient f. Then, the electronic device 10 calculates the distance Dy between the eye of the user 1 and the electronic device 10 using the coefficient f. Thereby, the electronic device 10 can estimate the height of the subject 2 even when the electronic camera 10 is not provided.

電子機器10は、工場出荷時に所定の値の係数fが設定されてよく、使用者1がS140でキャリブレーションを実行しないことを選択した場合には、その値を用いて被写体2の身長を測定してよい。   The electronic device 10 may be set with a coefficient f having a predetermined value at the time of shipment from the factory, and when the user 1 selects not to execute calibration in S140, the height of the subject 2 is measured using the value. You can do it.

図12は、第3の実施形態に係る電子機器20の外観斜視図を示す。電子機器20は、単一の撮像部からなる第1撮像部110及び出力部170を備える以外は、第2の実施形態の電子機器10と同様の構成を備えてよい。出力部170は、例えば、光学ファインダー又は電子ファインダーであり、被写体2の撮像動作中に使用者1が眼に近付けて観察する、被写体像を出力する。   FIG. 12 is an external perspective view of the electronic device 20 according to the third embodiment. The electronic device 20 may have the same configuration as the electronic device 10 of the second embodiment except that the electronic device 20 includes the first imaging unit 110 and the output unit 170 that are configured by a single imaging unit. The output unit 170 is, for example, an optical finder or an electronic finder, and outputs a subject image that the user 1 observes while approaching the eyes during the imaging operation of the subject 2.

電子機器20は、出力部170近傍に設けられた近接センサー等により、出力部170を使用者が覗いていることを検出することができる。電子機器20は、図5〜7に記載された処理フローと同様の処理により被写体2の身長を測定することができる。本実施形態において、使用者が出力部170を覗いていると電子機器20が判断した場合、使用者1の眼に対する第2撮像部の高さを0とすることができる。   The electronic device 20 can detect that the user is looking into the output unit 170 with a proximity sensor or the like provided in the vicinity of the output unit 170. The electronic device 20 can measure the height of the subject 2 by a process similar to the process flow described in FIGS. In the present embodiment, when the electronic device 20 determines that the user is looking into the output unit 170, the height of the second imaging unit with respect to the eyes of the user 1 can be set to zero.

従って、算出部232は、使用者1の眼の高さに対する被写体2の相対的な高さを算出することにより、被写体2の身長を測定することができる。例えば、算出部232は、処理フローのS200においてS2012、S2014、S2018を省略し、Dy=0、dIy=0及びdHy=sHyとして被写体2の身長を算出することができる。   Therefore, the calculation unit 232 can measure the height of the subject 2 by calculating the relative height of the subject 2 with respect to the eye height of the user 1. For example, the calculation unit 232 can calculate the height of the subject 2 by omitting S2012, S2014, and S2018 in S200 of the processing flow and assuming Dy = 0, dIy = 0, and dHy = sHy.

また、電子機器20は、Dy=0としても良いことから、キャリブレーションモードへ移行するステップS140、及び、キャリブレーションのシーケンスであるS230を省略しても良い。   In addition, since the electronic device 20 may set Dy = 0, step S140 for shifting to the calibration mode and S230 that is a calibration sequence may be omitted.

図13(a)及び(b)は、第4の実施形態に係る電子機器30の外観斜視図を示す。電子機器30は、ヘッドマウントディスプレイ(以下HMD)である。図13(a)は全体の斜視図である。図13(b)は図13(a)を反対から見た斜視図である。   FIGS. 13A and 13B are external perspective views of the electronic device 30 according to the fourth embodiment. The electronic device 30 is a head mounted display (hereinafter referred to as HMD). FIG. 13A is an overall perspective view. FIG.13 (b) is the perspective view which looked at Fig.13 (a) from the opposite.

本実施形態の電子機器30は、第3の実施形態の電子機器20と同様に、第1撮像部110、第2撮像部120、表示部130、集音部144、ステレオスピーカー146、操作スイッチ150を備える。電子機器30は、さらに使用者1の頭部に装着するためのヘッドバンド180を備える。なお、図13(b)においては、説明のためにヘッドバンド180を外した状態を現している。   Similar to the electronic device 20 of the third embodiment, the electronic device 30 of the present embodiment includes a first imaging unit 110, a second imaging unit 120, a display unit 130, a sound collecting unit 144, a stereo speaker 146, and an operation switch 150. Is provided. The electronic device 30 further includes a headband 180 for wearing on the user's 1 head. FIG. 13B shows a state in which the headband 180 is removed for explanation.

本実施形態において、表示部130は使用者1の眼の極めて近傍に配置される。そこで、使用者1に表示部130を確実に観察させるために、電子機器30は、表示部130の上面に拡大レンズを備えてよい。   In the present embodiment, the display unit 130 is disposed very close to the eyes of the user 1. Therefore, in order to make the user 1 observe the display unit 130 with certainty, the electronic device 30 may include a magnifying lens on the upper surface of the display unit 130.

電子機器30は、第3の実施形態の同様に、Dy=0、dIy=0及びdHy=sHyとしてS2012、S2014、S2018を省略し、キャリブレーションモードへ移行するステップS140、及び、キャリブレーションのシーケンスであるS230を省略しても良い。   As in the third embodiment, the electronic device 30 omits S2012, S2014, and S2018, assuming that Dy = 0, dIy = 0, and dHy = sHy, and shifts to the calibration mode S140, and the calibration sequence S230 may be omitted.

図14は、電子機器10等と他の機器のネットワーク上の接続を示す。電子機器10等は、ローカルエリアネットワーク又はインターネット等の通信ネットワーク80を介して、サーバ50、サーバ60、及び、パーソナルコンピュータ70と接続される。電子機器10等は、3G/LTE通信回路202を介して通信ネットワーク80に接続可能であってよい。電子機器10等は、測定された被写体2の身長To、撮影年月日、及び被写体画像等を、通信ネットワーク80を介して、サーバ50及び/又は60に送信してよい。また電子機器10等は、調整量α及び/又は係数fをサーバ50及び/又は60に送信してよい。   FIG. 14 shows connections on the network between the electronic device 10 and other devices. The electronic device 10 or the like is connected to the server 50, the server 60, and the personal computer 70 via a communication network 80 such as a local area network or the Internet. The electronic device 10 or the like may be connectable to the communication network 80 via the 3G / LTE communication circuit 202. The electronic device 10 or the like may transmit the measured height To of the subject 2, the shooting date, the subject image, and the like to the server 50 and / or 60 via the communication network 80. The electronic device 10 or the like may transmit the adjustment amount α and / or the coefficient f to the servers 50 and / or 60.

サーバ50は、クラウドサービス等を提供し、記憶装置52、処理部54、及び通信インターフェース56を備える。サーバ50は、通信ネットワーク80及び通信インターフェース56を介して、電子機器10等から被写体2の身長To等を受信して、これを記憶装置52に記録する。また、サーバ50は、調整量α及び/又は係数fを電子機器10等から受信して、これを記憶装置52に記録してよい。サーバ60は、サーバ50と同様の構成を備えてよい。   The server 50 provides a cloud service and the like, and includes a storage device 52, a processing unit 54, and a communication interface 56. The server 50 receives the height To or the like of the subject 2 from the electronic device 10 or the like via the communication network 80 and the communication interface 56 and records this in the storage device 52. Further, the server 50 may receive the adjustment amount α and / or the coefficient f from the electronic device 10 or the like and record this in the storage device 52. The server 60 may have a configuration similar to that of the server 50.

サーバ50は、被写体の画像と共に時間の経過に伴う被写体2の身長の推移を蓄積する。一例として、サーバ50は、被写体2の顔を認識して被写体の人物を特定し、特定した人物と身長のデータを対応付けて記録してよい。これにより、被写体となった人物を使用者が選択しなくても、各人物に対応付けて身長のデータを記録することができる。サーバ50に記録されたデータは、被写体2に対して固有のIDとなる氏名を入力することにより、通信ネットワーク80を介してパーソナルコンピュータ70より閲覧可能であってよい。電子機器10等又はパーソナルコンピュータ70は、サーバ50に記録された被写体の身長等の経過情報と、他のサーバ60に記録された別の被写体の身長等の経過情報とを比較する機能を有してよい。   The server 50 accumulates the transition of the height of the subject 2 over time along with the image of the subject. As an example, the server 50 may identify the person of the subject by recognizing the face of the subject 2 and record the identified person and height data in association with each other. Accordingly, height data can be recorded in association with each person without the user selecting the person who is the subject. The data recorded in the server 50 may be viewable from the personal computer 70 via the communication network 80 by inputting a name that is a unique ID for the subject 2. The electronic device 10 or the like or the personal computer 70 has a function of comparing progress information such as the height of a subject recorded in the server 50 with progress information such as the height of another subject recorded in another server 60. It's okay.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

1 使用者、2 被写体、3 マーク、4 表示、10 電子機器、20 電子機器、30 電子機器、50 サーバ、60 サーバ、70 パーソナルコンピュータ、80 通信ネットワーク、100 筐体、110 第1撮像部、112 左撮像部、114 右撮像部、116 左撮像部、118 右撮像部、120 第2撮像部、122 左撮像部、124 右撮像部、130 表示部、132 タッチパネル、142 照明用LED、144 集音部、146 ステレオスピーカー、150 操作スイッチ、160 グリップ、162 バッテリー、164 USBコネクタ、170 出力部、180 ヘッドバンド、200 エンコーダ、202 3G/LTE通信回路、204 GPSセンサー、208 検出部、210 方位センサー、214メモリ、216 電源回路、221 デコーダ、222 表示ドライバ、224 スピーカーアンプ、230 処理部、232 算出部、234 調整部   1 user, 2 subject, 3 mark, 4 display, 10 electronic device, 20 electronic device, 30 electronic device, 50 server, 60 server, 70 personal computer, 80 communication network, 100 housing, 110 first imaging unit, 112 Left imaging unit, 114 Right imaging unit, 116 Left imaging unit, 118 Right imaging unit, 120 Second imaging unit, 122 Left imaging unit, 124 Right imaging unit, 130 Display unit, 132 Touch panel, 142 LED for illumination, 144 Sound collection Part, 146 stereo speaker, 150 operation switch, 160 grip, 162 battery, 164 USB connector, 170 output part, 180 headband, 200 encoder, 202 3G / LTE communication circuit, 204 GPS sensor, 208 detection part, 210 direction sensor, 214 memories, 16 power supply circuit, 221 a decoder, 222 a display driver, 224 a speaker amplifier, 230 processing unit, 232 calculation unit, 234 adjustment section

Claims (14)

使用者により保持されて被写体を撮像する電子機器であって、
被写体を撮像する第1撮像部と、
前記被写体を撮像して得られた第1画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する算出部と、
を備える電子機器。
An electronic device that is held by a user and images a subject,
A first imaging unit that images a subject;
A calculation unit that calculates a relative height of the subject with respect to the user based on a first image obtained by imaging the subject;
Electronic equipment comprising.
前記算出部は、前記使用者の身体的特徴に基づいて、前記被写体の高さを算出する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the calculation unit calculates the height of the subject based on the physical characteristics of the user. 前記算出部は、前記被写体の一部が撮像された前記第1画像中における前記被写体の特定部位の位置に基づいて、前記第1撮像部が位置する高さに対する前記被写体の相対的な高さを算出する請求項1または2に記載の電子機器。   The calculation unit is configured to determine a relative height of the subject with respect to a height at which the first imaging unit is located based on a position of a specific part of the subject in the first image in which a part of the subject is captured. The electronic device according to claim 1, wherein the electronic device is calculated. 前記算出部は、前記第1画像中における前記被写体の眼が撮像された位置に基づいて、前記第1撮像部が位置する高さに対する前記被写体の相対的な高さを算出する請求項3に記載の電子機器。   The calculation unit calculates a relative height of the subject with respect to a height at which the first imaging unit is located based on a position where the eye of the subject is captured in the first image. The electronic device described. 当該電子機器の傾きを検出する検出部を更に備え、
前記算出部は、前記第1画像中における前記被写体の特定部位の位置および前記傾きに基づいて、前記第1撮像部が位置する高さに対する前記被写体の相対的な高さを算出する
請求項4に記載の電子機器。
A detector that detects the inclination of the electronic device;
The calculation unit calculates a relative height of the subject with respect to a height at which the first imaging unit is located based on a position of the specific part of the subject in the first image and the inclination. The electronic device as described in.
前記第1撮像部は、前記被写体を撮像して前記被写体までの距離を出力し、
前記算出部は、前記被写体までの距離、前記第1画像における前記被写体の特定部位が撮像された位置および前記傾きに基づいて、前記第1撮像部が位置する高さに対する前記被写体の相対的な高さを算出する
請求項5に記載の電子機器。
The first imaging unit images the subject and outputs a distance to the subject;
The calculation unit is configured to determine a relative position of the subject with respect to a height at which the first imaging unit is located based on a distance to the subject, a position where the specific part of the subject is captured in the first image, and the inclination. The electronic device according to claim 5, wherein the height is calculated.
前記使用者を撮像する第2撮像部を更に備え、
前記算出部は、前記使用者により保持されて前記被写体および前記使用者を撮像することにより得られた前記第1画像および第2画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する
請求項1から6のいずれか一項に記載の電子機器。
A second imaging unit for imaging the user;
The calculation unit is configured to determine a relative height of the subject with respect to the user based on the first image and the second image obtained by capturing the subject and the user by being held by the user. The electronic apparatus according to any one of claims 1 to 6.
前記算出部は、前記使用者の一部が撮像された前記第2画像中における前記使用者の特定部位の位置に基づいて、前記第2撮像部が位置する高さに対する前記使用者の相対的な高さを算出する請求項7に記載の電子機器。   The calculation unit is configured to determine a relative position of the user with respect to a height at which the second imaging unit is located based on a position of the specific part of the user in the second image in which a part of the user is captured. The electronic device according to claim 7, wherein a height is calculated. 鏡に映る前記使用者の姿を撮像することにより得られた第3画像に基づいて、前記被写体の高さの調整量を算出する調整部を更に備える請求項7または8に記載の電子機器。   The electronic device according to claim 7, further comprising an adjustment unit that calculates an adjustment amount of the height of the subject based on a third image obtained by imaging the user's appearance reflected in a mirror. 前記算出部は、
前記第2撮像部により撮像された前記第2画像における前記使用者の体の一部の大きさに基づいて、前記使用者までの距離を算出し、
前記使用者までの距離、前記第2画像中における前記使用者の特定部位の位置、および当該電子機器の傾きに基づいて、前記第2撮像部が位置する高さに対する前記使用者の相対的な高さを算出する
請求項7または8に記載の電子機器。
The calculation unit includes:
Based on the size of a part of the user's body in the second image captured by the second imaging unit, a distance to the user is calculated,
Based on the distance to the user, the position of the specific part of the user in the second image, and the inclination of the electronic device, the relative of the user to the height at which the second imaging unit is located The electronic device according to claim 7 or 8, wherein a height is calculated.
前記第1撮像部および前記第2撮像部により撮像された、既知の高さに位置する物が撮像された第4画像および前記使用者が撮像された第5画像に基づいて、前記第2撮像部により撮像される前記使用者の大きさから前記使用者までの距離を算出するための係数を調整する調整部を備える請求項10に記載の電子機器。   The second imaging based on the fourth image captured by the first imaging unit and the second imaging unit, and the fifth image captured by the user and the fifth image captured by the user. The electronic apparatus according to claim 10, further comprising: an adjustment unit that adjusts a coefficient for calculating a distance from the size of the user imaged by the unit to the user. 前記被写体の撮像動作中に前記使用者が眼に近付けて観察する、被写体像を出力する出力部を備え、
前記算出部は、前記使用者の眼の高さに対する前記被写体の相対的な高さを算出する
請求項1から6のいずれか一項に記載の電子機器。
An output unit for outputting a subject image that the user observes close to an eye during an imaging operation of the subject;
The electronic apparatus according to claim 1, wherein the calculation unit calculates a relative height of the subject with respect to a height of the user's eyes.
使用者により保持された電子機器により被写体を撮像する第1撮像段階と、
前記被写体を撮像して得られた第1画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する算出段階と、を備える、
前記被写体の身長を算出する方法。
A first imaging step of imaging a subject with an electronic device held by a user;
A calculation step of calculating a relative height of the subject with respect to the user based on a first image obtained by imaging the subject.
A method for calculating the height of the subject.
コンピュータを、
被写体を撮像する第1撮像部と、
前記被写体を撮像して得られた第1画像に基づいて、使用者に対する前記被写体の相対的な高さを算出する算出部と、
を備え、前記使用者により保持されて前記被写体を撮像する電子機器として機能させる
プログラム。
Computer
A first imaging unit that images a subject;
A calculation unit that calculates a relative height of the subject with respect to a user based on a first image obtained by imaging the subject;
A program that is held by the user and functions as an electronic device that images the subject.
JP2012173826A 2012-08-06 2012-08-06 Electronic apparatus, method, and program for calculating height of subject Pending JP2014033392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012173826A JP2014033392A (en) 2012-08-06 2012-08-06 Electronic apparatus, method, and program for calculating height of subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012173826A JP2014033392A (en) 2012-08-06 2012-08-06 Electronic apparatus, method, and program for calculating height of subject

Publications (1)

Publication Number Publication Date
JP2014033392A true JP2014033392A (en) 2014-02-20

Family

ID=50282889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012173826A Pending JP2014033392A (en) 2012-08-06 2012-08-06 Electronic apparatus, method, and program for calculating height of subject

Country Status (1)

Country Link
JP (1) JP2014033392A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035350A1 (en) * 2014-09-02 2016-03-10 株式会社sizebook Portable information terminal, and control method and control program therefor
CN105596006A (en) * 2015-12-16 2016-05-25 上海斐讯数据通信技术有限公司 Stature measuring method and device and electronic equipment with collection device
JP2016163338A (en) * 2015-03-05 2016-09-05 富士通株式会社 Information processing apparatus, display control method and display control program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035350A1 (en) * 2014-09-02 2016-03-10 株式会社sizebook Portable information terminal, and control method and control program therefor
JPWO2016035350A1 (en) * 2014-09-02 2017-06-15 株式会社sizebook Portable information terminal, control method thereof, and control program
JP2016163338A (en) * 2015-03-05 2016-09-05 富士通株式会社 Information processing apparatus, display control method and display control program
CN105596006A (en) * 2015-12-16 2016-05-25 上海斐讯数据通信技术有限公司 Stature measuring method and device and electronic equipment with collection device

Similar Documents

Publication Publication Date Title
CN109429060B (en) Pupil distance measuring method, wearable eye equipment and storage medium
US8902289B2 (en) Method for capturing three dimensional image
KR101300671B1 (en) Method for measuring parameter for manufacturing spectacle lens, and device for implementing the same
RU2015145510A (en) CRIMINAL DISPLAY DEVICE, METHOD FOR MANAGEMENT OF THE CRIMINAL DISPLAY DEVICE AND DISPLAY SYSTEM
US9225895B2 (en) Automatic focusing method and apparatus for same
KR102093953B1 (en) Method for helping determine the vision parameters of a subject
EP3076660B1 (en) Method and apparatus for displaying framing information
US20150022627A1 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP2014033392A (en) Electronic apparatus, method, and program for calculating height of subject
JP2003284096A (en) Stereoscopic photographing apparatus, finder, eyemark presenting member, and photographing method in stereoscopic photographing apparatus
KR20190081137A (en) Smart glasses for golf and operating method thereof
JP2013171058A (en) Stereoscopic image processing device, stereoscopic image pickup device, stereoscopic image display device
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP5958082B2 (en) Image processing apparatus and image processing method
JP4946914B2 (en) Camera system
US20190349561A1 (en) Multi-camera scene representation including stereo video for vr display
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2011217229A (en) Imaging apparatus and display method
JP2014095624A (en) Measuring apparatus, measuring method, and program
KR20220056258A (en) Device for measuring golf distance and green slope
TWI243595B (en) Digital camera for recording three dimension images
JP2014049890A (en) Imaging apparatus, imaging method, and program
JP2018170775A (en) Imaging apparatus, imaging method and program
JP7479829B2 (en) CONTROL DEVICE, IMAGING DEVICE, IMAGING SYSTEM, CONTROL METHOD, AND PROGRAM
JP6218615B2 (en) Display device, display method, photographing apparatus, and photographing system