JP2014033392A - Electronic apparatus, method, and program for calculating height of subject - Google Patents
Electronic apparatus, method, and program for calculating height of subject Download PDFInfo
- Publication number
- JP2014033392A JP2014033392A JP2012173826A JP2012173826A JP2014033392A JP 2014033392 A JP2014033392 A JP 2014033392A JP 2012173826 A JP2012173826 A JP 2012173826A JP 2012173826 A JP2012173826 A JP 2012173826A JP 2014033392 A JP2014033392 A JP 2014033392A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- user
- height
- imaging unit
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体の身長を算出する電子機器、方法、及びプログラムに関する。 The present invention relates to an electronic device, a method, and a program for calculating the height of a subject.
従来から、撮影画像から被写体の身長を測定する手法が提案されている(例えば、特許文献1)。しかし、特許文献1によると、被写体となる人物の頭部と足下を撮影しなければならならず、足下の写っていない写真からは被写体の身長を計測できないという問題があった。さらに特許文献1では、被写体となる人物の頭部の位置にカメラの撮影範囲を合わせる必要があるが、例えば人物を斜め上から撮影した場合には、頭部の厚みによって被写体となる人物の実際の頭頂部を画像に収められないことがあり、測定に誤差を含みやすい問題があった。また、被写体の帽子の着用、および、髪型によっては正しく身長が測定できない問題があった。
Conventionally, a method for measuring the height of a subject from a captured image has been proposed (for example, Patent Document 1). However, according to
特許文献2には、洗面台に設けられたカメラで被写体の顔を撮影し、カメラの高さを基準とした被写体の身長を特定する健康管理装置が記載されている。しかし、特許文献2の装置によると、被写体の全身像を撮影する必要はないが、装置ごと持ち歩いて使用できるようなものではなく、利便性が悪いという問題があった。
[特許文献1] 特許第4374490号公報
[特許文献2] 特開平11−197116号公報
Patent Document 2 describes a health management device that captures the face of a subject with a camera provided on a washstand and identifies the height of the subject based on the height of the camera. However, according to the device of Patent Document 2, it is not necessary to take a whole body image of a subject, but there is a problem in that the device cannot be carried and used, and convenience is poor.
[Patent Document 1] Japanese Patent No. 4374490 [Patent Document 2] Japanese Patent Laid-Open No. 11-197116
本願は、このような従来の問題を解決する電子機器、方法、及びプログラムを提供することを課題とする。 This application makes it a subject to provide the electronic device, method, and program which solve such a conventional problem.
本発明の第1の態様においては、使用者により保持されて被写体を撮像する電子機器であって、被写体を撮像する第1撮像部と、前記被写体を撮像して得られた第1画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する算出部とを備える電子機器を提供する。 In the first aspect of the present invention, an electronic device that is held by a user and images a subject, the first imaging unit that images the subject, and a first image obtained by imaging the subject. And an electronic device including a calculating unit that calculates a relative height of the subject with respect to the user.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、第1実施形態に係る電子機器10の外観斜視図を示す。図1(a)は被写体側から見た電子機器10の斜視図であり、図1(b)は使用者側から見た電子機器10の斜視図である。電子機器10は、使用者により保持されて被写体を撮像し、撮像した画像を表示する。また、電子機器10は、撮像した画像から被写体の身長を算出する。
FIG. 1 is an external perspective view of an
電子機器10は、筐体100と、第1撮像部110と、第2撮像部120と、表示部130と、1対の照明用LED142と、1対の集音部144と、一対のステレオスピーカー146と、操作スイッチ150と、グリップ160と、バッテリー162と、USBコネクタ164とを備える。筐体100は、電子機器10の内部に各種センサ及び制御回路等を収納する横長の略直方体の部材である。
The
第1撮像部110は、筐体100の被写体側の一面に設けられ、被写体を撮像する。第1撮像部110は、左撮像部112、右撮像部114、左撮像部116、及び、右撮像部118を有する。左撮像部112、右撮像部114、左撮像部116、及び、右撮像部118は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。
The
左撮像部112と右撮像部114は、一対のステレオカメラを構成し、被写体を撮像する。これにより第1撮像部110は、左撮像部112及び右撮像部114からの1対の画像を取り込んで左目用画像及び右目用画像を出力し、視差のある立体視用画像を得る。また、電子機器10は、この立体視用画像の視差量から、第1撮像部110から被写体までの距離を測定することができる。
The
これに代えて、第1撮像部110は、被写体の撮像時にオートフォーカス機構又は測距センサーが取得した被写体までの距離を出力してもよい。この場合、第1撮像部110は、複数の撮像部に代えて単一の撮像部を有してよい。
Instead, the
左撮像部112及び右撮像部114は、遠方の被写体を撮影する場合に用いられ、例えば、被写体が第1撮像部110から50cm以上離れている場合に用いられる。左撮像部112と右撮像部114の間隔は、人の眼の眼幅距離(左目と右目との間隔)である64mmの近傍の値でよく、例えば、50mm〜70mmであってよい。これにより、左撮像部112及び右撮像部114により遠方を撮影した立体視用画像を再生する場合に、観察時の映像と近い立体視用画像を表示できる。
The
左撮像部116と右撮像部118は、左撮像部112及び右撮像部114の内側に配置されて一対のステレオカメラを構成し、被写体を撮像する。第1撮像部110は、左撮像部116及び右撮像部118から1対の画像を取り込んで左目用画像及び右目用画像を出力し、立体視用画像を得る。電子機器10は、この立体視用画像の視差量から第1撮像部110から被写体までの距離を測定することができる。ここで、左撮像部116及び右撮像部118は、近傍の被写体を撮影する場合に用いられ、例えば、被写体が電子機器10から50cm未満に位置する場合に用いられる。
The
ここで、左撮像部116と右撮像部118の間隔は、左撮像部112と右撮像部114の間隔より小さく、5mm〜50mmであってよい。これにより、近傍の被写体を撮影した場合に、立体視用画像の視差が大きくなりすぎて不自然な表示となることを防ぐことができる。
Here, the interval between the
第2撮像部120は、筐体100の使用者側の一面に設けられ、使用者を撮像する。第2撮像部120は、左撮像部122及び右撮像部124を有する。左撮像部122及び右撮像部124は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。
The
左撮像部122と右撮像部124は、一対のステレオカメラを構成し、使用者を撮像する。第2撮像部120は、左撮像部122及び右撮像部124からの1対の画像を同時に取り込んで、左目用画像及び右目用画像を出力し、視差のある立体視用画像を得る。当該画像を観察することにより、使用者は鏡を見た場合のように自分自身の映像を確認することができる。また、電子機器10は、この立体視用画像の視差量から、第2撮像部120から使用者までの距離を測定して出力することができる。
The
左撮像部122と右撮像部124の間隔は、一例として標準的な眼幅距離及び/又は左撮像部112と右撮像部114の間隔の半分である32mmに設定される。これにより、使用者が左撮像部122及び右撮像部124で撮影した画像を電子機器10で観察する場合の輻輳角を、使用者が鏡で自分の顔を観察する場合の輻輳角と等しくし、使用者が鏡を見る場合と同じように電子機器10に自分の顔を表示させることができる。
As an example, the interval between the
表示部130は、液晶表示装置(LCD)、又は、有機EL表示装置等の表示装置であり、筐体100の使用者側の一面に設けられてよい。表示部130は、平面視又は立体視用の画像を表示する。表示部130は、表面に貼付けられたレンチキュラーレンズを有し、これにより使用者の右目と左目に対して視差のある右目用画像及び左目用画像を表示してよい。
The
表示部130は、第1撮像部110で撮影した立体視用画像、及び、第2撮像部120で撮像した立体視用画像を表示してよい。また、表示部130には、その表面に透明なタッチパネル132が設けられてよく、これにより使用者が手指等で触れることにより電子機器10の各種操作を可能とする。
The
照明用LED142は、筐体100の被写体側の一面に設けられ、被写体に光を照射する一対の照明であってよい。電子機器10は、照明用LED142に代えて、キセノン管フラッシュライト等の他の照明用光源を備えてもよい。一対の照明用LED142の代わりに単一の照明用LED142が筐体100に設けられてもよい。
The
集音部144は、筐体100の被写体側の一面に設けられた一対のステレオマイクであり、被写体の音声等を集音する。一対の集音部144の代わりに単一の集音部144が筐体100に設けられてもよい。
The
ステレオスピーカー146は、筐体100の使用者側の一面に設けられた一対のスピーカーであってよい。ステレオスピーカー146に代えて、モノラルスピーカーを筐体100に設けてもよい。
The
操作スイッチ150は、電子機器10の任意の場所に設けられ、使用者の様々な操作を入力する。操作スイッチ150は、例えば、筐体100の使用者側、被写体側、上面、下面、及び/又は、側面に設けられる。操作スイッチ150は、グリップ160に設けられてもよい。操作スイッチ150は使用者による電源のON/OFFを含めた操作を入力する。
The
グリップ160は、使用者が電子機器10を保持するための部材であり、例えば、筐体100の下部に設けられる円筒状の部材である。バッテリー162は、電子機器10に電力を供給する部材であり、例えば、リチウムイオン電池、及び、ニッケル水素電池等の充電可能な二次電池、又は、使い捨ての一次電池であってよい。バッテリー162は、例えば、図1の破線で示されるようにグリップ160の内部に装着される円筒形の部材である。これに代えて、バッテリー162は、筐体100の内部に装着されてもよい。
The
USBコネクタ164は、USB(Universal Serial Bus)デバイスの接続端子であり、グリップ160及び/又は筐体100に設けられる。USBコネクタ164は、電子機器10と他の機器との通信を可能にする。さらにUSBコネクタ164は、電源に接続されてバッテリー162を充電してもよい。
The
このように、電子機器10は、被写体側に設けられた第1撮像部110で被写体を撮影した画像を取得し、第2撮像部120で使用者を撮影した画像を取得することができる構成をとる。
As described above, the
図2は、本実施形態の電子機器10の機能構成の一例を示す。電子機器10は、図1において説明した第1撮像部110、第2撮像部120、表示部130、タッチパネル132、照明用LED142、集音部144、ステレオスピーカー146、操作スイッチ150、バッテリー162、及び、USBコネクタ164に加えて、エンコーダ200、3G/LTE通信回路202、GPSセンサー204、検出部208、方位センサー210、メモリ214、電源回路216、デコーダ221、表示ドライバ222、スピーカーアンプ224、処理部230を備えてよい。
FIG. 2 shows an example of a functional configuration of the
エンコーダ200は、第1撮像部110、及び、第2撮像部120からアナログ画像信号出力を受け取り、これをデジタル画像データに変換して処理部230に入力する。また、エンコーダ200は、集音部144からアナログ音声信号をデジタル音声データに変換して処理部230に入力する。さらに、エンコーダ200は、第1撮像部110及び/又は第2撮像部120から、被写体及び/又は使用者までの距離を示す信号を受け取り、これをデジタルデータに変換して処理部230に入力してよい。
The
3G/LTE通信回路202は、3G及びLTEの通信規格に準拠して他の機器との移動通信を行う通信回路である。電子機器10は、3G及びLTE以外の通信規格による通信を行う通信回路を備えてよい。3G/LTE通信回路202は、他の機器への送信データを処理部230から受け取り、他の機器からの受信データを処理部230に供給する。
The 3G /
GPSセンサー204は、GPS(Global Positioning System)を利用した測位検出を行う。GPSセンサー204は、検出した電子機器10の位置に関する情報を処理部230に供給する。
The
検出部208は、例えば、加速度センサであり、重力及び電子機器10に作用した加速度を測定することにより、電子機器10の傾きを検出する。検出部208は、多くの場合、重力の方向を測定することで、電子機器10の姿勢を検出する。検出部208は、検出した電子機器10の傾きを処理部230に供給する。方位センサー210は、地磁気を検出することにより、電子機器10の水平面上の方位(東西南北)を検出する。
The
メモリ214は、画像データ、及び、音声データが格納されるとともに、処理部230の動作プログラム及びその他必要な情報が記録される。
The
電源回路216は、バッテリー162が接続されており、電子機器10の各回路に必要な電源を供給するとともに、電子機器10の電源のON/OFFを制御する。
The
デコーダ221は、入力された画像データをデコードしてアナログ映像信号に変換し、表示ドライバ222に出力する。また、デコーダ221は、入力された音声データをデコードしてアナログ音声信号に変換し、スピーカーアンプ224に出力する。
The
表示ドライバ222は、デコーダ221からのアナログ映像信号に基づいて表示部130を駆動するパルスを生成し、表示部130に画像を表示させる。スピーカーアンプ224は、デコーダ221からのアナログ音声信号を増幅してステレオスピーカー146に出力する。
The
処理部230は、CPU等を含み、電子機器10を制御する。処理部230は、エンコーダ200から被写体及び使用者の画像データと、集音した音声データと、被写体及び/又は使用者との距離データを受け取る。処理部230は、表示部130に表示させる画像データ、及び、ステレオスピーカー146に出力させる音声データをデコーダ221に出力する。処理部230は、タッチパネル132、及び、操作スイッチ150から使用者の操作情報を受け取る。処理部230は、USBコネクタ164、3G/LTE通信回路202、及び、メモリ214との間でデータの送受信をする。また、処理部230は、GPSセンサー204、検出部208、及び、方位センサー210からの各種データを受信する。また、処理部230は、照明用LED142の出力及び電源回路216からの電源の供給を制御する。
The
処理部230は、被写体の身長の算出に関する機能を実行する算出部232、及び、調整部234を有する。
The
算出部232は、使用者により保持されて被写体および使用者を撮像することにより得られた第1画像および第2画像に基づいて、使用者に対する被写体の相対的な高さを算出する。例えば、算出部232は、第1画像と第2画像に基づいて第1撮像部110が位置する高さに対する被写体の相対的な高さ及び第2撮像部120が位置する高さに対する使用者の相対的な高さを算出し、算出したこれらの高さと、第1撮像部110に対する第2撮像部120の相対的な高さとに基づいて、使用者に対する被写体の相対的な高さを算出してよい。
The
一例として、算出部232は、第2撮像部120が位置する高さに対する使用者の相対的な高さと、第1撮像部110に対する第2撮像部120の相対的な高さとの和を、第1撮像部110が位置する高さに対する被写体の相対的な高さから差分することにより、使用者に対する被写体の相対的な高さを算出することができる。さらに、算出部232は、使用者の身体的特徴に基づいて、被写体の高さを算出してよい。例えば、算出部232は、使用者の身長に使用者に対する被写体の相対的な高さを加えることにより、被写体の高さを算出してよい。
As an example, the
より具体的には、算出部232は、被写体の一部が撮像された第1画像を解析し、第1画像中における被写体の特定部位の位置を特定する。被写体の特定部位は、被写体の画像を解析することにより特定可能な場所であればよく、例えば、被写体の一方又は両方の眼であってよい。次に、算出部232は、第1画像中における被写体の特定部位の視差量を解析することにより、第1撮像部110から当該特定部位までの距離を算出する。そして、算出部232は、第1画像中における被写体の特定部位が撮像された位置、第1撮像部110から被写体の特定部位までの距離、及び、検出部208から受信した電子機器10の傾きに基づいて、第1撮像部110が位置する高さに対する被写体の相対的な高さを算出する。
More specifically, the
同様に、算出部232は、使用者の一部が撮像された第2画像を解析し、第2画像中における使用者の特定部位の位置を特定する。使用者の特定部位は、使用者の画像を解析することにより特定可能な場所であればよく、例えば、使用者の一方又は両方の眼であってよい。次に、算出部232は、第2画像中における使用者の特定部位の視差量を解析することにより、第2撮像部120から当該特定部位までの距離を算出する。そして、算出部232は、第2画像中における使用者の特定部位の位置、第2撮像部120から使用者の特定部位までの距離、及び、検出部208から受信した電子機器10の傾きに基づいて、第2撮像部120が位置する高さに対する使用者の相対的な高さを算出する。
Similarly, the
さらに、算出部232は、予め設定された調整量αに基づいて被写体の高さを算出してよい。これにより、電子機器10は、測定誤差等をキャンセルして、より正確な被写体の高さを算出することができる。
Furthermore, the
調整部234は、被写体の高さの調整量αを算出する。調整量αは、電子機器10固有の測定誤差等を補正するための値であってよい。例えば、調整部234は、鏡に映る使用者の姿を撮像することにより得られた第3画像に基づいて、調整量αを算出してよい。
The
このように、図2によると、算出部232は、第1撮像部及び第2撮像部から被写体及び使用者の立体視用画像を取得し、検出部208から電子機器10の傾きを取得する。そして、算出部232は、取得したこれらの画像と傾きから、使用者に対する被写体の相対的な高さを算出する。
As described above, according to FIG. 2, the
図3は、本実施形態に係る被写体の身長算出方法の概要を示す。なお、図中のサフィックスのoは被写体、yはユーザー、cはカメラを表す。プリフィックスのSは標準、dは差分値、Tは身長、Hは高さを表す。Hoは第1撮像部110が位置する基準水平面を表し、Hyは第2撮像部120が位置する基準水平面を表す。
FIG. 3 shows an overview of the subject height calculation method according to the present embodiment. In the figure, the suffix o indicates the subject, y indicates the user, and c indicates the camera. The prefix S is standard, d is a difference value, T is height, and H is height. Ho represents the reference horizontal plane where the
図3に示されるように、使用者1に対する被写体2の相対的な高さdHは、第1撮像部110に対する被写体2の相対的な高さdHoと、第1撮像部110に対する第2撮像部120の相対的な高さdHcと、第2撮像部120に対する使用者1の相対的な高さdHyとに基づき、以下の式(1)から算出される。
dH = dHy + dHc − dHo …(1)
As shown in FIG. 3, the relative height dH of the subject 2 with respect to the
dH = dHy + dHc-dHo (1)
また、被写体2の地面からの高さ、つまり被写体2の身長は、既知の使用者1の身長Tyに基づき以下の式(2)から算出される。
To = Ty − dH …(2)
Further, the height of the subject 2 from the ground, that is, the height of the subject 2 is calculated from the following equation (2) based on the height Ty of the known
To = Ty−dH (2)
第1撮像部110に対する被写体2の相対的な高さdHoは、被写体2の特定部位に対する被写体2の高さsHoと、被写体2の特定部位(例えば、眼)に対する第1撮像部110の高さdIoとに基づき、以下の式(3)から算出される。
dHo = sHo − dIo …(3)
被写体2の特定部位に対する被写体2の高さsHoは、例えば、統計データの値を予めメモリ214等に記録しておくことで得られる。
The relative height dHo of the subject 2 with respect to the
dHo = sHo−dIo (3)
The height sHo of the subject 2 with respect to a specific part of the subject 2 can be obtained, for example, by previously recording statistical data values in the
被写体2の特定部位に対する第1撮像部110の高さdIoは、第1撮像部110から特定部位までの距離Do、及び、基準水平面Hoから、被写体2の特定部位及び第1撮像部110を結ぶ直線Ioまでの角度θoに基づいて、以下の数式(4)から算出される。
dIo = Do × sinθo …(4)
The height dIo of the
dIo = Do × sin θo (4)
第1撮像部110から特定部位までの距離Doは、三角測量等の原理に基づいて、立体視用画像である第1画像における被写体2の特定部位の視差量から算出することができる。
The distance Do from the
角度θoは、電子機器10の傾きθcと、第1撮像部110の垂直方向画角の二分線Coと直線Ioとの角度θcoに基づいて、以下の式(5)から算出される。
θo = θc − θco …(5)
The angle θo is calculated from the following equation (5) based on the inclination θc of the
θo = θc−θco (5)
傾き角度θcは、検出部208の検出した値が用いられる。図3において、電子機器10は、使用者1から見て奥側が低くなるように傾いており角度θcは正である。なお、電子機器10の使用者1から見て手前側が低くなるように傾く場合、傾き角度θcは負の値となる。
A value detected by the
角度θcoは、第1画像における被写体2の特定部位が撮像された位置から算出される。例えば、図4(a)において、二分線Coと重なり第1画像を垂直方向に等分する表示二分線から、被写体2の特定部位までの画素数Pioを計測することにより、角度θcoが求められる。なお、第1画像の表示二分線よりも被写体2の特定部位が下に位置する場合、画素数Pioは負の値となる。 The angle θco is calculated from the position where the specific part of the subject 2 in the first image is imaged. For example, in FIG. 4A, the angle θco is obtained by measuring the number of pixels Pio from the display bisector that overlaps the bisector Co and equally divides the first image in the vertical direction to the specific part of the subject 2. . In addition, when the specific part of the subject 2 is located below the display bisector of the first image, the pixel number Pio is a negative value.
例えば、角度θcoは、第1画像の垂直方向の画素数Pz1、第1撮像部110の縦方向の画角θv1に基づいて、以下の式(6)から算出される。
θco = θv1 × Pio/Pz1 (6)
For example, the angle θco is calculated from the following equation (6) based on the number of pixels Pz1 in the vertical direction of the first image and the vertical field angle θv1 of the
θco = θv1 × Pio / Pz1 (6)
角度θcoは、第1画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。このように、電子機器10は、式(3)〜(6)等により、dHoを算出することができる。
The angle θco may be calculated from one of the left image and the right image constituting the first image, or may be an average of values calculated from both the left image and the right image. As described above, the
第2撮像部120に対する使用者1の相対的な高さdHyは、使用者1の特定部位に対する使用者1の高さsHyと、第2撮像部120の高さに対する使用者1の特定部位(例えば、眼)の高さdIyとに基づき、以下の式(7)から算出される。
dHy = sHy + dIy …(7)
使用者1の特定部位に対する使用者1の高さsHyは、sHoと同様に統計データを用いることができる。
The relative height dHy of the
dHy = sHy + dIy (7)
Statistical data can be used for the height sHy of the
第2撮像部120に対する使用者1の特定部位の高さdIyは、第2撮像部120から特定部位までの距離Dy、及び、基準水平面Hyから第2撮像部120と使用者1の特定部位とを結ぶ直線Iyへの角度θyに基づいて、以下の数式(8)から算出される。
dIy = Dy × sinθy …(8)
The height dIy of the specific part of the
dIy = Dy × sin θy (8)
第2撮像部120から特定部位までの距離Dyは、距離Doと同様に、立体視用画像である第2画像における使用者1の特定部位の視差量から算出することができる。
Similar to the distance Do, the distance Dy from the
基準水平面Hyから、直線Iyまでの角度θyは、電子機器10の傾きθcと、第2撮像部120の垂直方向画角の二分線Cyからの直線Iyへの角度θcyに基づいて、以下の式(9)から算出される。
θy = θc + θcy …(9)
The angle θy from the reference horizontal plane Hy to the straight line Iy is based on the inclination θc of the
θy = θc + θcy (9)
角度θcyは、第2画像における使用者1の特定部位が撮像された位置から算出される。例えば、図4(b)に示される第2画像において、二分線Cyと重なり第2画像を垂直方向に等分する表示二分線から、使用者1の特定部位までの画素数Piyを計測することにより、角度θcoと同様の方法で、角度θcyが求められる。なお、第2画像の表示二分線よりも使用者1の特定部位が下に位置する場合、画素数Piyは負の値となる。
The angle θcy is calculated from the position where the specific part of the
例えば、角度θcyは、第2画像の垂直方向の画素数Pz2、第2撮像部120の縦方向の画角θv2に基づいて、以下の式(10)から算出される。
θcy = θv2 × Piy/Pz2 (10)
For example, the angle θcy is calculated from the following equation (10) based on the number of pixels Pz2 in the vertical direction of the second image and the vertical field angle θv2 of the
θcy = θv2 × Piy / Pz2 (10)
角度θcyは、第2画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。このように、式(7)〜(10)等により、dHyを算出することができる。 The angle θcy may be calculated from one of the left image and the right image constituting the second image, or may be an average of values calculated from both the left image and the right image. In this way, dHy can be calculated by the equations (7) to (10).
第1撮像部110に対する第2撮像部120の相対的な高さdHcは、第1撮像部110に対する第2撮像部120の高さZc、及び、電子機器10の傾きθcから、以下の式(11)に基づいて算出できる。
dHc = Zc × cosθc …(11)
The relative height dHc of the
dHc = Zc × cos θc (11)
電子機器10の厚みを考慮する場合には、さらに、電子機器10の厚み方向における第1撮像部110と第2撮像部120との距離Xcから、式(11)に代えて以下の式(11')に基づいてdHcを算出できる。
dHc = Zc × cosθc + Xc × sinθc …(11')
When considering the thickness of the
dHc = Zc × cos θc + Xc × sin θc (11 ′)
このように、本実施形態によると、被写体2の特定部位が撮像された第1画像、使用者1の特定部位が撮像された第2画像、及び、電子機器の傾きから、式(1)〜(11)に基づいて、被写体2の高さを算出することができる。これにより、電子機器10は、被写体2の頭頂部から足元までの全身を撮像しなくとも、被写体2の身長を算出することができる。
Thus, according to the present embodiment, from the first image in which the specific part of the subject 2 is imaged, the second image in which the specific part of the
また、本実施形態によると、電子機器10は、被写体2の髪型及び帽子の着用等に影響を受けることなく、被写体2の身長を算出することができる。さらに、本実施形態によると、電子機器10は、撮影者である使用者1の身長を基準値として被写体の身長を推定するので、他の基準となる機械要素を使用者1が持参する必要が無く、極めて軽量なシステムにより被写体2の身長を測定できる。
In addition, according to the present embodiment, the
図5〜7は、本実施形態に係る被写体の身長を測定するフローチャートを示す。図5は、全体フローチャートを示す。電子機器10は、被写体の身長を算出する場合において、図5のステップS100からS230までの処理を実行する。
5 to 7 show flowcharts for measuring the height of the subject according to the present embodiment. FIG. 5 shows an overall flowchart. When calculating the height of the subject, the
まず、S100において、処理部230は、使用者1に身長Ty、国籍、年齢、及び、性別の入力を促すメッセージを表示部130に表示させる。電子機器10は、使用者1が最初に使用する際の初期設定段階でこの処理を実行しても良いが、毎回実行する必要はない。使用者から入力されたデータは、メモリ214に記憶される。
First, in S100, the
次に、S110において、電子機器10は、使用者1の身長Tyの入力があった場合には、処理をS140へ進め(Y)、身長Tyの入力が無かった場合には処理をS120へ進める。
Next, in S110, the
S120において、電子機器10は、第2撮像部120により使用者1を撮影する。次に、S130において、電子機器10は、撮影した画像から使用者1の顔の特徴を抽出し、S100において使用者1の性別、年齢及び/又は人種情報を取得していない場合には、公知の技術により使用者1の性別、年齢、及び/又は人種を推定する。そして、電子機器10は、使用者1に入力された又は推定された使用者1の性別、年齢及び/又は人種情報を元に使用者1の身長Tyを推定する。
In S <b> 120, the
S140において、電子機器10は、キャリブレーションを実行するかどうかの確認メッセージを表示部130に表示する。そして電子機器10は、タッチパネル132等を介して使用者1からキャリブレーションを実行する指示を受けた場合には、処理をS230へ移行する。S140において使用者1がキャリブレーションを望まない場合には、電子機器10は処理をS160へ移行する。
In S140, the
なお、電子機器10は、このキャリブレーションを1回行えば良く、2回目以降にフローを実行する場合にはS140を実行せず、S160に移行してよい。この場合、電子機器10は、設定モード等において、使用者1から別途指示を受けた場合に、キャリブレーションを実行するためにS230に移行してよい。
The
S160において、使用者1による被写体2の撮影指示を、タッチパネル132又は操作スイッチ150等を介して入力するまで、電子機器10は処理を行わず待機する。電子機器10は、使用者1から撮影の指示を受け取った場合には処理をS170に移行する。
In step S <b> 160, the
S170において、電子機器10は、第1撮像部110の左撮像部112及び右撮像部114により被写体2を撮像する。なお、オートフォーカス機構等により被写体2と第1撮像部110との距離が概ね50cm以内であると判断された場合には、適切な立体効果を有する立体視用画像を得る目的で、間隔がより狭い左撮像部116及び右撮像部118により被写体2を撮像する。なお、本実施形態では左撮像部112及び右撮像部114により被写体2を撮像した場合を想定して説明する。撮像された被写体2の立体視用画像のデータは、エンコーダ200を介して、第1撮像部110から処理部230に送信される。
In S <b> 170, the
次に、S180において、電子機器10は、第2撮像部120により使用者1を撮像する。使用者1は表示部130に映された被写体2を観察しているので、第2撮像部120はその撮影範囲に使用者1を捕らえることができる。撮像された使用者1の立体視用画像のデータは、エンコーダ200を介して、第2撮像部120から処理部230に渡される。なお、S170とS180は、同時に実行されてもよい。
Next, in S <b> 180, the
次にS190において、処理部230は、第1撮像部110で撮像した被写体2が人物であるか否か判断する。被写体2が人物でない場合には、身長測定の意味がないので一連のシーケンスを終了する。被写体2が人物である場合にはS200へ移行する。なお、処理部230は、被写体2が人物であるが、撮像した被写体2の画像に予め定められた眼等の特定部位が含まれていない場合には、被写体2の特定部位を撮影するように使用者に促すメッセージを表示部130に表示させ、処理をS160に戻してよい。
Next, in S190, the
次にS200において、電子機器10は算出部232により、被写体2の身長Toを算出する。次にS210において、電子機器10は、算出した被写体2の身長To及び撮影年月日等を表示部130に表示する。表示部130は、例えば図4(a)に示されるように、被写体2の身長To及び撮影年月日等を、撮影した被写体2の第1画像と共に表示してよい。
Next, in S <b> 200, the
次に、S220において、電子機器10は、算出された被写体2の身長To、撮影年月日、及び撮影した被写体2の画像をメモリ214に記録してよい。
Next, in S <b> 220, the
S140で使用者1がキャリブレーションモードを希望した場合は、S230において、電子機器10は、調整量αをキャリブレーションし、キャリブレーションが完了した後に処理をS160に進める。電子機器10は、一端キャリブレーションを実行した後は、使用者が電子機器10のメニュー操作等でキャリブレーションの実行を指示しない限り、キャリブレーションモードの確認画面を表示しなくてよい。
When the
図6は、図5のS200の詳細な処理のフローチャートを示す。電子機器10は、S200において、図6のステップS2002からS2022までの処理を実行する。
FIG. 6 shows a flowchart of detailed processing in S200 of FIG. In S200, the
まず、S2002において、検出部208は、電子機器10の傾き角度θcを測定し、測定した傾き角度θcの情報を処理部230に入力する。
First, in S2002, the
次に、S2004において、処理部230の算出部232は、受け取った被写体2の立体視用画像である第1画像から被写体2の特定部位の視差量を算出し、当該視差量から、第1撮像部110から特定部位である眼までの距離Doを算出する。例えば、算出部232は、三角測量の原理に基づいて、被写体2の眼の視差量から距離Doを算出することができる。これに代えて、算出部232は、立体視用画像における物体の視差量と物体までの距離を対応付けて記録したルックアップテーブル等により、眼の視差量から距離Doを算出してもよい。
Next, in S2004, the
なお、電子機器10は、立体視用画像の視差を用いることに代えて、第1撮像部110がオートフォーカスをする場合にレンズの移動位置を検出することで被写体2までの距離Doを測定してよく、別途設けた測距センサーにより被写体2までの距離Doを測定しても良い。この場合、処理部230は、S2004を省略する代わりに、S170において、被写体2の画像データとともに被写体2の距離Doに関する情報をオートフォーカス機構または測距センサーから受け取ってよい。
The
次に、S2006において、算出部232は、被写体2を撮影した第1画像を垂直方向に等分する表示二分線から、被写体2の特定部位までの垂直方向の画素数Pioを計測する。算出部232は、画素数Pioは、図4(a)に示されるように被写体2の特定部位である眼と表示二分線との画素数を計算することにより算出する。例えば図4(a)において、表示二分線と被写体2の眼との間の画素数が100画素であったとすると、画素数Pio=100となる。
Next, in S2006, the
画素数Pioは、第1画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。また、例えば、左右の眼がそれぞれ表示二分線から異なる画素数の位置にある場合には、算出部232は、左右の眼の一方又は平均値を画素数Pioと判断してよい。
The number of pixels Pio may be calculated from one of the left image and the right image constituting the first image, or may be an average of values calculated from both the left image and the right image. Further, for example, when the left and right eyes are at different pixel positions from the display bisector, the
次に、S2008において、算出部232は、被写体2の眼から頭頂部までの高さsHoを推定する。被写体2の眼から頭頂部までの高さsHoは、統計データから得られる。例えば、人の眼を基準にした頭頂部までの高さは、男性の平均値110mm、女性の平均値106mmである。この寸法は多少の個人差はあるものの、成長によってあまり大きく変わらない数値である。例えば、男児7歳の平均が111.6ミリ、40〜49歳の平均が110.9ミリ、80〜99歳の平均が109ミリである。
Next, in S2008, the
ここで、算出部232は、公知の画像認識技術により、被写体2の顔を含む第1画像から、被写体2の人物の性別を判断する。そして、算出部232は、この判断と統計データを元に被写体2の眼から頭頂部までの高さsHoを推定する。例えば、算出部232は、被写体2の人物が男性であると判断した場合は、sHo=110mmとし、女性であると判断した場合はsHo=106mmとし、性別が不明な場合はその中間値としてsHo=108mmとしてよい。
Here, the
ここで、第1画像において、算出部232は、統計データ等を用いることに代えて、被写体2の頭部を含む第1画像からsHoを算出してよい。例えば、被写体2の頭部と背景のコントラストが明確で被写体2の頭頂部の輪郭が明確に検出でき、被写体2の後頭部が写り込んでなく、さらに傾きθcが略0であると判断される場合には、算出部232は、図4(a)に示されるように、sHoに相当する画素数を測定しても良い。
Here, in the first image, the
例えば、算出部232は、当該画素数を第1画像の垂直方向の画素数(例えば、2000画素)で割り、これに第1撮像部110の縦方向の画角θv1(例えば、60度)を乗じて、第1撮像部110、被写体2の頭頂部、及び被写体2の特定部位が形成する角度を算出し、さらに当該角度の正弦と距離Doを乗じることにより、sHoを算出してよい。
For example, the
次に、S2010において、算出部232は、第1撮像部110に対する被写体2の相対的な高さdHoを算出する。具体的には、算出部232は、画素数Pioに基づいて、第1撮像部110の垂直方向画角の等分線Coから被写体2の特定部位と第1撮像部110とを結ぶ直線Ioへの角度θcoを算出する。例えば、算出部232は、式(6)に従って、画素数Pioを第1画像の垂直方向の画素数(例えば、2000画素)で割り、これに第1撮像部110の縦方向の画角θv1(例えば、60度)を乗じた値を求めて、これを角度θcoする。
Next, in S2010, the
次に、算出部232は、式(5)に従って、電子機器10の傾きθcから角度θcoを減算することにより、第1撮像部110が含まれる基準水平面Hoから直線Ioへの角度θoを算出する。次に、算出部232は、式(4)に従って、距離Doにsinθoを乗じることにより、被写体2の特定部位に対する第1撮像部110の高さdIoを算出する。さらに、算出部232は、式(3)に従って、被写体2の眼からの頭頂部の高さsHoからdIoを減ずることにより、第1撮像部110に対する被写体2の相対的な高さdHoを算出する。
Next, the
次に、S2012において、算出部232は、受け取った使用者1の立体視用画像である第2画像から使用者1の特定部位の視差量を算出し、当該視差量から、第2撮像部120から特定部位である眼までの距離Dyを算出する。算出部232は、S2004で説明した距離Doの算出と同様の方法により、眼の視差量等から距離Dyを求めてもよい。
Next, in S2012, the
次に、S2014において、算出部232は、使用者1を撮影した第2画像を垂直方向に等分する表示二分線から、使用者1の特定部位までの垂直方向の画素数Piyを計測する。算出部232は、画素数Piyは、図4(b)に示されるように使用者1の特定部位である眼と表示二分線との画素数を計算することにより算出する。
Next, in S2014, the
画素数Piyは、第2画像を構成する左画像及び右画像のうち一方から算出されてよく、又は、左画像及び右画像の両方から算出された値の平均であってもよい。また、例えば、左右の眼がそれぞれ表示二分線から異なる画素数の位置にある場合には、左右の眼の一方又は平均値を画素数Piyとしてよい。 The pixel number Piy may be calculated from one of the left image and the right image constituting the second image, or may be an average of values calculated from both the left image and the right image. Further, for example, when the left and right eyes are at different pixel positions from the display bisector, one or the average value of the left and right eyes may be used as the pixel number Piy.
次に、S2016において、算出部232は、使用者1の眼から頭頂部までの高さsHyを推定する。算出部232は、S100又はS130で取得した使用者1の性別、年齢、及び/又は人種のデータ等と、統計データとに基づいて高さsHyを推定する。
Next, in S2016, the
次に、S2018において、算出部232は、第2撮像部120に対する使用者1の相対的な高さdHyを算出する。具体的には、算出部232は、画素数Piyに基づいて、第2撮像部120の垂直方向画角の等分線Cyから使用者1の特定部位と第2撮像部120とを結ぶ直線Iyへの角度θcyを算出する。例えば、算出部232は、式(10)の通り画素数Piy(例えば、120画素)を第2画像の垂直方向の画素数(例えば、2000画素)で割り、これに第2撮像部120の縦方向の画角θv2(例えば、60度)を乗じた値を求めて、これを角度θcyする。
Next, in S2018, the
次に、算出部232は、式(9)に従って、電子機器10の傾きθcと角度θcyとを加算することにより、第2撮像部120が含まれる基準水平面Hyから直線Iyへの角度θyを算出する。次に、算出部232は、式(8)に従って、距離Dyにsinθyを乗じることにより、使用者1の特定部位に対する第2撮像部120の高さdIyを算出する。さらに、算出部232は、式(7)に従って使用者1の眼からの頭頂部の高さsHyとdIyとを加算することにより、第2撮像部120に対する使用者1の相対的な高さdHyを算出する。
Next, the
次に、S2020において、使用者1と被写体2の身長差dHを算出する。まず、算出部232は、式(11)に従って第1撮像部110に対する第2撮像部120の高さZcにcosθcを乗ずることにより、第1撮像部110に対する第2撮像部120の相対的な高さdHcを算出する。電子機器10の厚みをさらに考慮する場合には、算出部232は、式(11')に従って第1撮像部110と第2撮像部120の電子機器10の厚み方向の距離Xcにsinθcを乗じて得た値を加えて、高さdHcを算出する。
Next, in S2020, the height difference dH between the
算出部232は、式(1)に従って、このdHcにS2018で得たdHyを加え、ここからS2010で得たdHoを減ずることにより、使用者1に対する被写体2の相対的な高さdHを得る。算出部232は、このようにして得たdHに対して、調整量αを加算してよい。調整量αは、工場出荷時には0であり、S230のキャリブレーションにおいて調整されてよい。
The
次に、S2022において、算出部232は、式(2)に従って、S100またはS130で得た使用者1の身長TyからdHを減算して、被写体の身長Toを算出する。
Next, in S2022, the
図7は、図5のS230の詳細な処理のフローチャートを示す。電子機器10は、S230において、図7のステップS2302からS2326までの処理によりキャリブレーションを実行する。
FIG. 7 shows a flowchart of detailed processing in S230 of FIG. In S230, the
S2302において、表示部130は、使用者1が鏡に映した自身を撮影するようにガイダンスを表示する。
In S2302, the
S2304において、電子機器10は、使用者1が操作スイッチ150により撮影を指示するまで待機する。これにより、電子機器10は、鏡に写る使用者以外の第三者の画像を第1撮像部110が捕らえてキャリブレーションすることを防ぐことができ、鏡に映る使用者1の画像により確実にキャリブレーションを実行できる。使用者1から撮影の指示を受け取ると、電子機器10は処理をS2306に進める。一定時間使用者1から指示を受け取らない場合は、電子機器10は図5のS230の処理を終了し処理をS160に進める。
In step S <b> 2304, the
次にS2306において、電子機器10は、第1撮像部110の左撮像部112と右撮像部114、又は、左撮像部116と右撮像部118により被写体2として鏡に映った使用者1を撮像する。撮像された被写体2の立体視用画像のデータは、エンコーダ200を介して、処理部230に送信される。
In step S <b> 2306, the
次に、S2308において、電子機器10は、第2撮像部120により使用者1を直接撮像する。撮像された使用者1の立体視用画像のデータは、エンコーダ200を会して、処理部230に渡される。なお、S2306とS2308は、同時に実行されてもよい。
Next, in S <b> 2308, the
次に、S2310において、検出部208は、電子機器10の傾き角度θcを測定し、測定した傾き角度θcの情報を処理部230に入力する。
In step S <b> 2310, the
次に、S2312において、処理部230の算出部232は、受け取った立体視用画像である第1画像から被写体2の特定部位の視差量を算出し、当該視差量から、第1撮像部110から特定部位である眼までの距離Doを算出する。算出部232は、距離DoをS2004と同様の方法で算出してよい。算出される距離Doは、第1撮像部110から鏡に映る使用者1の特定部位の像までの距離である。
Next, in S2312, the
次に、S2314において、算出部232は、被写体2を撮影した第1画像を垂直方向に等分する表示二分線から、使用者1の鏡像である被写体2の特定部位までの垂直方向の画素数Pioを計測する。算出部232は、画素数PioをS2006と同様の方法で計測してよい。
Next, in S2314, the
次に、S2316において、算出部232は、第1撮像部110に対する被写体2の相対的な高さdHoを算出する。算出部232は、S2008又はS2016と同様の方法でsHoを算出した後、S2010と同様の方法でdHoを算出されてよい。
Next, in S <b> 2316, the
次に、S2318において、算出部232は、使用者1と第2撮像部120の距離Dyを検出する。算出部232は、距離DyをS2012と同様の方法で検出してよい。
Next, in S2318, the
次に、S2320において、算出部232は、表示二分線から使用者1の特定部位までの垂直方向の画素数Piyを計測する。算出部232は、画素数PiyをS2014と同様の方法で計測してよい。
Next, in S2320, the
次に、S2322において、算出部232は、算出部232は、第2撮像部120に対する使用者1の相対的な高さdHyを算出する。算出部232は、S2316で得たsHoと同じ値をsHyとして用い、S2018と同様の方法で高さdHyを算出してよい。
Next, in S2322, the
次に、S2324において、調整部234は、S2020と同様の方法でdHcを算出し、下記式(12)において身長差dHが0となるように、式(13)により調整量αを算定する。
dH = dHy + dHc − dHo + α …(12)
α = dHo − dHy − dHc …(13)
Next, in S2324, the
dH = dHy + dHc−dHo + α (12)
α = dHo−dHy−dHc (13)
第1撮像部110が被写体2として撮像した対象は、鏡に映った使用者1自身であるので、使用者1と被写体2との身長差dHは、本来α=0の場合に0となるはずである。αが0にならない場合は、第1撮像部110及び/又は第2撮像部120による距離Do/Dyの測定誤差、及び/又は、検出部208による傾きθcの測定誤差等によるものが考えられる。次に、S2326において、調整部234は、算出した調整量αをメモリ214等に記録する。
Since the target imaged by the
このように電子機器10は、S230においてキャリブレーションモードを実行し、鏡に映る使用者1自身の身長を測定する。そして、使用者1と鏡に移った使用者1との身長差dHが0となるように調整量αを決定する。これにより、電子機器10は、鏡を使用した簡便な方法で測定誤差を低減することができる。
Thus, the
図8は、第2実施形態に係る電子機器10の外観斜視図を示す。本実施形態における電子機器10は、第2撮像部120は単一の撮像部から構成させる。例えば、電子機器10は、背面に単一の第2撮像部120を備えたスマートフォン等であってよく、当該単一の第2撮像部120により使用者1との距離を測定する。ここで、スマートフォン等の背面に設けられた撮像部は所謂パンフォーカスに設定され、使用者1との距離を直接測定することが難しい場合がある。
FIG. 8 is an external perspective view of the
そこで、本実施形態の算出部232は、単一の第2撮像部120で使用者1の体の一部を撮像し、撮像した画像中の体の一部の大きさに基づいて第2撮像部120と使用者1との距離を算出する。体の一部は、使用者1の画像から位置を特定可能な一定の大きさの顔のパーツであり、例えば、使用者1の2つの眼、鼻の穴、口の両端等である。
Therefore, the
算出部232は、このように算出した使用者1までの距離、第2画像中における使用者1の特定部位の位置、および電子機器10の傾き等に基づいて、第1実施形態と同様に、第2撮像部120が位置する高さに対する使用者1の相対的な高さを算出する。
Based on the distance to the
ここで、体の一部の大きさは人により異なることがあるので、使用者1の体の一部の画像から使用者1との距離を測定することはできない場合がある。そこで、本実施形態の電子機器10は、キャリブレーションモードにおいて高さの分かっている物体(例えば、高さ0の床上のマーク等)を撮影し、撮影された画像データにおける使用者1の体の一部の大きさと使用者と第2撮像部120との距離の関係を示す係数fを算出する。
Here, since the size of the part of the body may differ depending on the person, it may not be possible to measure the distance to the
具体的には、調整部234が、第1撮像部110および第2撮像部120により撮像された、既知の高さに位置する物が撮像された第4画像および使用者が撮像された第5画像に基づいて、第2撮像部により撮像される使用者1の大きさから使用者1までの距離を算出するための係数fを調整する。
Specifically, the
キャリブレーションの後、算出部232は、調整された係数fと第2撮像部120により撮像された第2画像における使用者1の体の一部の大きさとに基づいて、使用者1までの距離を算出する。
After calibration, the
図9は、本実施形態に係るキャリブレーションの概要を示す。図9に示されるように、第2撮像部120と使用者1の眼との距離Dyは、第2撮像部120に対する使用者1の特定部位の高さdIy、及び、第2撮像部120を含む基準水平面Hyから第2撮像部120と使用者1の特定部位とを結ぶ直線Iyへの角度θyに基づき、以下の式(14)から算出される。
Dy = dIy/sinθy …(14)
ここで、角度θyは、電子機器10の傾きθcと第2撮像部120の垂直方向画角の二分線Cyからの直線Iyへの角度θcyとに基づいて、以下の式(15)から算出される。
θy = θc + θcy …(15)
FIG. 9 shows an outline of calibration according to the present embodiment. As shown in FIG. 9, the distance Dy between the
Dy = dIy / sin θy (14)
Here, the angle θy is calculated from the following equation (15) based on the inclination θc of the
θy = θc + θcy (15)
傾き角度θcは、検出部208の検出した値が用いられる。図9において、電子機器10は、使用者1から見て奥側が低くなるように傾いており角度θcは正である。なお、電子機器10の使用者1から見て手前側が低くなるように傾く場合、傾き角度θcは負の値となる。
A value detected by the
角度θcyは、第5画像における使用者1の特定部位が撮像された位置から算出される。例えば、図10(b)に示される第5画像において、二分線Cyと重なり第5画像を垂直方向に等分する表示二分線から、使用者1の特定部位までの画素数Piyを計測することにより、角度θcyが求められる。図10(b)に示される場合、第5画像の表示二分線よりも使用者1の特定部位が下に位置するので画素数Piyは負の値となる。
The angle θcy is calculated from the position where the specific part of the
例えば、角度θcyは、第5画像の垂直方向の画素数Pz2、第2撮像部120の縦方向の画角θv2に基づいて、以下の式(16)から算出される。
θcy = θv2 × Piy/Pz2 (16)
For example, the angle θcy is calculated from the following equation (16) based on the number of pixels Pz2 in the vertical direction of the fifth image and the vertical field angle θv2 of the
θcy = θv2 × Pyy / Pz2 (16)
第2撮像部120に対する使用者1の特定部位の高さdIyは、使用者1の眼の高さTiy、第1撮像部110に対する第2撮像部120の相対的な高さdHc、及び、第1撮像部110の高さTcに基づいて、以下の式(17)から算出される。
dIy = Tiy − dHc − Tc …(17)
The height dIy of the specific part of the
dIy = Tiy−dHc−Tc (17)
第1撮像部110に対する第2撮像部120の相対的な高さdHcは、式(10)、式(11)及び式(11')から算出することができる。
The relative height dHc of the
また、使用者1の眼の高さTiyは、S2016と同様の方法で得た使用者1の頭頂部と眼との距離sHyと、使用者1の身長Tyとに基づいて算出される。
Further, the eye height Tiy of the
さらに、第1撮像部110の高さTcは、第1撮像部110と床上のマーク3との距離Dmに基づいて、以下の式(18)から算出される。
Tc = Dm × sinθc …(18)
Further, the height Tc of the
Tc = Dm × sin θc (18)
第1撮像部110と床上のマーク3との距離Dmは、三角測量等の原理に基づいて、立体視用画像である第4画像におけるマーク3の視差量から算出することができる。図10(a)に示されるように、表示部130は、第4画像の中央の表示4部分にマーク3を撮影するようにガイダンスを表示する。このように式(14)〜(18)から、第2撮像部120と使用者1の眼との距離Dyが算出される。
The distance Dm between the
図10(b)に示される第5画像における使用者1の眼の間隔Wyと距離Dyとの係数fを以下の式(19)から算出する。
f = Dy / Wy …(19)
係数fはメモリ214等に記録される。
A coefficient f between the eye distance Wy and the distance Dy of the
f = Dy / Wy (19)
The coefficient f is recorded in the
間隔Wyは、使用者1との距離Dyと比例関係にあり、使用者1と第2撮像部120との距離が離れると値が小さくなる。従って、測定された使用者1の眼の間隔Wyと記録された係数fとに基づいて、以下の式(20)に基づいて随時距離Dyを算出することができる。
Dy = f × Wy …(20)
The interval Wy is proportional to the distance Dy to the
Dy = f × Wy (20)
このように、本実施形態によると、電子機器10の第2撮像部120が単一の撮像部で構成された場合であっても、第2撮像部120と使用者1との距離を正確に算出することができる。これにより、本実施形態によると、第1の実施形態と同様に、利便性の高い電子機器10を提供することができる。
Thus, according to the present embodiment, the distance between the
ここで、本実施形態の電子機器10の処理フローについて説明する。本実施形態において、電子機器10は、図5〜図7に係る第1の実施形態の処理フローと同様の処理を実行することにより、被写体2の身長を算出することができる。ここで、被写体2の高さHoの算出に係るS200内のS2012において、立体視用画像の視差等により使用者1との距離Dyを算出する方法に代えて、本実施形態の算出部232は、記録された係数fと第2画像中の眼の間隔Wyとを用いて距離Dyを算出する。
Here, a processing flow of the
また、電子機器10は、第1実施形態のキャリブレーションに係るS230の処理に代えて、又は、加えて、本実施形態においては係数fを算出するキャリブレーションに係る処理フローを実行する。
The
図11は、係数fを算出する本実施形態に係るキャリブレーションの処理フローを示す。電子機器10は、S230において、図11のステップS2352からS2376までの処理を実行する。
FIG. 11 shows a processing flow of calibration according to the present embodiment for calculating the coefficient f. In S230, the
S2352において、表示部130は、使用者の立っている床と同一高さにあるマーク等のターゲットを画面の中央で撮影するように指示を表示する。床上のマークは、例えば、フローリングの床の模様、畳の縁、又は出口表示等であって良い。図10(a)に示す例では、使用者1は床上の「Exit」マークを撮影している。
In S2352, the
ここで、使用者1が遠くの指標を選び、さらに第2撮像部120と眼が同等の高さになると、sin(θc+θcy)の値がゼロに近づき、式(14)の計算精度が低下する。そこで、このような場合に、電子機器10は表示部130に「もう少し足下に近い指標を選んでください」という旨のアナウンスを表示させて良い。
Here, when the
S2354において、電子機器10は、使用者1が操作スイッチ150により撮影を指示するまで待機する。電子機器10は、使用者1から撮影の指示を受け取ると処理をS2356に進める。電子機器10は、一定時間使用者1から指示を受け取らない場合は、図5のS230の処理を終了し、処理をS160に進めてよい。
In step S <b> 2354, the
次にS2356において、電子機器10は、第1撮像部110の左撮像部112と右撮像部114、又は、左撮像部116と右撮像部118により床上のマーク3を撮像する。撮像されたマーク3の立体視用画像のデータは、エンコーダ200を介して、処理部230に送信される。
Next, in S2356, the
次に、S2358において、電子機器10は、第2撮像部120により使用者1を撮像する。使用者1は表示部130に映されたマーク3を観察しているので、第2撮像部120はその撮影範囲に使用者1を捕らえることができる。撮像された使用者1の画像のデータは、エンコーダ200を会して、処理部230に渡される。なお、S2356とS2358は、同時に実行されてもよい。
Next, in S <b> 2358, the
次に、S2360において、検出部208は、電子機器10の傾き角度θcを測定し、測定した傾き角度θcの情報を処理部230に入力する。
Next, in S <b> 2360, the
次に、S2362において、処理部230の算出部232は、受け取った立体視用画像である第4画像からマークの特定部位の視差量を算出し、当該視差量から、第1撮像部110からマーク3までの距離Dmを算出する。算出部232は、距離DmをS2004と同様の方法で算出してよい。
Next, in S2362, the
次に、S2364において、算出部232は、第1撮像部110に対するマーク3の相対的な高さTcを算出する。算出部232は、式(18)に従って距離Dmにsinθcを乗じることにより、高さTcを算出してよい。
Next, in S <b> 2364, the
次に、S2366において、第2撮像部120に対する使用者1の眼の高さdIyを算出する。具体的には、算出部232は、まず、S2016と同様の方法により高さsHyを推定し、当該sHyをS100又はS130で取得した取得した使用者1の身長Tyから減じることにより、高さTiyを算出する。次に、算出部232は、S2020と同様の方法によりdHcを算出する。
Next, in S2366, the eye height dIy of the
ここで、算出部232は、式(17)に従って使用者1の眼の高さTiyから、第1撮像部110に対する第2撮像部120の相対的な高さdHc及び第1撮像部110の高さTcを減じることにより、第2撮像部120に対する使用者1の眼の高さdIyを算出する。
Here, the
次に、S2368において、算出部232は、S2014と同様の方法により、使用者1を撮影した第5画像を垂直方向に等分する表示二分線から、使用者1の眼までの垂直方向の画素数Piyを計測する。
Next, in S2368, the
次に、S2370において、算出部232は、第2撮像部120と使用者1の眼との距離Dyを算出する。具体的には、算出部232は、まず、式(16)に従って、第2撮像部120の垂直方向画角の等分線Cyから使用者1の眼と第2撮像部120とを結ぶ直線Iyへの角度θcyを算出する。次に、算出部232は、式(15)に従って傾き角度θcとθcyとを加算して、第2撮像部120を含む基準水平面Hyから第2撮像部120と使用者1の眼とを結ぶ直線Iyへの角度θyを算出する。さらに、算出部232は、式(14)に従って、dIyをsinθyで除することにより、第2撮像部120と使用者1の眼との距離Dyを算出する。
Next, in S <b> 2370, the
次に、S2372において、算出部232は、第5画像における使用者1の眼の間隔Wyを演算する。間隔Wyは、第5画像における使用者1の眼の間隔に対応する画素数でよく、またはこれに代えて、第5画像における使用者1の眼の間隔に対応する画角であってもよい。
Next, in S2372, the
次に、S2374において、調整部234は、使用者1の眼の間隔Wyと距離Dyとの関係を算出する。例えば、調整部234は、式(19)に従って距離Dyを間隔Wyで除することにより、両者の係数fを調整してよい。
Next, in S2374, the
次に、S2376において、調整部234は、S2374で得た係数fをメモリ214等に記録して保存する。これにより、電子機器10は、S2012において、使用者1の眼の間隔Wyを測定し、式(20)に従って間隔Wyに係数fを乗じて距離Dyを得ることができる。
Next, in S2376, the
このように、本実施形態によれば、電子機器10は、床上のマーク等の高さが既知の物体を用いてキャリブレーションを予め実行して、使用者1の眼の間隔等と距離Dyとの係数fを記録する。そして、電子機器10は、当該係数fを用いて使用者1の眼と電子機器10との距離Dyを算出する。これにより、電子機器10は、ステレオカメラを備えていない場合でも被写体2の身長を推定することができる。
As described above, according to the present embodiment, the
電子機器10は、工場出荷時に所定の値の係数fが設定されてよく、使用者1がS140でキャリブレーションを実行しないことを選択した場合には、その値を用いて被写体2の身長を測定してよい。
The
図12は、第3の実施形態に係る電子機器20の外観斜視図を示す。電子機器20は、単一の撮像部からなる第1撮像部110及び出力部170を備える以外は、第2の実施形態の電子機器10と同様の構成を備えてよい。出力部170は、例えば、光学ファインダー又は電子ファインダーであり、被写体2の撮像動作中に使用者1が眼に近付けて観察する、被写体像を出力する。
FIG. 12 is an external perspective view of the
電子機器20は、出力部170近傍に設けられた近接センサー等により、出力部170を使用者が覗いていることを検出することができる。電子機器20は、図5〜7に記載された処理フローと同様の処理により被写体2の身長を測定することができる。本実施形態において、使用者が出力部170を覗いていると電子機器20が判断した場合、使用者1の眼に対する第2撮像部の高さを0とすることができる。
The
従って、算出部232は、使用者1の眼の高さに対する被写体2の相対的な高さを算出することにより、被写体2の身長を測定することができる。例えば、算出部232は、処理フローのS200においてS2012、S2014、S2018を省略し、Dy=0、dIy=0及びdHy=sHyとして被写体2の身長を算出することができる。
Therefore, the
また、電子機器20は、Dy=0としても良いことから、キャリブレーションモードへ移行するステップS140、及び、キャリブレーションのシーケンスであるS230を省略しても良い。
In addition, since the
図13(a)及び(b)は、第4の実施形態に係る電子機器30の外観斜視図を示す。電子機器30は、ヘッドマウントディスプレイ(以下HMD)である。図13(a)は全体の斜視図である。図13(b)は図13(a)を反対から見た斜視図である。
FIGS. 13A and 13B are external perspective views of the
本実施形態の電子機器30は、第3の実施形態の電子機器20と同様に、第1撮像部110、第2撮像部120、表示部130、集音部144、ステレオスピーカー146、操作スイッチ150を備える。電子機器30は、さらに使用者1の頭部に装着するためのヘッドバンド180を備える。なお、図13(b)においては、説明のためにヘッドバンド180を外した状態を現している。
Similar to the
本実施形態において、表示部130は使用者1の眼の極めて近傍に配置される。そこで、使用者1に表示部130を確実に観察させるために、電子機器30は、表示部130の上面に拡大レンズを備えてよい。
In the present embodiment, the
電子機器30は、第3の実施形態の同様に、Dy=0、dIy=0及びdHy=sHyとしてS2012、S2014、S2018を省略し、キャリブレーションモードへ移行するステップS140、及び、キャリブレーションのシーケンスであるS230を省略しても良い。
As in the third embodiment, the
図14は、電子機器10等と他の機器のネットワーク上の接続を示す。電子機器10等は、ローカルエリアネットワーク又はインターネット等の通信ネットワーク80を介して、サーバ50、サーバ60、及び、パーソナルコンピュータ70と接続される。電子機器10等は、3G/LTE通信回路202を介して通信ネットワーク80に接続可能であってよい。電子機器10等は、測定された被写体2の身長To、撮影年月日、及び被写体画像等を、通信ネットワーク80を介して、サーバ50及び/又は60に送信してよい。また電子機器10等は、調整量α及び/又は係数fをサーバ50及び/又は60に送信してよい。
FIG. 14 shows connections on the network between the
サーバ50は、クラウドサービス等を提供し、記憶装置52、処理部54、及び通信インターフェース56を備える。サーバ50は、通信ネットワーク80及び通信インターフェース56を介して、電子機器10等から被写体2の身長To等を受信して、これを記憶装置52に記録する。また、サーバ50は、調整量α及び/又は係数fを電子機器10等から受信して、これを記憶装置52に記録してよい。サーバ60は、サーバ50と同様の構成を備えてよい。
The
サーバ50は、被写体の画像と共に時間の経過に伴う被写体2の身長の推移を蓄積する。一例として、サーバ50は、被写体2の顔を認識して被写体の人物を特定し、特定した人物と身長のデータを対応付けて記録してよい。これにより、被写体となった人物を使用者が選択しなくても、各人物に対応付けて身長のデータを記録することができる。サーバ50に記録されたデータは、被写体2に対して固有のIDとなる氏名を入力することにより、通信ネットワーク80を介してパーソナルコンピュータ70より閲覧可能であってよい。電子機器10等又はパーソナルコンピュータ70は、サーバ50に記録された被写体の身長等の経過情報と、他のサーバ60に記録された別の被写体の身長等の経過情報とを比較する機能を有してよい。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
1 使用者、2 被写体、3 マーク、4 表示、10 電子機器、20 電子機器、30 電子機器、50 サーバ、60 サーバ、70 パーソナルコンピュータ、80 通信ネットワーク、100 筐体、110 第1撮像部、112 左撮像部、114 右撮像部、116 左撮像部、118 右撮像部、120 第2撮像部、122 左撮像部、124 右撮像部、130 表示部、132 タッチパネル、142 照明用LED、144 集音部、146 ステレオスピーカー、150 操作スイッチ、160 グリップ、162 バッテリー、164 USBコネクタ、170 出力部、180 ヘッドバンド、200 エンコーダ、202 3G/LTE通信回路、204 GPSセンサー、208 検出部、210 方位センサー、214メモリ、216 電源回路、221 デコーダ、222 表示ドライバ、224 スピーカーアンプ、230 処理部、232 算出部、234 調整部 1 user, 2 subject, 3 mark, 4 display, 10 electronic device, 20 electronic device, 30 electronic device, 50 server, 60 server, 70 personal computer, 80 communication network, 100 housing, 110 first imaging unit, 112 Left imaging unit, 114 Right imaging unit, 116 Left imaging unit, 118 Right imaging unit, 120 Second imaging unit, 122 Left imaging unit, 124 Right imaging unit, 130 Display unit, 132 Touch panel, 142 LED for illumination, 144 Sound collection Part, 146 stereo speaker, 150 operation switch, 160 grip, 162 battery, 164 USB connector, 170 output part, 180 headband, 200 encoder, 202 3G / LTE communication circuit, 204 GPS sensor, 208 detection part, 210 direction sensor, 214 memories, 16 power supply circuit, 221 a decoder, 222 a display driver, 224 a speaker amplifier, 230 processing unit, 232 calculation unit, 234 adjustment section
Claims (14)
被写体を撮像する第1撮像部と、
前記被写体を撮像して得られた第1画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する算出部と、
を備える電子機器。 An electronic device that is held by a user and images a subject,
A first imaging unit that images a subject;
A calculation unit that calculates a relative height of the subject with respect to the user based on a first image obtained by imaging the subject;
Electronic equipment comprising.
前記算出部は、前記第1画像中における前記被写体の特定部位の位置および前記傾きに基づいて、前記第1撮像部が位置する高さに対する前記被写体の相対的な高さを算出する
請求項4に記載の電子機器。 A detector that detects the inclination of the electronic device;
The calculation unit calculates a relative height of the subject with respect to a height at which the first imaging unit is located based on a position of the specific part of the subject in the first image and the inclination. The electronic device as described in.
前記算出部は、前記被写体までの距離、前記第1画像における前記被写体の特定部位が撮像された位置および前記傾きに基づいて、前記第1撮像部が位置する高さに対する前記被写体の相対的な高さを算出する
請求項5に記載の電子機器。 The first imaging unit images the subject and outputs a distance to the subject;
The calculation unit is configured to determine a relative position of the subject with respect to a height at which the first imaging unit is located based on a distance to the subject, a position where the specific part of the subject is captured in the first image, and the inclination. The electronic device according to claim 5, wherein the height is calculated.
前記算出部は、前記使用者により保持されて前記被写体および前記使用者を撮像することにより得られた前記第1画像および第2画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する
請求項1から6のいずれか一項に記載の電子機器。 A second imaging unit for imaging the user;
The calculation unit is configured to determine a relative height of the subject with respect to the user based on the first image and the second image obtained by capturing the subject and the user by being held by the user. The electronic apparatus according to any one of claims 1 to 6.
前記第2撮像部により撮像された前記第2画像における前記使用者の体の一部の大きさに基づいて、前記使用者までの距離を算出し、
前記使用者までの距離、前記第2画像中における前記使用者の特定部位の位置、および当該電子機器の傾きに基づいて、前記第2撮像部が位置する高さに対する前記使用者の相対的な高さを算出する
請求項7または8に記載の電子機器。 The calculation unit includes:
Based on the size of a part of the user's body in the second image captured by the second imaging unit, a distance to the user is calculated,
Based on the distance to the user, the position of the specific part of the user in the second image, and the inclination of the electronic device, the relative of the user to the height at which the second imaging unit is located The electronic device according to claim 7 or 8, wherein a height is calculated.
前記算出部は、前記使用者の眼の高さに対する前記被写体の相対的な高さを算出する
請求項1から6のいずれか一項に記載の電子機器。 An output unit for outputting a subject image that the user observes close to an eye during an imaging operation of the subject;
The electronic apparatus according to claim 1, wherein the calculation unit calculates a relative height of the subject with respect to a height of the user's eyes.
前記被写体を撮像して得られた第1画像に基づいて、前記使用者に対する前記被写体の相対的な高さを算出する算出段階と、を備える、
前記被写体の身長を算出する方法。 A first imaging step of imaging a subject with an electronic device held by a user;
A calculation step of calculating a relative height of the subject with respect to the user based on a first image obtained by imaging the subject.
A method for calculating the height of the subject.
被写体を撮像する第1撮像部と、
前記被写体を撮像して得られた第1画像に基づいて、使用者に対する前記被写体の相対的な高さを算出する算出部と、
を備え、前記使用者により保持されて前記被写体を撮像する電子機器として機能させる
プログラム。 Computer
A first imaging unit that images a subject;
A calculation unit that calculates a relative height of the subject with respect to a user based on a first image obtained by imaging the subject;
A program that is held by the user and functions as an electronic device that images the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012173826A JP2014033392A (en) | 2012-08-06 | 2012-08-06 | Electronic apparatus, method, and program for calculating height of subject |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012173826A JP2014033392A (en) | 2012-08-06 | 2012-08-06 | Electronic apparatus, method, and program for calculating height of subject |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014033392A true JP2014033392A (en) | 2014-02-20 |
Family
ID=50282889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012173826A Pending JP2014033392A (en) | 2012-08-06 | 2012-08-06 | Electronic apparatus, method, and program for calculating height of subject |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014033392A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016035350A1 (en) * | 2014-09-02 | 2016-03-10 | 株式会社sizebook | Portable information terminal, and control method and control program therefor |
CN105596006A (en) * | 2015-12-16 | 2016-05-25 | 上海斐讯数据通信技术有限公司 | Stature measuring method and device and electronic equipment with collection device |
JP2016163338A (en) * | 2015-03-05 | 2016-09-05 | 富士通株式会社 | Information processing apparatus, display control method and display control program |
-
2012
- 2012-08-06 JP JP2012173826A patent/JP2014033392A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016035350A1 (en) * | 2014-09-02 | 2016-03-10 | 株式会社sizebook | Portable information terminal, and control method and control program therefor |
JPWO2016035350A1 (en) * | 2014-09-02 | 2017-06-15 | 株式会社sizebook | Portable information terminal, control method thereof, and control program |
JP2016163338A (en) * | 2015-03-05 | 2016-09-05 | 富士通株式会社 | Information processing apparatus, display control method and display control program |
CN105596006A (en) * | 2015-12-16 | 2016-05-25 | 上海斐讯数据通信技术有限公司 | Stature measuring method and device and electronic equipment with collection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109429060B (en) | Pupil distance measuring method, wearable eye equipment and storage medium | |
US8902289B2 (en) | Method for capturing three dimensional image | |
KR101300671B1 (en) | Method for measuring parameter for manufacturing spectacle lens, and device for implementing the same | |
RU2015145510A (en) | CRIMINAL DISPLAY DEVICE, METHOD FOR MANAGEMENT OF THE CRIMINAL DISPLAY DEVICE AND DISPLAY SYSTEM | |
US9225895B2 (en) | Automatic focusing method and apparatus for same | |
KR102093953B1 (en) | Method for helping determine the vision parameters of a subject | |
EP3076660B1 (en) | Method and apparatus for displaying framing information | |
US20150022627A1 (en) | Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus | |
JP2014033392A (en) | Electronic apparatus, method, and program for calculating height of subject | |
JP2003284096A (en) | Stereoscopic photographing apparatus, finder, eyemark presenting member, and photographing method in stereoscopic photographing apparatus | |
KR20190081137A (en) | Smart glasses for golf and operating method thereof | |
JP2013171058A (en) | Stereoscopic image processing device, stereoscopic image pickup device, stereoscopic image display device | |
JP2017191546A (en) | Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display | |
JP5958082B2 (en) | Image processing apparatus and image processing method | |
JP4946914B2 (en) | Camera system | |
US20190349561A1 (en) | Multi-camera scene representation including stereo video for vr display | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP2011217229A (en) | Imaging apparatus and display method | |
JP2014095624A (en) | Measuring apparatus, measuring method, and program | |
KR20220056258A (en) | Device for measuring golf distance and green slope | |
TWI243595B (en) | Digital camera for recording three dimension images | |
JP2014049890A (en) | Imaging apparatus, imaging method, and program | |
JP2018170775A (en) | Imaging apparatus, imaging method and program | |
JP7479829B2 (en) | CONTROL DEVICE, IMAGING DEVICE, IMAGING SYSTEM, CONTROL METHOD, AND PROGRAM | |
JP6218615B2 (en) | Display device, display method, photographing apparatus, and photographing system |