JP2013011491A - Dimension measuring device, dimension measuring method and dimension measuring program - Google Patents

Dimension measuring device, dimension measuring method and dimension measuring program Download PDF

Info

Publication number
JP2013011491A
JP2013011491A JP2011143415A JP2011143415A JP2013011491A JP 2013011491 A JP2013011491 A JP 2013011491A JP 2011143415 A JP2011143415 A JP 2011143415A JP 2011143415 A JP2011143415 A JP 2011143415A JP 2013011491 A JP2013011491 A JP 2013011491A
Authority
JP
Japan
Prior art keywords
unit
image
inclination
display
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011143415A
Other languages
Japanese (ja)
Other versions
JP5849462B2 (en
Inventor
Noriyuki Harada
典幸 原田
Hiroshi Sugano
洋志 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011143415A priority Critical patent/JP5849462B2/en
Publication of JP2013011491A publication Critical patent/JP2013011491A/en
Application granted granted Critical
Publication of JP5849462B2 publication Critical patent/JP5849462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a dimension measuring device capable of easily and accurately measuring dimensions of an object.SOLUTION: A dimension measuring device includes an acquisition part 18a, a registration part 18b, a display control part 18c and a dimension calculation part 18e. The acquisition part acquires a contract tilt which is a tilt of an imaging part 14 in a state in which an object imaged by the imaging part is in contact with the own device. The registration part acquires a distance from the imaging part to the object and a tilt of the imaging part when the imaging part takes an image of the object, and registers the acquired distance and tilt in association with each image of the object in an image information storage part 17b. The display control part extracts an image of the object and a distance corresponding to the contact tile from the image information storage part, and displays a pair of frames overlapped on the extracted image of the object together with the image in a display part 12. The dimension calculation part calculates dimensions of the object on the basis of display positions of the frames displayed in the display part by the display control part and the distance corresponding to the contact tilt.

Description

本発明は、寸法測定装置、寸法測定方法および寸法測定プログラムに関する。   The present invention relates to a dimension measuring device, a dimension measuring method, and a dimension measuring program.

従来、携帯電話等の電子機器では、カメラにより対象物を撮像し、撮像した対象物の画像を用いて対象物の寸法を測定するものが知られている。かかる電子機器としては、例えば、予め寸法が既知であるクレジットカードなどの参照物を対象物とともにカメラで撮像し、撮像した対象物の画像の大きさと参照物の画像の大きさとの比に基づいて、対象物の寸法を算出する電子機器が知られている。   2. Description of the Related Art Conventionally, electronic devices such as mobile phones are known that take an image of an object with a camera and measure the size of the object using an image of the imaged object. As such an electronic device, for example, a reference object such as a credit card whose dimensions are known in advance is imaged with a camera together with the object, and based on a ratio between the image size of the captured object and the image size of the reference object. An electronic device that calculates the size of an object is known.

また、例えば、カメラのレンズから対象物までの距離を検出し、検出した距離と、既知であるレンズの焦点距離およびカメラの撮像素子の寸法とに基づいて、対象物の寸法を算出する電子機器が知られている。   Further, for example, an electronic device that detects the distance from the lens of the camera to the object and calculates the size of the object based on the detected distance, the known focal length of the lens, and the size of the imaging element of the camera It has been known.

特開2006−261995号公報JP 2006-261995 A 特開2005−142938号公報JP 2005-142938 A 特開2005−274272号公報JP 2005-274272 A 特開2004−37396号公報JP 2004-37396 A 特開2008−211409号公報JP 2008-211409 A

しかしながら、上記した従来の技術では、以下に示す問題点があった。すなわち、参照物の画像を用いて対象物の寸法を算出する従来技術では、事前に対象物の隣に参照物を置く作業が発生するため、寸法の測定が全体として煩雑なものとなる。   However, the conventional techniques described above have the following problems. That is, in the conventional technique for calculating the dimension of the object using the image of the reference object, the work of placing the reference object next to the object occurs in advance, and thus the measurement of the dimension becomes complicated as a whole.

また、対象物と垂直に面しているかを計測しないまま、対象物までの距離を検出して、対象物の寸法を測定する従来技術では、寸法の測定精度が低下する恐れがある。例えば、この従来技術では、カメラの光軸が対象物に対して傾斜している場合に、カメラの撮像素子に投影される対象物の画像が歪むため、対象物の寸法を精度良く算出することが困難となる。   In addition, in the conventional technique in which the distance to the object is detected and the dimension of the object is measured without measuring whether the object is perpendicular to the object, the measurement accuracy of the dimension may be lowered. For example, in this prior art, when the optical axis of the camera is tilted with respect to the object, the image of the object projected on the image sensor of the camera is distorted. It becomes difficult.

開示の技術は、上記に鑑みてなされたものであって、対象物の寸法を簡易かつ高精度に測定することができる寸法測定装置、寸法測定方法および寸法測定プログラムを提供することを目的とする。   The disclosed technique has been made in view of the above, and an object thereof is to provide a dimension measuring apparatus, a dimension measuring method, and a dimension measuring program capable of measuring the dimension of an object simply and with high accuracy. .

本願の開示する寸法測定装置は、取得部と、登録部と、表示制御部と、寸法算出部とを備える。取得部は、撮像部により撮像される対象物と自装置とが接触した状態における前記撮像部の傾斜である接触傾斜を取得する。登録部は、前記撮像部により前記対象物の画像が撮像される際に、前記撮像部から前記対象物までの距離と前記撮像部の傾斜とを取得し、取得した前記距離および前記傾斜を前記対象物の画像ごとに対応付けて画像情報記憶部に登録する。表示制御部は、前記接触傾斜に対応する前記対象物の画像および前記距離を前記画像情報記憶部から抽出し、抽出された前記対象物の画像とともに前記対象物の画像に重畳される一対の枠を表示部に表示させる。寸法算出部は、前記表示制御部により表示部に表示された前記枠の表示位置および前記接触傾斜に対応する前記距離に基づいて前記対象物の寸法を算出する。   The dimension measuring device disclosed in the present application includes an acquisition unit, a registration unit, a display control unit, and a dimension calculation unit. An acquisition part acquires the contact inclination which is the inclination of the said imaging part in the state which the target object imaged by the imaging part and the own apparatus contacted. The registration unit acquires a distance from the imaging unit to the object and an inclination of the imaging unit when an image of the object is captured by the imaging unit, and the acquired distance and the inclination are Each image of the object is registered in association with the image information storage unit. The display control unit extracts the image of the object and the distance corresponding to the contact inclination from the image information storage unit, and a pair of frames superimposed on the image of the object together with the extracted image of the object Is displayed on the display. The dimension calculation unit calculates the dimension of the object based on the display position of the frame displayed on the display unit by the display control unit and the distance corresponding to the contact inclination.

本願の開示する寸法測定装置の一つの態様によれば、対象物の寸法を簡易かつ高精度に測定することができるという効果を奏する。   According to one aspect of the dimension measuring apparatus disclosed in the present application, there is an effect that the dimension of the object can be measured easily and with high accuracy.

図1は、本実施例に係る携帯電話機により実行される寸法測定方法を説明するための図である。FIG. 1 is a diagram for explaining a dimension measuring method executed by the mobile phone according to the present embodiment. 図2は、図1に示した携帯電話機の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of the mobile phone shown in FIG. 図3は、画像情報記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of the image information storage unit. 図4は、ガイド情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of the guide information storage unit. 図5は、枠情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of the frame information storage unit. 図6は、表示部に表示された枠およびガイドを示す図である。FIG. 6 is a diagram illustrating a frame and a guide displayed on the display unit. 図7は、対象物の寸法を算出する処理(その1)を説明するための図である。FIG. 7 is a diagram for explaining the process (part 1) for calculating the dimensions of the object. 図8は、対象物の寸法を算出する処理(その2)を説明するための図である。FIG. 8 is a diagram for explaining the process (part 2) for calculating the dimension of the object. 図9は、図1に示した携帯電話機による寸法測定処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure of dimension measurement processing by the mobile phone shown in FIG. 図10は、対象物としてソファーの背もたれの寸法を測定する携帯電話機の全体の処理を説明するための図である。FIG. 10 is a diagram for explaining the entire processing of the mobile phone that measures the size of the backrest of the sofa as an object. 図11は、対象物としてソファーの背もたれの寸法を測定する携帯電話機の全体の処理を説明するための図である。FIG. 11 is a diagram for explaining the overall processing of the mobile phone that measures the size of the backrest of the sofa as an object. 図12は、対象物としてソファーの背もたれの寸法を測定する携帯電話機の全体の処理を説明するための図である。FIG. 12 is a diagram for explaining the entire process of the mobile phone for measuring the size of the backrest of the sofa as an object. 図13は、カメラから対象物までの距離を取得する処理を説明するための図である。FIG. 13 is a diagram for explaining processing for acquiring the distance from the camera to the object. 図14は、表示部の中心からクレジットカードの一端までの画素数とクレジットカードの一辺の画素数とクレジットカードの寸法との関係を説明するための図である。FIG. 14 is a diagram for explaining the relationship between the number of pixels from the center of the display unit to one end of the credit card, the number of pixels on one side of the credit card, and the size of the credit card. 図15は、登録部により保持される内部テーブルの構成例を示す図である。FIG. 15 is a diagram illustrating a configuration example of an internal table held by the registration unit. 図16は、実施例に係る携帯電話機を構成するコンピュータのハードウェア構成を示す図である。FIG. 16 is a diagram illustrating a hardware configuration of a computer that constitutes the mobile phone according to the embodiment.

以下に、本願の開示する寸法測定装置、寸法測定方法および寸法測定プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。例えば、以下では、本願の開示する寸法測定装置を携帯電話機に提供する例を説明するが、これに限らず、PDA(Personal Digital Assistant)などの他の電子機器に本願の開示する寸法測定装置を適用してもよい。   Embodiments of a dimension measuring apparatus, a dimension measuring method, and a dimension measuring program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. For example, an example in which the dimension measuring device disclosed in the present application is provided to a mobile phone will be described below. However, the present invention is not limited thereto, and the dimension measuring device disclosed in the present application is applied to other electronic devices such as a PDA (Personal Digital Assistant). You may apply.

まず、本実施例に係る携帯電話機により実行される寸法測定方法について説明する。図1は、本実施例に係る携帯電話機により実行される寸法測定方法を説明するための図である。   First, a dimension measuring method executed by the mobile phone according to the present embodiment will be described. FIG. 1 is a diagram for explaining a dimension measuring method executed by the mobile phone according to the present embodiment.

図1に示すように、本実施例に係る携帯電話機10は、カメラ14、傾斜センサ15および距離計16を備える。カメラ14は、CCD(Charge Coupled Device)等の撮像素子を含む撮像装置であり、対象物の画像を撮像する。   As shown in FIG. 1, the mobile phone 10 according to the present embodiment includes a camera 14, a tilt sensor 15, and a distance meter 16. The camera 14 is an imaging device including an imaging element such as a CCD (Charge Coupled Device), and captures an image of an object.

傾斜センサ15は、3軸式の加速度センサであり、カメラ14の傾斜を加速度値として検出する。この傾斜センサ15は、傾斜センサ15の3軸のうち2軸で形成される平面(図1のxy平面)とカメラ14の光軸とが垂直となるように、携帯電話機10に設置されているものとする。距離計16は、光学式や超音波式の距離計であり、カメラ14から対象物までの距離を計測する。   The tilt sensor 15 is a triaxial acceleration sensor, and detects the tilt of the camera 14 as an acceleration value. The tilt sensor 15 is installed in the mobile phone 10 so that a plane formed by two of the three axes of the tilt sensor 15 (xy plane in FIG. 1) and the optical axis of the camera 14 are perpendicular to each other. Shall. The distance meter 16 is an optical or ultrasonic distance meter, and measures the distance from the camera 14 to the object.

携帯電話機10は、カメラ14により撮像される対象物と携帯電話機10とが接触した状態におけるカメラ14の傾斜である接触傾斜を取得する(図1の(1)参照)。具体的には、携帯電話機10は、対象物と携帯電話機10とが接触した状態で傾斜センサ15を用いてカメラ14の光軸の傾斜を所定時間検出し、検出したカメラ14の光軸の傾斜を接触傾斜として取得する。なお、携帯電話機10は、取得した接触傾斜を所定の記憶部に格納する。   The mobile phone 10 acquires a contact inclination that is an inclination of the camera 14 in a state where the object imaged by the camera 14 and the mobile phone 10 are in contact (see (1) in FIG. 1). Specifically, the mobile phone 10 detects the tilt of the optical axis of the camera 14 for a predetermined time using the tilt sensor 15 in a state where the object and the mobile phone 10 are in contact with each other, and the tilt of the detected optical axis of the camera 14 is detected. Is obtained as the contact inclination. Note that the mobile phone 10 stores the acquired contact inclination in a predetermined storage unit.

続いて、携帯電話機10は、カメラ14により対象物の画像が撮像される際に、カメラ14から対象物までの距離とカメラ14の傾斜とを取得し、取得した距離および傾斜を対象物の画像ごとに対応付けて画像情報記憶部17bに登録する(図1の(2)参照)。具体的には、携帯電話機10は、携帯電話機10が対象物から離反された状態でカメラ14により対象物の画像が撮像される際に、距離計16を用いてカメラ14から対象物までの距離を取得し、傾斜センサ15を用いてカメラ14の光軸の傾斜を取得する。そして、携帯電話機10は、取得した距離および傾斜を撮像した対象物の画像ごとに対応付けて画像情報記憶部17bに登録する。   Subsequently, when the image of the object is captured by the camera 14, the mobile phone 10 acquires the distance from the camera 14 to the object and the inclination of the camera 14, and uses the acquired distance and inclination as the image of the object. Are registered in the image information storage unit 17b in association with each other (see (2) in FIG. 1). Specifically, the mobile phone 10 uses the distance meter 16 to measure the distance from the camera 14 to the target when the camera 14 captures an image of the target while the mobile phone 10 is separated from the target. And the inclination of the optical axis of the camera 14 is acquired using the inclination sensor 15. Then, the mobile phone 10 registers the acquired distance and inclination in the image information storage unit 17b in association with each image of the target object.

続いて、携帯電話機10は、接触傾斜に対応する対象物の画像および距離を画像情報記憶部17bから抽出し、抽出された対象物の画像とともに対象物の画像に重畳される一対の枠を表示部に表示させる(図1の(3)参照)。具体的には、携帯電話機10は、接触傾斜に対応する対象物とともに、この対象物を挟み込むように一対の枠を表示部に表示させる。   Subsequently, the mobile phone 10 extracts the image and distance of the object corresponding to the contact inclination from the image information storage unit 17b, and displays a pair of frames superimposed on the image of the object together with the extracted image of the object. (See (3) in FIG. 1). Specifically, the mobile phone 10 displays a pair of frames on the display unit so as to sandwich the object together with the object corresponding to the contact inclination.

続いて、携帯電話機10は、表示部に表示された枠の表示位置と接触傾斜に対応する距離とに基づいて対象物の寸法を算出する(図1の(4)参照)。具体的には、携帯電話機10は、枠の表示位置と枠の画角との対応関係を含んだテーブルを保持し、かかるテーブルから枠の画角を求め、求めた枠の画角と接触傾斜に対応する距離とを三角関数に適用して対象物の寸法を算出する。   Subsequently, the mobile phone 10 calculates the dimensions of the object based on the display position of the frame displayed on the display unit and the distance corresponding to the contact inclination (see (4) in FIG. 1). Specifically, the mobile phone 10 holds a table including the correspondence between the display position of the frame and the angle of view of the frame, obtains the angle of view of the frame from the table, and obtains the angle of view of the frame and the contact inclination. The distance corresponding to is applied to the trigonometric function to calculate the size of the object.

ここで、カメラ14の傾斜が接触傾斜となった場合には、カメラ14が対象物に対して垂直に正対していることとなる。言い換えると、カメラ14の傾斜が接触傾斜となった場合には、カメラ14の光軸が対象物に対して垂直となる。携帯電話機10は、光軸が対象物に対して垂直となったカメラ14で撮像された対象物を挟む一対の枠と、光軸が対象物に対して垂直となったカメラ14から対象物までの距離とを用いて対象物の寸法を算出することができる。結果として、携帯電話機10は、対象物の寸法を精度よく算出することができる。また、携帯電話機10は、参照物の画像を用いて対象物の寸法を算出する従来技術と異なり、事前に対象物の隣に参照物を置く作業を不要化することができる。つまり、本実施例に係る携帯電話機10は、対象物の寸法を容易かつ高精度に測定することができる。   Here, when the inclination of the camera 14 is a contact inclination, the camera 14 is directly facing the object. In other words, when the tilt of the camera 14 becomes a contact tilt, the optical axis of the camera 14 is perpendicular to the object. The mobile phone 10 includes a pair of frames sandwiching an object captured by the camera 14 whose optical axis is perpendicular to the object, and the camera 14 to the object whose optical axis is perpendicular to the object. The distance of the object can be used to calculate the dimensions of the object. As a result, the mobile phone 10 can accurately calculate the size of the object. Further, unlike the prior art in which the size of the object is calculated using the image of the reference object, the mobile phone 10 can eliminate the work of placing the reference object next to the object in advance. That is, the mobile phone 10 according to the present embodiment can easily and accurately measure the size of the object.

次に、図1に示した携帯電話機10の構成を説明する。図2は、図1に示した携帯電話機10の構成を示すブロック図である。図2に示すように、携帯電話機10は、入力部11、表示部12、無線通信部13、カメラ14、傾斜センサ15、距離計16、記憶部17および制御部18を有する。   Next, the configuration of the mobile phone 10 shown in FIG. 1 will be described. FIG. 2 is a block diagram showing a configuration of the mobile phone 10 shown in FIG. As shown in FIG. 2, the mobile phone 10 includes an input unit 11, a display unit 12, a wireless communication unit 13, a camera 14, a tilt sensor 15, a distance meter 16, a storage unit 17, and a control unit 18.

入力部11は、操作キーやタッチパネルなどを含み、携帯電話機10のユーザによる各種の情報を受け付ける。例えば、入力部11は、携帯電話機10のユーザから対象物の寸法を測定する旨の要求を受け付ける。また、例えば、入力部11は、カメラ14による対象物の撮像を開始する旨の要求を受け付けたり、カメラ14による対象物の撮像を停止する旨の要求を受け付けたりする。また、例えば、入力部11は、表示部12に表示された対象物の寸法を測定するための枠の表示位置を変更する旨の要求を受け付ける。   The input unit 11 includes operation keys, a touch panel, and the like, and receives various types of information from the user of the mobile phone 10. For example, the input unit 11 receives a request for measuring the size of an object from the user of the mobile phone 10. Further, for example, the input unit 11 accepts a request for starting imaging of the object by the camera 14 or accepts a request for stopping imaging of the object by the camera 14. For example, the input unit 11 accepts a request to change the display position of a frame for measuring the dimensions of the object displayed on the display unit 12.

表示部12は、ディスプレイやスピーカを含み、各種の情報を出力する。例えば、表示部12は、対象物の画像や、対象物の画像に重畳される枠を表示出力する。また、例えば、表示部12は、対象物の寸法を表示出力する。無線通信部13は、ネットワークと通信し、通話、メールおよびインターネットに関する各種の無線通信を行う。   The display unit 12 includes a display and a speaker and outputs various types of information. For example, the display unit 12 displays and outputs an image of the object and a frame superimposed on the image of the object. Further, for example, the display unit 12 displays and outputs the dimensions of the object. The wireless communication unit 13 communicates with the network, and performs various wireless communications related to calls, mails, and the Internet.

カメラ14は、CCD等の撮像素子を含む撮像装置であり、対象物の画像を撮像し、撮像した画像を制御部18へ出力する。傾斜センサ15は、3軸式の加速度センサであり、カメラ14の傾斜を加速度値として検出し、検出したカメラ14の傾斜を制御部18へ出力する。傾斜センサ15は、傾斜センサ15の3軸のうち2軸で形成される平面とカメラ14の光軸とが垂直となるように、携帯電話機10に設置されているものとする。距離計16は、光学式や超音波式の距離計であり、カメラ14から対象物までの距離を計測する。   The camera 14 is an imaging device including an imaging element such as a CCD, captures an image of an object, and outputs the captured image to the control unit 18. The tilt sensor 15 is a triaxial acceleration sensor, detects the tilt of the camera 14 as an acceleration value, and outputs the detected tilt of the camera 14 to the control unit 18. The tilt sensor 15 is installed in the mobile phone 10 so that a plane formed by two of the three axes of the tilt sensor 15 and the optical axis of the camera 14 are perpendicular to each other. The distance meter 16 is an optical or ultrasonic distance meter, and measures the distance from the camera 14 to the object.

記憶部17は、制御部18による各種処理に必要なデータや、制御部18による各種処理結果を記憶する。記憶部17は、接触傾斜記憶部17a、画像情報記憶部17b、ガイド情報記憶部17cおよび枠情報記憶部17dを有する。   The storage unit 17 stores data necessary for various processes by the control unit 18 and various processing results by the control unit 18. The storage unit 17 includes a contact inclination storage unit 17a, an image information storage unit 17b, a guide information storage unit 17c, and a frame information storage unit 17d.

接触傾斜記憶部17aは、カメラ14により撮像される対象物と携帯電話機10とが接触した状態におけるカメラ14の傾斜である接触傾斜を記憶する。具体的には、対象物と携帯電話機10とが接触した状態におけるカメラ14の光軸の傾斜を接触傾斜として記憶する。   The contact inclination storage unit 17a stores a contact inclination that is an inclination of the camera 14 in a state where the object captured by the camera 14 and the mobile phone 10 are in contact with each other. Specifically, the inclination of the optical axis of the camera 14 in a state where the object and the mobile phone 10 are in contact is stored as the contact inclination.

画像情報記憶部17bは、カメラ14により撮像された対象物の画像ごとに、傾斜センサ15により検出された傾斜と、距離計16により計測された距離とを対応づけて記憶する。画像情報記憶部17bの一例を図3に示す。図3に例示するように、画像情報記憶部17bは、「画像ID」、「傾斜」および「距離」といった項目を対応付けて記憶する。「画像ID」は、カメラ14により撮像された対象物の画像を識別する識別情報を示す。「傾斜」は、傾斜センサ15により検出されたカメラ14の傾斜を示す。「距離」は、カメラ14から対象物までの距離を示す。例えば、画像情報記憶部17bは、「画像ID」として「001」、「傾斜」として「x1」、「距離」として「d1」などを記憶する。   The image information storage unit 17 b stores the inclination detected by the inclination sensor 15 and the distance measured by the distance meter 16 in association with each image of the object captured by the camera 14. An example of the image information storage unit 17b is shown in FIG. As illustrated in FIG. 3, the image information storage unit 17 b stores items such as “image ID”, “tilt”, and “distance” in association with each other. “Image ID” indicates identification information for identifying an image of an object captured by the camera 14. “Tilt” indicates the tilt of the camera 14 detected by the tilt sensor 15. “Distance” indicates the distance from the camera 14 to the object. For example, the image information storage unit 17b stores “001” as the “image ID”, “x1” as the “tilt”, “d1” as the “distance”, and the like.

ガイド情報記憶部17cは、対象物の画像を撮像する際のカメラ14の傾斜に応じて表示部12に表示されるガイドに関する情報を記憶する。ガイド情報記憶部17cの一例を図4に示す。図4に例示するように、ガイド情報記憶部17cは、「傾斜範囲」および「表示位置」といった項目を対応付けて記憶する。「傾斜範囲」は、傾斜センサ15により検出されるカメラ14の傾斜の範囲を示す。「表示位置」は、カメラ14の傾斜に応じて表示部12に表示されるガイドの画素位置を示す。また、例えば、ガイド情報記憶部17cの3行目は、カメラ14の傾斜が範囲「−2.5以上〜−1.5未満」に属する場合に、表示部12の画素位置「−2γ」にガイドが表示されることを示す。また、例えば、ガイド情報記憶部17cの5行目は、カメラ14の傾斜が範囲「−0.5以上〜0.5未満」に属する場合に、表示部12の画素位置「0」にガイドが表示されることを示す。また、例えば、ガイド情報記憶部17cの7行目は、カメラ14の傾斜が範囲「1.5以上〜2.5未満」に属する場合に、表示部12の画素位置「2γ」にガイドが表示されることを示す。   The guide information storage unit 17c stores information related to the guide displayed on the display unit 12 according to the tilt of the camera 14 when an image of the object is captured. An example of the guide information storage unit 17c is shown in FIG. As illustrated in FIG. 4, the guide information storage unit 17c stores items such as “inclination range” and “display position” in association with each other. The “tilt range” indicates the tilt range of the camera 14 detected by the tilt sensor 15. “Display position” indicates the pixel position of the guide displayed on the display unit 12 according to the tilt of the camera 14. Further, for example, the third row of the guide information storage unit 17 c is set to the pixel position “−2γ” of the display unit 12 when the tilt of the camera 14 belongs to the range “−2.5 or more to less than −1.5”. Indicates that a guide is displayed. Further, for example, in the fifth row of the guide information storage unit 17c, when the tilt of the camera 14 belongs to the range “−0.5 or more to less than 0.5”, a guide is placed at the pixel position “0” of the display unit 12. Indicates that it will be displayed. Further, for example, in the seventh row of the guide information storage unit 17c, when the tilt of the camera 14 belongs to the range “1.5 to less than 2.5”, the guide is displayed at the pixel position “2γ” of the display unit 12. Indicates that

枠情報記憶部17dは、対象物の画像に重畳される一対の枠の表示位置とこの枠の画角との対応関係を記憶する。枠情報記憶部17dの一例を図5に示す。図5に例示するように、枠情報記憶部17dは、「枠ID」、「表示位置」および「画角」といった項目を対応付けて記憶する。「枠ID」は、対象物の画像に重畳される枠を識別する識別情報を示す。「表示位置」は、表示部12に表示される枠の画素位置を示す。「画角」は、表示部12に表示される枠の画角を示す。例えば、枠情報記憶部17dの1行目は、表示部12の画素位置「p1」に表示された枠「001」の画角が「α1」であることを示す。また、例えば、枠情報記憶部17dの2行目は、表示部12の画素位置「p2」に表示された枠「002」の画角が「α2」であることを示す。   The frame information storage unit 17d stores the correspondence between the display position of the pair of frames superimposed on the image of the object and the angle of view of the frame. An example of the frame information storage unit 17d is shown in FIG. As illustrated in FIG. 5, the frame information storage unit 17 d stores items such as “frame ID”, “display position”, and “view angle” in association with each other. “Frame ID” indicates identification information for identifying a frame to be superimposed on the image of the object. “Display position” indicates a pixel position of a frame displayed on the display unit 12. “Field angle” indicates the field angle of the frame displayed on the display unit 12. For example, the first row of the frame information storage unit 17d indicates that the angle of view of the frame “001” displayed at the pixel position “p1” of the display unit 12 is “α1”. For example, the second row of the frame information storage unit 17d indicates that the angle of view of the frame “002” displayed at the pixel position “p2” of the display unit 12 is “α2”.

制御部18は、各種の処理手順などを規定したプログラムを格納する内部メモリを有し、携帯電話機10における種々の処理を実行する処理部である。制御部18は、接触傾斜取得部18a、登録部18b、表示制御部18c、変更部18dおよび寸法算出部18eを有する。   The control unit 18 has an internal memory that stores a program that defines various processing procedures and the like, and is a processing unit that executes various processes in the mobile phone 10. The control unit 18 includes a contact inclination acquisition unit 18a, a registration unit 18b, a display control unit 18c, a change unit 18d, and a dimension calculation unit 18e.

接触傾斜取得部18aは、カメラ14により撮像される対象物と携帯電話機10とが接触した状態におけるカメラ14の傾斜である接触傾斜を取得する。具体的には、接触傾斜取得部18aは、対象物と携帯電話機10とが接触した状態で傾斜センサ15を用いてカメラ14の光軸の傾斜を所定時間検出し、検出したカメラ14の光軸の傾斜を接触傾斜として取得する。接触傾斜取得部18aは、取得した接触傾斜を接触傾斜記憶部17aに格納する。   The contact inclination acquisition unit 18a acquires a contact inclination that is an inclination of the camera 14 in a state where the object imaged by the camera 14 and the mobile phone 10 are in contact with each other. Specifically, the contact inclination acquisition unit 18a detects the inclination of the optical axis of the camera 14 for a predetermined time using the inclination sensor 15 in a state where the object and the mobile phone 10 are in contact with each other, and the detected optical axis of the camera 14 is detected. Is obtained as the contact inclination. The contact inclination acquisition unit 18a stores the acquired contact inclination in the contact inclination storage unit 17a.

登録部18bは、カメラ14により対象物の画像が撮像される際に、カメラ14から対象物までの距離とカメラ14の傾斜とを取得し、取得した距離および傾斜を対象物の画像ごとに対応付けて画像情報記憶部17bに登録する。具体的には、登録部18bは、携帯電話機10が対象物から離反された状態でカメラ14により対象物の画像が撮像される際に、距離計16を用いてカメラ14から対象物までの距離を取得し、傾斜センサ15を用いてカメラ14の光軸の傾斜を取得する。そして、登録部18bは、取得した距離および傾斜を撮像した対象物の画像ごとに対応付けて画像情報記憶部17bに登録する。   When the image of the object is captured by the camera 14, the registration unit 18b acquires the distance from the camera 14 to the object and the inclination of the camera 14, and corresponds the acquired distance and inclination for each image of the object. At the same time, it is registered in the image information storage unit 17b. Specifically, the registration unit 18b uses the distance meter 16 to detect the distance from the camera 14 to the object when the camera 14 captures an image of the object while the mobile phone 10 is separated from the object. And the inclination of the optical axis of the camera 14 is acquired using the inclination sensor 15. Then, the registration unit 18b registers the acquired distance and inclination in the image information storage unit 17b in association with each image of the captured object.

表示制御部18cは、接触傾斜に対応する対象物の画像および距離を画像情報記憶部17bから抽出し、抽出された対象物の画像とともに対象物の画像に重畳される一対の枠を表示部12に表示させる。具体的には、表示制御部18cは、接触傾斜記憶部17aに格納された接触傾斜を読み出し、読み出した接触傾斜をキーとして画像情報記憶部17bを探索する。そして、表示制御部18cは、接触傾斜と一致する傾斜に対応付けられた対象物の画像および距離を画像情報記憶部17bから抽出し、抽出した対象物の画像を表示部12に表示させる。なお、画像情報記憶部17bから抽出された距離は、寸法算出部18eに通知される。そして、表示制御部18cは、表示部12に表示された対象物の画像に所定の画像処理を施して対象物のエッジを抽出し、抽出したエッジの画素位置と一致する表示位置に対応する一対の枠を枠情報記憶部17dから読み出す。そして、表示制御部18cは、読み出した一対の枠を対象物を挟み込むようにして表示部12に表示させる。背景と対象物の区別が困難であり、エッジが抽出できない場合は、画面の1/4、3/4の位置に一対の枠を対象物を挟み込むようにして表示部12に表示させる。   The display control unit 18c extracts the image and distance of the object corresponding to the contact inclination from the image information storage unit 17b, and displays a pair of frames superimposed on the image of the object together with the extracted image of the object. To display. Specifically, the display control unit 18c reads the contact inclination stored in the contact inclination storage unit 17a, and searches the image information storage unit 17b using the read contact inclination as a key. Then, the display control unit 18c extracts the image and distance of the object associated with the inclination that matches the contact inclination from the image information storage unit 17b, and causes the display unit 12 to display the extracted image of the object. The distance extracted from the image information storage unit 17b is notified to the dimension calculation unit 18e. Then, the display control unit 18c performs predetermined image processing on the image of the object displayed on the display unit 12 to extract the edge of the object, and a pair corresponding to the display position corresponding to the pixel position of the extracted edge. Are read from the frame information storage unit 17d. Then, the display control unit 18c causes the display unit 12 to display the read pair of frames so as to sandwich the object. When it is difficult to distinguish the background from the object and an edge cannot be extracted, a pair of frames are displayed on the display unit 12 so as to sandwich the object at positions 1/4 and 3/4 of the screen.

また、表示制御部18cは、カメラ14により対象物の画像が撮像される際に、登録部18bにより取得されるカメラ14の傾斜に応じて移動するガイドを表示部12に表示させる。具体的には、表示制御部18cは、ガイド情報記憶部17cを参照して、登録部18bにより取得されるカメラ14の傾斜が属する傾斜範囲を特定し、特定した傾斜範囲に対応する表示部12の表示位置にガイドを表示させる。   The display control unit 18c causes the display unit 12 to display a guide that moves according to the inclination of the camera 14 acquired by the registration unit 18b when the camera 14 captures an image of the object. Specifically, the display control unit 18c refers to the guide information storage unit 17c, specifies the tilt range to which the tilt of the camera 14 acquired by the registration unit 18b belongs, and the display unit 12 corresponding to the specified tilt range. The guide is displayed at the display position.

ここで、表示制御部18cにより表示部12に表示された枠およびガイドの一例を図6に示す。図6は、表示部12に表示された枠およびガイドを示す図である。表示部12には、図6に示すように、対象物の画像とともに対象物を挟み込むようにして一対の枠が表示される。携帯電話機10のユーザは、携帯電話機10を対象物から離反させ、表示部12を確認しつつ一対の枠に挟まれた対象物をカメラ14により撮像する。さらに、表示部12には、図6に示すように、カメラ14により対象物の画像が撮像される際に、カメラ14の傾斜に応じて移動する円形状のガイドが表示される。携帯電話機10のユーザは、カメラ14により対象物の画像を撮像する場合に、円形状のガイドの移動を確認することによりカメラ14の傾斜の度合いを視覚的に把握することができる。   Here, an example of a frame and a guide displayed on the display unit 12 by the display control unit 18c is shown in FIG. FIG. 6 is a diagram illustrating a frame and a guide displayed on the display unit 12. As shown in FIG. 6, the display unit 12 displays a pair of frames so as to sandwich the object together with the image of the object. The user of the mobile phone 10 moves the mobile phone 10 away from the object, and images the object sandwiched between the pair of frames while checking the display unit 12. Further, as shown in FIG. 6, a circular guide that moves according to the inclination of the camera 14 is displayed on the display unit 12 when an image of the object is captured by the camera 14. When the user of the mobile phone 10 captures an image of an object with the camera 14, the user can visually grasp the degree of inclination of the camera 14 by confirming the movement of the circular guide.

図2の説明に戻り、変更部18dは、表示制御部18cにより表示部12に表示された枠の表示位置を変更する。具体的には、変更部18dは、表示部12に表示された一対の枠のうち一方の枠の変更を入力部11から受け付けた場合には、変更後の枠の識別情報に対応する表示位置に一方の枠を再表示するよう表示制御部18cに指示する。一方、変更部18dは、表示部12に表示された他方の枠の変更を入力部11から受け付けた場合には、変更後の枠の識別情報に対応する表示位置に他方の枠を再表示するよう表示制御部18cに指示する。   Returning to the description of FIG. 2, the changing unit 18d changes the display position of the frame displayed on the display unit 12 by the display control unit 18c. Specifically, when the change unit 18d receives a change of one of the pair of frames displayed on the display unit 12 from the input unit 11, the display position corresponding to the identification information of the frame after the change. The display control unit 18c is instructed to redisplay one frame. On the other hand, when the change unit 18d receives the change of the other frame displayed on the display unit 12 from the input unit 11, the change unit 18d redisplays the other frame at the display position corresponding to the changed frame identification information. The display control unit 18c is instructed.

寸法算出部18eは、表示制御部18cにより表示部12に表示された枠の表示位置と接触傾斜に対応する距離とに基づいて対象物の寸法を算出する。具体的には、寸法算出部18eは、接触傾斜に対応する距離を表示制御部18cから受け取る。そして、寸法算出部18eは、表示制御部18cにより表示部12に表示された枠の表示位置に対応する枠の画角を枠情報記憶部17dから求める。そして、寸法算出部18eは、求めた枠の画角と接触傾斜に対応する距離とを三角関数に適用して対象物の寸法を算出する。   The size calculation unit 18e calculates the size of the object based on the display position of the frame displayed on the display unit 12 by the display control unit 18c and the distance corresponding to the contact inclination. Specifically, the dimension calculation unit 18e receives a distance corresponding to the contact inclination from the display control unit 18c. Then, the dimension calculation unit 18e obtains the frame angle of view corresponding to the display position of the frame displayed on the display unit 12 from the frame information storage unit 17d by the display control unit 18c. Then, the dimension calculation unit 18e calculates the dimension of the object by applying the obtained frame angle of view and the distance corresponding to the contact inclination to the trigonometric function.

また、寸法算出部18eは、変更部18dにより枠の表示位置が変更された場合には、変更後の枠の表示位置に対応する枠の画角と接触傾斜に対応する距離とに基づいて対象物の寸法を算出する。   In addition, when the display position of the frame is changed by the changing unit 18d, the dimension calculating unit 18e is based on the angle of view of the frame corresponding to the changed frame display position and the distance corresponding to the contact inclination. Calculate the dimensions of the object.

ここで、寸法算出部18eが、対象物の寸法を算出する処理の一例について具体的に説明する。図7は、対象物の寸法を算出する処理(その1)を説明するための図である。図7に示すように、寸法算出部18eは、接触傾斜に対応する距離dを表示制御部18cから受け取る。そして、寸法算出部18eは、表示部12に表示された枠の表示位置pに対応する枠の画角αを枠情報記憶部17dから求める。そして、寸法算出部18eは、求めた枠の画角αと接触傾斜に対応する距離dを用いて、以下の式(1)で示す演算を行うことにより、対象物の寸法lを算出する。
l=2・d・tanα ・・・ (1)
Here, an example of a process in which the dimension calculation unit 18e calculates the dimension of the target object will be specifically described. FIG. 7 is a diagram for explaining the process (part 1) for calculating the dimensions of the object. As shown in FIG. 7, the dimension calculation unit 18e receives a distance d corresponding to the contact inclination from the display control unit 18c. Then, the dimension calculation unit 18e obtains the frame angle of view α corresponding to the display position p of the frame displayed on the display unit 12 from the frame information storage unit 17d. Then, the dimension calculation unit 18e calculates the dimension l of the target object by performing the calculation represented by the following formula (1) using the obtained angle of view α of the frame and the distance d corresponding to the contact inclination.
l = 2 · d · tanα (1)

また、寸法算出部18eは、変更部18dにより枠の表示位置が変更された場合には、以下の図8で説明するようにして、対象物の寸法を算出する。図8は、対象物の寸法を算出する処理(その2)を説明するための図である。図8では、変更部18dによって、表示部12に表示された一対の枠のうち一方の枠が表示位置p1に変更され、他方の枠が表示位置p2に変更されているものとする。図8に示すように、寸法算出部18eは、接触傾斜に対応する距離dを表示制御部18cから受け取る。そして、寸法算出部18eは、変更部18dにより変更された枠の表示位置p1、p2に対応する枠の画角α1、α2を枠情報記憶部17dからそれぞれ求める。そして、寸法算出部18eは、求めた枠の画角α1、α2と接触傾斜に対応する距離dを用いて、以下の式(2)で示す演算を行うことにより、対象物の寸法lを算出する。
l=d・tanα1+d・tanα2 ・・・ (2)
In addition, when the display position of the frame is changed by the changing unit 18d, the size calculating unit 18e calculates the size of the object as described in FIG. 8 below. FIG. 8 is a diagram for explaining the process (part 2) for calculating the dimension of the object. In FIG. 8, it is assumed that one of the pair of frames displayed on the display unit 12 is changed to the display position p1 and the other frame is changed to the display position p2 by the changing unit 18d. As shown in FIG. 8, the dimension calculation unit 18e receives a distance d corresponding to the contact inclination from the display control unit 18c. Then, the dimension calculation unit 18e obtains the field angles α1 and α2 of the frames corresponding to the frame display positions p1 and p2 changed by the changing unit 18d from the frame information storage unit 17d. Then, the dimension calculation unit 18e calculates the dimension l of the object by performing the calculation represented by the following expression (2) using the obtained frame angles of view α1 and α2 and the distance d corresponding to the contact inclination. To do.
l = d · tan α1 + d · tan α2 (2)

なお、図2に示した制御部18における接触傾斜取得部18a、登録部18b、表示制御部18c、変更部18dおよび寸法算出部18eは、集積装置や電子回路に対応する。集積装置は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積装置である。電子回路は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路である。   Note that the contact inclination acquisition unit 18a, the registration unit 18b, the display control unit 18c, the change unit 18d, and the size calculation unit 18e in the control unit 18 illustrated in FIG. 2 correspond to an integrated device or an electronic circuit. The integrated device is, for example, an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The electronic circuit is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit).

また、図2に示した記憶部17における接触傾斜記憶部17a、画像情報記憶部17b、ガイド情報記憶部17cおよび枠情報記憶部17dは、半導体メモリ素子や記憶装置に対応する。半導体メモリ素子は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子である。記憶装置は、ハードディスク、光ディスクなどの記憶装置である。   Further, the contact inclination storage unit 17a, the image information storage unit 17b, the guide information storage unit 17c, and the frame information storage unit 17d in the storage unit 17 illustrated in FIG. 2 correspond to semiconductor memory elements and storage devices. The semiconductor memory element is, for example, a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), and a flash memory. The storage device is a storage device such as a hard disk or an optical disk.

次に、図1に示した携帯電話機10による寸法測定処理を説明する。図9は、図1に示した携帯電話機10による寸法測定処理の処理手順を示すフローチャートである。図9に示すように、携帯電話機10は、対象物の寸法を測定する旨の要求を受け付けるまで待機する(ステップS101否定)。   Next, the dimension measurement process by the mobile phone 10 shown in FIG. 1 will be described. FIG. 9 is a flowchart showing a processing procedure of dimension measurement processing by the mobile phone 10 shown in FIG. As shown in FIG. 9, the mobile phone 10 waits until receiving a request to measure the size of the object (No at Step S101).

そして、対象物の寸法を測定する旨の要求を受け付けると(ステップS101肯定)、接触傾斜取得部18aは、カメラ14により撮像される対象物と携帯電話機10とが接触した状態におけるカメラ14の傾斜を接触傾斜として取得する(ステップS102)。接触傾斜取得部18aは、取得した接触傾斜を接触傾斜記憶部17aに格納する。   When receiving a request for measuring the size of the object (Yes in step S101), the contact inclination acquisition unit 18a inclines the camera 14 in a state where the object imaged by the camera 14 and the mobile phone 10 are in contact with each other. Is acquired as the contact inclination (step S102). The contact inclination acquisition unit 18a stores the acquired contact inclination in the contact inclination storage unit 17a.

続いて、携帯電話機10は、カメラ14による対象物の撮像を開始する(ステップS103)。例えば、携帯電話機10は、カメラ14による対象物の撮像を開始する旨の要求を入力部11から受け付けた場合に、カメラ14による対象物の撮像を開始する。また、例えば、携帯電話機10は、接触傾斜取得部18aにより接触傾斜が接触傾斜記憶部17aに格納されてから所定時間が経過した後に、カメラ14による対象物の撮像を開始してもよい。   Subsequently, the mobile phone 10 starts imaging the object with the camera 14 (step S103). For example, when the mobile phone 10 receives a request for starting imaging of an object by the camera 14 from the input unit 11, the cellular phone 10 starts imaging of the object by the camera 14. Further, for example, the mobile phone 10 may start imaging of the object by the camera 14 after a predetermined time has elapsed since the contact inclination is stored in the contact inclination storage unit 17a by the contact inclination acquisition unit 18a.

続いて、登録部18bは、カメラ14から対象物までの距離とカメラ14の傾斜とを取得し、取得した距離および傾斜を対象物の画像ごとに対応付けて画像情報記憶部17bに登録する(ステップS104)。このとき、表示制御部18cは、登録部18bにより取得されるカメラ14の傾斜に応じて移動するガイドを表示部12に表示させる。携帯電話機10のユーザは、表示部12に表示されたガイドを視認しつつ、カメラ14が対象物に対して正対するように携帯電話機10の姿勢を調整する。   Subsequently, the registration unit 18b acquires the distance from the camera 14 to the object and the inclination of the camera 14, and registers the acquired distance and inclination in the image information storage unit 17b in association with each image of the object ( Step S104). At this time, the display control unit 18c causes the display unit 12 to display a guide that moves according to the inclination of the camera 14 acquired by the registration unit 18b. The user of the mobile phone 10 adjusts the posture of the mobile phone 10 so that the camera 14 faces the object while viewing the guide displayed on the display unit 12.

続いて、携帯電話機10は、カメラ14による対象物の撮像を停止する(ステップS105)。例えば、携帯電話機10は、カメラ14による対象物の撮像を停止する旨の要求を入力部11から受け付けた場合に、カメラ14による対象物の撮像を停止する。また、例えば、携帯電話機10は、カメラ14による対象物の撮像を開始してから所定時間が経過した後に、カメラ14による対象物の撮像を停止してもよい。   Subsequently, the mobile phone 10 stops the imaging of the object by the camera 14 (step S105). For example, when the mobile phone 10 receives a request from the input unit 11 to stop imaging of the object by the camera 14, the cellular phone 10 stops imaging of the object by the camera 14. Further, for example, the mobile phone 10 may stop imaging of the object by the camera 14 after a predetermined time has elapsed since the imaging of the object by the camera 14 was started.

続いて、表示制御部18cは、接触傾斜記憶部に保存された接触傾斜に等しい接触傾斜となる対象物の画像および距離を画像情報記憶部17bから抽出し(ステップS106)、抽出された対象物の画像とともに対象物の画像に重畳される一対の枠を表示部12に表示させる(ステップS107)。   Subsequently, the display control unit 18c extracts, from the image information storage unit 17b, the image and distance of the object having a contact inclination equal to the contact inclination stored in the contact inclination storage unit (Step S106), and the extracted object A pair of frames superimposed on the image of the object together with the image of the image are displayed on the display unit 12 (step S107).

続いて、変更部18dは、表示部12に表示された一対の枠のうち一方の枠の変更を入力部11から受け付けると(ステップS108肯定)、変更後の枠の識別情報に対応する表示位置に一方の枠を再表示するよう表示制御部18cに指示する(ステップS109)。   Subsequently, when the change unit 18d receives a change of one of the pair of frames displayed on the display unit 12 from the input unit 11 (Yes in step S108), the display position corresponding to the identification information of the frame after the change. The display control unit 18c is instructed to redisplay one of the frames (step S109).

続いて、変更部18dは、表示部12に表示された一対の枠のうち他方の枠の変更を入力部11から受け付けると(ステップS110肯定)、変更後の枠の識別情報に対応する表示位置に他方の枠を再表示するよう表示制御部18cに指示する(ステップS111)。   Subsequently, when the change unit 18d receives a change of the other frame from the pair of frames displayed on the display unit 12 from the input unit 11 (Yes in step S110), the display position corresponding to the identification information of the frame after the change. The display control unit 18c is instructed to redisplay the other frame (step S111).

一方、変更部18dは、表示部12に表示された一対の枠の変更を入力部11から受け付けなかった場合(ステップS108否定、ステップS110否定)および表示部12に表示された枠の表示位置を変更した場合には、処理をステップS112へ進める。   On the other hand, when the change unit 18d does not accept the change of the pair of frames displayed on the display unit 12 from the input unit 11 (No at Step S108 and No at Step S110), the change unit 18d determines the display position of the frame displayed on the display unit 12. If changed, the process proceeds to step S112.

そして、寸法算出部18eは、表示部12に表示された枠の表示位置と接触傾斜に対応する距離とに基づいて対象物の寸法を算出する(ステップS112)。その後、表示制御部18cは、寸法算出部18eにより算出された対象物の寸法を表示部12に表示させ(ステップS113)、処理を終了する。   And the dimension calculation part 18e calculates the dimension of a target object based on the display position of the frame displayed on the display part 12, and the distance corresponding to a contact inclination (step S112). Thereafter, the display control unit 18c causes the display unit 12 to display the dimensions of the object calculated by the dimension calculation unit 18e (step S113), and ends the process.

次に、対象物としてソファーの背もたれの寸法を測定する携帯電話機10の全体の処理の具体例について、図10〜図12を用いて説明する。図10〜図12は、対象物としてソファーの背もたれの寸法を測定する携帯電話機10の全体の処理を説明するための図である。   Next, a specific example of the entire process of the mobile phone 10 that measures the size of the backrest of the sofa as an object will be described with reference to FIGS. 10-12 is a figure for demonstrating the whole process of the mobile telephone 10 which measures the dimension of the backrest of a sofa as a target object.

図10に示すように、携帯電話機10は、ソファーの背もたれの寸法を測定する旨の要求を受け付けるためのボタンである寸法測定ボタンを表示部12に表示させる(図10の(1)参照)。   As shown in FIG. 10, the cellular phone 10 displays a dimension measurement button, which is a button for receiving a request for measuring the dimension of the backrest of the sofa, on the display unit 12 (see (1) in FIG. 10).

携帯電話機10のユーザが表示部12に表示された寸法測定ボタンを選択すると、携帯電話機10は、背もたれと携帯電話機10とが接触した状態におけるカメラ14の傾斜を接触傾斜として取得する。そして、携帯電話機10は、接触傾斜を取得するか否かをユーザに問い合わせるための画面を表示部12に表示させ、接触傾斜を取得する旨のボタンをユーザが選択した場合に、取得した接触傾斜を接触傾斜記憶部17aに格納する(図10の(2)参照)。   When the user of the mobile phone 10 selects the dimension measurement button displayed on the display unit 12, the mobile phone 10 acquires the tilt of the camera 14 in a state where the backrest and the mobile phone 10 are in contact as the contact tilt. Then, the mobile phone 10 displays a screen for inquiring of the user whether or not to acquire the contact inclination on the display unit 12, and when the user selects a button for acquiring the contact inclination, the acquired contact inclination is obtained. Is stored in the contact inclination storage unit 17a (see (2) in FIG. 10).

続いて、携帯電話機10のユーザは、携帯電話機10をソファーの背もたれから離反させる。そして、背もたれから離反された携帯電話機10は、カメラ14による背もたれの撮像を開始する。そして、携帯電話機10は、カメラ14から背もたれまでの距離とカメラ14の傾斜とを取得し、取得した距離および傾斜を背もたれの画像ごとに対応付けて画像情報記憶部17bに登録する。このとき、携帯電話機10は、カメラ14の傾斜に応じて移動するガイドを表示部12に表示させる(図10の(3)参照)。   Subsequently, the user of the mobile phone 10 moves the mobile phone 10 away from the backrest of the sofa. Then, the cellular phone 10 separated from the backrest starts imaging the backrest by the camera 14. Then, the cellular phone 10 acquires the distance from the camera 14 to the backrest and the inclination of the camera 14, and registers the acquired distance and inclination in the image information storage unit 17b in association with each image of the backrest. At this time, the mobile phone 10 displays a guide that moves according to the inclination of the camera 14 on the display unit 12 (see (3) in FIG. 10).

続いて、携帯電話機10のユーザは、表示部12に表示されたガイドが所定の基準位置に存在する場合に、カメラ14による背もたれの撮像を停止する旨の要求を入力部11に入力する(図10の(4)参照)。続いて、携帯電話機10は、接触傾斜に対応する背もたれの画像および距離を画像情報記憶部17bから抽出し、抽出された背もたれの画像とともに背もたれの画像に重畳される一対の枠を表示部12に表示させる(図10の(5)参照)。   Subsequently, when the guide displayed on the display unit 12 is present at a predetermined reference position, the user of the mobile phone 10 inputs a request to stop imaging the backrest by the camera 14 to the input unit 11 (see FIG. 10 (4)). Subsequently, the mobile phone 10 extracts the backrest image and distance corresponding to the contact inclination from the image information storage unit 17b, and displays a pair of frames superimposed on the backrest image together with the extracted backrest image on the display unit 12. It is displayed (see (5) in FIG. 10).

そして、携帯電話機10は、表示部12に表示された一対の枠の変更を入力部11から受け付けなかった場合には、表示部12に表示された枠の表示位置と接触傾斜に対応する距離とに基づいて、ソファーの背もたれの寸法を算出する。例えば、携帯電話機10は、上記の式(1)で示す演算を行うことにより、ソファーの背もたれの寸法を算出する。その後、携帯電話機10は、算出されたソファーの背もたれの寸法を表示部12に表示させる(図10の(6)参照)。   When the mobile phone 10 does not accept the change of the pair of frames displayed on the display unit 12 from the input unit 11, the display position of the frame displayed on the display unit 12 and the distance corresponding to the contact inclination are displayed. Based on the above, the size of the backrest of the sofa is calculated. For example, the mobile phone 10 calculates the size of the backrest of the sofa by performing the calculation represented by the above equation (1). Thereafter, the cellular phone 10 displays the calculated size of the backrest of the sofa on the display unit 12 (see (6) in FIG. 10).

また、携帯電話機10は、表示部12に表示された一対の枠のうち一方の枠の変更を入力部11から受け付けた場合には、図11に示すような処理を実行する。なお、図11に示した(1)〜(4)の処理は、図10に示した(1)〜(4)の処理と同様であるので、ここではその説明を省略する。   When the mobile phone 10 receives a change from one of the pair of frames displayed on the display unit 12 from the input unit 11, the cellular phone 10 performs a process as shown in FIG. 11. The processes (1) to (4) shown in FIG. 11 are the same as the processes (1) to (4) shown in FIG.

携帯電話機10は、表示部12に表示された一対の枠のうち一方の枠の変更を入力部11から受け付けると、変更後の枠の識別情報に対応する表示位置に一方の枠を再表示するよう表示制御部18cに指示する(図11の(5a)および(5b)参照)。このとき、変更対象となる一方の枠を点滅表示させてもよい。   When the mobile phone 10 receives a change of one of the pair of frames displayed on the display unit 12 from the input unit 11, the mobile phone 10 redisplays one of the frames at the display position corresponding to the identification information of the frame after the change. The display control unit 18c is instructed (see (5a) and (5b) in FIG. 11). At this time, one frame to be changed may be blinked.

続いて、携帯電話機10は、変更後の枠の表示位置と接触傾斜に対応する距離とに基づいて、ソファーの背もたれの寸法を算出する。例えば、携帯電話機10は、上記の式(2)で示す演算を行うことにより、ソファーの背もたれの寸法を算出する。その後、携帯電話機10は、算出されたソファーの背もたれの寸法を表示部12に表示させる(図11の(6)参照)。   Subsequently, the mobile phone 10 calculates the size of the backrest of the sofa based on the display position of the frame after the change and the distance corresponding to the contact inclination. For example, the mobile phone 10 calculates the size of the backrest of the sofa by performing the calculation represented by the above equation (2). Thereafter, the mobile phone 10 displays the calculated size of the backrest of the sofa on the display unit 12 (see (6) in FIG. 11).

また、携帯電話機10は、表示部12に表示された両方の枠の変更を入力部11から受け付けた場合には、図12に示すような処理を実行する。なお、図12に示した(1)〜(4)の処理は、図10に示した(1)〜(4)の処理と同様であるので、ここではその説明を省略する。   In addition, when the cellular phone 10 receives the change of both frames displayed on the display unit 12 from the input unit 11, the cellular phone 10 performs a process as illustrated in FIG. The processes (1) to (4) shown in FIG. 12 are the same as the processes (1) to (4) shown in FIG.

携帯電話機10は、表示部12に表示された一対の枠のうち一方の枠の変更を入力部11から受け付けると、変更後の枠の識別情報に対応する表示位置に一方の枠を再表示するよう表示制御部18cに指示する(図12の(5c)参照)。このとき、変更対象となる一方の枠を点滅表示させてもよい。   When the mobile phone 10 receives a change of one of the pair of frames displayed on the display unit 12 from the input unit 11, the mobile phone 10 redisplays one of the frames at the display position corresponding to the identification information of the frame after the change. The display control unit 18c is instructed (see (5c) in FIG. 12). At this time, one frame to be changed may be blinked.

続いて、携帯電話機10は、表示部12に表示された他方の枠の変更を入力部11から受け付けると、変更後の枠の識別情報に対応する表示位置に他方の枠を再表示するよう表示制御部18cに指示する(図12の(5d)および(5e)参照)。このとき、変更対象となる他方の枠を点滅表示させてもよい。   Subsequently, when the mobile phone 10 receives the change of the other frame displayed on the display unit 12 from the input unit 11, the mobile phone 10 displays the other frame again at the display position corresponding to the changed frame identification information. The controller 18c is instructed (see (5d) and (5e) in FIG. 12). At this time, the other frame to be changed may be blinked.

続いて、携帯電話機10は、変更後の枠の表示位置と接触傾斜に対応する距離とに基づいて、ソファーの背もたれの寸法を算出する。例えば、携帯電話機10は、上記の式(2)で示す演算を行うことにより、ソファーの背もたれの寸法を算出する。その後、携帯電話機10は、算出されたソファーの背もたれの寸法を表示部12に表示させる(図12の(6)参照)。   Subsequently, the mobile phone 10 calculates the size of the backrest of the sofa based on the display position of the frame after the change and the distance corresponding to the contact inclination. For example, the mobile phone 10 calculates the size of the backrest of the sofa by performing the calculation represented by the above equation (2). Thereafter, the mobile phone 10 displays the calculated size of the backrest of the sofa on the display unit 12 (see (6) in FIG. 12).

上述してきたように、携帯電話機10は、対象物と自装置とが接触した状態におけるカメラ14の傾斜を接触傾斜として事前に取得し、取得した接触傾斜に対応する対象物を挟む一対の枠の表示位置と接触傾斜に対応する距離とを利用して対象物の寸法を算出する。ここで、カメラ14の傾斜が接触傾斜となった場合には、カメラ14が対象物に対して正対していることとなる。言い換えると、カメラ14の傾斜が接触傾斜となった場合には、カメラ14の光軸が対象物に対して垂直となる。携帯電話機10は、光軸が対象物に対して垂直となったカメラ14で撮像された対象物を挟む一対の枠と、光軸が対象物に対して垂直となったカメラ14から対象物までの距離とを利用して対象物の寸法を算出することができる。結果として、携帯電話機10は、対象物の寸法を精度よく算出することができる。また、携帯電話機10は、参照物の画像を用いて対象物の寸法を算出する従来技術と異なり、事前に対象物の隣に参照物を置く作業を不要化することができる。つまり、本実施例に係る携帯電話機10は、対象物の寸法を容易かつ高精度に測定することができる。   As described above, the mobile phone 10 acquires in advance the tilt of the camera 14 in a state where the target object and the own device are in contact as the contact tilt, and the pair of frames sandwiching the target object corresponding to the acquired contact tilt. The dimensions of the object are calculated using the display position and the distance corresponding to the contact inclination. Here, when the inclination of the camera 14 becomes a contact inclination, the camera 14 is directly facing the object. In other words, when the tilt of the camera 14 becomes a contact tilt, the optical axis of the camera 14 is perpendicular to the object. The mobile phone 10 includes a pair of frames sandwiching an object captured by the camera 14 whose optical axis is perpendicular to the object, and the camera 14 to the object whose optical axis is perpendicular to the object. It is possible to calculate the dimensions of the object using the distance. As a result, the mobile phone 10 can accurately calculate the size of the object. Further, unlike the prior art in which the size of the object is calculated using the image of the reference object, the mobile phone 10 can eliminate the work of placing the reference object next to the object in advance. That is, the mobile phone 10 according to the present embodiment can easily and accurately measure the size of the object.

また、本実施例に係る携帯電話機10は、表示部12に表示された枠の表示位置を変更し、変更後の枠の表示位置と接触傾斜に対応する距離とを利用して対象物の寸法を算出する。このため、携帯電話機10は、接触傾斜に対応する対象物の画像に対して一対の枠の表示位置がずれている場合であっても枠の表示位置を適正な位置に変更することができる。したがって、携帯電話機10は、適正な位置に変更された枠を利用して対象物の寸法をより高精度に測定することができる。   Further, the cellular phone 10 according to the present embodiment changes the display position of the frame displayed on the display unit 12, and uses the changed display position of the frame and the distance corresponding to the contact inclination to measure the size of the object. Is calculated. For this reason, the mobile phone 10 can change the display position of the frame to an appropriate position even when the display position of the pair of frames is shifted from the image of the object corresponding to the contact inclination. Therefore, the mobile phone 10 can measure the dimension of the object with higher accuracy by using the frame changed to an appropriate position.

また、本実施例に係る携帯電話機10は、カメラ14により対象物の画像が撮像される際に、カメラ14の傾斜に応じて移動するガイドを表示部12に表示させる。このため、携帯電話機10は、対象物に対するカメラ14の光軸の傾斜をユーザに対して視覚的に提示することができる。   In addition, the mobile phone 10 according to the present embodiment causes the display unit 12 to display a guide that moves according to the tilt of the camera 14 when an image of the object is captured by the camera 14. For this reason, the mobile phone 10 can visually present the inclination of the optical axis of the camera 14 with respect to the object to the user.

ところで、上記の実施例では、携帯電話機10が、距離計16を用いてカメラ14から対象物までの距離を取得する例を説明したが、本願の開示する寸法測定装置はこれに限定されるものではない。例えば、携帯電話機10は、寸法が既知である参照物の画像を対象物の画像とともに撮像し、撮像した参照物の画像および対象物の画像を利用して、カメラ14から対象物までの距離を取得するようにしてもよい。以下において、参照物の画像および対象物の画像を利用して、カメラ14から対象物までの距離を取得する例について説明する。   By the way, in the above embodiment, the example in which the mobile phone 10 acquires the distance from the camera 14 to the object using the distance meter 16 has been described, but the dimension measuring device disclosed in the present application is limited to this. is not. For example, the mobile phone 10 captures an image of a reference object with known dimensions together with the image of the object, and uses the captured image of the reference object and the image of the object to determine the distance from the camera 14 to the object. You may make it acquire. Hereinafter, an example in which the distance from the camera 14 to the target object is acquired using the reference object image and the target object image will be described.

図13は、カメラ14から対象物までの距離を取得する処理を説明するための図である。なお、ここでは、一例として、参照物としてのクレジットカードの画像および対象物としてのソファーの背もたれの画像を利用してカメラ14からソファーの背もたれまでの距離を取得する例について説明することとする。   FIG. 13 is a diagram for explaining processing for acquiring the distance from the camera 14 to the object. Here, as an example, an example will be described in which the distance from the camera 14 to the sofa back is acquired using an image of a credit card as a reference object and an image of a sofa back as an object.

図13に示すように、携帯電話機10の登録部18bは、ソファーの背もたれに置かれたクレジットカードの画像を背もたれの画像とともにカメラ14を用いて撮像する。そして、登録部18bは、携帯電話機10が背もたれから離反された状態でカメラ14により背もたれの画像が撮像される際に、カメラ14から背もたれまでの距離とカメラ14の傾斜とを取得する。登録部18bは、図2に示した登録部18bと同様に、傾斜センサ15を用いてカメラ14の光軸の傾斜を取得する。   As illustrated in FIG. 13, the registration unit 18 b of the mobile phone 10 captures an image of the credit card placed on the backrest of the sofa using the camera 14 together with the image of the backrest. The registration unit 18b acquires the distance from the camera 14 to the backrest and the inclination of the camera 14 when the camera 14 captures an image of the backrest while the mobile phone 10 is separated from the backrest. The registration unit 18b acquires the tilt of the optical axis of the camera 14 using the tilt sensor 15, similarly to the registration unit 18b illustrated in FIG.

また、登録部18bは、カメラ14により撮像されたクレジットカードの画像および背もたれの画像を利用してカメラ14からソファーの背もたれまでの距離を取得する。すなわち、登録部18bは、カメラ14により撮像されたクレジットカードの画像および背もたれの画像を基にして表示部12の中心からクレジットカードの一端までの画素数とクレジットカードの一辺の画素数とを計数する。そして、登録部18bは、計数した表示部12の中心からクレジットカードの一端までの画素数およびクレジットカードの一辺の画素数と、既知であるクレジットカードの寸法とに基づいて、カメラ14からソファーの背もたれまでの距離を算出して取得する。   Further, the registration unit 18b obtains the distance from the camera 14 to the sofa back using the credit card image and the back image captured by the camera 14. That is, the registration unit 18b counts the number of pixels from the center of the display unit 12 to one end of the credit card and the number of pixels on one side of the credit card based on the credit card image and the backrest image captured by the camera 14. To do. Then, the registration unit 18b determines from the camera 14 to the sofa based on the counted number of pixels from the center of the display unit 12 to one end of the credit card, the number of pixels on one side of the credit card, and the known size of the credit card. Calculate and obtain the distance to the backrest.

図14は、表示部12の中心からクレジットカードの一端までの画素数とクレジットカードの一辺の画素数とクレジットカードの寸法との関係を説明するための図である。図14では、表示部12の中心からクレジットカードの一端までの画素数をXiとし、クレジットカードの一辺の画素数をPlmとする。また、図14では、カメラ14の光軸とクレジットカードの一端までの距離をXi´とし、クレジットカードの一辺の実寸法をPlm´とする。また、図14では、カメラ14から背もたれまでの距離をdjkとする。ただし、i、j、k、l、mは自然数であるものとする。   FIG. 14 is a diagram for explaining the relationship between the number of pixels from the center of the display unit 12 to one end of the credit card, the number of pixels on one side of the credit card, and the size of the credit card. In FIG. 14, the number of pixels from the center of the display unit 12 to one end of the credit card is Xi, and the number of pixels on one side of the credit card is Plm. In FIG. 14, the distance between the optical axis of the camera 14 and one end of the credit card is Xi ′, and the actual dimension of one side of the credit card is Plm ′. In FIG. 14, the distance from the camera 14 to the backrest is djk. However, i, j, k, l, and m are natural numbers.

図14に示すように、Xi´は、Xiおよびdjkを変数とする関数で一意に表現される。ここでは、関数を、Xiおよびdjkを変数とする関数f(Xi,djk)とする。そうすると、以下の式(3)、(4)で示す関係が成立する。
Xi´=f(Xi,djk) ・・・ (3)
Xi´+Plm´=f(Xi+Plm,djk) ・・・ (4)
As shown in FIG. 14, Xi ′ is uniquely expressed by a function having Xi and djk as variables. Here, the function is a function f (Xi, djk) having Xi and djk as variables. Then, the relationship shown by the following formulas (3) and (4) is established.
Xi ′ = f (Xi, djk) (3)
Xi ′ + Plm ′ = f (Xi + Plm, djk) (4)

式(3)を式(4)に代入すると、以下の式(5)が得られる。
Plm´=f(Xi+Plm,djk)−f(Xi,djk) ・・・ (5)
Substituting equation (3) into equation (4) yields equation (5) below.
Plm ′ = f (Xi + Plm, djk) −f (Xi, djk) (5)

式(5)におけるPlm´が既知であるため、登録部18bは、XiおよびPlmを計数して式(5)に代入することにより、djkを算出することができる。   Since Plm ′ in Expression (5) is known, the registration unit 18b can calculate djk by counting Xi and Plm and substituting them into Expression (5).

なお、登録部18bは、予め、XiおよびPlmと式(5)から求められるdjkとを対応付けた内部テーブルを保持し、かかる内部テーブルに基づいてdjkを算出してもよい。   The registration unit 18b may hold an internal table in which Xi and Plm are associated with djk obtained from Expression (5) in advance, and calculate djk based on the internal table.

図15は、登録部18bにより保持される内部テーブルの構成例を示す図である。図15に示すように、内部テーブルは、Xi、Plmおよびdjkを対応付けて記憶する。例えば、登録部18bは、X=X1およびPlm=P12を計数すると、図15に示した内部テーブルを参照して、X1およびP12に対応するdjk=d12を算出する。   FIG. 15 is a diagram illustrating a configuration example of an internal table held by the registration unit 18b. As shown in FIG. 15, the internal table stores Xi, Plm, and djk in association with each other. For example, when X = X1 and Plm = P12 are counted, the registration unit 18b refers to the internal table illustrated in FIG. 15 and calculates djk = d12 corresponding to X1 and P12.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。例えば、接触傾斜取得部18aと登録部18bを統合するなど、その全部または一部を、各種の負担や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure. For example, the contact inclination acquisition unit 18a and the registration unit 18b are integrated, and all or a part thereof is functionally or physically distributed / integrated in an arbitrary unit according to various burdens or usage conditions. can do. Furthermore, all or a part of each processing function performed in each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.

ところで、上記の実施例では、ハードウェアロジックによって各種の処理を実現する場合を説明したが、本発明はこれに限定されるものではなく、あらかじめ用意されたプログラムをコンピュータで実行することによって実現するようにしてもよい。そこで、以下では、図16を用いて、上記の実施例に示した携帯電話機と同様の機能を有する寸法測定プログラムを実行するコンピュータの一例を説明する。   By the way, in the above embodiment, the case where various processes are realized by hardware logic has been described. However, the present invention is not limited to this, and is realized by executing a program prepared in advance by a computer. You may do it. In the following, an example of a computer that executes a dimension measurement program having the same function as that of the mobile phone shown in the above embodiment will be described with reference to FIG.

図16は、実施例に係る携帯電話機10を構成するコンピュータのハードウェア構成を示す図である。図16に示すように、携帯電話機10としてのコンピュータ100は、入力部101、出力部102、無線通信部103、カメラ104、傾斜センサ105、距離計106、CPU107、フラッシュメモリ108およびRAM109を有する。各装置101〜109は、バス110に接続される。   FIG. 16 is a diagram illustrating a hardware configuration of a computer constituting the mobile phone 10 according to the embodiment. As illustrated in FIG. 16, the computer 100 as the mobile phone 10 includes an input unit 101, an output unit 102, a wireless communication unit 103, a camera 104, a tilt sensor 105, a distance meter 106, a CPU 107, a flash memory 108, and a RAM 109. Each device 101 to 109 is connected to the bus 110.

このうち、入力部101、出力部102、無線通信部103、カメラ104、傾斜センサ105および距離計106は、図2に示した入力部11、表示部12、無線通信部13、カメラ14、傾斜センサ15および距離計16にそれぞれ対応する。   Among these, the input unit 101, the output unit 102, the wireless communication unit 103, the camera 104, the tilt sensor 105, and the distance meter 106 are the input unit 11, the display unit 12, the wireless communication unit 13, the camera 14, and the tilt shown in FIG. It corresponds to the sensor 15 and the distance meter 16, respectively.

そして、フラッシュメモリ108には、上記の実施例に示した携帯電話機10と同様の機能を発揮する寸法測定プログラムが予め記憶されている。つまり、フラッシュメモリ108には、接触傾斜取得プログラム108a、登録プログラム108b、表示制御プログラム108c、変更プログラム108dおよび寸法算出プログラム108eが予め記憶されている。   The flash memory 108 stores in advance a dimension measurement program that exhibits the same function as the mobile phone 10 shown in the above embodiment. That is, in the flash memory 108, a contact inclination acquisition program 108a, a registration program 108b, a display control program 108c, a change program 108d, and a dimension calculation program 108e are stored in advance.

CPU107が接触傾斜取得プログラム108aをフラッシュメモリ108から読み出して実行することで、接触傾斜プログラム108aは、接触傾斜取得プロセス107aとして機能するようになる。また、CPU107が登録プログラム108bをフラッシュメモリ108から読み出して実行することで、登録プログラム108bは、登録プロセス107bとして機能するようになる。また、CPU107が表示制御プログラム108cをフラッシュメモリ108から読み出して実行することで、表示制御プログラム108cは、表示制御プロセス107cとして機能するようになる。また、CPU107が変更プログラム108dをフラッシュメモリ108から読み出して実行することで、変更プログラム108dは、変更プロセス107dとして機能するようになる。また、CPU107が寸法算出プログラム108eをフラッシュメモリ108から読み出して実行することで、寸法算出プログラム108eは、寸法算出プロセス107eとして機能するようになる。なお、プロセス107a〜107eは、図2に示した接触傾斜取得部18a、登録部18b、表示制御部18c、変更部18dおよび寸法算出部18eにそれぞれ対応する。   When the CPU 107 reads out and executes the contact inclination acquisition program 108a from the flash memory 108, the contact inclination program 108a functions as the contact inclination acquisition process 107a. Further, the CPU 107 reads out and executes the registration program 108b from the flash memory 108, whereby the registration program 108b functions as the registration process 107b. Further, the CPU 107 reads out and executes the display control program 108c from the flash memory 108, whereby the display control program 108c functions as the display control process 107c. Further, the CPU 107 reads the change program 108d from the flash memory 108 and executes it, so that the change program 108d functions as the change process 107d. Further, the CPU 107 reads out and executes the dimension calculation program 108e from the flash memory 108, whereby the dimension calculation program 108e functions as the dimension calculation process 107e. The processes 107a to 107e correspond to the contact inclination acquisition unit 18a, the registration unit 18b, the display control unit 18c, the change unit 18d, and the dimension calculation unit 18e shown in FIG.

そして、CPU107は、RAM109に記録された接触傾斜データ109a、画像情報データ109b、ガイド情報データ109cおよび枠情報データ109dを利用して、寸法測定プログラムを実行する。なお、データ109a〜109dは、図2に示した接触傾斜記憶部17a、画像情報記憶部17b、ガイド情報記憶部17cおよび枠情報記憶部17dにそれぞれ対応する。   The CPU 107 executes a dimension measurement program using the contact inclination data 109a, the image information data 109b, the guide information data 109c, and the frame information data 109d recorded in the RAM 109. The data 109a to 109d correspond to the contact inclination storage unit 17a, the image information storage unit 17b, the guide information storage unit 17c, and the frame information storage unit 17d shown in FIG.

なお、上記の各プログラム108a〜108eは、必ずしもフラッシュメモリ108に格納されている必要はなく、CD−ROM等の記憶媒体に記憶されたプログラムを、コンピュータ100が読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等に各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを読み出して実行するようにしてもよい。   Note that the programs 108a to 108e are not necessarily stored in the flash memory 108, and the computer 100 may read and execute a program stored in a storage medium such as a CD-ROM. . Alternatively, each program may be stored in a public line, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like, and the computer 100 may read and execute each program.

10 携帯電話機
11 入力部
12 表示部
13 無線通信部
14 カメラ
15 傾斜センサ
16 距離計
17 記憶部
17a 接触傾斜記憶部
17b 画像情報記憶部
17c ガイド情報記憶部
17d 枠情報記憶部
18 制御部
18a 接触傾斜取得部
18b 登録部
18c 表示制御部
18d 変更部
18e 寸法算出部
DESCRIPTION OF SYMBOLS 10 Mobile telephone 11 Input part 12 Display part 13 Wireless communication part 14 Camera 15 Inclination sensor 16 Distance meter 17 Storage part 17a Contact inclination storage part 17b Image information storage part 17c Guide information storage part 17d Frame information storage part 18 Control part 18a Contact inclination Acquisition unit 18b Registration unit 18c Display control unit 18d Change unit 18e Size calculation unit

Claims (5)

撮像部により撮像される対象物と自装置とが接触した状態における前記撮像部の傾斜である接触傾斜を取得する取得部と、
前記撮像部により前記対象物の画像が撮像される際に、前記撮像部から前記対象物までの距離と前記撮像部の傾斜とを取得し、取得した前記距離および前記傾斜を前記対象物の画像ごとに対応付けて画像情報記憶部に登録する登録部と、
前記接触傾斜に対応する前記対象物の画像および前記距離を前記画像情報記憶部から抽出し、抽出された前記対象物の画像とともに前記対象物の画像に重畳される一対の枠を表示部に表示させる表示制御部と、
前記表示制御部により表示部に表示された前記枠の表示位置と前記接触傾斜に対応する前記距離とに基づいて前記対象物の寸法を算出する寸法算出部と
を備えたことを特徴とする寸法測定装置。
An acquisition unit that acquires a contact inclination that is an inclination of the imaging unit in a state where the object imaged by the imaging unit and the device itself are in contact with each other;
When the image of the object is imaged by the imaging unit, the distance from the imaging unit to the object and the inclination of the imaging unit are acquired, and the acquired distance and the inclination are used as the image of the object. A registration unit that registers the image information storage unit in association with each other,
The image of the object corresponding to the contact inclination and the distance are extracted from the image information storage unit, and a pair of frames superimposed on the image of the object are displayed on the display unit together with the extracted image of the object A display control unit
A dimension calculating unit that calculates a dimension of the object based on a display position of the frame displayed on the display unit by the display control unit and the distance corresponding to the contact inclination; measuring device.
前記表示制御部により表示部に表示された前記枠の表示位置を変更する変更部をさらに備え、
前記寸法算出部は、前記変更部により変更された前記枠の表示位置と前記接触傾斜に対応する前記距離とに基づいて前記対象物の寸法を算出することを特徴とする請求項1に記載の寸法測定装置。
A change unit that changes a display position of the frame displayed on the display unit by the display control unit;
2. The dimension calculation unit according to claim 1, wherein the dimension calculation unit calculates the dimension of the object based on the display position of the frame changed by the changing unit and the distance corresponding to the contact inclination. Dimension measuring device.
前記表示制御部は、
前記撮像部により前記対象物の画像が撮像される際に、前記登録部により取得される前記傾斜に応じて移動するガイドを前記表示部に表示させることを特徴とする請求項1または2に記載の寸法測定装置。
The display control unit
The guide that moves according to the inclination acquired by the registration unit is displayed on the display unit when an image of the object is captured by the imaging unit. Dimension measuring device.
コンピュータにより実行される寸法測定方法であって、
撮像部により撮像される対象物と自装置とが接触した状態における前記撮像部の傾斜である接触傾斜を取得し、
前記撮像部により前記対象物の画像が撮像される際に、前記撮像部から前記対象物までの距離と前記撮像部の傾斜とを取得し、取得した前記距離および前記傾斜を前記対象物の画像ごとに対応付けて画像情報記憶部に登録し、
前記接触傾斜に対応する前記対象物の画像および前記距離を前記画像情報記憶部から抽出し、抽出された前記対象物の画像とともに前記対象物の画像に重畳される一対の枠を表示部に表示させ、
前記表示部に表示された前記枠の表示位置および前記接触傾斜に対応する前記距離に基づいて前記対象物の寸法を算出する
ことを含むことを特徴とする寸法測定方法。
A dimension measurement method executed by a computer,
Obtaining a contact inclination that is an inclination of the imaging unit in a state where the object imaged by the imaging unit is in contact with the device itself;
When the image of the object is imaged by the imaging unit, the distance from the imaging unit to the object and the inclination of the imaging unit are acquired, and the acquired distance and the inclination are used as the image of the object. Registered in the image information storage unit in association with each other,
The image of the object corresponding to the contact inclination and the distance are extracted from the image information storage unit, and a pair of frames superimposed on the image of the object are displayed on the display unit together with the extracted image of the object Let
A dimension measuring method comprising: calculating a dimension of the object based on the display position of the frame displayed on the display unit and the distance corresponding to the contact inclination.
コンピュータに、
撮像部により撮像される対象物と自装置とが接触した状態における前記撮像部の傾斜である接触傾斜を取得し、
前記撮像部により前記対象物の画像が撮像される際に、前記撮像部から前記対象物までの距離と前記撮像部の傾斜とを取得し、取得した前記距離および前記傾斜を前記対象物の画像ごとに対応付けて画像情報記憶部に登録し、
前記接触傾斜に対応する前記対象物の画像および前記距離を前記画像情報記憶部から抽出し、抽出された前記対象物の画像とともに前記対象物の画像に重畳される一対の枠を表示部に表示させ、
前記表示部に表示された前記枠の表示位置および前記接触傾斜に対応する前記距離に基づいて前記対象物の寸法を算出する
処理を実行させることを特徴とする寸法測定プログラム。
On the computer,
Obtaining a contact inclination that is an inclination of the imaging unit in a state where the object imaged by the imaging unit is in contact with the device itself;
When the image of the object is imaged by the imaging unit, the distance from the imaging unit to the object and the inclination of the imaging unit are acquired, and the acquired distance and the inclination are used as the image of the object. Registered in the image information storage unit in association with each other,
The image of the object corresponding to the contact inclination and the distance are extracted from the image information storage unit, and a pair of frames superimposed on the image of the object are displayed on the display unit together with the extracted image of the object Let
A dimension measurement program for executing a process of calculating a dimension of the object based on the display position of the frame displayed on the display unit and the distance corresponding to the contact inclination.
JP2011143415A 2011-06-28 2011-06-28 Dimension measuring apparatus, dimension measuring method, and dimension measuring program Active JP5849462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011143415A JP5849462B2 (en) 2011-06-28 2011-06-28 Dimension measuring apparatus, dimension measuring method, and dimension measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011143415A JP5849462B2 (en) 2011-06-28 2011-06-28 Dimension measuring apparatus, dimension measuring method, and dimension measuring program

Publications (2)

Publication Number Publication Date
JP2013011491A true JP2013011491A (en) 2013-01-17
JP5849462B2 JP5849462B2 (en) 2016-01-27

Family

ID=47685487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011143415A Active JP5849462B2 (en) 2011-06-28 2011-06-28 Dimension measuring apparatus, dimension measuring method, and dimension measuring program

Country Status (1)

Country Link
JP (1) JP5849462B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016023962A (en) * 2014-07-17 2016-02-08 大木 光晴 Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205222A (en) * 2002-12-20 2004-07-22 Matsushita Electric Works Ltd Distance measuring apparatus
JP2005023498A (en) * 2003-07-01 2005-01-27 Burein:Kk Method for ordering custom-made glove and computer for receiver of order used for the same
JP2009085785A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP2011124965A (en) * 2009-12-11 2011-06-23 Advas Co Ltd Subject dimension measuring camera apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205222A (en) * 2002-12-20 2004-07-22 Matsushita Electric Works Ltd Distance measuring apparatus
JP2005023498A (en) * 2003-07-01 2005-01-27 Burein:Kk Method for ordering custom-made glove and computer for receiver of order used for the same
JP2009085785A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Crack width measuring system, operating device, crack width measuring method, and crack width measuring program
JP2011124965A (en) * 2009-12-11 2011-06-23 Advas Co Ltd Subject dimension measuring camera apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016023962A (en) * 2014-07-17 2016-02-08 大木 光晴 Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program

Also Published As

Publication number Publication date
JP5849462B2 (en) 2016-01-27

Similar Documents

Publication Publication Date Title
WO2018072598A1 (en) Human body height measurement method and device, and smart mirror
JP7127149B6 (en) IMAGE CORRECTION METHOD, IMAGE CORRECTION APPARATUS, AND ELECTRONIC DEVICE
RU2672181C2 (en) Method and device for team generation
WO2019237984A1 (en) Image correction method, electronic device and computer readable storage medium
TWI486551B (en) Method and system for three-dimensional data acquisition
JP2012185161A (en) Method for measuring real dimension of object by using camera included in portable terminal
WO2017215224A1 (en) Fingerprint input prompting method and apparatus
CN105279499B (en) Age recognition methods and device
JP6502511B2 (en) Calculation device, control method of calculation device, and calculation program
CN105627920A (en) Method and device for displaying size
US8624973B2 (en) Electronic device with measurement function and measurement method thereof
CN104468916A (en) Test method based on cell phone response time
TW201231953A (en) Automatic analyzing method and system for test strip
KR20130027520A (en) Viewpoint detector based on skin color area and face area
US9781333B2 (en) Imaging device and focus control method
US20170155889A1 (en) Image capturing device, depth information generation method and auto-calibration method thereof
CN104282041A (en) Three-dimensional modeling method and device
KR100690172B1 (en) method for extracting 3-dimensional coordinate information from 3-dimensional image using mobile phone with multiple cameras and terminal thereof
JP2016217944A (en) Measurement device and measurement method
JP5849462B2 (en) Dimension measuring apparatus, dimension measuring method, and dimension measuring program
JP2015032883A (en) Imaging apparatus and image display method
TWI603225B (en) Viewing angle adjusting method and apparatus of liquid crystal display
JP5996233B2 (en) Imaging device
TW201022065A (en) Method for determining the angular magnitude of imaging acquiring apparatus and vehicle collision warning system using thereof
US20170069109A1 (en) Method and apparatus for measuring an object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R150 Certificate of patent or registration of utility model

Ref document number: 5849462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250