JP2011058854A - Portable terminal - Google Patents

Portable terminal Download PDF

Info

Publication number
JP2011058854A
JP2011058854A JP2009206440A JP2009206440A JP2011058854A JP 2011058854 A JP2011058854 A JP 2011058854A JP 2009206440 A JP2009206440 A JP 2009206440A JP 2009206440 A JP2009206440 A JP 2009206440A JP 2011058854 A JP2011058854 A JP 2011058854A
Authority
JP
Japan
Prior art keywords
point
shooting
image
shooting point
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009206440A
Other languages
Japanese (ja)
Inventor
Kohei Kawakami
耕平 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009206440A priority Critical patent/JP2011058854A/en
Publication of JP2011058854A publication Critical patent/JP2011058854A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a portable terminal capable of determining the relative position between shooting points by photographing a same object at a plurality of shooting points separated in space. <P>SOLUTION: The portable terminal includes a camera 16 for generating a still image by photographing the object, a posture detection section 32 for detecting the direction of the optical axis and the inclination centered at the optical axis of the camera 16, a feature point extraction section 24a for extracting feature points from the still image, a distance measuring section 25 for measuring the distance between the points on the object corresponding to the feature points in the still image, and the shooting points where the still image is photographed, and a position determination section 26 for determining the relative position of a second shooting position to a first shooting position based on the measured distance for the feature points in a first image photographed at the first shooting point, the measured distance for the feature points in a second image photographed at the second shooting point, and the detection result of the direction and inclination of the camera 16 at the first and the second shooting points. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、携帯端末に係り、さらに詳しくは、空間的に離間した複数の撮影点で同じ対象物を被写体として撮影して撮影点間の相対位置を判定する携帯端末に関する。   The present invention relates to a portable terminal, and more particularly to a portable terminal that photographs the same object as a subject at a plurality of spatially separated photographing points and determines a relative position between the photographing points.

対象物の3次元形状を光学的に計測する方法として、空間的に離間した複数の撮影点で同じ対象物を被写体としてそれぞれ撮影し、各撮影点で撮影された静止画像を用いて被写体の表面形状を算出する技術が従来から知られている(例えば、特許文献1)。この方法では、静止画像上の各点について、異なる撮影点で撮影された画像間のマッチングを調べ、各撮影点の位置と、各撮影点でのカメラの向き及び傾きとからマッチングした各点の位置を特定することにより、対象物の表面形状が求められる。従って、この方法により対象物の表面形状を算出するためには、少なくとも撮影点間の位置の変化量が予め識別できなければならない。   As a method of optically measuring the three-dimensional shape of an object, the same object is photographed as a subject at a plurality of spatially separated photographing points, and the surface of the subject is obtained using still images photographed at the respective photographing points. A technique for calculating a shape has been conventionally known (for example, Patent Document 1). In this method, for each point on the still image, matching between images taken at different shooting points is examined, and each point matched from the position of each shooting point and the orientation and tilt of the camera at each shooting point is checked. By specifying the position, the surface shape of the object is obtained. Therefore, in order to calculate the surface shape of the object by this method, at least the amount of change in position between the photographing points must be identified in advance.

そこで、特許文献1では、GPS(Global Positioning System:全地球測位システム)衛星からの信号を受信し、その受信結果に基づいて、INS(Inertial Navigation System:慣性航法システム)による変位量の算出結果を補正している。しかしながら、GPS衛星を利用した位置検出では、GPS衛星からの信号の受信時刻を高い精度で特定することにより、電波の送受信に要する時間を求めてGPS衛星との距離が計算される。このため、数メートル程度の範囲の移動では誤差が大きすぎて位置の変化量が正確に識別できないという問題があった。また、GPS及びINSを利用して位置検出する検出装置は、高価であり、サイズも大きいので、端末の小型化が困難であるという問題もあった。   Therefore, in Patent Document 1, a signal from a GPS (Global Positioning System) satellite is received, and a displacement calculation result by an INS (Inertial Navigation System) is calculated based on the reception result. It is corrected. However, in position detection using a GPS satellite, the time required to transmit and receive radio waves is calculated by specifying the reception time of the signal from the GPS satellite with high accuracy, and the distance to the GPS satellite is calculated. For this reason, there has been a problem in that the amount of change in position cannot be accurately identified because the error is too large for movement within a range of several meters. In addition, since the detection device that detects the position using GPS and INS is expensive and has a large size, there is a problem that it is difficult to reduce the size of the terminal.

特開2006−234703号公報JP 2006-234703 A

本発明は、上記事情に鑑みてなされたものであり、空間的に離間した複数の撮影点で同じ対象物を被写体として撮影して撮影点間の相対位置を判定することができる携帯端末を安価に提供することを目的としている。特に、第1撮影点に対する第2撮影点の相対位置を精度良く判定することができる携帯端末を提供することを目的としている。また、製造コストの増大を抑制しつつ、対象物の3次元形状を計測することができる携帯端末を提供することを目的としている。   The present invention has been made in view of the above circumstances, and is inexpensive as a portable terminal capable of photographing the same object as a subject at a plurality of spatially separated photographing points and determining the relative position between the photographing points. The purpose is to provide. In particular, it is an object to provide a mobile terminal capable of accurately determining the relative position of the second shooting point with respect to the first shooting point. Moreover, it aims at providing the portable terminal which can measure the three-dimensional shape of a target object, suppressing the increase in manufacturing cost.

第1の本発明による携帯端末は、被写体を撮影して静止画像を生成する撮像手段と、上記撮像手段の光軸の向き及び上記光軸を中心とする傾きを検出する姿勢検出手段と、上記静止画像から特徴点を抽出する特徴点抽出手段と、上記静止画像内の上記特徴点に対応する被写体上の点及び当該静止画像の撮影が行われた撮影点間の距離を測定する距離測定手段と、第1撮影点で撮影された第1画像内の上記特徴点について測定された距離、第2撮影点で撮影された第2画像内の上記特徴点について測定された距離、並びに、第1撮影点及び第2撮影点での上記撮像手段の向き及び傾きの各検出結果に基づいて、第1撮影点に対する第2撮影点の相対位置を判定する位置判定手段とを備えて構成される。   A portable terminal according to a first aspect of the present invention includes an imaging unit that shoots a subject to generate a still image, an orientation detection unit that detects an orientation of the optical axis of the imaging unit and an inclination around the optical axis, and Feature point extracting means for extracting a feature point from a still image, and distance measuring means for measuring a distance between a point on the subject corresponding to the feature point in the still image and a shooting point at which the still image was shot A distance measured for the feature point in the first image taken at the first shooting point, a distance measured for the feature point in the second image taken at the second shooting point, and the first Position determining means for determining the relative position of the second shooting point with respect to the first shooting point based on the detection results of the orientation and tilt of the imaging means at the shooting point and the second shooting point.

この携帯端末では、静止画像内の特徴点に対応する被写体上の点と当該静止画像の撮影点との間の距離を測定し、第1画像内の特徴点について測定された距離と、第2画像内で対応する特徴点について測定された距離と、第1撮影点及び第2撮影点での撮像手段の向き及び傾きとに基づいて、第1撮影点に対する第2撮影点の相対位置が判定される。この様な構成によれば、静止画像内の特徴点に対応する被写体上の点までの距離を測定して撮影点間の相対位置を判定するので、GPS衛星を利用する位置検出に比べて、製造コストの増大を抑制しつつ、相対位置を精度良く判定することができる。   In this portable terminal, the distance between the point on the subject corresponding to the feature point in the still image and the shooting point of the still image is measured, the distance measured for the feature point in the first image, and the second The relative position of the second shooting point with respect to the first shooting point is determined based on the distance measured for the corresponding feature point in the image and the orientation and inclination of the imaging means at the first shooting point and the second shooting point. Is done. According to such a configuration, the relative position between the shooting points is determined by measuring the distance to the point on the subject corresponding to the feature point in the still image, so compared to the position detection using the GPS satellite, The relative position can be accurately determined while suppressing an increase in manufacturing cost.

第2の本発明による携帯端末は、上記構成に加え、加速度を検出する加速度センサーと、上記加速度センサーの出力に基づいて、第1撮影点に対する第2撮影点の相対位置を算出する変位量算出手段と、上記位置判定手段による判定結果に基づいて、上記変位量算出手段による算出結果を補正する位置補正手段とを備えて構成される。   A mobile terminal according to a second aspect of the present invention includes, in addition to the above configuration, an acceleration sensor that detects acceleration, and a displacement amount calculation that calculates a relative position of the second shooting point with respect to the first shooting point based on the output of the acceleration sensor. And a position correction means for correcting the calculation result by the displacement amount calculation means based on the determination result by the position determination means.

この様な構成によれば、撮影点間の相対位置の判定結果を利用して、加速度センサーの出力に基づく相対位置の算出結果を補正するので、相対位置の判定精度を向上させることができる。   According to such a configuration, since the relative position calculation result based on the output of the acceleration sensor is corrected using the determination result of the relative position between the photographing points, the relative position determination accuracy can be improved.

第3の本発明による携帯端末は、上記構成に加え、上記撮像手段が、レンズを介して被写体から入射される光を受光する撮像素子と、上記レンズ及び上記撮像素子間の距離を変化させて上記静止画像のピント調整を行うフォーカシング機構とを有し、上記距離測定手段が、上記レンズの光軸方向の位置に基づいて、静止画像内の特徴点に対応する被写体上の点と当該静止画像の撮影点との間の距離を判定するように構成される。   In addition to the above-described configuration, the mobile terminal according to a third aspect of the present invention is configured so that the imaging unit changes the distance between the imaging element that receives light incident from the subject via the lens and the lens and the imaging element. A focusing mechanism for adjusting the focus of the still image, and the distance measuring unit is configured to select a point on the subject corresponding to a feature point in the still image based on the position of the lens in the optical axis direction and the still image. It is comprised so that the distance between the imaging | photography points may be determined.

この様な構成によれば、特徴点周辺の領域についてピント調整時におけるレンズの位置に基づいて、静止画像内の特徴点に対応する被写体上の点までの距離を判定するので、GPS衛星を利用する位置検出に比べて、端末を小型化することができる。   According to such a configuration, the distance to the point on the subject corresponding to the feature point in the still image is determined based on the position of the lens at the time of focus adjustment for the area around the feature point. As compared with position detection, the terminal can be downsized.

第4の本発明による携帯端末は、上記構成に加え、第1画像、第2画像、第1撮影点及び第2撮影点での上記撮像手段の向き及び傾きの各検出結果、並びに、上記相対位置の判定結果に基づいて、被写体の表面形状を算出する表面形状算出手段を備えて構成される。   In addition to the above-described configuration, the mobile terminal according to a fourth aspect of the present invention includes a first image, a second image, each detection result of the orientation and inclination of the imaging means at the first imaging point and the second imaging point, and the relative A surface shape calculating means for calculating the surface shape of the subject based on the position determination result is provided.

この様な構成によれば、第1画像及び第2画像と、第1撮影点及び第2撮影点での撮像手段の向き及び傾きと、相対位置の判定結果とに基づいて、被写体の表面形状を算出するので、GPS衛星を利用して位置検出するものに比べて、製造コストの増大を抑制しつつ、対象物の3次元形状を計測することができる。   According to such a configuration, the surface shape of the subject is based on the first image and the second image, the orientation and inclination of the imaging means at the first imaging point and the second imaging point, and the determination result of the relative position. Therefore, it is possible to measure the three-dimensional shape of the object while suppressing an increase in manufacturing cost as compared with the case where the position is detected using a GPS satellite.

本発明による携帯端末によれば、静止画像内の特徴点に対応する被写体上の点までの距離を測定して撮影点間の相対位置を判定するので、GPS衛星を利用する位置検出に比べて、製造コストの増大を抑制しつつ、第1撮影点に対する第2撮影点の相対位置を精度良く判定することができる。従って、空間的に離間した複数の撮影点で同じ対象物を被写体として撮影して撮影点間の相対位置を判定することができる携帯端末を安価に実現することができる。また、製造コストの増大を抑制しつつ、対象物の3次元形状を計測することができる。   According to the portable terminal of the present invention, the relative position between the photographing points is determined by measuring the distance to the point on the subject corresponding to the feature point in the still image, so that it is compared with the position detection using the GPS satellite. The relative position of the second shooting point with respect to the first shooting point can be accurately determined while suppressing an increase in manufacturing cost. Therefore, it is possible to realize a portable terminal that can photograph the same object as a subject at a plurality of spatially separated photographing points and determine the relative position between the photographing points at low cost. In addition, the three-dimensional shape of the object can be measured while suppressing an increase in manufacturing cost.

本発明の実施の形態による携帯端末の概略構成の一例を示した図であり、携帯端末の一例としてカメラ付きの携帯電話機100が示されている。It is the figure which showed an example of schematic structure of the portable terminal by embodiment of this invention, and the mobile telephone 100 with a camera is shown as an example of a portable terminal. 図1の携帯電話機100の要部における構成例を示したブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a main part of the mobile phone 100 in FIG. 1. 図1の携帯電話機100の動作の一例を模式的に示した説明図であり、空間的に離間した撮影点C1,C2におけるカメラ座標の一例が示されている。It is explanatory drawing which showed typically an example of operation | movement of the mobile telephone 100 of FIG. 1, and shows an example of the camera coordinate in imaging | photography point C1, C2 spaced apart spatially. 図1の携帯電話機100の動作の一例を模式的に示した説明図であり、対象物上の点Mと撮像面上の点mと光学中心Cとの関係が示されている。FIG. 2 is an explanatory diagram schematically showing an example of the operation of the mobile phone 100 in FIG. 1, and shows the relationship among a point M on an object, a point m on an imaging surface, and an optical center C. 図1の携帯電話機100の形状計測時の動作の一例を示したフローチャートである。3 is a flowchart showing an example of an operation at the time of shape measurement of the mobile phone 100 of FIG. 図1の携帯電話機100の形状計測時の動作の一例を示したフローチャートである。3 is a flowchart showing an example of an operation at the time of shape measurement of the mobile phone 100 of FIG.

図1(a)及び(b)は、本発明の実施の形態による携帯端末の概略構成の一例を示した図であり、携帯端末の一例としてカメラ16付きの携帯電話機100が示されている。図1(a)には、携帯電話機100を正面から見た様子が示され、図1(b)には、背面から見た様子が示されている。   1A and 1B are diagrams showing an example of a schematic configuration of a mobile terminal according to an embodiment of the present invention, and a mobile phone 100 with a camera 16 is shown as an example of the mobile terminal. FIG. 1A shows the mobile phone 100 viewed from the front, and FIG. 1B shows the mobile phone 100 viewed from the back.

携帯電話機100は、上下方向に長い薄型筐体10からなる携帯可能な小型の電子機器であり、位置を異ならせながら対象物を撮影することによって対象物の3次元形状を計測することができる3次元形状の計測装置となっている。   The mobile phone 100 is a small portable electronic device that includes a thin casing 10 that is long in the vertical direction. The mobile phone 100 can measure the three-dimensional shape of the object 3 by photographing the object while changing its position. Dimensional shape measuring device.

薄型筐体10の前面には、受話用レシーバ11、ディスプレイ12、操作キー13及び送話用マイクロホン14が設けられている。一方、薄型筐体10の背面、すなわち、薄型筐体10のディスプレイ12が設けられている面とは反対側の面には、カメラ16が配設されている。また、薄型筐体10の上側面には、移動体通信用のアンテナ15が配設されている。   On the front surface of the thin casing 10, a receiver 11 for receiving, a display 12, operation keys 13, and a microphone 14 for transmitting are provided. On the other hand, a camera 16 is disposed on the back surface of the thin housing 10, that is, on the surface opposite to the surface on which the display 12 of the thin housing 10 is provided. An antenna 15 for mobile communication is disposed on the upper side surface of the thin casing 10.

ディスプレイ12は、表示画面を有する表示装置であり、例えば、カメラ16によって撮影された静止画像がファインダー画像として表示画面内に表示される。受話用レシーバ11は、通話時に受信した音声信号を再生するための音声出力装置である。送話用マイクロホン14は、通話時に音声を入力するための音声入力装置である。   The display 12 is a display device having a display screen. For example, a still image taken by the camera 16 is displayed as a finder image in the display screen. The receiver 11 for reception is an audio output device for reproducing an audio signal received during a call. The transmitting microphone 14 is a voice input device for inputting voice during a call.

カメラ16は、被写体を撮影して静止画像を生成する撮像手段であり、レンズを介して被写体から入射される光を受光する撮像素子、レンズ及び撮像素子間の距離を変化させて静止画像のピント調整を行うフォーカシング機構などによって構成される。   The camera 16 is an imaging unit that captures a subject and generates a still image. The imaging device receives light incident from the subject via a lens, and changes the distance between the lens and the imaging device to focus the still image. Consists of a focusing mechanism that performs adjustment.

撮像素子としては、例えば、CCD(Charge Coupled Devices:電荷結合素子)イメージセンサーが用いられる。また、フォーカシング機構としては、例えば、レンズを光軸方向に移動させることによって、光軸方向の焦点位置を異ならせながら撮影された複数の静止画像を比較し、その比較結果に基づいてピント調整することにより、ピント合わせを自動化したパッシブ方式のAF(オートフォーカス)機構が用いられる。   As the imaging device, for example, a CCD (Charge Coupled Devices) image sensor is used. Further, as the focusing mechanism, for example, by moving the lens in the optical axis direction, a plurality of still images taken with different focal positions in the optical axis direction are compared, and focus adjustment is performed based on the comparison result. Thus, a passive AF (autofocus) mechanism that automates focusing is used.

カメラ16によって撮影された静止画像は、所定の操作キー13、例えば、シャッター機能が割り当てられた操作キーを操作することによって、メモリ内に保存用の撮影画像として取り込まれる。   A still image captured by the camera 16 is captured as a captured image for storage in a memory by operating a predetermined operation key 13, for example, an operation key to which a shutter function is assigned.

図2は、図1の携帯電話機100の要部における構成例を示したブロック図である。この携帯電話機100は、カメラ16を構成するCCDイメージセンサー16a及びフォーカシング機構16bの他に、キー入力部21、撮像制御部22、撮影画像記憶部23、画像処理部24、距離測定部25、位置判定部26、位置補正部27、表面形状算出部28、3軸地磁気センサー31、姿勢検出部32、3軸加速度センサー33及び変位量算出部34を備えて構成される。   FIG. 2 is a block diagram illustrating a configuration example of a main part of the mobile phone 100 of FIG. In addition to the CCD image sensor 16a and the focusing mechanism 16b constituting the camera 16, the cellular phone 100 includes a key input unit 21, an imaging control unit 22, a captured image storage unit 23, an image processing unit 24, a distance measuring unit 25, a position The determination unit 26, the position correction unit 27, the surface shape calculation unit 28, the triaxial geomagnetic sensor 31, the posture detection unit 32, the triaxial acceleration sensor 33, and the displacement amount calculation unit 34 are configured.

キー入力部21は、シャッター操作、すなわち、所定の操作キー13の操作に基づいてキー入力信号を生成し、撮像制御部22へ出力する。撮像制御部22は、シャッター操作に基づいてフォーカシング機構16bを制御し、CCDイメージセンサー16aによって生成された静止画像を撮影画像記憶部23内に取り込む画像取得手段である。   The key input unit 21 generates a key input signal based on a shutter operation, that is, an operation of a predetermined operation key 13, and outputs the key input signal to the imaging control unit 22. The imaging control unit 22 is an image acquisition unit that controls the focusing mechanism 16b based on a shutter operation and takes a still image generated by the CCD image sensor 16a into the captured image storage unit 23.

画像処理部24は、特徴点抽出部24a、マッチング処理部24b及び24cからなり、撮影画像記憶部23内に保存用の撮影画像として取り込まれた静止画像について、所定の画像処理を行っている。   The image processing unit 24 includes a feature point extraction unit 24a and matching processing units 24b and 24c. The image processing unit 24 performs predetermined image processing on a still image captured as a captured image for storage in the captured image storage unit 23.

特徴点抽出部24aは、静止画像についてエッジ検出を行い、エッジが交差する頂角などを特徴点として当該静止画像から抽出する。撮影画像から特徴点を抽出する具体的な方法としては、ハリスコーナーディテクター(Harris corner detector)法などの公知の技術を利用すれば良い。   The feature point extraction unit 24a performs edge detection on the still image, and extracts an apex angle or the like at which the edges intersect from the still image as a feature point. As a specific method for extracting feature points from a captured image, a known technique such as a Harris corner detector method may be used.

マッチング処理部24b,24cは、空間的に離間した2つの撮影点でそれぞれ撮影された静止画像を比較し、第1の静止画像内の点に対応する第2の静止画像上の点を抽出する照合処理を行っている。ここでは、第1撮影点で撮影されて撮影画像記憶部23内に取り込まれた静止画像を第1画像とし、第2撮影点で撮影されて撮影画像記憶部23内に取り込まれた静止画像を第2画像とする。   The matching processing units 24b and 24c compare still images captured at two spatially separated shooting points, and extract points on the second still image corresponding to the points in the first still image. Verification processing is performed. Here, the still image captured at the first shooting point and captured in the captured image storage unit 23 is defined as a first image, and the still image captured at the second shooting point and captured in the captured image storage unit 23 is defined as a still image. Let it be a second image.

マッチング処理部24bでは、第1画像から抽出された1又は2以上の特徴点について、対応する特徴点が第2画像から抽出される。第1画像内の特徴点に対応する特徴点を第2画像から抽出する具体的な方法としては、例えば、第1撮影点及び第2撮影点の位置情報と、各撮影点におけるカメラ16の姿勢情報とから第2画像上のエピポーラ拘束線を求め、第1画像上の特徴点を含む所定領域とエピポーラ拘束線上の画像領域とを比較してマッチング領域を判定する方法が用いられる。   In the matching processing unit 24b, for one or more feature points extracted from the first image, corresponding feature points are extracted from the second image. As a specific method of extracting feature points corresponding to feature points in the first image from the second image, for example, the position information of the first shooting point and the second shooting point, and the posture of the camera 16 at each shooting point A method is used in which an epipolar constraint line on the second image is obtained from the information, and a matching region is determined by comparing a predetermined region including a feature point on the first image with an image region on the epipolar constraint line.

距離測定部25は、静止画像内の特徴点に対応する被写体上の点と、当該静止画像の撮影点との間の距離を測定し、その測定結果を位置判定部26へ出力する。具体的には、フォーカシング機構16bによるピント調整時のレンズの光軸方向の位置に基づいて、静止画像内の特徴点に対応する被写体上の点と撮影点との間の距離が判定される。   The distance measurement unit 25 measures the distance between a point on the subject corresponding to the feature point in the still image and the shooting point of the still image, and outputs the measurement result to the position determination unit 26. Specifically, the distance between the point on the subject corresponding to the feature point in the still image and the shooting point is determined based on the position of the lens in the optical axis direction during the focus adjustment by the focusing mechanism 16b.

3軸加速度センサー33は、端末に生じる加速度を検出するためのセンサーであり、互いに直交する3つの方向、例えば、X軸方向、Y軸方向及びZ軸方向について加速度をそれぞれ検出し、その検出結果を変位量算出部34へ出力する。3軸加速度センサー33としては、例えば、ピエゾ抵抗素子からなるピエゾ抵抗型、或いは、容量素子からなる静電容量型の半導体センサーが用いられる。   The triaxial acceleration sensor 33 is a sensor for detecting the acceleration generated in the terminal, and detects acceleration in three directions orthogonal to each other, for example, the X axis direction, the Y axis direction, and the Z axis direction, and the detection result Is output to the displacement amount calculation unit 34. As the triaxial acceleration sensor 33, for example, a piezoresistive type composed of a piezoresistive element or a capacitance type semiconductor sensor composed of a capacitive element is used.

変位量算出部34は、3軸加速度センサー33の出力に基づいて第1撮影点に対する第2撮影点の相対位置を算出し、その算出結果を位置補正部27へ出力する。この相対位置、すなわち、第1撮影点から第2撮影点までの位置の変化量は、加速度のX軸方向、Y軸方向及びZ軸方向の各成分をそれぞれ時間について2回積分し、或いは、時間で2重積分することによって求められる。   The displacement amount calculation unit 34 calculates the relative position of the second shooting point with respect to the first shooting point based on the output of the triaxial acceleration sensor 33, and outputs the calculation result to the position correction unit 27. This relative position, that is, the amount of change in the position from the first shooting point to the second shooting point, is obtained by integrating each component of acceleration in the X-axis direction, Y-axis direction, and Z-axis direction twice over time, or It is obtained by double integration with time.

3軸地磁気センサー31は、カメラ16の光軸の向きと当該光軸を中心とする傾きとを検出するために、互いに直交する3つの方向について地磁気に対する傾斜角を検知する磁気センサーであり、例えば、磁気抵抗素子からなる。姿勢検出部32は、3軸地磁気センサー31の出力に基づいて、カメラ16の光軸の向き及び光軸を中心とする傾きを検出し、その検出結果を位置判定部26及び表面形状算出部28へ出力する。   The triaxial geomagnetic sensor 31 is a magnetic sensor that detects inclination angles with respect to geomagnetism in three directions orthogonal to each other in order to detect the direction of the optical axis of the camera 16 and the inclination about the optical axis. It consists of a magnetoresistive element. The posture detection unit 32 detects the direction of the optical axis of the camera 16 and the inclination around the optical axis based on the output of the triaxial geomagnetic sensor 31, and uses the detection results as the position determination unit 26 and the surface shape calculation unit 28. Output to.

この姿勢検出部32では、例えば、カメラ16の光軸の向きとして、X軸を中心とする回転角(ピッチ角ξ)及びY軸を中心とする回転角(ヨー角φ)が検出され、カメラ16の光軸を中心とする傾きとして、Z軸を中心とする回転角(ロール角ζ)が検出される。   In this posture detection unit 32, for example, as the orientation of the optical axis of the camera 16, a rotation angle (pitch angle ξ) centered on the X axis and a rotation angle (yaw angle φ) centered on the Y axis are detected, and the camera A rotation angle (roll angle ζ) about the Z axis is detected as the inclination about the 16 optical axes.

位置判定部26は、第1画像内の特徴点について測定された距離と、第2画像内で対応する特徴点について測定された距離と、第1撮影点及び第2撮影点でのカメラ16の向き及び傾きの各検出結果とに基づいて、第1撮影点に対する第2撮影点の相対位置を判定し、その判定結果を位置補正部27へ出力する。この様な特徴点のマッチングによる相対位置の判定を第1画像から抽出した2以上の特徴点について行うことにより、相対位置の判定精度を向上させることができる。   The position determination unit 26 measures the distance measured for the feature point in the first image, the distance measured for the corresponding feature point in the second image, and the camera 16 at the first shooting point and the second shooting point. The relative position of the second shooting point with respect to the first shooting point is determined based on the detection results of the direction and the tilt, and the determination result is output to the position correction unit 27. The relative position determination accuracy can be improved by performing the determination of the relative position by matching such feature points with respect to two or more feature points extracted from the first image.

位置補正部27は、位置判定部26による判定結果に基づいて、変位量算出部34による算出結果を補正し、補正後の相対位置データを表面形状算出部28へ出力する。例えば、変位量算出部34によって算出された変位量が、被写体上の点と各撮影点との距離と、各撮影点でのカメラ16の向き及び傾きとから推定される変位量に基づいて補正される。   The position correction unit 27 corrects the calculation result by the displacement amount calculation unit 34 based on the determination result by the position determination unit 26, and outputs the corrected relative position data to the surface shape calculation unit 28. For example, the displacement amount calculated by the displacement amount calculation unit 34 is corrected based on the displacement amount estimated from the distance between the point on the subject and each shooting point and the direction and inclination of the camera 16 at each shooting point. Is done.

表面形状算出部28は、第1画像及び第2画像と、第1撮影点及び第2撮影点でのカメラ16の向き及び傾きの各検出結果と、位置補正部27からの相対位置データとに基づいて、被写体の表面形状を算出し、3次元位置データを出力する。被写体の表面形状を算出する方法としては、ステレオ法などの公知の技術を利用すれば良い。   The surface shape calculation unit 28 uses the first image and the second image, the detection results of the orientation and tilt of the camera 16 at the first shooting point and the second shooting point, and the relative position data from the position correction unit 27. Based on this, the surface shape of the subject is calculated, and three-dimensional position data is output. As a method for calculating the surface shape of the subject, a known technique such as a stereo method may be used.

例えば、マッチング処理部24cにより、第1画像及び第2画像間で対象物上の同一箇所に対応する点がそれぞれ抽出される。表面形状算出部28では、これらの点について、3点測量の原理を利用して対象物上の点の3次元位置を算出することを繰り返すことにより、対象物の表面形状が求められる。   For example, the matching processing unit 24c extracts points corresponding to the same location on the object between the first image and the second image. The surface shape calculation unit 28 obtains the surface shape of the object by repeatedly calculating the three-dimensional position of the point on the object using the principle of three-point surveying for these points.

或いは、対象物が含まれる空間をボクセルと呼ばれる小さな立方体に分割し、各ボクセルを各画像に投影した際の画素の一致度に基づいて当該ボクセルが対象物の表面に相当するか否かを判断することによって、対象物の表面形状を算出する方法も考えられる。   Alternatively, the space containing the object is divided into small cubes called voxels, and whether or not the voxel corresponds to the surface of the object is determined based on the degree of matching of pixels when each voxel is projected onto each image. By doing so, a method of calculating the surface shape of the object is also conceivable.

図3は、図1の携帯電話機100の動作の一例を模式的に示した説明図であり、空間的に離間した撮影点C1,C2におけるカメラ座標の一例が示されている。カメラ座標とは、カメラ16の位置を原点(光学中心)とし、カメラ16の光軸方向をZ軸方向とする直交座標系のことである。   FIG. 3 is an explanatory diagram schematically showing an example of the operation of the mobile phone 100 of FIG. 1, and shows an example of camera coordinates at photographing points C1 and C2 that are spatially separated. The camera coordinates are an orthogonal coordinate system in which the position of the camera 16 is the origin (optical center) and the optical axis direction of the camera 16 is the Z-axis direction.

対象物の3次元形状を計測する場合には、空間的に離間した撮影点C1,C2で同一の対象物を被写体としてそれぞれ撮影された静止画像が用いられる。その際、各撮影点C1,C2をカメラ16の光学中心とするカメラ座標が用いられる。   When measuring the three-dimensional shape of the target object, still images are used that are respectively shot with the same target object as subjects at the spatially separated shooting points C1 and C2. At this time, camera coordinates having the respective imaging points C1 and C2 as the optical center of the camera 16 are used.

図4は、図1の携帯電話機100の動作の一例を模式的に示した説明図であり、対象物上の点Mと撮像面上の点mと光学中心Cとの関係が示されている。対象物上の任意の点を対象点Mと呼ぶと、この対象点Mについて、光学中心Cを原点とするカメラ座標における座標を(Xc,Yc,Zc)と表すと、カメラ16の焦点距離fだけ離れた撮像面への投影点mの当該撮像面上の座標(x,y)は、カメラ16の光軸の位置を原点とし、λを媒介変数として、次式(1)によって表される。

Figure 2011058854
FIG. 4 is an explanatory view schematically showing an example of the operation of the mobile phone 100 of FIG. 1, and shows the relationship among the point M on the object, the point m on the imaging surface, and the optical center C. . When an arbitrary point on the object is referred to as a target point M, the coordinates of the target point M in camera coordinates with the optical center C as the origin are represented as (Xc, Yc, Zc). The coordinates (x, y) of the projection point m on the imaging surface separated by a distance from the imaging surface are expressed by the following equation (1) with the position of the optical axis of the camera 16 as the origin and λ as a parameter. .
Figure 2011058854

さらに、最終的な画像データ上の座標(u,v)は、CCDイメージセンサー16aのスケール因子をk,k、歪みをθとし、カメラ16の光軸の位置を(u,v)として、次式(2)によって表される。

Figure 2011058854
Further, the coordinates (u, v) on the final image data are such that the scale factor of the CCD image sensor 16a is k u , k v , the distortion is θ, and the optical axis position of the camera 16 is (u 0 , v 0). ) Is expressed by the following equation (2).
Figure 2011058854

上式(2)において、投影点mが撮影画像から抽出される特徴点である場合、u,v,u,vは、特徴点の撮影画像内における位置と、当該静止画像の撮影時におけるカメラ16の向き及び傾きとに基づいて、算出することができる。 In the above equation (2), when the projection point m is a feature point extracted from the captured image, u, v, u 0 , and v 0 are the position of the feature point in the captured image and the time of capturing the still image. Can be calculated on the basis of the orientation and inclination of the camera 16.

対象点Mの空間内における一般座標(X,Y,Z)は、光学中心Cを原点に移すようにカメラ座標を回転移動及び平行移動させることによって求められる。すなわち、座標(X,Y,Z)は、回転移動を表す3行3列の行列をRとし、平行移動を表す3行1列の行列をベクトルtとして、次式(3)によって求められる。

Figure 2011058854
The general coordinates (X, Y, Z) in the space of the target point M are obtained by rotating and translating the camera coordinates so that the optical center C is moved to the origin. That is, the coordinates (X, Y, Z) are obtained by the following equation (3), where R is a 3 × 3 matrix representing rotational movement, and 3 × 1 matrix representing parallel movement is a vector t.
Figure 2011058854

上式(3)において、行列Rは、撮影点におけるカメラ16の向き及び傾きから定められる。また、ベクトルtは、第1撮影点を始点とし、第2撮影点を終点として、第1撮影点に対する第2撮影点の相対位置を示す変位ベクトルである。   In the above equation (3), the matrix R is determined from the direction and inclination of the camera 16 at the photographing point. The vector t is a displacement vector indicating the relative position of the second shooting point with respect to the first shooting point, with the first shooting point as the start point and the second shooting point as the end point.

上式(2)及び(3)から、次式(4)〜(7)が得られる。

Figure 2011058854
From the above equations (2) and (3), the following equations (4) to (7) are obtained.
Figure 2011058854

上式(4)を見れば、撮像面上の投影点mに対応する対称点Mは、カメラ16の光学中心Cと投影点mを結ぶ半直線上に位置することがわかる。また、上式(4)を第1撮影点及び第2撮影点について考える場合、第1撮影点におけるカメラ座標を一般座標とみなせば、第1撮影点について上式(3)の変換を省略することができ、第2撮影点については行列Rに対して、姿勢検出部32による検出結果を用いることができる。   From the above equation (4), it can be seen that the symmetry point M corresponding to the projection point m on the imaging surface is located on a half line connecting the optical center C of the camera 16 and the projection point m. Further, when considering the above formula (4) for the first shooting point and the second shooting point, if the camera coordinates at the first shooting point are regarded as general coordinates, the conversion of the above formula (3) is omitted for the first shooting point. For the second imaging point, the detection result by the posture detection unit 32 can be used for the matrix R.

具体的には、第1画像上の投影点をm、第2画像上の投影点をmとし、各撮影点での媒介変数をλ,λとして、次式(8)が成り立つ。

Figure 2011058854
Specifically, assuming that the projection point on the first image is m 1 , the projection point on the second image is m 2, and the parameter at each photographing point is λ 1 and λ 2 , the following equation (8) holds. .
Figure 2011058854

上式(8)をベクトルtについて解くと、次式(9)が得られる。

Figure 2011058854
When the above equation (8) is solved for the vector t, the following equation (9) is obtained.
Figure 2011058854

また、媒介変数λについては、次式(10)が成り立つ。

Figure 2011058854
For the parameter λ, the following equation (10) holds.
Figure 2011058854

従って、光学中心Cから対象点Mまでの距離が距離測定部25によって求められれば、上式(10)から、λ,λがそれぞれ求められるので、上式(9)を用いてベクトルtを算出することができる。 Therefore, if the distance measurement unit 25 obtains the distance from the optical center C to the target point M, λ 1 and λ 2 can be obtained from the above equation (10), and thus the vector t using the above equation (9). Can be calculated.

すなわち、第1画像から抽出された特徴点と、第2画像から抽出された特徴点のうち、マッチングした各特徴点について、距離測定部25によってそれぞれ対象点Mまでの距離を求めれば、上式(10)からλ,λを算出することができる。 That is, if the distance measurement unit 25 obtains the distance to the target point M for each of the matched feature points among the feature points extracted from the first image and the feature points extracted from the second image, the above formula is obtained. Λ 1 and λ 2 can be calculated from (10).

ここでは、空間的に離間した2つの撮影点でそれぞれ撮影された静止画像に基づいて、これらの撮影点間の相対位置を判定する場合の例について説明したが、3以上の撮影点でそれぞれ撮影された静止画像を用いて相対位置を判定することもできる。例えば、第3撮影点以降の撮影点について、直前の撮影点に対する相対位置を上述した方法で求め、その前の移動に対して、回転行列Rは積算し、ベクトルtは加算して累積させることにより、第1撮影点からの変位量を算出することができる。   Here, an example in which the relative position between these shooting points is determined based on still images shot at two spatially separated shooting points has been described, but shooting is performed at three or more shooting points. It is also possible to determine the relative position using the still image thus obtained. For example, for the shooting points after the third shooting point, the relative position with respect to the immediately preceding shooting point is obtained by the method described above, and the rotation matrix R is added to the previous movement, and the vector t is added and accumulated. Thus, the displacement amount from the first photographing point can be calculated.

図5及び図6のステップS101〜S114は、図1の携帯電話機100の形状計測時の動作の一例を示したフローチャートである。まず、撮像制御部22は、シャッター操作が有れば、当該シャッター操作に基づいてフォーカシング機構16bを制御し、CCDイメージセンサー16aによって生成された静止画像を第1画像として撮影画像記憶部23内に取り込む(ステップS101,S102)。   Steps S101 to S114 in FIGS. 5 and 6 are flowcharts showing an example of the operation at the time of shape measurement of the mobile phone 100 in FIG. First, if there is a shutter operation, the imaging control unit 22 controls the focusing mechanism 16b based on the shutter operation, and the still image generated by the CCD image sensor 16a is stored in the captured image storage unit 23 as a first image. Capture (steps S101, S102).

特徴点抽出部24aは、撮影画像記憶部23内に取り込まれた第1画像から特徴点を抽出する(ステップS103)。距離判定部25は、第1画像から抽出された特徴点について、対応する被写体上の点までの距離、すなわち、光学中心Cと対象点Mとの間の距離を測定する(ステップS104)。   The feature point extraction unit 24a extracts feature points from the first image captured in the captured image storage unit 23 (step S103). The distance determination unit 25 measures the distance to the corresponding point on the subject, that is, the distance between the optical center C and the target point M, for the feature points extracted from the first image (step S104).

次に、撮像制御部22は、シャッター操作が有れば、当該シャッター操作に基づいてフォーカシング機構16bを制御し、CCDイメージセンサー16aによって生成された静止画像を第2画像として撮影画像記憶部23内に取り込む(ステップS105,S106)。   Next, if there is a shutter operation, the imaging control unit 22 controls the focusing mechanism 16b based on the shutter operation, and uses the still image generated by the CCD image sensor 16a as the second image in the captured image storage unit 23. (Steps S105 and S106).

このとき、変位量算出部34は、3軸加速度センサー33の出力に基づいて、第1撮影点に対する第2撮影点の相対位置、すなわち、第1撮影点から第2撮影点までの変位量を算出する(ステップS107)。   At this time, based on the output of the triaxial acceleration sensor 33, the displacement amount calculation unit 34 calculates the relative position of the second shooting point with respect to the first shooting point, that is, the displacement amount from the first shooting point to the second shooting point. Calculate (step S107).

特徴点抽出部24aは、撮影画像記憶部23内に取り込まれた第2画像から特徴点を抽出し(ステップS108)、マッチング処理部24bは、第1画像から抽出された特徴点との関連付けを行う(ステップS109)。そして、距離判定部25は、第2画像から抽出された特徴点のうち、第1画像から抽出された特徴点とマッチングする特徴点について、被写体上の点までの距離を測定する(ステップS110)。   The feature point extraction unit 24a extracts feature points from the second image captured in the captured image storage unit 23 (step S108), and the matching processing unit 24b associates the feature points with the feature points extracted from the first image. This is performed (step S109). Then, the distance determination unit 25 measures the distance to the point on the subject for the feature point that matches the feature point extracted from the first image among the feature points extracted from the second image (step S110). .

位置判定部26は、第1画像内の特徴点について測定された距離と、第2画像内で当該特徴点に対応する特徴点について測定された距離と、第1撮影点及び第2撮影点でのカメラ16の向き及び傾きの各検出結果とに基づいて、第1撮影点に対する第2撮影点の相対位置を判定し、ベクトルtを算出する(ステップS111)。位置補正部27は、このベクトルtに基づいて、変位量算出部34によって算出された変位量を補正する(ステップS112)。   The position determination unit 26 uses the distance measured for the feature point in the first image, the distance measured for the feature point corresponding to the feature point in the second image, and the first shooting point and the second shooting point. The relative position of the second shooting point with respect to the first shooting point is determined based on the detection results of the direction and tilt of the camera 16, and a vector t is calculated (step S111). The position correction unit 27 corrects the displacement amount calculated by the displacement amount calculation unit 34 based on the vector t (step S112).

表面形状算出部28は、第1画像及び第2画像と、第1撮影点及び第2撮影点でのカメラ16の向き及び傾きの各検出結果と、位置補正部27からの相対位置データとに基づいて、被写体の表面形状を算出し、3次元位置データを出力する(ステップS113,S114)。   The surface shape calculation unit 28 uses the first image and the second image, the detection results of the orientation and tilt of the camera 16 at the first shooting point and the second shooting point, and the relative position data from the position correction unit 27. Based on this, the surface shape of the subject is calculated, and three-dimensional position data is output (steps S113 and S114).

本実施の形態によれば、静止画像内の特徴点に対応する被写体上の点までの距離を測定して撮影点間の相対位置を判定するので、GPS衛星を利用する位置検出に比べて、製造コストの増大を抑制しつつ、相対位置を精度良く判定することができる。また、特徴点周辺の領域についてピント調整時におけるレンズの位置に基づいて、静止画像内の特徴点に対応する被写体上の点までの距離を判定するので、GPS衛星を利用する位置検出に比べて、端末を小型化することができる。   According to the present embodiment, since the relative position between the shooting points is determined by measuring the distance to the point on the subject corresponding to the feature point in the still image, compared with the position detection using the GPS satellite, The relative position can be accurately determined while suppressing an increase in manufacturing cost. In addition, since the distance to the point on the subject corresponding to the feature point in the still image is determined based on the lens position at the time of focus adjustment in the area around the feature point, it is compared with position detection using a GPS satellite. The terminal can be miniaturized.

なお、本実施の形態では、地磁気に対する傾斜角を検知することによってカメラ16の向き及び傾きが検出される場合の例について説明したが、本発明はこれに限られるものではない。例えば、重力加速度を検知することによってカメラ16の向き及び傾きを検出するものであっても良い。   In the present embodiment, an example in which the direction and inclination of the camera 16 are detected by detecting an inclination angle with respect to geomagnetism has been described, but the present invention is not limited to this. For example, the direction and inclination of the camera 16 may be detected by detecting gravitational acceleration.

10 薄型筐体
11 受話用レシーバ
12 ディスプレイ
13 操作キー
14 送話用マイクロホン
15 アンテナ
16 カメラ
16a CCDイメージセンサー
16b フォーカシング機構
21 キー入力部
22 撮像制御部
23 撮影画像記憶部
24 画像処理部
24a 特徴点抽出部
24b,24c マッチング処理部
25 距離測定部
26 位置判定部
27 位置補正部
28 表面形状算出部
31 3軸地磁気センサー
32 姿勢検出部
33 3軸加速度センサー
34 変位量算出部
100 携帯電話機
C 光学中心
C1,C2 撮影点
M 対象点
m 投影点
DESCRIPTION OF SYMBOLS 10 Thin housing | casing 11 Receiver 12 Display 13 Operation key 14 Transmission microphone 15 Antenna 16 Camera 16a CCD image sensor 16b Focusing mechanism 21 Key input part 22 Imaging control part 23 Captured image memory | storage part 24 Image processing part 24a Feature point extraction Units 24b, 24c matching processing unit 25 distance measuring unit 26 position determining unit 27 position correcting unit 28 surface shape calculating unit 31 triaxial geomagnetic sensor 32 posture detecting unit 33 triaxial acceleration sensor 34 displacement amount calculating unit 100 mobile phone C optical center C1 , C2 Shooting point M Target point m Projection point

Claims (4)

被写体を撮影して静止画像を生成する撮像手段と、
上記撮像手段の光軸の向き及び上記光軸を中心とする傾きを検出する姿勢検出手段と、
上記静止画像から特徴点を抽出する特徴点抽出手段と、
上記静止画像内の上記特徴点に対応する被写体上の点及び当該静止画像の撮影が行われた撮影点間の距離を測定する距離測定手段と、
第1撮影点で撮影された第1画像内の上記特徴点について測定された距離、第2撮影点で撮影された第2画像内の上記特徴点について測定された距離、並びに、第1撮影点及び第2撮影点での上記撮像手段の向き及び傾きの各検出結果に基づいて、第1撮影点に対する第2撮影点の相対位置を判定する位置判定手段とを備えたことを特徴とする携帯端末。
Imaging means for capturing a subject and generating a still image;
Posture detection means for detecting the orientation of the optical axis of the imaging means and the inclination around the optical axis;
Feature point extracting means for extracting feature points from the still image;
Distance measuring means for measuring a distance between a point on the subject corresponding to the feature point in the still image and a shooting point at which the still image was shot;
The distance measured for the feature point in the first image taken at the first shooting point, the distance measured for the feature point in the second image taken at the second shooting point, and the first shooting point And a position determination means for determining the relative position of the second shooting point with respect to the first shooting point based on the detection results of the direction and inclination of the imaging means at the second shooting point. Terminal.
加速度を検出する加速度センサーと、
上記加速度センサーの出力に基づいて、第1撮影点に対する第2撮影点の相対位置を算出する変位量算出手段と、
上記位置判定手段による判定結果に基づいて、上記変位量算出手段による算出結果を補正する位置補正手段とを備えたことを特徴とする請求項1に記載の携帯端末。
An acceleration sensor that detects acceleration;
A displacement amount calculating means for calculating a relative position of the second shooting point with respect to the first shooting point based on the output of the acceleration sensor;
The mobile terminal according to claim 1, further comprising: a position correction unit that corrects a calculation result by the displacement amount calculation unit based on a determination result by the position determination unit.
上記撮像手段が、レンズを介して被写体から入射される光を受光する撮像素子と、上記レンズ及び上記撮像素子間の距離を変化させて上記静止画像のピント調整を行うフォーカシング機構とを有し、
上記距離測定手段が、上記レンズの光軸方向の位置に基づいて、静止画像内の特徴点に対応する被写体上の点と当該静止画像の撮影点との間の距離を判定することを特徴とする請求項1又は2に記載の携帯端末。
The imaging means includes an imaging device that receives light incident from a subject via a lens, and a focusing mechanism that adjusts a focus of the still image by changing a distance between the lens and the imaging device.
The distance measuring means determines a distance between a point on the subject corresponding to a feature point in the still image and a shooting point of the still image based on a position of the lens in the optical axis direction. The portable terminal according to claim 1 or 2.
第1画像、第2画像、第1撮影点及び第2撮影点での上記撮像手段の向き及び傾きの各検出結果、並びに、上記相対位置の判定結果に基づいて、被写体の表面形状を算出する表面形状算出手段を備えたことを特徴とする請求項1から3のいずれかに記載の携帯端末。   The surface shape of the subject is calculated based on the first image, the second image, the detection results of the orientation and inclination of the imaging means at the first shooting point and the second shooting point, and the determination result of the relative position. The portable terminal according to any one of claims 1 to 3, further comprising surface shape calculation means.
JP2009206440A 2009-09-07 2009-09-07 Portable terminal Pending JP2011058854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009206440A JP2011058854A (en) 2009-09-07 2009-09-07 Portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009206440A JP2011058854A (en) 2009-09-07 2009-09-07 Portable terminal

Publications (1)

Publication Number Publication Date
JP2011058854A true JP2011058854A (en) 2011-03-24

Family

ID=43946673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009206440A Pending JP2011058854A (en) 2009-09-07 2009-09-07 Portable terminal

Country Status (1)

Country Link
JP (1) JP2011058854A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061194A (en) * 2011-09-12 2013-04-04 Fujitsu Ltd Measuring apparatus and measuring method
CN103047969A (en) * 2012-12-07 2013-04-17 北京百度网讯科技有限公司 Method for generating three-dimensional image through mobile terminal and mobile terminal
CN103106335A (en) * 2012-12-29 2013-05-15 北京百度网讯科技有限公司 Method and device for recording and displaying three-dimensional views through mobile terminal and mobile terminal
JP2014074615A (en) * 2012-10-03 2014-04-24 Stanley Electric Co Ltd Three-dimensional information generation device and three-dimensional information generation method
JP2017191022A (en) * 2016-04-14 2017-10-19 有限会社ネットライズ Method for imparting actual dimension to three-dimensional point group data, and position measurement of duct or the like using the same
KR20190038966A (en) * 2017-10-02 2019-04-10 주식회사 비즈모델라인 Method for Measuring Numerical Value by using Camera
KR20190038965A (en) * 2017-10-02 2019-04-10 주식회사 비즈모델라인 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
JP2020082231A (en) * 2018-11-19 2020-06-04 Dmg森精機株式会社 Measurement method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061194A (en) * 2011-09-12 2013-04-04 Fujitsu Ltd Measuring apparatus and measuring method
JP2014074615A (en) * 2012-10-03 2014-04-24 Stanley Electric Co Ltd Three-dimensional information generation device and three-dimensional information generation method
CN103047969A (en) * 2012-12-07 2013-04-17 北京百度网讯科技有限公司 Method for generating three-dimensional image through mobile terminal and mobile terminal
CN103106335A (en) * 2012-12-29 2013-05-15 北京百度网讯科技有限公司 Method and device for recording and displaying three-dimensional views through mobile terminal and mobile terminal
JP2017191022A (en) * 2016-04-14 2017-10-19 有限会社ネットライズ Method for imparting actual dimension to three-dimensional point group data, and position measurement of duct or the like using the same
KR20190038966A (en) * 2017-10-02 2019-04-10 주식회사 비즈모델라인 Method for Measuring Numerical Value by using Camera
KR20190038965A (en) * 2017-10-02 2019-04-10 주식회사 비즈모델라인 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
KR102401575B1 (en) 2017-10-02 2022-05-27 주식회사 비즈모델라인 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
KR102401914B1 (en) 2017-10-02 2022-05-27 주식회사 비즈모델라인 Method for Measuring Numerical Value by using Camera
JP2020082231A (en) * 2018-11-19 2020-06-04 Dmg森精機株式会社 Measurement method

Similar Documents

Publication Publication Date Title
US9565364B2 (en) Image capture device having tilt and/or perspective correction
JP2011058854A (en) Portable terminal
JP4529157B2 (en) Three-dimensional survey system and electronic storage medium
JP4977339B2 (en) Geographic data collection device
JP6663040B2 (en) Depth information acquisition method and apparatus, and image acquisition device
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
JP2011027718A (en) Derivation of 3-dimensional information from single camera and movement sensor
WO2019080046A1 (en) Drift calibration method and device for inertial measurement unit, and unmanned aerial vehicle
JP5750696B2 (en) Display device and display program
CN108260360B (en) Scene depth calculation method and device and terminal
JP5007885B2 (en) Three-dimensional survey system and electronic storage medium
JP5543870B2 (en) Camera, camera control method, and program
KR101386773B1 (en) Method and apparatus for generating three dimension image in portable terminal
JP2013074473A (en) Panorama imaging apparatus
JP2010043961A (en) Three-dimensional image measuring system
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
JP2011199358A (en) Imaging device with positioning function
JP2015049446A (en) Imaging device
JP7328382B2 (en) wearable device
JP2012124554A (en) Imaging apparatus
WO2016157406A1 (en) Image acquisition device, image file generation method, and image file generation program
WO2013114732A1 (en) Electronic device
KR101375092B1 (en) Mobile terminal for computating an azimuth of photographing using a camera image
JP2019062279A (en) Imaging device, imaging system, and control method of imaging system
JP2013207326A (en) Imaging device and position information processing method