JP2008014825A - Method and program for measurement - Google Patents

Method and program for measurement Download PDF

Info

Publication number
JP2008014825A
JP2008014825A JP2006186945A JP2006186945A JP2008014825A JP 2008014825 A JP2008014825 A JP 2008014825A JP 2006186945 A JP2006186945 A JP 2006186945A JP 2006186945 A JP2006186945 A JP 2006186945A JP 2008014825 A JP2008014825 A JP 2008014825A
Authority
JP
Japan
Prior art keywords
distance
camera
image
measurement
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006186945A
Other languages
Japanese (ja)
Inventor
Takehiro Mabuchi
健宏 馬渕
Satoshi Futami
聡 二見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2006186945A priority Critical patent/JP2008014825A/en
Publication of JP2008014825A publication Critical patent/JP2008014825A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure a distance to an image or an object displayed in a screen image highly precisely. <P>SOLUTION: A method for measuring a distance from a predetermined position in a photographing means to an object included in an image obtained by the photographing means, comprises a following distance measuring step for solving a problem. When assuming that the pixel number corresponding to a predetermined width of the object included in the image is F; the distance of the reference that is preset is Ls; and the pixel number of the reference that is set Fs corresponding to the distance Ls, the distance L from the predetermined position in the photographing means to the object is calculated by L=(Ls ×Fs)/F and then the distance is measured. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、測定方法及び測定プログラムに係り、特に画像や映像に映っている対象物までの距離を高精度に測定するための測定方法及び測定プログラムに関する。   The present invention relates to a measurement method and a measurement program, and more particularly, to a measurement method and a measurement program for measuring a distance to an object shown in an image or video with high accuracy.

従来から、カメラ等の撮像手段を用いて人物等の対象物を撮影し、撮影された画像からカメラと対象物との距離を測定する距離測定装置が実用化されている。ここで、従来の距離測定装置としては、例えばステレオカメラを使ったものが知られている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, a distance measuring device that takes an object such as a person using an imaging unit such as a camera and measures the distance between the camera and the object from the taken image has been put into practical use. Here, as a conventional distance measuring device, for example, a device using a stereo camera is known (see, for example, Patent Document 1).

特許文献1に示されているように、ステレオカメラを使った距離測定装置の測定手法は、まず異なる位置に設置された2台のカメラで対象物を同時に撮像し、撮像された2枚の画像において人物等の同一の箇所を示す点(対応点)を特定する。その後、カメラ間の距離やカメラレンズの焦点距離を考慮して対象物までの距離を測定している。   As shown in Patent Document 1, the measurement method of the distance measuring device using a stereo camera first images an object at the same time with two cameras installed at different positions, and two captured images. The point (corresponding point) which shows the same places, such as a person, is specified. Thereafter, the distance to the object is measured in consideration of the distance between the cameras and the focal length of the camera lens.

また、この他の手法としては、カメラにレーザ光を発光させる発光部とレーザ光が物体で反射した反射光を受光する受光部からなる距離計測機能を設け、レーザ光による反射特性を利用して対象物までの距離を測定する手法がある。
特開2005−91173号公報
As another method, a distance measuring function including a light emitting unit that emits laser light to the camera and a light receiving unit that receives reflected light reflected from the object by laser light is provided, and reflection characteristics by the laser light are used. There is a method for measuring the distance to an object.
JP 2005-91173 A

しかしながら、上述したように従来の距離測定手法では、ステレオカメラによる距離の測定を行う際、複数のカメラと同時に撮影された画像や映像が必要となったり、レーザ光による距離計測機能が必要になるため、装置のコスト(価格)が高くなったり、システム構成が複雑になる等の問題があった。また、上述の距離の測定を行うと同時に効率的で高精度に対象物の位置を測定する手法がなかった。   However, as described above, in the conventional distance measurement method, when measuring a distance using a stereo camera, images and videos taken simultaneously with a plurality of cameras are required, and a distance measurement function using a laser beam is required. For this reason, there are problems such as an increase in cost (price) of the apparatus and a complicated system configuration. Further, there has been no method for measuring the position of the object at the same time as measuring the above-mentioned distance with high efficiency and high accuracy.

本発明は、上述した課題に鑑みなされたものであり、画像や映像に映っている対象物までの距離や対象物の位置を高精度に測定するための測定方法及び測定プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides a measurement method and a measurement program for measuring the distance to an object and the position of the object reflected in an image or video with high accuracy. Objective.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、撮像手段から得られる画像に含まれる対象物に対し、前記撮像手段の所定位置からの距離を測定するための測定方法において、前記画像に含まれる対象物の所定幅に対応する画素数をF、予め設定される基準となる距離をLs、前記距離Lsに対応して設定された基準となる画素数をFsとしたとき、前記撮像手段の所定位置から前記対象物までの距離Lを、L=(Ls×Fs)/Fにより算出して距離を測定する距離測定ステップを有することを特徴とする。   The invention described in claim 1 is a measuring method for measuring a distance from a predetermined position of the imaging unit to an object included in an image obtained from the imaging unit. When the number of pixels corresponding to a predetermined width is F, the reference distance set in advance is Ls, and the reference pixel number set corresponding to the distance Ls is Fs, the predetermined distance of the imaging unit is It has a distance measuring step of measuring the distance by calculating the distance L to the object by L = (Ls × Fs) / F.

また、請求項2に記載された発明は、撮像手段から得られる画像に含まれる対象物に対し、前記撮像手段の所定位置からの距離を測定するための測定方法において、前記画像に含まれる対象物の所定幅に対応する画素数をF、前記画素数Fを測定したときの前記撮像手段の画角をα、予め設定された基準となる距離をLs、前記距離Lsに対応して設定された基準となる画素数をFs、前記画素数Fsを測定したときの前記撮像手段の画角をαsとしたとき、前記撮像手段の所定位置から前記対象物までの距離Lを、L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F)により算出して距離を測定する距離測定ステップを有することを特徴とする。   According to a second aspect of the present invention, there is provided a measurement method for measuring a distance from a predetermined position of the imaging unit to an object included in the image obtained from the imaging unit. The number of pixels corresponding to a predetermined width of the object is set to F, the angle of view of the image pickup means when the number of pixels F is measured is set to α, a predetermined reference distance is set to Ls, and the distance Ls is set. When the number of reference pixels is Fs and the angle of view of the imaging unit when the number of pixels Fs is measured is αs, the distance L from the predetermined position of the imaging unit to the object is expressed as L = (Ls It is characterized by having a distance measuring step of measuring the distance by calculating by * tan (αs / 2) * Fs) / (tan (α / 2) * F).

また、請求項3に記載された発明は、撮像手段から得られる画像に含まれる対象物に対し、前記撮像手段の所定位置からの距離を測定するための測定方法において、前記画像に含まれる対象物の所定幅に対応する画素数をF、前記画素数Fを測定したときの前記撮像手段の画角をα、前記対象物の撮影方向に対する傾きをβ、予め設定された基準となる距離をLs、前記距離Lsに対応して設定された基準となる画素数をFs、前記画素数Fsを測定したときの前記撮像手段の画角をαsとしたとき、前記撮像手段の所定位置から前記対象物までの距離Lを、L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F×cosβ)により算出して距離を測定する距離測定ステップを有することを特徴とする。   According to a third aspect of the present invention, there is provided a measurement method for measuring a distance from a predetermined position of the imaging unit to an object included in the image obtained from the imaging unit. F is the number of pixels corresponding to a predetermined width of the object, α is the angle of view of the imaging means when the number of pixels F is measured, β is the inclination with respect to the shooting direction of the object, and the distance is a preset reference. Ls, where Fs is the reference pixel number set corresponding to the distance Ls, and αs is the angle of view of the imaging unit when the pixel number Fs is measured, the object from the predetermined position of the imaging unit A distance measuring step of measuring the distance by calculating the distance L to the object by L = (Ls × tan (αs / 2) × Fs) / (tan (α / 2) × F × cosβ) And

また、請求項4に記載された発明は、前記撮像手段の水平方向の画素数をN、前記撮像手段の水平方向の画角をαh、前記対象物の中心の水平方向の座標をxとしたとき、前記対象物の水平方向の角度θを、θ=tan−1(((2×x/N)−1)×tan(αh/2))により算出し、算出された結果及び前記距離測定ステップにより得られる前記撮像手段の所定位置から前記対象物までの距離に基づいて前記対象物の位置を測定する位置測定ステップを有することを特徴とする。 According to a fourth aspect of the present invention, the number of pixels in the horizontal direction of the imaging unit is N, the horizontal field angle of the imaging unit is αh, and the horizontal coordinate of the center of the object is x. Then, the horizontal angle θ of the object is calculated by θ = tan −1 (((2 × x / N) −1) × tan (αh / 2)), and the calculated result and the distance measurement And a position measuring step of measuring the position of the object based on a distance from the predetermined position of the imaging means obtained by the step to the object.

また、請求項5に記載された発明は、前記距離測定ステップ及び前記位置測定ステップにより得られた結果を少なくとも含む画面を生成する画面生成ステップを有することを特徴とする。   The invention described in claim 5 further includes a screen generation step of generating a screen including at least a result obtained by the distance measurement step and the position measurement step.

また、請求項6に記載された発明は、前記請求項1乃至前記請求項5の何れか1項に記載された測定方法をコンピュータに実行させる。   The invention described in claim 6 causes a computer to execute the measurement method described in any one of claims 1 to 5.

請求項1記載の発明によれば、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離を高精度に測定することができる。   According to the first aspect of the present invention, it is possible to measure the distance from the predetermined position of the imaging unit that has captured an image or video to the object reflected in the image or video with high accuracy.

また、請求項2記載の発明によれば、カメラのズーム機能により画角が変化した場合であっても、撮像手段と対象物との正確な距離を測定することができる。   According to the second aspect of the present invention, even when the angle of view is changed by the zoom function of the camera, it is possible to measure the exact distance between the imaging means and the object.

また、請求項3記載の発明によれば、対象物が撮像手段の方向を向いていない場合でああっても高精度に距離を測定することができる。   According to the third aspect of the present invention, the distance can be measured with high accuracy even when the object is not facing the image pickup means.

また、請求項4記載の発明によれば、対象物の位置を高精度に測定することができる。   According to the invention of claim 4, the position of the object can be measured with high accuracy.

また、請求項5記載の発明によれば、距離測定結果や位置測定結果を少なくとも含む画面を生成して出力することで、使用者等は、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離や対象物の位置を容易に把握することができる。   According to the invention described in claim 5, by generating and outputting a screen including at least the distance measurement result and the position measurement result, the user or the like can obtain an image from a predetermined position of the imaging unit that has captured the image or video. It is possible to easily grasp the distance to the object and the position of the object shown in the video.

また、請求項6記載の発明によれば、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離や対象物の位置を効率的で高精度に測定することができる。また、実行プログラムをコンピュータにインストールすることにより、容易に測定処理を実現することができる。   According to the invention described in claim 6, the distance from the predetermined position of the image pickup means for capturing an image or video to the target object shown in the image or video and the position of the target object are measured efficiently and with high accuracy. be able to. Moreover, the measurement process can be easily realized by installing the execution program in the computer.

以下に、本発明における測定方法及び測定プログラムを好適に実施した形態について、図面を用いて説明する。なお、以下に説明する実施形態では、カメラ等の撮像手段により撮影された画像又は映像に撮影されている対象物としての人物に対し、カメラからの距離と、その人物の位置情報を測定する構成をどちらも有する測定装置について説明するが、本発明はこれに限定されず、例えば、人物のカメラからの距離のみを測定するための構成と、撮影された人物の位置を測定するための構成とをそれぞれ別の構成にすることができる。   Hereinafter, preferred embodiments of the measurement method and the measurement program according to the present invention will be described with reference to the drawings. In the embodiment described below, for a person as an object photographed in an image or video photographed by an imaging means such as a camera, a configuration for measuring a distance from the camera and position information of the person However, the present invention is not limited to this, for example, a configuration for measuring only the distance of a person from the camera, and a configuration for measuring the position of the photographed person. Can be configured differently.

また、以下の実施形態では、撮像手段を別体として構成し、画像や映像等の画像情報を通信ネットワーク(有線でも無線でもよい)を介して測定装置が取得する例を示すが、例えば測定装置内に撮像装置の機能を有していてもよい。   In the following embodiments, an example in which the imaging unit is configured as a separate body and the measurement apparatus acquires image information such as images and videos via a communication network (which may be wired or wireless) is shown. It may have a function of an imaging device.

<測定装置:機能構成>
図1は、本発明における測定装置の概略構成の一例を示す図である。図1に示す測定装置10は、入力手段11と、出力手段12と、蓄積手段13と、距離測定手段14と、位置測定手段15と、画面生成手段16と、送受信手段17と、制御手段18とを有するよう構成されている。
<Measuring device: functional configuration>
FIG. 1 is a diagram illustrating an example of a schematic configuration of a measurement apparatus according to the present invention. 1 includes an input unit 11, an output unit 12, a storage unit 13, a distance measurement unit 14, a position measurement unit 15, a screen generation unit 16, a transmission / reception unit 17, and a control unit 18. It is comprised so that.

入力手段11は、カメラ等により対象者が撮影されている画像や映像等の画像情報を、後述する送受信手段17から受信するための指示や、取得した画像や映像から対象物の距離を測定したり、位置を測定するための測定指示等、各種指示情報の入力を受け付ける。なお、入力手段11は、例えばタッチパネルや操作ボタン群、キーボード、マウス等のポインティングデバイス、音声により指示を入力するためのマイク等からなる。   The input unit 11 measures an instruction for receiving image information such as an image or a video captured by the subject from a camera or the like from the transmission / reception unit 17 described later, and a distance of the target from the acquired image or video. Or input of various instruction information such as a measurement instruction for measuring a position. The input unit 11 includes, for example, a touch panel, a group of operation buttons, a keyboard, a pointing device such as a mouse, a microphone for inputting instructions by voice, and the like.

ここで、画像や映像を撮影するためのカメラの種類としては、特に制限されないが、例えば高精細カメラ、望遠カメラ等を用いることができ、市販されている一般的な解像度を有するカメラであればよい。また、カメラから得られる画像情報としては、画像や映像の他に、撮影した日時を示す撮影時間情報や、カメラを識別するカメラ識別情報、カメラ又はカメラの周辺に設置されたマイク等の音声入力手段により得られる音声情報等を有している
また、出力手段12は、入力手段11により入力された指示内容や、カメラもしくはある所定の外部メモリ装置等から得られる画像や映像、撮影された画像等を用いて距離測定手段14により得られるカメラの所定位置から人物までの距離測定結果、及び位置測定手段15により得られる対象物の位置測定結果等をディスプレイ等により出力する。なお、距離測定や位置測定結果は、画面生成手段16により生成された表示内容を出力する。
Here, the type of camera for taking an image or video is not particularly limited. For example, a high-definition camera, a telephoto camera, or the like can be used, and any commercially available camera having a general resolution can be used. Good. In addition to images and video, image information obtained from the camera includes shooting time information indicating the date and time of shooting, camera identification information for identifying the camera, and voice input from the camera or a microphone installed around the camera. In addition, the output unit 12 includes instruction information input by the input unit 11, images and videos obtained from a camera or a predetermined external memory device, and captured images. The distance measurement unit 14 outputs the distance measurement result from the predetermined position of the camera to the person and the position measurement result of the object obtained by the position measurement unit 15 using a display or the like. Note that the display contents generated by the screen generation means 16 are output as the distance measurement and position measurement results.

ここで、出力手段12は、ディスプレイの他にもスピーカ等の音声出力手段を有し、例えば距離測定や位置測定終了後、使用者等に音声で通知したり、カメラ又はカメラの周辺に設置されたマイク等の音声入力手段から得られる音声データを出力することができる。   Here, the output unit 12 includes an audio output unit such as a speaker in addition to the display. For example, after the distance measurement or the position measurement is completed, the output unit 12 is notified to the user or the like by voice, or is installed around the camera or the camera. Voice data obtained from voice input means such as a microphone can be output.

蓄積手段13は、カメラにより得られる画像情報(画像、映像、撮影時間情報、カメラ識別情報、音声等を含む)や、距離測定手段14により得られる距離測定結果、位置測定手段15により得られる位置測定結果等の各種情報を蓄積する。   The storage means 13 includes image information obtained by the camera (including images, video, shooting time information, camera identification information, sound, etc.), distance measurement results obtained by the distance measurement means 14, and positions obtained by the position measurement means 15. Accumulate various information such as measurement results.

なお、蓄積手段13に蓄積された各種データは、制御手段18からの制御信号に基づいて、必要に応じて読み出すことができ、またデータ等の更新、追加等の書き込み、削除等を行うことができる。   Various data stored in the storage means 13 can be read out as necessary based on a control signal from the control means 18, and data can be updated, added, etc. written and deleted. it can.

距離測定手段14は、送受信手段17を介して受信した画像情報、又は蓄積手段13に予め蓄積された画像情報に含まれる画像又は映像に基づいて、カメラで予め設定される所定位置から対象物までの距離を測定する。なお、具体的な距離測定手法については後述する。   The distance measuring means 14 is based on the image information received via the transmission / reception means 17 or the image or video included in the image information stored in advance in the storage means 13 from a predetermined position preset by the camera to the object. Measure the distance. A specific distance measuring method will be described later.

また、位置測定手段15は、送受信手段17を介して受信した画像情報、又は蓄積手段13に予め蓄積された画像情報に含まれる画像又は映像に基づいて、対象物の位置を測定する。なお、具体的な位置測定手法については後述する。   Further, the position measuring unit 15 measures the position of the object based on the image information received via the transmission / reception unit 17 or the image or video included in the image information stored in advance in the storage unit 13. A specific position measurement method will be described later.

また、画面生成手段16は、送受信手段17を介して受信した画像情報、又は蓄積手段13に予め蓄積された画像情報に含まれる画像又は映像や、距離測定手段14により測定された距離測定結果、位置測定手段15により測定した位置測定結果等を出力手段12から出力するための画面を生成する。なお、具体的な生成画面例については、後述する。   In addition, the screen generation unit 16 includes the image information received via the transmission / reception unit 17, the image or video included in the image information stored in advance in the storage unit 13, the distance measurement result measured by the distance measurement unit 14, A screen for outputting the position measurement result measured by the position measuring means 15 from the output means 12 is generated. A specific generation screen example will be described later.

また、送受信手段17は、アンテナや通信回線等からなり、無線や有線等により所定のカメラ等や外部蓄積装置とのデータ又は制御信号の送受信を行い、カメラ等から撮影された画像や映像の受信を行う。   The transmission / reception means 17 includes an antenna, a communication line, etc., and transmits / receives data or control signals to / from a predetermined camera or an external storage device by wireless or wired communication, and receives images and videos taken from the camera or the like. I do.

また、制御手段18は、測定装置10の各構成部全体の制御を行う。具体的には、制御手段18は、カメラで撮影された画像や映像を受信すると、蓄積手段13に蓄積させたり、距離測定手段14により画像等に含まれる人物との距離を測定させたり、位置測定手段15により画像等に含まれる人物の位置を測定させたり、画面生成手段16により測定結果をディスプレイ等に表示するための画面を生成させる等の処理の制御を行う。   Further, the control means 18 controls the entire components of the measuring apparatus 10. Specifically, when the control unit 18 receives an image or video captured by the camera, the control unit 18 stores the image or video in the storage unit 13, causes the distance measurement unit 14 to measure the distance to the person included in the image, or the like. Control of processing such as measuring the position of a person included in an image or the like by the measurement unit 15 or generating a screen for displaying the measurement result on a display or the like by the screen generation unit 16 is performed.

<距離測定手段14における距離測定手法>
次に、上述した距離測定手段14における距離測定手法について図を用いて説明する。
<距離測定の原理>
まず、本実施形態における距離測定の原理について説明する。図2は、本実施形態における距離測定の原理を説明するための図である。ここで、図2(a)は、カメラ毎に予め設定した所定位置(例えば、レンズの中心位置やカメラ本体の重心位置等)から0.5m離れた人物を撮影した画像であり、図2(b)は、カメラの所定位置から1.0m離れた人物を撮影した画像である。
<Distance Measuring Method in Distance Measuring Means 14>
Next, the distance measuring method in the distance measuring means 14 will be described with reference to the drawings.
<Principle of distance measurement>
First, the principle of distance measurement in this embodiment will be described. FIG. 2 is a diagram for explaining the principle of distance measurement in the present embodiment. Here, FIG. 2A is an image obtained by photographing a person 0.5 m away from a predetermined position (for example, the center position of the lens, the center of gravity position of the camera body, etc.) preset for each camera. b) is an image of a person photographed 1.0 m away from a predetermined position of the camera.

一般に、図2(a)、(b)に示すように、カメラに映る人物の顔は、距離によって大きさが異なり、カメラに近ければ大きく、遠ければ小さく映る。つまり、顔の大きさが分かれば従来のように複数台のステレオカメラやレーザによる反射特性を用いた測定方法を用いなくても、人物までの距離を測定することが可能である。   In general, as shown in FIGS. 2 (a) and 2 (b), the size of a person's face reflected on the camera differs depending on the distance, and is larger when closer to the camera and smaller when far away. In other words, if the size of the face is known, it is possible to measure the distance to a person without using a plurality of stereo cameras or a measurement method using reflection characteristics by laser as in the prior art.

本発明では、上述した内容に基づいて、画像や映像の各フレーム画像に映された顔の大きさ(幅、長さ等)の情報から距離を求める。具体的には、カメラに映る顔の大きさとカメラからの距離との関係を示す基準値を設定し、その基準値を用いて距離を測定する。例えば、図2(c)に示すように、顔の幅や長さを基準とし、予め設定された顔の所定幅(距離)に対応する画素数が100画素のときの距離が1mである場合、この画素数と距離との関係を基準とする。なお、図2(c)では、顔の大きさ(幅)について頭の先から顎までの距離を基準としている。なお、基準となる顔の大きさは、本発明についてはこれに限定されず、例えば眉から口元まで、目から顎まで等、両目、両眉、鼻、口、両耳、顎、頭の輪郭等の顔の特徴部分から所定の基準となる距離を少なくとも1つ選定し、選定された距離に対応する画素を設定する。   In the present invention, based on the above-described contents, the distance is obtained from information on the size (width, length, etc.) of the face shown in each frame image of the image or video. Specifically, a reference value indicating the relationship between the size of the face reflected on the camera and the distance from the camera is set, and the distance is measured using the reference value. For example, as shown in FIG. 2C, the distance is 1 m when the number of pixels corresponding to a predetermined predetermined width (distance) of the face is 100 pixels, based on the width and length of the face. Based on the relationship between the number of pixels and the distance. In FIG. 2C, the distance from the tip of the head to the jaw is used as a reference for the size (width) of the face. Note that the reference face size is not limited to this for the present invention. For example, from the eyebrows to the mouth, from the eyes to the chin, etc., both eyes, both eyebrows, nose, mouth, both ears, jaw, and head contour. At least one distance serving as a predetermined reference is selected from the facial feature such as, and a pixel corresponding to the selected distance is set.

なお、基準となる所定幅は、用途によって設定し分けるとよい。例えば、図2(a)に示すように、顎の部分が画像からはみ出してしまう場合を考えると、基準となる所定幅を例えば目元から口元までや、両目尻といったように、比較的短い距離で設定しておいたほうがよい。一方、カメラから人物までの距離が遠くなればなるほど人物は小さく映るため、基準となる所定幅を長く設定しておくことで、精度を向上させることができる。なお、これらの画素の基準は、カメラ等から得られる画像や映像の画素数に依存する。   It should be noted that the predetermined width as a reference may be set according to the application. For example, as shown in FIG. 2 (a), considering the case where the chin portion protrudes from the image, the reference predetermined width is set at a relatively short distance, for example, from the eyes to the mouth or from both eyes. It is better to set it. On the other hand, the smaller the distance from the camera to the person, the smaller the person appears. Therefore, the accuracy can be improved by setting a predetermined reference width longer. The reference for these pixels depends on the number of pixels of an image or video obtained from a camera or the like.

このように本手法では、上述したように設定される少なくとも1つの基準値に基づいて距離を測定することができる。つまり、従来のようにレーザ光による距離計測機能等を用いたり、画像中の人の位置を実際の空間上の位置に変換したり、画像情報から距離に変換するためのテーブル等を予めメモリに準備する必要がなく、顔が占める画素数に応じて距離を求めることができる。   As described above, in this method, the distance can be measured based on at least one reference value set as described above. In other words, as in the past, a distance measurement function using laser light, etc., a person's position in an image is converted to an actual space position, and a table for converting image information into distance is stored in advance in the memory. There is no need to prepare, and the distance can be obtained according to the number of pixels occupied by the face.

したがって、距離測定手段14は、画像から顔の幅に対応する画素数を抽出し、予め設定された基準値に基づいて、所定位置から画像や映像に映っている対象物までの距離を高精度に測定することができる。なお、画像に含まれる顔の検出手法は、種々の従来手法が存在するが、例えば顔に含まれる両目や鼻、口等の特徴点とその各特徴点の位置関係等により測定することができる。また、顔の検出手法については、例えば特開平11−281661号公報等に開示されている。   Therefore, the distance measuring unit 14 extracts the number of pixels corresponding to the width of the face from the image, and accurately calculates the distance from the predetermined position to the object shown in the image or video based on the preset reference value. Can be measured. Note that there are various conventional methods for detecting a face included in an image. For example, it can be measured by the feature points of both eyes, nose, mouth, etc. included in the face and the positional relationship between the feature points. . A face detection method is disclosed in, for example, Japanese Patent Application Laid-Open No. 11-281661.

次に、上述した原理に基づく実施例について説明する。   Next, an embodiment based on the above-described principle will be described.

<第1の実施例>
まず、第1の実施例として、カメラ正面を向いている人物における距離を測定する方法について説明する。
<First embodiment>
First, as a first embodiment, a method for measuring the distance of a person facing the front of the camera will be described.

図3は、距離測定における第1の実施例について説明するための図である。図3に示すように、ある所定の位置にカメラ(撮像手段)21が設置されており、カメラ21の垂直画角をα°であるとする。   FIG. 3 is a diagram for explaining a first example of distance measurement. As shown in FIG. 3, it is assumed that a camera (imaging means) 21 is installed at a certain predetermined position and the vertical angle of view of the camera 21 is α °.

ここで、カメラ21の所定の位置から所定の距離L(m)離れた位置の画像フレーム22−1とカメラ21の所定の位置から2L(m)離れた位置の画像フレーム22−2にそれぞれ人物23が撮影されているとする。このとき、図3に示すように、カメラ21からの距離が2倍になると、垂直方向の撮影可能な範囲も2倍となる。また、カメラ21の画素数は、距離にかかわらず一定であるため、カメラ21からの距離が2倍になると、垂直方向におけるカメラ21の1画素中に含まれる実際の範囲は2倍になる。しかしながら、顔の実際の大きさはカメラ21からの距離に関係なく一定(x)であるため、顔の幅(垂直方向)に対応する画素数は、垂直方向において距離が2倍になると1/2倍になる。   Here, a person is placed on an image frame 22-1 at a predetermined distance L (m) from a predetermined position of the camera 21 and an image frame 22-2 at a position 2L (m) away from the predetermined position of the camera 21, respectively. Suppose that 23 is photographed. At this time, as shown in FIG. 3, when the distance from the camera 21 is doubled, the vertical imageable range is also doubled. In addition, since the number of pixels of the camera 21 is constant regardless of the distance, when the distance from the camera 21 is doubled, the actual range included in one pixel of the camera 21 in the vertical direction is doubled. However, since the actual size of the face is constant (x) regardless of the distance from the camera 21, the number of pixels corresponding to the width of the face (vertical direction) is 1/2 when the distance is doubled in the vertical direction. Doubled.

以上のことから、カメラからの距離と顔の幅に対応する画素数の関係より、基準となる距離に対する顔の幅とその幅に対応する画素数が分かれば、例えば以下に示す数式等を用いてカメラ21の所定位置(レンズの中心位置やカメラ本体の重心位置等)から人物までの距離を、撮影された人物の顔の幅に対応した画素数から導き出すことができる。   From the above, if the width of the face relative to the reference distance and the number of pixels corresponding to the width are known from the relationship between the distance from the camera and the number of pixels corresponding to the width of the face, for example, the following formula is used: Thus, the distance from the predetermined position of the camera 21 (the center position of the lens, the gravity center position of the camera body, etc.) to the person can be derived from the number of pixels corresponding to the width of the photographed person's face.

ここで、画像に含まれる人物の所定幅に対応する画素数をF、予め設定される基準となる距離をLs、距離Lsに対応して設定された基準となる画素数をFsとすると、カメラ21の所定位置から人物までの距離をLは、L=(Ls×Fs)/Fにより求めることができる。   Here, if the number of pixels corresponding to a predetermined width of the person included in the image is F, the reference distance set in advance is Ls, and the reference pixel number set corresponding to the distance Ls is Fs, the camera The distance L from the predetermined position 21 to the person can be obtained by L = (Ls × Fs) / F.

例えば、基準値が、距離1mのとき顔の幅に対応する画素数が100画素として与えられているとすると、カメラに映った画像から検出した人物の顔が70画素のとき、カメラと人物の距離は、人物の距離L=(1m×100画素)/70画素=1.43mとなる。   For example, if the reference value is a distance of 1 m and the number of pixels corresponding to the width of the face is given as 100 pixels, when the face of a person detected from an image reflected on the camera is 70 pixels, The distance is human distance L = (1 m × 100 pixels) / 70 pixels = 1.43 m.

これにより、1つの画像や映像を用いて高精度に対象物の距離を測定することができる。   Thereby, it is possible to measure the distance of the object with high accuracy using one image or video.

<第2の実施例>
次に、本発明における第2の実施例について説明する。第2の実施例では、カメラのズームに対応した距離測定方法について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. In the second embodiment, a distance measuring method corresponding to camera zoom will be described.

図4は、距離測定における第2の実施例について説明するための図である。図4(a)、(b)に示すように、一般的なカメラ21のレンズ光学系による光学ズーム機能は、レンズ間の距離等を変化させることにより遠くの位置を撮影することができる。実際には、図4(a)、(b)に示すように、カメラ21は、画角を狭くする(α>α’)ことにより遠く(L<L’)のフレーム22−3を大きく映し出している。つまり、図4に示すように、映し出す範囲の垂直方向の大きさがy(m)で同じ場合でも、画角によってカメラ21との距離が異なることを表している。   FIG. 4 is a diagram for explaining a second embodiment of distance measurement. As shown in FIGS. 4A and 4B, the optical zoom function by the lens optical system of a general camera 21 can photograph a distant position by changing the distance between the lenses. Actually, as shown in FIGS. 4 (a) and 4 (b), the camera 21 projects a far frame (L <L ′) 22-3 by narrowing the angle of view (α> α ′). ing. That is, as shown in FIG. 4, even when the vertical size of the projected range is the same y (m), the distance to the camera 21 varies depending on the angle of view.

以上のことから、カメラからの距離と顔の幅に対応する画素数、カメラの画角の関係より、基準となる距離における顔の幅に対応する画素数、及びそのときのカメラの画角があれば、例えば以下に示すような数式を用いることにより、距離を測定する人物の顔の幅に対応した画素数から、カメラ21の所定位置から人物までの距離を導き出すことができる。   From the above, from the relationship between the distance from the camera and the face width, the relationship between the camera angle of view, the number of pixels corresponding to the face width at the reference distance, and the camera angle of view at that time If there is, for example, the following formula can be used to derive the distance from the predetermined position of the camera 21 to the person from the number of pixels corresponding to the width of the face of the person whose distance is to be measured.

ここで、画像に含まれる人物の所定幅に対応する画素数をF、画素数Fを測定したときのカメラ21の画角をα、予め設定された基準となる距離をLs、距離Lsに対応して設定された基準となる画素数をFs、画素数Fsを測定したときのカメラ21の画角をαsとしたとき、カメラ21の所定位置から人物までの距離Lは、L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F)により求めることができる。   Here, the number of pixels corresponding to a predetermined width of the person included in the image is F, the angle of view of the camera 21 when the number of pixels F is measured is α, the preset reference distance corresponds to Ls, and the distance Ls. When the reference pixel number set in this way is Fs, and the angle of view of the camera 21 when the pixel number Fs is measured is αs, the distance L from the predetermined position of the camera 21 to the person is L = (Ls × tan (αs / 2) × Fs) / (tan (α / 2) × F).

これにより、第2の実施例によれば、カメラのズーム機能により画角が変化した場合でも、対象物(人物)までの距離を算出することができる。   Thus, according to the second embodiment, the distance to the object (person) can be calculated even when the angle of view changes due to the zoom function of the camera.

例えば、基準値が、距離1mのとき顔の幅に対応する画素数が100画素であり、そのときの画角が40°として与えられているとすると、カメラに映った画像から検出した人物の顔が70画素、そのときの画角が20°のとき、カメラと人物の距離は、人物の距離L=(1m×tan(40°/2)×100画素)/(tan(20°/2)×70画素)=2.95mとなり、ズームによって画角が変わっても距離を求めることができる。   For example, if the reference value is a distance of 1 m and the number of pixels corresponding to the width of the face is 100 pixels, and the angle of view at that time is given as 40 °, When the face is 70 pixels and the angle of view is 20 °, the distance between the camera and the person is the distance L of the person L = (1 m × tan (40 ° / 2) × 100 pixels) / (tan (20 ° / 2) ) × 70 pixels) = 2.95 m, and the distance can be obtained even if the angle of view changes due to zooming.

なお、上述した第2の実施例においては、ズームだけでなく、同様の手法を用いて望遠の倍率等を基準にして距離を求めることができる。   In the second embodiment described above, the distance can be obtained on the basis of the telephoto magnification and the like using not only zoom but also a similar method.

<第3の実施例>
次に、本発明における第3の実施例について説明する。第3の実施例では、顔の傾きに対応した距離測定手法について説明する。図5は、距離測定における第3の実施例(第3の実施例)について説明するための図である。
<Third embodiment>
Next, a third embodiment of the present invention will be described. In the third embodiment, a distance measurement method corresponding to the inclination of the face will be described. FIG. 5 is a diagram for explaining a third embodiment (third embodiment) in distance measurement.

これまでの実施例では、図5(a)に示すようにカメラの撮影方向において正面を向いている顔に対して、顔の大きさと距離との間における関係式を求め、距離の測定を行っていた。この方法では、正面の顔に対しては正確に距離を測定することができたが、例えば図5(b)に示すように顔の向きが上下(左右)した場合に誤差が生じる可能性がある。具体的には、実際の正面顔の幅がF画素である場合に、撮影された顔の幅がFcosβ°画素となってしまう。したがって、第3の実施例では、これを改善するために、撮影された顔の角度による顔の大きさ(幅)の違いを関係式で求めて距離の補正を行う。   In the embodiments so far, as shown in FIG. 5A, for the face facing the front in the shooting direction of the camera, the relational expression between the face size and the distance is obtained, and the distance is measured. It was. In this method, the distance to the front face can be accurately measured. However, for example, when the face is moved up and down (left and right) as shown in FIG. is there. Specifically, when the actual front face width is F pixels, the photographed face width is Fcos β ° pixels. Therefore, in the third embodiment, in order to improve this, the difference in face size (width) depending on the angle of the photographed face is obtained by a relational expression, and the distance is corrected.

具体的には、測定した現在の顔の長さに対する画素数から距離を導き出す式に、顔の傾きに応じて、人物の距離を補正する。なお、顔の傾きの検出手法は、従来の検出手法(例えば、上述した特開平11−181661号公報)等により求めることができる。   Specifically, the distance of the person is corrected according to the inclination of the face, using a formula for deriving the distance from the number of pixels with respect to the measured current face length. The face inclination detection method can be obtained by a conventional detection method (for example, the above-mentioned Japanese Patent Application Laid-Open No. 11-181661).

ここで、画像に含まれる人物の所定幅に対応する画素数をF、画素数Fを測定したときのカメラの画角をα、人物の撮影方向に対する傾きをβ、予め設定された基準となる距離をLs、距離Lsに対応して設定された基準となる画素数をFs、画素数Fsを測定したときのカメラの画角をαsとしたとき、補正されるカメラの所定位置から人物対象物までの距離Lは、L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F×cosβ)により求めることができる。   Here, the number of pixels corresponding to a predetermined width of the person included in the image is F, the angle of view of the camera when the number of pixels F is measured is α, the inclination with respect to the shooting direction of the person is β, and a predetermined reference is used. When the distance is Ls, the reference number of pixels set corresponding to the distance Ls is Fs, and the angle of view of the camera when the number of pixels Fs is measured is αs, the person object from the predetermined position of the camera to be corrected Can be obtained by L = (Ls × tan (αs / 2) × Fs) / (tan (α / 2) × F × cosβ).

例えば、基準値が、距離1mのときに顔が占める画素数が100画素、その時の画角が40°として与えられているとすると、カメラに映った画像から検出した人物の顔が70画素、顔の傾きが30°、その時のカメラの画角が25°のとき、カメラと人物との距離Lは、L=(1m×tan(40°/2)×100画素)/(tan(20°/2)×70画素×cos30°)=3.41mとなる。   For example, when the reference value is given as 100 pixels occupied by the face when the distance is 1 m and the angle of view at that time is 40 °, the face of the person detected from the image captured by the camera is 70 pixels, When the tilt of the face is 30 ° and the angle of view of the camera at that time is 25 °, the distance L between the camera and the person is L = (1 m × tan (40 ° / 2) × 100 pixels) / (tan (20 ° / 2) × 70 pixels × cos 30 °) = 3.41 m.

これにより、人物がカメラの撮影方向を向いてなく、顔が傾いていたとしても高精度に距離を測定することができる。なお、これらの傾き補正は、顔の上下だけでなく、顔の左右にも適用することができる。   This makes it possible to measure the distance with high accuracy even when the person is not facing the shooting direction of the camera and the face is tilted. Note that these tilt corrections can be applied not only to the top and bottom of the face but also to the left and right of the face.

ここで、上述した実施例1〜3は、顔の縦幅を基準にしたが、本発明においてはこの限りではなく、横幅であってもよい。   Here, Examples 1 to 3 described above are based on the vertical width of the face. However, in the present invention, the width is not limited to this and may be a horizontal width.

<位置測定手段15における位置測定手法>
次に、位置測定手段15における位置測定手法について図を用いて説明する。本発明では、位置測定手法として、カメラの撮影範囲の中心からのずれ角度の測定を行う。
<位置測定の原理>
まず、本実施形態における位置測定の原理について説明する。図6は、本実施形態における位置測定の原理を説明するための図である。図6(a)、(b)に示すように、カメラに映る人の顔は、カメラの撮影範囲の中心(図6の点線)からのずれ角度によって画像上の座標が異なる。つまり、顔の画像上の座標が分かれば、人物のカメラの中心からのずれ角度を測定することが可能である。この原理を用いて、画像処理等により画像中にある顔を検出し、検出した顔の中心の座標を求めることによって、人物のカメラからの角度を求める。
<Position Measurement Technique in Position Measuring Unit 15>
Next, the position measuring method in the position measuring means 15 will be described with reference to the drawings. In the present invention, as a position measurement method, a deviation angle from the center of the photographing range of the camera is measured.
<Principle of position measurement>
First, the principle of position measurement in this embodiment will be described. FIG. 6 is a diagram for explaining the principle of position measurement in the present embodiment. As shown in FIGS. 6A and 6B, the coordinates of the person's face reflected on the camera vary on the image depending on the angle of deviation from the center of the shooting range of the camera (dotted line in FIG. 6). That is, if the coordinates on the face image are known, it is possible to measure the deviation angle of the person from the center of the camera. Using this principle, the face in the image is detected by image processing or the like, and the coordinates of the center of the detected face are obtained to obtain the angle of the person from the camera.

ここで、図7は、人物のカメラからの角度を測定するための一例を示す図である。図7に示すように、カメラ21からの角度は、距離にかかわらず、画像上の座標と一致する。つまり、使用するカメラ21の水平画角と画像の水平方向の座標を用いれば、1画素あたりの角度が分かる。したがって、この情報に人物23の顔の中心位置の座標を与えると人物23のカメラ21からの角度を測定することができる。   Here, FIG. 7 is a diagram illustrating an example for measuring the angle of the person from the camera. As shown in FIG. 7, the angle from the camera 21 matches the coordinates on the image regardless of the distance. That is, the angle per pixel can be found by using the horizontal angle of view of the camera 21 to be used and the horizontal coordinate of the image. Therefore, if the coordinates of the center position of the face of the person 23 are given to this information, the angle of the person 23 from the camera 21 can be measured.

例えば、図7に示すように、カメラ21から異なる距離(1.0m、2.0m、3.0m)が離れた位置の画像のフレーム22−4〜22−6において、人物23が水平方向における画像の中心(0°)から5°ずれている場合、水平方向の総画素数を320画素とすると、カメラ21からみて5°ずれた位置から左側の画素は118画素となり、5°ずれた位置から右側の画素は202画素(320−118画素)となる。   For example, as shown in FIG. 7, in frames 22-4 to 22-6 of images at different distances (1.0 m, 2.0 m, 3.0 m) from the camera 21, the person 23 is in the horizontal direction. If the total number of pixels in the horizontal direction is 320 pixels when the image is shifted by 5 ° from the center (0 °) of the image, the pixel on the left side is 118 pixels from the position shifted by 5 ° when viewed from the camera 21. The pixels on the right side are 202 pixels (320-118 pixels).

そこで、人物のカメラからの水平方向の角度を以下の手順で求める。図8は、水平方向の角度の具体的な測定方法を示す一例の図である。図8において、カメラ21の水平方向の画素数をN、カメラ21の水平方向の画角をαh°、人物(対象物)の中心の水平方向の座標をxとしたとき、人物の水平方向の角度θは、θ=tan−1(((2×x/N)−1)×tan(αh/2))により求めることができる。 Therefore, the horizontal angle from the person's camera is obtained by the following procedure. FIG. 8 is a diagram illustrating an example of a specific method for measuring the angle in the horizontal direction. In FIG. 8, when the horizontal pixel angle of the camera 21 is N, the horizontal angle of view of the camera 21 is αh °, and the horizontal coordinate of the center of the person (object) is x, the horizontal direction of the person The angle θ can be obtained by θ = tan −1 (((2 × x / N) −1) × tan (αh / 2)).

なお、人物の顔の中心座標は画像フレームの角の1つを原点座標(0,0)とし、原点を基準にして、水平方向及び垂直方向の座標を抽出する。また、図7の例では、基となる角度について、水平方向におけるカメラの中心を0°とし、一方の角度の符号を正(+:プラス)とし、他方を負(−:マイナス)としている。   As for the center coordinates of the human face, one of the corners of the image frame is set to the origin coordinate (0, 0), and the horizontal and vertical coordinates are extracted with the origin as a reference. In the example of FIG. 7, regarding the base angle, the center of the camera in the horizontal direction is 0 °, the sign of one angle is positive (+: plus), and the other is negative (−: minus).

例えば、カメラの水平方向の画素数が320画素、水平方向の画角が40°、人物の顔の水平方向の座標が60だとすると、人物の水平方向の角度は、θ°=tan−1(((2×60/320画素)−1)×tan(40°/2)=−12.8°となる。 For example, if the number of pixels in the horizontal direction of the camera is 320 pixels, the horizontal angle of view is 40 °, and the horizontal coordinate of the person's face is 60, the horizontal angle of the person is θ ° = tan −1 ((( (2 × 60/320 pixels) −1) × tan (40 ° / 2) = − 12.8 °.

<2次元平面状の座標への変換>
次に、上述により得られた距離と角度を出力する際、使用者等に視覚的に分かり易くするために、2次元平面上の座標に変換する。ここで、図9は、2次元平面上への座標変換の一例を示す図である。
<Conversion to two-dimensional planar coordinates>
Next, when outputting the distance and angle obtained as described above, it is converted into coordinates on a two-dimensional plane so that the user can visually understand it. Here, FIG. 9 is a diagram illustrating an example of coordinate transformation on a two-dimensional plane.

図9に示すように、2次元平面全体の座標(X,Y)に対して人物の得られた距離をL、角度をθとすると、2次元平面上の座標(x、y)は、x=L×sinθ、y=L×cosθで求めることができる。なお、この場合には、予めカメラに設定された基準位置に原点を設定されている。   As shown in FIG. 9, when the distance obtained by the person is L and the angle is θ with respect to the coordinates (X, Y) of the entire two-dimensional plane, the coordinates (x, y) on the two-dimensional plane are x = L × sin θ, y = L × cos θ. In this case, the origin is set at a reference position previously set in the camera.

このように、本発明により効率的に対象物(人物)の位置情報を取得することができる。   As described above, the position information of the object (person) can be efficiently acquired by the present invention.

<画面生成例>
ここで、本発明における画面生成手段16で生成される画面の一例について、図を用いて説明する。図10は、本発明において生成される画面の一例を示す図である。図10に示す測定結果表示画面30は、メニュー表示領域31と、画像表示領域32と、測定結果表示領域33と、位置表示領域34とを有するよう構成されている。
<Screen generation example>
Here, an example of the screen generated by the screen generation means 16 in the present invention will be described with reference to the drawings. FIG. 10 is a diagram showing an example of a screen generated in the present invention. The measurement result display screen 30 shown in FIG. 10 is configured to have a menu display area 31, an image display area 32, a measurement result display area 33, and a position display area 34.

メニュー表示領域31は、測定結果表示画面30に表示させる対象となる画像を読み出したり、本発明により測定された距離や位置の情報を表示したり、表示された結果を他の蓄積領域にファイル名を付けて記録させる等の処理を行う。また、画像表示領域32は、測定対象の画像を表示する。このとき、上述した画面中のどの部分が顔であるか、また顔の中心や顔の大きさ(幅、長さ)を測定するための顔の特徴点41の情報も表示される。   The menu display area 31 reads an image to be displayed on the measurement result display screen 30, displays distance and position information measured according to the present invention, and displays the displayed result in another storage area as a file name. And processing such as recording. The image display area 32 displays an image to be measured. At this time, information on the face feature point 41 for measuring which part of the screen is the face, the center of the face, and the size (width, length) of the face is also displayed.

また、測定結果表示領域33には、実際に測定した結果が表示される。ここで、測定結果表示領域33に示されるデータとしては、例えば顔の大きさや、カメラと人物との距離、顔の中心座標、カメラと人物との角度等である。なお、顔の大きさは、ある基準を100とした場合の割合を示し、顔の中心座標は、画像表示領域32の解像度(320×240)を基準にして設定される。   In the measurement result display area 33, the actual measurement result is displayed. Here, the data shown in the measurement result display area 33 are, for example, the size of the face, the distance between the camera and the person, the center coordinates of the face, the angle between the camera and the person, and the like. The size of the face indicates a ratio when a certain reference is set to 100, and the center coordinates of the face are set based on the resolution (320 × 240) of the image display area 32.

また、位置表示領域34は、2次元平面におけるカメラ42の位置と、カメラ42に対応する人物(対象物)43の位置と、カメラ42の撮影方向に対応した人物43の向いている方向を示す矢印44とをカメラ42の所定位置からの距離と共に表示させている。なお、本発明においては、位置表示領域34に表示される内容はこれに限定されず、カメラと人物との距離、位置関係がわかるような表示内容であればよい。   The position display area 34 indicates the position of the camera 42 on the two-dimensional plane, the position of the person (object) 43 corresponding to the camera 42, and the direction of the person 43 corresponding to the shooting direction of the camera 42. An arrow 44 is displayed together with a distance from a predetermined position of the camera 42. In the present invention, the content displayed in the position display area 34 is not limited to this, and any display content may be used as long as the distance and positional relationship between the camera and the person can be understood.

なお、測定結果表示画面30に表示される項目は上述した内容に限定されず、距離測定や位置測定結果を少なくとも含めばよく、例えば画像を取得したときの時間情報を表示したり、経時的に取得した測定結果を並べて表示してもよい。   The items displayed on the measurement result display screen 30 are not limited to the above-described contents, and may include at least distance measurement and position measurement results. For example, time information when an image is acquired may be displayed, The acquired measurement results may be displayed side by side.

このように、測定結果表示画面30を生成してディスプレイ等に表示することにより、使用者等は、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離や対象物の位置を容易に把握することができる。   In this way, by generating the measurement result display screen 30 and displaying it on the display or the like, the user or the like can move the distance from the predetermined position of the imaging means that captured the image or video to the object shown in the image or video. And the position of the object can be easily grasped.

このように、本発明によれば、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離を高精度に測定することができる。具体的には、上述した距離や位置測定の数式を用いてカメラと人物との距離や位置を測定することができるため、1台のカメラによって測定処理を行うことができる。   As described above, according to the present invention, it is possible to measure the distance from the predetermined position of the imaging unit that has captured an image or video to the object shown in the image or video with high accuracy. Specifically, since the distance and position between the camera and the person can be measured using the above-described formulas for distance and position measurement, the measurement process can be performed by one camera.

<実行プログラム>
ここで、上述した測定装置は、上述した専用の装置構成等を用いて本発明における測定処理を行うこともできるが、各構成における処理をコンピュータに実行させるための実行プログラムを生成し、例えば汎用のパーソナルコンピュータ、サーバ等にそのプログラムをインストールすることにより、本発明に係る測定処理を実現することができる。
<Execution program>
Here, the above-described measurement apparatus can perform the measurement process according to the present invention using the dedicated apparatus configuration described above, but generates an execution program for causing the computer to execute the process in each configuration. The measurement processing according to the present invention can be realized by installing the program in a personal computer, a server, or the like.

<ハードウェア構成>
ここで、本発明における測定処理が実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図11は、本発明における測定処理が実現可能なハードウェア構成の一例を示す図である。
<Hardware configuration>
Here, a hardware configuration example of a computer capable of executing the measurement process according to the present invention will be described with reference to the drawings. FIG. 11 is a diagram illustrating an example of a hardware configuration capable of realizing the measurement process according to the present invention.

図11におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   11 includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, a CPU (Central Processing Unit) 56 that performs various controls, and a network connection device. 57 are connected to each other by a system bus B.

入力装置51は、使用者等が操作するキーボード及びマウス等のポインティングデバイスや音声入力デバイス等を有しており、使用者等からのプログラムの実行指示等、各種操作信号、音声信号を入力する。出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイやスピーカ等を有し、CPU56が有する制御プログラムにより実行経過や結果等を表示又は音声出力することができる。   The input device 51 has a keyboard and a pointing device such as a mouse operated by a user, a voice input device, and the like, and inputs various operation signals and voice signals such as a program execution instruction from the user. The output device 52 has a display, a speaker, and the like that display various windows and data necessary for operating the computer main body for performing the processing in the present invention. Display or audio output is possible.

ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えばCD−ROM等の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。   Here, in the present invention, the execution program installed in the computer main body is provided by a recording medium 58 such as a CD-ROM. The recording medium 58 on which the program is recorded can be set in the drive device 53, and the execution program included in the recording medium 58 is installed in the auxiliary storage device 54 from the recording medium 58 via the drive device 53.

また、ドライブ装置53は、本発明に係る実行プログラムを記録媒体58に記録することができる。これにより、その記録媒体58を用いて、他の複数のコンピュータに容易にインストールすることができ、容易に本発明における測定処理を実現することができる。   Further, the drive device 53 can record the execution program according to the present invention in the recording medium 58. As a result, the recording medium 58 can be used for easy installation on a plurality of other computers, and the measurement processing in the present invention can be easily realized.

補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。また、補助記憶装置54は、上述した画像に含まれる対象物の距離情報や位置情報、カメラ21により撮影された画像情報や上述した出力画像等を蓄積する蓄積手段として用いることもできる。   The auxiliary storage device 54 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary. The auxiliary storage device 54 can also be used as a storage unit that stores distance information and position information of an object included in the above-described image, image information captured by the camera 21, the above-described output image, and the like.

CPU56は、OS(Operating System)等の制御プログラム、及び補助記憶装置54から読み出されメモリ装置55に格納されている実行プログラム等に基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、測定処理における各処理を実現することができる。また、プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また格納することもできる。   Based on a control program such as an OS (Operating System) and an execution program read from the auxiliary storage device 54 and stored in the memory device 55, the CPU 56 inputs various calculations and data with each hardware component. Each process in the measurement process can be realized by controlling processes of the entire computer such as output. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 54 and stored.

ネットワーク接続装置57は、電話回線やLAN(Local Area Network)ケーブル等の通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラムを他の端末等に提供することができる。   The network connection device 57 obtains an execution program from another terminal connected to the communication network or executes the program by connecting to a communication network such as a telephone line or a LAN (Local Area Network) cable. The execution result obtained in this way or the execution program in the present invention can be provided to other terminals or the like.

上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで測定処理を実現することができる。また、プログラムをインストールすることにより、容易に測定処理を実現することができる。   With the hardware configuration as described above, the measurement process can be realized at a low cost without requiring a special device configuration. In addition, measurement processing can be easily realized by installing a program.

<測定処理手順>
次に、本発明における測定処理手順についてフローチャートを用いて説明する。図12は、測定処理手順の一例を示すフローチャートである。なお、図12では、一例として対象物を人物とし、人物が画像中に含まれる場合に、距離及び位置を測定するものとするが、本発明においてはこれに限定されず、距離測定と位置測定を別々の測定処理として行ってもよい。
<Measurement procedure>
Next, the measurement processing procedure in the present invention will be described using a flowchart. FIG. 12 is a flowchart illustrating an example of a measurement processing procedure. In FIG. 12, the object is a person as an example, and the distance and position are measured when the person is included in the image. However, the present invention is not limited to this, and distance measurement and position measurement are not limited thereto. May be performed as separate measurement processes.

図12において、まずカメラ等の撮像手段から画像情報を入力し(S01)、その画像に人物(顔)が含まれているか否かを判断する(S02)。ここで、S02における人物の顔検出処理は、上述したように従来の顔検出手法を用いることができる。   In FIG. 12, first, image information is input from an imaging means such as a camera (S01), and it is determined whether or not a person (face) is included in the image (S02). Here, the face detection process of the person in S02 can use the conventional face detection method as described above.

次に、S02の処理において、画像中に人物がいる場合(S02において、YES)、人物の距離測定を行う(S03)。具体的には、上述した第1〜3の実施例に示したようにカメラとカメラに撮影された人物との関係(顔の大きさ、カメラの画角、顔の向き等)に基づいて、カメラの所定位置から人物までの距離を測定する。また、距離情報に基づいて人物の位置の測定を行う(S04)。S03及びS04の処理が終了後、測定結果を表示する画面を生成し(S05)、生成した画面を出力する(S06)。   Next, in the process of S02, when there is a person in the image (YES in S02), the distance of the person is measured (S03). Specifically, as shown in the first to third embodiments described above, based on the relationship between the camera and the person photographed by the camera (face size, camera angle of view, face orientation, etc.), The distance from a predetermined position of the camera to the person is measured. Further, the position of the person is measured based on the distance information (S04). After the processes of S03 and S04 are completed, a screen for displaying the measurement result is generated (S05), and the generated screen is output (S06).

ここで、S06の処理が終了後、又はS02の処理において、画像に人物がいないと判断された場合(S02において、NO)、測定処理を行う未入力画像がまだあるか否かを判断する(S07)。具体的には、例えば動画像を入力する場合には、上述した処理を繰り返し行う。   Here, after the process of S06 is completed or when it is determined in the process of S02 that there is no person in the image (NO in S02), it is determined whether or not there is still an uninput image to be subjected to the measurement process ( S07). Specifically, for example, when a moving image is input, the above-described processing is repeated.

したがって、S07の処理において、未入力画像がある場合(S07において、YES)、S01に戻り上述した処理を繰り返し行う。また、未入力画像がない場合(S07において、NO)、処理を終了する。   Therefore, if there is an uninput image in the process of S07 (YES in S07), the process returns to S01 and the above-described processes are repeated. If there is no uninput image (NO in S07), the process is terminated.

上述した測定処理により、画像や映像に映っている対象物までの距離や対象物の位置を高精度に測定することができる。また、上述した測定処理を行うプログラムをインストールすることにより、容易に人物の距離や位置を測定することができる。   By the measurement process described above, the distance to the object and the position of the object shown in the image or video can be measured with high accuracy. In addition, by installing a program for performing the above-described measurement process, it is possible to easily measure the distance and position of a person.

上述したように、本発明によれば、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離を高精度に測定することができる。具体的には、上述した距離や位置測定の数式を用いてカメラと人物との距離や位置を測定することができるため、1台のカメラによって測定処理を行うことができる。   As described above, according to the present invention, it is possible to measure the distance from the predetermined position of the imaging unit that has captured an image or video to the object reflected in the image or video with high accuracy. Specifically, since the distance and position between the camera and the person can be measured using the above-described formulas for distance and position measurement, the measurement process can be performed by one camera.

また、カメラの画角の変化に対応した第2の実施例を用いてカメラと人物との距離を測定することができる。つまり、通常、カメラが有するズーム機能は、画角を狭くすることにより遠くのものを大きく映し出しているため、映し出す範囲の大きさが同じであっても画角によってカメラからの距離が異なる。したがって、カメラのズーム機能により画角が変化した場合であっても、カメラと人物との正確な距離を測定することができる。   Further, the distance between the camera and the person can be measured using the second embodiment corresponding to the change in the angle of view of the camera. In other words, since the zoom function of a camera normally projects far away objects by narrowing the angle of view, the distance from the camera varies depending on the angle of view even if the size of the projected range is the same. Therefore, even when the angle of view is changed by the zoom function of the camera, the accurate distance between the camera and the person can be measured.

また、撮影した画像に含まれる人物の顔が傾いている場合には、人物の顔の傾きに対応した第3の実施例を用いてカメラと人物との距離を測定することができる。つまり、人物の顔の大きさによってカメラと人物との距離を測定する場合、カメラに対する人物の顔の傾きによって人物の顔の大きさが異なり、カメラと人物との距離に誤差が生じる。したがって、上述した数式により人物の顔の傾きによる距離の誤差をなくし、カメラと人物との正確な距離を測定することができる。   If the face of a person included in the photographed image is tilted, the distance between the camera and the person can be measured using the third embodiment corresponding to the tilt of the person's face. That is, when measuring the distance between the camera and the person based on the size of the person's face, the size of the person's face differs depending on the inclination of the person's face with respect to the camera, and an error occurs in the distance between the camera and the person. Therefore, it is possible to eliminate the error of the distance due to the inclination of the person's face by the above formula and to measure the exact distance between the camera and the person.

また、上述した第1〜3の実施例において測定した距離にカメラと人物との角度を組み合わせることで、カメラに対する人物の位置を測定することができる。更に、距離測定結果や位置測定結果を少なくとも含む画面を生成して出力することで、使用者等は、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離や対象物の位置を容易に把握することができる。   Further, the position of the person relative to the camera can be measured by combining the angle between the camera and the person with the distance measured in the first to third embodiments described above. Furthermore, by generating and outputting a screen including at least the distance measurement result and the position measurement result, the user or the like can go from the predetermined position of the imaging means that captured the image or video to the object reflected in the image or video. It is possible to easily grasp the distance and the position of the object.

なお、本発明における測定手法は、例えば銀行や百貨店、スーパー、コンビニ、病院、住宅周辺等の監視システム等に適用することで、より高精度に不審者を検出することができる。また、本発明における測定手法は、注目対象物を、ある商品や広告、看板等にすることで、その商品等に対する通行人やお客等の注目度や関心度等をチェックする場合にも適用することができる。   Note that the measurement method according to the present invention can detect a suspicious person with higher accuracy by applying it to, for example, a monitoring system in a bank, department store, supermarket, convenience store, hospital, house periphery, or the like. In addition, the measurement method according to the present invention is also applied to a case where the attention object is a certain product, an advertisement, a signboard, or the like, thereby checking the attention level or interest level of a passerby or customer for the product. be able to.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

本発明における測定装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the measuring apparatus in this invention. 本実施形態における距離測定の原理を説明するための図である。It is a figure for demonstrating the principle of the distance measurement in this embodiment. 距離測定における第1の実施例について説明するための図である。It is a figure for demonstrating the 1st Example in distance measurement. 距離測定における第2の実施例について説明するための図である。It is a figure for demonstrating the 2nd Example in distance measurement. 距離測定における第3の実施例について説明するための図である。It is a figure for demonstrating the 3rd Example in distance measurement. 本実施形態における位置測定の原理を説明するための図である。It is a figure for demonstrating the principle of the position measurement in this embodiment. 人物のカメラからの角度を測定するための一例を示す図である。It is a figure which shows an example for measuring the angle from the camera of a person. 水平方向の角度の具体的な測定方法を示す一例の図である。It is a figure of an example which shows the specific measuring method of the angle of a horizontal direction. 2次元平面上への座標変換の一例を示す図である。It is a figure which shows an example of the coordinate transformation on a two-dimensional plane. 本発明において生成される画面の一例を示す図である。It is a figure which shows an example of the screen produced | generated in this invention. 本発明における測定処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the measurement process in this invention. 測定処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a measurement processing procedure.

符号の説明Explanation of symbols

10 測定装置
11 入力手段
12 出力手段
13 蓄積手段
14 距離測定手段
15 位置測定手段
16 画面生成手段
17 送受信手段
18 制御手段
21,42 カメラ
22 フレーム
23,43 人物
30 測定結果表示画面
31 メニュー表示領域
32 画像表示領域
33 測定結果表示領域
34 位置表示領域
41 特徴点
44 矢印
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
DESCRIPTION OF SYMBOLS 10 Measuring apparatus 11 Input means 12 Output means 13 Accumulation means 14 Distance measurement means 15 Position measurement means 16 Screen generation means 17 Transmission / reception means 18 Control means 21, 42 Camera 22 Frame 23, 43 Person 30 Measurement result display screen 31 Menu display area 32 Image display area 33 Measurement result display area 34 Position display area 41 Feature point 44 Arrow 51 Input device 52 Output device 53 Drive device 54 Auxiliary storage device 55 Memory device 56 CPU
57 Network connection device 58 Recording medium

Claims (6)

撮像手段から得られる画像に含まれる対象物に対し、前記撮像手段の所定位置からの距離を測定するための測定方法において、
前記画像に含まれる対象物の所定幅に対応する画素数をF、予め設定される基準となる距離をLs、前記距離Lsに対応して設定された基準となる画素数をFsとしたとき、前記撮像手段の所定位置から前記対象物までの距離Lを、
L=(Ls×Fs)/F
により算出して距離を測定する距離測定ステップを有することを特徴とする測定方法。
In a measurement method for measuring a distance from a predetermined position of the imaging unit to an object included in an image obtained from the imaging unit,
When the number of pixels corresponding to a predetermined width of the object included in the image is F, the reference distance set in advance is Ls, and the reference pixel number set corresponding to the distance Ls is Fs, The distance L from the predetermined position of the imaging means to the object is
L = (Ls × Fs) / F
A measurement method comprising a distance measurement step for calculating a distance by measuring the distance.
撮像手段から得られる画像に含まれる対象物に対し、前記撮像手段の所定位置からの距離を測定するための測定方法において、
前記画像に含まれる対象物の所定幅に対応する画素数をF、前記画素数Fを測定したときの前記撮像手段の画角をα、予め設定された基準となる距離をLs、前記距離Lsに対応して設定された基準となる画素数をFs、前記画素数Fsを測定したときの前記撮像手段の画角をαsとしたとき、前記撮像手段の所定位置から前記対象物までの距離Lを、
L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F)
により算出して距離を測定する距離測定ステップを有することを特徴とする測定方法。
In a measurement method for measuring a distance from a predetermined position of the imaging unit to an object included in an image obtained from the imaging unit,
F is the number of pixels corresponding to a predetermined width of the object included in the image, α is the angle of view of the imaging means when the number of pixels F is measured, Ls is a preset reference distance, and Ls is the distance Ls. The distance L from the predetermined position of the imaging means to the object is Fs, where Fs is the number of reference pixels set corresponding to, and αs is the angle of view of the imaging means when the number of pixels Fs is measured. The
L = (Ls × tan (αs / 2) × Fs) / (tan (α / 2) × F)
A measurement method comprising a distance measurement step for calculating a distance by measuring the distance.
撮像手段から得られる画像に含まれる対象物に対し、前記撮像手段の所定位置からの距離を測定するための測定方法において、
前記画像に含まれる対象物の所定幅に対応する画素数をF、前記画素数Fを測定したときの前記撮像手段の画角をα、前記対象物の撮影方向に対する傾きをβ、予め設定された基準となる距離をLs、前記距離Lsに対応して設定された基準となる画素数をFs、前記画素数Fsを測定したときの前記撮像手段の画角をαsとしたとき、前記撮像手段の所定位置から前記対象物までの距離Lを、
L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F×cosβ)により算出して距離を測定する距離測定ステップを有することを特徴とする測定方法。
In a measurement method for measuring a distance from a predetermined position of the imaging unit to an object included in an image obtained from the imaging unit,
The number of pixels corresponding to a predetermined width of the object included in the image is F, the angle of view of the imaging unit when the number of pixels F is measured is α, and the inclination of the object with respect to the shooting direction is β, When the reference distance is Ls, the reference number of pixels set corresponding to the distance Ls is Fs, and the angle of view of the imaging means when the number of pixels Fs is measured is αs, the imaging means A distance L from the predetermined position to the object,
A measurement method comprising a distance measurement step of measuring a distance by calculating L = (Ls × tan (αs / 2) × Fs) / (tan (α / 2) × F × cosβ).
前記撮像手段の水平方向の画素数をN、前記撮像手段の水平方向の画角をαh、前記対象物の中心の水平方向の座標をxとしたとき、前記対象物の水平方向の角度θを、
θ=tan−1(((2×x/N)−1)×tan(αh/2))
により算出し、算出された結果及び前記距離測定ステップにより得られる前記撮像手段の所定位置から前記対象物までの距離に基づいて前記対象物の位置を測定する位置測定ステップを有することを特徴とする請求項1乃至3の何れか1項に記載の測定方法。
When the number of pixels in the horizontal direction of the imaging unit is N, the horizontal field angle of the imaging unit is αh, and the horizontal coordinate of the center of the target is x, the horizontal angle θ of the target is ,
θ = tan −1 (((2 × x / N) −1) × tan (αh / 2))
And a position measurement step of measuring the position of the object based on the calculated result and the distance from the predetermined position of the imaging means obtained by the distance measurement step to the object. The measurement method according to any one of claims 1 to 3.
前記距離測定ステップ及び前記位置測定ステップにより得られた結果を少なくとも含む画面を生成する画面生成ステップを有することを特徴とする請求項4に記載の測定方法。   The measurement method according to claim 4, further comprising a screen generation step of generating a screen including at least a result obtained by the distance measurement step and the position measurement step. 前記請求項1乃至前記請求項5の何れか1項に記載された測定方法をコンピュータに実行させるための測定プログラム。   A measurement program for causing a computer to execute the measurement method according to any one of claims 1 to 5.
JP2006186945A 2006-07-06 2006-07-06 Method and program for measurement Pending JP2008014825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006186945A JP2008014825A (en) 2006-07-06 2006-07-06 Method and program for measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006186945A JP2008014825A (en) 2006-07-06 2006-07-06 Method and program for measurement

Publications (1)

Publication Number Publication Date
JP2008014825A true JP2008014825A (en) 2008-01-24

Family

ID=39071977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006186945A Pending JP2008014825A (en) 2006-07-06 2006-07-06 Method and program for measurement

Country Status (1)

Country Link
JP (1) JP2008014825A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016156671A (en) * 2015-02-24 2016-09-01 Jfeスチール株式会社 Defect detection method for metal strip edge part and defect detection apparatus for metal strip edge part
WO2019163124A1 (en) * 2018-02-26 2019-08-29 三菱電機株式会社 Three-dimensional position estimation device and three-dimensional position estimation method
JP2022076721A (en) * 2020-11-10 2022-05-20 富士通フロンテック株式会社 Position detection device, position detection system, position detection method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07324932A (en) * 1994-05-31 1995-12-12 Nippon Hoso Kyokai <Nhk> Detection system of subject position and track
JP2003066321A (en) * 2001-08-29 2003-03-05 Mega Chips Corp Af control device and af control method
JP2003294855A (en) * 2002-04-03 2003-10-15 Toyota Motor Corp Crew-detecting apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07324932A (en) * 1994-05-31 1995-12-12 Nippon Hoso Kyokai <Nhk> Detection system of subject position and track
JP2003066321A (en) * 2001-08-29 2003-03-05 Mega Chips Corp Af control device and af control method
JP2003294855A (en) * 2002-04-03 2003-10-15 Toyota Motor Corp Crew-detecting apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016156671A (en) * 2015-02-24 2016-09-01 Jfeスチール株式会社 Defect detection method for metal strip edge part and defect detection apparatus for metal strip edge part
WO2019163124A1 (en) * 2018-02-26 2019-08-29 三菱電機株式会社 Three-dimensional position estimation device and three-dimensional position estimation method
CN111742191A (en) * 2018-02-26 2020-10-02 三菱电机株式会社 Three-dimensional position estimation device and three-dimensional position estimation method
JPWO2019163124A1 (en) * 2018-02-26 2020-12-03 三菱電機株式会社 3D position estimation device and 3D position estimation method
CN111742191B (en) * 2018-02-26 2022-01-14 三菱电机株式会社 Three-dimensional position estimation device and three-dimensional position estimation method
US11488319B2 (en) 2018-02-26 2022-11-01 Mitsubishi Electric Corporation Three-dimensional position estimation device and three-dimensional position estimation method
JP2022076721A (en) * 2020-11-10 2022-05-20 富士通フロンテック株式会社 Position detection device, position detection system, position detection method and program

Similar Documents

Publication Publication Date Title
USRE42794E1 (en) Information-inputting device inputting contact point of object on recording surfaces as information
US7684613B2 (en) Method and system for aligning three-dimensional shape data from photogrammetry data and three-dimensional measurement data using target locations and surface vectors
JP2007129709A (en) Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system
US9569686B2 (en) Mobile device field of view region determination
US20100245544A1 (en) Imaging apparatus, imaging control method, and recording medium
KR20170066258A (en) Information processing apparatus, information processing method, and recording medium
KR102186597B1 (en) Target size measurement system and method
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
JP2016212784A (en) Image processing apparatus and image processing method
JP4987513B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP6530432B2 (en) Image processing apparatus, image processing method and program
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JP2013126135A (en) Stereo image generation device, stereo image generation method and computer program for stereo image generation
JP2008209306A (en) Camera
JP2008014825A (en) Method and program for measurement
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP5727969B2 (en) Position estimation apparatus, method, and program
EP4246281A1 (en) Information display system, information display method, and carrier means
JP2015156540A (en) Image processing device, image processing method, and image processing program
JP2018007082A (en) Image reproduction device, control method therefor, and program
JP2013258583A (en) Captured image display, captured image display method, and program
JP6625654B2 (en) Projection device, projection method, and program
WO2021149509A1 (en) Imaging device, imaging method, and program
JP5337409B2 (en) Information presentation device
JP6624861B2 (en) Image processing apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120515