JP2014173922A - Imaging apparatus, rotation angle estimation method, and rotation angle estimation program - Google Patents

Imaging apparatus, rotation angle estimation method, and rotation angle estimation program Download PDF

Info

Publication number
JP2014173922A
JP2014173922A JP2013045089A JP2013045089A JP2014173922A JP 2014173922 A JP2014173922 A JP 2014173922A JP 2013045089 A JP2013045089 A JP 2013045089A JP 2013045089 A JP2013045089 A JP 2013045089A JP 2014173922 A JP2014173922 A JP 2014173922A
Authority
JP
Japan
Prior art keywords
rotation angle
imaging
distance image
unit
reference points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013045089A
Other languages
Japanese (ja)
Other versions
JP6167567B2 (en
Inventor
Makoto Watanabe
慎 渡邉
Nobuyori Tanaka
信頼 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2013045089A priority Critical patent/JP6167567B2/en
Publication of JP2014173922A publication Critical patent/JP2014173922A/en
Application granted granted Critical
Publication of JP6167567B2 publication Critical patent/JP6167567B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate, from a range image, an angle at which an apparatus axis defined by a structure of an imaging apparatus capturing the range image is rotated from a spatial axis defined by a structure or the like in a real space.SOLUTION: An imaging apparatus 6 includes a TOF camera 4 and an information processor 5. The TOF camera 4 captures a range image. The information processor 5 includes a reference setting unit 17 and an estimation unit 18. The reference setting unit 17 sets two reference points on the range image on the basis of a platform end part IC and acquires a positional relation on the range image between the two reference points. Assuming that the two reference points have a parallel positional relation with one of three spatial axes on the range image, the estimation unit 18 estimates such angles of rotation around three apparatus axes as to align three apparatus axes with three spatial axes respectively.

Description

この発明は、距離画像を撮像する撮像装置に関する。より詳しくは、撮像装置の構造を基準として規定される装置軸が、実空間上の構造物を基準として規定する空間軸から回転している回転角を、距離画像に基づいて推定する撮像装置、回転角推定方法、および回転角推定プログラムに関する。   The present invention relates to an imaging apparatus that captures a distance image. More specifically, an imaging apparatus that estimates, based on a distance image, a rotation angle at which an apparatus axis defined based on the structure of the imaging apparatus rotates from a spatial axis defined based on a structure in real space, The present invention relates to a rotation angle estimation method and a rotation angle estimation program.

従来、距離画像を撮像する撮像装置として、TOF(TimeOf Flight)カメラが知られている(例えば、特許文献1参照)。TOFカメラは、正弦波変調光(赤外光)を投光する投光部、および、受光面にマトリクス状に配置した複数の受光素子、を備えている。TOFカメラは、投光した赤外光が反射された拡散光(反射光)を各受光素子で受光することにより、画素毎に距離を対応付けした距離画像と、画素毎に受光強度を対応付けした受光強度画像とを撮像する。距離画像は、画素毎に投光した赤外線と各画素が受光した反射光との位相差を検出し、赤外光を投光してから反射光を受光するまでの時間(飛行時間)を各画素に対応付けすることにより得ることができる。   Conventionally, a TOF (Time Of Flight) camera is known as an imaging device that captures a distance image (see, for example, Patent Document 1). The TOF camera includes a light projecting unit that projects sinusoidal modulated light (infrared light), and a plurality of light receiving elements arranged in a matrix on the light receiving surface. The TOF camera receives the diffused light (reflected light) reflected from the projected infrared light by each light receiving element, thereby associating the distance image in which the distance is associated with each pixel and the received light intensity in each pixel. The received light intensity image is captured. The distance image detects the phase difference between the infrared light projected for each pixel and the reflected light received by each pixel, and shows the time (flight time) from when the infrared light is projected until the reflected light is received. It can be obtained by associating with a pixel.

このようなTOFカメラは、オブジェクトの有無を検知するセンサなどの用途に利用され、対象エリアの全体を撮像できるように、対象エリアの端で斜め下方や斜め上方に向けて設置される。このようにTOFカメラが配置されていると、TOFカメラの構造により規定される装置軸が、実空間上の構造物などを基準にして規定する空間軸から回転している状態となるため、距離画像から実空間上でのオブジェクトの正確な位置を把握することが難しくなってしまう。   Such a TOF camera is used for applications such as a sensor for detecting the presence or absence of an object, and is installed diagonally downward or diagonally upward at the end of the target area so that the entire target area can be imaged. When the TOF camera is arranged in this way, the device axis defined by the structure of the TOF camera is in a state of rotating from the spatial axis defined on the basis of the structure in the real space. It becomes difficult to grasp the exact position of the object in the real space from the image.

そのため、通常は、TOFカメラの設置時に、各装置軸がそれぞれ対応する空間軸から回転している回転角が、作業者によりジグ等を用いて測定され、TOFカメラにパラメータとして登録されていた。TOFカメラは、それらのパラメータを利用して、実空間上でのオブジェクトの正確な位置を把握していた。   Therefore, normally, when the TOF camera is installed, the rotation angle at which each device axis rotates from the corresponding space axis is measured by a worker using a jig or the like and registered as a parameter in the TOF camera. The TOF camera grasps the exact position of the object in the real space using these parameters.

特表2010−534000号公報Special table 2010-534000 gazette

従来、各装置軸がそれぞれ対応する空間軸から回転している回転角を作業者が測定してパラメータとしてTOFカメラに登録する作業は、作業者の習熟が必要であった。また、この作業により、TOFカメラを設置するために要する手順や時間が増えるため、TOFカメラの設置作業が煩雑化する要因となっていた。   Conventionally, it is necessary for the operator to master the operation in which the operator measures the rotation angle at which each device axis rotates from the corresponding space axis and registers it as a parameter in the TOF camera. In addition, this procedure increases the procedure and time required for installing the TOF camera, which makes the installation operation of the TOF camera complicated.

そこで、この発明の目的は、各装置軸がそれぞれに対応する空間軸から回転している回転角を、距離画像に基づいて推定する技術を提供することにある。   Accordingly, an object of the present invention is to provide a technique for estimating a rotation angle at which each device axis rotates from a corresponding space axis based on a distance image.

この発明の撮像装置は、撮像部と、基準設定部と、推定部と、を備えている。   The imaging device according to the present invention includes an imaging unit, a reference setting unit, and an estimation unit.

撮像部は、受光面に投影される対象エリアを撮像した距離画像を撮像する。撮像部は、例えば、距離画像と同じ対象エリアを撮像した受光強度画像を距離画像とともに撮像する公知のTOFカメラや、レーザ光を走査して距離画像を撮像する構成である。   The imaging unit captures a distance image obtained by capturing the target area projected on the light receiving surface. The imaging unit has, for example, a known TOF camera that captures a received light intensity image obtained by capturing the same target area as the distance image together with the distance image, or a configuration that captures the distance image by scanning laser light.

基準設定部は、撮像部で撮像された距離画像上に2つの基準点を設定する。なお、基準設定部は、例えば、実空間に存在する段差などによる距離特徴点に基づいて距離画像に基準点を設定してもよく、実空間に存在するマーカーやラインテープなどによる受光強度特徴点を受光強度画像から抽出し、距離画像に対応する基準点を設定してもよい。   The reference setting unit sets two reference points on the distance image captured by the imaging unit. Note that the reference setting unit may set the reference point in the distance image based on the distance feature point due to a step or the like existing in the real space, for example, or the received light intensity feature point by the marker or the line tape existing in the real space. May be extracted from the received light intensity image, and a reference point corresponding to the distance image may be set.

推定部は、3つの装置軸を3つの空間軸に合わせる各装置軸回りの回転角を、基準設定部で設定された2つの基準点が、距離画像上で3つの空間軸のうちの1つの軸に対して平行な位置関係にあるとして推定する。ここで、空間軸は、2つの基準点を基準に互いに直交するように規定するものである。また、装置軸は、受光面を基準に互いに直交するように規定されるものであり、例えば、装置軸の1つは、受光面に対して垂直な軸であり装置軸の他の2つは、受光面において各画素が配列される方向に沿う軸である。   The estimation unit adjusts the rotation angle about each device axis to match the three device axes with the three space axes, and the two reference points set by the reference setting unit are one of the three space axes on the distance image. It is estimated that the positional relationship is parallel to the axis. Here, the space axis is defined so as to be orthogonal to each other with reference to two reference points. The device axis is defined so as to be orthogonal to each other with respect to the light receiving surface. For example, one of the device axes is an axis perpendicular to the light receiving surface, and the other two of the device axes are The axis along the direction in which the pixels are arranged on the light receiving surface.

このように、距離画像上に2つの基準点を設定し、その2つの基準点の距離画像上での位置関係に用いることにより、3つの装置軸を3つの空間軸に合わせる各装置軸回りの回転角を、距離画像に基づいて推定することができる。   In this way, by setting two reference points on the distance image and using them for the positional relationship of the two reference points on the distance image, the three device axes are aligned around the three spatial axes. The rotation angle can be estimated based on the distance image.

なお、推定部が各装置軸回りの回転角を推定しようとする前に、回転角を推定しようとする装置軸とは別の装置軸を合わせることになる空間軸に対して平行な位置関係にある2つの基準点を設定すると好適である。また、基準設定部は、推定部が各装置軸回りの回転角を推定しようとする前に、推定部で先に得られた装置軸回りの回転角により修正した位置関係に基づいて、2つの基準点を設定すると好適である。また、推定部は、各装置軸回りの回転角を推定しようとする際に、先に得られた装置軸回りの回転角により修正した位置関係に基づいて、各装置軸回りの回転角を推定すると好適である。また、推定部は、各装置軸回りの回転角が一定の範囲に収束するまで、各装置軸回りでの回転角の導出を繰り返すと好適である。   In addition, before the estimation unit tries to estimate the rotation angle around each device axis, the positional relationship is parallel to the spatial axis to be combined with a device axis different from the device axis for which the rotation angle is to be estimated. It is preferable to set two reference points. Further, the reference setting unit is configured based on the positional relationship corrected by the rotation angle around the device axis previously obtained by the estimation unit before the estimation unit tries to estimate the rotation angle around each device axis. It is preferable to set a reference point. In addition, when estimating the rotation angle around each device axis, the estimation unit estimates the rotation angle around each device axis based on the positional relationship corrected by the rotation angle around the device axis obtained previously. It is preferable. Further, it is preferable that the estimation unit repeats the derivation of the rotation angle around each device axis until the rotation angle around each device axis converges to a certain range.

上述のように基準設定部や推定部を構成することにより、距離画像に含まれる解像度に基づく誤差が大きくても、距離画像に含まれる誤差の影響を抑制して、各装置軸がそれぞれ空間軸から回転している回転角を精度よく推定することができる。   By configuring the reference setting unit and the estimation unit as described above, even if an error based on the resolution included in the distance image is large, the influence of the error included in the distance image is suppressed, so that each device axis is a spatial axis. It is possible to accurately estimate the rotation angle of the rotation.

また、この発明にかかる回転角推定方法は、上述の撮像部、基準設定部、および推定部の構成に相当する処理を情報処理装置に実行させる発明である。   The rotation angle estimation method according to the present invention is an invention that causes an information processing apparatus to execute processing corresponding to the configuration of the imaging unit, the reference setting unit, and the estimation unit described above.

さらに、この発明にかかる回転角推定プログラムは、情報処理装置にインストールすることで、上述の撮像部、基準設定部、および推定部の構成に相当する処理を情報処理装置に実行させる発明である。   Furthermore, the rotation angle estimation program according to the present invention is an invention that, when installed in an information processing apparatus, causes the information processing apparatus to execute processing corresponding to the configuration of the imaging unit, the reference setting unit, and the estimation unit described above.

これらの発明によれば、距離画像に2つの基準点を設定し、距離画像上での2つの基準点の位置関係を用いることにより、各装置軸がそれぞれ空間軸から回転している回転角を、距離画像に基づいて推定することができる。これにより、撮像装置の設置時の作業を簡略化することが可能になる。   According to these inventions, by setting two reference points in the distance image and using the positional relationship between the two reference points on the distance image, the rotation angle at which each device axis rotates from the space axis can be determined. Can be estimated based on the distance image. Thereby, it becomes possible to simplify the operation | work at the time of installation of an imaging device.

TOFカメラが設置されている駅のプラットホームを示す概略図である。It is the schematic which shows the platform of the station in which the TOF camera is installed. 撮像装置の主要部の構成を示す模式図である。It is a schematic diagram which shows the structure of the principal part of an imaging device. 回転角推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a rotation angle estimation process. 撮像ステップの一例を示すフローチャートである。It is a flowchart which shows an example of an imaging step. 基準設定ステップの一例を示すフローチャートである。It is a flowchart which shows an example of a reference | standard setting step. 基準設定ステップの他の例を示すフローチャートである。It is a flowchart which shows the other example of a reference | standard setting step. 推定ステップの一例を示すフローチャートである。It is a flowchart which shows an example of an estimation step.

以下、この発明の実施形態に係る撮像装置、回転角推定方法、および回転角推定プログラムについて説明する。   Hereinafter, an imaging device, a rotation angle estimation method, and a rotation angle estimation program according to embodiments of the present invention will be described.

この実施形態で説明する撮像装置の一例は、駅のプラットホームの端部付近の空間を対象エリアとして設けられ、検知対象エリア内に位置するオブジェクトの有無を検出する。そして、撮像装置は、オブジェクトの検出を伝える信号を外部装置に出力し、外部装置に警報等を行わせることにより、乗降客がプラットホームから線路内に落ちることなどを防止する。   An example of the imaging apparatus described in this embodiment is provided with a space near the end of a platform of a station as a target area, and detects the presence or absence of an object located in the detection target area. Then, the imaging device outputs a signal that tells the detection of the object to the external device and causes the external device to perform an alarm or the like, thereby preventing a passenger from falling on the track from the platform.

図1は、撮像装置をプラットホームに設置している状態を示す概念図である。図1(A)は撮像装置が撮像する撮像エリアを右手側から視た側面図である。図1(B)は撮像装置が撮像する撮像エリアを上側から視た平面図である。図1(C)は撮像装置が撮像する撮像エリアを奥側から視た側面図である。図1(A)には、実空間上の構造物であるプラットホームを基準として規定する空間軸X,Y,Zと、撮像装置の受光面の構造を基準として規定される装置軸x,y,zとを表示している。なお、空間軸X,Y,Zは、実空間上の構造物であれば、どのような構造物を基準として規定されてもよい。装置軸x,y,zは、撮像装置の受光面の構造であれば、どのような構造を基準として規定されてもよい。   FIG. 1 is a conceptual diagram illustrating a state in which an imaging device is installed on a platform. FIG. 1A is a side view of an imaging area captured by the imaging apparatus as viewed from the right hand side. FIG. 1B is a plan view of an imaging area captured by the imaging apparatus as viewed from above. FIG. 1C is a side view of an imaging area captured by the imaging apparatus viewed from the back side. In FIG. 1A, spatial axes X, Y, and Z that are defined with reference to the platform, which is a structure in real space, and device axes x, y, and Z that are defined with reference to the structure of the light receiving surface of the imaging device. z is displayed. The space axes X, Y, and Z may be defined based on any structure as long as it is a structure in real space. The device axes x, y, and z may be defined based on any structure as long as the structure of the light receiving surface of the imaging device.

駅1は、プラットホーム1Aと線路1Bとを有している。プラットホーム1Aはおおよそ水平であり、線路1Bに面してプラットホーム端部1Cを有している。   The station 1 has a platform 1A and a track 1B. The platform 1A is approximately horizontal and has a platform end 1C facing the track 1B.

プラットホーム1Aは、落下防止柵2を有している。落下防止柵2は、プラットホーム端部1Cから線路1Bとは反対側に離して設置されている。また、落下防止柵2は、プラットホーム端部1Cと平行に配置されている。落下防止柵2は、スライドドア2Aと筐体2Bとを有している。筐体2Bは、スライドドア2Aの戸袋として機能する。スライドドア2Aは、線路1Bに停車する列車の各ドアに対向する位置に設けられている。また、スライドドア2Aは、スライド自在に筐体2Bに取り付けられており、図1(B)に示す閉する状態から、左右方向にスライドすることにより筐体2B内(戸袋)に収納され、開する状態になる。   The platform 1 </ b> A has a fall prevention fence 2. The fall prevention fence 2 is installed away from the platform end 1C on the side opposite to the track 1B. Moreover, the fall prevention fence 2 is arrange | positioned in parallel with the platform edge part 1C. The fall prevention fence 2 has a slide door 2A and a housing 2B. The housing 2B functions as a door pocket of the slide door 2A. The slide door 2A is provided at a position facing each door of the train that stops on the track 1B. The sliding door 2A is slidably attached to the housing 2B, and is slid in the left-right direction from the closed state shown in FIG. It becomes a state to do.

プラットホーム1Aには、支柱3とTOFカメラ4とが設置されている。支柱3は、落下防止柵2の筐体2Bに近接するように設置されている。また、支柱3は、落下防止柵2の筐体2Bよりもプラットホーム端部1C側に配置されている。TOFカメラ4は、この実施形態に係る撮像部を構成している。このTOFカメラ4は、支柱3に取り付けられており、支柱3の上端部から斜め下方を撮像し、受光面に投影されるスライドドア2Aと線路1Bとの間のエリアの画像を得る。なお、TOFカメラ4は、落下防止柵2の筐体2Bに直接取り付けられていてもよい。TOFカメラ4および支柱3は、線路1Bに停車する列車の各ドアと各スライドドア2Aとの間の空間を撮像するように複数、設けられていると好適である。   A support column 3 and a TOF camera 4 are installed on the platform 1A. The support column 3 is installed so as to be close to the housing 2 </ b> B of the fall prevention fence 2. Moreover, the support | pillar 3 is arrange | positioned rather than the housing | casing 2B of the fall prevention fence 2 at the platform end part 1C side. The TOF camera 4 constitutes an imaging unit according to this embodiment. The TOF camera 4 is attached to the column 3 and images an obliquely lower side from the upper end of the column 3 to obtain an image of an area between the slide door 2A and the track 1B projected onto the light receiving surface. The TOF camera 4 may be directly attached to the housing 2B of the fall prevention fence 2. It is preferable that a plurality of TOF cameras 4 and support columns 3 are provided so as to image a space between each door of the train that stops on the track 1B and each slide door 2A.

空間軸X,Y,Zは、ここでは、実空間上の構造物であるプラットホームを基準として規定する。空間軸Zは、実空間において水平な直線を構成しており、プラットホーム端部1Cに平行な直線として定めている。空間軸Xは、空間軸Zに直交する直線であり、ここでは実空間においてプラットホーム端部1Cに直交する水平な直線として定めている。空間軸Yは、空間軸Zおよび空間軸Xに直交する直線であり、ここでは実空間においてプラットホーム端部1Cに直交する鉛直な直線として定めている。また、ここでは、空間軸X,Y,Zは、TOFカメラ4の受光面の中心で交差するように定めている。   Here, the space axes X, Y, and Z are defined with reference to a platform that is a structure in real space. The space axis Z forms a horizontal straight line in the real space, and is defined as a straight line parallel to the platform end 1C. The space axis X is a straight line orthogonal to the space axis Z, and is defined here as a horizontal straight line orthogonal to the platform end 1C in real space. The space axis Y is a straight line orthogonal to the space axis Z and the space axis X, and is defined here as a vertical straight line orthogonal to the platform end 1C in real space. Here, the spatial axes X, Y, and Z are determined to intersect at the center of the light receiving surface of the TOF camera 4.

装置軸x,y,zは、TOFカメラ4の構造を基準として規定される。装置軸zは、TOFカメラ4の受光面に垂直な直線である。装置軸xは、詳細は後述するがTOFカメラ4を構成する受光素子の配列の行方向に平行する直線である。装置軸yは、詳細は後述するが受光素子の配列の列方向に平行する直線である。ここでは、装置軸x,y,zは、TOFカメラ4の受光面の中心で交差するように定めている。TOFカメラ4は、装置軸x,y,zが、それぞれ空間軸X,Y,Zからわずかに傾くように配置されている。   The device axes x, y, and z are defined based on the structure of the TOF camera 4. The device axis z is a straight line perpendicular to the light receiving surface of the TOF camera 4. The device axis x is a straight line parallel to the row direction of the arrangement of the light receiving elements constituting the TOF camera 4 as will be described in detail later. The device axis y is a straight line parallel to the column direction of the arrangement of the light receiving elements, details of which will be described later. Here, the apparatus axes x, y, and z are determined so as to intersect at the center of the light receiving surface of the TOF camera 4. The TOF camera 4 is arranged so that the device axes x, y, and z are slightly inclined from the spatial axes X, Y, and Z, respectively.

図2(A)は、TOFカメラ4を構成の一部に含む撮像装置6のブロック図である。図2(B)は、TOFカメラ4の受光面の構成を示す概念図である。   FIG. 2A is a block diagram of an imaging apparatus 6 that includes the TOF camera 4 as part of its configuration. FIG. 2B is a conceptual diagram showing the configuration of the light receiving surface of the TOF camera 4.

撮像装置6は、TOFカメラ4と、情報処理装置5とを備えている。   The imaging device 6 includes a TOF camera 4 and an information processing device 5.

TOFカメラ4は、情報処理装置5から入力される制御信号に従って動作し、各画素に距離を対応付けした距離画像と、各画素に受光強度を対応付けした受光強度画像と、を撮像し、それらの画像を情報処理装置5に出力する。また、TOFカメラ4は、投光部12と、受光部13と、距離算出部14と、を備えている。投光部12は、制御信号が入力されることにより、赤外光を撮像エリアに照射する。受光部13は、図2(B)に詳細を示すように、マトリクス状に配置されたn×m個の受光素子13Aを備えている。受光素子13Aの配列の行方向、即ち、図1で示した装置軸xに沿う方向には、n個の受光素子13Aが配列されている。受光素子13Aの配列の列方向、即ち、図1で示した装置軸yに沿う方向には、m個の受光素子13Aが配列されている。各受光素子13Aは、撮像エリア内の反射物に照射された赤外光の反射光を受光する。距離算出部14は、受光素子13A毎に、赤外光を撮像エリアに照射してから各受光素子13Aが反射光を受光するまでの時間(飛行時間)を、光の位相差に基づいて算出する。これにより、TOFカメラ4は、各受光素子13Aに対応する画素毎に反射光の受光強度を対応付けして受光強度画像を撮像するとともに、画素毎に距離を対応付けして距離画像を撮像する。TOFカメラ4は、これらの画像を、1秒間に5〜10フレーム程度撮像することができる。   The TOF camera 4 operates in accordance with a control signal input from the information processing device 5 and captures a distance image in which a distance is associated with each pixel and a received light intensity image in which a received light intensity is associated with each pixel. Are output to the information processing apparatus 5. The TOF camera 4 includes a light projecting unit 12, a light receiving unit 13, and a distance calculating unit 14. The light projecting unit 12 irradiates the imaging area with infrared light when a control signal is input. As shown in detail in FIG. 2B, the light receiving unit 13 includes n × m light receiving elements 13A arranged in a matrix. In the row direction of the arrangement of the light receiving elements 13A, that is, in the direction along the device axis x shown in FIG. 1, n light receiving elements 13A are arranged. In the column direction of the arrangement of the light receiving elements 13A, that is, the direction along the apparatus axis y shown in FIG. 1, m light receiving elements 13A are arranged. Each light receiving element 13A receives the reflected light of the infrared light irradiated to the reflector in the imaging area. The distance calculation unit 14 calculates, for each light receiving element 13A, the time (flight time) from when the light receiving element 13A receives reflected light after irradiating the imaging area with infrared light based on the phase difference of the light. To do. Thus, the TOF camera 4 captures a received light intensity image by associating the received light intensity of the reflected light with each pixel corresponding to each light receiving element 13A, and captures a distance image by associating the distance with each pixel. . The TOF camera 4 can capture about 5 to 10 frames of these images per second.

なお、撮像部は、距離画像が生成できるならば、受光強度画像が得られなくてもよく、TOFカメラ4に替えて別の構成を採用してもよい。例えば、レーザ光を走査するような構成であってもよい。   The imaging unit may not be able to obtain a received light intensity image as long as a distance image can be generated, and may adopt another configuration instead of the TOF camera 4. For example, the structure which scans a laser beam may be sufficient.

情報処理装置5は、オブジェクト検出処理を実行するためのオブジェクト検出プログラムと、回転角推定処理を実行するための回転角推定プログラムと、がインストールされている。オブジェクト検出処理は、TOFカメラ4から受け取る距離画像を用いて、検知対象エリア内に位置するオブジェクトの有無を検出する処理である。検知対象エリアは、TOFカメラ4が撮像する撮像エリアの一部である。回転角推定処理は、TOFカメラ4から受け取る距離画像を用いて、各装置軸がそれぞれ空間軸から回転している回転角を推定する処理である。   The information processing apparatus 5 is installed with an object detection program for executing object detection processing and a rotation angle estimation program for executing rotation angle estimation processing. The object detection process is a process for detecting the presence or absence of an object located in the detection target area using a distance image received from the TOF camera 4. The detection target area is a part of the imaging area captured by the TOF camera 4. The rotation angle estimation process is a process for estimating the rotation angle at which each device axis rotates from the space axis using the distance image received from the TOF camera 4.

そのため、情報処理装置5は、制御部11と記憶部15とを備えている。制御部11は、情報処理装置5の全体を制御して、オブジェクト検出処理と回転角推定処理とを実行する。記憶部15は、オブジェクト検出プログラムと回転角推定プログラムとを含む各種プログラムコードや、TOFカメラ4から受け取る距離画像および受光強度画像、エリア設定パラメータと回転角パラメータとを含む各種パラメータ等を記憶する。   For this reason, the information processing apparatus 5 includes a control unit 11 and a storage unit 15. The control unit 11 controls the entire information processing apparatus 5 to execute object detection processing and rotation angle estimation processing. The storage unit 15 stores various program codes including an object detection program and a rotation angle estimation program, distance images and received light intensity images received from the TOF camera 4, various parameters including area setting parameters and rotation angle parameters, and the like.

ここで、図1に示した駅1において列車等の運行が行われている通常時等に、検知対象エリア内でのオブジェクトの有無を検出するオブジェクト検出処理の概要を簡単に説明する。   Here, an outline of an object detection process for detecting the presence or absence of an object in the detection target area at a normal time when a train or the like is operated at the station 1 shown in FIG. 1 will be briefly described.

制御部11は、一定周期で繰り返し、TOFカメラ4に制御信号を出力する。TOFカメラ4は、制御信号を受けることにより距離画像および受光強度画像を撮像し、得られた画像を情報処理装置5に出力する。制御部11は、TOFカメラ4から距離画像および受光強度画像を受けとると、記憶部15に記憶させ、予め登録されているエリア規定パラメータと回転角パラメータとを読み出す。エリア規定パラメータは、図1に示した空間軸X,Y,Zにおける検知対象エリアの範囲を表すパラメータである。回転角パラメータは、図1に示した装置軸x,y,zがそれぞれ空間軸X,Y,Zから回転している回転角を推定することで得たパラメータである。制御部11は、記憶部15から読み出したパラメータと距離画像とに基づいて、検知対象エリア内でのオブジェクトの有無を検出する。そして、制御部11は、検知対象エリア内にオブジェクトを検出すると、落下防止柵の制御装置や、中央制御装置、警報装置などの外部装置に検出信号を出力する。検出信号が入力された外部装置は、検知対象エリア内にオブジェクトが検出されていることを駅係員等に知らせるために、警告音による報知や、警告灯を点灯させる等の処理を行う。   The control unit 11 outputs a control signal to the TOF camera 4 repeatedly at a constant cycle. The TOF camera 4 receives a control signal, captures a distance image and a received light intensity image, and outputs the obtained image to the information processing device 5. When the control unit 11 receives the distance image and the received light intensity image from the TOF camera 4, the control unit 11 stores the distance image and the received light intensity image in the storage unit 15, and reads the area defining parameter and the rotation angle parameter registered in advance. The area defining parameter is a parameter representing the range of the detection target area in the spatial axes X, Y, and Z shown in FIG. The rotation angle parameter is a parameter obtained by estimating the rotation angle at which the device axes x, y, and z shown in FIG. 1 are rotating from the spatial axes X, Y, and Z, respectively. The control unit 11 detects the presence / absence of an object in the detection target area based on the parameter read from the storage unit 15 and the distance image. And the control part 11 will output a detection signal to external devices, such as a control apparatus of a fall prevention fence, a central control apparatus, and an alarm device, if an object is detected in a detection object area. The external device to which the detection signal is input performs processing such as notification by a warning sound or lighting of a warning lamp in order to notify a station staff or the like that an object is detected in the detection target area.

なお、図1を示したように、TOFカメラ4は、装置軸x,y,zが空間軸X,Y,Zからずれるように設置されている。このため、制御部11で画像から検出されるオブジェクトの位置は、空間軸X,Y,Zに直接対応付けられたものではなく、装置軸x,y,zに対応付けられたものになる。一方、エリア規定パラメータは、空間軸X,Y,Zに対応付けられたものである。したがって、制御部11では、画像をそのまま用いては、検知対象エリア内でのオブジェクトの有無を正確に検出することが困難である。   As shown in FIG. 1, the TOF camera 4 is installed such that the apparatus axes x, y, and z are deviated from the spatial axes X, Y, and Z. For this reason, the position of the object detected from the image by the control unit 11 is not directly associated with the spatial axes X, Y, and Z, but is associated with the device axes x, y, and z. On the other hand, the area defining parameters are associated with the spatial axes X, Y, and Z. Therefore, it is difficult for the control unit 11 to accurately detect the presence or absence of an object in the detection target area using the image as it is.

そこで、制御部11は、装置軸x,y,zがそれぞれ空間軸X,Y,Zから回転している回転角を推定した回転角パラメータを用いて、空間軸X,Y,Z上でのオブジェクトの位置を取得する。例えば、次に示す変換式により、装置軸x,y,z上でのオブジェクトの位置を、空間軸X,Y,Z上でのオブジェクトの位置に変換する。なお、次式で用いているθx,θy,θzは、それぞれ装置軸x回りでの回転角パラメータ、装置軸y回りでの回転角パラメータ、装置軸z回りでの回転角パラメータである。 Therefore, the control unit 11 uses the rotation angle parameters that estimate the rotation angles at which the device axes x, y, and z are rotating from the space axes X, Y, and Z, respectively, on the space axes X, Y, and Z. Get the position of the object. For example, the position of the object on the device axes x, y, and z is converted to the position of the object on the space axes X, Y, and Z by the following conversion formula. Note that θ x , θ y , and θ z used in the following equations are a rotation angle parameter around the device axis x, a rotation angle parameter around the device axis y, and a rotation angle parameter around the device axis z, respectively. .

Figure 2014173922
Figure 2014173922

制御部11は、上記式を用いて、空間軸X,Y,Z上でのオブジェクトの位置を推定し、検知対象エリアと比較して、検出対象エリア内でのオブジェクトの有無を正確に検出する。   The control unit 11 estimates the position of the object on the spatial axes X, Y, and Z using the above formula, and accurately detects the presence or absence of the object in the detection target area as compared with the detection target area. .

次に、図1に示した駅1においてプラットホーム1AにTOFカメラ4が設置される設置時等に、装置軸x,y,zがそれぞれ空間軸X,Y,Zから回転している回転角を画像から推定する回転角推定処理の概要について説明する。なお、回転角推定処理は、TOFカメラ4の設置当初のみ実施されてもよく、外部からの指示を受けることにより任意のタイミングで実施されてもよく、一定の期間が経過する度に自動的に実施されてもよい。   Next, when the TOF camera 4 is installed on the platform 1A at the station 1 shown in FIG. 1, the rotation angles at which the device axes x, y, and z are rotated from the spatial axes X, Y, and Z, respectively. An outline of the rotation angle estimation process estimated from the image will be described. The rotation angle estimation process may be performed only at the beginning of the installation of the TOF camera 4 or may be performed at an arbitrary timing by receiving an instruction from the outside, and automatically every time a certain period elapses. May be implemented.

制御部11は、回転角推定処理を行うための機能ブロックとして画像取得部16と基準設定部17と推定部18とを備えている。制御部11は、画像取得部16と基準設定部17と推定部18とを機能させることにより、回転角推定処理を実行する。   The control unit 11 includes an image acquisition unit 16, a reference setting unit 17, and an estimation unit 18 as functional blocks for performing the rotation angle estimation process. The control unit 11 executes the rotation angle estimation process by causing the image acquisition unit 16, the reference setting unit 17, and the estimation unit 18 to function.

図3は、回転角推定処理の概略のフローチャートである。   FIG. 3 is a schematic flowchart of the rotation angle estimation process.

制御部11は、まず、画像取得部16を機能させることにより撮像ステップ(S1)を実施し、TOFカメラ4に距離画像および受光強度画像を撮像させる。次に、基準設定部17を機能させることにより第1の基準設定ステップ(S2)を実施し、基準点の組を設定する。次に、推定部18を機能させることにより第1の推定ステップ(S3)を実施し、回転角パラメータθxを算出する。次に、基準設定部17を機能させることにより第2の基準設定ステップ(S4)を実施し、基準点の組を再設定する。次に、推定部18を機能させることにより第2の推定ステップ(S5)を実施し、回転角パラメータθyを算出する。次に、基準設定部17を機能させることにより第3の基準設定ステップ(S6)を実施し、基準点の組を再設定する。次に、推定部18を機能させることにより第3の推定ステップ(S7)を実施し、回転角パラメータθzを算出する。そして、回転角パラメータθx,θy,θzのそれぞれの値が収束(安定)するか否かの判定を行い(S8)、回転角パラメータθx,θy,θzが収束(安定)するまでこれらのステップ(S2〜S7)を繰り返す。そして、回転角パラメータθx,θy,θzが収束(安定)すると、回転角パラメータθx,θy,θzを記憶部15に記憶させる(S9)。 The control unit 11 first performs the imaging step (S1) by causing the image acquisition unit 16 to function, and causes the TOF camera 4 to capture the distance image and the received light intensity image. Next, the first reference setting step (S2) is performed by causing the reference setting unit 17 to function, and a set of reference points is set. Next, the first estimation step (S3) is performed by causing the estimation unit 18 to function, and the rotation angle parameter θx is calculated. Next, the second reference setting step (S4) is performed by causing the reference setting unit 17 to function, and a set of reference points is reset. Next, the second estimating step (S5) is performed by causing the estimating unit 18 to function, and the rotation angle parameter θy is calculated. Next, the third reference setting step (S6) is performed by causing the reference setting unit 17 to function, and a set of reference points is reset. Next, the third estimation step (S7) is performed by causing the estimation unit 18 to function, and the rotation angle parameter θz is calculated. The rotation angle parameter theta x, theta y, each value convergence theta z performed to determine whether or not to (stable) (S8), the rotation angle parameter θ x, θ y, θ z converges (stable) These steps (S2 to S7) are repeated until When the rotation angle parameters θ x , θ y , θ z converge (stable), the rotation angle parameters θ x , θ y , θ z are stored in the storage unit 15 (S9).

ここで示したように、回転角パラメータθx,θy,θzが収束(安定)するまで先のステップ(S2〜S7)を繰り返すことにより、各装置軸回りの回転角パラメータを、精度よく導出することができる。 As shown here, by repeating the previous steps (S2 to S7) until the rotation angle parameters θ x , θ y , θ z converge (stabilize), the rotation angle parameters around each device axis can be accurately obtained. Can be derived.

なお、第2の基準設定ステップと第3の基準設定ステップとは必ずしも必要では無く、先の基準設定ステップで設定された基準点の組をそのまま利用してもよい。また、第1の推定ステップと第2の推定ステップと第3の推定ステップとで推定する回転角パラメータθx,θy,θzの順番は、入れ替えてもよい。また、回転角パラメータθx,θy,θzが収束(安定)するまで各ステップを繰り返すのではなく、各ステップを一度ずつ実施するようにしてもよい。 Note that the second reference setting step and the third reference setting step are not necessarily required, and a set of reference points set in the previous reference setting step may be used as they are. Further, the order of the rotation angle parameters θ x , θ y , and θ z estimated in the first estimation step, the second estimation step, and the third estimation step may be switched. Further, instead of repeating each step until the rotation angle parameters θ x , θ y , and θ z converge (stable), each step may be performed once.

図4は、撮像ステップの一例を示すフローチャートである。   FIG. 4 is a flowchart illustrating an example of the imaging step.

撮像ステップは、各画素に距離を対応付けて距離画像を生成するステップである。このフローチャートでは、TOFカメラ4から複数の距離画像を取得し、各画素に対応付けられている距離を距離画像間で平均した平均距離画像を生成する。なお、撮像ステップは、平均距離画像を用いる他、1枚の画像をそのまま用いてもよい。また、単なる距離では無く、装置軸x,y,z上での座標位置を各画素に対応づけしてもよい。   The imaging step is a step of generating a distance image by associating a distance with each pixel. In this flowchart, a plurality of distance images are acquired from the TOF camera 4, and an average distance image is generated by averaging the distances associated with each pixel among the distance images. Note that the imaging step may use an average distance image or a single image as it is. Further, not the simple distance but the coordinate position on the device axis x, y, z may be associated with each pixel.

具体的には、画像取得部16は、まず、TOFカメラ4に制御信号を出力して、TOFカメラ4から距離画像を受けとる(S11)。画像取得部16は、複数枚(例えば10枚)の距離画像を取得するまでこのステップを繰り返す。次に、画像取得部16は、複数の距離画像に属する各画素に対応づけられている距離を距離画像間で平均し、平均距離画像を生成する(S12)。次に、画像取得部16は、生成した平均距離画像を、記憶部15に記憶させる(S13)。   Specifically, the image acquisition unit 16 first outputs a control signal to the TOF camera 4 and receives a distance image from the TOF camera 4 (S11). The image acquisition unit 16 repeats this step until a plurality of (for example, 10) distance images are acquired. Next, the image acquisition unit 16 averages the distances associated with the pixels belonging to the plurality of distance images among the distance images, and generates an average distance image (S12). Next, the image acquisition unit 16 stores the generated average distance image in the storage unit 15 (S13).

図5は、基準設定ステップの一例を示すフローチャートである。   FIG. 5 is a flowchart illustrating an example of the reference setting step.

基準設定ステップは、記憶部15に記憶されている平均距離画像上に2つの基準点を設定するステップである。このフローチャートでは、記憶部15に記憶されている平均距離画像から図1に示すプラットホーム端部1Cを抽出し、プラットホーム端部1Cに平行なプラットホーム1A上のラインに一致する2つの基準点を、1つの空間軸に対して平行な位置関係にある2つの基準点として設定する。プラットホーム端部1Cは、隣接する線路1Bとの間に大きな段差(例えば高さ1500mm程度)を有しているために距離特徴点となっており、距離画像から抽出する構造物として適している。   The reference setting step is a step of setting two reference points on the average distance image stored in the storage unit 15. In this flowchart, the platform end 1C shown in FIG. 1 is extracted from the average distance image stored in the storage unit 15, and two reference points corresponding to a line on the platform 1A parallel to the platform end 1C are defined as 1 Two reference points having a positional relationship parallel to two spatial axes are set. Since the platform end 1C has a large step (for example, a height of about 1500 mm) between the adjacent line 1B, the platform end 1C is a distance feature point and is suitable as a structure extracted from a distance image.

なお、基準点の設定に際して、距離画像から実空間における構造物を抽出する他、受光強度画像から実空間における構造物(例えばマーカーやラインテープなどの受光強度特徴点)を抽出し、距離画像に対応する基準点を設定してもよく、また、距離画像や受光強度画像を作業者に提示し、作業者が指定する構造物に対応する基準点を距離画像に設定してもよい。   In setting the reference point, in addition to extracting a structure in the real space from the distance image, a structure in the real space (for example, a light reception intensity feature point such as a marker or a line tape) is extracted from the light reception intensity image, and the distance image is extracted. A corresponding reference point may be set, or a distance image or a received light intensity image may be presented to the worker, and a reference point corresponding to a structure designated by the worker may be set in the distance image.

具体的には、基準設定部17は、記憶部15に記憶されている平均距離画像に属する各画素に対応付けられている距離(図示する例ではz軸座標)を読み取り、隣接する画素同士を比較する(S21,S22)。隣接する画素同士で距離の差が閾値(図示する例ではプラットホーム端部での線路と段差1500mmを閾値としている。)を超えた場合には、実空間における段差部分であると推定される。このため、基準設定部17は、隣接する画素との距離の差が閾値を超えた画素か、その近傍の画素(例えば、その画素よりもプラットホーム側に1つ又は2つ離れた画素)を、プラットホーム端部1Cに平行なプラットホーム1A上のラインとして記憶する(S23)。基準設定部17は、全ての画素に対して、プラットホーム端部1Cに平行なプラットホーム1A上のラインに一致するか否かの推定を行う。   Specifically, the reference setting unit 17 reads a distance (z-axis coordinate in the illustrated example) associated with each pixel belonging to the average distance image stored in the storage unit 15, and sets adjacent pixels to each other. Compare (S21, S22). If the difference in distance between adjacent pixels exceeds a threshold value (in the example shown, the line at the end of the platform and a step height of 1500 mm is used as a threshold value), it is estimated that it is a stepped portion in real space. For this reason, the reference setting unit 17 determines a pixel whose distance difference between adjacent pixels exceeds a threshold value or a pixel in the vicinity thereof (for example, one or two pixels closer to the platform than the pixel). The line is stored as a line on the platform 1A parallel to the platform end 1C (S23). The reference setting unit 17 estimates whether all the pixels match a line on the platform 1A parallel to the platform end 1C.

次に、基準設定部17は、プラットホーム端部1Cに平行なプラットホーム1A上のラインに一致する基準点(x1,y1,z1),(x2,y2,z2)の組を設定し、記憶部15に記憶させる(S24)。基準設定部17は、基準点(x1,y1,z1),(x2,y2,z2)の組を、予め定められた組数(例えば10組)だけ設定する。 Next, the reference setting unit 17 sets a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) that coincide with a line on the platform 1A parallel to the platform end 1C. Set and store in the storage unit 15 (S24). The reference setting unit 17 sets a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) by a predetermined number (for example, 10 sets).

なお、基準点(x1,y1,z1)と基準点(x2,y2,z2)は、互いの間隔が一定距離(例えば190mm〜210mm)以上、離れた2つの点を選択すると好適である。また、このフローチャートは、図3に示す回転角推定処理において、第1の基準設定ステップや第2の基準設定ステップで採用されると好適である。 The reference point (x 1 , y 1 , z 1 ) and the reference point (x 2 , y 2 , z 2 ) are selected as two points separated from each other by a certain distance (for example, 190 mm to 210 mm) or more. It is preferable. In addition, this flowchart is preferably used in the first reference setting step and the second reference setting step in the rotation angle estimation process shown in FIG.

図6は、基準設定ステップの他の一例を示すフローチャートである。   FIG. 6 is a flowchart illustrating another example of the reference setting step.

このフローチャートでは、プラットホーム端部1Cに平行なプラットホーム1A上のラインではなく、プラットホーム端部1Cに直交するプラットホーム1A上のラインに一致する基準点を設定する。   In this flowchart, not a line on the platform 1A parallel to the platform end 1C but a reference point that coincides with a line on the platform 1A orthogonal to the platform end 1C is set.

より具体的には、基準設定部17は、記憶部15に記憶されている平均距離画像に属する各画素に対応付けられている距離を読み取り、隣接する画素同士を比較する(S31,S32)。そして、まずはプラットホーム端部1Cに平行なラインを推定する。そのため、基準設定部17は、隣接する画素との距離の差が閾値を超えた画素か、その近傍の画素を、プラットホーム端部1Cに平行なプラットホーム1A上のラインとして記憶する(S33)。基準設定部17は、全ての画素に対して、プラットホーム端部1Cに平行なプラットホーム1A上のラインに一致するか否かの推定を行う。   More specifically, the reference setting unit 17 reads the distance associated with each pixel belonging to the average distance image stored in the storage unit 15 and compares adjacent pixels (S31, S32). First, a line parallel to the platform end 1C is estimated. Therefore, the reference setting unit 17 stores a pixel whose distance difference between adjacent pixels exceeds a threshold value or a pixel in the vicinity thereof as a line on the platform 1A parallel to the platform end 1C (S33). The reference setting unit 17 estimates whether all the pixels match a line on the platform 1A parallel to the platform end 1C.

次に、基準設定部17は、プラットホーム端部1Cに平行なプラットホーム1A上のラインに位置する基準点(x1,y1,z1)を設定し、記憶部15に記憶させる(S34)。 Next, the reference setting unit 17 sets a reference point (x 1 , y 1 , z 1 ) located on a line on the platform 1A parallel to the platform end 1C and stores it in the storage unit 15 (S34).

次に、基準設定部17は、基準点(x1,y1,z1)を通り、プラットホーム端部1Cに直交するラインを推定する。そのため、各画素に対応付けられている距離(図示する例ではz軸座標)を、基準点(x1,y1,z1)と比較する(S35,S36)。基準設定部17は、各画素から読み取った距離が、基準点(x1,y1,z1)に対して一定範囲内(図示する例ではz軸座標の差が前後30mmの範囲内)にある画素を、基準点(x1,y1,z1)を通り、プラットホーム端部1Cに直交するプラットホーム1A上のラインに一致すると推定して、記憶部15に記憶させる。基準設定部17は、全ての画素に対して、プラットホーム端部1Cに直交するプラットホーム1A上のラインに一致するか否かの推定を行う。 Next, the reference setting unit 17 estimates a line that passes through the reference point (x 1 , y 1 , z 1 ) and is orthogonal to the platform end 1C. Therefore, the distance (z-axis coordinate in the illustrated example) associated with each pixel is compared with the reference point (x 1 , y 1 , z 1 ) (S35, S36). The reference setting unit 17 sets the distance read from each pixel within a certain range with respect to the reference point (x 1 , y 1 , z 1 ) (in the illustrated example, the difference between the z-axis coordinates is within a range of 30 mm before and after). A certain pixel is estimated to coincide with a line on the platform 1A that passes through the reference point (x 1 , y 1 , z 1 ) and is orthogonal to the platform end 1C, and is stored in the storage unit 15. The reference setting unit 17 estimates whether all the pixels coincide with a line on the platform 1A orthogonal to the platform end 1C.

次に、基準設定部17は、基準点(x1,y1,z1)を通り、プラットホーム端部1Cに直交するプラットホーム1A上のラインに一致する基準点(x2,y2,z2)を設定する(S34)。なお、この際には、基準点(x2,y2,z2)として、基準点(x1,y1,z1)から一定距離(例えば190mm〜210mm)離れた点を選択すると好適である。基準設定部17は、基準点(x1,y1,z1),(x2,y2,z2)の組を、予め定められた組数(例えば10組)だけ設定する。 Next, the reference setting unit 17 passes through the reference point (x 1 , y 1 , z 1 ), and matches the reference point (x 2 , y 2 , z 2) that matches the line on the platform 1A orthogonal to the platform end 1C. ) Is set (S34). In this case, it is preferable to select a point separated from the reference point (x 1 , y 1 , z 1 ) by a certain distance (for example, 190 mm to 210 mm) as the reference point (x 2 , y 2 , z 2 ). is there. The reference setting unit 17 sets a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) by a predetermined number (for example, 10 sets).

このフローチャートは、図3に示す回転角推定処理において、第3の基準設定ステップで採用されると好適である。なお、各基準設定ステップで図4に示したフローチャートを採用するか、図5に示したフローチャートを採用するかは、そのときに回転角パラメータを導出しようとしている装置軸に応じて決定すると好適である。回転角パラメータを導出しようとしている装置軸に対して、直交するように配置されている2つの基準点を採用するほうが、精度よく回転角パラメータを導出することができる。即ち、装置軸xおよび装置軸yを対象として回転角パラメータを導出する際には、プラットホーム端部1Cに平行するラインに一致する基準点を設定する図4に示したフローチャートを採用するほうが望ましく、装置軸zを対象として回転角パラメータを導出する際には、プラットホーム端部1Cに直交するラインに一致する基準点を設定する図5に示したフローチャートを採用するほうが望ましい。   This flowchart is preferably employed in the third reference setting step in the rotation angle estimation process shown in FIG. It should be noted that whether to adopt the flowchart shown in FIG. 4 or the flowchart shown in FIG. 5 at each reference setting step is preferably determined according to the device axis from which the rotation angle parameter is to be derived. is there. The rotation angle parameter can be derived with higher accuracy by adopting two reference points arranged so as to be orthogonal to the apparatus axis from which the rotation angle parameter is to be derived. That is, when the rotation angle parameter is derived for the device axis x and the device axis y, it is preferable to adopt the flowchart shown in FIG. 4 for setting a reference point that coincides with a line parallel to the platform end 1C. When deriving the rotation angle parameter with respect to the device axis z, it is desirable to employ the flowchart shown in FIG. 5 for setting a reference point that coincides with a line orthogonal to the platform end 1C.

また、基準設定ステップが実施されるよりも前に、いずれかの装置軸回りの回転角パラメータが既に推定されている場合には、各画素に対応づけられている距離(または装置軸x,y,z上での座標位置)を回転角パラメータに基づいて修正しておいてもよい。このように修正することにより、プラットホーム端部1Cに平行なプラットホーム1A上のラインや、プラットホーム端部1Cに直交するプラットホーム1A上のラインをより正確に推定することができる。   If the rotation angle parameter around any device axis is already estimated before the reference setting step is performed, the distance (or device axis x, y) associated with each pixel is estimated. , Z) may be corrected based on the rotation angle parameter. By correcting in this way, a line on the platform 1A parallel to the platform end 1C and a line on the platform 1A orthogonal to the platform end 1C can be estimated more accurately.

図7は、推定ステップの一例を示すフローチャートである。   FIG. 7 is a flowchart illustrating an example of the estimation step.

推定ステップは、装置軸x,y,z毎に、基準設定ステップで設定された基準点(x1,y1,z1),(x2,y2,z2)の組の位置関係に基づいて、各軸回りでの回転角パラメータθx,θy,θzを導出するステップである。具体的には、推定部18は、基準点(x1,y1,z1),(x2,y2,z2)の組を記憶部15から読み出し、所定の演算式により、基準点(x1,y1,z1),(x2,y2,z2)の組が平行な位置関係になる仮想軸を仮想し、その仮想軸を実現することができる所定の装置軸回りでの回転角パラメータを導出する(S41)。推定部18は、基準点(x1,y1,z1),(x2,y2,z2)の組(例えば10組)ごとに、このステップを繰り返す。次に、推定部18は、基準点(x1,y1,z1),(x2,y2,z2)の組毎に導出した回転角パラメータを平均し、平均の回転角パラメータを算出する(S42)。なお、推定ステップは、複数の回転角パラメータを平均した平均の回転角パラメータを用いる他、一組みの基準点から算出した回転角パラメータをそのまま用いてもよい。 The estimation step has a positional relationship of a set of reference points (x 1 , y 1 , z 1 ) and (x 2 , y 2 , z 2 ) set in the reference setting step for each of the device axes x, y, and z. This is a step of deriving the rotation angle parameters θx, θy, θz around each axis based on the above. Specifically, the estimation unit 18 reads a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) from the storage unit 15, and uses a predetermined arithmetic expression to calculate A virtual axis in which a set of (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) has a parallel positional relationship is virtualized, and the virtual axis can be realized around a predetermined device axis The rotation angle parameter at is derived (S41). The estimation unit 18 repeats this step for each set of reference points (x 1 , y 1 , z 1 ) and (x 2 , y 2 , z 2 ) (for example, 10 sets). Next, the estimation unit 18 averages the rotation angle parameters derived for each set of the reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ), and calculates the average rotation angle parameter. Calculate (S42). The estimation step may use an average rotation angle parameter obtained by averaging a plurality of rotation angle parameters, or may directly use a rotation angle parameter calculated from a set of reference points.

ここで、図3に示した第1の推定ステップで、装置軸x回りでの回転角パラメータθxを導出する場合の演算式の一例について説明する。   Here, an example of an arithmetic expression in the case of deriving the rotation angle parameter θx around the device axis x in the first estimation step shown in FIG. 3 will be described.

第1の推定ステップでは、第1の基準設定ステップで設定された、基準点(x1,y1,z1),(x2,y2,z2)の組、即ち、プラットホーム端部1Cに平行なプラットホーム1A上のラインに一致する基準点(x1,y1,z1),(x2,y2,z2)の組に基づいて、装置軸x回りでの回転角パラメータθxを導出する。 In the first estimation step, a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) set in the first reference setting step, that is, platform end 1C Angle parameter θx about the device axis x based on a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) that coincide with a line on the platform 1A parallel to Is derived.

装置軸x,y,zから、装置軸x,y,zを装置軸x回りに回転角パラメータθxで回転させてなる仮想軸Xx,Yx,Zxへの変換行列式は、次式で表わされる。   A transformation determinant from the device axes x, y, and z to the virtual axes Xx, Yx, and Zx obtained by rotating the device axes x, y, and z around the device axis x with the rotation angle parameter θx is expressed by the following equation. .

Figure 2014173922
Figure 2014173922

ここで、仮想軸Zxと仮想軸Yxとを、図1(A)で示す空間軸Zおよび空間軸Yと合わせるために、仮想軸Xxと仮想軸Zxとが成す面に対して、基準点(x1,y1,z1),(x2,y2,z2)を結ぶ線分が平行するという条件を成り立たせる。そのためには、上式を展開し、回転角パラメータθxが変数として含まれている次の等式を成り立たせる必要がある。 Here, in order to match the virtual axis Zx and the virtual axis Yx with the spatial axis Z and the spatial axis Y shown in FIG. 1A, a reference point (with respect to the plane formed by the virtual axis Xx and the virtual axis Zx) x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) satisfy the condition that the line segments are parallel. For this purpose, it is necessary to develop the above equation and establish the following equation that includes the rotation angle parameter θx as a variable.

Figure 2014173922
Figure 2014173922

したがって、装置軸x回りの回転角パラメータθxを導出する演算式は、次式のものになる。   Therefore, an arithmetic expression for deriving the rotation angle parameter θx around the device axis x is as follows.

Figure 2014173922
Figure 2014173922

次に、図3で示した第2の推定ステップで、装置軸y回りでの回転角パラメータθyを導出する場合の演算式の一例について説明する。   Next, an example of an arithmetic expression for deriving the rotation angle parameter θy around the device axis y in the second estimation step shown in FIG. 3 will be described.

第2の推定ステップでは、第2の基準設定ステップで設定された、基準点(x1,y1,z1),(x2,y2,z2)の組、即ち、プラットホーム端部1Cに平行なプラットホーム1A上のラインに一致する基準点(x1,y1,z1),(x2,y2,z2)の組に基づいて、装置軸y回りでの回転角パラメータθyを導出する。 In the second estimation step, a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) set in the second reference setting step, that is, platform end 1C Angle parameter θy about the device axis y based on a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) that coincide with a line on the platform 1A parallel to Is derived.

装置軸x,y,zから、装置軸x,y,zを装置軸y回りに回転角パラメータθyで回転させてなる仮想軸Xy,Yy,Zyへの変換行列式は、次式で表わされる。   A transformation determinant from the device axes x, y, and z to the virtual axes Xy, Yy, and Zy obtained by rotating the device axes x, y, and z around the device axis y with the rotation angle parameter θy is expressed by the following equation. .

Figure 2014173922
Figure 2014173922

ここで、仮想軸Xyと仮想軸Zyとを、図1(B)で示す空間軸Xおよび空間軸Zと合わせるために、仮想軸Yyと仮想軸Zyとが成す面に対して、基準点(x1,y1,z1),(x2,y2,z2)を結ぶ線分が平行するという条件を成り立たせる。そのためには、上式を展開し、回転角パラメータθyが変数として含まれている次の等式を成り立たせる必要がある。 Here, in order to match the virtual axis Xy and the virtual axis Zy with the space axis X and the space axis Z shown in FIG. 1B, a reference point (with respect to the plane formed by the virtual axis Yy and the virtual axis Zy) x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) satisfy the condition that the line segments are parallel. For that purpose, it is necessary to develop the above equation and to establish the following equation including the rotation angle parameter θy as a variable.

Figure 2014173922
Figure 2014173922

したがって、装置軸y回りの回転角パラメータθyを導出する演算式は、次式のものになる。   Accordingly, an arithmetic expression for deriving the rotation angle parameter θy about the device axis y is as follows.

Figure 2014173922
Figure 2014173922

次に、図3で示した第3の推定ステップで、装置軸z回りでの回転角パラメータθzを導出する場合の演算式の一例について説明する。   Next, an example of an arithmetic expression when the rotation angle parameter θz around the device axis z is derived in the third estimation step shown in FIG. 3 will be described.

第3の推定ステップでは、第3の基準設定ステップで設定された、基準点(x1,y1,z1),(x2,y2,z2)の組、即ち、プラットホーム端部1Cに直交するプラットホーム1A上のラインに一致する基準点(x1,y1,z1),(x2,y2,z2)の組に基づいて、装置軸z回りでの回転角パラメータθzを導出する。 In the third estimation step, a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) set in the third reference setting step, that is, platform end 1C Rotation angle parameter θz around the device axis z based on a set of reference points (x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) that coincide with a line on the platform 1A orthogonal to Is derived.

装置軸x,y,zから、装置軸x,y,zを装置軸z回りに回転角パラメータθzで回転させてなる仮想軸Xz,Yz,Zzへの変換行列式は、次式で表わされる。   A transformation determinant from the device axes x, y, z to the virtual axes Xz, Yz, Zz obtained by rotating the device axes x, y, z around the device axis z with the rotation angle parameter θz is expressed by the following equation. .

Figure 2014173922
Figure 2014173922

ここで、仮想軸Xzと仮想軸Yzとを、図1(C)で示す空間軸Xおよび空間軸Yと合わせるために、仮想軸Xzと仮想軸Zzとが成す面に対して、基準点(x1,y1,z1),(x2,y2,z2)を結ぶ線分が平行するという条件を成り立たせる。そのためには、上式を展開し、回転角パラメータθzが変数として含まれている次の等式を成り立たせる必要がある。 Here, in order to match the virtual axis Xz and the virtual axis Yz with the space axis X and the space axis Y shown in FIG. 1C, a reference point ( x 1 , y 1 , z 1 ), (x 2 , y 2 , z 2 ) satisfy the condition that the line segments are parallel. For this purpose, it is necessary to develop the above equation and to establish the following equation including the rotation angle parameter θz as a variable.

Figure 2014173922
Figure 2014173922

したがって、装置軸z回りの回転角パラメータθzを導出する演算式は、次式のものになる。   Therefore, an arithmetic expression for deriving the rotation angle parameter θz around the device axis z is as follows.

Figure 2014173922
Figure 2014173922

これらの演算式が表わしているように、3つの装置軸を所定の装置軸回りで回転させてなる3つの仮想軸上での基準点の位置が、1つの仮想軸上で一致するという条件を満足する、所定の装置軸回りの回転角パラメータを導出することにより、各装置軸が各空間軸から回転している回転角を精度よく推定することができる。   As these arithmetic expressions express, the condition that the positions of the reference points on the three virtual axes obtained by rotating the three device axes around the predetermined device axes coincide on one virtual axis. By deriving a satisfied rotation angle parameter around a predetermined device axis, it is possible to accurately estimate the rotation angle at which each device axis is rotating from each space axis.

なお、各装置軸回りの回転角パラメータを推定する際に、いずれかの装置軸回りの回転角パラメータが既に推定されている場合には、各基準点の位置を回転角パラメータに基づいて修正しておいてもよい。このように修正することにより、各装置軸回りの回転角パラメータをより正確に推定することができる。例えば、装置軸x回りの平均の回転角パラメータθxに基づく基準点の位置の修正には、前述の数2の式で示した回転行列を用いることができる。また、装置軸y回りの平均の回転角パラメータθyに基づく基準点の位置の修正には、前述の数5の式で示した回転行列を用いることができる。また、装置軸z回りの平均の回転角パラメータθzに基づく基準点の位置の修正には、前述の数8の式で示した回転行列を用いることができる。   When estimating the rotation angle parameter around each device axis, if the rotation angle parameter around any device axis has already been estimated, the position of each reference point is corrected based on the rotation angle parameter. You may keep it. By correcting in this way, the rotation angle parameter around each device axis can be estimated more accurately. For example, the rotation matrix shown by the above formula 2 can be used to correct the position of the reference point based on the average rotation angle parameter θx around the device axis x. Further, the rotation matrix shown by the above equation 5 can be used to correct the position of the reference point based on the average rotation angle parameter θy around the device axis y. Further, for the correction of the position of the reference point based on the average rotation angle parameter θz around the device axis z, the rotation matrix shown in the above equation 8 can be used.

最後に、先の推定ステップで算出された平均回転角が、記憶部15に回転角パラメータとして登録される。   Finally, the average rotation angle calculated in the previous estimation step is registered in the storage unit 15 as a rotation angle parameter.

以上に説明した回転角推定処理のように、距離画像上の任意の2つの基準点を、画素情報に基づいて抽出して設定し、その2つの基準点を基準とする3つの空間軸に対して、3つの装置軸を合わせる各装置軸回りの回転角を導出し、パラメータとして登録することにより、各装置軸がそれぞれ空間軸から回転している回転角を、距離画像に基づいて推定することができる。   As in the rotation angle estimation process described above, any two reference points on the distance image are extracted and set based on the pixel information, and the three spatial axes with reference to the two reference points are set. By deriving the rotation angle around each device axis that matches the three device axes and registering them as parameters, the rotation angle at which each device axis is rotating from the spatial axis is estimated based on the distance image Can do.

なお、上記の説明では、駅のプラットホーム端部を撮像して基準点を設定する例を用いて本願発明を説明したが、本願発明の撮像装置は、例えば、自動車路を撮像して、中央分離帯や歩道等の距離特徴点や、車線区画線や横断歩道線、点字ブロック等の受光強度特徴点を抽出して基準点を設定したり、工場等のラインでマーカーやラインテープ等の受光強度特徴点や、各部の段差による距離特徴点を抽出して基準点を設定したりしてもよい。   In the above description, the present invention has been described using an example in which the end of the platform of the station is imaged and the reference point is set. However, the imaging device of the present invention images, for example, an automobile road and performs central separation. Extract distance feature points such as belts and sidewalks, lane markings, pedestrian crossings, braille blocks, etc., and set reference points, or receive light intensity of markers, line tapes, etc. A feature point or a distance feature point due to a step of each part may be extracted to set a reference point.

1…駅
1A…プラットホーム
1B…線路
1C…プラットホーム端部
2…落下防止柵
2A…スライドドア
2B…筐体
3…支柱
4…TOFカメラ
5…情報処理装置
6…撮像装置
11…制御部
12…投光部
13…受光部
13A…受光素子
14…撮像部
15…記憶部
16…オブジェクト検出部
17…基準設定部
18…推定部
DESCRIPTION OF SYMBOLS 1 ... Station 1A ... Platform 1B ... Track 1C ... Platform end 2 ... Fall prevention fence 2A ... Sliding door 2B ... Housing 3 ... Post 4 ... TOF camera 5 ... Information processing device 6 ... Imaging device 11 ... Control unit 12 ... Throw Light unit 13: Light receiving unit 13A ... Light receiving element 14 ... Imaging unit 15 ... Storage unit 16 ... Object detection unit 17 ... Reference setting unit 18 ... Estimation unit

Claims (9)

受光面に投影される対象エリアを撮像した距離画像を撮像する撮像部と、
前記撮像部で撮像された距離画像上に2つの基準点を設定する基準設定部と、
前記受光面を基準に互いに直交する3つの装置軸を、それぞれ前記2つの基準点を基準に互いに直交する3つの空間軸に合わせる各装置軸回りの回転角を、前記基準設定部で設定された前記2つの基準点の前記距離画像上での位置関係に基づいて推定する推定部と、
を備え、
前記推定部は、前記2つの基準点が、前記距離画像上で前記3つの空間軸うちの1つの軸に対して平行な位置関係にあるとして、各装置軸回りの回転角を推定する、撮像装置。
An imaging unit for imaging a distance image obtained by imaging a target area projected on the light receiving surface;
A reference setting unit that sets two reference points on the distance image captured by the imaging unit;
The rotation angle around each device axis is set by the reference setting unit to match the three device axes orthogonal to each other with respect to the light receiving surface as to the three spatial axes orthogonal to each other based on the two reference points. An estimation unit that estimates based on a positional relationship of the two reference points on the distance image;
With
The estimation unit estimates the rotation angle around each device axis, assuming that the two reference points are in a positional relationship parallel to one of the three spatial axes on the distance image. apparatus.
前記基準設定部は、前記推定部が各装置軸回りの回転角を推定しようとする前に、回転角を推定しようとする装置軸とは別の装置軸を合わせることになる空間軸に対して平行な位置関係にある2つの基準点を設定する、
請求項1に記載の撮像装置。
The reference setting unit is configured to adjust a device axis different from the device axis for which the rotation angle is to be estimated before the estimation unit is to estimate the rotation angle around each device axis. Set two reference points in a parallel positional relationship.
The imaging device according to claim 1.
前記基準設定部は、前記推定部が各装置軸回りの回転角を推定しようとする前に、前記推定部で先に得られた装置軸回りの回転角により修正した位置関係に基づいて2つの基準点を設定する、
請求項1または2に記載の撮像装置。
Based on the positional relationship corrected by the rotation angle around the device axis previously obtained by the estimation unit before the estimation unit tries to estimate the rotation angle around each device axis, the reference setting unit Set the reference point,
The imaging device according to claim 1 or 2.
前記推定部は、各装置軸回りの回転角を推定しようとする際に、先に得られた装置軸回りの回転角により修正した位置関係に基づいて、各装置軸回りの回転角を推定する、
請求項1〜3のいずれかに記載の撮像装置。
When estimating the rotation angle around each device axis, the estimation unit estimates the rotation angle around each device axis based on the positional relationship corrected by the rotation angle around the device axis obtained previously. ,
The imaging device according to claim 1.
前記推定部は、各装置軸回りの回転角が一定の範囲に収束するまで、各装置軸回りでの回転角の導出を繰り返す、
請求項1〜4のいずれかに記載の撮像装置。
The estimation unit repeats derivation of the rotation angle around each device axis until the rotation angle around each device axis converges to a certain range.
The imaging device according to claim 1.
前記基準設定部は、前記距離画像における距離特徴点に基づいて前記距離画像に前記基準点を設定する、
請求項1〜5のいずれかに記載の撮像装置。
The reference setting unit sets the reference point in the distance image based on a distance feature point in the distance image;
The imaging device according to claim 1.
前記撮像部は、前記距離画像と同じ対象エリアを撮像した受光強度画像を前記距離画像とともに撮像し、
前記基準設定部は、前記受光強度画像における受光強度特徴点に基づいて前記距離画像に前記基準点を設定する、
請求項1〜5のいずれかに記載の撮像装置。
The imaging unit captures a received light intensity image obtained by capturing the same target area as the distance image together with the distance image,
The reference setting unit sets the reference point in the distance image based on a received light intensity feature point in the received light intensity image;
The imaging device according to claim 1.
撮像部の受光面に投影される対象エリアを撮像した距離画像を撮像する撮像ステップと、
前記撮像ステップで撮像された距離画像上の2つの基準点を設定する基準設定ステップと、
前記受光面を基準にして互いに直交する3つの装置軸を、それぞれ前記2つの基準点を基準にして互いに直交する3つの空間軸に合わせる各装置軸回りの回転角を、前記基準設定ステップで設定した前記2つの基準点の前記距離画像上での位置関係に基づいて推定するステップであって、前記2つの基準点が、前記距離画像上で前記3つの空間軸うちの1つの軸に対して平行な位置関係にあるとして、各装置軸回りの回転角を推定する推定ステップと、
を情報処理装置が実行する回転角推定方法。
An imaging step of imaging a distance image obtained by imaging a target area projected on the light receiving surface of the imaging unit;
A reference setting step for setting two reference points on the distance image captured in the imaging step;
In the reference setting step, the rotation angle around each device axis is set so that the three device axes orthogonal to each other with respect to the light receiving surface match the three spatial axes orthogonal to each other with respect to the two reference points. Estimating the two reference points based on a positional relationship on the distance image, wherein the two reference points are relative to one of the three spatial axes on the distance image. An estimation step for estimating a rotation angle around each device axis, assuming that the positions are parallel to each other;
The rotation angle estimation method in which the information processing apparatus executes
情報処理装置にインストールされるプログラムであって、
撮像部の受光面に投影される対象エリアを撮像した距離画像を撮像する撮像ステップと、
前記撮像ステップで撮像された距離画像上の2つの基準点を設定する基準設定ステップと、
前記受光面を基準にして互いに直交する3つの装置軸を、それぞれ前記2つの基準点を基準にして互いに直交する3つの空間軸に合わせる各装置軸回りの回転角を、前記基準設定ステップで設定した前記2つの基準点の前記距離画像上での位置関係に基づいて推定するステップであって、前記2つの基準点が、前記距離画像上で前記3つの空間軸うちの1つの軸に対して平行な位置関係にあるとして、各装置軸回りの回転角を推定する推定ステップと、
を前記情報処理装置に実行させる回転角推定プログラム。
A program installed in an information processing apparatus,
An imaging step of imaging a distance image obtained by imaging a target area projected on the light receiving surface of the imaging unit;
A reference setting step for setting two reference points on the distance image captured in the imaging step;
In the reference setting step, the rotation angle around each device axis is set so that the three device axes orthogonal to each other with respect to the light receiving surface match the three spatial axes orthogonal to each other with respect to the two reference points. Estimating the two reference points based on a positional relationship on the distance image, wherein the two reference points are relative to one of the three spatial axes on the distance image. An estimation step for estimating a rotation angle around each device axis, assuming that the positions are parallel to each other;
Is a rotation angle estimation program that causes the information processing apparatus to execute.
JP2013045089A 2013-03-07 2013-03-07 Imaging apparatus, rotation angle estimation method, and rotation angle estimation program Expired - Fee Related JP6167567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013045089A JP6167567B2 (en) 2013-03-07 2013-03-07 Imaging apparatus, rotation angle estimation method, and rotation angle estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013045089A JP6167567B2 (en) 2013-03-07 2013-03-07 Imaging apparatus, rotation angle estimation method, and rotation angle estimation program

Publications (2)

Publication Number Publication Date
JP2014173922A true JP2014173922A (en) 2014-09-22
JP6167567B2 JP6167567B2 (en) 2017-07-26

Family

ID=51695284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013045089A Expired - Fee Related JP6167567B2 (en) 2013-03-07 2013-03-07 Imaging apparatus, rotation angle estimation method, and rotation angle estimation program

Country Status (1)

Country Link
JP (1) JP6167567B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077512A (en) * 2019-11-26 2020-04-28 歌尔股份有限公司 TOF module calibration method and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11190611A (en) * 1997-12-25 1999-07-13 Omron Corp Three-dimensional measuring method and three-dimensional measuring processor using this method
JP2002312759A (en) * 2001-04-13 2002-10-25 Olympus Optical Co Ltd Image converter
JP2006038843A (en) * 2004-07-08 2006-02-09 Ibeo Automobile Sensor Gmbh Method for calibrating distance image sensor
JP2006153772A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Surveying equipment
JP2009204532A (en) * 2008-02-28 2009-09-10 Aisin Seiki Co Ltd Calibration device and calibration method of range image sensor
JP2010151680A (en) * 2008-12-25 2010-07-08 Toyota Motor Corp Device and method for calibrating sensor
JP2011027574A (en) * 2009-07-27 2011-02-10 Nippon Signal Co Ltd:The Range image processing system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11190611A (en) * 1997-12-25 1999-07-13 Omron Corp Three-dimensional measuring method and three-dimensional measuring processor using this method
JP2002312759A (en) * 2001-04-13 2002-10-25 Olympus Optical Co Ltd Image converter
JP2006038843A (en) * 2004-07-08 2006-02-09 Ibeo Automobile Sensor Gmbh Method for calibrating distance image sensor
JP2006153772A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Surveying equipment
JP2009204532A (en) * 2008-02-28 2009-09-10 Aisin Seiki Co Ltd Calibration device and calibration method of range image sensor
JP2010151680A (en) * 2008-12-25 2010-07-08 Toyota Motor Corp Device and method for calibrating sensor
JP2011027574A (en) * 2009-07-27 2011-02-10 Nippon Signal Co Ltd:The Range image processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077512A (en) * 2019-11-26 2020-04-28 歌尔股份有限公司 TOF module calibration method and system
CN111077512B (en) * 2019-11-26 2023-12-26 歌尔光学科技有限公司 TOF module calibration method and system

Also Published As

Publication number Publication date
JP6167567B2 (en) 2017-07-26

Similar Documents

Publication Publication Date Title
JP6381800B2 (en) Hoistway dimension measuring apparatus and hoistway dimension measuring method
ES2616487T3 (en) Procedure, device and computer program to extract information about a ladder
US9719781B2 (en) Measuring method and measuring instrument
JP6061205B2 (en) Method and apparatus for constantly monitoring structural displacement
US10638115B2 (en) Calibration device
JP2016060610A (en) Elevator hoistway internal dimension measuring device, elevator hoistway internal dimension measuring controller, and elevator hoistway internal dimension measuring method
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
JP6059067B2 (en) Surveying system
JP2012533749A (en) Equipment for optical scanning and measurement of surroundings
JP2013079960A (en) Method and apparatus for determining three-dimensional coordinate of object
TW201329426A (en) Camera testing device and test method thereof
JPWO2016113875A1 (en) Information provision system for billing location evaluation
EP3353492B1 (en) Device and method to locate a measurement point with an image capture device
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP6477348B2 (en) Self-position estimation apparatus and self-position estimation method
JP2010190647A (en) Vehicle position measuring instrument and vehicle position measuring program
JPWO2018154774A1 (en) Dimension measuring device
JP6167567B2 (en) Imaging apparatus, rotation angle estimation method, and rotation angle estimation program
KR100780603B1 (en) Method for locating facilities using line laser in movable photogrammetry system
KR101459522B1 (en) Location Correction Method Using Additional Information of Mobile Instrument
KR101465236B1 (en) vehicle velocity detector and method using stereo camera
KR20190104663A (en) Apparatus for measuring body size using drone
KR20140053712A (en) The localization method for indoor mobile robots by sensor fusion
KR101305405B1 (en) Method for Localizing Intelligent Mobile Robot by using a lateral landmark
JP6847442B2 (en) Object tracking device, object tracking method, and object tracking program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170612

R150 Certificate of patent or registration of utility model

Ref document number: 6167567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees