JP2012117833A - Image recognition device, mounting type robot, and image recognition program - Google Patents

Image recognition device, mounting type robot, and image recognition program Download PDF

Info

Publication number
JP2012117833A
JP2012117833A JP2010265189A JP2010265189A JP2012117833A JP 2012117833 A JP2012117833 A JP 2012117833A JP 2010265189 A JP2010265189 A JP 2010265189A JP 2010265189 A JP2010265189 A JP 2010265189A JP 2012117833 A JP2012117833 A JP 2012117833A
Authority
JP
Japan
Prior art keywords
camera
imaging
image
height
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265189A
Other languages
Japanese (ja)
Inventor
Atsushi Sato
敦 佐藤
Koji Inoue
浩司 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2010265189A priority Critical patent/JP2012117833A/en
Publication of JP2012117833A publication Critical patent/JP2012117833A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To automatically detect the height of a camera for image recognition.SOLUTION: An imaging camera 5 for an image recognition device, which is turned to a forward and obliquely downward side is installed at a camera position 22. At a light source position 21 above the camera position 22, a light source device 4 for projecting a projection image 26 to the inside of a screen frame 31 of the imaging camera 5 is installed. An image recognition device mounted on a mounting type robot measures a projection image offset x2 which is a distance between a lower end of the screen frame 31 and a lower end of the projection image 26 by image data, and obtains camera height y2 by a corresponding data map in which the projection image offset x2 and the camera height y2 are made to correspond, or calculation. The camera height y2 obtained in such a way, is memorized in a memory device as a parameter, and used for recognizing level difference or the like in the image recognition device.

Description

本発明は、画像認識装置、装着型ロボット、及び画像認識プログラムに関し、例えば、カメラの基準高さを設定するものに関する。   The present invention relates to an image recognition apparatus, a wearable robot, and an image recognition program, and for example, relates to an apparatus for setting a reference height of a camera.

近年、カメラで被写体を撮影して画像解析し、その結果を用いて機械制御を行うことが行われている。
そのような技術の一例として、特許文献1の「ロボット」がある。
この技術は、ロボットの周囲に円環状のパターン光を投光して撮像し、当該撮像した画像に基づいて障害物(段差など)を検出するものである。
ところで、画像解析で周囲の障害物の高さを検出する場合、パラメータとしてカメラの高さが必要である。
そのため、従来は、カメラの高さを予め測定して記憶媒体に記憶するなどしていた。
In recent years, a subject is photographed with a camera, image analysis is performed, and machine control is performed using the result.
An example of such a technique is “Robot” of Patent Document 1.
In this technique, an annular pattern light is projected around a robot to pick up an image, and obstacles (steps, etc.) are detected based on the picked up image.
By the way, when the height of surrounding obstacles is detected by image analysis, the height of the camera is required as a parameter.
Therefore, conventionally, the height of the camera is measured in advance and stored in a storage medium.

しかし、カメラを固定した状態で使用する用途の場合は、カメラの高さを予め計測して記憶させればよいが、例えば、カメラの位置が変更される場合や、新規にカメラを取り付ける場合には、その都度カメラの位置を手動で計測してパラメータとして入力する必要があり、運用が効率的でないという問題があった。
例えば、装着型ロボットにカメラを設置して段差を検出させる場合、装着者によって身長差があり、装着者が変更となるたびにカメラの高さを手動で計測して入力するのは効率的でなかった。
However, for applications where the camera is used in a fixed state, the camera height may be measured and stored in advance.For example, when the camera position is changed or a new camera is attached. However, each time, it is necessary to manually measure the position of the camera and input it as a parameter, and there is a problem that the operation is not efficient.
For example, when installing a camera on a wearable robot and detecting a step, it is efficient to manually measure and input the camera height each time the wearer changes because there is a difference in height between wearers. There wasn't.

特開2005−324297号公報JP 2005-324297 A

本発明は、画像認識用のカメラの高さを自動的に検出することを目的とする。   An object of the present invention is to automatically detect the height of a camera for image recognition.

(1)請求項1記載の発明では、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影手段と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像手段と、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得手段と、を具備したことを特徴とする画像認識装置を提供する。
(2)請求項2記載の発明では、前記カメラ高さ取得手段は、前記撮像領域の端部から前記像までの距離を用いて前記カメラの高さを取得することを特徴とする請求項1に記載の画像認識装置を提供する。
(3)請求項3記載の発明では、前記端部が前記撮像領域にない場合、前記端部が前記撮像領域に位置するように前記照射方向、又は前記撮像方向のうちの少なくとも一方を変更する方向変更手段を具備したことを特徴とする請求項1、又は請求項2に記載の画像認識装置を提供する。
(4)請求項4記載の発明では、請求項1、請求項2、又は請求項3に記載の画像認識装置と、前記画像認識装置による認識結果を用いて歩行制御を行う歩行制御手段と、を具備したことを特徴とする装着型ロボットを提供する。
(5)請求項5記載の発明では、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影機能と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像機能と、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得機能と、をコンピュータで実現する画像認識プログラムを提供する。
(1) According to the first aspect of the present invention, a projection unit that irradiates a predetermined pattern of light from a light source in a predetermined irradiation direction and projects an image of the light onto a reference plane, and a camera directed to the predetermined imaging direction The height of the camera with respect to the reference plane is determined using an imaging means for capturing the projected image, the positional relationship between the light source and the camera, and the position of the image in the imaging region captured by the camera. There is provided an image recognition apparatus characterized by comprising a camera height acquisition means for acquiring.
(2) In the invention described in claim 2, the camera height acquisition means acquires the height of the camera using a distance from an end of the imaging region to the image. The image recognition apparatus described in 1. is provided.
(3) In the invention according to claim 3, when the end portion is not in the imaging region, at least one of the irradiation direction and the imaging direction is changed so that the end portion is positioned in the imaging region. The image recognition apparatus according to claim 1, further comprising a direction changing unit.
(4) In invention of Claim 4, the image recognition apparatus of Claim 1, Claim 2, or Claim 3, and the walk control means which performs walk control using the recognition result by the said image recognition apparatus, A wearable robot characterized by comprising:
(5) In the invention according to claim 5, by a projection function that irradiates a predetermined pattern of light from a light source in a predetermined irradiation direction and projects an image of the light on a reference plane, and a camera directed in a predetermined imaging direction The height of the camera with respect to the reference plane is determined using an imaging function for capturing the projected image, the positional relationship between the light source and the camera, and the position of the image in the imaging region captured by the camera. An image recognition program for realizing a camera height acquisition function to be acquired by a computer is provided.

本発明によれば、撮像領域における所定パターンの光の像の位置を用いることにより、画像認識用のカメラの高さを自動的に検出することができる。   According to the present invention, the height of the image recognition camera can be automatically detected by using the position of the light image of the predetermined pattern in the imaging region.

装着型ロボットを説明するための図である。It is a figure for demonstrating a mounting | wearing type robot. 撮像カメラの高さを検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the height of an imaging camera. カメラ高さy2を求める手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure which calculates | requires camera height y2. 変形例1で撮像カメラの高さを検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the height of an imaging camera in the modification 1. FIG. 変形例1でカメラ高さy2を求める手順を説明するためのフローチャートである。10 is a flowchart for explaining a procedure for obtaining a camera height y2 in Modification 1; 変形例2、3を説明するための図である。It is a figure for demonstrating the modifications 2 and 3. FIG.

(1)実施形態の概要
図2(a)に示したように、カメラ位置22には、前方斜め下に向けた画像認識装置用の撮像カメラ5が設置されており、その上方の光源位置21には、撮像カメラ5の画面フレーム31の内部に投影像26を投影する光源装置4が設置されている。
装着型ロボット1(図1(a))に搭載された画像認識装置は、画面フレーム31の下端と投影像26の下端との距離である投影像オフセットx2を画像データで計測し、投影像オフセットx2とカメラ高さy2を対応させた対応データマップや、あるいは計算により、カメラ高さy2を取得する。
このようにして得られたカメラ高さy2は、パラメータとして記憶装置に記憶され、画像認識装置で段差などを認識するのに使用される。
(1) Outline of Embodiment As shown in FIG. 2A, an imaging camera 5 for an image recognition apparatus is installed at a camera position 22 obliquely downward and forward, and a light source position 21 above it. The light source device 4 for projecting the projection image 26 is installed inside the screen frame 31 of the imaging camera 5.
The image recognition apparatus mounted on the wearable robot 1 (FIG. 1A) measures the projection image offset x2 that is the distance between the lower end of the screen frame 31 and the lower end of the projection image 26 using image data, and the projection image offset. The camera height y2 is acquired by a correspondence data map in which x2 and the camera height y2 are associated or by calculation.
The camera height y2 obtained in this way is stored in the storage device as a parameter, and is used for recognizing a step or the like by the image recognition device.

(2)実施形態の詳細
本実施の形態では、一例として、画像認識装置を装着型ロボットに設置する場合について説明する。
図1(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、ユーザの腰部及び下肢に装着し、ユーザの歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
(2) Details of Embodiment In this embodiment, as an example, a case where an image recognition apparatus is installed in a wearable robot will be described.
FIG. 1A is a diagram showing a mounting state of the mounting robot 1.
The wearable robot 1 is worn on the user's lower back and lower limbs to assist (assist) the user's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.

装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、及び撮像カメラ5と光源装置4を保持する撮像ユニット9などから構成されている。
腰部装着部7は、装着型ロボット1をユーザの腰部に固定する固定装置である。腰部装着部7は、ユーザの腰部と一体となって移動する。
また、腰部装着部7は、図示しない歩行アクチュエータを備えており、ユーザの歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a waist mounting part 7, a walking assist part 2, a connecting part 8, a three-axis sensor 3, a three-axis actuator 6, an imaging camera 5, a light source device 4, and an imaging that holds the imaging camera 5 and the light source device 4. It consists of unit 9 and the like.
The waist mounting portion 7 is a fixing device that fixes the wearable robot 1 to the user's waist. The waist mounting part 7 moves together with the user's waist.
Moreover, the waist | hip | lumbar part mounting | wearing part 7 is provided with the walking actuator which is not shown in figure, and drives the connection part 8 to the front-back direction etc. according to a user's walking motion.

連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、ユーザの下肢に装着され、歩行アクチュエータにより前後に駆動されてユーザの歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting part 8 connects the waist mounting part 7 and the walking assist part 2.
The walking assist unit 2 is attached to a user's lower limb and is driven back and forth by a walking actuator to support the user's walking motion.
The walking support by the waist mounting portion 7, the connecting portion 8, and the walking assist unit 2 is an example, and various forms such as walking support by a multi-joint drive mechanism are possible.

3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、x軸方向(前進方向)、y方向(鉛直方向)z方向(体側方向)、の周りの回転角度、角速度、角加速度などを検知することができる。
なお、x軸の周りの角度をロール角、y軸の周りの角度をヨー角、z軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the waist mounting portion 7 and detects the posture of the waist mounting portion 7 and the like. The triaxial sensor 3 includes, for example, a triaxial angular velocity detection function and a triaxial angular acceleration detection function using a three-dimensional gyro, and the x-axis direction (forward direction), the y-direction (vertical direction), and the z-direction (body side direction). , Rotation angle, angular velocity, angular acceleration, and the like can be detected.
The angle around the x axis is the roll angle, the angle around the y axis is the yaw angle, and the angle around the z axis is the pitch angle.

3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、ロール角、ヨー角、ピッチ角を変化させる。
The triaxial actuator 6 is configured by, for example, a spherical motor, and changes the roll angle, yaw angle, and pitch angle of the imaging unit 9 in which the imaging camera 5 and the light source device 4 are installed.
The light source device 4 and the imaging camera 5 are fixed to the imaging unit 9, and when the triaxial actuator 6 is driven, the irradiation direction of the light source device 4 (the direction of the optical axis of the light source device 4) and the imaging direction of the imaging camera 5. (The direction of the optical axis of the imaging camera 5) changes the roll angle, the yaw angle, and the pitch angle while maintaining the relative angle.

後述するように、撮像カメラ5の高さを検出する場合、撮像ユニット9を所定の角度で歩行基準面(地面や床面など、ユーザが歩行する面)に向ける必要があるが、ユーザが装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。   As will be described later, when the height of the imaging camera 5 is detected, the imaging unit 9 needs to be directed to a walking reference plane (a surface on which the user walks, such as the ground or floor) at a predetermined angle. When the type robot 1 is mounted, the imaging unit 9 tilts depending on the mounted state, and this is corrected by the triaxial actuator 6.

光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点、十字など各種の形状が可能である。   The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 irradiates light with a shape pattern that is circular with respect to a surface perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, a dot, and a cross are possible. is there.

撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行基準面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行基準面の成す角度や、歩行基準面に存在する障害物(段差など)により円形から変形した形状となるが、この形状を解析することにより歩行基準面の状態や障害物を検知することができる。
The imaging camera 5 is configured by an infrared light camera, a visible light camera, or the like that includes an optical system for forming an image of a subject and a CCD (Charge-Coupled Device) that converts the imaged subject to an electrical signal. The light source device 4 captures (shoots) a projection image irradiated on the walking reference plane.
The projected image by the light emitted by the light source device 4 in a predetermined shape pattern has a shape deformed from a circle due to the angle formed by the irradiation direction and the walking reference plane, and obstacles (such as steps) present on the walking reference plane. By analyzing this shape, the state of the walking reference plane and obstacles can be detected.

撮像ユニット9は、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6によって腰部装着部7に対するロール角、ヨー角、ピッチ角が変化する。
即ち、撮像ユニット9を3軸アクチュエータ6で駆動することにより、光源装置4と撮像カメラ5の相対的な位置を固定したまま、光源装置4と3軸アクチュエータ6の腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させることができる。
In the imaging unit 9, the light source device 4 and the imaging camera 5 are fixed, and the roll angle, the yaw angle, and the pitch angle with respect to the waist mounting portion 7 are changed by the triaxial actuator 6.
That is, by driving the imaging unit 9 with the triaxial actuator 6, the roll angle of the light source device 4 and the triaxial actuator 6 with respect to the waist mounting portion 7 while the relative positions of the light source device 4 and the imaging camera 5 are fixed, The yaw angle and pitch angle can be changed.

図1(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
なお、この図では、撮像カメラ5の高さを検知するのに用いる部分を示しており、歩行支援を行うのに用いる部分は省略してある。
FIG. 1B is a diagram for explaining the mounting robot system 15 installed in the mounting robot 1.
The wearing robot system 15 is an electronic control system that controls the wearing robot 1 so as to exhibit a walking support function.
In this figure, the part used for detecting the height of the imaging camera 5 is shown, and the part used for performing walking support is omitted.

ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。   The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.

CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、撮像カメラ5の高さを計算するほか、階段やエスカレータの段差を認識したり、歩行アクチュエータを駆動して歩行支援を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したりする。
The CPU executes various computer programs stored in the storage medium, calculates the height of the imaging camera 5, recognizes the steps of the stairs and the escalator, and drives the walking actuator to provide walking assistance.
The CPU is connected to the light source device 4, the imaging camera 5, the 3-axis actuator 6, and the 3-axis sensor 3 through an interface, and turns on / off irradiation from the light source device 4 and acquires imaging data from the imaging camera 5. Or the triaxial actuator 6 is driven, or the detection value is acquired from the triaxial sensor 3.

ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、撮像カメラ5の撮像データや3軸センサ3の検出値を記憶したり、撮像カメラ5の高さを計算するためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for storing the imaging data of the imaging camera 5 and the detection value of the three-axis sensor 3 and for calculating the height of the imaging camera 5 is provided.

記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、撮像カメラ5の高さを検出するためのプログラムや、光源装置4の投影像を解析して階段やエスカレータなどの段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、段差認識の画像認識などに使用する撮像カメラ5の高さなどのパラメータなどを記憶している。   The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and a program for detecting the height of the imaging camera 5 or a projection image of the light source device 4 Various programs such as programs for recognizing steps such as stairs and escalators, programs for assisting walking, parameters such as the height of the imaging camera 5 used for image recognition for step recognition, etc. I remember it.

図2(a)は、撮像カメラ5の高さを検出する方法を説明するための図である。
この図では、ユーザが直立した状態で、ユーザの足下の位置を原点とし、歩行基準面をx軸(ユーザの前進方向を正とする)、ユーザの頭上方向をy軸としている。
光源装置4の基準となる位置を光源位置21とし、撮像カメラ5の基準となる位置をカメラ位置22とし、カメラ位置22の歩行基準面からの高さをy2とする。
光源位置21は、カメラ位置22の鉛直上方にあり、光源位置21から歩行基準面に照射された投影像26(投影物)の全体が撮像カメラ5の画面フレーム31内に存在するようになっている。
なお、光源装置4の光軸28と撮像カメラ5の光軸29は何れもxy平面内にあるものとする。
FIG. 2A is a diagram for explaining a method of detecting the height of the imaging camera 5.
In this figure, with the user standing upright, the position of the user's feet is the origin, the walking reference plane is the x axis (the user's forward direction is positive), and the user's overhead direction is the y axis.
The reference position of the light source device 4 is set as the light source position 21, the reference position of the imaging camera 5 is set as the camera position 22, and the height of the camera position 22 from the walking reference plane is set as y2.
The light source position 21 is vertically above the camera position 22, and the entire projection image 26 (projected object) irradiated from the light source position 21 onto the walking reference plane is present in the screen frame 31 of the imaging camera 5. Yes.
It is assumed that the optical axis 28 of the light source device 4 and the optical axis 29 of the imaging camera 5 are both in the xy plane.

カメラ位置22から、照射光の下端までの距離を照射オフセットx1とし、カメラの画面フレーム31の下端から投影像26の下端までの距離を投影像オフセットx2とする。なお、ユーザに近い側を下端、ユーザから遠い側を上端とし、以下同様とする。
また、照射光の下端の延長線と、画面フレーム31の下端の延長線の交点25からカメラ位置22までの距離を交点位置y1とする。
換言すると、交点25は、歩行基準面が存在しない場合に、照射光の下端と画面フレーム31の下端が一致する点である。
The distance from the camera position 22 to the lower end of the irradiation light is set as an irradiation offset x1, and the distance from the lower end of the screen frame 31 of the camera to the lower end of the projection image 26 is set as a projection image offset x2. The side closer to the user is the lower end, the side far from the user is the upper end, and so on.
The distance from the intersection 25 between the extension line at the lower end of the irradiated light and the extension line at the lower end of the screen frame 31 to the camera position 22 is defined as an intersection position y1.
In other words, the intersection point 25 is a point where the lower end of the irradiation light coincides with the lower end of the screen frame 31 when there is no walking reference plane.

図2(b)は、撮像カメラ5で撮像された投影像26の一例を示した図である。
光源装置4は、円形断面の光を照射するが、歩行基準面に対して斜め前に照射されるため、投影像26は、ユーザの前進方向を長軸とする楕円形となる。
撮像カメラ5の画面フレーム31は、ユーザの前進方向を短辺、ユーザの体側方向を長辺とする矩形形状を有しており、下端から投影像26までの距離が投影像オフセットx2となる。
FIG. 2B is a diagram illustrating an example of the projection image 26 captured by the imaging camera 5.
The light source device 4 emits light having a circular cross section, but is irradiated obliquely forward with respect to the walking reference plane, so that the projection image 26 has an elliptical shape with the forward direction of the user as the major axis.
The screen frame 31 of the imaging camera 5 has a rectangular shape in which the user's forward direction is the short side and the user's body side direction is the long side, and the distance from the lower end to the projection image 26 is the projection image offset x2.

以上のように光源装置4、撮像カメラ5、及び歩行基準面を配置すると、次の式(1)に係る比例式が成り立つ。   As described above, when the light source device 4, the imaging camera 5, and the walking reference plane are arranged, a proportional expression according to the following expression (1) is established.

y1:(y1−y2)=x1:x2 …(1)   y1: (y1-y2) = x1: x2 (1)

これから式(2)が成り立つ。   From this, equation (2) holds.

y2=y1(x1−x2)/x1 …(2)   y2 = y1 (x1-x2) / x1 (2)

ここで、照射オフセットx1は、固定値で予め分かっており、x2は、撮像された画像ピクセル数から求めることができる。また、光源装置4の照射方向と撮像カメラ5の撮像方向は固定されているため、x2とy1は、1対1の対応関係があり、y1は、x2の関数となる。そのため、y2は、x2の関数となる。
そこで、本実施の形態では、予めy2とx2の対応データマップを作成して記憶装置に記憶しておき、これを用いてx2からy2を求めることとした。
Here, the irradiation offset x1 is known in advance as a fixed value, and x2 can be obtained from the number of captured image pixels. Further, since the irradiation direction of the light source device 4 and the imaging direction of the imaging camera 5 are fixed, x2 and y1 have a one-to-one correspondence, and y1 is a function of x2. Therefore, y2 is a function of x2.
Therefore, in this embodiment, a correspondence data map of y2 and x2 is created in advance and stored in the storage device, and y2 is obtained from x2 using this map.

図3は、装着型ロボット1がカメラ高さy2を求める手順を説明するためのフローチャートである。
以下の処理は、ECU16の備えるCPUが所定のプログラムに従って行うものである。
まず、ユーザが装着型ロボット1を装着して直立し、装着型ロボット1を操作してカメラ高さy2の計測を開始させる。
FIG. 3 is a flowchart for explaining a procedure for the wearable robot 1 to obtain the camera height y2.
The following processing is performed by the CPU of the ECU 16 according to a predetermined program.
First, the user mounts the wearable robot 1 and stands upright, and operates the wearable robot 1 to start measuring the camera height y2.

すると、CPUは、3軸センサ3から腰部装着部7のヨー角、ピッチ角、及びロール角の角度を取得してRAMに格納する(ステップ5)。
次に、CPUは、RAMに記憶したこれら角度から歩行基準面に対する腰部装着部7の傾きを計算し、歩行基準面に対して光源装置4、及び撮像カメラ5の方向が図2(a)で規定されている方向となるように3軸アクチュエータ6で撮像ユニット9を駆動して照射方向、及び撮像方向を補正する(ステップ10)。
Then, the CPU acquires the yaw angle, pitch angle, and roll angle of the waist mounting portion 7 from the triaxial sensor 3 and stores them in the RAM (step 5).
Next, the CPU calculates the inclination of the waist mounting portion 7 with respect to the walking reference plane from these angles stored in the RAM, and the directions of the light source device 4 and the imaging camera 5 with respect to the walking reference plane are as shown in FIG. The imaging unit 9 is driven by the triaxial actuator 6 so as to be in the prescribed direction, and the irradiation direction and the imaging direction are corrected (step 10).

次に、CPUは、光源装置4をオンして、所定の形状パターンの光を照射させる(ステップ15)。
次に、CPUは、撮像カメラ5を駆動して歩行基準面に投影された投影像26を撮像し、画像データをRAMに記憶する(ステップ20)。
次に、CPUは、RAMから画像データを読み出し、画面フレーム31の下端から投影像26の下端までのピクセル数を数えて投影像オフセットx2を取得してRAMに記憶する(ステップ25)。
Next, the CPU turns on the light source device 4 to emit light of a predetermined shape pattern (step 15).
Next, the CPU drives the imaging camera 5 to capture the projected image 26 projected onto the walking reference plane, and stores the image data in the RAM (step 20).
Next, the CPU reads the image data from the RAM, obtains the projection image offset x2 by counting the number of pixels from the lower end of the screen frame 31 to the lower end of the projection image 26, and stores it in the RAM (step 25).

次に、CPUは、記憶装置に記憶してある対応データマップでRAMに記憶した投影像オフセットx2を検索し、検索されたx2に対応するカメラ高さy2を取得する(ステップ30)。
次に、CPUは、カメラ高さy2を記憶装置にパラメータとして記憶する。
Next, the CPU searches for the projection image offset x2 stored in the RAM using the corresponding data map stored in the storage device, and obtains the camera height y2 corresponding to the searched x2 (step 30).
Next, the CPU stores the camera height y2 as a parameter in the storage device.

以上では、対応データマップによりカメラ高さy2を求めたが、後述の変形例1で示すように計算で求めることもできる。
また、本実施の形態では、ユーザが直立している状態でカメラ高さy2を測定したが、カメラ高さy2をリアルタイムで連続して行うことにより、歩行によるユーザの腰部の上下運動に追随してカメラ高さy2を補正することもできる。
In the above, the camera height y2 is obtained from the corresponding data map, but it can also be obtained by calculation as shown in Modification 1 described later.
In the present embodiment, the camera height y2 is measured while the user is standing upright. However, by continuously performing the camera height y2 in real time, the user can follow the vertical movement of the user's waist by walking. Thus, the camera height y2 can be corrected.

以上に説明した実施の形態により、次のような効果を得ることができる。
(1)画像認識用の撮像カメラ5の設置高さを自動的に検出することができる。
(2)装着型ロボット1を複数のユーザが装着する場合に、個々のユーザの体型に合わせて自動的に撮像カメラ5の高さを補正することができる。
(3)ユーザによって腰部装着部7の取り付け位置が異なっても、装着時にその都度、手動で較正する必要がない。
(4)ユーザが装着し、投影像26の形状を撮像カメラ5で撮像して段差を検出するシステムにおいて、画面フレーム31と投影像26との位置相関を測定することにより、姿勢が毎回変わっても、3次元ジャイロなどの姿勢センサや3軸モータなどを用いて光源装置4と撮像カメラ5を較正することができる。
According to the embodiment described above, the following effects can be obtained.
(1) The installation height of the imaging camera 5 for image recognition can be automatically detected.
(2) When a plurality of users wear the wearable robot 1, the height of the imaging camera 5 can be automatically corrected according to the body shape of each user.
(3) Even if the attachment position of the waist attachment portion 7 differs depending on the user, it is not necessary to manually calibrate each time it is attached.
(4) In a system that is worn by the user and detects the step by imaging the shape of the projected image 26 with the imaging camera 5, the posture changes each time by measuring the positional correlation between the screen frame 31 and the projected image 26. In addition, the light source device 4 and the imaging camera 5 can be calibrated using a posture sensor such as a three-dimensional gyroscope or a three-axis motor.

(変形例1)
先に説明した実施の形態では、光源装置4と撮像カメラ5の角度が固定されているため、例えば、身長の高いユーザが装着型ロボット1を装着した場合、交点25(図2(a))が歩行基準面よりも上となり、投影像オフセットx2が形成されない(即ち、投影像26の下端が画面フレーム31の下端からはみ出す)場合がある。
このため、変形例1では、撮像カメラ5の撮像方向を可変とし、投影像26の下端が画面フレーム31からはみ出す場合に、撮像カメラ5の撮像方向を補正して、投影像26が画面フレーム31の内部に位置するように調節する。
(Modification 1)
In the embodiment described above, since the angles of the light source device 4 and the imaging camera 5 are fixed, for example, when a tall user wears the wearable robot 1, the intersection 25 (FIG. 2 (a)). May be above the walking reference plane and the projection image offset x2 may not be formed (that is, the lower end of the projection image 26 protrudes from the lower end of the screen frame 31).
For this reason, in the first modification, when the imaging direction of the imaging camera 5 is variable and the lower end of the projection image 26 protrudes from the screen frame 31, the imaging direction of the imaging camera 5 is corrected and the projection image 26 becomes the screen frame 31. Adjust so that it is located inside.

図4(a)は、変形例1で撮像カメラ5の高さを検出する方法を説明するための図であり、図4(b)は、撮像カメラ5で撮像された投影像26を示した図である。
図4(a)、(b)に示したように、カメラ位置22と光源位置21の距離を光源カメラ間距離y3(y3は既知とする)、照射光の下端がy軸と成す角を光源角度α2、画面フレーム31の下端を形成する線とy軸のなす角をα1とする。また、θ1=90°−α1、θ2=90°−α2、とする。
このように設定すると次の式が成り立つ。
FIG. 4A is a diagram for explaining a method of detecting the height of the imaging camera 5 in the first modification, and FIG. 4B shows a projection image 26 captured by the imaging camera 5. FIG.
As shown in FIGS. 4A and 4B, the distance between the camera position 22 and the light source position 21 is the distance between the light source cameras y3 (y3 is known), and the angle between the lower end of the irradiated light and the y axis is the light source. An angle α2 and an angle formed by a line forming the lower end of the screen frame 31 and the y axis are α1. Further, θ1 = 90 ° −α1 and θ2 = 90 ° −α2.
With this setting, the following equation holds.

y1=tanθ1・y3/(tanθ2−tanθ1) …(3)
x1=y3/tanθ2 …(4)
y1 = tan θ1 · y3 / (tan θ2−tan θ1) (3)
x1 = y3 / tan θ2 (4)

x2は、画像データから取得することができ、また、式(2)が成り立つから、y2は、次の式(5)、又は式(6)で表すことができ、θ1、θ2が分かれば、式(5)、又は式(6)によりカメラ高さy2を計算することができる。   x2 can be obtained from the image data, and since Expression (2) holds, y2 can be expressed by the following Expression (5) or Expression (6), and if θ1 and θ2 are known, The camera height y2 can be calculated by the equation (5) or the equation (6).

y2=tanθ1・y3/(tanθ2−tanθ1)×(y3/tanθ2−x2)/(y3/tanθ2)
=y1×(x1−x2) …(5)
=tanθ1・(y3−x2tanθ2)/(tanθ2−tanθ1) …(6)
y2 = tan θ1 · y3 / (tan θ2-tan θ1) × (y3 / tan θ2-x2) / (y3 / tan θ2)
= Y1 * (x1-x2) (5)
= Tan θ1 · (y3−x2 tan θ2) / (tan θ2−tan θ1) (6)

図5は、本変形例で装着型ロボット1がカメラ高さy2を求める手順を説明するためのフローチャートである。
変形例1では、撮像ユニット9が撮像カメラ5の撮像方向のピッチ角を調節するアクチュエータを備えているものとする。
FIG. 5 is a flowchart for explaining a procedure for the wearable robot 1 to obtain the camera height y2 in this modification.
In Modification 1, it is assumed that the imaging unit 9 includes an actuator that adjusts the pitch angle of the imaging camera 5 in the imaging direction.

まず、ユーザが装着型ロボット1を装着して直立し、装着型ロボット1を操作してカメラ高さy2の計測を開始させる。
すると、CPUは、3軸センサ3から腰部装着部7のヨー角、ピッチ角、及びロール角の角度を取得してRAMに記憶する(ステップ40)。
次に、CPUは、歩行基準面に対して光源装置4の方向が図4(a)で規定されている方向となるように3軸アクチュエータ6で撮像ユニット9を駆動して照射方向を補正する(ステップ45)。
First, the user mounts the wearable robot 1 and stands upright, and operates the wearable robot 1 to start measuring the camera height y2.
Then, the CPU acquires the yaw angle, pitch angle, and roll angle of the waist mounting portion 7 from the triaxial sensor 3 and stores them in the RAM (step 40).
Next, the CPU corrects the irradiation direction by driving the imaging unit 9 with the triaxial actuator 6 so that the direction of the light source device 4 is the direction defined in FIG. (Step 45).

次に、CPUは、光源装置4をオンにして歩行基準面に所定の形状パターンの光を照射させる(ステップ50)。
次に、CPUは、撮像カメラ5を駆動して投影像26を撮像し、画像データをRAMに記憶する(ステップ55)。
Next, the CPU turns on the light source device 4 to irradiate the walking reference plane with light having a predetermined shape pattern (step 50).
Next, the CPU drives the imaging camera 5 to capture the projected image 26 and stores the image data in the RAM (step 55).

次に、CPUは、RAMに記憶した画像データを解析し、投影像26の上端と下端が画面フレーム31の内部に存在するか否か、即ち、上端から下端までが画面フレーム31に入っているか否かを判断する(ステップ60)。
ここで、投影像オフセットx2が0より大きい所定値以上の場合に下端が画面フレーム31の内部に存在すると判断するように構成してもよい。
Next, the CPU analyzes the image data stored in the RAM, and determines whether or not the upper end and the lower end of the projection image 26 exist inside the screen frame 31, that is, whether the upper end to the lower end are in the screen frame 31. It is determined whether or not (step 60).
Here, when the projection image offset x2 is equal to or larger than a predetermined value larger than 0, it may be determined that the lower end exists inside the screen frame 31.

なお、カメラ高さy2を計算するためには、投影像26の下端が画面フレーム31に入っていればよく、上端は画面フレーム31に入っている必要はないが、ここでは、後に段差を画像認識する場合に備えて、上端と下端が画面フレーム31に入っていることを条件とした。   In order to calculate the camera height y2, it is only necessary that the lower end of the projection image 26 is in the screen frame 31, and the upper end is not required to be in the screen frame 31, but here, a step is imaged later. In preparation for the recognition, the condition is that the upper and lower ends are in the screen frame 31.

投影像26の上端と下端が画面フレーム31にない場合(ステップ60;N)、CPUは、撮像カメラ5のピッチ角を変更し(ステップ65)、ステップ55に戻る。
より詳細には、CPUは、投影像26の上端、下端のうち、画面フレーム31の内部に存在しない方に、撮像カメラ5のピッチ角を所定角度だけ変化させる。
なお、撮像カメラ5のロール角は、3軸アクチュエータ6で撮像ユニット9を駆動することにより補正されている。
When the upper end and the lower end of the projection image 26 are not in the screen frame 31 (step 60; N), the CPU changes the pitch angle of the imaging camera 5 (step 65) and returns to step 55.
More specifically, the CPU changes the pitch angle of the imaging camera 5 by a predetermined angle in the direction between the upper end and the lower end of the projection image 26 that does not exist inside the screen frame 31.
Note that the roll angle of the imaging camera 5 is corrected by driving the imaging unit 9 with the triaxial actuator 6.

一方、投影像26の上端と下端が画面フレーム31に入っている場合(ステップ60;Y)、CPUは、RAMに記憶したヨー角、ピッチ角、及びロール角と、更に、3軸アクチュエータ6の駆動角度から光源角度α2を算出してRAMに格納する(ステップ70)。
3軸センサ3の角度により歩行基準面に対する腰部装着部7の配置が分かり、3軸センサ3の駆動角度から腰部装着部7に対する光源装置4の配置が分かるため、これらの値からα2を算出することができる。
On the other hand, when the upper end and the lower end of the projected image 26 are in the screen frame 31 (step 60; Y), the CPU stores the yaw angle, pitch angle, and roll angle stored in the RAM, and further the triaxial actuator 6 The light source angle α2 is calculated from the drive angle and stored in the RAM (step 70).
Since the arrangement of the waist mounting portion 7 with respect to the walking reference plane is known from the angle of the triaxial sensor 3 and the arrangement of the light source device 4 with respect to the waist mounting portion 7 is known from the driving angle of the triaxial sensor 3, α2 is calculated from these values. be able to.

次に、CPUは、撮像カメラ5のピッチ角の駆動角度を取得してカメラ角度α1を計算し、RAMに記憶する(ステップ75)。
3軸センサ3の角度により歩行基準面に対する腰部装着部7の配置が分かり、3軸センサ3の駆動角度から腰部装着部7に対する撮像ユニット9の配置が分かり、撮像カメラ5の駆動角度から撮像ユニット9に対する撮像方向が分かるため、これらの値からカメラ角度α1を算出することができる。
Next, the CPU obtains the drive angle of the pitch angle of the imaging camera 5, calculates the camera angle α1, and stores it in the RAM (step 75).
The arrangement of the waist mounting portion 7 with respect to the walking reference plane is known from the angle of the triaxial sensor 3, and the arrangement of the imaging unit 9 with respect to the waist mounting portion 7 is known from the driving angle of the triaxial sensor 3, and the imaging unit is determined from the driving angle of the imaging camera 5. Since the imaging direction with respect to 9 is known, the camera angle α1 can be calculated from these values.

次に、CPUは、RAMに記憶したカメラ角度α1、光源角度α2を読み出し、これらを90°から減算することによりθ1、θ2を算出してRAMに記憶する(ステップ80)。
次に、CPUは、予めパラメータとして記憶されている光源カメラ間距離y3を記憶装置から読み出し、また、RAMからθ1、θ2を読み出し、これらを式(3)に代入して交点位置y1を算出してRAMに記憶する(ステップ85)。
Next, the CPU reads the camera angle α1 and the light source angle α2 stored in the RAM, subtracts them from 90 °, calculates θ1 and θ2, and stores them in the RAM (step 80).
Next, the CPU reads the light source camera-to-camera distance y3 stored in advance as a parameter from the storage device, reads θ1 and θ2 from the RAM, and substitutes these into equation (3) to calculate the intersection position y1. And stored in the RAM (step 85).

次に、CPUは、光源カメラ間距離y3を記憶装置から読み出し、θ2をRAMから読み出し、これらを式(4)に代入して照射オフセットx1を算出してRAMに記憶する(ステップ90)。
次に、CPUは、RAMから画像データを読み出し、画面フレーム31の下端から投影像26の下端までのピクセル数を数えて投影像オフセットx2を取得する(ステップ95)。
Next, the CPU reads the distance y3 between the light source cameras from the storage device, reads θ2 from the RAM, substitutes these into equation (4), calculates the irradiation offset x1, and stores it in the RAM (step 90).
Next, the CPU reads the image data from the RAM and counts the number of pixels from the lower end of the screen frame 31 to the lower end of the projected image 26 to obtain the projected image offset x2 (step 95).

次に、CPUは、RAMから交点位置y1、照射オフセットx1、投影像オフセットx2を読み出して式(5)に代入し、カメラ高さy2を算出してRAMに記憶する(ステップ100)。あるいは、θ1、θ2、y3、x2を式(6)に代入してもよい。
そして、CPUは、カメラ高さy2をRAMから読み出して、記憶装置にパラメータとして格納する。
Next, the CPU reads the intersection position y1, the irradiation offset x1, and the projection image offset x2 from the RAM, substitutes them into the equation (5), calculates the camera height y2, and stores it in the RAM (step 100). Or you may substitute (theta) 1, (theta) 2, y3, and x2 to Formula (6).
Then, the CPU reads the camera height y2 from the RAM and stores it as a parameter in the storage device.

以上では、撮像ユニット9に対し、撮像カメラ5のピッチ角を調節可能としたが、撮像カメラ5を撮像ユニット9に固定し、光源装置4のピッチ角を変更するように構成してもよい。
あるいは、撮像カメラ5と光源装置4の双方のピッチ角を変更するように構成することもできる。
In the above description, the pitch angle of the imaging camera 5 can be adjusted with respect to the imaging unit 9. However, the imaging camera 5 may be fixed to the imaging unit 9 and the pitch angle of the light source device 4 may be changed.
Or it can also comprise so that the pitch angle of both the imaging camera 5 and the light source device 4 may be changed.

以上に説明した変形例1により、次のような効果を得ることができる。
(1)投影像26が画面フレーム31の内部にない場合に、投影像26が画面フレーム31の内部に位置するように自動補正することができる。
(2)腰部の低いユーザから腰部の高いユーザまで、幅広いユーザに対応することができる。
(3)歩行によるユーザの腰部の上下運動に追随してカメラ高さy2を自動補正する場合、上下運動の範囲で投影像26が画面フレーム31の内部に存在するように投影像26の位置を設定することができる。
According to the first modification described above, the following effects can be obtained.
(1) When the projection image 26 is not inside the screen frame 31, it can be automatically corrected so that the projection image 26 is located inside the screen frame 31.
(2) A wide range of users can be supported, from users with low waist to users with high waist.
(3) When the camera height y2 is automatically corrected following the user's waist movement due to walking, the position of the projection image 26 is set so that the projection image 26 exists inside the screen frame 31 within the range of the vertical movement. Can be set.

(変形例2)
図6(a)、(b)は、変形例2を説明するための図である。
先に説明した実施の形態や変形例1では、画面フレーム31の下端と投影像26の下端の距離を投影像オフセットx2としたが、変形例2では、カメラ位置22の位置を光源位置21の上側とし、画面フレーム31の上端と投影像26の上端の距離を投影像オフセットx2とする。
このように設定した投影像オフセットx2からも光源高さy2を計算することができ、かつ、光源カメラ間距離y3をy2に加えることによりカメラ高さを算出することが可能である。
(Modification 2)
6A and 6B are diagrams for explaining the second modification.
In the embodiment and the first modification described above, the distance between the lower end of the screen frame 31 and the lower end of the projection image 26 is the projection image offset x2. In the second modification, the position of the camera position 22 is the position of the light source position 21. The distance between the upper end of the screen frame 31 and the upper end of the projection image 26 is defined as the projection image offset x2.
The light source height y2 can be calculated also from the projection image offset x2 set in this way, and the camera height can be calculated by adding the light source inter-camera distance y3 to y2.

(変形例3)
カメラ高さによって投影像26の長径が変化するため、実施の形態、変形例1、及び変形例2において、図6(c)に示したように、投影像26の下端側の下端位置34、及び上端側の上端位置33からカメラ高さを計算することも可能である。
(Modification 3)
Since the major axis of the projection image 26 changes depending on the camera height, the lower end position 34 on the lower end side of the projection image 26 in the embodiment, the first modification, and the second modification, as shown in FIG. It is also possible to calculate the camera height from the upper end position 33 on the upper end side.

以上、実施の形態、変形例1〜3において、カメラ高さの検出機能を装着型ロボット1に装備する場合について説明したが、これは、装着型ロボット1に限定するものではなく、画像認識装置を設置する場合に広く適用することができる。
例えば、車両に画像認識装置を設置する場合、撮像カメラ5を所定位置に所定姿勢で正確に取り付けるのは時間と労力を要する。特に、車両周辺の障害物までの距離や、駐車スペース等を認識する場合に、画像認識装置を設置する基準高さhが予め決められていて、基準面(道路等)から画像認識装置までの高さが正確に基準高さhとなるように取り付ける必要がある。このような、正確な基準高さhの位置に画像認識装置を取り付ける作業に時間や労力が掛かることになる。
そこで、説明した各実施形態の画像認識装置を使用し、投影像26と画面フレーム31の相関から撮像カメラ5の高さy2を正確に測定したり、撮像カメラ5等の角度を調節することで、測定した正確な高さy2を基準高さhに換算することが可能になる。
このように本実施形態の画像認識装置によれば、正確なカメラ高さを自動的に測定し基準高さhに変換することができるので、おおよその位置・姿勢で画像認識装置(撮像カメラ5等)を取り付ければ充分であり、取り付け作業を効率化することが可能である。
As described above, in the embodiment and the first to third modifications, the case where the wearable robot 1 is equipped with the camera height detection function has been described. However, this is not limited to the wearable robot 1 and is not limited to the image recognition apparatus. It can be widely applied when installing.
For example, when installing an image recognition device in a vehicle, it takes time and labor to accurately attach the imaging camera 5 to a predetermined position in a predetermined posture. In particular, when recognizing a distance to an obstacle around a vehicle, a parking space, or the like, a reference height h where the image recognition device is installed is determined in advance, and the distance from the reference plane (such as a road) to the image recognition device is determined. It is necessary to attach so that the height is exactly the reference height h. It takes time and labor to attach the image recognition device to the position of the accurate reference height h.
Therefore, by using the image recognition apparatus of each embodiment described above, the height y2 of the imaging camera 5 is accurately measured from the correlation between the projection image 26 and the screen frame 31, or the angle of the imaging camera 5 is adjusted. The measured accurate height y2 can be converted to the reference height h.
As described above, according to the image recognition apparatus of the present embodiment, the accurate camera height can be automatically measured and converted into the reference height h. Therefore, the image recognition apparatus (the imaging camera 5) can be used at an approximate position and orientation. Etc.) is sufficient, and the mounting operation can be made more efficient.

以上に説明した、実施の形態、及び変形例1〜3により、次の構成を得ることができる。
装着型ロボット1が備える画像認識装置は、光源装置4によって所定の形状パターンの光を照射して歩行基準面上に投影像26を投影し、これを撮像カメラ5によって撮像するため、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影手段と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像手段を備えている。
また、装着型ロボット1が備える画像認識装置は、光源位置21とカメラ位置22の位置関係や画面フレーム31(撮像領域)における投影像26の位置関係を用いてカメラ高さy2を計測するため、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得手段を備えている(第1の構成)。
The following configurations can be obtained by the embodiment and the first to third modifications described above.
The image recognition apparatus included in the wearable robot 1 projects a projection image 26 onto the walking reference plane by irradiating light of a predetermined shape pattern with the light source device 4, and captures this with the imaging camera 5. Projection means for irradiating light in a predetermined irradiation direction from a light source and projecting an image of the light onto a reference plane; and imaging means for capturing the projected image by a camera directed to a predetermined imaging direction Yes.
In addition, the image recognition apparatus provided in the wearable robot 1 measures the camera height y2 using the positional relationship between the light source position 21 and the camera position 22 and the positional relationship of the projection image 26 in the screen frame 31 (imaging region). Camera height acquisition means is provided for acquiring the height of the camera with respect to the reference plane using the positional relationship between the light source and the camera and the position of the image in the imaging area captured by the camera (first). 1 configuration).

装着型ロボット1が備える画像認識装置は、例えば、画面フレーム31の下端と投影像26の下端の距離を用いてカメラ高さy2を計測するため、前記カメラ高さ取得手段は、前記撮像領域の端部から前記像までの距離を用いて前記カメラの高さを取得している(第2の構成)。   The image recognition apparatus provided in the wearable robot 1 measures the camera height y2 using, for example, the distance between the lower end of the screen frame 31 and the lower end of the projected image 26. Therefore, the camera height acquisition means The height of the camera is acquired using the distance from the end to the image (second configuration).

変形例1の装着型ロボット1の備える画像認識装置は、撮像カメラ5、又は光源装置4の少なくとも一方の方向を変更して、画面フレーム31の内側に投影像26が位置するように較正するため、前記端部が前記撮像領域にない場合、前記端部が前記撮像領域に位置するように前記照射方向、又は前記撮像方向のうちの少なくとも一方を変更する方向変更手段を備えている(第3の構成)。   The image recognition device provided in the wearable robot 1 of the first modification changes the direction of at least one of the imaging camera 5 or the light source device 4 and calibrates so that the projected image 26 is positioned inside the screen frame 31. When the end portion is not in the imaging region, there is provided direction changing means for changing at least one of the irradiation direction and the imaging direction so that the end portion is located in the imaging region (third) Configuration).

装着型ロボット1は、第1の構成〜第3の構成で得られたカメラ高さy2を用いて、段差などの障害物を検出してユーザの歩行を制御するため、前記画像認識装置による認識結果を用いて歩行制御を行う歩行制御手段を備えている。   The wearable robot 1 uses the camera height y2 obtained in the first to third configurations to detect an obstacle such as a step and control the user's walking. A walking control means for performing walking control using the result is provided.

また、ECU16の記憶装置には、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影機能と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像機能と、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得機能と、をコンピュータで実現する画像認識プログラムが格納されている。   In addition, the storage device of the ECU 16 includes a projection function that irradiates a predetermined pattern of light from a light source in a predetermined irradiation direction and projects an image of the light on a reference plane, and a camera directed in a predetermined imaging direction. The height of the camera with respect to the reference plane is acquired using an imaging function for capturing a projected image, the positional relationship between the light source and the camera, and the position of the image in the imaging region captured by the camera. An image recognition program for realizing a camera height acquisition function by a computer is stored.

1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
15 装着ロボットシステム
16 ECU
21 光源位置
22 カメラ位置
25 交点
26 投影像
28、29 光軸
31 画面フレーム
33 上端位置
34 下端位置
DESCRIPTION OF SYMBOLS 1 Wearable robot 2 Walking assist part 3 3-axis sensor 4 Light source device 5 Imaging camera 6 3-axis actuator 7 Lumbar mounting part 8 Connection part 9 Imaging unit 15 Wearing robot system 16 ECU
21 Light source position 22 Camera position 25 Intersection point 26 Projected image 28, 29 Optical axis 31 Screen frame 33 Upper end position 34 Lower end position

Claims (5)

所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影手段と、
所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像手段と、
前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得手段と、
を具備したことを特徴とする画像認識装置。
Projection means for irradiating a predetermined pattern of light from a light source in a predetermined irradiation direction and projecting an image of the light on a reference plane;
An imaging means for capturing the projected image by a camera directed to a predetermined imaging direction;
Camera height acquisition means for acquiring the height of the camera with respect to the reference plane using the positional relationship between the light source and the camera and the position of the image in the imaging area captured by the camera;
An image recognition apparatus comprising:
前記カメラ高さ取得手段は、前記撮像領域の端部から前記像までの距離を用いて前記カメラの高さを取得することを特徴とする請求項1に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the camera height acquisition unit acquires the height of the camera using a distance from an end of the imaging region to the image. 前記端部が前記撮像領域にない場合、前記端部が前記撮像領域に位置するように前記照射方向、又は前記撮像方向のうちの少なくとも一方を変更する方向変更手段を具備したことを特徴とする請求項1、又は請求項2に記載の画像認識装置。   When the end portion is not in the imaging region, there is provided direction changing means for changing at least one of the irradiation direction and the imaging direction so that the end portion is located in the imaging region. The image recognition apparatus according to claim 1. 請求項1、請求項2、又は請求項3に記載の画像認識装置と、
前記画像認識装置による認識結果を用いて歩行制御を行う歩行制御手段と、
を具備したことを特徴とする装着型ロボット。
An image recognition device according to claim 1, claim 2, or claim 3;
Walking control means for performing walking control using the recognition result by the image recognition device;
A wearable robot characterized by comprising:
所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影機能と、
所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像機能と、
前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得機能と、
をコンピュータで実現する画像認識プログラム。
A projection function for irradiating a predetermined pattern of light from a light source in a predetermined irradiation direction and projecting an image of the light on a reference plane;
An imaging function for capturing the projected image by a camera directed to a predetermined imaging direction;
A camera height acquisition function for acquiring the height of the camera with respect to the reference plane using the positional relationship between the light source and the camera, and the position of the image in the imaging area captured by the camera;
An image recognition program that realizes the above on a computer.
JP2010265189A 2010-11-29 2010-11-29 Image recognition device, mounting type robot, and image recognition program Pending JP2012117833A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265189A JP2012117833A (en) 2010-11-29 2010-11-29 Image recognition device, mounting type robot, and image recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265189A JP2012117833A (en) 2010-11-29 2010-11-29 Image recognition device, mounting type robot, and image recognition program

Publications (1)

Publication Number Publication Date
JP2012117833A true JP2012117833A (en) 2012-06-21

Family

ID=46500851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265189A Pending JP2012117833A (en) 2010-11-29 2010-11-29 Image recognition device, mounting type robot, and image recognition program

Country Status (1)

Country Link
JP (1) JP2012117833A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059208A (en) * 2012-09-18 2014-04-03 Toshiba Corp Moving assistance apparatus and moving assistance method
CN104772760A (en) * 2014-01-15 2015-07-15 精工爱普生株式会社 Robert, Robert system, robot control device and robot control method
CN110375659A (en) * 2018-09-11 2019-10-25 百度在线网络技术(北京)有限公司 Detect method, apparatus, equipment and the storage medium of obstacle height
CN111316638A (en) * 2017-05-26 2020-06-19 Mp 高技术解决方案控股有限公司 Apparatus and method for position determination in thermal imaging system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085344A (en) * 1994-06-15 1996-01-12 Minolta Co Ltd Three-dimensional shape input device
JPH11339507A (en) * 1998-05-26 1999-12-10 Matsushita Electric Works Ltd Automatic tracking illumination system
JP2001157092A (en) * 1999-11-30 2001-06-08 Aiphone Co Ltd Door slave set with camera
JP2002144278A (en) * 2000-11-13 2002-05-21 Honda Motor Co Ltd Legged mobile robot
JP2006229322A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Automatic tracking controller and automatic tracking control method, program, and automatic tracking system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085344A (en) * 1994-06-15 1996-01-12 Minolta Co Ltd Three-dimensional shape input device
JPH11339507A (en) * 1998-05-26 1999-12-10 Matsushita Electric Works Ltd Automatic tracking illumination system
JP2001157092A (en) * 1999-11-30 2001-06-08 Aiphone Co Ltd Door slave set with camera
JP2002144278A (en) * 2000-11-13 2002-05-21 Honda Motor Co Ltd Legged mobile robot
JP2006229322A (en) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd Automatic tracking controller and automatic tracking control method, program, and automatic tracking system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059208A (en) * 2012-09-18 2014-04-03 Toshiba Corp Moving assistance apparatus and moving assistance method
CN104772760A (en) * 2014-01-15 2015-07-15 精工爱普生株式会社 Robert, Robert system, robot control device and robot control method
CN111316638A (en) * 2017-05-26 2020-06-19 Mp 高技术解决方案控股有限公司 Apparatus and method for position determination in thermal imaging system
CN110375659A (en) * 2018-09-11 2019-10-25 百度在线网络技术(北京)有限公司 Detect method, apparatus, equipment and the storage medium of obstacle height
JP2020042010A (en) * 2018-09-11 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method, device, apparatus and storage medium for detecting height of obstacle
US11047673B2 (en) 2018-09-11 2021-06-29 Baidu Online Network Technology (Beijing) Co., Ltd Method, device, apparatus and storage medium for detecting a height of an obstacle
CN110375659B (en) * 2018-09-11 2021-07-27 百度在线网络技术(北京)有限公司 Method, device, equipment and storage medium for detecting height of obstacle
US11519715B2 (en) 2018-09-11 2022-12-06 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device, apparatus and storage medium for detecting a height of an obstacle

Similar Documents

Publication Publication Date Title
JP4644540B2 (en) Imaging device
US8666571B2 (en) Flight control system for flying object
JP4929506B2 (en) Legged mobile robot
JP4807583B2 (en) Projective transformation convergence calculation processing method
WO2016031105A1 (en) Information-processing device, information processing method, and program
JP6218209B2 (en) Obstacle detection device
JP2005327238A (en) Mobile robot, mobile robot system and method for correcting its path
JP2012065723A (en) Walking state display system or the like
JP2008311690A (en) Eyeball movement controller employing principle of vestibulo-ocular reflex
JP2013075041A (en) Joint angle measuring apparatus and joint angle measuring method
JP2012117833A (en) Image recognition device, mounting type robot, and image recognition program
JP2019086419A (en) Environment acquisition system
JP2009174898A (en) Moving body and environmental information generation method
JP2007190654A (en) Leg-wheel robot
CN110966982A (en) Monocular camera ranging system and method for cleaning robot
JP4782816B2 (en) Sensor unit
JP2012200318A (en) Walking assist device and walking assist program
JP2012205826A (en) Walking support device and program therefor
KR100904769B1 (en) Detecting device of obstacle and method thereof
JP2008276348A (en) Environment map generation method and mobile robot
JP2012115314A (en) Walking support device and walking support program
KR101377204B1 (en) System and method of providing road surface information, and vehicle using the same
KR101283932B1 (en) Method for measuring direction error of gimbal platform and apparatus thereof
JP2012115312A (en) Walking support device, and walking support program
JP5272431B2 (en) Object ranging device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140704