JP2012117833A - Image recognition device, mounting type robot, and image recognition program - Google Patents
Image recognition device, mounting type robot, and image recognition program Download PDFInfo
- Publication number
- JP2012117833A JP2012117833A JP2010265189A JP2010265189A JP2012117833A JP 2012117833 A JP2012117833 A JP 2012117833A JP 2010265189 A JP2010265189 A JP 2010265189A JP 2010265189 A JP2010265189 A JP 2010265189A JP 2012117833 A JP2012117833 A JP 2012117833A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- imaging
- image
- height
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像認識装置、装着型ロボット、及び画像認識プログラムに関し、例えば、カメラの基準高さを設定するものに関する。 The present invention relates to an image recognition apparatus, a wearable robot, and an image recognition program, and for example, relates to an apparatus for setting a reference height of a camera.
近年、カメラで被写体を撮影して画像解析し、その結果を用いて機械制御を行うことが行われている。
そのような技術の一例として、特許文献1の「ロボット」がある。
この技術は、ロボットの周囲に円環状のパターン光を投光して撮像し、当該撮像した画像に基づいて障害物(段差など)を検出するものである。
ところで、画像解析で周囲の障害物の高さを検出する場合、パラメータとしてカメラの高さが必要である。
そのため、従来は、カメラの高さを予め測定して記憶媒体に記憶するなどしていた。
In recent years, a subject is photographed with a camera, image analysis is performed, and machine control is performed using the result.
An example of such a technique is “Robot” of Patent Document 1.
In this technique, an annular pattern light is projected around a robot to pick up an image, and obstacles (steps, etc.) are detected based on the picked up image.
By the way, when the height of surrounding obstacles is detected by image analysis, the height of the camera is required as a parameter.
Therefore, conventionally, the height of the camera is measured in advance and stored in a storage medium.
しかし、カメラを固定した状態で使用する用途の場合は、カメラの高さを予め計測して記憶させればよいが、例えば、カメラの位置が変更される場合や、新規にカメラを取り付ける場合には、その都度カメラの位置を手動で計測してパラメータとして入力する必要があり、運用が効率的でないという問題があった。
例えば、装着型ロボットにカメラを設置して段差を検出させる場合、装着者によって身長差があり、装着者が変更となるたびにカメラの高さを手動で計測して入力するのは効率的でなかった。
However, for applications where the camera is used in a fixed state, the camera height may be measured and stored in advance.For example, when the camera position is changed or a new camera is attached. However, each time, it is necessary to manually measure the position of the camera and input it as a parameter, and there is a problem that the operation is not efficient.
For example, when installing a camera on a wearable robot and detecting a step, it is efficient to manually measure and input the camera height each time the wearer changes because there is a difference in height between wearers. There wasn't.
本発明は、画像認識用のカメラの高さを自動的に検出することを目的とする。 An object of the present invention is to automatically detect the height of a camera for image recognition.
(1)請求項1記載の発明では、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影手段と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像手段と、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得手段と、を具備したことを特徴とする画像認識装置を提供する。
(2)請求項2記載の発明では、前記カメラ高さ取得手段は、前記撮像領域の端部から前記像までの距離を用いて前記カメラの高さを取得することを特徴とする請求項1に記載の画像認識装置を提供する。
(3)請求項3記載の発明では、前記端部が前記撮像領域にない場合、前記端部が前記撮像領域に位置するように前記照射方向、又は前記撮像方向のうちの少なくとも一方を変更する方向変更手段を具備したことを特徴とする請求項1、又は請求項2に記載の画像認識装置を提供する。
(4)請求項4記載の発明では、請求項1、請求項2、又は請求項3に記載の画像認識装置と、前記画像認識装置による認識結果を用いて歩行制御を行う歩行制御手段と、を具備したことを特徴とする装着型ロボットを提供する。
(5)請求項5記載の発明では、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影機能と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像機能と、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得機能と、をコンピュータで実現する画像認識プログラムを提供する。
(1) According to the first aspect of the present invention, a projection unit that irradiates a predetermined pattern of light from a light source in a predetermined irradiation direction and projects an image of the light onto a reference plane, and a camera directed to the predetermined imaging direction The height of the camera with respect to the reference plane is determined using an imaging means for capturing the projected image, the positional relationship between the light source and the camera, and the position of the image in the imaging region captured by the camera. There is provided an image recognition apparatus characterized by comprising a camera height acquisition means for acquiring.
(2) In the invention described in
(3) In the invention according to claim 3, when the end portion is not in the imaging region, at least one of the irradiation direction and the imaging direction is changed so that the end portion is positioned in the imaging region. The image recognition apparatus according to claim 1, further comprising a direction changing unit.
(4) In invention of Claim 4, the image recognition apparatus of Claim 1,
(5) In the invention according to
本発明によれば、撮像領域における所定パターンの光の像の位置を用いることにより、画像認識用のカメラの高さを自動的に検出することができる。 According to the present invention, the height of the image recognition camera can be automatically detected by using the position of the light image of the predetermined pattern in the imaging region.
(1)実施形態の概要
図2(a)に示したように、カメラ位置22には、前方斜め下に向けた画像認識装置用の撮像カメラ5が設置されており、その上方の光源位置21には、撮像カメラ5の画面フレーム31の内部に投影像26を投影する光源装置4が設置されている。
装着型ロボット1(図1(a))に搭載された画像認識装置は、画面フレーム31の下端と投影像26の下端との距離である投影像オフセットx2を画像データで計測し、投影像オフセットx2とカメラ高さy2を対応させた対応データマップや、あるいは計算により、カメラ高さy2を取得する。
このようにして得られたカメラ高さy2は、パラメータとして記憶装置に記憶され、画像認識装置で段差などを認識するのに使用される。
(1) Outline of Embodiment As shown in FIG. 2A, an
The image recognition apparatus mounted on the wearable robot 1 (FIG. 1A) measures the projection image offset x2 that is the distance between the lower end of the
The camera height y2 obtained in this way is stored in the storage device as a parameter, and is used for recognizing a step or the like by the image recognition device.
(2)実施形態の詳細
本実施の形態では、一例として、画像認識装置を装着型ロボットに設置する場合について説明する。
図1(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、ユーザの腰部及び下肢に装着し、ユーザの歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
(2) Details of Embodiment In this embodiment, as an example, a case where an image recognition apparatus is installed in a wearable robot will be described.
FIG. 1A is a diagram showing a mounting state of the mounting robot 1.
The wearable robot 1 is worn on the user's lower back and lower limbs to assist (assist) the user's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.
装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、及び撮像カメラ5と光源装置4を保持する撮像ユニット9などから構成されている。
腰部装着部7は、装着型ロボット1をユーザの腰部に固定する固定装置である。腰部装着部7は、ユーザの腰部と一体となって移動する。
また、腰部装着部7は、図示しない歩行アクチュエータを備えており、ユーザの歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a waist mounting part 7, a
The waist mounting portion 7 is a fixing device that fixes the wearable robot 1 to the user's waist. The waist mounting part 7 moves together with the user's waist.
Moreover, the waist | hip | lumbar part mounting | wearing part 7 is provided with the walking actuator which is not shown in figure, and drives the
連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、ユーザの下肢に装着され、歩行アクチュエータにより前後に駆動されてユーザの歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting
The
The walking support by the waist mounting portion 7, the connecting
3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、x軸方向(前進方向)、y方向(鉛直方向)z方向(体側方向)、の周りの回転角度、角速度、角加速度などを検知することができる。
なお、x軸の周りの角度をロール角、y軸の周りの角度をヨー角、z軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the waist mounting portion 7 and detects the posture of the waist mounting portion 7 and the like. The triaxial sensor 3 includes, for example, a triaxial angular velocity detection function and a triaxial angular acceleration detection function using a three-dimensional gyro, and the x-axis direction (forward direction), the y-direction (vertical direction), and the z-direction (body side direction). , Rotation angle, angular velocity, angular acceleration, and the like can be detected.
The angle around the x axis is the roll angle, the angle around the y axis is the yaw angle, and the angle around the z axis is the pitch angle.
3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、ロール角、ヨー角、ピッチ角を変化させる。
The triaxial actuator 6 is configured by, for example, a spherical motor, and changes the roll angle, yaw angle, and pitch angle of the imaging unit 9 in which the
The light source device 4 and the
後述するように、撮像カメラ5の高さを検出する場合、撮像ユニット9を所定の角度で歩行基準面(地面や床面など、ユーザが歩行する面)に向ける必要があるが、ユーザが装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。
As will be described later, when the height of the
光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点、十字など各種の形状が可能である。 The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 irradiates light with a shape pattern that is circular with respect to a surface perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, a dot, and a cross are possible. is there.
撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行基準面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行基準面の成す角度や、歩行基準面に存在する障害物(段差など)により円形から変形した形状となるが、この形状を解析することにより歩行基準面の状態や障害物を検知することができる。
The
The projected image by the light emitted by the light source device 4 in a predetermined shape pattern has a shape deformed from a circle due to the angle formed by the irradiation direction and the walking reference plane, and obstacles (such as steps) present on the walking reference plane. By analyzing this shape, the state of the walking reference plane and obstacles can be detected.
撮像ユニット9は、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6によって腰部装着部7に対するロール角、ヨー角、ピッチ角が変化する。
即ち、撮像ユニット9を3軸アクチュエータ6で駆動することにより、光源装置4と撮像カメラ5の相対的な位置を固定したまま、光源装置4と3軸アクチュエータ6の腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させることができる。
In the imaging unit 9, the light source device 4 and the
That is, by driving the imaging unit 9 with the triaxial actuator 6, the roll angle of the light source device 4 and the triaxial actuator 6 with respect to the waist mounting portion 7 while the relative positions of the light source device 4 and the
図1(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
なお、この図では、撮像カメラ5の高さを検知するのに用いる部分を示しており、歩行支援を行うのに用いる部分は省略してある。
FIG. 1B is a diagram for explaining the mounting
The wearing
In this figure, the part used for detecting the height of the
ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。 The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.
CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、撮像カメラ5の高さを計算するほか、階段やエスカレータの段差を認識したり、歩行アクチュエータを駆動して歩行支援を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したりする。
The CPU executes various computer programs stored in the storage medium, calculates the height of the
The CPU is connected to the light source device 4, the
ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、撮像カメラ5の撮像データや3軸センサ3の検出値を記憶したり、撮像カメラ5の高さを計算するためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for storing the imaging data of the
記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、撮像カメラ5の高さを検出するためのプログラムや、光源装置4の投影像を解析して階段やエスカレータなどの段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、段差認識の画像認識などに使用する撮像カメラ5の高さなどのパラメータなどを記憶している。
The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and a program for detecting the height of the
図2(a)は、撮像カメラ5の高さを検出する方法を説明するための図である。
この図では、ユーザが直立した状態で、ユーザの足下の位置を原点とし、歩行基準面をx軸(ユーザの前進方向を正とする)、ユーザの頭上方向をy軸としている。
光源装置4の基準となる位置を光源位置21とし、撮像カメラ5の基準となる位置をカメラ位置22とし、カメラ位置22の歩行基準面からの高さをy2とする。
光源位置21は、カメラ位置22の鉛直上方にあり、光源位置21から歩行基準面に照射された投影像26(投影物)の全体が撮像カメラ5の画面フレーム31内に存在するようになっている。
なお、光源装置4の光軸28と撮像カメラ5の光軸29は何れもxy平面内にあるものとする。
FIG. 2A is a diagram for explaining a method of detecting the height of the
In this figure, with the user standing upright, the position of the user's feet is the origin, the walking reference plane is the x axis (the user's forward direction is positive), and the user's overhead direction is the y axis.
The reference position of the light source device 4 is set as the
The
It is assumed that the
カメラ位置22から、照射光の下端までの距離を照射オフセットx1とし、カメラの画面フレーム31の下端から投影像26の下端までの距離を投影像オフセットx2とする。なお、ユーザに近い側を下端、ユーザから遠い側を上端とし、以下同様とする。
また、照射光の下端の延長線と、画面フレーム31の下端の延長線の交点25からカメラ位置22までの距離を交点位置y1とする。
換言すると、交点25は、歩行基準面が存在しない場合に、照射光の下端と画面フレーム31の下端が一致する点である。
The distance from the
The distance from the
In other words, the
図2(b)は、撮像カメラ5で撮像された投影像26の一例を示した図である。
光源装置4は、円形断面の光を照射するが、歩行基準面に対して斜め前に照射されるため、投影像26は、ユーザの前進方向を長軸とする楕円形となる。
撮像カメラ5の画面フレーム31は、ユーザの前進方向を短辺、ユーザの体側方向を長辺とする矩形形状を有しており、下端から投影像26までの距離が投影像オフセットx2となる。
FIG. 2B is a diagram illustrating an example of the
The light source device 4 emits light having a circular cross section, but is irradiated obliquely forward with respect to the walking reference plane, so that the
The
以上のように光源装置4、撮像カメラ5、及び歩行基準面を配置すると、次の式(1)に係る比例式が成り立つ。
As described above, when the light source device 4, the
y1:(y1−y2)=x1:x2 …(1) y1: (y1-y2) = x1: x2 (1)
これから式(2)が成り立つ。 From this, equation (2) holds.
y2=y1(x1−x2)/x1 …(2) y2 = y1 (x1-x2) / x1 (2)
ここで、照射オフセットx1は、固定値で予め分かっており、x2は、撮像された画像ピクセル数から求めることができる。また、光源装置4の照射方向と撮像カメラ5の撮像方向は固定されているため、x2とy1は、1対1の対応関係があり、y1は、x2の関数となる。そのため、y2は、x2の関数となる。
そこで、本実施の形態では、予めy2とx2の対応データマップを作成して記憶装置に記憶しておき、これを用いてx2からy2を求めることとした。
Here, the irradiation offset x1 is known in advance as a fixed value, and x2 can be obtained from the number of captured image pixels. Further, since the irradiation direction of the light source device 4 and the imaging direction of the
Therefore, in this embodiment, a correspondence data map of y2 and x2 is created in advance and stored in the storage device, and y2 is obtained from x2 using this map.
図3は、装着型ロボット1がカメラ高さy2を求める手順を説明するためのフローチャートである。
以下の処理は、ECU16の備えるCPUが所定のプログラムに従って行うものである。
まず、ユーザが装着型ロボット1を装着して直立し、装着型ロボット1を操作してカメラ高さy2の計測を開始させる。
FIG. 3 is a flowchart for explaining a procedure for the wearable robot 1 to obtain the camera height y2.
The following processing is performed by the CPU of the
First, the user mounts the wearable robot 1 and stands upright, and operates the wearable robot 1 to start measuring the camera height y2.
すると、CPUは、3軸センサ3から腰部装着部7のヨー角、ピッチ角、及びロール角の角度を取得してRAMに格納する(ステップ5)。
次に、CPUは、RAMに記憶したこれら角度から歩行基準面に対する腰部装着部7の傾きを計算し、歩行基準面に対して光源装置4、及び撮像カメラ5の方向が図2(a)で規定されている方向となるように3軸アクチュエータ6で撮像ユニット9を駆動して照射方向、及び撮像方向を補正する(ステップ10)。
Then, the CPU acquires the yaw angle, pitch angle, and roll angle of the waist mounting portion 7 from the triaxial sensor 3 and stores them in the RAM (step 5).
Next, the CPU calculates the inclination of the waist mounting portion 7 with respect to the walking reference plane from these angles stored in the RAM, and the directions of the light source device 4 and the
次に、CPUは、光源装置4をオンして、所定の形状パターンの光を照射させる(ステップ15)。
次に、CPUは、撮像カメラ5を駆動して歩行基準面に投影された投影像26を撮像し、画像データをRAMに記憶する(ステップ20)。
次に、CPUは、RAMから画像データを読み出し、画面フレーム31の下端から投影像26の下端までのピクセル数を数えて投影像オフセットx2を取得してRAMに記憶する(ステップ25)。
Next, the CPU turns on the light source device 4 to emit light of a predetermined shape pattern (step 15).
Next, the CPU drives the
Next, the CPU reads the image data from the RAM, obtains the projection image offset x2 by counting the number of pixels from the lower end of the
次に、CPUは、記憶装置に記憶してある対応データマップでRAMに記憶した投影像オフセットx2を検索し、検索されたx2に対応するカメラ高さy2を取得する(ステップ30)。
次に、CPUは、カメラ高さy2を記憶装置にパラメータとして記憶する。
Next, the CPU searches for the projection image offset x2 stored in the RAM using the corresponding data map stored in the storage device, and obtains the camera height y2 corresponding to the searched x2 (step 30).
Next, the CPU stores the camera height y2 as a parameter in the storage device.
以上では、対応データマップによりカメラ高さy2を求めたが、後述の変形例1で示すように計算で求めることもできる。
また、本実施の形態では、ユーザが直立している状態でカメラ高さy2を測定したが、カメラ高さy2をリアルタイムで連続して行うことにより、歩行によるユーザの腰部の上下運動に追随してカメラ高さy2を補正することもできる。
In the above, the camera height y2 is obtained from the corresponding data map, but it can also be obtained by calculation as shown in Modification 1 described later.
In the present embodiment, the camera height y2 is measured while the user is standing upright. However, by continuously performing the camera height y2 in real time, the user can follow the vertical movement of the user's waist by walking. Thus, the camera height y2 can be corrected.
以上に説明した実施の形態により、次のような効果を得ることができる。
(1)画像認識用の撮像カメラ5の設置高さを自動的に検出することができる。
(2)装着型ロボット1を複数のユーザが装着する場合に、個々のユーザの体型に合わせて自動的に撮像カメラ5の高さを補正することができる。
(3)ユーザによって腰部装着部7の取り付け位置が異なっても、装着時にその都度、手動で較正する必要がない。
(4)ユーザが装着し、投影像26の形状を撮像カメラ5で撮像して段差を検出するシステムにおいて、画面フレーム31と投影像26との位置相関を測定することにより、姿勢が毎回変わっても、3次元ジャイロなどの姿勢センサや3軸モータなどを用いて光源装置4と撮像カメラ5を較正することができる。
According to the embodiment described above, the following effects can be obtained.
(1) The installation height of the
(2) When a plurality of users wear the wearable robot 1, the height of the
(3) Even if the attachment position of the waist attachment portion 7 differs depending on the user, it is not necessary to manually calibrate each time it is attached.
(4) In a system that is worn by the user and detects the step by imaging the shape of the projected
(変形例1)
先に説明した実施の形態では、光源装置4と撮像カメラ5の角度が固定されているため、例えば、身長の高いユーザが装着型ロボット1を装着した場合、交点25(図2(a))が歩行基準面よりも上となり、投影像オフセットx2が形成されない(即ち、投影像26の下端が画面フレーム31の下端からはみ出す)場合がある。
このため、変形例1では、撮像カメラ5の撮像方向を可変とし、投影像26の下端が画面フレーム31からはみ出す場合に、撮像カメラ5の撮像方向を補正して、投影像26が画面フレーム31の内部に位置するように調節する。
(Modification 1)
In the embodiment described above, since the angles of the light source device 4 and the
For this reason, in the first modification, when the imaging direction of the
図4(a)は、変形例1で撮像カメラ5の高さを検出する方法を説明するための図であり、図4(b)は、撮像カメラ5で撮像された投影像26を示した図である。
図4(a)、(b)に示したように、カメラ位置22と光源位置21の距離を光源カメラ間距離y3(y3は既知とする)、照射光の下端がy軸と成す角を光源角度α2、画面フレーム31の下端を形成する線とy軸のなす角をα1とする。また、θ1=90°−α1、θ2=90°−α2、とする。
このように設定すると次の式が成り立つ。
FIG. 4A is a diagram for explaining a method of detecting the height of the
As shown in FIGS. 4A and 4B, the distance between the
With this setting, the following equation holds.
y1=tanθ1・y3/(tanθ2−tanθ1) …(3)
x1=y3/tanθ2 …(4)
y1 = tan θ1 · y3 / (tan θ2−tan θ1) (3)
x1 = y3 / tan θ2 (4)
x2は、画像データから取得することができ、また、式(2)が成り立つから、y2は、次の式(5)、又は式(6)で表すことができ、θ1、θ2が分かれば、式(5)、又は式(6)によりカメラ高さy2を計算することができる。 x2 can be obtained from the image data, and since Expression (2) holds, y2 can be expressed by the following Expression (5) or Expression (6), and if θ1 and θ2 are known, The camera height y2 can be calculated by the equation (5) or the equation (6).
y2=tanθ1・y3/(tanθ2−tanθ1)×(y3/tanθ2−x2)/(y3/tanθ2)
=y1×(x1−x2) …(5)
=tanθ1・(y3−x2tanθ2)/(tanθ2−tanθ1) …(6)
y2 = tan θ1 · y3 / (tan θ2-tan θ1) × (y3 / tan θ2-x2) / (y3 / tan θ2)
= Y1 * (x1-x2) (5)
= Tan θ1 · (y3−x2 tan θ2) / (tan θ2−tan θ1) (6)
図5は、本変形例で装着型ロボット1がカメラ高さy2を求める手順を説明するためのフローチャートである。
変形例1では、撮像ユニット9が撮像カメラ5の撮像方向のピッチ角を調節するアクチュエータを備えているものとする。
FIG. 5 is a flowchart for explaining a procedure for the wearable robot 1 to obtain the camera height y2 in this modification.
In Modification 1, it is assumed that the imaging unit 9 includes an actuator that adjusts the pitch angle of the
まず、ユーザが装着型ロボット1を装着して直立し、装着型ロボット1を操作してカメラ高さy2の計測を開始させる。
すると、CPUは、3軸センサ3から腰部装着部7のヨー角、ピッチ角、及びロール角の角度を取得してRAMに記憶する(ステップ40)。
次に、CPUは、歩行基準面に対して光源装置4の方向が図4(a)で規定されている方向となるように3軸アクチュエータ6で撮像ユニット9を駆動して照射方向を補正する(ステップ45)。
First, the user mounts the wearable robot 1 and stands upright, and operates the wearable robot 1 to start measuring the camera height y2.
Then, the CPU acquires the yaw angle, pitch angle, and roll angle of the waist mounting portion 7 from the triaxial sensor 3 and stores them in the RAM (step 40).
Next, the CPU corrects the irradiation direction by driving the imaging unit 9 with the triaxial actuator 6 so that the direction of the light source device 4 is the direction defined in FIG. (Step 45).
次に、CPUは、光源装置4をオンにして歩行基準面に所定の形状パターンの光を照射させる(ステップ50)。
次に、CPUは、撮像カメラ5を駆動して投影像26を撮像し、画像データをRAMに記憶する(ステップ55)。
Next, the CPU turns on the light source device 4 to irradiate the walking reference plane with light having a predetermined shape pattern (step 50).
Next, the CPU drives the
次に、CPUは、RAMに記憶した画像データを解析し、投影像26の上端と下端が画面フレーム31の内部に存在するか否か、即ち、上端から下端までが画面フレーム31に入っているか否かを判断する(ステップ60)。
ここで、投影像オフセットx2が0より大きい所定値以上の場合に下端が画面フレーム31の内部に存在すると判断するように構成してもよい。
Next, the CPU analyzes the image data stored in the RAM, and determines whether or not the upper end and the lower end of the
Here, when the projection image offset x2 is equal to or larger than a predetermined value larger than 0, it may be determined that the lower end exists inside the
なお、カメラ高さy2を計算するためには、投影像26の下端が画面フレーム31に入っていればよく、上端は画面フレーム31に入っている必要はないが、ここでは、後に段差を画像認識する場合に備えて、上端と下端が画面フレーム31に入っていることを条件とした。
In order to calculate the camera height y2, it is only necessary that the lower end of the
投影像26の上端と下端が画面フレーム31にない場合(ステップ60;N)、CPUは、撮像カメラ5のピッチ角を変更し(ステップ65)、ステップ55に戻る。
より詳細には、CPUは、投影像26の上端、下端のうち、画面フレーム31の内部に存在しない方に、撮像カメラ5のピッチ角を所定角度だけ変化させる。
なお、撮像カメラ5のロール角は、3軸アクチュエータ6で撮像ユニット9を駆動することにより補正されている。
When the upper end and the lower end of the
More specifically, the CPU changes the pitch angle of the
Note that the roll angle of the
一方、投影像26の上端と下端が画面フレーム31に入っている場合(ステップ60;Y)、CPUは、RAMに記憶したヨー角、ピッチ角、及びロール角と、更に、3軸アクチュエータ6の駆動角度から光源角度α2を算出してRAMに格納する(ステップ70)。
3軸センサ3の角度により歩行基準面に対する腰部装着部7の配置が分かり、3軸センサ3の駆動角度から腰部装着部7に対する光源装置4の配置が分かるため、これらの値からα2を算出することができる。
On the other hand, when the upper end and the lower end of the projected
Since the arrangement of the waist mounting portion 7 with respect to the walking reference plane is known from the angle of the triaxial sensor 3 and the arrangement of the light source device 4 with respect to the waist mounting portion 7 is known from the driving angle of the triaxial sensor 3, α2 is calculated from these values. be able to.
次に、CPUは、撮像カメラ5のピッチ角の駆動角度を取得してカメラ角度α1を計算し、RAMに記憶する(ステップ75)。
3軸センサ3の角度により歩行基準面に対する腰部装着部7の配置が分かり、3軸センサ3の駆動角度から腰部装着部7に対する撮像ユニット9の配置が分かり、撮像カメラ5の駆動角度から撮像ユニット9に対する撮像方向が分かるため、これらの値からカメラ角度α1を算出することができる。
Next, the CPU obtains the drive angle of the pitch angle of the
The arrangement of the waist mounting portion 7 with respect to the walking reference plane is known from the angle of the triaxial sensor 3, and the arrangement of the imaging unit 9 with respect to the waist mounting portion 7 is known from the driving angle of the triaxial sensor 3, and the imaging unit is determined from the driving angle of the
次に、CPUは、RAMに記憶したカメラ角度α1、光源角度α2を読み出し、これらを90°から減算することによりθ1、θ2を算出してRAMに記憶する(ステップ80)。
次に、CPUは、予めパラメータとして記憶されている光源カメラ間距離y3を記憶装置から読み出し、また、RAMからθ1、θ2を読み出し、これらを式(3)に代入して交点位置y1を算出してRAMに記憶する(ステップ85)。
Next, the CPU reads the camera angle α1 and the light source angle α2 stored in the RAM, subtracts them from 90 °, calculates θ1 and θ2, and stores them in the RAM (step 80).
Next, the CPU reads the light source camera-to-camera distance y3 stored in advance as a parameter from the storage device, reads θ1 and θ2 from the RAM, and substitutes these into equation (3) to calculate the intersection position y1. And stored in the RAM (step 85).
次に、CPUは、光源カメラ間距離y3を記憶装置から読み出し、θ2をRAMから読み出し、これらを式(4)に代入して照射オフセットx1を算出してRAMに記憶する(ステップ90)。
次に、CPUは、RAMから画像データを読み出し、画面フレーム31の下端から投影像26の下端までのピクセル数を数えて投影像オフセットx2を取得する(ステップ95)。
Next, the CPU reads the distance y3 between the light source cameras from the storage device, reads θ2 from the RAM, substitutes these into equation (4), calculates the irradiation offset x1, and stores it in the RAM (step 90).
Next, the CPU reads the image data from the RAM and counts the number of pixels from the lower end of the
次に、CPUは、RAMから交点位置y1、照射オフセットx1、投影像オフセットx2を読み出して式(5)に代入し、カメラ高さy2を算出してRAMに記憶する(ステップ100)。あるいは、θ1、θ2、y3、x2を式(6)に代入してもよい。
そして、CPUは、カメラ高さy2をRAMから読み出して、記憶装置にパラメータとして格納する。
Next, the CPU reads the intersection position y1, the irradiation offset x1, and the projection image offset x2 from the RAM, substitutes them into the equation (5), calculates the camera height y2, and stores it in the RAM (step 100). Or you may substitute (theta) 1, (theta) 2, y3, and x2 to Formula (6).
Then, the CPU reads the camera height y2 from the RAM and stores it as a parameter in the storage device.
以上では、撮像ユニット9に対し、撮像カメラ5のピッチ角を調節可能としたが、撮像カメラ5を撮像ユニット9に固定し、光源装置4のピッチ角を変更するように構成してもよい。
あるいは、撮像カメラ5と光源装置4の双方のピッチ角を変更するように構成することもできる。
In the above description, the pitch angle of the
Or it can also comprise so that the pitch angle of both the
以上に説明した変形例1により、次のような効果を得ることができる。
(1)投影像26が画面フレーム31の内部にない場合に、投影像26が画面フレーム31の内部に位置するように自動補正することができる。
(2)腰部の低いユーザから腰部の高いユーザまで、幅広いユーザに対応することができる。
(3)歩行によるユーザの腰部の上下運動に追随してカメラ高さy2を自動補正する場合、上下運動の範囲で投影像26が画面フレーム31の内部に存在するように投影像26の位置を設定することができる。
According to the first modification described above, the following effects can be obtained.
(1) When the
(2) A wide range of users can be supported, from users with low waist to users with high waist.
(3) When the camera height y2 is automatically corrected following the user's waist movement due to walking, the position of the
(変形例2)
図6(a)、(b)は、変形例2を説明するための図である。
先に説明した実施の形態や変形例1では、画面フレーム31の下端と投影像26の下端の距離を投影像オフセットx2としたが、変形例2では、カメラ位置22の位置を光源位置21の上側とし、画面フレーム31の上端と投影像26の上端の距離を投影像オフセットx2とする。
このように設定した投影像オフセットx2からも光源高さy2を計算することができ、かつ、光源カメラ間距離y3をy2に加えることによりカメラ高さを算出することが可能である。
(Modification 2)
6A and 6B are diagrams for explaining the second modification.
In the embodiment and the first modification described above, the distance between the lower end of the
The light source height y2 can be calculated also from the projection image offset x2 set in this way, and the camera height can be calculated by adding the light source inter-camera distance y3 to y2.
(変形例3)
カメラ高さによって投影像26の長径が変化するため、実施の形態、変形例1、及び変形例2において、図6(c)に示したように、投影像26の下端側の下端位置34、及び上端側の上端位置33からカメラ高さを計算することも可能である。
(Modification 3)
Since the major axis of the
以上、実施の形態、変形例1〜3において、カメラ高さの検出機能を装着型ロボット1に装備する場合について説明したが、これは、装着型ロボット1に限定するものではなく、画像認識装置を設置する場合に広く適用することができる。
例えば、車両に画像認識装置を設置する場合、撮像カメラ5を所定位置に所定姿勢で正確に取り付けるのは時間と労力を要する。特に、車両周辺の障害物までの距離や、駐車スペース等を認識する場合に、画像認識装置を設置する基準高さhが予め決められていて、基準面(道路等)から画像認識装置までの高さが正確に基準高さhとなるように取り付ける必要がある。このような、正確な基準高さhの位置に画像認識装置を取り付ける作業に時間や労力が掛かることになる。
そこで、説明した各実施形態の画像認識装置を使用し、投影像26と画面フレーム31の相関から撮像カメラ5の高さy2を正確に測定したり、撮像カメラ5等の角度を調節することで、測定した正確な高さy2を基準高さhに換算することが可能になる。
このように本実施形態の画像認識装置によれば、正確なカメラ高さを自動的に測定し基準高さhに変換することができるので、おおよその位置・姿勢で画像認識装置(撮像カメラ5等)を取り付ければ充分であり、取り付け作業を効率化することが可能である。
As described above, in the embodiment and the first to third modifications, the case where the wearable robot 1 is equipped with the camera height detection function has been described. However, this is not limited to the wearable robot 1 and is not limited to the image recognition apparatus. It can be widely applied when installing.
For example, when installing an image recognition device in a vehicle, it takes time and labor to accurately attach the
Therefore, by using the image recognition apparatus of each embodiment described above, the height y2 of the
As described above, according to the image recognition apparatus of the present embodiment, the accurate camera height can be automatically measured and converted into the reference height h. Therefore, the image recognition apparatus (the imaging camera 5) can be used at an approximate position and orientation. Etc.) is sufficient, and the mounting operation can be made more efficient.
以上に説明した、実施の形態、及び変形例1〜3により、次の構成を得ることができる。
装着型ロボット1が備える画像認識装置は、光源装置4によって所定の形状パターンの光を照射して歩行基準面上に投影像26を投影し、これを撮像カメラ5によって撮像するため、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影手段と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像手段を備えている。
また、装着型ロボット1が備える画像認識装置は、光源位置21とカメラ位置22の位置関係や画面フレーム31(撮像領域)における投影像26の位置関係を用いてカメラ高さy2を計測するため、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得手段を備えている(第1の構成)。
The following configurations can be obtained by the embodiment and the first to third modifications described above.
The image recognition apparatus included in the wearable robot 1 projects a
In addition, the image recognition apparatus provided in the wearable robot 1 measures the camera height y2 using the positional relationship between the
装着型ロボット1が備える画像認識装置は、例えば、画面フレーム31の下端と投影像26の下端の距離を用いてカメラ高さy2を計測するため、前記カメラ高さ取得手段は、前記撮像領域の端部から前記像までの距離を用いて前記カメラの高さを取得している(第2の構成)。
The image recognition apparatus provided in the wearable robot 1 measures the camera height y2 using, for example, the distance between the lower end of the
変形例1の装着型ロボット1の備える画像認識装置は、撮像カメラ5、又は光源装置4の少なくとも一方の方向を変更して、画面フレーム31の内側に投影像26が位置するように較正するため、前記端部が前記撮像領域にない場合、前記端部が前記撮像領域に位置するように前記照射方向、又は前記撮像方向のうちの少なくとも一方を変更する方向変更手段を備えている(第3の構成)。
The image recognition device provided in the wearable robot 1 of the first modification changes the direction of at least one of the
装着型ロボット1は、第1の構成〜第3の構成で得られたカメラ高さy2を用いて、段差などの障害物を検出してユーザの歩行を制御するため、前記画像認識装置による認識結果を用いて歩行制御を行う歩行制御手段を備えている。 The wearable robot 1 uses the camera height y2 obtained in the first to third configurations to detect an obstacle such as a step and control the user's walking. A walking control means for performing walking control using the result is provided.
また、ECU16の記憶装置には、所定パターンの光を光源から所定の照射方向に照射して、当該光による像を基準面に投影する投影機能と、所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像機能と、前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得機能と、をコンピュータで実現する画像認識プログラムが格納されている。
In addition, the storage device of the
1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
15 装着ロボットシステム
16 ECU
21 光源位置
22 カメラ位置
25 交点
26 投影像
28、29 光軸
31 画面フレーム
33 上端位置
34 下端位置
DESCRIPTION OF SYMBOLS 1
21
Claims (5)
所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像手段と、
前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得手段と、
を具備したことを特徴とする画像認識装置。 Projection means for irradiating a predetermined pattern of light from a light source in a predetermined irradiation direction and projecting an image of the light on a reference plane;
An imaging means for capturing the projected image by a camera directed to a predetermined imaging direction;
Camera height acquisition means for acquiring the height of the camera with respect to the reference plane using the positional relationship between the light source and the camera and the position of the image in the imaging area captured by the camera;
An image recognition apparatus comprising:
前記画像認識装置による認識結果を用いて歩行制御を行う歩行制御手段と、
を具備したことを特徴とする装着型ロボット。 An image recognition device according to claim 1, claim 2, or claim 3;
Walking control means for performing walking control using the recognition result by the image recognition device;
A wearable robot characterized by comprising:
所定の撮像方向に向けたカメラによって、前記投影された像を撮像する撮像機能と、
前記光源と前記カメラの配置関係、及び前記カメラで撮像された撮像領域における前記像の位置を用いて、前記基準面に対する前記カメラの高さを取得するカメラ高さ取得機能と、
をコンピュータで実現する画像認識プログラム。 A projection function for irradiating a predetermined pattern of light from a light source in a predetermined irradiation direction and projecting an image of the light on a reference plane;
An imaging function for capturing the projected image by a camera directed to a predetermined imaging direction;
A camera height acquisition function for acquiring the height of the camera with respect to the reference plane using the positional relationship between the light source and the camera, and the position of the image in the imaging area captured by the camera;
An image recognition program that realizes the above on a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010265189A JP2012117833A (en) | 2010-11-29 | 2010-11-29 | Image recognition device, mounting type robot, and image recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010265189A JP2012117833A (en) | 2010-11-29 | 2010-11-29 | Image recognition device, mounting type robot, and image recognition program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012117833A true JP2012117833A (en) | 2012-06-21 |
Family
ID=46500851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010265189A Pending JP2012117833A (en) | 2010-11-29 | 2010-11-29 | Image recognition device, mounting type robot, and image recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012117833A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059208A (en) * | 2012-09-18 | 2014-04-03 | Toshiba Corp | Moving assistance apparatus and moving assistance method |
CN104772760A (en) * | 2014-01-15 | 2015-07-15 | 精工爱普生株式会社 | Robert, Robert system, robot control device and robot control method |
CN110375659A (en) * | 2018-09-11 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | Detect method, apparatus, equipment and the storage medium of obstacle height |
CN111316638A (en) * | 2017-05-26 | 2020-06-19 | Mp 高技术解决方案控股有限公司 | Apparatus and method for position determination in thermal imaging system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH085344A (en) * | 1994-06-15 | 1996-01-12 | Minolta Co Ltd | Three-dimensional shape input device |
JPH11339507A (en) * | 1998-05-26 | 1999-12-10 | Matsushita Electric Works Ltd | Automatic tracking illumination system |
JP2001157092A (en) * | 1999-11-30 | 2001-06-08 | Aiphone Co Ltd | Door slave set with camera |
JP2002144278A (en) * | 2000-11-13 | 2002-05-21 | Honda Motor Co Ltd | Legged mobile robot |
JP2006229322A (en) * | 2005-02-15 | 2006-08-31 | Matsushita Electric Ind Co Ltd | Automatic tracking controller and automatic tracking control method, program, and automatic tracking system |
-
2010
- 2010-11-29 JP JP2010265189A patent/JP2012117833A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH085344A (en) * | 1994-06-15 | 1996-01-12 | Minolta Co Ltd | Three-dimensional shape input device |
JPH11339507A (en) * | 1998-05-26 | 1999-12-10 | Matsushita Electric Works Ltd | Automatic tracking illumination system |
JP2001157092A (en) * | 1999-11-30 | 2001-06-08 | Aiphone Co Ltd | Door slave set with camera |
JP2002144278A (en) * | 2000-11-13 | 2002-05-21 | Honda Motor Co Ltd | Legged mobile robot |
JP2006229322A (en) * | 2005-02-15 | 2006-08-31 | Matsushita Electric Ind Co Ltd | Automatic tracking controller and automatic tracking control method, program, and automatic tracking system |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014059208A (en) * | 2012-09-18 | 2014-04-03 | Toshiba Corp | Moving assistance apparatus and moving assistance method |
CN104772760A (en) * | 2014-01-15 | 2015-07-15 | 精工爱普生株式会社 | Robert, Robert system, robot control device and robot control method |
CN111316638A (en) * | 2017-05-26 | 2020-06-19 | Mp 高技术解决方案控股有限公司 | Apparatus and method for position determination in thermal imaging system |
CN110375659A (en) * | 2018-09-11 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | Detect method, apparatus, equipment and the storage medium of obstacle height |
JP2020042010A (en) * | 2018-09-11 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method, device, apparatus and storage medium for detecting height of obstacle |
US11047673B2 (en) | 2018-09-11 | 2021-06-29 | Baidu Online Network Technology (Beijing) Co., Ltd | Method, device, apparatus and storage medium for detecting a height of an obstacle |
CN110375659B (en) * | 2018-09-11 | 2021-07-27 | 百度在线网络技术(北京)有限公司 | Method, device, equipment and storage medium for detecting height of obstacle |
US11519715B2 (en) | 2018-09-11 | 2022-12-06 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, device, apparatus and storage medium for detecting a height of an obstacle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4644540B2 (en) | Imaging device | |
US8666571B2 (en) | Flight control system for flying object | |
JP4929506B2 (en) | Legged mobile robot | |
JP4807583B2 (en) | Projective transformation convergence calculation processing method | |
WO2016031105A1 (en) | Information-processing device, information processing method, and program | |
JP6218209B2 (en) | Obstacle detection device | |
JP2005327238A (en) | Mobile robot, mobile robot system and method for correcting its path | |
JP2012065723A (en) | Walking state display system or the like | |
JP2008311690A (en) | Eyeball movement controller employing principle of vestibulo-ocular reflex | |
JP2013075041A (en) | Joint angle measuring apparatus and joint angle measuring method | |
JP2012117833A (en) | Image recognition device, mounting type robot, and image recognition program | |
JP2019086419A (en) | Environment acquisition system | |
JP2009174898A (en) | Moving body and environmental information generation method | |
JP2007190654A (en) | Leg-wheel robot | |
CN110966982A (en) | Monocular camera ranging system and method for cleaning robot | |
JP4782816B2 (en) | Sensor unit | |
JP2012200318A (en) | Walking assist device and walking assist program | |
JP2012205826A (en) | Walking support device and program therefor | |
KR100904769B1 (en) | Detecting device of obstacle and method thereof | |
JP2008276348A (en) | Environment map generation method and mobile robot | |
JP2012115314A (en) | Walking support device and walking support program | |
KR101377204B1 (en) | System and method of providing road surface information, and vehicle using the same | |
KR101283932B1 (en) | Method for measuring direction error of gimbal platform and apparatus thereof | |
JP2012115312A (en) | Walking support device, and walking support program | |
JP5272431B2 (en) | Object ranging device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140314 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140704 |