JP5731801B2 - Image processing apparatus for vehicle and image processing method for vehicle - Google Patents
Image processing apparatus for vehicle and image processing method for vehicle Download PDFInfo
- Publication number
- JP5731801B2 JP5731801B2 JP2010259416A JP2010259416A JP5731801B2 JP 5731801 B2 JP5731801 B2 JP 5731801B2 JP 2010259416 A JP2010259416 A JP 2010259416A JP 2010259416 A JP2010259416 A JP 2010259416A JP 5731801 B2 JP5731801 B2 JP 5731801B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera
- collision
- distance
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 25
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000013519 translation Methods 0.000 claims description 38
- 239000013598 vector Substances 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000012887 quadratic function Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 19
- 238000013459 approach Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明の実施形態は、車両用画像処理装置および車両用画像処理方法に関する。 Embodiments described herein relate generally to a vehicle image processing apparatus and a vehicle image processing method.
最近、自動車などの車両の運転を支援するための技術として、車両と対象物との衝突可能性を判定する技術の開発が望まれている。この種の技術には、たとえば、車両に搭載されたカメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術などがある。車両に搭載されたカメラにより撮像された画像を用いる場合、レーダを用いる場合に比べてデジタル化された画像データを利用することができることから、対象物の接近角度などの複雑な判断が可能である。 Recently, as a technique for supporting driving of a vehicle such as an automobile, development of a technique for determining the possibility of collision between the vehicle and an object is desired. As this type of technology, for example, there is a technology for determining the possibility of collision between a vehicle and an object based on an image captured by a camera mounted on the vehicle. When using an image captured by a camera mounted on a vehicle, it is possible to use digitized image data as compared with the case of using a radar, so that it is possible to make a complicated determination such as an approach angle of an object. .
しかし、従来の技術は、車両が振動することなく静かに直進している場合を想定したものであり、車両の3種の回転成分(ヨーイング、ローリング、ピッチング)を考慮していない。このため、従来の技術は、車両が曲進する場合や車両が振動する場合などに適用することが難しい。 However, the conventional technology assumes that the vehicle is moving straight without vibration, and does not consider the three types of rotational components (yawing, rolling, and pitching) of the vehicle. For this reason, it is difficult to apply the conventional technique when the vehicle turns or when the vehicle vibrates.
本発明の一実施形態に係る車両用画像処理装置は、上述した課題を解決するために、カメラと、動きベクトル算出部と、スケールファクタ付き並進成分算出部と、z位置取得部と、衝突判定部と、衝突危険度判定部と、を備える。カメラは、車両に設けられ車両の周辺を撮像する。動きベクトル算出部は、カメラにより撮像された複数の画像間の動きベクトルを求める。スケールファクタ付き並進成分算出部は、画像に含まれる対象物に対応する動きベクトルと車両の回転成分とにもとづいて、カメラ座標系の3軸方向それぞれのスケールファクタ付き並進成分を算出する。z位置取得部は、カメラ座標系における対象物の光軸方向座標値を取得する。衝突判定部は、カメラ座標系における対象物の光軸方向座標値を含む三次元座標値とスケールファクタ付き並進成分とを用いてカメラの中心から対象物までの距離を時間の関数としてあらわした式にもとづいて、カメラの中心から対象物までの最近接距離が所定の距離以下であるか否かを判定する。衝突危険度判定部は、最近接距離が所定の距離以下であると、車両と対象物が衝突すると判定する。 In order to solve the above-described problem, a vehicle image processing device according to an embodiment of the present invention includes a camera, a motion vector calculation unit, a translational component calculation unit with a scale factor, a z position acquisition unit, and a collision determination. And a collision risk determination unit. The camera is provided in the vehicle and images the periphery of the vehicle. The motion vector calculation unit obtains a motion vector between a plurality of images captured by the camera. The translation component with a scale factor calculation unit calculates a translation component with a scale factor in each of the three axis directions of the camera coordinate system based on the motion vector corresponding to the object included in the image and the rotation component of the vehicle. The z position acquisition unit acquires the optical axis direction coordinate value of the object in the camera coordinate system. The collision determination unit is an expression that expresses the distance from the center of the camera to the object as a function of time using a three-dimensional coordinate value including the optical axis direction coordinate value of the object in the camera coordinate system and a translation component with a scale factor. Based on this, it is determined whether or not the closest distance from the center of the camera to the object is equal to or less than a predetermined distance. The collision risk determination unit determines that the vehicle and the object collide when the closest distance is equal to or less than a predetermined distance.
本発明に係る車両用画像処理装置および車両用画像処理方法の実施の形態について、添付図面を参照して説明する。 Embodiments of a vehicle image processing apparatus and a vehicle image processing method according to the present invention will be described with reference to the accompanying drawings.
図1は、本発明の一実施形態に係る車両用画像処理装置10の一例を示す全体構成図である。
FIG. 1 is an overall configuration diagram showing an example of a vehicle
車両用画像処理装置10は、カメラ11、衝突予測ECU(Electronic Control Unit)12、記憶部13、表示部14およびスピーカ15を有する。
The vehicle
カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両周囲の画像を取り込んで画像信号を生成して衝突予測ECU12に与える。
The
たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。もちろん、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。
For example, when monitoring the rear, the
衝突予測ECU12は、CPU、RAMおよびROMなどの記憶媒体などにより構成される。衝突予測ECU12のCPUは、ROMなどの記憶媒体に記憶された衝突予測プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、カメラ11により取得された画像にもとづいて、車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定する。
The
衝突予測ECU12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。衝突予測ECU12のROMなどの記憶媒体は、衝突予測プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。
The RAM of the
なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。 A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.
なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って衝突予測ECU12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
In this case, the network connection unit implements various information communication protocols according to the form of the network, and the
記憶部13は、衝突予測ECU12によるデータの読み書きが可能な不揮発性のメモリであり、あらかじめ、消失点(FOE:Focus of Expansion)の情報FOE(x0、y0)、距離マージンr0、第1の時間閾値s1、第2の時間閾値s2および接近閾値d0を記憶している。これらの情報は、電子ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。
The
消失点情報FOE(x0、y0)は、衝突予測ECU12により車両の回転成分を算出する際に用いられる。
The vanishing point information FOE (x0, y0) is used when the
距離マージンr0、第1の時間閾値s1、第2の時間閾値s2および接近閾値d0は、衝突予測ECU12により車両と対象物との衝突危険度を判定するために用いられる。
The distance margin r0, the first time threshold value s1, the second time threshold value s2, and the approach threshold value d0 are used by the
表示部14は、運転者が視認可能な位置に設けられ、車載用の一般的なディスプレイやカーナビゲーションシステム、HUD(ヘッドアップディスプレイ)などの表示出力装置を用いることができ、衝突予測ECU12の制御に従って衝突警告情報などの各種情報を表示する。
The
スピーカ15は、衝突予測ECU12の制御に従って衝突警告情報などの各種情報に対応した音声を出力する。
The
図1に示すように、衝突予測ECU12のCPUは、衝突プログラムによって、少なくとも動きベクトル算出部21、回転成分算出部22、スケールファクタ付き並進成分算出部23、ユークリッド距離推定部24、衝突判定部25、z位置取得部26、衝突時間推定部27、衝突危険度判定部28および警告提示部29として機能する。この各部21〜29は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。
As shown in FIG. 1, the CPU of the
ここで、本実施形態で用いるカメラ座標系について簡単に説明する。 Here, the camera coordinate system used in this embodiment will be briefly described.
図2は、カメラ座標系におけるカメラ投影面31と対象物32との関係を示す説明図である。
FIG. 2 is an explanatory diagram showing the relationship between the
本実施形態に係る車両用画像処理装置は、カメラ座標系のみを用い、世界座標系を併用しないため、座標系の相互変換等の処理が不要である。 Since the vehicular image processing apparatus according to the present embodiment uses only the camera coordinate system and does not use the world coordinate system, processing such as mutual conversion of the coordinate system is unnecessary.
カメラ座標系(x、y、z)は、カメラ11の中心を原点とする左手座標系である。カメラ座標系のz軸は、カメラ11の光軸に一致するよう設定される。
The camera coordinate system (x, y, z) is a left-handed coordinate system with the center of the
カメラ投影面31は、カメラ座標系においてz=fの面である。fはカメラ11の焦点距離である。カメラ11は、このカメラ投影面31に投影される車両周囲を撮像する。
The
対象物32のある点Pのカメラ座標系の三次元座標をP(X、Y、Z)とすると、点Pのカメラ投影面31に投影された点pの座標はp(x、y、f)となる。点Pのz座標(光軸方向座標)をzと定義すると(Z=z)、X=(z/f)・x、Y=(z/f)・y、Z=zと書ける。このとき、距離rはr2=(z2/f2)(x2+y2+f2)と書ける。ここで、x、yは投影面31上のxy座標値であり、zは対象物32のz座標値であることに注意する。投影面31上のxy座標値は、カメラ11の画素と対応するものであるため、画像から容易に取得することができる。
When the three-dimensional coordinate of the camera coordinate system of the point P with the
動きベクトル算出部21は、ブロックマッチング法や勾配法などを用いて、カメラ111により撮像された複数の画像から画素ごとに動きベクトル(u、v)を算出する。
The motion
回転成分算出部22は、動きベクトル(u、v)および消失点情報FOE(x0、y0)にもとづいて回転成分Rx、Ry、Rzを算出する。以下、より具体的に説明する。
The rotation
カメラ投影面31上の動きベクトル(u、v)は、次のように書けることが知られている。
U = xy(1/f)Rx−(x2+f2)(1/f)Ry+yRz−f(Tx/z)+x(Tz/z) (1)
V = (y2+f2)(1/f) Rx−xy(1/f)Ry−xRz−f(Ty/z)+y(Tz/z) (2)
It is known that the motion vector (u, v) on the
U = xy (1 / f) R x − (x 2 + f 2 ) (1 / f) R y + yR z −f (T x / z) + x (T z / z) (1)
V = (y 2 + f 2 ) (1 / f) R x −xy (1 / f) R y −xR z −f (T y / z) + y (T z / z) (2)
ここで、x、yは投影面31上のxy座標値、zは対象物32のz座標値をあらわす。また、Rx、Ry、Rz、Tx、Ty、Tzは運動パラメータであり、Rx、Ry、Rzは車両の回転成分をあらわし、Tx、Ty、Tzは自車と対象物32との相対並進成分をあらわす。
Here, x and y are xy coordinate values on the
車両の回転成分Rxはx軸中心の回転成分であり、自車のピッチング成分をあらわす。また、Ryはy軸中心の回転成分であり、自車のヨーイング成分をあらわす。ヨーイングは、主に舵角時(自車の曲進時)に発生する。Rzはz軸中心の回転成分であり自車のローリング成分をあらわす。 The rotation component Rx of the vehicle is a rotation component about the x-axis, and represents the pitching component of the own vehicle. R y is a rotational component about the y-axis and represents the yawing component of the host vehicle. Yawing occurs mainly at the steering angle (when the vehicle is turning). R z is a rotation component about the z axis and represents a rolling component of the vehicle.
式(1)および式(2)は、それぞれ次のように変形できる。
u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz = −f(Tx/z)+x(Tz/z) (3)
v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz = −f(Ty/z)+y(Tz/z) (4)
Equations (1) and (2) can be modified as follows.
u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z = −f (T x / z) + x (T z / z) (3)
v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z = −f (T y / z) + y (T z / z) (4)
式(3)および式(4)において、左辺は動きベクトル(u、v)を回転成分で補正したものである。 In Equation (3) and Equation (4), the left side is obtained by correcting the motion vector (u, v) with a rotation component.
対象物32が静止物である場合には、式(3)の式(4)に対する比は、画素(x、y)からFOE(x0、y0)に向かう傾きと等しくなることが知られている(崎本隆志ら、火の国情報シンポジウム2003講演論文集、「拡張焦点を用いた移動車両検出及び追跡に関する研究」(2003))。
このため、次の式(5)が導かれる。
[u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz]/[ v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz]
= [x-x0]/[y-y0] (5)
When the
For this reason, the following formula (5) is derived.
[u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z ] / [v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z ]
= [x-x0] / [y-y0] (5)
したがって、Rx、Ry、Rzを3つの未知数と考えれば、静止物に対応する少なくとも3つの画素の動きベクトルを得ることができればRx、Ry、Rzを算出できる。 Accordingly, if R x , R y , and R z are considered as three unknowns, R x , R y , and R z can be calculated if motion vectors of at least three pixels corresponding to the stationary object can be obtained.
そこで、回転成分算出部22は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の画素の動きベクトル(u、v)についての式(5)にもとづいて回転成分Rx、Ry、Rzを算出する。すなわち、回転成分算出部22は、カメラ11が取得した画像から回転成分を算出することができる。
Therefore, the rotation
なお、回転成分は、車速データや舵角データなどの車両情報やジャイロセンサなどから求めることもできる。 The rotation component can also be obtained from vehicle information such as vehicle speed data and steering angle data, a gyro sensor, and the like.
スケールファクタ付き並進成分算出部23は、画像に含まれる対象物32に対応する動きベクトル(u、v)と車両の回転成分Rx、Ry、Rzとにもとづいて、対象物32のスケールファクタ付きの相対並進成分(以下、スケールファクタ付き並進成分という)Tx/z、Ty/z、Tz/zを算出する。
The translation component with scale
スケールファクタ付き並進成分Tx/z、Ty/z、Tz/zは、対象物32の相対並進成分Tx、Ty、Tzを対象物32のz座標値で除したものである。このため、相対並進成分Tx、Ty、Tzが同一であれば、遠くにある(z座標値が大きい)ものほどスケールファクタ付き並進成分が小さくなる。対象物32の点Pが静止しているか移動しているかによらず、点Pはスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zで運動していると画像上において観測される。以下、より具体的に説明する。
The translation components T x / z, T y / z, and T z / z with scale factors are obtained by dividing the relative translation components T x , T y , T z of the
回転成分Rx、Ry、Rzは、画面内の任意の位置で共通なパラメータである。このため、式(3)および式(4)にもとづき、任意の画素に対して次式が成り立つ。
−f(Tx/z)+x(Tz/z) = a (6)
−f(Ty/z)+y(Tz/z) = b (7)
The rotation components R x , R y , and R z are parameters that are common at arbitrary positions in the screen. For this reason, the following equation is established for an arbitrary pixel based on the equations (3) and (4).
−f (T x / z) + x (T z / z) = a (6)
−f (T y / z) + y (T z / z) = b (7)
ここで、aは式(3)の左辺をあらわす観測値であり、bは式(4)の左辺をあらわす観測値である。対象物32の複数の画素(x、y)についての観測値a、bが得られれば、式(6)および式(7)から未知数Tx/z、Ty/z、Tz/zを得ることができる。
Here, a is an observed value that represents the left side of Equation (3), and b is an observed value that represents the left side of Equation (4). If observation values a and b for a plurality of pixels (x, y) of the
そこで、スケールファクタ付き並進成分算出部23は、車両の回転成分Rx、Ry、Rzと、画像に含まれる対象物32に対応する複数の画素についての動きベクトル(u、v)と、にもとづいて式(6)および式(7)のaおよびbを算出することにより、対象物32のスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを算出する。
Therefore, the translation component with scale
換言すれば、スケールファクタ付き並進成分算出部23は、対象物32のz座標値を用いることなく対象物32のスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを得ることができる。
In other words, the translation component with scale
ユークリッド距離推定部24は、カメラ座標系における対象物32の三次元座標値(X、Y、Z)とスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zとを用いてカメラ11の中心から対象物32までの距離rを時間tの関数としてあらわす式を立てる。以下、より具体的に説明する。
The Euclidean
現時刻から時刻tまで自車および対象物32は同じ運動をすると仮定すると、時刻t秒後における原点と点Pとの距離rの2乗はユークリッド距離として、時刻tの2次関数であらわすことができる。
r2 = (X−Txt)2+(Y−Tyt)2+(Z−Tzt)2 (8)
Assuming that the vehicle and the
r 2 = (X−T x t) 2 + (Y−T y t) 2 + (Z−T z t) 2 (8)
上述の通り、点Pのz座標(光軸方向座標)をzと定義すると(Z=z)、X=(z/f)・x、Y=(z/f)・y、Z=zと書ける。これを式(8)に代入すると、次式を得る。
r2 = (xz/f−Txt)2+(yz/f−Tyt)2+(z−Tzt)2 (9)
As described above, if the z coordinate (optical axis direction coordinate) of the point P is defined as z (Z = z), X = (z / f) · x, Y = (z / f) · y, Z = z I can write. Substituting this into equation (8) yields:
r 2 = (xz / f−T x t) 2 + (yz / f−T y t) 2 + (z−T z t) 2 (9)
式(9)は、次のように変形できる。
r2 / z2 = At2−2Bt+C (10)
ただし、A = (Tx/z)2+(Ty/z)2+(Tz/z)2、
B = (1/ f)(x Tx/z+yTy/z +fTz/z)、
C = (1/ f2)( x2+y2+f2) をそれぞれあらわす。
Equation (9) can be modified as follows.
r 2 / z 2 = At 2 −2Bt + C (10)
Where A = (T x / z) 2 + (T y / z) 2 + (T z / z) 2 ,
B = (1 / f) (x T x / z + yT y / z + fT z / z),
C = (1 / f 2 ) (x 2 + y 2 + f 2 ) respectively.
式(10)のAは正であるから、r2は下に凸のtの2次関数である。式(10)から、r2の極小値r2minおよび極小値r2minをとる時間tはそれぞれ次のようにあらわせる。
r2min=(z/f)2{(x2+y2+f2)−(xTx/z+yTy/z+fTz/z)2/ (Tx 2/z2+Ty 2/z2+Tz 2/z2)} (11)
t = (1/f)(xTx/z +yTy/z +fTz/z)/ (Tx 2/z2 +Ty 2/z2 +Tz 2/z2) (12)
Since A in Expression (10) is positive, r 2 is a quadratic function of t convex downward. From equation (10), each time t the
r 2 min = (z / f) 2 ((x 2 + y 2 + f 2 ) − (xT x / z + yT y / z + fT z / z) 2 / (T x 2 / z 2 + T y 2 / z 2 + T z 2 / z 2 )} (11)
t = (1 / f) (xT x / z + yT y / z + fT z / z) / (T x 2 / z 2 + T y 2 / z 2 + T z 2 / z 2 ) (12)
式(11)から明らかなように、r2の極小値は、スケールファクタ付き並進成分Tx/z、Ty/z、Tz/zおよび対象物32のz座標値が得られれば算出することができる。また、式(12)から明らかなように、r2が極小値となる時刻tは、スケールファクタ付き並進成分Tx/z、Ty/z、Tz/zが得られれば算出することができる。
As is clear from equation (11), the minimum value of r 2 is calculated if the translation components T x / z, T y / z, T z / z with scale factors and the z coordinate value of the
r2がゼロになるということは、点Pが原点(カメラ中心)に到達することを意味する。したがって、r2の極小値は、車両と対象物32との衝突危険性を判定するための指標として用いることができる。
that r 2 is zero means that the point P reaches the origin (camera center). Therefore, the minimum value of r 2 can be used as an index for determining the risk of collision between the vehicle and the
また、車両と対象物が所定の距離(以下、距離マージンr0という)以内に近づくか否かを判定することも、衝突危険性の判定に有効であると考えられる。車両と対象物が所定の距離(以下、距離マージンr0という)以内に近づくか否かを判定するためには、まず式(9)の両辺から距離マージンr0 2 を減じた次式を立てる。
r2 −r0 2 = (xz/f−Txt)2+(yz/f−Tyt)2+(z−Tzt)2 −r0 2 (13)
In addition, it is considered effective to determine whether or not the vehicle and the object are within a predetermined distance (hereinafter referred to as a distance margin r0) in determining the collision risk. Distance the vehicle and the object is given (hereinafter, the distance margin r0 hereinafter) to determine whether the approaches within, first make the following equation obtained by subtracting the distance margin r0 2 from both sides of the equation (9).
r 2 −r0 2 = (xz / f−T x t) 2 + (yz / f−T y t) 2 + (z−T z t) 2 −r0 2 (13)
式(13)から、r2−r02の極小値r2−r02minは次のようにあらわせる。r2 −r02min =(z/f)2{(x2+y2+f2)−(xTx/z+yTy/z+fTz/z)2/ (Tx 2/z2+Ty 2/z2+Tz 2/z2)} −r0 2 (14)
From equation (13), the
なお、r2−r02が極小値をとる時間tは式(10)であらわせる。
Note that the time t for which r 2 −
以下の説明では、ユークリッド距離推定部24が、記憶部13から距離マージンr0を取得し、カメラ座標系における対象物32の三次元座標値(X、Y、Z)とスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zとを用いた式(8)にもとづく式(14)を立て、この式を衝突判定部25に与える場合の例について示す。
In the following description, the Euclidean
衝突判定部25は、式(8)にもとづく式(14)を用いて、カメラ11の中心から対象物32までの最近接距離(rの極小値)が距離マージンr0以下であるか否か、すなわち式(14)においてr2−r02の極小値がゼロ以下となるか否かを判定する。なお、衝突判定部25は、カメラ11の中心から対象物32までの最近接距離が距離マージンr0以下となる場合にはさらに、車両と対象物32とが衝突すると判定してもよい。また、衝突判定部25は、r2−r02の極小値が正である場合、この極小値が記憶部13に記憶された接近閾値d1より小さいか(ただし、d1>0とする)否かを判定する。
The
式(14)を解くためには、スケールファクタ付き並進成分Tx/z、Ty/z、Tz/zのほか、対象物32のz座標値が必要である。対象物32のz座標値は、z位置取得部26から衝突判定部25に与えられる。
In order to solve Expression (14), the z-coordinate value of the
z位置取得部26は、対象物32のz座標値を取得して衝突判定部25に与える。たとえば、対象物32が静止物である場合は、相対並進成分Tx、Ty、Tzを別途求めておき、相対並進成分Tx、Ty、Tzとスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zとから求めることができる。相対並進成分Tx、Ty、Tzは、画像から求めることもできるし、車両の車速データや舵角データなどの車両情報や加速度センサなどから求めることもできる。なお、対象物32のz座標値は、1台のカメラ11以外の部材を用いる場合、レーダ、レーダレーザ、光切断法、ステレオカメラなどによる距離測定法により求めることもできる。
The z
図3(a)は、r2−r02の極小値が負の場合におけるr2−r02と時間tの関係の一例を示す説明図であり、(b)はr2−r02の極小値が正の場合におけるr2−r02と時間tの関係の一例を示す説明図である。 3 (a) is an explanatory diagram showing an example of the relationship between r 2 -r0 2 and the time t when the minimum value of r 2 -r0 2 is negative, (b) it is r 2 -r0 2 tiny value is an explanatory diagram showing an example of the relationship between r 2 -r0 2 and the time t in the case of a positive.
衝突時間推定部27は、式(8)にもとづく式(14)を用いて、カメラ11の中心から対象物32までの距離rが距離マージンr0となる時間を算出する。なお、カメラ11の中心から対象物32までの距離rが距離マージンr0となるのは、r2−r02の極小値がゼロ以下の場合のみである(図3(a)参照)。
The collision
具体的には、衝突時間推定部27は、式(14)の左辺をゼロとした式の実根t1およびt2を求め、小さいほうの根t1を衝突までの時間TTC(Time To Collision)とする。
Specifically, the collision
衝突危険度判定部28は、カメラ11の中心から対象物32までの最近接距離と、カメラ11の中心から対象物32までの距離rがr0となる時間TTCとに応じて車両と対象物32との衝突危険性を複数の段階に分類する。以下の説明では、衝突危険性が3段階に分類される場合の例について示す。
The collision
より具体的には、衝突危険度判定部28は、最近接距離がr0以下であり、かつTTCが記憶部13に記憶された第1の時間閾値s1より小さいと、危険度を「高」と判定する。また、最近接距離がr0以下であり、かつTTCが記憶部13に記憶された第1の時間閾値s1以上第2の時間閾値s2未満であると、危険度を「中」と判定し、s2以上であると危険度を「低」と判定する。
More specifically, when the closest distance is r0 or less and the TTC is smaller than the first time threshold value s1 stored in the
また、衝突危険度判定部28は、最近接距離がr0より大きくかつ、r2−r02の極小値が記憶部13に記憶された接近閾値d1より小さい場合は危険度を「中」と判定し、d1以上である場合は危険度を「低」と判定する。
Further, the collision
警告提示部29は、衝突危険度判定部28により分類された衝突危険性に応じて、表示部14やスピーカ15を介して運転者に対して警告を行う。たとえば、危険度「高」の場合、運転者に緊急であることが認識されるよう、表示部14を介した映像およびスピーカ15を介した音声で衝突する危険があることを通知するとよい。また、危険度「中」の場合は、運転者に注意を促す程度に、表示部14を介した映像およびスピーカ15を介した音声で衝突する危険があることを通知するとよい。危険度「低」の場合は、運転者への警告を行わなくてもよい。
The
次に、本実施形態に係る車両用画像処理装置および車両用画像処理方法の動作の一例について説明する。 Next, an example of the operation of the vehicle image processing apparatus and the vehicle image processing method according to the present embodiment will be described.
図4は、衝突予測ECU12のCPUが、カメラ11により取得された画像にもとづいて車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定する際の手順を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。
FIG. 4 shows a procedure when the CPU of the
まず、ステップST1において、動きベクトル算出部21は、カメラ11から撮像画像の画像データを取得する。
First, in step ST <b> 1, the motion
次に、ステップST2において、動きベクトル算出部は、取得した画像データにもとづき、カメラ11により撮像された複数の画像間の動きベクトル(u、v)を画素ごとに求める。
Next, in step ST2, the motion vector calculation unit obtains a motion vector (u, v) between a plurality of images captured by the
次に、ステップST3において、回転成分算出部22は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の動きベクトル(u、v)についての式(5)にもとづいて回転成分Rx、Ry、Rzを算出する。
Next, in step ST3, the rotation
次に、ステップST4において、スケールファクタ付き並進成分算出部23は、車両の回転成分Rx、Ry、Rzと、画像に含まれる対象物32に対応する複数の画素についての動きベクトル(u、v)と、にもとづいて式(6)および式(7)のaおよびbを算出することにより、対象物32のスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを算出する。
Next, in step ST4, the translation component with scale
次に、ステップST5において、ユークリッド距離推定部24は、記憶部13から距離マージンr0を取得し、カメラ座標系における対象物32の三次元座標値(X、Y、Z)とスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zとを用いた式(8)にもとづく式(9)および式(10)を立てる。
Next, in step ST5, the Euclidean
次に、ステップST6において、ユークリッド距離推定部24は、式(9)の両辺から距離マージンr0を減じた式(13)を立てる。また、ユークリッド距離推定部24は、式(13)にもとづきr2−r02の極小値を求めるための式(14)を立て、この式(14)を衝突判定部25に与える。
Next, in step ST6, the Euclidean
次に、ステップST7において、衝突判定部25は、z位置取得部26から対象物32のz座標値を取得し、このz座標値およびスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを代入して式(14)を解くことにより、r2−r02の極小値がゼロ以下となるか否かを判定する。r2−r02の極小値がゼロ以下となる場合はステップST8に進む。一方、r2−r02の極小値が正である場合は、ステップST13に進む。
Next, in step ST7, the
次に、ステップST8において、衝突時間推定部27は、式(14)の左辺をゼロとした式の実根t1およびt2を求め、小さいほうの根t1を衝突までの時間TTC(Time To Collision)と推定する。
Next, in step ST8, the collision
次に、ステップST9において、衝突危険度判定部28は、TTCが記憶部13に記憶された第1の時間閾値s1より小さいか否かを判定する。TTCが第1の時間閾値s1より小さい場合はステップST10に進む。一方、TTCが第1の時間閾値s1以上である場合はステップST11に進む。
Next, in step ST <b> 9, the collision
次に、ステップS10において、衝突危険度判定部28は、衝突危険度を「高」と判定し、ステップST15に進む。
Next, in step S10, the collision
他方、ステップST9でTTCが第1の時間閾値s1以上であると判定されると、ステップST11において、衝突危険度判定部28は、TTCが記憶部13に記憶された第2の時間閾値s2より小さいか否かを判定する。TTCが第2の時間閾値s2より小さい場合はステップST12に進む。一方、TTCが第2の時間閾値s2以上である場合はステップST14に進む。
On the other hand, if it is determined in step ST9 that TTC is equal to or greater than the first time threshold s1, the collision
次に、ステップST12において、衝突危険度判定部28は、衝突危険度を「中」と判定し、ステップST15に進む。
Next, in step ST12, the collision
また、ステップST13において、衝突危険度判定部28は、衝突危険度を「低」と判定し、ステップST15に進む。
In step ST13, the collision
他方、ステップST7でr2−r02の極小値が正であると判定されると、ステップST14において、衝突判定部25はr2−r02の極小値が記憶部13に記憶された接近閾値d1より小さいか否かを判定する。r2−r02の極小値が接近閾値d1より小さい場合は、ステップS12に進んで衝突危険度判定部28により衝突危険度が「中」であると判定される。一方、r2−r02の極小値が接近閾値d1以上である場合は、ステップS14に進んで衝突危険度判定部28により衝突危険度が「低」であると判定される。
On the other hand, when the minimum value of r 2 -r0 2 is determined to be positive at step ST7, at step ST14, the
そして、ステップS15において、警告提示部29は、衝突危険度判定部28により分類された衝突危険性に応じて、表示部14やスピーカ15を介して運転者に対して警告を行う。
In step S <b> 15, the
以上の手順により、カメラ11により取得された画像にもとづいて車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定することができる。
According to the above procedure, the possibility of collision with an object can be determined based on the image acquired by the
本実施形態に係る車両用画像処理装置10は、対象物32のスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを算出する際に、動きベクトル(u、v)を回転成分Rx、Ry、Rzで補正した式(3)および式(4)を用いる。このため、車両の曲進や振動の影響は排除される。したがって、車両用画像処理装置10によれば、自車の曲進および自車の振動による影響を考慮して対象物32との衝突可能性を的確に判定することができる。
The vehicular
また、車両用画像処理装置10は、車両と対象物32との距離rにもとづいて衝突危険性を判定する。したがって、対象物32が静止物であるか移動物であるかによらず、正確に衝突危険性を判定することができる。また、対象物32が静止物であれば、1台のカメラ11のみからz座標値を得ることができるため、車両用画像処理装置10を簡素に構成することができる。
Further, the vehicle
また、車両用画像処理装置10は、単一の座標系(カメラ座標系)のみを用いる。このため、カメラ座標系と世界座標系とを併用する場合に比べ、座標系のの相互変換等の処理が不要となり、衝突危険予測に必要な演算量を少なくすることができる。
The vehicle
また、車両用画像処理装置10は、カメラ11の中心から対象物32までの最近接距離と、カメラ11の中心から対象物32までの距離rがr0となる時間TTCとに応じて車両と対象物32との衝突危険性を複数の段階に分類し、この分類に応じた適切な警告を運転者に与えることができる。
Further, the vehicle
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。 Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.
10 車両用画像処理装置
11 カメラ
12 衝突予測ECU
13 記憶部
21 動きベクトル算出部
22 回転成分算出部
23 スケールファクタ付き並進成分算出部
25 衝突判定部
26 z位置取得部
27 衝突時間推定部
28 衝突危険度判定部
31 カメラ投影面
32 対象物
DESCRIPTION OF
DESCRIPTION OF
Claims (6)
前記カメラにより撮像された複数の画像間の動きベクトルを求める動きベクトル算出部と、
前記画像に含まれる対象物に対応する動きベクトルと前記車両の回転成分とにもとづいて、カメラ座標系の3軸方向それぞれのスケールファクタ付き相対並進成分を算出するスケールファクタ付き並進成分算出部と、
前記カメラ座標系における前記対象物の光軸方向座標値を取得するz位置取得部と、
前記カメラ座標系における前記対象物の前記光軸方向座標値を含む三次元座標値と前記スケールファクタ付き相対並進成分とを用いて前記カメラの中心から前記対象物までの距離を時間の関数としてあらわした式にもとづいて、前記カメラの中心から前記対象物までの最近接距離が所定の距離以下であるか否かを判定する衝突判定部と、
前記最近接距離が前記所定の距離以下であると、前記車両と前記対象物が衝突すると判定する衝突危険度判定部と、
を備えたことを特徴とする車両用画像処理装置。 A camera provided in the vehicle for imaging the periphery of the vehicle;
A motion vector calculation unit for obtaining a motion vector between a plurality of images captured by the camera;
Wherein based on the rotational component of the vehicle and the motion vector corresponding to the object included in the image, the scale factor with translational component calculation unit for calculating a three-axis directions of the scale factor with the relative translational component of camera coordinate system ,
A z-position acquisition unit that acquires optical axis direction coordinate values of the object in the camera coordinate system;
A distance from the center of the camera to the object is expressed as a function of time using a three-dimensional coordinate value including the optical axis direction coordinate value of the object in the camera coordinate system and the relative translation component with the scale factor. A collision determination unit that determines whether or not the closest distance from the center of the camera to the object is equal to or less than a predetermined distance based on the equation;
A collision risk determination unit that determines that the vehicle and the object collide when the closest distance is equal to or less than the predetermined distance;
An image processing apparatus for a vehicle, comprising:
消失点の情報および少なくとも3つの画素の動きベクトルにもとづいて前記回転成分を算出する回転成分算出部、
をさらに備えた請求項1記載の車両用画像処理装置。 The object is a stationary object;
A rotation component calculation unit that calculates the rotation component based on vanishing point information and a motion vector of at least three pixels;
The vehicular image processing apparatus according to claim 1, further comprising:
前記カメラにより撮像された画像から前記車両の並進成分を求め、前記車両の並進成分を前記スケールファクタ付き相対並進成分で除すことにより前記カメラ座標系における前記対象物の前記光軸方向座標値を取得する、
請求項1または2に記載の車両用画像処理装置。 The z position acquisition unit
The translation component of the vehicle is obtained from an image captured by the camera, and the translation component of the vehicle is divided by the relative translation component with the scale factor to obtain the coordinate value in the optical axis direction of the object in the camera coordinate system. get,
The image processing apparatus for vehicles according to claim 1 or 2.
をさらに備えた請求項1ないし3のいずれか1項に記載の車両用画像処理装置。 Using the three-dimensional coordinate value including the coordinate value in the optical axis direction of the object in the camera coordinate system and the relative translation component with the scale factor, the distance from the camera center to the object is a quadratic function of time. A collision time estimator that calculates a time when the distance from the center of the camera to the object is the predetermined distance, based on the expression expressed as:
The vehicle image processing apparatus according to claim 1, further comprising:
前記最近接距離と前記カメラの中心から前記対象物までの距離が前記所定の距離となる時間とに応じて前記車両と前記対象物との衝突危険性を複数の段階に分類する、
請求項4記載の車両用画像処理装置。 The collision risk determination unit
Classifying the risk of collision between the vehicle and the object into a plurality of stages according to the closest distance and a time when the distance from the center of the camera to the object is the predetermined distance;
The image processing apparatus for vehicles according to claim 4.
車両に設けられたカメラが前記車両の周辺を撮像するステップと、
前記動きベクトル算出部が、前記カメラにより撮像された複数の画像間の動きベクトルを画素ごとに求めるステップと、
前記スケールファクタ付き並進成分算出部が、前記車両の回転成分と前記画像に含まれる対象物に対応する動きベクトルとにもとづいて、カメラ座標系の3軸方向それぞれのスケールファクタ付き相対並進成分を算出するステップと、
前記z位置取得部が、前記カメラ座標系における前記対象物の光軸方向座標値を取得するステップと、
前記衝突判定部が、前記カメラ座標系における前記対象物の前記光軸方向座標値を含む三次元座標値と前記スケールファクタ付き相対並進成分とを用いて前記カメラの中心から前記対象物までの距離を時間の関数としてあらわした式にもとづいて、前記カメラの中心から前記対象物までの最近接距離が所定の距離以下であるか否かを判定するステップと、
前記衝突危険度判定部が、前記最近接距離が前記所定の距離以下であると、前記車両と前記対象物が衝突すると判定するステップと、
を有することを特徴とする車両用画像処理方法。 A vehicle image processing method using a vehicle image processing apparatus including a motion vector calculation unit, a translation component calculation unit with a scale factor, a z position acquisition unit, a collision determination unit, and a collision risk determination unit,
A camera provided in the vehicle images the periphery of the vehicle;
The motion vector calculating unit obtaining a motion vector between a plurality of images captured by the camera for each pixel;
Wherein with scale factor translational component calculation unit, on the basis of the motion vector corresponding to the object contained in the rotary component and the image of the vehicle, the three axis directions of the scale factor with the relative translational component of camera coordinate system A calculating step;
The z-position acquisition unit acquires an optical axis direction coordinate value of the object in the camera coordinate system;
The collision determination unit uses a three-dimensional coordinate value including the optical axis direction coordinate value of the object in the camera coordinate system and a relative translation component with the scale factor to a distance from the camera center to the object. Determining whether the closest distance from the center of the camera to the object is equal to or less than a predetermined distance based on an expression expressed as a function of time;
The collision risk determination unit determining that the vehicle and the object collide when the closest distance is equal to or less than the predetermined distance;
An image processing method for a vehicle, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010259416A JP5731801B2 (en) | 2010-11-19 | 2010-11-19 | Image processing apparatus for vehicle and image processing method for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010259416A JP5731801B2 (en) | 2010-11-19 | 2010-11-19 | Image processing apparatus for vehicle and image processing method for vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012113358A JP2012113358A (en) | 2012-06-14 |
JP5731801B2 true JP5731801B2 (en) | 2015-06-10 |
Family
ID=46497544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010259416A Active JP5731801B2 (en) | 2010-11-19 | 2010-11-19 | Image processing apparatus for vehicle and image processing method for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5731801B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9405798B2 (en) * | 2013-06-03 | 2016-08-02 | GM Global Technology Operations LLC | Rapid nearest neighbor searching using KD-ferns |
KR102627453B1 (en) | 2018-10-17 | 2024-01-19 | 삼성전자주식회사 | Method and device to estimate position |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2882136B2 (en) * | 1991-11-25 | 1999-04-12 | 日本電気株式会社 | Video analysis method |
JPH11353565A (en) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | Method and device for alarm of collision for vehicle |
JP2003067752A (en) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | Vehicle periphery monitoring device |
-
2010
- 2010-11-19 JP JP2010259416A patent/JP5731801B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012113358A (en) | 2012-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6141601B2 (en) | In-vehicle camera automatic calibration device | |
JP6473571B2 (en) | TTC measuring device and TTC measuring program | |
JP6303090B2 (en) | Image processing apparatus and image processing program | |
JP5455124B2 (en) | Camera posture parameter estimation device | |
JP6883215B2 (en) | Measuring equipment and methods, and programs | |
JP6764573B2 (en) | Image processing equipment, image processing methods, and programs | |
US20170096106A1 (en) | Video synthesis system, video synthesis device, and video synthesis method | |
US10242272B2 (en) | Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle | |
JP6701532B2 (en) | Image processing apparatus and image processing method | |
JP2010198552A (en) | Driving state monitoring device | |
CN109196557A (en) | Image processing apparatus, image processing method and vehicle | |
KR20170007146A (en) | Semiconductor device, control system and observation method | |
JP2015184907A (en) | Image processor and image processing program | |
JPWO2019142660A1 (en) | Image processing device, image processing method, and program | |
JP6922169B2 (en) | Information processing equipment and methods, vehicles, and information processing systems | |
JP5588332B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
JP5731801B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
WO2016158261A1 (en) | Image processing device | |
CN112129313A (en) | AR navigation compensation system based on inertial measurement unit | |
EP3404911A1 (en) | Imaging system and moving body control system | |
JP2012123751A (en) | Image processor for vehicle and image processing method for vehicle | |
JP7429246B2 (en) | Methods and systems for identifying objects | |
JP2007200074A (en) | Peripheral object tracking device and peripheral object position prediction method | |
JP2018147241A (en) | Image processing device, image processing method, and image processing program | |
JP5827561B2 (en) | Solid object judgment device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5731801 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |