JP4828333B2 - Vehicle perimeter monitoring system - Google Patents

Vehicle perimeter monitoring system Download PDF

Info

Publication number
JP4828333B2
JP4828333B2 JP2006188675A JP2006188675A JP4828333B2 JP 4828333 B2 JP4828333 B2 JP 4828333B2 JP 2006188675 A JP2006188675 A JP 2006188675A JP 2006188675 A JP2006188675 A JP 2006188675A JP 4828333 B2 JP4828333 B2 JP 4828333B2
Authority
JP
Japan
Prior art keywords
vehicle
target
monitoring system
processing unit
periphery monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006188675A
Other languages
Japanese (ja)
Other versions
JP2008017360A (en
JP2008017360A5 (en
Inventor
孝之 辻
裕一 中西
いずみ 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006188675A priority Critical patent/JP4828333B2/en
Publication of JP2008017360A publication Critical patent/JP2008017360A/en
Publication of JP2008017360A5 publication Critical patent/JP2008017360A5/ja
Application granted granted Critical
Publication of JP4828333B2 publication Critical patent/JP4828333B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両周辺監視システムに関する。 The present invention relates to a vehicle periphery monitoring system .

車載の赤外線カメラにより撮像された車両の周辺画像に基づき、当該車両と接触する可能性がある人間等の物体の有無を判定する技術が提案されている(たとえば、特許文献1参照)。
特開2001−6096号公報
There has been proposed a technique for determining the presence or absence of an object such as a human who may come into contact with a vehicle based on a surrounding image of the vehicle captured by an in-vehicle infrared camera (see, for example, Patent Document 1).
JP 2001-6096 A

しかし、人間と当該建造物等とが重なると、車両の周辺画像のグレースケール画像において図4に示されているように人間(破線で示されている。)xが背景の建造物に紛れ込んでしまい、この人間の存在を認識することが困難となる場合がある。 However, if the person and the building overlap, the human (indicated by a broken line) x is mixed into the background building as shown in FIG. 4 in the grayscale image of the surrounding image of the vehicle. In other words, it may be difficult to recognize this human existence.

そこで、本発明は、撮像装置により得られた画像において人間等の対象物体が背景に紛れ込んだ場合でも、この対象物体の存在を高精度で認識しうる車両周辺監視システムを提供することを解決課題とする。 Therefore, the present invention provides a vehicle periphery monitoring system capable of recognizing the presence of a target object with high accuracy even when the target object such as a human is mixed in the background in an image obtained by an imaging device. And

第1発明の車両周辺監視システムは、車両に搭載されている撮像装置により得られた画像に基づいて当該車両の周辺を監視するシステムであって、前記画像において輝度が局所的にピークを示す点をピーク点として認識し、かつ、連続性のあるピーク点群より構成される線分であって、横並びの一対の縦長の該線分を対象物体の対象部分候補として認識する第1処理部と、該第1処理部により認識された該一対の前記対象部分候補のそれぞれの実空間における水平方向の間隔および鉛直方向のサイズを測定し、当該測定した水平方向の間隔および鉛直方向のサイズ、当該間隔および当該サイズの比率、または当該間隔および当該サイズならびに当該比率が、対象物体としての人間が有する複数の対象部分としての両脚の水平方向の間隔および鉛直方向のサイズ、当該間隔および当該サイズの比率、または当該間隔および当該サイズならびに当該比率に応じた要件を満たすか否かに応じて当該一対の対象部分候補が人間の両脚に該当するか否かを判定する第2処理部とを備えていることを特徴とする。 A vehicle periphery monitoring system according to a first aspect of the present invention is a system that monitors the periphery of a vehicle based on an image obtained by an imaging device mounted on the vehicle, and the luminance locally peaks in the image. was recognized as a peak point, and a line segment composed of a peak point group with continuity, a first processing section recognizes a side-by-side pair of longitudinal of the line segment as a target partial candidate of the target object Measuring the horizontal interval and vertical size in real space of each of the pair of target portion candidates recognized by the first processing unit, and measuring the measured horizontal interval and vertical size, The spacing and the ratio of the sizes, or the spacing and the size and the ratio are the horizontal spacing of both legs as a plurality of target portions of a human being as a target object and Whether the pair of target part candidates falls under both human legs depending on whether the size in the straight direction, the interval and the ratio of the sizes, or the requirements according to the interval, the size, and the ratio are met And a second processing unit for determining whether or not.

第1発明の車両周辺監視システムによれば、人間等の対象物体の腕や脚等の対象部分に該当する可能性がある「対象部分候補」の中から、対象物体における複数の対象部分の位置関係等に鑑みて、この対象部分に該当する可能性が高いものが対象部分として認識される。これにより、前記画像において人間等の対象物体が背景に紛れ込んだ場合でも当該対象物体が有する複数の対象部分、ひいては当該対象物体の存在が高い精度で認識されうる。
さらに、本願発明者は、撮像装置により得られた画像において人間が背景の建造物等に紛れ込んだ場合でもこの人間の両脚が高い精度で認識されうることを知見した。そこで、第1発明の車両周辺監視システムによれば、対象物体である人間が有する複数の対象部分としての両脚に該当する可能性がある対象部分候補の中から、人間の両脚の水平方向の間隔等に鑑みて人間の両脚に該当する可能性が高いものが対象部分として判定される。この判定結果により、前記画像において人間が背景に紛れ込んだ場合でも当該人間の両脚、ひいては当該人間の存在が高い精度で認識されうる。
なお「点」とは、画素のほか副画素等、画像を構成する任意の単位要素を意味する。
第2発明の車両周辺監視システムは、第1発明の車両周辺監視システムにおいて、前記第1処理部が、前記線分を1次対象部分候補とし、複数の当該1次対象部分候補のうち、前記画像において前記対象物体の複数の前記対象部分の形状および配置のうち一方または両方に応じた要件を満たす複数の当該1次対象部分候補を、前記対象部分候補に該当する2次対象部分候補として認識することを特徴とする。
According to the vehicle periphery monitoring system of the first invention, the positions of a plurality of target portions in the target object from among “target portion candidates” that may correspond to the target portion such as an arm or a leg of a target object such as a human being. In view of the relationship and the like, a thing that is highly likely to correspond to the target part is recognized as the target part. As a result, even when a target object such as a human is included in the background in the image, the plurality of target portions of the target object, and hence the presence of the target object, can be recognized with high accuracy.
Further, the inventor of the present application has found that both human legs can be recognized with high accuracy even in the case where a human is mixed into a background building or the like in an image obtained by the imaging apparatus. Therefore, according to the vehicle periphery monitoring system of the first aspect of the present invention, the horizontal interval between the human legs among the target part candidates that may correspond to both legs as the plurality of target parts of the target object that the person has. In view of the above, a part that is highly likely to fall into both human legs is determined as a target part. As a result of this determination, even if a person is mixed into the background in the image, both the legs of the person, and thus the presence of the person, can be recognized with high accuracy.
“Point” means an arbitrary unit element constituting an image such as a sub-pixel in addition to a pixel.
The vehicle periphery monitoring system according to a second aspect of the present invention is the vehicle periphery monitoring system according to the first aspect, wherein the first processing unit sets the line segment as a primary target portion candidate, and among the plurality of primary target portion candidates, Recognizing a plurality of primary target part candidates satisfying requirements according to one or both of the shape and arrangement of the target parts of the target object in the image as secondary target part candidates corresponding to the target part candidates It is characterized by doing.

第2発明の車両周辺監視システムによれば、複数の1次対象部分候補の中から、撮像装置により得られた画像における配置が、対象物体における対象部分の形状および配置のうち一方または両方に応じた要件を満たす複数の1次対象部分候補のみが2次対象部分候補として認識されうる。これにより、形状や配置に鑑みて対象物体が有する対象部分に該当する可能性が低い対象部分候補について、対象部分に該当するか否かを判定するための処理が実行されずに済み、情報処理の経済を図ることができる。 According to the vehicle periphery monitoring system of the second aspect of the present invention, the arrangement in the image obtained by the imaging device among the plurality of primary target part candidates depends on one or both of the shape and the arrangement of the target part in the target object. Only a plurality of primary target part candidates that satisfy the above requirements can be recognized as secondary target part candidates. As a result, it is not necessary to execute processing for determining whether or not the target part candidate that is unlikely to correspond to the target part of the target object in view of the shape and arrangement is applicable to the target part. The economy can be planned.

第3発明の車両周辺監視システムは、第1発明の車両周辺監視システムにおいて、前記第2処理部により前記対象部分に該当すると認識された前記対象部分候補の時系列的な測定位置に基づき、前記車両と当該対象部分を有する当該対象物体との接触可能性を評価する第3処理部をさらに備えていることを特徴とする。 The vehicle periphery monitoring system according to a third aspect of the invention is the vehicle periphery monitoring system according to the first aspect of the invention, based on the time-series measurement positions of the target part candidates recognized by the second processing unit as corresponding to the target part. A third processing unit for evaluating the possibility of contact between the vehicle and the target object having the target portion is further provided.

第3発明の車両周辺監視システムによれば、前記のように撮像装置により得られた画像において対象物体が背景に紛れ込んだ場合でも、当該対象物体またはその複数の対象部分の存在が高い精度で認識されうるので、車両とこの対象物体とが接触する可能性も高い精度で評価されうる。 According to the vehicle periphery monitoring system of the third aspect of the present invention , even when the target object is mixed in the background in the image obtained by the imaging device as described above, the presence of the target object or the plurality of target portions is recognized with high accuracy. Therefore, the possibility that the vehicle and the target object come into contact with each other can be evaluated with high accuracy.

第4発明の車両周辺監視システムは、第3発明の車両周辺監視システムにおいて、前記第3処理部が、前記車両と前記対象物体との接触可能性の評価に基づき、当該対象物体またはその前記対象部分の存在を知らせるまたは強調する情報を当該車両に搭載されている情報出力装置に出力させることを特徴とする。 The vehicle periphery monitoring system according to a fourth aspect is the vehicle periphery monitoring system according to the third aspect , wherein the third processing unit is configured to evaluate the target object or the target based on the evaluation of the possibility of contact between the vehicle and the target object. Information that informs or emphasizes the presence of a part is output to an information output device mounted on the vehicle.

第4発明の車両周辺監視システムによれば、前記のように車両と対象物体との接触可能性が高い精度で評価されうるので、車両と対象物体との接触回避等の観点から、当該対象物体またはその複数の対象部分を強調等する情報が適当に出力されうる。ここで、情報の出力とは、視覚、聴覚、触覚等、五感を通じて当該情報を車両の運転者等に認識させうるあらゆる形態で情報が出力されることを意味する。これにより、車両の運転者に対象物体の存在を認識させ、車両と対象物体との接触を回避するために車両の減速や操舵等、車両の挙動を適当に制御させることができる。 According to the vehicle periphery monitoring system of the fourth aspect of the present invention, the possibility of contact between the vehicle and the target object can be evaluated with high accuracy as described above. From the viewpoint of avoiding contact between the vehicle and the target object, the target object Or the information which emphasizes the some object part etc. can be output appropriately. Here, the output of information means that the information is output in any form that allows the driver of the vehicle to recognize the information through the five senses, such as vision, hearing, and touch. This allows the driver of the vehicle to recognize the presence of the target object and appropriately control the behavior of the vehicle such as vehicle deceleration and steering in order to avoid contact between the vehicle and the target object.

第5発明の車両周辺監視システムは、第3発明の車両周辺監視システムにおいて、前記第3処理部が、前記車両と前記対象物体との接触可能性の評価に基づき、当該対象物体またはその前記対象部分の存在を知らせるまたは強調する情報を当該車両に搭載されている情報出力装置に出力させることを特徴とする。 The vehicle periphery monitoring system according to a fifth aspect is the vehicle periphery monitoring system according to the third aspect , wherein the third processing unit is configured to evaluate the target object or the target based on the evaluation of the possibility of contact between the vehicle and the target object. Information that informs or emphasizes the presence of a part is output to an information output device mounted on the vehicle.

第5発明の車両周辺監視システムによれば、前記のように高精度で評価された車両と対象物体との接触可能性に基づいて車載機器が制御される。これにより、車両と対象物体との接触を回避する観点から、車両の減速や操舵等、車両の挙動が適当に制御されうる。 According to the vehicle periphery monitoring system of the fifth aspect of the invention , the in-vehicle device is controlled based on the possibility of contact between the vehicle and the target object evaluated with high accuracy as described above. Thereby, from the viewpoint of avoiding contact between the vehicle and the target object, the behavior of the vehicle such as deceleration or steering of the vehicle can be appropriately controlled.

本発明の車両周辺監視システムの実施形態について図面を用いて説明する。 An embodiment of a vehicle periphery monitoring system of the present invention will be described with reference to the drawings.

本発明の車両周辺監視システムの構成について図1を用いて説明する。図1に示されているように車両1には、車両周辺監視システム10と、車両1の前方部において車幅方向中央部にほぼ対称に配置された一対の赤外線カメラ(撮像装置)102と、フロントウィンドウにおいて運転者の視界を妨げないように配置されたHUD104とが搭載されている。また、図2に示されているように車両1には、ヨーレートセンサ122や速度センサ124等の種々のセンサが搭載されている。 The configuration of the vehicle periphery monitoring system of the present invention will be described with reference to FIG. As shown in FIG. 1, the vehicle 1 includes a vehicle periphery monitoring system 10, a pair of infrared cameras (imaging devices) 102 disposed substantially symmetrically at the center in the vehicle width direction at the front portion of the vehicle 1, A HUD 104 is mounted on the front window so as not to obstruct the driver's view. As shown in FIG. 2, various sensors such as a yaw rate sensor 122 and a speed sensor 124 are mounted on the vehicle 1.

車両周辺監視システム10は車載の一対の撮像装置により得られた画像に基づいて車両の周辺を監視するシステムである。車両周辺監視システム10は、車両1に搭載されたハードウェアとしてのECUまたはコンピュータ(CPU,ROM,RAM,I/O等により構成されている。)と、メモリに格納され、当該コンピュータに諸機能を付与するソフトウェアとしての本発明の車両周辺監視プログラムとにより構成されている。なお、車両周辺監視プログラムは最初から車載コンピュータのメモリ(ROM)に格納されていてもよいが、車載コンピュータからのリクエストがあったとき等の任意のタイミングでこのプラグラムの一部または全部がサーバ(車両周辺監視システムの構築システムを構成する。)20からネットワークや衛星を介して当該車載コンピュータに配信または放送され、そのメモリ(RAM)等に格納されてもよい。 The vehicle periphery monitoring system 10 is a system that monitors the periphery of a vehicle based on an image obtained by a pair of in-vehicle imaging devices. The vehicle periphery monitoring system 10 is stored in a memory and an ECU or a computer (configured by a CPU, ROM, RAM, I / O, etc.) as hardware mounted on the vehicle 1, and has various functions in the computer. And a vehicle periphery monitoring program of the present invention as software for providing The vehicle periphery monitoring program may be stored in the memory (ROM) of the in-vehicle computer from the beginning, but a part or all of the program is stored in the server (at any timing such as when a request from the in-vehicle computer is received). It constitutes a construction system of a vehicle periphery monitoring system.) It may be distributed or broadcast from 20 to the in-vehicle computer via a network or satellite and stored in its memory (RAM) or the like.

車両周辺監視システム10は図2に示されているように、第1処理部11と、第2処理部12と、第3処理部13とを備えている。第1処理部11は赤外線カメラ102により得られた画像において輝度が局所的にピークを示す点を「ピーク点」として認識し、かつ、連続性のあるピーク点群より構成される線分を「対象部分候補」として認識する。第2処理部12は第1処理部11により認識された対象部分候補の実空間における位置およびサイズを測定する。また、第2処理部12は複数の対象部分候補の配置および複数の対象部分候補のサイズが、対象物体における複数の対象部分の配置およびサイズに応じた要件を満たすか否かに応じて、当該複数の対象部分候補が当該複数の対象部分に該当するか否かを判定する。第3処理部13は第2処理部12により対象部分に該当すると認識された対象部分候補の時系列的な測定位置に基づき、車両1と当該対象部分を有する対象物体との接触可能性を評価する。また、第3処理部13は車両1と対象物体との接触可能性の評価に応じて、当該対象物体またはその複数の対象部分の存在を知らせるまたは強調する画像をHUD(情報出力装置)104に表示させる等、車載機器の動作を制御する。 As shown in FIG. 2, the vehicle periphery monitoring system 10 includes a first processing unit 11, a second processing unit 12, and a third processing unit 13. The first processing unit 11 recognizes a point where the luminance locally peaks in the image obtained by the infrared camera 102 as a “peak point”, and a line segment composed of a continuous peak point group is “ Recognize as “target part candidate”. The second processing unit 12 measures the position and size in real space of the target portion candidate recognized by the first processing unit 11. In addition, the second processing unit 12 determines whether the arrangement of the plurality of target portion candidates and the size of the plurality of target portion candidates satisfy the requirements according to the arrangement and size of the plurality of target portions in the target object. It is determined whether a plurality of target part candidates correspond to the plurality of target parts. The third processing unit 13 evaluates the possibility of contact between the vehicle 1 and the target object having the target part based on the time-series measurement position of the target part candidate recognized as the target part by the second processing unit 12. To do. In addition, the third processing unit 13 displays, on the HUD (information output device) 104, an image that informs or emphasizes the presence of the target object or a plurality of target parts in accordance with the evaluation of the possibility of contact between the vehicle 1 and the target object. Control the operation of the in-vehicle device such as displaying it.

前記構成の車両1および車両周辺監視システム10の機能について図3〜図8を用いて説明する。 Functions of the vehicle 1 and the vehicle periphery monitoring system 10 configured as described above will be described with reference to FIGS.

まず、第1処理部11が「第1処理」を実行する(図3/S11)。 First, the first processing unit 11 executes “first processing” (S11 in FIG. 3).

第1処理部11は一対の赤外線カメラ102により撮像された赤外線画像をA/D変換することで得られるグレースケール画像において輝度が局所的にピークを示す点を「ピーク点」として認識する(図3/S111)。たとえば図4に示されているグレースケール画像が得られ、この画像のうち枠で囲まれた領域において走査ラインに沿って輝度が測定される。この場合、たとえば図5に示されているようにこの画像領域において高さY1,Y2,Y3の走査ライン沿って輝度がピーク(丸印が付されている。)を示す点がピーク点として認識される。なお、走査ラインに沿って連続する点の輝度の偏差が微小な閾値以下である場合、当該連続する点がともにピーク点として認識されうる。 The first processing unit 11 recognizes a point where the luminance locally peaks in a grayscale image obtained by A / D conversion of the infrared image captured by the pair of infrared cameras 102 as a “peak point” (FIG. 3 / S111). For example, the gray scale image shown in FIG. 4 is obtained, and the luminance is measured along the scanning line in a region surrounded by a frame in the image. In this case, for example, as shown in FIG. 5, a point where the luminance is peaked (circled) along the scanning lines of heights Y 1 , Y 2 , Y 3 in this image area is the peak. Recognized as a point. In addition, when the deviation of the brightness | luminance of the continuous point along a scanning line is below a very small threshold value, the said continuous point can be recognized as a peak point.

また、第1処理部11は連続性のあるピーク点群より構成される線分をそれぞれ「1次対象部分候補」として認識する(図3/S112)。たとえば、距離が閾値以下のピーク点が所定数以上つながっている場合、当該所定数以上のつながっているピーク点が連続性のあるピーク点群、ひいては1次対象部分候補として認識される。これにより、図5に示されている画像領域においてたとえば図6に示されているような複数の1次対象部分候補c1が認識される。また、画像が平均化処理され、当該平均化処理された画像からピーク点が抽出され、当該抽出されたピーク点が8近傍処理され、当該8近傍処理されたピーク点が所定数以上つながっている場合に、当該つながっているピーク点がピーク点群(線分)として抽出されてもよい。 In addition, the first processing unit 11 recognizes each line segment constituted by the continuous peak point group as a “primary target portion candidate” (FIG. 3 / S112). For example, when a predetermined number or more of peak points whose distance is less than or equal to a threshold value are connected, the connected peak points of the predetermined number or more are recognized as a continuous peak point group, and as a primary target portion candidate. Thereby, in the image region shown in FIG. 5, for example, a plurality of primary target portion candidates c 1 as shown in FIG. 6 are recognized. Also, the image is averaged, peak points are extracted from the averaged image, the extracted peak points are subjected to 8 neighborhood processing, and the peak points subjected to 8 neighborhood processing are connected by a predetermined number or more. In this case, the connected peak points may be extracted as a peak point group (line segment).

さらに、第1処理部11は対象物体の1次候補のうち次の(要件11)および(要件12)を満たす一対の1次対象部分候補(または1次対象部分候補の一部)を「2次対象部分候補」として認識する(図3/S113)。
(要件11)
画像における一対の1次対象部分候補の形状がともに縦長であること(たとえば、一対の1次対象部分候補のそれぞれの画像における外接四角形の縦方向の長さおよび横方向の長さの比率が所定範囲にあること)
(要件12)
一対の1次対象部分候補が横並びに位置していること(たとえば、画像における一対の1次対象部分候補の縦方向の広がり範囲が、所定点以上重複していること)
(要件11)および(要件12)は、対象物体としての人間が有する複数の対象部分としての両脚の形状および配置に応じて設定されたものである。すなわち(要件11)は人間の脚が縦長であることに応じて設定されたものである。また(要件12)は通常の人間が横並びの2本の脚を有することに応じて設定されたものである。これにより、たとえば図6に破線で囲まれている一対の1次対象部分候補c1が2次対象部分候補(以下、適宜「対象部分候補」という。)c2として認識される。なお、(要件11)および(要件12)に代えて、または加えて次の(要件13)を満たす一対の1次対象部分候補が2次対象部分候補として認識されてもよい。
(要件13)
一対の1次対象部分候補の下端のY座標が地表から閾値以下であること
(要件13)は、一般に人間の両脚が地面に接している又は地面の近くにあることに応じて設定されたものである。
Further, the first processing unit 11 selects a pair of primary target part candidates (or a part of the primary target part candidates) satisfying the following (Requirement 11) and (Requirement 12) among the primary candidates of the target object as “2”. It is recognized as “next target portion candidate” (FIG. 3 / S113).
(Requirement 11)
The shape of the pair of primary target portion candidates in the image is both vertically long (for example, the ratio of the length in the vertical direction and the length in the horizontal direction of the circumscribed rectangle in each image of the pair of primary target portion candidates is predetermined. Be in range)
(Requirement 12)
A pair of primary target part candidates are located side by side (for example, the vertical extent of the pair of primary target part candidates in the image overlaps a predetermined point or more)
(Requirement 11) and (Requirement 12) are set according to the shape and arrangement of both legs as a plurality of target portions possessed by a person as a target object. That is, (Requirement 11) is set according to the fact that the human leg is vertically long. Further, (Requirement 12) is set in response to a normal human being having two legs side by side. Thereby, for example, a pair of primary target portion candidates c 1 surrounded by a broken line in FIG. 6 are recognized as secondary target portion candidates (hereinafter, referred to as “target portion candidates” as appropriate) c 2 . Note that a pair of primary target portion candidates that satisfy the following (Requirement 13) may be recognized as secondary target portion candidates instead of (Requirement 11) and (Requirement 12) or in addition.
(Requirement 13)
The fact that the Y coordinate of the lower end of the pair of primary target part candidates is below the threshold from the ground surface (Requirement 13) is generally set according to whether both human legs are in contact with or near the ground. It is.

次に、第2処理部12が「第2処理」を実行する(図3/S12)。 Next, the second processing unit 12 executes “second processing” (S12 in FIG. 3).

第2処理部12は一対の赤外線カメラ102の視差を利用して、第1処理部11により認識された対象部分候補の実空間における位置を測定する(図3/S121)。この際、第2処理部12はヨーレートセンサ122および速度センサ124のそれぞれの出力に基づき、車両1の回頭による、画像における位置ずれを補正する。回頭角補正された対象部分候補の測定位置は時系列的にメモリに保存される。ここで実空間位置とは、図1に示されているように一対の赤外線カメラ102の取り付け位置の中点を原点Oとし、水平方向、鉛直方向および前後方向をそれぞれX、YおよびZ軸とする座標系における位置を意味する。実空間位置の測定方法および回頭角補正方法はたとえば前記特許文献1において説明されているので本願明細書では詳細な説明を省略する。 The second processing unit 12 uses the parallax of the pair of infrared cameras 102 to measure the position of the target portion candidate recognized by the first processing unit 11 in the real space (FIG. 3 / S121). At this time, the second processing unit 12 corrects the positional deviation in the image due to the turning of the vehicle 1 based on the outputs of the yaw rate sensor 122 and the speed sensor 124. The measurement position of the target portion candidate subjected to the turning angle correction is stored in the memory in time series. As shown in FIG. 1, the real space position is the origin O at the midpoint of the mounting position of the pair of infrared cameras 102, and the horizontal, vertical and front-rear directions are the X, Y and Z axes, respectively. Means a position in the coordinate system. Since the method for measuring the real space position and the method for correcting the turning angle are described in, for example, Patent Document 1, detailed description thereof is omitted in this specification.

また、第2処理部12は対象部分候補の実空間におけるサイズを測定する(図3/S122)。たとえば、画像における対象部分候補の上端点および下端点に相当する2つの実空間位置の間隔が算出され、この間隔が当該対象物体の2次候補のサイズとして測定される。 Further, the second processing unit 12 measures the size of the target portion candidate in the real space (FIG. 3 / S122). For example, an interval between two real space positions corresponding to the upper end point and lower end point of the target portion candidate in the image is calculated, and this interval is measured as the size of the secondary candidate of the target object.

さらに、第2処理部12は複数の対象部分候補の位置の相関関係および複数の対象部分候補のそれぞれのサイズが、次の(要件21)および(要件22)を満たすか否かに応じて、当該複数の対象部分候補が人間の両脚(対象物体の複数の対象部分)に該当するか否かを判定する(図3/S123)。
(要件21)
一対の対象部分候補の水平方向の間隔が所定範囲にあること(たとえば、一対の対象部分候補の外接四角形の水平方向の間隔が0.1〜0.5[m]にあること)
(要件22)
対象部分候補のそれぞれのサイズが所定範囲にあること(たとえば、一対の対象部分候補の外接四角形の縦方向のサイズが0.5〜1.0[m]にあること)
そして、第2処理部12は(要件21)および(要件22)が満たされていると判定した場合(図3/S123‥YES)、当該一対の対象部分候補を複数の対象部分として認識する(図3/S124)。これにより、たとえば図6に示されている対象部分候補c2が人間の両脚として認識される。要件21および要件22は、対象物体としての人間が有する複数の対象部分としての両脚の配置およびサイズに応じて設定されたものである。なお、(要件21)および(要件22)に代えてまたは加えて次の(要件23)を満たすか否かに応じて、当該複数の対象部分候補が当該対象物体に該当するか否かが判定されてもよい。
(要件23)
一対の対象部分候補の水平方向の間隔と、一対の対象部分候補のうち一方のサイズまたは両方のサイズの平均値との比が所定範囲にあること(たとえば、一対の対象部分候補の外接四角形の水平方向の間隔と、当該一対の対照部分候補の外接四角形のうち一方または両方の鉛直方向のサイズの平均値との比が0.2〜0.5の範囲にあること)
Further, the second processing unit 12 determines whether the correlation between the positions of the plurality of target portion candidates and the sizes of the plurality of target portion candidates satisfy the following (Requirement 21) and (Requirement 22). It is determined whether or not the plurality of target portion candidates correspond to both human legs (a plurality of target portions of the target object) (S123 in FIG. 3).
(Requirement 21)
The horizontal interval between the pair of target portion candidates is within a predetermined range (for example, the horizontal interval between the circumscribed rectangles of the pair of target portion candidates is 0.1 to 0.5 [m]).
(Requirement 22)
Each size of the target portion candidate is within a predetermined range (for example, the vertical size of the circumscribed rectangle of the pair of target portion candidates is 0.5 to 1.0 [m])
If the second processing unit 12 determines that (requirement 21) and (requirement 22) are satisfied (FIG. 3 / S123... YES), the second processing unit 12 recognizes the pair of target part candidates as a plurality of target parts ( FIG. 3 / S124). Thereby, for example, the target portion candidate c 2 shown in FIG. 6 is recognized as both human legs. Requirement 21 and requirement 22 are set according to the arrangement and size of both legs as a plurality of target portions possessed by a person as a target object. In addition, instead of (Requirement 21) and (Requirement 22), whether or not the plurality of target portion candidates correspond to the target object is determined according to whether or not the following (Requirement 23) is satisfied. May be.
(Requirement 23)
The ratio between the horizontal interval between the pair of target portion candidates and the average value of one or both sizes of the pair of target portion candidates is within a predetermined range (for example, the circumscribed rectangle of the pair of target portion candidates The ratio between the horizontal interval and the average value of the size of one or both of the circumscribed rectangles of the pair of control portion candidates is in the range of 0.2 to 0.5)

続いて、第3処理部13が「第3処理」を実行する(図3/S13)。 Subsequently, the third processing unit 13 executes “third processing” (S13 in FIG. 3).

第3処理部13は第2処理部12により対象部分に該当すると認識された対象部分候補の時系列的な測定位置をメモリから読み取り、読み取った時系列的な測定位置に基づき車両1を基準とした対象物体(またはその複数の対象部分)の相対速度(大きさおよび向きを含む。)を算出する(図3/S131)。 The third processing unit 13 reads the time-series measurement position of the target part candidate recognized as the target part by the second processing unit 12 from the memory, and uses the vehicle 1 as a reference based on the read time-series measurement position. The relative speed (including the size and direction) of the target object (or a plurality of target parts thereof) is calculated (FIG. 3 / S131).

また、第3処理部13は車両1と当該対象物体との接触可能性の高低を判定(または評価)する(図3/S132)。たとえば、図4に示されているように赤外線カメラ102により監視可能な三角形領域A0よりも、車両1に対する二輪車等の物体xの相対速度vsと余裕時間Tとの積(vs×T)だけ低い三角形領域(警報判定領域)が定義される。また、当該三角形領域のうち、Z軸を中心とするX方向の幅がα+2β(α:車幅、β:余裕幅)の第1領域(接近判定領域)A1と、第1領域A1の左右の第2領域(侵入判定領域)A2LおよびA2Rとが定義される。そして、物体xが第1領域A1にある場合や、物体xが左右の第2領域A2にあって、その相対速度ベクトルvsに鑑みて第1領域A1に侵入してくることが予測される場合、この物体xと車両1とが接触する可能性が高いと判定される。 Further, the third processing unit 13 determines (or evaluates) the possibility of contact between the vehicle 1 and the target object (FIG. 3 / S132). For example, as shown in FIG. 4, the product of the relative speed v s of the object x such as a two-wheeled vehicle with respect to the vehicle 1 and the margin time T (v s × T) rather than the triangular area A 0 that can be monitored by the infrared camera 102. ) Is defined as a lower triangular area (alarm determination area). Among the triangular regions, a first region (approaching determination region) A 1 having a width in the X direction centered on the Z axis of α + 2β (α: vehicle width, β: margin width) and the first region A 1 The left and right second areas (intrusion determination areas) A 2L and A 2R are defined. When the object x is in the first area A 1 or when the object x is in the second area A 2 on the left and right, it may enter the first area A 1 in view of the relative velocity vector v s. When predicted, it is determined that there is a high possibility that the object x and the vehicle 1 are in contact with each other.

そして、第3処理部13は車両1と対象物体とが接触する可能性が高いと判定した場合(図3/S132‥YES)、この対象物体である人間x(またはその複数の対象部分としての両脚)の存在を強調するため、図8に示されているように当該人間xを囲むフレームfを、その色彩を橙色にして「第1情報」としてHUD104に表示させる(図3/S133)。なお、第1情報として「ピッピッピッ」等の音声がスピーカ(図示略)から出力されてもよい。 If the third processing unit 13 determines that there is a high possibility that the vehicle 1 and the target object are in contact with each other (FIG. 3 / S132... YES), this target object is the human x (or a plurality of target parts thereof). In order to emphasize the presence of both legs), as shown in FIG. 8, the frame f surrounding the person x is displayed on the HUD 104 as “first information” with its color orange (FIG. 3 / S133). Note that the first information may be output from a speaker (not shown) such as “beep”.

一方、第3処理部13は車両1と対象物体とが接触する可能性が低いと判定した場合(図3/S132‥NO)、この対象物体としての人間xの存在を控えめに強調するため、図8に示されているように当該人間xを囲むフレームfを、その色彩を黄色にして「第2情報」としてHUD104に表示させる(図3/S134)。なお、第2情報として「ピッ」等、第1情報よりも短い(または小さい)音声がスピーカ(図示略)から出力されてもよい。 On the other hand, when the third processing unit 13 determines that the possibility that the vehicle 1 and the target object are in contact with each other is low (FIG. 3 / S132... NO), the third processing unit 13 conservatively emphasizes the presence of the person x as the target object. As shown in FIG. 8, the frame f surrounding the person x is displayed on the HUD 104 as “second information” with the color thereof set to yellow (FIG. 3 / S134). Note that a voice shorter than (or smaller than) the first information such as “beep” as the second information may be output from a speaker (not shown).

前記機能を発揮する本発明の車両周辺監視システム10によれば、対象物体としての人間が有する複数の対象部分としての両脚に該当する可能性がある対象部分候補の中から、一般的な人間の両脚の配置およびサイズに鑑みて人間の両脚に該当する可能性が高いものが対象物体として認識される(図3/S123,S124、図6)。これにより、図4に示されているようにグレースケール画像において人間xが背景に紛れ込んだ場合でも当該人間xまたはその両脚の存在が高い精度で認識されうる。 According to the vehicle periphery monitoring system 10 of the present invention that exhibits the above-described function, a general human being can be selected from among target part candidates that may correspond to both legs as a plurality of target parts that a person as a target object has. In view of the arrangement and size of both legs, the object that is highly likely to fall under both human legs is recognized as a target object (FIGS. 3 / S123, S124, and FIG. 6). As a result, as shown in FIG. 4, even when the person x is mixed in the background in the grayscale image, the presence of the person x or both legs can be recognized with high accuracy.

また、複数の1次対象部分候補c1の中から、画像における配置が、複数の対象部分としての人間の両脚の形状および配置に応じた(要件11)および(要件12)を満たすもののみが対象部分候補(2次対象部分候補)c2として認識されうる。これにより、人間の両脚に該当する可能性が低い対象部分候補について、人間の両脚に該当するか否かを判定するための第2処理(図3/S12)が実行されずに済み、情報処理の経済を図ることができる。 In addition, only a plurality of primary target part candidates c 1 satisfying (requirement 11) and (requirement 12) according to the shape and arrangement of both human legs as a plurality of target parts. can be recognized as a target partial candidate (secondary target partial candidate) c 2. This eliminates the need to execute the second process (FIG. 3 / S12) for determining whether or not the target part candidate that is unlikely to fall under both human legs falls under both human legs. The economy can be planned.

さらに、人間(対象物体)またはその両脚(複数の対象部分)の存在が高い精度で認識されうるので、車両1とこの対象物体とが接触する可能性も高い精度で評価されうる(図3/S132)。また、車両1と対象物体との接触可能性が高い精度で評価されうるので、車両1と対象物体との接触回避等の観点から、当該対象物体またはその複数の対象部分を強調するフレームf(第1情報または第2情報)が適当にHUD104に表示されうる(図8)。これにより、車両1の運転者に前方における人間の存在を認識させ、車両1とこの人間との接触を回避するために車両1の減速や操舵等、その挙動を適当に制御させることができる。 Further, since the presence of a human (target object) or both legs (a plurality of target portions) can be recognized with high accuracy, the possibility that the vehicle 1 and the target object come into contact can be evaluated with high accuracy (FIG. 3 / S132). Further, since the possibility of contact between the vehicle 1 and the target object can be evaluated with high accuracy, from the viewpoint of avoiding contact between the vehicle 1 and the target object, the frame f () that emphasizes the target object or a plurality of target portions thereof. The first information or the second information) can be appropriately displayed on the HUD 104 (FIG. 8). This allows the driver of the vehicle 1 to recognize the presence of a person in front and appropriately control the behavior of the vehicle 1 such as deceleration and steering in order to avoid contact between the vehicle 1 and this person.

なお、前記実施形態では人間の脚が対象部分として認識されたが、他の実施形態として人間の両脚が認識される場合と同様の考え方に基づいて人間の両腕等、人間の他の身体部分が対象部分として認識されてもよい。 In the above embodiment, the human leg is recognized as the target part. However, in another embodiment, other human body parts such as the human arms based on the same idea as the case where both human legs are recognized. May be recognized as the target portion.

また、前記実施形態では第3処理部13が、車両1と対象物体との接触可能性の評価に基づきこの対象物体の存在を強調する第1または第2情報をHUD104に表示させたが、他の実施形態として第3処理部13が当該評価に基づき、車両1の挙動を制御するまたはステアリングシステムやブレーキシステム等の車載機器に制御させてもよい。当該構成の車両周辺監視システム10によれば、前記のように高精度で評価された車両1と対象物体との接触可能性に基づいて車載機器が制御され、これにより、車両1と対象物体との接触を回避する観点から、車両1の減速や操舵等、その挙動が適当に制御されうる。 In the embodiment, the third processing unit 13 displays the first or second information that emphasizes the presence of the target object on the HUD 104 based on the evaluation of the possibility of contact between the vehicle 1 and the target object. As an embodiment, the third processing unit 13 may control the behavior of the vehicle 1 based on the evaluation or may be controlled by an in-vehicle device such as a steering system or a brake system. According to the vehicle periphery monitoring system 10 having the above configuration, the in-vehicle device is controlled based on the possibility of contact between the vehicle 1 and the target object evaluated with high accuracy as described above. From the viewpoint of avoiding this contact, the behavior of the vehicle 1 such as deceleration and steering can be appropriately controlled.

本発明の車両、車両周辺監視システムおよびサーバの構成説明図Configuration diagram of vehicle, vehicle periphery monitoring system and server of the present invention 本発明の車両周辺監視システムの構成説明図Configuration explanatory diagram of the vehicle periphery monitoring system of the present invention 本発明の車両周辺監視システムの機能に関する説明図Explanatory drawing about the function of the vehicle periphery monitoring system of the present invention 本発明の車両周辺監視システムの機能に関する説明図Explanatory drawing about the function of the vehicle periphery monitoring system of the present invention 本発明の車両周辺監視システムの機能に関する説明図Explanatory drawing about the function of the vehicle periphery monitoring system of the present invention 本発明の車両周辺監視システムの機能に関する説明図Explanatory drawing about the function of the vehicle periphery monitoring system of the present invention 本発明の車両周辺監視システムの機能に関する説明図Explanatory drawing about the function of the vehicle periphery monitoring system of the present invention 本発明の車両周辺監視システムの機能に関する説明図Explanatory drawing about the function of the vehicle periphery monitoring system of the present invention

符号の説明Explanation of symbols

1‥車両、10‥車両周辺監視システム、11‥第1処理部、12‥第2処理部、13‥第3処理部、20‥サーバ、102‥赤外線カメラ(撮像装置)、104‥HUD(情報出力装置(車載機器))、122‥ヨーレートセンサ、124‥速度センサ DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Vehicle periphery monitoring system, 11 ... 1st process part, 12 ... 2nd process part, 13 ... 3rd process part, 20 ... Server, 102 ... Infrared camera (imaging device), 104 ... HUD (information Output device (vehicle equipment)), 122 ... yaw rate sensor, 124 ... speed sensor

Claims (5)

車両に搭載されている撮像装置により得られた画像に基づいて当該車両の周辺を監視するシステムであって、
前記画像において輝度が局所的にピークを示す点をピーク点として認識し、かつ、連続性のあるピーク点群より構成される線分であって、横並びの一対の縦長の該線分を対象物体の対象部分候補として認識する第1処理部と、
該第1処理部により認識された該一対の前記対象部分候補のそれぞれの実空間における水平方向の間隔および鉛直方向のサイズを測定し、当該測定した水平方向の間隔および鉛直方向のサイズ、当該間隔および当該サイズの比率、または当該間隔および当該サイズならびに当該比率が、対象物体としての人間が有する複数の対象部分としての両脚の水平方向の間隔および鉛直方向のサイズ、当該間隔および当該サイズの比率、または当該間隔および当該サイズならびに当該比率に応じた要件を満たすか否かに応じて当該一対の対象部分候補が人間の両脚に該当するか否かを判定する第2処理部とを備えていることを特徴とする車両周辺監視システム。
A system for monitoring the periphery of a vehicle based on an image obtained by an imaging device mounted on the vehicle,
The luminance in the image is recognized as a peak point a point which indicates a locally peaks and a line segment composed of a peak point group with continuity, the object side-by-side pair of longitudinal of the line segment A first processing unit that is recognized as a target portion candidate of
The horizontal interval and vertical size in the real space of each of the pair of target portion candidates recognized by the first processing unit are measured, and the measured horizontal interval and vertical size, the interval And the ratio of the size, or the interval and the size, and the ratio are the horizontal distance and the vertical size of both legs as a plurality of target parts of a human being as a target object, the ratio of the distance and the size, Or a second processing unit that determines whether or not the pair of target portion candidates corresponds to both human legs according to whether or not the requirements according to the interval, the size, and the ratio are satisfied. A vehicle periphery monitoring system characterized by this.
請求項1記載の車両周辺監視システムにおいて、
前記第1処理部が、前記線分を1次対象部分候補とし、複数の当該1次対象部分候補のうち、前記画像において前記対象物体の複数の前記対象部分の形状および配置のうち一方または両方に応じた要件を満たす複数の当該1次対象部分候補を、前記対象部分候補に該当する2次対象部分候補として認識することを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 1,
The first processing unit sets the line segment as a primary target portion candidate, and one or both of shapes and arrangements of the target portions of the target object in the image among the plurality of primary target portion candidates. A vehicle periphery monitoring system that recognizes a plurality of primary target part candidates that satisfy the requirements according to the above as secondary target part candidates corresponding to the target part candidates.
請求項1記載の車両周辺監視システムにおいて、
前記第2処理部により前記対象部分に該当すると認識された前記対象部分候補の時系列的な測定位置に基づき、前記車両と当該対象部分を有する当該対象物体との接触可能性を評価する第3処理部をさらに備えていることを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 1,
A third method for evaluating the possibility of contact between the vehicle and the target object having the target portion based on a time-series measurement position of the target portion candidate recognized as corresponding to the target portion by the second processing unit. A vehicle periphery monitoring system, further comprising a processing unit.
請求項3記載の車両周辺監視システムにおいて、
前記第3処理部が、前記車両と前記対象物体との接触可能性の評価に基づき、当該対象物体またはその前記対象部分の存在を知らせるまたは強調する情報を当該車両に搭載されている情報出力装置に出力させることを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 3 ,
An information output device in which the third processing unit is mounted on the vehicle with information that informs or emphasizes the presence of the target object or the target portion based on the evaluation of the possibility of contact between the vehicle and the target object. A vehicle periphery monitoring system characterized in that the vehicle periphery is output.
請求項3記載の車両周辺監視システムにおいて、
前記第3処理部が、前記車両と前記対象物体との接触可能性の評価に基づき、当該車両の挙動を制御するまたは当該車両に搭載されている機器に制御させることを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 3 ,
The vehicle periphery monitoring characterized in that the third processing unit controls the behavior of the vehicle or causes a device mounted on the vehicle to control based on the evaluation of the possibility of contact between the vehicle and the target object. system.
JP2006188675A 2006-07-07 2006-07-07 Vehicle perimeter monitoring system Active JP4828333B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006188675A JP4828333B2 (en) 2006-07-07 2006-07-07 Vehicle perimeter monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006188675A JP4828333B2 (en) 2006-07-07 2006-07-07 Vehicle perimeter monitoring system

Publications (3)

Publication Number Publication Date
JP2008017360A JP2008017360A (en) 2008-01-24
JP2008017360A5 JP2008017360A5 (en) 2008-10-16
JP4828333B2 true JP4828333B2 (en) 2011-11-30

Family

ID=39073947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006188675A Active JP4828333B2 (en) 2006-07-07 2006-07-07 Vehicle perimeter monitoring system

Country Status (1)

Country Link
JP (1) JP4828333B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09249083A (en) * 1996-03-15 1997-09-22 Toshiba Corp Moving object identifying device and method thereof
JP3934119B2 (en) * 2004-06-14 2007-06-20 本田技研工業株式会社 Vehicle periphery monitoring device
JP2006126000A (en) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd Object detection device and object detection method

Also Published As

Publication number Publication date
JP2008017360A (en) 2008-01-24

Similar Documents

Publication Publication Date Title
US9235990B2 (en) Vehicle periphery monitoring device
US7483549B2 (en) Vehicle surroundings monitoring apparatus
JP4173901B2 (en) Vehicle periphery monitoring device
US7489805B2 (en) Vehicle surroundings monitoring apparatus
JP4271720B1 (en) Vehicle periphery monitoring device
WO2011108217A1 (en) Vehicle perimeter monitoring device
WO2009150771A1 (en) Vehicle periphery monitoring device
JP4521642B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP4486997B2 (en) Vehicle periphery monitoring device
US7885430B2 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP2014127032A (en) Outside view recognition device for vehicles
JP5192007B2 (en) Vehicle periphery monitoring device
JP4828333B2 (en) Vehicle perimeter monitoring system
JP4823753B2 (en) Vehicle periphery monitoring device
JP4694441B2 (en) Vehicle perimeter monitoring system
JP4869835B2 (en) Vehicle perimeter monitoring system
JP2008017360A5 (en)
US7545955B2 (en) Vehicle surroundings monitoring apparatus
JP2008052467A5 (en)
JP2008042779A5 (en)
JP4975379B2 (en) Vehicle perimeter monitoring system
JP4496383B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, vehicle periphery monitoring program
JP4343920B2 (en) Vehicle periphery monitoring system, vehicle, vehicle periphery monitoring program, configuration method of vehicle periphery monitoring system, and server
JP4995778B2 (en) Vehicle periphery monitoring device
JP2007249324A (en) Vehicle surroundings monitoring system and program, vehicle, and method for configuring vehicle surroundings system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4828333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250