JP2020194470A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2020194470A
JP2020194470A JP2019100927A JP2019100927A JP2020194470A JP 2020194470 A JP2020194470 A JP 2020194470A JP 2019100927 A JP2019100927 A JP 2019100927A JP 2019100927 A JP2019100927 A JP 2019100927A JP 2020194470 A JP2020194470 A JP 2020194470A
Authority
JP
Japan
Prior art keywords
edge
line
image processing
parking lot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019100927A
Other languages
English (en)
Other versions
JP7341730B2 (ja
Inventor
金子 貴之
Takayuki Kaneko
貴之 金子
守 久保田
Mamoru Kubota
守 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2019100927A priority Critical patent/JP7341730B2/ja
Priority to CN202010429769.0A priority patent/CN112016381B/zh
Priority to EP20176764.7A priority patent/EP3745302A1/en
Priority to US16/887,061 priority patent/US11462026B2/en
Publication of JP2020194470A publication Critical patent/JP2020194470A/ja
Application granted granted Critical
Publication of JP7341730B2 publication Critical patent/JP7341730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】画像処理装置において、斜線領域に隣接する駐車区画を特定する。【解決手段】画像処理装置100は、画像のプラススエッジの線分211及びマイナスエッジの線分212を検出するエッジ検出部113と、検出されたプラスエッジの線分211及びマイナスエッジの線分212を、プラスエッジの線分211ごとに及びマイナスエッジの線分212ごとに、所定の角度間隔でグループ分けするグルーピング部115と、グループ分けされたプラスエッジの線分211のグループにおける複数のプラスエッジの線分211間で、対応する端点同士を繋ぎ、この繋いで得られた線を境界線として設定し、又はマイナスエッジ212のグループにおける複数のマイナスエッジの線分間で、対応する端点同士を繋ぎ、この繋いで得られた線を境界線として設定する境界線設定部116と、を備える。【選択図】図3

Description

本発明は、画像処理装置及び画像処理方法に関する。
カメラで撮影された画像に基づいて、車両を駐車するために仕切られた駐車区画を自動的に検出する技術が知られている(例えば、特許文献1参照)。
特開2017−024598号公報
ところで、駐車区画を仕切るマーカとしては、白線等の、車両の前後方向に平行に延びた境界線が一般的であるが、その他に、車両の立ち入りや駐停車を禁止する領域を示すマーカも、駐車区画を仕切るマーカとなりうる。
すなわち、例えば道路上におけるゼブラゾーンのように、駐車場内に、複数の平行な斜線で表された領域(以下、斜線領域という。)が設けられていることがある。この斜線領域は、運転者に対して、駐停車禁止や進入禁止を認識させる。しかし、この斜線領域に隣接する領域は、駐車区画として設定されていることもある。
ここで、カメラで撮像された画像に基づいて駐車区画を自動的に検出する場合、上述した車両の前後方向に沿って延びた白線のマーカについては、白線の無い路面から白線に切り替わる部分で画像の信号値が急激に大きくなるように変化し、白線から路面に切り替わる部分で画像の信号値が急激に小さくなるように変化する。
つまり、白線の無い路面から白線に切り替わる部分で立上がりのエッジ(プラスエッジ(+エッジ))の線分が検出され、白線から路面に切り替わる立下りのエッジ(マイナスエッジ(−エッジ))の線分が検出される。そして、これら+エッジと−エッジとが、白線の一般的な線幅程度の間隔を以て対に配置されている場合は、その+エッジと−エッジとの対となった部分を、マーカである白線として検出することができる。
しかし、上述した斜線領域は、車両の前後方向に延びる白線を有しないため、+エッジも−エッジも検出されない。したがって、上述した手法では、斜線領域に隣接する駐車区画の境界線を検出することはできない。
本発明は上記事情に鑑みなされたものであり、斜線領域に隣接する駐車区画の境界線を設定することができる画像処理装置及び画像処理方法を提供することを目的とする。
本発明の第1は、車載カメラにより撮影された画像の画像信号値が所定値よりも大きく増加する部分をプラススエッジ及び前記画像の画像信号値が所定値よりも大きく減少する部分をマイナスエッジとして検出するエッジ検出部と、前記エッジ検出部により検出された前記プラスエッジ及び前記マイナスエッジを、前記プラスエッジごとに及び前記マイナスエッジごとに、所定の角度間隔でグループ分けするグルーピング部と、前記グルーピング部によりグループ分けされた前記プラスエッジのグループにおける複数の前記プラスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定し、又は前記マイナスエッジのグループにおける複数の前記マイナスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定する境界線設定部と、を備えた画像処理装置である。
本発明の第2は、車載カメラにより撮影された画像の画像信号値が所定値よりも大きく増加する部分をプラススエッジ及び前記画像の画像信号値が所定値よりも大きく減少する部分をマイナスエッジとして検出し、検出された前記プラスエッジ及び前記マイナスエッジを、前記プラスエッジごとに及び前記マイナスエッジごとに、所定の角度間隔でグループ分けし、グループ分けされた前記プラスエッジのグループにおける複数の前記プラスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定し、又は前記マイナスエッジのグループにおける複数の前記マイナスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定する画像処理方法である。
本発明に係る画像処理装置及び画像処理方法によれば、斜線領域に隣接する駐車区画の境界線を適切に設定することができる。
本発明に係る画像処理装置の一実施形態である画像処理装置を用いた駐車支援装置の概略構成を示すブロック図である。 駐車支援装置におけるカメラ(前方カメラ、後方カメラ、左側方カメラ、右側方カメラ)の配置の一例を示す図である。 本実施形態の画像処理装置の概略構成を示す機能ブロック図である。 車幅方向の両側方がそれぞれ、駐車した状態の車両の前後方向に直線状に延びた側線により仕切られた駐車区画、車幅方向の一方の側方が側線により仕切られ他方の側方が斜線領域により仕切られた駐車区画、及び車幅方向の両側方がそれぞれ斜線領域により仕切られた駐車区画を含む駐車場を示す模式図である。 図3に示した画像処理装置が駐車区画を特定する処理の流れを示すフローチャートである。 互いに平行な複数の斜線で形成された斜線領域の、その斜線のプラス(+)エッジ及びマイナス(−)エッジを示す模式図である。 エッジ検出部により検出された+エッジの線分や−エッジの線分を示す模式図である。 +エッジの線分の端点同士を結んだ境界線分及び端点同士を結んだ境界線分を示す模式図である。 −エッジの線分の端点同士を結んだ境界線分及び端点同士を結んだ境界線分を示す模式図である。 境界線分同士を繋いだ境界線を示す模式図である。 側線及び境界線により仕切られて特定された駐車区画並びに2つの境界線で仕切られて特定された駐車区画を示す、図4相当の模式図である。
以下、本発明に係る画像処理装置及び画像処理方法の具体的な実施の形態について、図面を参照して説明する。
[駐車支援装置の概略構成]
図1は、本発明に係る画像処理装置の一実施形態である画像処理装置100を用いた駐車支援装置1の概略構成を示すブロック図、図2は駐車支援装置1におけるカメラ20(前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20d)の配置の一例を示す図である。
図1に示した駐車支援装置1は、図2に示した車両Vに搭載され、駐車支援動作を行う。具体的には、駐車支援装置1は、図2に示す車載のカメラ20(撮像装置)で撮影された画像に基づいて、車両Vの周囲の駐車領域である駐車区画を認識し、その認識した駐車区画に車両Vを誘導するように車両Vの動作を制御する車両制御ECU40に対して必要な信号を出力する。
駐車支援装置1は、図1に示すように、前方カメラ20a、後方カメラ20b、左側方カメラ20c及び右側方カメラ20dと、カメラECU22と、ナビゲーション装置30と、車輪速センサ32と、操舵角センサ34とを有する。
図2に示すように、前方カメラ20aは、車両Vのフロントバンパ又はフロントグリルに、車両Vの前端を含む前方の領域を撮影するように前方に向けて装着されている。後方カメラ20bは、車両Vのリアバンパ又はリアガーニッシュに、車両Vの後端を含む後方の領域を撮影するように後方に向けて装着されている。左側方カメラ20cは、車両Vの左ドアミラーに、車両Vの左側方の領域を撮影するように左側方に向けて装着されている。右側方カメラ20dは、車両Vの右ドアミラーに、車両Vの右側方の領域を撮影するように右側方に向けて装着されている。
これらのカメラ20a〜20dには、例えば180[°]程度の広い範囲を撮影できるように広い画角の広角レンズや魚眼レンズが装着されており、これら4台のカメラ20a〜20dによって車両Vの周囲の路面を含んだ全周の領域を漏れなく撮影することができるようになっている。
以下、これら4つのカメラ20a〜20dを区別しない場合や総称する場合は、カメラ20という。
カメラECU22は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びフラッシュメモリ等からなるマイクロコンピュータ(マイコン)を主体として構成される。カメラECU22は、カメラ20の動作を制御するとともに、カメラ20が撮影した画像情報を用いて、俯瞰画像の生成処理や、駐車区画を検知する検知処理などを行う画像処理装置100を備えている。
ナビゲーション装置30は画像表示機能を有するモニタ31を備えている。ナビゲーション装置30は、経路案内用の地図データ等が格納された記憶部を有し、この地図データ等及び図示を略したGPS装置等により測位された車両Vの現在位置に基づいて、ナビゲーション装置30の操作者が設定した目標地点までの経路案内を行う。経路案内動作中の各種画像はモニタ31に表示される。
車輪速センサ32は、車両Vの車輪速を検知する。車輪速センサ32により検知された車輪速は車両制御ECU40に入力され、車両制御ECU40による車両Vの動作の制御に用いられる。
操舵角センサ34は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を0[度](中立位置)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ34で検知された操舵角は、車両制御ECU40に入力され、車両制御ECU40による車両Vの動作の制御に用いられる。
さらに、駐車支援装置1は、車両制御ECU40と、ステアリング制御ユニット50と、スロットル制御ユニット60と、ブレーキ制御ユニット70とを有する。
車両制御ECU40は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びフラッシュメモリ等からなるマイコンを主体として構成される。車両制御ECU40は、カメラECU22、車輪速センサ32及び操舵角センサ34から入力された各情報に基づいて、車両Vの駐車を支援する各種処理を実行する。
すなわち、例えば、運転者が、図示を略した自動駐車開始スイッチ等を操作して駐車支援装置1を作動させると、車両制御ECU40は、カメラECU22によって取得された駐車区画に、車両Vを自動運転で駐車させる自動駐車処理を実行する。
自動駐車処理において、ステアリング制御ユニット50は、車両制御ECU40により決定した車両制御情報に基づいて、パワーステアリング(パワステ)アクチュエータ52の駆動を制御することにより、車両Vの操舵角を制御する。
また、自動駐車処理において、スロットル制御ユニット60は、車両制御ECU40により決定した車両制御情報に基づいて、スロットルアクチュエータ62の駆動を制御することにより、車両Vのスロットル開度を制御する。
また、自動駐車処理において、ブレーキ制御ユニット70は、車両制御ECU40により決定した車両制御情報に基づいて、ブレーキアクチュエータ72の駆動を制御することにより、車両Vのブレーキを制御する。
なお、カメラECU22、車輪速センサ32及び操舵角センサ34と、車両制御ECU40とは、車内LAN(Local Area Network)であるセンサ情報CAN(Controller Area Network;登録商標)80によって接続されている。
また、ステアリング制御ユニット50、スロットル制御ユニット60及びブレーキ制御ユニット70と、車両制御ECU40とは、車内LANである車両情報CAN(登録商標)82によって接続される。
[画像処理装置の機能構成]
図3は本実施形態の画像処理装置100の概略構成を示す機能ブロック図、図4は車幅方向の両側方がそれぞれ、駐車した状態の車両Vの前後方向に直線状に延びた側線210,210により仕切られた駐車区画310、車幅方向の一方の側方が側線210により仕切られ他方の側方が斜線領域280により仕切られた駐車区画320、及び車幅方向の両側方がそれぞれ斜線領域280,280により仕切られた駐車区画330を含む駐車場を示す模式図である。
また、図5は図3に示した画像処理装置100が駐車区画310,320,330を特定する処理の流れを示すフローチャート、図6は互いに平行な複数の斜線220で形成された斜線領域280の、その斜線220のプラス(+)エッジの線分221及びマイナス(−)エッジの線分222を示す模式図である。
画像処理装置100は、図4に示した各駐車区画310,320,330を特定して、その特定した駐車区画310,320,330(以下、駐車区画310等と総称する場合もある。)に関する情報(駐車区画310等の位置や形状等)を、車両制御ECU40に出力する。
そして、駐車区画310等に関する情報を取得した車両制御ECU40は、特定された駐車区画310等に車両Vを誘導して駐車動作させるように、予め記憶されたプログラムに従って、車輪速センサ32及び操舵角センサ34によって検出された情報を参照しつつ、ステアリング制御ユニット50を通じてパワステアクチュエータ52、スロットル制御ユニット60を通じてスロットルアクチュエータ62及びブレーキ制御ユニット70を通じてブレーキアクチュエータ72を制御する。これにより、車両Vは、設定された駐車区画310等に適切に駐車される。
ここで、駐車区画310は、車幅方向の両側方がそれぞれ、駐車した状態の車両Vの前後方向に直線状に延びた側線210,210により仕切られた駐車区画であり、駐車区画320は、車幅方向の一方の側方が側線210により仕切られ他方の側方が斜線領域280により仕切られた駐車区画であり、駐車区画330は、車幅方向の両側方がそれぞれ斜線領域280,280により仕切られた駐車区画である。
なお、斜線領域280は、互いに平行な複数の斜線220が形成された領域であり、斜線220は、側線210に対して傾斜した線である。そして、本実施形態における斜線領域280は、上述した複数の斜線220のみによって形成され、その斜線領域280の全周を囲む輪郭線を有しないものである。
画像処理装置100は、図3に示すように、制御部110と、記憶部120とを有する。
制御部110は、カメラECU22のCPUから主に構成されており、画像処理装置100全体の制御を行う。制御部110はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。
記憶部120は、カメラECU22のROM、RAM及びフラッシュメモリ等から主に構成されている。記憶部120は、図示を省略した制御用プログラムが格納されており、この制御用プログラムが画像処理装置100の起動時に制御部110により実行されて、画像処理装置100は図3に示すような機能構成を備えたものとなる。また、記憶部120には、制御部110での処理の途中に検出された、端点等のデータや、駐車区画310等に関する情報などが記憶される。
特に、本実施形態の画像処理装置100は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。
制御部110は、視点変換部111と、マーカ検出部112と、駐車区画特定部117と、表示制御部118と、を備えている。
視点変換部111は、4つのカメラ20がそれぞれ車両Vの周囲の路面を撮像した画像(以下、スルー画像ということもある。)を取得し(図5におけるステップ1(S1))、このスルー画像を、例えば図4に示した俯瞰画像(車両Vの上方から鉛直方向に平行な視線で見下ろしたと仮定して得られる画像)に変換する(図5におけるS2)。
なお、視点変換部111は、視点変換とともに、4つのカメラ20が撮像したスルー画像に対応した4つの俯瞰画像を、車両Vを中心とした単一の俯瞰画像に合成する処理(S2において括弧書きで示す)を行ってもよい。
マーカ検出部112は、エッジ検出部113と、側線検出部114と、グルーピング部115と、境界線設定部116とを備える。
エッジ検出部113は、視点変換部111から出力された俯瞰画像に対して、一定方向(例えば、俯瞰画像における横方向に対応したx方向(図4の俯瞰画像においては、駐車区画310等における車幅方向に対応))に走査を行うことで、x方向に交差する方向に延びたエッジを検出するエッジ検出処理を行う(図5におけるS3)。エッジは、その画像の空間的に狭い領域で明暗(画素の値(画像信号値))が急激に所定値よりも増減変化する部分である。
エッジは、例えば、8bitの画像信号値(0〜255)で表されたYUV画像上においては、8以上の輝度差(輝度の変化)がある部分とすることができる。なお、8bitの画像信号値0〜255を圧縮して、画像信号値0〜127に対応付けて取り扱う場合は、4以上の輝度差がある部分をエッジとすることができる。これらの具体的な値は例示に過ぎず、他の値以上の輝度差の部分をエッジとしてもよい。
以下、画像信号値が相対的に小さい値から大きい値に増加するエッジ(立上がりエッジ)をプラスエッジ(以下、+エッジと略す。)、画像信号値が相対的に大きい値から小さい値に減少するエッジ(立下りエッジ)をマイナスエッジ(−エッジと略す。)という。エッジ検出部113は、+エッジと−エッジをそれぞれ検出する。
ここで、駐車区画310の境界線である側線210や斜線領域280の斜線220は、路面の他の部分に比べて明るい(輝度値が高い)、例えば白色や黄色の線で描かれている。したがって、エッジ検出部113は、側線210及び斜線220ではない路面から側線210や斜線220に切り替わる部分で+エッジを検出し、側線210や斜線220から側線210及び斜線220ではない路面に切り替わる部分で−エッジを検出する。
なお、側線210や斜線220は、白色や黄色に限らず、路面の部分より明るい色で形成されていればよく、路面の部分より暗い色のものは含まない。
エッジ検出部113は、上述したx方向への走査を、その走査方向(x方向)とは異なる方向(例えば、x方向に直交するy方向(車両Vの前後方向))にずらして複数回行い、+エッジが所定方向に略一直線上に並んで検出されれば、その所定方向に延びた+エッジの線分を検出する。−エッジの線分についても同様である。
エッジ検出部113は、側線210の+エッジの線分211及び−エッジの線分212や、互いに平行な複数の斜線220で形成された斜線領域280の、その斜線220の+エッジの線分221及び−エッジの線分222(図6参照)などを検出する。
側線検出部114は、駐車区画310等を仕切る、そこに駐車した状態の車両Vの前後方向に延びた側線210を検出する。具体的には、側線検出部114は、エッジ検出部113によって検出された+エッジの線分211,221や−エッジの線分212,222等のうち、x方向に直交するy方向(駐車区画310に駐車した状態の車両Vの前後方向に対応)に延びた+エッジの線分211及び−エッジの線分212を選択する。
そして、側線検出部114は、選択した+エッジの線分211と−エッジの線分212とが、所定の一定間隔dで対(ペア)になって、かつ一定長さ以上であるものを、駐車区画310を仕切るマーカとしての側線210と判定し、検出する(図5におけるS4においてYES)。
ここで、一定間隔dの値は、駐車区画310の境界線として用いられている側線210の線幅の一般的な寸法範囲に設定されていて、単一値ではなく、最小値から最大値までの範囲を有するものとして設定されている。同様に、一定長さの値は、駐車区画310の境界線として用いられている側線210の線長の一般的な寸法範囲に設定されたものである。
一方、例えば、y方向に延びているものであっても、+エッジの線分211のみが検出され、その+エッジの線分211と対になるべき−エッジの線分212が一定間隔dの範囲で検出されていないときは、側線検出部114は、側線210は存在しないと判定し、検出しない。
そのような状況としては、例えば路面上に車両V等の影が投影されて、その影から日向(ひなた)に切り替わる部分などが想定され、その切り替わる部分では+エッジの線分211が検出されるが、対になるべき−エッジの線分212は検出されないため、側線検出部114は側線210が存在しないと判定する。
同様に、例えば、−エッジの線分212のみが検出された場合も、側線検出部114は、側線210は存在しないと判定する。−エッジの線分212のみが検出された場合の例としては、例えば路面上に車両V等の影が投影されて、日向からその影に切り替わる部分などが想定され、この場合、側線検出部114は側線210が存在しないと判定する。
なお、例えば、電信柱の影が日向の路面に投影されている場合は、−のエッジの線分212と+のエッジの線分211とが一定間隔dで対になり得るが、この場合も、側線検出部114は、側線210は存在しないと判定する。電信柱の影は日向の路面よりも暗いため、路面よりも暗い線として認識され得るが、暗い線は、路面よりも明るい側線210に該当しない。
つまり、側線検出部114は、+エッジの線分211から一定間隔dで−エッジの線分212が存在した場合に側線210と判定するのであり、−エッジの線分212から一定間隔dで+エッジの線分211が存在した場合に側線210と判定しない。これにより、側線検出部114は、上述した電信柱の影のような暗い線を、誤って側線210として検出することがなく、そのようなノイズの誤検出を排除することができる。
また、側線検出部114が検出するのは、y方向に延びた側線210であるから、y方向(x方向に直交する方向)に対して傾いた斜線220を、側線として検出することはない。
図7はエッジ検出部113により検出された+エッジの線分221や−エッジの線分222を示す模式図、図8は+エッジの線分221の端点221a同士を結んだ境界線分223a,223b,223c,223d及び端点221b同士を結んだ境界線分224a,224b,224c,224dを示す模式図である。
また、図9は−エッジの線分222の端点222a同士を結んだ境界線分225a,225b,225c,225d及び端点222b同士を結んだ境界線分226a,226b,226c,226dを示す模式図、図10は境界線分同士を繋いだ境界線223,224,225,226を示す模式図である。
また、図11は側線210及び境界線223により仕切られて特定された駐車区画320並びに2つの境界線226,223で仕切られて特定された駐車区画330を示す、図4相当の模式図である。
グルーピング部115は、エッジ検出部により検出された+エッジの線分及び−エッジの線分を、+エッジごとに及び−エッジごとに、所定の角度間隔でグループ分け(グルーピング)し、境界線設定部116は、俯瞰画像に基づいて、駐車区画320,330を仕切るマーカとしての、互いに平行な複数の斜線220で形成され斜線領域280の境界線223,226(後述する図10,11参照)を設定する。
具体的には、グルーピング部115は、エッジ検出部113によって検出された+エッジの線分211,221や−エッジの線分212,222を、+エッジの線分211,221ごとに及び−エッジの線分212,222ごとに、所定の角度間隔(例えば、角度5[°]間隔)でグループ分けする(図5におけるS7)。
すなわち、グルーピング部115は、+エッジの線分211,221や−エッジの線分212,222を、その線分の延びた方向(例えば、x方向に対して直交以外の傾斜した角度θ)が互いに近いもの同士のグループに分ける。
そして、境界線設定部116は、所定の角度間隔の複数のグループのうち、傾斜角度θが隣接する3つのグループ(例えば、θ=36〜40[°]のエッジの線分が属するグループと、θ=41〜45[°]のエッジの線分が属するグループと、θ=46〜50[°]のエッジの線分が属するグループ)を一括りのグループとする。
このように、3つのグループを一括りにするのは、グループ分けする際のグループ間の境界の設定が適切でない等の理由で、延びた向きが互いに近いエッジの線分であるため本来は同一のグループに振り分けられるべきエッジの線分が、別グループに振り分けられたことを補償するためであり、その必要が無い場合は、単一のグループに属するエッジの線分だけを、後の処理の対象としてもよい。
3つのグループを一括りにするのは、上述した、傾斜角度θ=36〜40[°]のエッジの線分が属するグループと、傾斜角度θ=41〜45[°]のエッジの線分が属するグループと、傾斜角度θ=46〜50[°]のエッジの線分が属するグループという3つのグループだけでなく、傾斜角度θを順次ずらした、隣接する3つのグループをそれぞれ一括りにする。
つまり、例えば、傾斜角度θが5[°]ごとにグループ分けされたエッジの線分のグループが下記のように設定されているものとする。
・傾斜角度θ=1〜5[°]のエッジの線分が属するグループG1
・傾斜角度θ=6〜10[°]のエッジの線分が属するグループG2
・傾斜角度θ=11〜15[°]のエッジの線分が属するグループG3
・傾斜角度θ=16〜20[°]のエッジの線分が属するグループG4
・傾斜角度θ=21〜25[°]のエッジの線分が属するグループG5
・傾斜角度θ=26〜30[°]のエッジの線分が属するグループG6
・傾斜角度θ=31〜35[°]のエッジの線分が属するグループG7
・傾斜角度θ=36〜40[°]のエッジの線分が属するグループG8
・傾斜角度θ=41〜45[°]のエッジの線分が属するグループG9
・傾斜角度θ=46〜50[°]のエッジの線分が属するグループG10
・傾斜角度θ=51〜55[°]のエッジの線分が属するグループG11
・傾斜角度θ=56〜60[°]のエッジの線分が属するグループG12
・傾斜角度θ=61〜65[°]のエッジの線分が属するグループG13
・傾斜角度θ=66〜70[°]のエッジの線分が属するグループG14
・傾斜角度θ=71〜75[°]のエッジの線分が属するグループG15
・傾斜角度θ=76〜80[°]のエッジの線分が属するグループG16
・傾斜角度θ=81〜85[°]のエッジの線分が属するグループG17
・傾斜角度θ=86〜89[°]のエッジの線分が属するグループG18
この場合、傾斜角度θを順次ずらして一括りにされた隣接する3つのグループは、下記のような組み合わせとなる。
・グループG1,G2,G3を一括りにしたもの
・グループG2,G3,G4を一括りにしたもの
・グループG3,G4,G5を一括りにしたもの
・グループG4,G5,G6を一括りにしたもの
・グループG5,G6,G7を一括りにしたもの
・グループG6,G7,G8を一括りにしたもの
・グループG7,G8,G9を一括りにしたもの
・グループG8,G9,G10を一括りにしたもの
・グループG9,G10,G11を一括りにしたもの
・グループG10,G11,G12を一括りにしたもの
・グループG11,G12,G13を一括りにしたもの
・グループG12,G13,G14を一括りにしたもの
・グループG13,G14,G15を一括りにしたもの
・グループG14,G15,G16を一括りにしたもの
・グループG15,G16,G17を一括りにしたもの
・グループG16,G17,G18を一括りにしたもの
なお、1つのグループGi(i=1,2,…,18)の所定の角度間隔は、上述した5[°]間隔に限定されるものではなく、5[°]間隔よりも小さい4[°]間隔や3[°]間隔や2[°]間隔等を適用することができ、また、5[°]間隔よりも大きい6[°]間隔や7[°]間隔や8[°]間隔等を適用することもできる。
これらの隣接する3つのグループGi,G(i+1),G(i+2)を一括りにしたものに属するエッジの線分は、線分の延びた方向(図7における、x方向に対する角度θ)が比較的近い(本実施形態の場合は、傾斜角度θの差が15[°]以内)ことになり、隣接した3つのグループGi,G(i+1),G(i+2)を一括りにする処理は、斜線領域280を構成している互いに平行に近い複数の斜線220に対応した+エッジの線分221及び−エッジの線分222を抽出する処理である。
つまり、エッジ検出部113により、例えば図7に示すように種々の方向に延びる+エッジの線分221や−エッジの線分222が検出された場合に、これらの+エッジの線分221や−エッジの線分222は、グルーピング部115により、図6に示すように傾斜角度θが近い+エッジの線分221や−エッジの線分222にグループ分けされる。
そして、境界線設定部116は、傾斜角度θが隣接する3つのグループを一括りしたものに属する+エッジの線分221について、任意の2つの+エッジの線分221で組を作り、図8に例示するように、その組の2つの+エッジの線分221,221の一方の端点221a,221a同士を結んだ境界線分223a,223b,223c,223d及び他方の端点221b,221b同士を結んだ境界線分224a,224b,224c,224dをそれぞれ設定する(図5におけるS8)。
なお、図8においては、図が煩雑になるのを防止する観点から、隣接する2つの+エッジの線分221,221の組についてのみ、端点221a,221a同士及び端点221b,221b同士を結んだ境界線分223a,…,223dだけを記載した。しかし、境界線設定部116が境界線分を設定する処理は、隣接する2つの+エッジの線分221,221同士だけでなく、全ての2つの+エッジの線分221,221間で端点221a,221a同士及び端点221b,221b同士を結んだ境界線分を設定する。
境界線設定部116は、グループ分けされ、隣接する3つの傾斜角度のグループを一括りにした−エッジの線分222についても、任意の2つで組を作り、図9に例示するように、その組の2つの−エッジの線分222,222の一方の端点222a,222a同士を結んだ境界線分225a,225b,225c,225d及び他方の端点222b,222b同士を結んだ境界線分226a,226b,226c,226dをそれぞれ設定する(図5におけるS8)。
図9に示した2つの−エッジの線分222,222間での境界線分についても、+エッジの線分221,221間の境界線分と同様に、境界線設定部116は、隣接する2つの−エッジの線分222,222同士だけでなく、全ての2つの−エッジの線分222,222間で端点222a,222a同士及び端点222b,222b同士を結んだ境界線分を設定する。
境界線設定部116は、+エッジの線分221に対応した複数の境界線分223a,…,223dのうち、その延びた方向が略等しくかつその長さが略等しいものだけを抽出し、又はその延びた方向が予め設定された所定の範囲の方向に合致しかつその長さが予め設定された所定の範囲の長さのものだけを抽出して、ノイズ成分を除去する。そして、抽出されたものを2つ以上繋いで、図10に示すように、+エッジの線分221に対応した境界線223,224と−エッジの線分222に対応した境界線225,226を設定する。
さらに、境界線設定部116は、+エッジの線分221に対応した境界線223,224と−エッジの線分222に対応した境界線225,226とのうち、車幅方向(x方向)において、より外側に端点が位置する境界線223と境界線226を選択し、これら選択した2つの境界線223,226を、斜線領域280の境界線として設定する(図5におけるS9)。
このように、図4に示す俯瞰画像については、側線検出部114は、駐車区画310を仕切る2本の側線210,210を検出し、境界線設定部116は駐車区画320及び駐車区画330をそれぞれ仕切る境界線223,226を設定する。
そして、駐車区画特定部117は、図11に示すように、駐車区画310について、側線検出部114により検出された2本の側線210,210の間隔が所定の閾値W1の範囲にあるか否かを判定する。駐車区画特定部117は、所定の閾値W1の範囲にあると判定したとき(図5におけるS5においてYES)は、2本の側線210,210を両側方の側線とした駐車区画310であると特定する(図5におけるS6)。
なお、所定の閾値W1は、駐車区画310等として一般的な車幅方向の寸法として設定されている。
駐車区画310の隣の駐車区画320については、図示左側の側方は側線210であるが、右側の側方は側線210ではない。したがって、駐車区画特定部117は、駐車区画320は2本の側線210,210を両側方の側線とする駐車区画ではないと判定する(図5におけるS5においてNO)。
そして、駐車区画特定部117は、図11に示すように、駐車区画320について、側線検出部114により検出された側線210と境界線設定部116により設定された境界線223との間の距離が所定の閾値W2の範囲にあるか否かを判定する。
駐車区画特定部117は、所定の閾値W2の範囲にあると判定したとき(図5におけるS10においてYES)は、側線210と境界線223との間の領域を、一側方が側線210、他側方が斜線領域280の境界線223(又は境界線226)である駐車区画320であると特定する(図5におけるS11)。
なお、所定の閾値W2は、駐車区画320として一般的な車幅方向の寸法として設定されている。
駐車区画320の隣の駐車区画330については、図示左側の側方も右側の側方も境界線226,223であるため、一側方が側線210、他側方が斜線領域280の境界線223,226である駐車区画ではないと判定する(図5におけるS10においてNO)。
そして、駐車区画特定部117は、図11に示すように、駐車区画330について、両側方が境界線設定部116により設定された境界線223,226の間の距離が所定の閾値W3の範囲にあるか否かを判定する。
駐車区画特定部117は、所定の閾値W3の範囲にあると判定したとき(図5におけるS12においてYES)は、境界線226,223の間の領域を、両側方が斜線領域280,280の境界線226,223である駐車区画330であると特定する(図5におけるS13)。
なお、所定の閾値W3は、駐車区画330として一般的な車幅方向の寸法として設定されている。
駐車区画特定部117は、駐車区画について、両側方が境界線設定部116により設定された境界線223,226でないか、又は境界線223,226の間の距離が所定の閾値W3の範囲でないと判定したとき(図5におけるS12においてNO)は、駐車区画を特定しない(図5におけるS14)で処理を終了する。
以上のようにして、駐車区画特定部117が駐車区画310等を特定すると、それらの特定した駐車区画310等に関する情報を記憶部120に記憶するとともに、その駐車区画310等に関する情報を、車両制御ECU40に出力する。
駐車区画310等に関する情報を取得した車両制御ECU40は、自動駐車処理によって車両Vを特定の駐車区画310等に誘導して、車両Vを自動的に駐車させる。
また、画像処理装置100の表示制御部118は、ナビゲーション装置30のモニタ31に、俯瞰画像及び設定された駐車区画310等を重畳表示し、これにより、駐車区画310等に車両Vが誘導されていく様子を、ドライバに視認させることができる。
以上のように、本実施形態の画像処理装置100及び画像処理方法によれば、側線210で仕切られた駐車区画310の他に、側線210と斜線領域280とで仕切られた(斜線領域280に隣接した)駐車区画320や、2つの斜線領域280で仕切られた(2つの斜線領域280に隣接した)駐車区画330も適切に検出することができる。
本実施形態の画像処理装置100及び画像処理方法は、スルー画像に対して視点変換処理を施して得られた俯瞰画像に基づいて、側線を検出したり、境界線を設定したりするものであるが、本発明に係る画像処理装置及び画像処理方法は、俯瞰画像に対する処理に限定されるものではなく、視点変換前のスルー画像や、その他の処理が施された後の画像に対して処理を行うものであってもよい。
本実施形態の画像処理装置100は、側線検出部114を備えたものであるが、本発明に係る画像処理装置は、側線検出部114を備えていなくてもよく、同様に、本発明に係る画像処理方法は、側線を検出しなくてもよい。
また、本実施形態の画像処理装置100は、駐車区画特定部117を備えたものであるが、本発明に係る画像処理装置は、駐車区画特定部117を備えていなくてもよく、同様に、本発明に係る画像処理方法は、境界線を設定するにとどめて、駐車区画を特定するまでに至らなくてもよい。
1 駐車支援装置
20 カメラ
100 画像処理装置
114 側線検出部
115 グルーピング部
116 境界線設定部
117 駐車区画特定部
210 側線
220 斜線
223,226 境界線
280 斜線領域
310,320,330 駐車区画
V 車両

Claims (6)

  1. 車載カメラにより撮影された画像の画像信号値が所定値よりも大きく増加する部分をプラススエッジ及び前記画像の画像信号値が所定値よりも大きく減少する部分をマイナスエッジとして検出するエッジ検出部と、
    前記エッジ検出部により検出された前記プラスエッジ及び前記マイナスエッジを、前記プラスエッジごとに及び前記マイナスエッジごとに、所定の角度間隔でグループ分けするグルーピング部と、
    前記グルーピング部によりグループ分けされた前記プラスエッジのグループにおける複数の前記プラスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定し、又は前記マイナスエッジのグループにおける複数の前記マイナスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定する境界線設定部と、を備えた画像処理装置。
  2. 前記境界線設定部により設定された前記境界線を用いて、駐車区画を特定する駐車区画特定部を備えた請求項1に記載の画像処理装置。
  3. 前記駐車区画特定部は、前記境界線設定部により設定された複数の前記境界線の間の距離が所定の閾値の範囲にあるときは、その複数の前記境界線の間を前記駐車区画と特定する請求項2に記載の画像処理装置。
  4. 車載カメラにより撮影された画像の画像信号値が所定値よりも大きく増加する部分をプラススエッジ及び前記画像の画像信号値が所定値よりも大きく減少する部分をマイナスエッジとして検出し、
    検出された前記プラスエッジ及び前記マイナスエッジを、前記プラスエッジごとに及び前記マイナスエッジごとに、所定の角度間隔でグループ分けし、
    グループ分けされた前記プラスエッジのグループにおける複数の前記プラスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定し、又は前記マイナスエッジのグループにおける複数の前記マイナスエッジ間で、対応する端点同士を繋ぎ、繋いで得られた線を境界線として設定する画像処理方法。
  5. 設定された前記境界線を用いて、駐車区画を特定する請求項4に記載の画像処理方法。
  6. 設定された複数の前記境界線の間の距離が所定の閾値の範囲にあるときは、その複数の前記境界線の間を前記駐車区画と特定する請求項5に記載の画像処理方法。
JP2019100927A 2019-05-30 2019-05-30 画像処理装置及び画像処理方法 Active JP7341730B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019100927A JP7341730B2 (ja) 2019-05-30 2019-05-30 画像処理装置及び画像処理方法
CN202010429769.0A CN112016381B (zh) 2019-05-30 2020-05-20 图像处理装置以及图像处理方法
EP20176764.7A EP3745302A1 (en) 2019-05-30 2020-05-27 Image processing device and method for processing image
US16/887,061 US11462026B2 (en) 2019-05-30 2020-05-29 Image processing device and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019100927A JP7341730B2 (ja) 2019-05-30 2019-05-30 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020194470A true JP2020194470A (ja) 2020-12-03
JP7341730B2 JP7341730B2 (ja) 2023-09-11

Family

ID=70861291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019100927A Active JP7341730B2 (ja) 2019-05-30 2019-05-30 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US11462026B2 (ja)
EP (1) EP3745302A1 (ja)
JP (1) JP7341730B2 (ja)
CN (1) CN112016381B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114724117B (zh) * 2022-06-07 2022-09-13 腾讯科技(深圳)有限公司 车道线关键点数据生成方法、装置、电子设备及存储介质
CN115311892B (zh) * 2022-08-05 2023-11-24 合众新能源汽车股份有限公司 车位显示方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014084118A1 (ja) * 2012-11-27 2014-06-05 クラリオン株式会社 車載画像処理装置
JP2017052471A (ja) * 2015-09-11 2017-03-16 クラリオン株式会社 車両用駐車区画認識装置
WO2018105179A1 (ja) * 2016-12-07 2018-06-14 クラリオン株式会社 車載用画像処理装置
JP2020095628A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3951465B2 (ja) * 1998-06-26 2007-08-01 アイシン精機株式会社 駐車補助装置
JP2008213647A (ja) * 2007-03-02 2008-09-18 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2008213791A (ja) * 2007-03-07 2008-09-18 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP5313072B2 (ja) * 2009-07-29 2013-10-09 日立オートモティブシステムズ株式会社 外界認識装置
JP5981322B2 (ja) * 2012-11-27 2016-08-31 クラリオン株式会社 車載画像処理装置
JP2014106704A (ja) * 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
JP5915770B2 (ja) * 2012-11-27 2016-05-11 日産自動車株式会社 車両用加速抑制装置及び車両用加速抑制方法
JP6467310B2 (ja) 2015-07-23 2019-02-13 Kyb株式会社 駐車誘導装置
CN105160322B (zh) * 2015-09-07 2018-07-24 北京航空航天大学 基于航拍图像的室外停车场空置停车位识别方法
JP6628672B2 (ja) * 2016-04-05 2020-01-15 アルパイン株式会社 車両周辺表示装置及び車両周辺表示方法
KR102485480B1 (ko) * 2016-05-02 2023-01-05 현대모비스 주식회사 가상 주차선 생성에 의한 주차 지원 장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014084118A1 (ja) * 2012-11-27 2014-06-05 クラリオン株式会社 車載画像処理装置
JP2017052471A (ja) * 2015-09-11 2017-03-16 クラリオン株式会社 車両用駐車区画認識装置
WO2018105179A1 (ja) * 2016-12-07 2018-06-14 クラリオン株式会社 車載用画像処理装置
JP2018092501A (ja) * 2016-12-07 2018-06-14 クラリオン株式会社 車載用画像処理装置
JP2020095628A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岩佐和真 外3名: "駐車車両検出のためのテンプレート画像の自動作成", 電気学会論文誌C, vol. 127, no. 3, JPN6023012893, 2007, pages 338 - 344, ISSN: 0005026748 *

Also Published As

Publication number Publication date
EP3745302A1 (en) 2020-12-02
CN112016381A (zh) 2020-12-01
US20200380276A1 (en) 2020-12-03
US11462026B2 (en) 2022-10-04
CN112016381B (zh) 2024-04-02
JP7341730B2 (ja) 2023-09-11

Similar Documents

Publication Publication Date Title
JP7296768B2 (ja) 画像処理装置及び画像処理方法
CN111563405B (zh) 图像处理装置和图像处理方法
EP3872697B1 (en) Image processor and image processing method
EP3862920A1 (en) Image processor and image processing method
US11769338B2 (en) Image processor and image processing method
JP7341730B2 (ja) 画像処理装置及び画像処理方法
EP3731138A1 (en) Image processing device and image processing method
US11967158B2 (en) Image processor and image processing method
JP7246167B2 (ja) 画像処理装置及び画像処理方法
US11620908B2 (en) Image processor and image processing method
JP7446851B2 (ja) 画像処理装置及び画像処理方法
JP7446830B2 (ja) 画像処理装置及び画像処理方法
JP7453008B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7341730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150