JP2021136687A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2021136687A
JP2021136687A JP2021011584A JP2021011584A JP2021136687A JP 2021136687 A JP2021136687 A JP 2021136687A JP 2021011584 A JP2021011584 A JP 2021011584A JP 2021011584 A JP2021011584 A JP 2021011584A JP 2021136687 A JP2021136687 A JP 2021136687A
Authority
JP
Japan
Prior art keywords
line
parking
unit
parking frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021011584A
Other languages
English (en)
Other versions
JP7482054B2 (ja
Inventor
貴之 金子
Takayuki Kaneko
貴之 金子
俊輔 近藤
Shunsuke Kondo
俊輔 近藤
守 久保田
Mamoru Kubota
守 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Clarion Electronics Co Ltd filed Critical Faurecia Clarion Electronics Co Ltd
Publication of JP2021136687A publication Critical patent/JP2021136687A/ja
Application granted granted Critical
Publication of JP7482054B2 publication Critical patent/JP7482054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】駐車区画線及び駐車枠の検出を高精度に行うことが可能な画像処理装置及び画像処理方法を提供する。【解決手段】画像処理装置100は、所定タイミングで車両Vの周囲を撮像するカメラ20から出力される画像信号に基づく俯瞰画像Gから線を抽出する線抽出部111、抽出された線について、所定条件を備えているか否かを判定する追跡判定部112、所定条件を備えていると判定された線と、過去の所定タイミングで撮像された画像信号に基づく俯瞰画像Gから線抽出部111を用いて抽出された線との類似度及び一致度を比較する比較部114、類似度及び前記一致度が所定値以上となる線を駐車区画線と判定する駐車区画線判定部115、駐車区画線と判定された線を用いて駐車枠を設定する駐車枠設定部116を備える。【選択図】図3

Description

本発明は、車両の周囲の路面を撮像する撮像装置から出力される画像信号に基づいて、この路面に設けられた駐車枠を推定する画像処理装置及び画像処理方法に関するものである。
車両を所定の駐車区画に駐車する際に、駐車目標とする駐車枠を自動的に検出して、車両を自動駐車させる駐車支援装置が実用化されている(例えば、特許文献1参照)。この特許文献1に開示の技術では、車両に搭載された撮像装置で撮像された撮像画像から駐車区画線を検出し、検出した駐車区画線に基づいて駐車可能な駐車枠を検出している。このとき、駐車区画線の延びる角度や隣接する駐車区画線との距離等に基づいて、駐車枠が斜め駐車枠、並列駐車枠、縦列駐車枠のいずれであるかを判定している。
ところで、斜め駐車枠を判定する場合、斜め駐車枠の連続性に基づいて判定を行っている。つまり、所定の駐車エリアから、斜め駐車枠が複数連続して検出された場合は、斜め駐車枠を有する駐車場であることがわかる。これに対して、検出した駐車枠の中で斜め駐車枠が1つのみである場合は、本来は並列駐車枠又は縦列駐車枠の1つであったものが、斜め駐車枠と誤検出された可能性がある。
特開2016−16681号公報
駐車区画線や駐車枠の検出は、車両の移動に伴ってダイナミックに実行される。このため、検出タイミングによっては、駐車中の他車両、その他の障害物の存在、自車両、壁、フェンス等の比較的大きな影、木漏れ日、道路照明灯等による光の反射等によって、駐車区画線が不検出となったり、駐車区画線以外の線を駐車区画線として誤検出してしまったりすることがある。この結果、斜め駐車枠の連続性の判定に影響したり、並列駐車枠等を斜め駐車枠と誤認したりして、駐車枠の検出に影響するおそれがある。
そこで、本発明は、駐車区画線及び駐車枠の検出を高精度に行うことが可能な画像処理装置及び画像処理方法を提供することを目的としている。
前記目的を達成するために、本発明の画像処理装置は、所定タイミングで車両の周囲を撮像する撮像装置から出力される画像信号に基づく画像から線を抽出する線抽出部と、前記線抽出部で抽出された前記線について、所定条件を備えているか否かを判定する追跡判定部と、前記追跡判定部で所定条件を備えていると判定された前記線と、過去の所定タイミングで撮像された画像信号に基づく画像から前記線抽出部を用いて抽出された線との類似度及び一致度を比較する比較部と、前記比較部での比較の結果、前記類似度及び前記一致度が所定値以上となる前記線を、駐車区画線と判定する駐車区画線判定部と、前記駐車区画線判定部で駐車区画線と判定された線を用いて駐車枠を設定する駐車枠設定部と、を備えたことを特徴とする。
このように構成された本発明の画像処理装置では、所定タイミングで撮像された画像から抽出され、所定条件を備えていると判定された線と、過去の所定タイミングで撮像された画像から抽出された線とを比較する。比較の結果、類似度及び一致度が所定以上となる線を、駐車区画線と判定する。そして、駐車区画線と判定された線を用いて駐車枠を設定する。
このことにより、影や駐車中の他車両等の影響で、検出タイミングによって駐車区画線の不検出や誤検出があり、駐車枠を構成する駐車区画線と判定されない線があっても、この線を追跡対象として追跡し続けることで、従来は検出できなかった駐車枠を、適切に検出できる。したがって、駐車区画線及び駐車枠の検出を高精度に行うことが可能となる。
本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。 実施の形態である駐車支援装置の撮像装置の配置位置の一例を示す図である。 実施の形態である画像処理装置の概略構成を示す機能ブロック図である。 実施の形態である画像処理装置の動作の一例を説明するためのフローチャートである。 追跡判定部の動作の一例を説明するためのフローチャートであり、(a)は線の追跡判定工程、(b)は類似性、一致性の判定(比較)工程、(c)は追跡情報の追加判定(駐車区画線判定)工程を説明するためのフローチャートである。 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両と、駐車場の路面上に描かれた駐車区画線の一例を示す。 実施の形態である画像処理装置の動作の一例を説明するための図であり、俯瞰画像に、検出されたエッジ及び駐車枠を模式的に示した図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両の移動により図6とは異なるタイミングで取得された俯瞰画像に、検出されたエッジ及び駐車枠を模式的に示した図である。 実施の形態である画像処理装置の動作の一例を説明するための図であり、車両の移動により図6、図7とは異なるタイミングで取得された俯瞰画像に、検出されたエッジ及び駐車枠を模式的に示した図である。 追跡判定部の動作の一例を説明するための図であり、車両の移動により図6〜図8とは異なるタイミングで取得された俯瞰画像に、検出されたエッジ及び駐車枠を模式的に示した図である。
(駐車支援装置の概略構成)
以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である画像処理装置が適用される駐車支援装置の概略構成を示すブロック図である。図2は駐車支援装置の撮像装置の配置位置の一例を示す図である。
図1に示すように、駐車支援装置1は、車両V(図2参照)に搭載され、駐車支援動作を行う。具体的には、駐車支援装置1は、この車両Vが駐車可能な駐車枠を認識する。そして、駐車支援装置1は、認識した駐車枠に車両Vを駐車させるようにこの車両Vを制御する。
車両Vの前後左右には、図2に示すように複数の小型カメラ(撮像装置)が備えられている。具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて前方カメラ20aが装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて後方カメラ20bが装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて左側方カメラ20cが装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて右側方カメラ20dが装着されている。
前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dには、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ20a〜20dで車両Vの周囲の路面を含む領域を漏れなく観測できるようになっている。これらカメラ20a〜20dにより、車両Vの周囲の路面Rを撮像する撮像装置が構成されている。なお、以下の説明において、個々のカメラ(撮像装置)20a〜20dを区別せずに説明する場合は単にカメラ20として説明する。
図1に戻って、駐車支援装置1は、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dと、カメラECU21と、ナビゲーション装置30と、車輪速センサ32と、操舵角センサ33とを有する。
カメラECU21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。カメラECU21は、カメラ20を制御するとともに、カメラ20が検知した情報を用いて、俯瞰画像の生成処理や、駐車枠を検出する検出処理や、検出した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行う。
ナビゲーション装置(表示装置)30は画像表示機能を有するモニター31を有する。ナビゲーション装置30は、経路案内用の地図データ等が格納された記憶部を有する。ナビゲーション装置30は、この地図データ等及び図略のGPS装置等により検出された車両Vの現在位置に基づいて、ナビゲーション装置30の操作者が設定した目標地点までの経路案内を行う。経路案内動作中の各種画像はモニター31に表示される。
車輪速センサ32は、車両Vの車輪速を検知するセンサである。車輪速センサ32で検知された検知情報(車輪速)は、車両制御ECU40に入力される。
操舵角センサ33は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を中立位置(0度)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ33で検知された検知情報(操舵角)は、車両制御ECU40に入力される。
さらに、駐車支援装置1は、車両制御ECU40と、ステアリング制御ユニット50と、スロットル制御ユニット60と、ブレーキ制御ユニット70とを有する。
車両制御ECU40は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成されたマイコンを主体として構成される。車両制御ECU40は、カメラECU21、車輪速センサ32及び操舵角センサ33から入力された各検知情報に基づいて、車両Vの駐車を支援する各種処理を実行する。
すなわち、例えば図略の自動駐車開始スイッチを運転手がオン操作して駐車支援装置1を作動させると、車両制御ECU40は、カメラECU21が駐車可と判定した駐車枠に車両Vを自動で駐車させる自動駐車処理を実行する。
ステアリング制御ユニット50は、車両制御ECU40で決定した車両制御情報に基づいて、パワーステアリングアクチュエータ51を駆動して、車両Vの操舵角を制御する。
スロットル制御ユニット60は、車両制御ECU40で決定した車両制御情報に基づいて、スロットルアクチュエータ61を駆動して、車両Vのスロットルを制御する。
ブレーキ制御ユニット70は、車両制御ECU40で決定した車両制御情報に基づいて、ブレーキアクチュエータ71を駆動して、車両Vのブレーキを制御する。
なお、カメラECU21、車輪速センサ32及び操舵角センサ33と、車両制御ECU40との間は、車内LAN(Local Area Network)であるセンサ情報CAN(Controller Area Network)80によって接続される(「CAN」は登録商標)。
また、ステアリング制御ユニット50、スロットル制御ユニット60及びブレーキ制御ユニット70と、車両制御ECU40との間は、車内LANである車両情報CAN81によって接続される。
以上の構成を有する駐車支援装置1において、本実施の形態の画像処理装置100は、カメラECU21により主に構成されている。
(画像処理装置の機能構成)
図3は、本実施の形態である画像処理装置100の概略構成を示す機能ブロック図である。本実施の形態である画像処理装置100は、制御部110及び記憶部120を有する。制御部110は、カメラECU21のCPUから主に構成されており、記憶部120は、カメラECU21のROM、RAM、フラッシュメモリ等から主に構成されている。
制御部110は、画像処理装置100全体の制御を行う。加えて、制御部110は、後述する線抽出部111、駐車区画線検出部112、追跡判定部113、比較部114、駐車区画線判定部115、駐車枠設定部116等により検出、推定された駐車スペースを区画する駐車区画線や駐車スペースに基づいて、車両Vが駐車可と判定した駐車枠にこの車両Vを自動で駐車させる自動駐車処理を車両制御ECU40に実行させるために、自動駐車処理に必要な情報(駐車スペース、駐車枠の位置、形状など)をこの車両制御ECU40に送出する。
車両制御ECU40は、制御部110から提供された情報に基づいて、さらに、車輪速センサ32及び操舵角センサ33(図3ではセンサとのみ図示している)が検知した検知情報に基づいて、パワーステアリングアクチュエータ51、スロットルアクチュエータ61及びブレーキアクチュエータ71(図3ではアクチュエータとのみ図示している)を駆動制御する。
制御部110はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。
画像処理装置100の記憶部120には図略の制御用プログラムが格納されており、この制御用プログラムが画像処理装置100の起動時に制御部110により実行されて、画像処理装置100は図3に示すような機能構成を備えたものとなる。特に、本実施形態の画像処理装置100は、後述するように高速の画像処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。
この図3に示すように、制御部110は、線抽出部111、駐車区画線検出部112、追跡判定部113、比較部114、駐車区画線判定部115、駐車枠設定部116、車速取得部117、斜め駐車枠判定部118及び表示制御部119を有する。
線抽出部111は、車両Vの周囲の路面Rを撮像するカメラ20から出力される画像信号に基づいて、エッジ検出により駐車場P等の路面R上の駐車区画線Kのエッジを検出し、検出したエッジに基づいて線を抽出する。ここでいう駐車区画線Kとは、主に路面R上に設けられた駐車領域を区画する境界線(直線)として描かれた線のことである。図5に、車両Vと、この車両Vが駐車を行おうとしている駐車場Pの路面R上に描かれた駐車区画線Kの一例を示す。駐車区画線Kの間が、駐車スペースを表す駐車枠A,Bである。図5の例では、車両Vの進行方向に対する駐車区画線K(K1〜K5)の角度θ1が90[deg]よりも小さく、基本的に車両Vをバックして駐車する、いわゆる後退駐車を行う駐車枠A1〜A4からなる後退駐車枠群AGと、車両Vの進行方向に対する駐車区画線K(k1〜k5)の角度θ2が90[deg]よりも大きく(相対角度としては90[deg]よりも小さい)、基本的に車両Vを前進して駐車する、いわゆる前進駐車を行う駐車枠B(B1〜B4)からなる前進駐車枠群BGとが駐車場Pに設けられている。
また、図6〜図9は、カメラ20で撮影された画像信号を合成して生成された俯瞰画像Gと、この俯瞰画像Gから検出されたエッジを模式的に示した図である。図6〜図9の俯瞰画像Gでは、車両Vの走行方向に沿う方向をX軸とし、走行方向に直交する方向をY軸としている。
図6〜図9に示される俯瞰画像Gは、カメラ20a〜20dで撮影された画像信号に基づいて、それぞれ車両Vを真上から見下ろした俯瞰画像g1,g2,g3,g4に変換して、さらに各俯瞰画像g1を合成して生成された画像である。俯瞰画像Gの中心部分には、車両Vを真上から見下ろした状態を示すアイコンIが表示される。
駐車区画線は、一般的には白線で示されるが、白線以外の、例えば黄色線等、白以外の色の線で描かれている場合もある。このため、線抽出部111によって検出される駐車区画線は、「白線」に限定されるものではなく、一般に、路面Rとの間にコントラストを有する境界線を駐車区画線として検出すればよい。
線抽出部111は、俯瞰画像Gを所定方向に走査(スキャン)して、画像信号に含まれる輝度又は色のパラメータ(例えば、RGB、RGBA等)が、閾値よりも大きく変化する画素を検出し、検出した画素の並びが所定以上の長さとなっている部分をエッジとして検出する。ここでいう走査とは、所定方向に向かって1つずつ画素を選択し、隣り合った画素間で、輝度又は色のパラメータを比較していくことをいう。
なお、走査の方向は、路面Rに描かれた駐車区画線Kに交差する方向に設定するのが望ましい。すなわち駐車区画線Kが車両Vの進行方向(図5の矢印参照)と直交する方向、又は図5に示すように斜めに交差する方向に延在しているときには、俯瞰画像G(図6等参照)上で進行方向(図6等ではX軸方向)に沿って走査するのが望ましい。これに対して、駐車区画線Kが車両Vの進行方向に沿って延在しているときは、俯瞰画像G上で進行方向と直交する方向(図6等ではY軸方向)に走査するのが望ましい。一般には、駐車区画線Kが延びている方向は未知であるため、線抽出部111は、俯瞰画像G上で車両Vの進行方向及びこれに直交する方向にそれぞれ沿って、2回に分けて走査することが望ましい。
そして、線抽出部111は、検出した複数のエッジから、隣り合った画素の輝度差又は色のパラメータ差がプラス方向に所定値よりも大きくなるエッジをプラスエッジ(「立上りエッジ」ともいう)として検出し、隣り合った画素の輝度差又は色のパラメータ差がマイナス方向に所定値よりも大きくなるエッジをマイナスエッジ(「立下がりエッジ」ともいう)として検出する。
ここで、輝度に基づいてエッジを抽出する場合は、輝度が低く暗い画素(例えば黒い画素)から、閾値よりも大きな差を持って輝度が高く明るい画素(例えば白い画素)に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。つまり、走査位置が路面Rから駐車区画線と推定されるものに切替わったことを示す。また、輝度が高く明るい画素から、閾値よりも大きな差を持って輝度が低く暗い画素に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出する。つまり、走査位置が駐車区画線と推定されるものから路面Rに切替わったことを示す。
これに対して、色のパラメータに基づいてエッジを抽出する場合は、路面の色のパラメータと、駐車区画線の色のパラメータとを比較する。線抽出部111は、色のパラメータの値が大きくなる方向に変化(マイナス方向に変化)した画素の並びをマイナスエッジとして検出し、色のパラメータの値が小さくなる方向に変化(プラス方向に変化)した画素の並びをプラスエッジとして検出する。また、路面よりも駐車区画線の輝度が低い(或いは色のパラメータが大きい)場合は、輝度や色のパラメータの変化は逆転する。いずれの場合でも駐車区画線等の境界線では、その両側縁にプラスエッジとマイナスエッジが検出されるため、後述のペアの抽出が可能である。
線抽出部111は、上記走査を複数ライン(行)分繰り返すことで、走査方向と交差する方向に連続するプラスエッジで構成される線分(画素の並び、画素列)を、プラスエッジの線分として検出する。さらに連続するマイナスエッジで構成される線分(画素列)を、マイナスエッジの線分として検出する。
また、線抽出部111は、検出したプラスエッジの線分及びマイナスエッジの線分に対して、基準長さに従って長さによるフィルタリングを行い、基準長さに満たないプラスエッジの線分及びマイナスエッジの線分を破棄してもよい。また、長さに加えて、線分が延びる方向(角度)によってフィルタリングしてもよい。
線抽出部111は、検出したプラスエッジの線分及びマイナスエッジの線分の各々の始点及び終点の位置(座標)を算出する。線抽出部111は、算出した位置に基づいて、所定間隔かつ所定の角度で隣り合うプラスエッジの線分とマイナスエッジの線分を抽出し、線を構成するエッジのペアであると判定する。これに対して、ペアの見つからないエッジの線分や、所定の角度以外の方向に延びるエッジの線分等はノイズとして破棄する。
駐車区画線検出部112は、線抽出部111が線として検出したプラスエッジの線分とマイナスエッジの線分のペアに基づいて、駐車区画線を検出する。より詳細には、駐車区画線検出部112は、検出された線のエッジのペアの中から、予め決められた基準長さ以上の長さを有し、かつ予め決められた方向(角度)に延びるプラスエッジの線分及びマイナスエッジの線分のペアを抽出する。抽出したプラスエッジの線分とマイナスエッジの線分の距離を始点等の位置に基づいて算出し、この距離が所定の線幅±閾値の範囲内であれば、駐車区画線を構成するエッジのペアと判定する。駐車区画線検出部112は、当該ペアと判定したプラスエッジの線分とマイナスエッジの線分のそれぞれの始点及び終点の位置(座標)を、駐車区画線データ124として記憶部120の一時記憶部123に登録(記憶)する。
駐車区画線検出時の基準長さは、例えば、車両Vの車長分(例えば5m)の長さとすることができるが、本実施の形態では、車長よりも短い長さとしている。角度は、車両Vの走行方向、画像を撮影したカメラ20の向き等を考慮した角度としている。図6の場合は、駐車区画線は、走行方向に対して駐車スペースに向かって斜めに延びる直線であるため、角度=45°±閾値としている。
図6に、所定の検出タイミングで取得された俯瞰画像Gから検出されたプラスエッジを太実線で、マイナスエッジを太破線で模式的に示す。この俯瞰画像Gには、後退駐車枠群AGが映っている。以下では、画像処理装置100によって、後退駐車枠Aを検出することを想定して説明するが、前進駐車枠群BGの前進駐車枠Bの検出にも適用できる。この図6の例では、車両V(アイコンI)の右側の駐車区画線K1とK3(実際には、駐車区画線K1とK3の像)の両側の、X軸方向における走査元側にプラスエッジの線分Ep(Ep1,Ep3)が検出され、走査先側にマイナスエッジの線分Em(Em1,Em3)が検出された。駐車区画線K2は、駐車枠A1に駐車している他車両v1によって隠れているため、線として抽出されないか、又は基準長さより短くノイズとして破棄され、この結果、駐車区画線として検出されない。
また、車両Vが路面R上を移動し、図6とは異なる検出タイミング(時間)で図7に示すような俯瞰画像Gが取得されたとする。この場合、駐車区画線K1は、図6の検出タイミングでは駐車区画線として検出されているが、図7のタイミングでは他車両v1に隠れて駐車区画線として検出されない。また、駐車区画線K2は、図6の検出タイミングでは駐車区画線として検出されていないが、図7の検出タイミングではプラスエッジの線分Ep2とマイナスエッジの線分Em2で構成される駐車区画線として検出されている。この結果、駐車区画線K2と駐車区画線K3との間の駐車枠A2は検出されるが、駐車区画線K1と駐車区画線K2との間の駐車枠A1は不検出となる。さらには、斜め駐車枠の判定を行った場合、斜め駐車枠としての連続性がないため、駐車枠A2も駐車目標として登録されずに破棄される場合もある。
このような不具合を回避するため、追跡判定部113、比較部114、駐車区画線判定部115によって、線抽出部111が抽出したが駐車枠を構成する駐車区画線とされなかった線を追跡(トラッキング)し続け、駐車区画線が他車両v1等によって隠れて不検出となった場合でも、隠れた駐車区画線で区画される駐車枠を検出できるように制御している。
このため、追跡判定部113は、所定のタイミングで線抽出部111が抽出した線について、所定条件を備えているか否かを判定し、所定条件を備えていると判定した線を、追跡対象の線として抽出する。また、追跡判定部113は、抽出した線の情報を記憶部120に記憶する。比較部114は、追跡判定部113により所定条件を備えていると判定された線と、過去の所定タイミングで撮像された画像信号に基づく俯瞰画像Gから線抽出部111を用いて抽出された線との類似度及び一致度を比較する。駐車区画線判定部115は、比較部114での比較の結果、類似度及び一致度が所定値以上となる追跡対象の線を、駐車区画線と判定する。
以下、追跡判定部113、比較部114、駐車区画線判定部115の処理の詳細を説明する。追跡判定部113は以下の(1)の処理を実行し、比較部114は、以下の(2)の処理を実行し、駐車区画線判定部115は以下の(3)の処理を実行する。
(1)線の追跡判定
(2)類似性、一致性判定(比較)
(3)追跡情報の追加判定(駐車区画線判定)
(1)線の追跡判定
追跡判定部113は、所定範囲の線を追跡候補の線として抽出すべく、以下の条件を満たすか否かを判定(線の追跡判定)する。条件を満たしている線を、追跡対象(トラッキング対象)と判定し、この追跡対象の線の情報(例えば、プラスエッジの線分とマイナスエッジの線分の始点と終点の座標値)を、追跡情報データ125として記憶部120の一時記憶部123に登録する。
・線の長さが所定の長さ(例えば、1.5m相当)以上か。
この条件により、駐車区画線以外の短い線を排除でき、駐車区画線である確実性の高い線を追跡対象として抽出できる。
・線の角度が所定の角度(例えば、65〜40[deg])の範囲内か。
この条件により、例えば斜め駐車枠を構成する線を抽出できる。
・プラスエッジの線分及びマイナスエッジの線分に基づいて算出した線の幅が所定の幅(例えば、8[pixel]≒24[cm])以内か。
この条件により、駐車区画線の幅のばらつき、レンズの歪みや俯瞰変換等による駐車区画線画像の幅の拡縮を吸収できる。
・プラスエッジの線分及びマイナスエッジの線分の角度差が所定の角度差(例えば、3[deg])以内か。
この条件により、両エッジの角度に多少の誤差があっても、追跡対象の線として適切に抽出できる。
(2)類似性、一致性判定(比較)
比較部114は、検出された駐車区画線と、記憶部120に記憶された追跡対象の線の追跡情報データ125に対して、「類似しているか」の観点と「一致しているか」の観点の2段階の判定を行う。2段階の判定を行うことで、例えば、異なる検出タイミングで、斜め線の角度が微小に変化して検出された場合であっても、別々の追跡対象の線として登録されることはなく、一つの追跡対象の線として登録され、処理精度や処理速度を向上できる。
[類似性の判定]
比較部114は、下記条件をすべて満たすか否かを判定し、条件を満たす場合は類似すると判定し、次の一致性の判定を行う。条件を満たさない場合は類似しないと判定し、次の一致性の判定は行わない。
・追跡候補の線と、追跡情報データとのプラスエッジの線分同士の角度差及びマイナスエッジの線分同士の角度差が、所定の角度差(例えば、11[deg])以内か。
・追跡候補の線と、追跡情報データとのプラスエッジの線分及びマイナスエッジの線分のそれぞれの始点の距離差、終点の距離差が所定の距離差(例えば、12[pixel]≒36[cm])以内か。
[一致性の判定]
この一致性の判定は、車両Vの車速が所定値以下(例えば、0[km/h])の場合は行わない。これにより、車両Vの停車中や所定値以下の低速走行中に、他車両等の立体物による線の誤検出があっても、これらを追跡対象とすることがなく、処理精度を向上できる。車速は、後述の車速取得部117によって取得される。
比較部114は、下記条件をすべて満たすか否かを判定し、条件を満たす場合に一致すると判定し、検知回数をカウントアップする。条件を満たさない場合は一致しないと判定し、検知回数をカウントアップしない。
・追跡候補の線と、追跡情報データとのプラスエッジの線分同士の角度差及びマイナスエッジの線分同士の角度差が、所定の角度差(例えば、2[deg])以内か。
・追跡候補の線と、追跡情報データとのプラスエッジの線分及びマイナスエッジの線分のそれぞれの始点の距離差、終点の距離差が所定の距離差(例えば、参考値2[pixel])以内か。
(3)追跡情報の追加判定(駐車区画線判定)
駐車区画線判定部115は、下記条件をすべて満足する場合、追跡対象の線の追跡情報を、駐車区画線として追加対象と判定する。この追跡対象の線の追跡情報を、駐車区画線検出部112が検出した駐車区画線に追加すべく、駐車区画線判定部115は、駐車区画線データ124として記憶部120に登録する。以上により、追跡対象の線が他車両v1等に隠れることによって検出されなかった場合でも、当該追跡対象の線を駐車区画線とすることで、駐車枠検出を適切に行える。これに対して、条件を満足しない場合、駐車区画線判定部115は、追加対象外と判定し、駐車区画線データ124として登録しない。
・追跡対象の線(追跡情報)が、今回の検出タイミング(以下、「本周期」という。)
では駐車区画線として未検知であること。
この条件を満たすことで、俯瞰画像G上に表示されていて(つまり、隠れずに見えている)、駐車区画線として検出された線と、追跡対象の線との重複を回避できる。
・追跡対象の線としての検知回数が所定回数(例えば、1回)以上あること。
この条件を満たすことで、立体物のエッジを追跡対象の線として検出する等の誤検出を回避できる。
・追跡対象の線の長さ(プラスエッジの線分及びマイナスエッジの線分)が所定長さ(例えば、30[pixel]≒90[cm])以上であること。
この条件を満たすことで、駐車区画線として適切な線のみを駐車区画線として追加登録できる。
上記(1)〜(3)の説明で挙げた長さ、角度、距離差、車速等の値(閾値)は一例であり、これらの数値に限定されることはない。画像解像度、駐車する車両の種類(小型車、普通車、大型車)、駐車区画線の幅、形状(一本線、U字、T字、十字等)等に応じて、適宜の値を設定できる。これらはパラメータデータ122として、記憶部120に更新可能に登録しておけば、駐車区画線の状態や追跡目的に応じて、より適切な処理が可能となる。
駐車枠設定部116は、記憶部120に駐車区画線データ124として登録された駐車区画線のプラスエッジの線分及びマイナスエッジの線分の各ペアに基づいて、駐車枠を推定し、俯瞰画像G上に設定する。すなわち、駐車枠設定部116は、複数のペアのプラスエッジの線分及びマイナスエッジの線分の中から、駐車スペースを構成する可能性のある隣り合う2本のエッジの線分を選択する。ここで選択される2本のエッジの線分は、駐車スペースを仕切る一対の駐車区画線の左右両端を構成する線である。
駐車枠設定部116は、選択された2本のエッジの線分の距離(隣り合う駐車区画線の内法寸法)を、各エッジの端点の座標値に基づいて算出し、算出された距離が所定範囲内にあるか判定する。この距離が所定の駐車スペース幅±閾値の範囲内であれば、2本のエッジの線分で仕切られた領域を駐車スペースとして検出する。駐車スペース幅としては、普通自動車や小型貨物車用の駐車スペースであれば2m〜3mが望ましい。大型貨物車やバス用の駐車スペースであれば、3.3m以上が望ましい。
駐車枠設定部116は、設定した駐車枠の情報、つまり駐車枠を構成する向かい合うプラスエッジの線分の端点とマイナスエッジの線分の端点の座標値を、駐車枠の始点又は終点の座標値とし、この座標値を駐車枠登録データ121として記憶部120に登録する。このとき、駐車枠の少なくとも2つの始点の座標値を登録すれば、記憶容量をできるだけ少なくしつつ、駐車枠を特定できるが、4点の座標値を登録してもよい。また、駐車区画線Kの角度(延在方向)、その他自動駐車処理に必要な情報を駐車枠登録データ121に加えることもできる。
また、駐車枠設定部116は、設定した駐車枠に車両Vを駐車できるか否かを判定する判定処理等を行うこともできる。例えば、駐車スペースに他車両v1や障害物等が存在するときには、駐車ができないと判断して、駐車枠登録データ121として記憶部120に登録しないようにできる。また、駐車枠設定部116は、車両Vから近い駐車枠、又は駐車し易い駐車枠を、駐車可能な駐車枠と判定し、駐車枠登録データ121として記憶部120に登録することもできる。
車速取得部117は、車両制御ECU40から車両Vの車速を取得する。車両制御ECU40は、例えば、車輪速センサ32から入力される車輪速を車速に変換し、車速取得部117に送出する。又は、車速取得部117が、車両制御ECU40から車輪速を取得し、この車輪速を車速に変換してもよい。なお、車速の取得手法がこの例に限定されることはなく、センサも車輪速センサ32に限定されることはない。これら以外の公知の適宜の手法やセンサ等を用いて車速を取得できる。
斜め駐車枠判定部118は、駐車枠設定部116により設定された複数の駐車枠が、斜め駐車枠か否かを判定する。この判定は、車両Vに対する駐車枠のエッジの延びる角度が、例えば45±5[deg](相対角度)の範囲内である場合に、斜め駐車枠であると判定する。或いは、駐車枠が複数連続して設定され、各駐車枠の互いの相対角度、プラスエッジの線分の始点とマイナスエッジの線分の始点の位置等を比較し、所定範囲内で一致しているときに、これら複数の駐車枠を斜め駐車枠(斜め駐車枠群)と判定する。これらは一例であり、他の手法によって斜め駐車枠を判定してもよい。
斜め駐車枠判定部118によって斜め駐車枠であると判定されない場合には、誤検知の可能性があるため、駐車枠として登録しないようにする。又は、駐車枠の幅、長さ、角度に基づいて、車両Vに対して略垂直に延びる並列駐車枠又は車両Vに対して略平行に延びる縦列駐車枠であると判定する。
表示制御部119は、モニター31に画像を表示させるための表示制御信号を、ナビゲーション装置30に送出し、モニター31を制御する。具体的には、表示制御部119は、カメラ20により撮像された車両V周辺の路面画像又はこれらを合成した信号に基づく俯瞰画像Gをモニター31に表示させるための表示制御信号を送出する。また、駐車枠設定部116により表示対象として選択された駐車枠を示す駐車枠画像(例えば、図7に仮想線で示す駐車枠A1,A2等)を、路面画像又は俯瞰画像Gに重畳して表示させるための表示制御信号を送出することもできる。
なお、線抽出部111による線抽出処理、駐車区画線検出部112による駐車区画線検出処理、追跡判定部113による追跡判定処理、比較部114による比較処理、駐車区画線判定部115による駐車区画線判定処理、駐車枠設定部116による駐車枠設定処理、斜め駐車枠判定部118による斜め駐車枠判定処理、及び表示制御部119による表示制御処理は、車両Vが走行してカメラ20で撮影される画像が更新されるたびに実行される。このため、影等や他車両v1,v2等の立体物によって隠れ、駐車区画線が不検出となっても、この不検出の駐車区画線が、過去に検出されて追跡情報として登録されていれば、駐車区画線に追加され、駐車枠を適切に設定できる。
記憶部120は、ハードディスクドライブ等の大容量記憶媒体やROM、RAM等の半導体記憶媒体などの記憶媒体を有する。記憶部120には、制御部110における各種動作の際に用いられる各種データが一時的または非一時的に格納される。
また、前述したように、記憶部120には、駐車枠登録データ121、パラメータデータ122が非一時的に登録される。駐車枠登録データ121は、車両制御ECU40等で参照される。パラメータデータ122として、閾値、駐車区画線の基準長さ、駐車スペース幅及びその閾値等を登録できる。さらに、駐車区画線の幅、延びる方向の角度等、画像処理装置100が使用する様々なパラメータを登録できる。また、駐車支援装置1が使用される国、地域、駐車スペース(駐車枠)の形状や大きさ等に対応して、複数のパラメータを登録し、適切なパラメータを選択する構成とすることもできる。
また、記憶部120の一時記憶部123には、駐車区画線データ124、追跡情報データ125が一時的に登録される。前述したように、駐車区画線データ124には、駐車区画線のプラスエッジの線分とマイナスエッジの線分のそれぞれの始点と終点の位置(座標値)が、検出した駐車区画線ごとに登録される。追跡情報データ125には、追跡対象の線のプラスエッジの線分とマイナスエッジの線分のそれぞれの始点と終点の位置(座標値)と、線として検出された検知回数が、検出した追跡対象の線ごとに登録される。
(画像処理装置の動作)
次に、本実施の形態である画像処理装置100の動作の一例を図4A、図4Bのフローチャートを参照しながら説明する。
図4A、図4Bは画像処理装置100の動作を説明するためのフローチャートである。これらの図のフローチャートに示す動作は、運転者が図略の自動駐車開始スイッチを操作して自動駐車開始の指示入力を行うことにより開始する。
ステップS1では、画像処理装置100の制御部110が、カメラ20により撮像された車両V周囲の路面Rの画像信号を取得する。
ステップS2では、ステップS1により取得された画像信号に基づき、制御部110がこれら画像信号を合成した信号を生成する。ステップS2において合成して生成される信号は、あたかも車両Vの上方にカメラを設置して真下を見下ろしたような画像(図6等の「俯瞰画像G」参照。)をナビゲーション装置30のモニター31に表示させるための信号である。このような俯瞰画像を表示するための信号を生成する技術は公知であり、一例として、特開平3−99952号公報や特開2003−118522号公報に開示された技術が知られている。表示制御部119は、俯瞰画像Gをモニター31に表示させるための表示制御信号を、ナビゲーション装置30に送出する。これにより、運転手がモニター31で俯瞰画像Gを視認できる。
なお、ステップS2において、俯瞰画像Gを表示するための信号合成作業を行わず、あるいは、次のステップS3におけるプラスエッジとマイナスエッジの抽出の後にステップS2における信号合成作業を行うこともできる。しかしながら、信号合成作業を行ってからステップS3の処理を行うほうが、画像処理装置100の処理負担を低減できる。
ステップS3(エッジ検出工程)では、前述したように、線抽出部111がステップS2で合成した俯瞰画像Gを所定方向に走査し、画像信号に含まれる輝度に基づいて、画像中のプラスエッジ及びマイナスエッジを抽出する。
図6等に示す例では、線抽出部111は、俯瞰画像Gを、X軸正方向に向けて走査し、画像中のプラス(+)エッジ及びマイナス(−)エッジを検出していく。なお、X軸負方向に画素を走査した場合、プラスエッジとマイナスエッジは逆転する。また、線抽出部111は、画像信号に含まれる色のパラメータ(例えば、RGB、RGBA等)の情報に基づいてプラスエッジ、マイナスエッジを検出してもよい。この場合、所定の色の大きさ(階調)の変化に基づいてこれらを検出する。
また、線抽出部111は、検出したプラスエッジ及びマイナスエッジについて、前述したように基準長さに基づいてフィルタリングを行う。これにより、路面上での光の反射や、ゴミや汚れ等によるノイズとなる短いエッジが破棄される。このフィルタリングは、次のステップS4のペアの抽出の後に行うこともできるが、ペアの抽出の前に行ってノイズを除去することで、画像処理を高速化できる。
次のステップS4(線抽出工程)では、線抽出部111は、所定間隔かつ所定の角度で隣り合うプラスエッジの線分とマイナスエッジの線分を抽出し、線を構成するエッジのペアであると判定する。これに対して、ペアの見つからないエッジの線分はノイズとして破棄する。
次のステップS5(駐車区画線検出工程)で、駐車区画線検出部112が、ステップS4で検出された複数のエッジのペアに対して、駐車区画線を構成するエッジのペアであるか判定する。駐車区画線検出部112は、ペアと判定したプラスエッジの線分とマイナスエッジの線分のそれぞれの始点及び終点の位置(座標値)を、駐車区画線データ124として記憶部120の一時記憶部123に登録する。
次に、ステップS6〜S8の処理を順次実行するが、これらの処理は、ステップS5の処理を行った後に行うこともできるし、ステップS5の処理と並行に行うこともできる。
ステップS6(線の追跡判定工程)の詳細を、図4B(a)を参照しながら説明する。この図4B(a)に示すように、線の追跡判定工程では、追跡判定部113がステップS21〜S25の線の追跡判定のループ処理を実行する。このステップS21〜S25の処理は、ステップS4で抽出したすべての線に対して処理を行ったと判定したときに終了する。
ステップS21で、追跡判定部113は、処理対象の線を一つ選択し、ステップS22で、上記(1)で挙げた条件を満たしているか否かを判定する。条件を満たしている場合は、追跡判定部113は当該線を追跡対象と判定し(ステップS23の判定がYES)、ステップS24へと進む。条件を満たしていない場合は、追跡判定部113は当該線を追跡対象外と判定し(ステップS23の判定がNO)、ステップS24をスキップし、ステップS25へと進む。
ステップS24では、追跡判定部113は、追跡対象と判定した線の情報(プラスエッジの線分とマイナスエッジの線分のそれぞれの始点と終点の座標値)を、追跡情報データ125として記憶部120の一時記憶部123に登録する。その後、ステップS25へと進む。
ステップS25では、追跡判定部113は、次の処理すべき線があるか判定する。処理すべき線がある場合は、ステップS21へ戻り、次の線を選択して、ステップS22以降の処理を行う。処理すべき線がない場合は、ループを終了して、図4Aに戻り、ステップS7へと進む。
ステップS7(類似性、一致性判定工程)の詳細を、図4B(b)を参照しながら説明する。この図4B(b)に示すように、類似性、一致性の判定工程(比較工程)では、比較部114がステップS31〜S38の類似性、一致性判定のループ処理を実行する。このステップS31〜S38の処理は、ステップS6で抽出したすべての追跡対象の線に対して処理を行ったと判定したときに終了する。
ステップS31で、比較部114は、処理対象の追跡対象の線を一つ選択し、ステップS32(類似性判定工程)で、当該追跡対象の線が、上記(2)で挙げた類似性の条件を満たしているか否かを判定する。条件を満たしている場合は、比較部114は類似すると判定し(ステップS33の判定がYES)、ステップS34へと進む。条件を満たしていない場合は、比較部114は類似しないと判定し(ステップS33の判定がNO)、ステップS34〜ステップS37をスキップし、ステップS38へと進む。
ステップS34では、車両Vが移動しているか停車しているか判定すべく、比較部114は、車速>0km/hを満たすか否かを判定する。比較部114が車速>0km/hである(ステップS34の判定がYES)、つまり車両Vが移動していると判定したときは、プログラムはステップS35へと進む。比較部114が車速>0km/hでない(ステップS34の判定がNO)、つまり車両Vが停止していると判定したときは、一致性の判定を行わないように、ステップS35〜ステップS37をスキップし、ステップS38へと進む。
ステップS35(一致性の判定工程)では、比較部114は、当該線が、上記(2)で挙げた一致性の条件を満たしているか否かを判定する。条件を満たしている場合は、比較部114は一致すると判定し(ステップS36の判定がYES)、ステップS37へと進む。条件を満たしていな場合は、比較部114は一致しないと判定し(ステップS36の判定がNO)、ステップS37をスキップし、ステップS38へと進む。
ステップS37では、比較部114は、類似性があり、かつ一致性があると判定された追跡対象の線の検知回数をカウントアップして追跡情報データ125を更新し、ステップS38へと進む。
ステップS38では、比較部114は、次の処理すべき追跡対象の線があるか判定する。比較部114が処理すべき追跡対象の線があると判定した場合は、ステップS31へ戻り、次の追跡対象の線を選択して、ステップS32以降の処理を行う。比較部114が処理すべき追跡対象の線がないと判定した場合は、ループを終了して、図4Aに戻り、ステップS8へと進む。
ステップS8(追跡情報の追加判定工程)の詳細を、図4B(c)を参照しながら説明する。この図4B(c)に示すように、追跡情報の追加判定工程(駐車区画線判定工程)では、駐車区画線判定部115がステップS41〜S45の追跡情報の追加判定ループ処理を実行する。このステップS41〜S45の処理は、一時記憶部123に追跡情報データ125が登録されているすべての追跡対象の線に対して処理を行ったと判定したときに終了する。
ステップS41で、駐車区画線判定部115は、一時記憶部123から処理対象の一つの追跡対象の線の追跡情報データ125を取得し、ステップS42(追加判定工程)で、当該追跡対象の線を駐車区画線として追加対象か否かを判定する。具体的には、駐車区画線判定部115は、上記(3)で挙げた条件を満たしているか否かを判定し、条件を満たしている場合は当該線を追加対象と判定し(ステップS43の判定がYES)、ステップS44へと進む。条件を満たしていない場合は、駐車区画線判定部115は当該線を追加対象外と判定し(ステップS43の判定がNO)、駐車区画線として追加しないように、ステップS44をスキップし、ステップS45へと進む。
ステップS44では、駐車区画線判定部115は、追跡対象の線の追跡情報(プラスエッジの線分とマイナスエッジの線分のそれぞれの始点と終点の座標値)を、駐車区画線データ124として記憶部120に追加登録する。
ステップS45では、駐車区画線判定部115は、次の処理すべき追跡対象の線があるか判定する。駐車区画線判定部115が処理すべき追跡対象の線があると判定した場合は、ステップS41へ戻り、次の追跡対象の線を選択して、ステップS42以降の処理を行う。駐車区画線判定部115が処理すべ追跡対象の線がないと判定した場合は、ループを終了して、図4Aに戻り、ステップS9へと進む。
ステップS9(駐車枠設定工程)では、駐車枠設定部116が、一時記憶部123に登録されている駐車区画線データ124に基づいて、前述したような手順で駐車枠及び駐車スペースを検出する。一時記憶部123には、ステップS5で駐車区画線検出部112が検出して登録した駐車区画線データ124と、ステップS8で駐車区画線判定部115が追加登録した駐車区画線データ124が登録されている。よって、駐車枠設定部116は、本周期で検出された駐車区画線に加え、本周期では影等によって検出されなかったが、過去に検出された追跡対象の線から追加登録された駐車区画線に基づいて、駐車枠を適切に設定できる。駐車枠設定部116は、設定した駐車枠の情報(駐車枠の4つの端点の座標値)を、一時記憶部123等に一時的に記憶する。
次のステップS10(斜め駐車枠の判定工程)では、斜め駐車枠判定部118が、前述した手法により、ステップS9で設定した駐車枠が斜め駐車枠か否かを判定する。次いで、ステップS11へと進み、駐車枠設定部116は、ステップS9で設定した駐車枠(駐車スペース)の情報を、駐車枠登録データ121として記憶部120に登録する。具体的には、駐車枠設定部116は、駐車枠を構成する向かい合うプラスエッジの線分の端点とマイナスエッジの線分の端点の座標値を、駐車枠の始点又は終点の座標値として記憶部120に登録する。このとき、ステップS10で斜め駐車枠であると判定した場合には、駐車枠設定部116は、斜め駐車枠の情報(例えば、角度等)を駐車枠登録データ121に加えて登録する。また、複数の駐車枠のうち、一部のみ斜め駐車枠でないと判定された場合等には、斜め駐車枠として適切に検知されなかった可能性があるため、駐車枠設定部116は、当該駐車枠を登録しないようにする。
この他にも、自動駐車処理に必要な情報を駐車枠登録データ121に加えることもできる。また、表示制御部119は、駐車枠の画像を俯瞰画像Gに重畳して表示するための制御信号を、ナビゲーション装置30へ送出してもよい。これにより、運転手がモニター31で駐車枠を視認でき、駐車目標を適切に定めることができる。また、例えば、他車両等に隠れて運転手が直接に視認できない駐車枠も俯瞰画像G上に表示したり、駐車目標として設定したりすることが可能となり、駐車支援性能を向上できる。
以上の画像処理装置の動作を、図6〜図9を参照しながら、より具体的に説明する。まず、図6に示す検出タイミングでは、ステップS1、S2の処理により、カメラ20からの画像信号が合成された信号に基づき、モニター31に俯瞰画像Gが表示される。次のステップS3〜S5の処理を実行することで、プラスエッジの線分Ep1とマイナスエッジの線分Em1のペア(以下、単に「エッジEp1とEm1のペア」等という。)で構成される駐車区画線K1と、エッジEp3とEm3のペアで構成される駐車区画線K3とが検出される。これに対して、駐車区画線K2は、一部が他車両v1に隠れているため、駐車区画線として検出されない。
そして、ステップS6の処理により、駐車区画線K1と駐車区画線K3とが、追跡対象の線と判定され、追跡情報データ125として一時記憶部123に記憶される。ステップS7の類似性、一致性判定に進むが、駐車区画線K1と駐車区画線K3とは駐車区画線として検出され、追跡対象の線としても抽出されているため、類似性、一致性があると判定され、検知回数が1回にカウントアップされる。また、ステップS8の追跡情報の追加判定に進むが、駐車区画線K1と駐車区画線K3が本周期で検出されているため、追加対象外となり、駐車区画線として追加登録されない。このため、重複登録を回避できる。しかし、駐車区画線K2が検出されていないので、次のステップS9で駐車枠A1もA2も検出されず、ステップS10でも斜め駐車枠と判定されず、ステップS11で駐車枠の登録もされない。
車両Vの移動により、図7に示す俯瞰画像Gが取得された検出タイミングでは、エッジEp2とEm2のペアで構成される駐車区画線K2と、エッジEp3とEm3のペアで構成される駐車区画線K3が検出される。また、これらは、追跡対象の線と判定され、追跡情報データ125として一時記憶部123に記憶される。これに対して、他車両v1に隠れた駐車区画線K1は、駐車区画線として検出されず、追跡対象の線としても判定されない。ステップS7の類似性、一致性判定では、駐車区画線K2と駐車区画線K3と同じ追跡対象の線が類似性、一致性ありと判定され、検知回数がカウントアップされる(駐車区画線K2は1回、K3は2回)。駐車区画線K1については、本周期で検出されていないため、類似性、一致性がなく、検知回数はカウントアップされない(1回のまま)。
次のステップS8の追加判定において、駐車区画線K1が本周期では駐車区画線として未検出であり、かつ、検知回数が所定以上(1回)である。このため、駐車区画線K1に対応する追跡対象の線が、駐車区画線K1として、一時記憶部123に追加登録される。これに対して、駐車区画線K2,K3が本周期で駐車区画線として検出されているので、これらに対応する追跡対象の線は、登録対象外となる。よって、重複登録を回避できる。したがって、本周期で駐車区画線K1が未検出であっても、駐車区画線に追加され、ステップS9にて駐車区画線K1,K2,K3に基づいて、駐車枠A1,A2が設定される。
同様にして、図8に示す検出タイミングでは、エッジEp1とEm1、Ep2とEm2、Ep3とEm3の各ペアで構成される駐車区画線K1,K2,K3が駐車区画線として検出され、かつ追跡対象の線と判定される。これに対して、駐車区画線K4は、他車両v2に隠れているため、駐車区画線として検出されず、追跡対象の線と判定されない。また、駐車区画線K1と駐車区画線K2の検知回数は2回にカウントアップされ、駐車区画線K3の検知回数は3回にカウントアップされる。また、本周期で駐車区画線K1,K2,K3が検出されているため、駐車区画線として追加登録されない。したがって、駐車区画線K1,K2,K3に基づいて、駐車枠A1,A2が設定される。
更に車両Vが移動し、図9に示す検出タイミングでは、エッジEp2とEm2、Ep4とEm4、Ep5とEm5の各ペアで構成される駐車区画線K2,K4,K5が駐車区画線として検出されて、かつ追跡対象の線と判定される。これに対して、駐車区画線K3は、他車両v2に隠れ、駐車区画線として検出されず、追跡対象の線とも判定されない。駐車区画線K1,K3は、本周期で未検出であるので、類似性、一致性がなく、検知回数はカウントアップされない。次の追加判定では、駐車区画線K1,K3は本周期で未検出であり、かつ、検知回数が所定以上であるため、駐車区画線として追加登録される。一方、駐車区画線K2,K4,K5は、駐車区画線としても検出され、追跡対象の線と判定されるため、類似性、一致性があるとして、検知回数がカウントアップされるが、本周期で駐車区画線として検出されているため、追加対象外となる。よって、駐車区画線K2,K3,K4,K5に基づいて、駐車枠A2,A3,A4が設定される。なお、駐車区画線K1は、俯瞰画像G上から消えているが、駐車区画線として追加登録されているので、プログラム上は、駐車区画線K1とK2の間にも駐車枠A1が設定される。
(画像処理装置の効果)
以上のように構成された本実施の形態である画像処理装置100では、線抽出部111が所定タイミングで車両Vの周囲を撮像するカメラ20から出力される画像信号に基づく俯瞰画像Gから線を抽出する。駐車区画線検出部112は、線抽出部111が抽出した線に基づいて駐車区画線Kを検出する。追跡判定部113は、線抽出部111で抽出された線について、所定条件を備えているか否かを判定する。比較部114は、追跡判定部113で所定条件を備えていると判定された線と、過去の所定タイミングで撮像された画像信号に基づく俯瞰画像Gから線抽出部111を用いて抽出された線との類似度及び一致度を比較する。駐車区画線判定部115は、比較部114での比較の結果、類似度及び一致度が所定値以上となる線を、駐車区画線と判定する。駐車枠設定部116は、駐車区画線判定部115で駐車区画線と判定された線を用いて駐車枠を設定する。
したがって、影、光の反射、駐車中の他車両、障害物の存在等の影響により、検出タイミングによって対となる駐車区画線の不検出や誤検出があり、駐車枠を構成する駐車区画線Kと判定されない線があっても、この線を追跡対象の線として記憶部120に記憶し続けて追跡(トラッキング)することで、当該追跡対象の線を利用して、従来は検出できなかった駐車枠を、適切に検出できる。この結果、駐車区画線K及び駐車枠の検出を高精度に行うことが可能な画像処理装置100及び画像処理方法を提供できる。
また、この画像処理装置100又は画像処理方法を備えることで、駐車枠の検出を高精度に行うことが可能な駐車支援装置、駐車支援方法を提供できる。
また、本実施の形態では、車両Vの車速を取得する車速取得部117、を備えている。車速取得部117が取得した車速が所定値以下の場合、比較部114は一致度の判定を行わない。これにより、追跡情報に関する判定をより高精度、かつより高速に行える。この結果、駐車区画線及び駐車枠の検出を、より高精度かつより高速に行える。
また、本実施の形態では、駐車枠設定部116が設定した駐車枠が、斜め駐車枠であるか否かを判定する斜め駐車枠判定部118、を備えている。これにより、斜め駐車枠を検出して、斜め駐車枠への駐車支援をより円滑に行える。また、本実施の形態では、線を追跡することで、影や障害物等によって隠れた駐車区画線を検出でき、駐車区画線及び駐車枠の検出を高精度に行えるため、斜め駐車枠判定部118が斜め駐車枠の判定をする際に使用する情報量が増える。よって、斜め駐車枠の判定精度を向上できる。
また、本実施の形態では、駐車枠設定部116で設定された駐車枠を示す駐車枠画像を、俯瞰画像Gに重畳して表示するようにモニター31を制御する表示制御部119、を備えている。これにより、運転手がモニター31で駐車枠を視認することができ、より円滑な駐車支援が可能となる。
また、本実施の形態では、線抽出部111は、俯瞰画像Gを所定方向に走査し、画像信号に含まれる輝度又は色のパラメータが閾値よりも大きく変化する画素を検出し、検出した前記画素の並びが所定以上の長さとなっている部分をエッジとして検出し、エッジに基づいて前記線を抽出する。これにより、駐車区画線や、追跡対象の線を、より高精度に検出できる。
以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。
例えば、上述の実施の形態である画像処理装置100では、画像の輝度や色のパラメータ(例えば、RGB、RGBA等)の情報の変化の大きさ及び変化の方向(プラス方向又はマイナス方向)に基づいてエッジを検出しているが、これらに限定されることはなく、画像信号に含まれる他の情報の変化の大きさ及び変化の方向に基づいてエッジを検出してもよい。
また、上述の実施形態である画像処理装置100では、駐車場Pに斜め駐車枠が設けられている場合を想定しているが、駐車枠が斜め駐車枠に限定されることはない。パラメータデータ122の駐車区画線の角度、駐車枠の幅等を適宜変更することで、車両Vに対して略垂直に延びる並列駐車枠、車両Vに対して略平行に延びる縦列駐車枠にも適用でき、これらの駐車枠が影等によって隠れた場合にも、不検出や誤検出を抑制して、駐車枠を高精度に検出可能となる。
20 カメラ(撮像装置) 20a 前方カメラ(撮像装置)
20b 後方カメラ(撮像装置) 20c 左側方カメラ(撮像装置)
20d 右側方カメラ(撮像装置) 31 モニター(表示部)
100 画像処理装置 111 線抽出部
112 駐車区画線検出部 113 追跡判定部
114 比較部 115 駐車区画線判定部
116 駐車枠設定部 117 車速取得部
118 斜め駐車枠判定部 119 表示制御部
K 駐車区画線 G 俯瞰画像(画像)
V 車両

Claims (6)

  1. 所定タイミングで車両の周囲を撮像する撮像装置から出力される画像信号に基づく画像から線を抽出する線抽出部と、
    前記線抽出部で抽出された前記線について、所定条件を備えているか否かを判定する追跡判定部と、
    前記追跡判定部で所定条件を備えていると判定された前記線と、過去の所定タイミングで撮像された画像信号に基づく画像から前記線抽出部を用いて抽出された線との類似度及び一致度を比較する比較部と、
    前記比較部での比較の結果、前記類似度及び前記一致度が所定値以上となる前記線を、駐車区画線と判定する駐車区画線判定部と、
    前記駐車区画線判定部で駐車区画線と判定された線を用いて駐車枠を設定する駐車枠設定部と、
    を備えたことを特徴とする画像処理装置。
  2. 前記車両の車速を取得する車速取得部、を備え、前記車速取得部が取得した前記車速が所定値以下の場合、前記比較部は一致度の判定を行わないことを特徴とする請求項1に記載の画像処理装置。
  3. 前記駐車枠設定部が設定した前記駐車枠が、斜め駐車枠であるか否かを判定する斜め駐車枠判定部、を備えたことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記駐車枠設定部で設定された前記駐車枠を示す駐車枠画像を、前記画像に重畳して表示するように表示部を制御する表示制御部、を備えたことを特徴とする請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 前記線抽出部は、前記画像を所定方向に走査し、前記画像信号に含まれる輝度又は色のパラメータが閾値よりも大きく変化する画素を検出し、検出した前記画素の並びが所定以上の長さとなっている部分をエッジとして検出し、前記エッジに基づいて前記線を抽出することを特徴とする請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 所定タイミングで車両の周囲を撮像する撮像装置から出力される画像信号に基づく画像から線を抽出する線抽出工程、
    前記線抽出工程で抽出された前記線について、所定条件を備えているか否かを判定する追跡判定工程と、
    前記追跡判定工程で所定条件を備えていると判定された前記線と、過去の所定タイミングで撮像された画像信号に基づく画像から前記線抽出工程を用いて抽出された線との類似度及び一致度を比較する比較工程と、
    前記比較工程での比較の結果、前記類似度及び前記一致度が所定値以上となる前記線を、駐車区画線と判定する駐車区画線判定工程と、
    前記駐車区画線判定工程で駐車区画線と判定された前記線を用いて駐車枠を設定する駐車枠設定工程と、
    を含むことを特徴とする画像処理方法。
JP2021011584A 2020-02-27 2021-01-28 画像処理装置及び画像処理方法 Active JP7482054B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020031993 2020-02-27
JP2020031993 2020-02-27

Publications (2)

Publication Number Publication Date
JP2021136687A true JP2021136687A (ja) 2021-09-13
JP7482054B2 JP7482054B2 (ja) 2024-05-13

Family

ID=74844717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021011584A Active JP7482054B2 (ja) 2020-02-27 2021-01-28 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US11657624B2 (ja)
EP (1) EP3872697B1 (ja)
JP (1) JP7482054B2 (ja)
CN (1) CN113313935B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054520A1 (ja) * 2021-09-29 2023-04-06 株式会社アイシン 出庫支援システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019211618A1 (de) * 2019-08-02 2021-02-04 Hyundai Motor Company Verfahren und Sitzsteuerungssystem zur automatischen lateralen Umpositionierung eines Kindersitzes auf einem Rücksitz eines Kraftfahrzeugs
US20230031425A1 (en) * 2021-08-02 2023-02-02 DUS Operating Inc, Methodology to estimate slot line direction for parking slot detection

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399952A (ja) 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JP3943363B2 (ja) 2001-10-18 2007-07-11 クラリオン株式会社 駐車支援装置
DE10216346A1 (de) * 2002-04-13 2003-10-23 Valeo Schalter & Sensoren Gmbh Einparkhilfesystem für Fahrzeuge und Verfahren
JP3977368B2 (ja) * 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
KR100974704B1 (ko) * 2007-04-30 2010-08-06 현대자동차주식회사 자동차의 주차 안내 방법
JP5182545B2 (ja) * 2007-05-16 2013-04-17 アイシン精機株式会社 駐車支援装置
KR101947826B1 (ko) * 2012-04-10 2019-02-13 현대자동차주식회사 차량의 주차구획 인식방법
JP5829980B2 (ja) * 2012-06-19 2015-12-09 トヨタ自動車株式会社 路側物検出装置
JP6045888B2 (ja) 2012-11-27 2016-12-14 クラリオン株式会社 車載画像処理装置
JP5921715B2 (ja) 2012-11-27 2016-05-24 クラリオン株式会社 車載画像処理装置
US9378425B2 (en) 2012-11-27 2016-06-28 Clarion Co., Ltd. On-vehicle image processing device
JP5981322B2 (ja) 2012-11-27 2016-08-31 クラリオン株式会社 車載画像処理装置
WO2014083827A1 (ja) 2012-11-27 2014-06-05 日産自動車株式会社 車両用加速抑制装置
KR101449295B1 (ko) 2013-06-04 2014-10-13 현대자동차주식회사 주차구획 추적 장치 및 방법
JP2016016681A (ja) 2014-07-04 2016-02-01 クラリオン株式会社 駐車枠認識装置
JP6248836B2 (ja) 2014-07-10 2017-12-20 株式会社デンソー 運転支援装置
CN105160322B (zh) * 2015-09-07 2018-07-24 北京航空航天大学 基于航拍图像的室外停车场空置停车位识别方法
JP6768275B2 (ja) 2015-09-11 2020-10-14 クラリオン株式会社 車両用駐車区画認識装置
CN106897655A (zh) 2015-12-18 2017-06-27 富士通株式会社 停车位的检测装置、方法以及图像处理设备
CN106373426B (zh) * 2016-09-29 2019-02-12 成都通甲优博科技有限责任公司 基于计算机视觉的停车位及违规占道停车监控方法
JP6677141B2 (ja) * 2016-11-10 2020-04-08 株式会社デンソー 駐車枠認識装置
JP6852556B2 (ja) 2017-05-16 2021-03-31 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像表示システム、俯瞰映像生成方法およびプログラム
JP2019137182A (ja) 2018-02-08 2019-08-22 株式会社デンソー 検出装置
JP6923746B2 (ja) * 2018-03-30 2021-08-25 日立Astemo株式会社 駐車支援装置
CN109544979A (zh) * 2018-12-28 2019-03-29 北汽福田汽车股份有限公司 停车场及其停车位管理方法与装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054520A1 (ja) * 2021-09-29 2023-04-06 株式会社アイシン 出庫支援システム

Also Published As

Publication number Publication date
US11657624B2 (en) 2023-05-23
EP3872697A1 (en) 2021-09-01
CN113313935A (zh) 2021-08-27
EP3872697B1 (en) 2023-08-30
JP7482054B2 (ja) 2024-05-13
US20210271903A1 (en) 2021-09-02
CN113313935B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
JP2021136687A (ja) 画像処理装置及び画像処理方法
JP7229804B2 (ja) 画像処理装置及び画像処理方法
JP6897258B2 (ja) 傾斜検出装置
JP5421072B2 (ja) 接近物体検知システム
CN111674389B (zh) 停车支援装置及停车支援方法
JP7296768B2 (ja) 画像処理装置及び画像処理方法
CN113212352B (zh) 图像处理装置以及图像处理方法
US20210402987A1 (en) Image processor and image processing method
US11967158B2 (en) Image processor and image processing method
JP6496619B2 (ja) 車両用駐車支援装置
JP7466324B2 (ja) 画像処理装置及び画像処理方法
JP7446851B2 (ja) 画像処理装置及び画像処理方法
JP7453008B2 (ja) 画像処理装置及び画像処理方法
JP7446830B2 (ja) 画像処理装置及び画像処理方法
JP2611325B2 (ja) 車両用道路認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7482054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150