JP2021103101A - Object detector - Google Patents
Object detector Download PDFInfo
- Publication number
- JP2021103101A JP2021103101A JP2019233828A JP2019233828A JP2021103101A JP 2021103101 A JP2021103101 A JP 2021103101A JP 2019233828 A JP2019233828 A JP 2019233828A JP 2019233828 A JP2019233828 A JP 2019233828A JP 2021103101 A JP2021103101 A JP 2021103101A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- light
- pixel
- light receiving
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims abstract description 29
- 238000001514 detection method Methods 0.000 claims description 75
- 238000000034 method Methods 0.000 description 28
- 238000004590 computer program Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、物体検出装置に関する。 The present disclosure relates to an object detection device.
近年、車両の衝突回避や運転支援のため、車両に撮像カメラ、ミリ波レーダ、レーザレーダ(LiDAR:Light Detection and Rangingとも呼ばれる)等のセンサが搭載され、かかるセンサの検出結果に基づき、車両制御、例えば、駆動力制御、操舵制御、制動制御等を行う技術が提案されている。特許文献1には、レーダによる自車前方の探査と、カメラによる自車前方の撮影とのセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する技術が開示されている。 In recent years, sensors such as image pickup cameras, millimeter-wave radars, and laser radars (also called LiDAR: Light Detection and Ranging) have been installed in vehicles to avoid vehicle collisions and drive assistance, and vehicle control is based on the detection results of these sensors. For example, techniques for performing driving force control, steering control, braking control, and the like have been proposed. Patent Document 1 discloses a technique of recognizing an obstacle such as a preceding vehicle in front of the own vehicle by a sensor fusion recognition process of exploration in front of the own vehicle by a radar and photographing of the front of the own vehicle by a camera. ..
上記のようにレーダ等のセンサにより物体を高精度に検出すためには、センサの分解能が高く、センサによって取得されるデータの表す画像の解像度が高いことが好ましい。しかしながら、分解能が高く高解像度であるほど取得されるデータ量は多くなり、取得されるデータの処理に要する時間が長くなる。一方、センサの分解能が低く、取得される画像の解像度が低ければ、取得されるデータ量は少なくなり、取得されるデータの処理に要する時間は短くなる。しかしながら、この場合には、高精度な物体の検出が困難となり、例えば、近接する複数の異なる物体を識別することができず、複数の異なる物体を1つの物体と認識してしまう場合がある。このため、高精度な物体の検出を可能とするとともに、物体の検出のための処理時間の向上を可能とする技術が望まれている。 In order to detect an object with high accuracy by a sensor such as a radar as described above, it is preferable that the resolution of the sensor is high and the resolution of the image represented by the data acquired by the sensor is high. However, the higher the resolution and the higher the resolution, the larger the amount of data to be acquired, and the longer the time required to process the acquired data. On the other hand, if the resolution of the sensor is low and the resolution of the acquired image is low, the amount of data to be acquired is small and the time required to process the acquired data is short. However, in this case, it becomes difficult to detect an object with high accuracy, and for example, a plurality of different objects in close proximity cannot be identified, and a plurality of different objects may be recognized as one object. Therefore, there is a demand for a technique capable of detecting an object with high accuracy and improving the processing time for detecting the object.
本開示は、以下の形態として実現することが可能である。 The present disclosure can be realized in the following forms.
本開示の一形態として、車両に搭載される物体検出装置(50)が提供される。この物体検出装置は、測定範囲に対して照射光を照射する発光部(110)と、前記測定範囲からの反射光を含む入射光を受光可能な複数の受光要素(124)を有し、予め設定された前記受光要素の集まりを一画素として、各画素に含まれる前記受光要素の受光状態に応じた受光値を各画素の画素値として出力する受光部(120)と、前記各画素の画素値で表される画像から、前記測定範囲内に存在する物体を識別する識別部(230)と、シーンに関する情報を取得し、取得した前記情報に従って前記シーンを判定するシーン判定部(240)と、前記シーンの判定結果に応じて、前記受光部における前記一画素を構成する前記受光要素の集まりの数を決定し、前記各画素の分解能を決定する解像度決定部(250)と、を備える。 As one form of the present disclosure, an object detection device (50) mounted on a vehicle is provided. This object detection device has a light emitting unit (110) that irradiates the measurement range with irradiation light, and a plurality of light receiving elements (124) capable of receiving incident light including reflected light from the measurement range, and has a plurality of light receiving elements (124) in advance. A light receiving unit (120) that outputs a set light receiving element as one pixel and outputs a light receiving value corresponding to the light receiving state of the light receiving element included in each pixel as a pixel value of each pixel, and a pixel of each pixel. An identification unit (230) that identifies an object existing in the measurement range from an image represented by a value, and a scene determination unit (240) that acquires information about the scene and determines the scene according to the acquired information. A resolution determining unit (250) is provided, which determines the number of groups of the light receiving elements constituting the one pixel in the light receiving unit according to the determination result of the scene, and determines the resolution of each pixel.
上記形態の物体検出装置によれば、例えば、高分解能とすべききシーンでは各画素の分解能を高くして高精度な物体の検出を可能とするとともに、高分解能とすべきシーンでなければ各画素の分解能を低くして物体の検出のための処理時間の向上を図ることが可能である。 According to the object detection device of the above-described embodiment, for example, in a scene that should have high resolution, the resolution of each pixel is increased to enable highly accurate detection of an object, and if it is not a scene that should have high resolution, each pixel. It is possible to reduce the resolution of the object and improve the processing time for detecting the object.
本開示は、物体検出装置以外の種々の形態で実現することも可能である。例えば、物体検出装置を備える車両、物体検出方法、これらの装置および方法を実現するためのコンピュータプログラム、かかるコンピュータプログラムを記憶した記憶媒体等の形態で実現することができる。 The present disclosure can also be realized in various forms other than the object detection device. For example, it can be realized in the form of a vehicle provided with an object detection device, an object detection method, a computer program for realizing these devices and methods, a storage medium for storing the computer program, and the like.
A.第1実施形態:
A1.装置構成:
図1に示すように、本実施形態の物体検出装置50は、車両500に搭載され、車両500の設定した範囲に存在する物体、例えば、他の車両や歩行者や建物等を検出する。検出結果は、例えば、車両500の駆動力制御、制動制御、操舵制御等の運転制御に利用される。
A. First Embodiment:
A1. Device configuration:
As shown in FIG. 1, the
物体検出装置50は、照射光Lzを照射して、対象物からの反射光を受光する。図1では、照射光Lzの射出中心位置を原点とし、車両500の前方方向をY軸とし、原点を通り車両500の幅方向左から右の方向をX軸とし、原点を通り鉛直上方をZ軸として表わしている。図1に示すように、照射光Lzは、Z軸方向に縦長の光であり、1回の照射により、縦長の所定範囲Arに照射される。また、照射光Lzは、X−Y平面と平行な方向の一次元走査により所定の測定範囲MR全体に照射される。物体検出装置50は、対象物からの照射光Lzの反射光に加えて、反射光以外の光、例えば、日光、街灯の光、他車両の前照灯など(以下、「背景光」と呼ぶ)を受光する。
The
物体検出装置50は、受光した光から背景光を除いた光を対象物からの反射光として特定し、照射光Lzを照射してから反射光を受光するまでの時間、すなわち、光の飛行時間TOF(Time of Flight)を特定する。物体検出装置50は、かかる飛行時間TOFを、車両500と対象物との間を光が往復する時間であるものとして、対象物までの距離を算出する。従って、物体検出装置50は、照射光Lzの反射光の受光強度(「受光値」とも呼ぶ)を各画素の画素値とする反射強度画像と、背景光の受光強度を各画素の画素値とする背景光画像と、物体までの距離を表す距離画像と、を取得し、これら3つの画像を利用して物体を検出する。
The
図2に示すように、物体検出装置50は、センサ装置10と、処理装置20と、を備える。センサ装置10は、後述するように、照射光Lzを照射し、照射光Lzの反射光を含む入射光の受光値を画素ごとに取得して、画素ごとの画素値として出力する。処理装置20は、後述するように、センサ装置10を制御して、センサ装置10から出力される各画素の画素値を取得し、取得した各画素の画素値を利用して物体を検出する。センサ装置10は、例えば、車両に搭載されるLiDARである。
As shown in FIG. 2, the
センサ装置10は、照射光Lzを照射する発光部110と、照射光Lzの反射光を含む入射光の受光強度を画素ごとに取得して、画素ごとの画素値として出力する受光部120と、照射光Lzを所定の測定範囲MR内で走査させる走査部130と、を備える。
The
発光部110は、発光素子111及び発光制御部112を備える。発光素子111は、半導体レーザダイオードにより構成されており、発光制御部112の制御に従って、パルス状のレーザ光を照射光Lzとして所定周期ごとに射出する。例えば、所定周期は、照射光Lzが照射されて測定範囲MR内の対象物OBからの反射光がセンサ装置10において受光されるまでに要する期間以上の期間として予め実験等により求めて設定されている。なお、発光素子111から射出された照射光Lzは、図示しない光学系により図1に示すような縦長の照射光Lzに形成される。発光制御部112は、処理装置20の制御に従って、上述したように発光素子111を駆動する。発光素子111は1つでも複数であっても良い。なお、発光素子111として、半導体レーザダイオードに代えて、固体レーザ等の他の任意の種類のレーザ発光素子を用いても良い。
The
走査部130は、いわゆる一次元スキャナによって構成される。走査部130は、発光部110から射出された照射光Lzを反射するミラー131と、ミラー131の中心軸に沿って固定された回転軸132と、回転軸132を回転駆動するアクチュエータ133と、アクチュエータ133を制御するアクチュエータ制御部134と、を備える。アクチュエータ133は、例えば、ロータリソレノイドであり、アクチュエータ制御部134の制御に従って、予め定められた角度範囲(以下、「画角範囲」とも呼ぶ)内で正転および反転を繰り返す。この結果、走査部130は、回転軸132を中心にミラー131を回動させることによって、照射光Lzの一次元走査を、測定範囲MR(図1参照)の水平方向の一方端から他方端までの全体に亘って行なうことができる。測定範囲MRは、照射光Lzの走査範囲に相当する。なお、アクチュエータ133は、ロータリソレノイドに限定されるものではなく、ブラシレスモータを始めとする種々の電動モータを用いても良い。また、所定の画角範囲内で正転および反転を繰り返すことに限定されず、同一方向に回転し続ける回転型であり、その一定範囲で受発光するものであっても良い。
The
走査部130によって照射光Lzの一次元走査が行われることにより、発光部110は、車両500前方の測定範囲MR(図1参照)に対して、照射光Lzを照射する方位を変更しながら照射光Lzを照射する。なお、照射光Lzは、横長でも良く、走査は二次元走査でも良い。また、走査部130を省略して、発光部110から測定範囲MR内の全体に亘って照射光を照射するとともに、受光部120で測定範囲MR内の全体に亘る反射光を含む光を受光するようにしても良い。
By performing one-dimensional scanning of the irradiation light Lz by the
発光部110により照射された照射光Lzは、測定範囲MR内の対象物OBにより反射される。対象物OBにより反射された反射光及び背景光を含む光は、走査部130のミラー131に戻り、受光部120の受光素子121により受光される。
The irradiation light Lz emitted by the
受光部120は、受光素子121及び受光制御部122を備える。受光素子121は、図3に示すように、受光面123に複数の受光要素124が面状に二次元配列された受光素子アレイである。受光要素124は、例えば、シングルフォトンアバランシェダイオード(SPAD:Single Photon Avalanche Diode)により構成される。但し、受光要素124としては、PINフォトダイオードやAPD等の他の種類の受光素子により構成されていてもよい。
The
受光制御部122は、受光面123(図3参照)に配列された複数の受光要素124を、水平方向の数H及び垂直方向の数Vの受光要素124の集まりを一画素として、二次元配列された複数の画素Psに区分し、各画素Psに含まれる[H×V]個の受光要素124の受光結果を、それぞれ、各画素Psの画素値として出力する。H及びVはそれぞれ1以上の整数である。1つの画素Psを構成する受光要素124の数[H×V]を、「画素サイズ」とも呼ぶ。この画素サイズが小さいほど、受光部120で取得される照射光Lzの反射光を含む光を検出する画素の分解能は大きく、取得される画像の解像度は大きくなる。
The light
1つの画素Psの画素サイズ、すなわち、受光要素124の数[H×V]は、受光制御部122によって変えることができる。受光制御部122は、処理装置20からの制御に従って設定された画素サイズ、すなわち、分解能で、各画素Psに含まれる[H×V]個の受光要素124の受光値を、それぞれ、各画素Psの画素値として処理装置20へ出力する。なお、図3の一点鎖線枠で示す画素Ps_tは、H=V=8の画素サイズに設定された低分解能な画素の一例を示し、図3の破線枠で示す画素Ps_hは、H=V=4の画素サイズに設定された高分解能な画素の一例を示している。なお、低分解能画素Ps_t及び高分解能画素Ps_hの画素サイズは一例であって、これに限定されるものではなく、任意の値に設定が可能である。
The pixel size of one pixel Ps, that is, the number of light receiving elements 124 [H × V] can be changed by the light receiving
処理装置20(図2参照)は、例えば、マイクロコンピュータで構成され、CPUが予め用意されたプログラムを実行することで、物体の検出に必要な各種処理を実行する。処理装置20は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)、CPLD(Complex Programmable Logic Device)等の集積回路にCPUやメモリを備える態様であってもよい。処理装置20は、センサ装置10の制御を含む物体検出装置50全体の制御を行なう制御部210の他、測距部220、識別部230、シーン判定部240、解像度決定部250を備える。
The processing device 20 (see FIG. 2) is composed of, for example, a microcomputer, and the CPU executes a program prepared in advance to execute various processes necessary for detecting an object. The
測距部220は、受光部120から出力される各画素の画素値から、背景光画像、反射強度画像、及び距離画像を取得する。背景光画像、距離画像及び反射強度画像は、発光部110が1回の走査を行う周期ごとに取得される。この走査が行われる周期はフレーム期間とも呼ばれ、取得された距離画像、背景光画像及び反射強度画像は、距離のフレーム画像、背景光のフレーム画像及び反射強度のフレーム画像とも呼ばれる。
The ranging
背景光画像とは、背景光の受光強度を示す画像を意味する。背景光画像は、対象物OBから反射光を受けると推定される方位に対応する画素を除くその他の画素の画素値に基づいて取得される画像である。距離画像とは、受光面123の各画素について算出された対象物OBまでの距離を画素値として示す画像を意味する。距離画像は、各画素について、照射光を照射してから反射光を受光するまでの時間、すなわち、光の飛行時間TOFから、対象物OBまでの距離を算出し、算出した距離を画素値として示す画像である。反射強度画像とは、照射光Lzを照射した領域、すなわち、図1に示す所定範囲Arから受光した光の各画素における強度(以下、「反射強度」と呼ぶ)を画素値とする画像を意味する。反射強度画像は、受光部120から出力される各画素の画素値から、対応する背景光の値を除去した画素値で構成されても良い。
The background light image means an image showing the light receiving intensity of the background light. The background light image is an image acquired based on the pixel values of the other pixels excluding the pixels corresponding to the orientation estimated to receive the reflected light from the object OB. The distance image means an image showing the distance to the object OB calculated for each pixel of the
識別部230は、反射強度画像及び距離画像から、測定範囲MR内に存在する、他の車両や歩行者や建物等の物体を識別する。シーン判定部240は、識別部230による識別結果から測定範囲MRにおけるシーンを判別する。解像度決定部250は、シーンの判別結果に従って、1フレーム期間で取得するフレーム画像の一画素の分解能、すなわち、フレーム画像の解像度を決定する。なお、シーン判定部240によるシーンの判別及び解像度決定部250による分解能の決定については、後述する。
The
A2.物体検出処理:
車両500(図1参照)の起動スイッチがオンとなると、物体検出装置50において図4に示す物体検出処理が繰り返し実行される。なお、車両500において、物体検出処理の開始および終了のユーザによる指示を受け付けるインターフェイス、例えば、物理的なボタンやモニタに表示されるメニュー画面を、インストルメントパネルに予め設けて置き、ボタンやメニュー画面の操作により処理開始指示を受け付けた場合に、物体検出処理が開始されてもよい。物体検出処理に含まれる後述のステップS110〜S180は、フレーム期間ごとに繰り返し実行される。
A2. Object detection processing:
When the start switch of the vehicle 500 (see FIG. 1) is turned on, the
図4に示すように、制御部210(図2参照)は、発光部110を制御して、発光素子111の発光、すなわち、照射光Lzの照射を行ない(ステップS110)、受光部120を制御して、受光素子121の受光、すなわち、設定された分解能の各画素で受光を行ない、受光制御部122から各画素の受光値を各画素の画素値として取得する(ステップS120)。そして、制御部210は、測距部220により、測距処理を行い(ステップS130)、設定された分解能の背景光、距離及び反射強度のフレーム画像を取得する(ステップS140)。なお、以下では、背景光、距離及び反射強度のフレーム画像を単に「フレーム画像」とも呼ぶ。そして、制御部210は、識別部230により、測距部220で取得したフレーム画像から、測定範囲MR内に存在する、他の車両や歩行者や建物等の対象物OBを識別する(ステップS150)。また、制御部210は、シーン判定部240により、測距部220で取得したフレーム画像のシーン判定を行い(ステップS160)、解像度決定部250により、シーンの判別結果に従って、以降の1フレーム期間で取得するフレーム画像の一画素の分解能、すなわち、フレーム画像の解像度を決定する(ステップS170)。そして、制御部210は、決定した解像度に対応するように、1フレーム期間における発光部110の発光制御条件及び受光部120の受光制御条件を設定し(ステップS180)、一端処理を終了する。
As shown in FIG. 4, the control unit 210 (see FIG. 2) controls the
A3.シーン判定:
上記したシーン判定部240によるシーン判定では、具体的には、予め設定されたシーンに該当するか可能性があるか否かの判定が行なわれる。そして、予め設定されたシーンに該当しないと判定した場合には、取得するフレーム画像の一画素の分解能を、例えば、図3に示した低分解能画素Ps_tのような低分解能とする。一方、予め設定されたシーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の分解能を、例えば、図3に示した高分解能画素Ps_hのような高分解能とする。あらかじめ設定されたシーンとしては、以下に示す第1〜第3シーンが例示される。
A3. Scene judgment:
In the scene determination by the
(1)第1シーン
第1シーンは例えば以下の場合が考えられる。
(1a)自車の進行方向に、一定以上の高さを持つ物体が存在した場合(図5の領域1a参照)
(1b)自車の進行方向に、路面から連続する一定以上の高さを持つ物体が存在した場合(図5の領域1b参照)
(1) First scene For example, the following cases can be considered as the first scene.
(1a) When an object having a certain height or higher exists in the traveling direction of the own vehicle (see
(1b) When an object having a height above a certain level continuous from the road surface exists in the traveling direction of the own vehicle (see
上空の物体、例えば、看板やトンネル、高架、歩道橋等が存在する場合、これらの下の空間や、その空間を通過する車両を正しく識別するために、上空の物体が存在しそうな領域を検出し、その領域から少なくとも縦方向が高分解能なフレーム画像を取得することが望ましい。そこで、上記の第1シーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とすることが望ましい。 When there are objects in the sky, such as signs, tunnels, elevated structures, pedestrian bridges, etc., in order to correctly identify the space under them and the vehicles passing through that space, the area where the objects in the sky are likely to exist is detected. , It is desirable to acquire a frame image with high resolution at least in the vertical direction from that area. Therefore, when it is determined that there is a possibility that the first scene is applicable, it is desirable to set at least the resolution in the vertical direction of one pixel of the acquired frame image to be high resolution.
第1シーンに該当する可能性の判定は、例えば、以下のように実行することができる。取得した低解像度のフレーム画像(以下、「低解像度画像」とも呼ぶ)を構成する複数の低解像度画素(以下、「低解像度画素群」とも呼ぶ)に含まれる物体の存在を示す低解像度画素のうち、路面からの高さHi(iは画素の位置を示す番号である)があらかじめ定めた高さ閾値Hth以上である低解像度画素の数Nを求める。そして、求めた数Nが予め定めた一定の画素数閾値Nth以上であった場合に、第1シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。なお、高さ閾値Hthとしては、道路法等の法規で定められる種々の高さ制限に基づいて設定すれば良い。画素数閾値Nthとしては、上空の物体の存在を想定し得る数に設定すれば良い。 The determination of the possibility of falling under the first scene can be executed, for example, as follows. A low-resolution pixel indicating the presence of an object included in a plurality of low-resolution pixels (hereinafter, also referred to as "low-resolution pixel group") constituting the acquired low-resolution frame image (hereinafter, also referred to as "low-resolution image"). Among them, the number N of low-resolution pixels whose height Hi from the road surface (i is a number indicating the position of the pixel) is equal to or higher than the predetermined height threshold Hth is obtained. Then, when the obtained number N is equal to or higher than a predetermined fixed number of pixels threshold value Nth, it is determined that there is a possibility of corresponding to the first scene, and the resolution of at least one pixel of the acquired frame image in the vertical direction is determined. Is a high resolution. The height threshold value Hth may be set based on various height restrictions defined by laws and regulations such as the Road Act. The number of pixels threshold Nth may be set to a number that can assume the existence of an object in the sky.
なお、上記説明では、取得するフレーム画像の全体を高分解能化するものとして説明したが、高さ閾値Hthの上下方向の周辺の領域のみ、すなわち、一定以上の高さを持つ物体が存在する領域、あるいは、路面から連続する一定以上の高さを持つ物体が存在する領域およびその周辺領域のみを高分解能化するようにしてもよい。 In the above description, the resolution of the entire frame image to be acquired has been increased, but only the area around the height threshold Hth in the vertical direction, that is, the area where an object having a height of a certain value or more exists. Alternatively, the resolution may be increased only in the region where an object having a height continuous above a certain level exists from the road surface and the peripheral region thereof.
(2)第2シーン
第2シーンは例えば以下の場合が考えられる。
(2a)先行車両が一定距離以内に存在しない場合、すなわち、先行車両と自車との間に車両がいない領域が存在する場合(図6の領域2a参照)
(2b)取得されたフレーム画像で路面と判定された方位が存在する場合(図7の領域2b参照)
(2) Second scene For example, the following cases can be considered for the second scene.
(2a) When the preceding vehicle does not exist within a certain distance, that is, when there is an area where there is no vehicle between the preceding vehicle and the own vehicle (see
(2b) When there is an orientation determined to be the road surface in the acquired frame image (see
路面上に存在する低背物が存在する場合、その低背物を検出するためには、低背物が存在している可能性の有る領域、すなわち、通常の低解像度の状態において、路面と判定される領域(以下、「路面領域」とも呼ぶ)を検出し、その領域から少なくとも縦方向の分解能が高分解能なフレーム画像を取得することが望ましい。そこで、第2シーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とすることが望ましい。 When there is a low-profile object existing on the road surface, in order to detect the low-profile object, in the area where the low-profile object may be present, that is, in a normal low resolution state, the road surface and the low-profile object are present. It is desirable to detect the region to be determined (hereinafter, also referred to as "road surface region") and acquire a frame image having a high resolution at least in the vertical direction from that region. Therefore, when it is determined that there is a possibility that the second scene is applicable, it is desirable to set at least the resolution in the vertical direction of one pixel of the acquired frame image to be high resolution.
第2シーンに該当する可能性の判定は、例えば、以下のように実行することができる。取得した低解像度画像に存在する物体を識別し、先行車両あるいは路面を検出した場合に、第2シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。なお、先行車両の検出は、低解像度画像から識別された物体の形状が「車両」の可能性があるか否かを判定することにより実行される。また、路面の検出は、低解像度画像から識別された物体のうち、予め定められた路面閾値Rth以下の物体の領域を路面の領域と判定することにより実行される。なお、路面閾値Rthとしては、道路法等の法規で定められる種々の高さ制限に基づいて設定すれば良い。 The determination of the possibility of falling under the second scene can be executed, for example, as follows. When an object existing in the acquired low-resolution image is identified and a preceding vehicle or a road surface is detected, it is determined that there is a possibility of corresponding to the second scene, and at least the vertical resolution of one pixel of the acquired frame image is determined. Is set to high resolution. The detection of the preceding vehicle is executed by determining whether or not the shape of the object identified from the low-resolution image may be a "vehicle". Further, the detection of the road surface is executed by determining the region of the object identified from the low-resolution image as the region of the object having the predetermined road surface threshold Rth or less as the region of the road surface. The road surface threshold value Rth may be set based on various height restrictions defined by laws and regulations such as the Road Law.
なお、上記説明では、取得するフレーム画像の全体を高分解能化するものとして説明したが、路面閾値Rthの上下方向の周辺の領域、すなわち、車両がいない領域と判定された領域、あるいは、路面と判定された領域と、その周辺領域のみを高分解能化するようにしてもよい。 In the above description, the resolution of the entire frame image to be acquired has been increased, but the area around the road surface threshold value Rth in the vertical direction, that is, the area determined to be the area where there is no vehicle, or the road surface. The resolution may be increased only in the determined region and the peripheral region thereof.
(3)第3シーン
第3シーンは例えば以下の場合が考えられる。
(3a)右折待ちの停止車両等の停止物体の左横に自車が通り抜けられそうな空間が存在する場合(図8の領域3a)
(3) Third scene For example, the following cases can be considered for the third scene.
(3a) When there is a space on the left side of a stopped object such as a stopped vehicle waiting for a right turn so that the own vehicle can pass through (
右折待ちの停止車両等の停止物体の左横に存在する空間が存在する場合、その空間を通り抜け可能であるか否か判断するために、進行方向の右側の停止物体及びその左横の空間の領域を検出し、その空間の領域の横幅を高精度に測定可能な少なくとも横方向が高分解能なフレーム画像を取得することが望ましい。そこで、第3シーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の少なくとも横方向の分解能を高分解能とすることが望ましい。 If there is a space on the left side of a stopped object such as a stopped vehicle waiting for a right turn, the space on the right side of the stopped object in the direction of travel and the space on the left side of it are used to determine whether or not it is possible to pass through that space. It is desirable to acquire a frame image having a high resolution at least in the horizontal direction, which can detect a region and measure the width of the region in the space with high accuracy. Therefore, when it is determined that there is a possibility that it corresponds to the third scene, it is desirable to set at least the resolution in the lateral direction of one pixel of the acquired frame image to be high resolution.
第3シーンに該当する可能性の判定は、例えば、以下のように実行することができる。取得した低解像度画像に存在する物体を識別し、進行方向の路面の右側に存在する停止物体を検出し、その左横方向に路面を検出した場合に、第3シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも横方向の分解能を高分解能とする。 The determination of the possibility of falling under the third scene can be executed, for example, as follows. If an object existing in the acquired low-resolution image is identified, a stopped object existing on the right side of the road surface in the traveling direction is detected, and the road surface is detected in the left lateral direction thereof, it may correspond to the third scene. The resolution of at least one pixel of the acquired frame image in the lateral direction is set to high resolution.
なお、上記説明では、取得するフレーム画像の全体を高分解能化するものとして説明したが、停止物体の左横の空間及びその周辺領域のみを高分解能化するようにしてもよい。 In the above description, the resolution of the entire frame image to be acquired has been increased, but the resolution may be increased only in the space on the left side of the stopped object and the peripheral area thereof.
上記3つのシーンは一例であって、これら3つのシーンのみに限定されるものではない。通常の低分解能ではなく高分解能で画像を取得して物体の識別を行なうことが望ましいと判断される種々のシーンを予め設定されたシーンとしても良い。また、上記3つのシーンやそれ以外の種々のシーンの全てを予め設定されたシーンとしても良く、これらのうちの1つ、あるいは、1つ以上のシーンを予め設定されたシーンとしても良い。 The above three scenes are examples, and are not limited to these three scenes. Various scenes in which it is judged that it is desirable to acquire an image with a high resolution instead of the usual low resolution to identify an object may be set as a preset scene. Further, all of the above three scenes and various other scenes may be preset scenes, and one or more of these scenes may be preset scenes.
以上説明したように、上記物体検出装置では、通常は低分解能で物体検出を行い、高分解能で物体検出を行なうべきシーンの場合に、高分解能で物体の検出を行なうことができる。これにより、高精度な物体の検出を可能とするとともに、物体の検出のための処理時間の向上を図ることができる。 As described above, the object detection device can usually detect an object with a low resolution, and can detect an object with a high resolution in the case of a scene in which the object can be detected with a high resolution. As a result, it is possible to detect an object with high accuracy and to improve the processing time for detecting the object.
B.第2実施形態:
図9に示す第2実施形態の物体検出装置50は、自己位置検出装置30を備える点が第1実施形態の物体検出装置50(図2参照)と異なる。また、第2実施形態の物体検出装置50は、自己位置検出装置30と、処理装置20の制御部210、測距部220、識別部230、シーン判定部240、及び解像度決定部250と、による物体検出処理の手順が、図10に示すように、第1実施形態の物体検出処理の手順(図4参照)と異なる。そこで、以下では、物体検出処理の手順に関係する内容についてのみ説明を加える。
B. Second embodiment:
The
図10に示すように、制御部210(図9参照)は、物体検出処理を開始すると、まず、自己位置検出装置30から自車が存在する位置の周囲情報を取得し、取得した周囲情報から、シーン判定部240により、シーン判定を行う(ステップS102)。自己位置検出装置30には、例えば、車両に搭載されるナビゲーション装置が利用される。シーン判定部240は、自己位置検出装置30で検出される自車が存在する位置(「以下、自己位置」とも呼ぶ)から一定距離以内の地図情報や交通情報等として、シーンの判定に必要な情報を取得して、取得した情報からシーン判定を行なう。
As shown in FIG. 10, when the control unit 210 (see FIG. 9) starts the object detection process, it first acquires the surrounding information of the position where the own vehicle exists from the self-
そして、制御部210は、解像度決定部250により、シーンの判別結果に従って、1フレーム期間で取得するフレーム画像の一画素の分解能、すなわち、フレーム画像の解像度を決定する(ステップS104)。そして、制御部210は、決定した解像度に対応するように、1フレーム期間における発光部110の発光制御条件及び受光部120の受光制御条件を設定する(ステップS106)。そして制御部210は、発光部110の制御による照射光Lzの照射(ステップS110)、受光部120の制御による受光素子121の受光(ステップS120)、測距部220による測距処理(ステップS130)、フレーム画像の取得(ステップS140)、識別部230による測定範囲MR内に存在する対象物OBの識別(ステップS150)を行い、一旦処理を終了する。
Then, the
自己位置検出装置30から取得される情報によって判定されるシーンとしては、以下に示す第1〜第3シーンが例示される。
Examples of the scene determined by the information acquired from the self-
(1)第1シーン
第1シーンは例えば以下の場合が考えられる。
(1c)自己位置検出装置から取得される情報から、看板やトンネル、高架、歩道橋等の一定以上の高さの物体(図5の領域1a,1b参照)が存在する付近を通過することが想定される場合
(1) First scene For example, the following cases can be considered as the first scene.
(1c) From the information acquired from the self-position detection device, it is assumed that the vehicle will pass near the presence of objects of a certain height or higher (see
上記第1シーンに該当する可能性の判断は、自己位置検出装置30から、自己位置から自車が進行する方向の一定距離以内に、上記の看板やトンネル、高架、歩道橋等の一定以上の高さの物体が存在する情報を取得した場合に、第1シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。
The possibility of falling under the first scene is determined from the self-
(2)第2シーン
第2シーンは例えば以下の場合が考えられる。
(2c)自己位置検出装置から取得される情報から、低背物(図6の領域2a,図7の領域2b参照)が存在する付近を通過することが想定される場合
(2) Second scene For example, the following cases can be considered for the second scene.
(2c) When it is assumed from the information acquired from the self-position detection device that the vehicle passes near a low profile object (see
上記第2シーンに該当する可能性の判断は、自己位置検出装置30から、自己位置から自車が進行する方向の一定距離以内に、低背物が落下していることを示す情報を取得した場合に、第2シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。
In the determination of the possibility of falling under the second scene, information indicating that a low-profile object has fallen within a certain distance in the direction in which the vehicle travels from the self-position is acquired from the self-
(3)第3シーン
第3シーンは例えば以下の場合が考えられる。
(3b)路面上に右折車両等の停止物体(図8の領域3a参照)が存在する付近を通過することが想定される場合
(3) Third scene For example, the following cases can be considered for the third scene.
(3b) When it is assumed that the vehicle will pass in the vicinity of a stopped object (see
上記第3シーンに該当する可能性の判断は、自己位置検出装置30から、自己位置から自車が進行する方向の一定距離以内に、停止物体が存在していることを示す情報を取得した場合に、第3シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも横方向の分解能を高分解能とする。
The determination of the possibility of falling under the third scene is when information indicating that a stopped object exists within a certain distance from the self-position in the direction in which the vehicle travels is acquired from the self-
なお、自己位置検出装置30から取得される情報から高分解能化すべきシーンとして判定されるシーンは、上記第1シーン〜第3シーンに限定されるものではない。通常の低分解能ではなく高分解能で画像を取得して物体の識別を行なうことが望ましいと判断される種々のシーンとして、自己位置検出装置30から取得される情報に基づいて判定できる種々のシーンを予め設定されたシーンとすることも可能である。
The scenes determined as the scenes to be improved in resolution from the information acquired from the self-
以上説明したように、上記物体検出装置では、通常は低分解能で物体の識別を行い、高分解能で物体の識別を行なうべきシーンと判定された場合に、高分解能で物体の識別を行なうことができる。これにより、高精度な物体の検出を可能とするとともに、高精度な物体の検出のための処理時間の向上を可能とすることができる。 As described above, the object detection device usually identifies an object with a low resolution, and when it is determined that the scene should be identified with a high resolution, the object can be identified with a high resolution. it can. This makes it possible to detect an object with high accuracy and improve the processing time for detecting an object with high accuracy.
C.他の実施形態:
(1)第1実施形態では、取得したフレーム画像に基づいて高解像度化すべきシーン判定を行う物体検出装置について説明し、第2実施形態では、自己位置検出装置から取得した情報に基づいて高解像度すべきシーン判定を行なう物体検出装置について説明した。物体検出装置としては、いずれか一方の判定に限定する必要はなく、取得したフレーム画像に基づくシーン判定と自己位置検出装置から取得した情報に基づくシーン判定の両方を備える構成としても良い。
C. Other embodiments:
(1) In the first embodiment, an object detection device that determines a scene to be high resolution based on the acquired frame image will be described, and in the second embodiment, high resolution will be described based on the information acquired from the self-position detection device. The object detection device that determines the scene to be used has been described. The object detection device does not have to be limited to one of the determinations, and may be configured to include both a scene determination based on the acquired frame image and a scene determination based on the information acquired from the self-position detection device.
本開示に記載の物体検出装置50及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体検出装置50及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体検出装置50及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
The
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the above-described embodiment, and can be realized by various configurations within a range not deviating from the gist thereof. For example, the technical features in each embodiment corresponding to the technical features in the embodiments described in the column of the outline of the invention may be used to solve some or all of the above-mentioned problems, or one of the above-mentioned effects. It is possible to replace or combine as appropriate to achieve part or all. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.
10…センサ装置、20…処理装置、30…自己位置検出装置、50…物体検出装置、110…発光部、111…発光素子、112…発光制御部、120…受光部、121…受光素子、122…受光制御部、123…受光面、124…受光要素、130…走査部、131…ミラー、132…回転軸、133…アクチュエータ、134…アクチュエータ制御部、201…受光要素、210…制御部、220…測距部、230…識別部、240…シーン判定部、250…解像度決定部、500…車両、Ar…所定範囲、Lz…照射光、MR…測定範囲、OB…対象物、Ps…画素、Ps_h…高分解能画素、Ps_t…低分解能画素 10 ... sensor device, 20 ... processing device, 30 ... self-position detection device, 50 ... object detection device, 110 ... light emitting unit, 111 ... light emitting element, 112 ... light emission control unit, 120 ... light receiving unit, 121 ... light receiving element, 122 ... light receiving control unit, 123 ... light receiving surface, 124 ... light receiving element, 130 ... scanning unit, 131 ... mirror, 132 ... rotating shaft, 133 ... actuator, 134 ... actuator control unit, 201 ... light receiving element, 210 ... control unit, 220 ... ranging unit, 230 ... identification unit, 240 ... scene judgment unit, 250 ... resolution determination unit, 500 ... vehicle, Ar ... predetermined range, Lz ... irradiation light, MR ... measurement range, OB ... object, Ps ... pixel, Ps_h ... high resolution pixel, Ps_t ... low resolution pixel
Claims (7)
測定範囲に対して照射光を照射する発光部(110)と、
前記測定範囲からの前記照射光の反射光を含む入射光を受光可能な複数の受光要素(124)を有し、予め設定された前記受光要素の集まりを一画素として、各画素に含まれる前記受光要素の受光状態に応じた受光値を各画素の画素値として出力する受光部(120)と、
前記各画素の画素値で表される画像から、前記測定範囲内に存在する物体を識別する識別部(230)と、
シーンに関する情報を取得し、取得した前記情報に従って前記シーンを判定するシーン判定部(240)と、
前記シーンの判定結果に応じて、前記受光部における前記一画素を構成する前記受光要素の集まりの数を決定し、前記各画素の分解能を決定する解像度決定部(250)と、
を備える、物体検出装置。 An object detection device (50) mounted on a vehicle.
A light emitting unit (110) that irradiates the measurement range with irradiation light,
The said, which has a plurality of light receiving elements (124) capable of receiving incident light including reflected light of the irradiation light from the measurement range, and includes a set of preset light receiving elements as one pixel in each pixel. A light receiving unit (120) that outputs a light receiving value according to the light receiving state of the light receiving element as a pixel value of each pixel, and a light receiving unit (120).
An identification unit (230) that identifies an object existing in the measurement range from an image represented by the pixel value of each pixel, and
A scene determination unit (240) that acquires information about a scene and determines the scene according to the acquired information.
A resolution determining unit (250) that determines the number of groups of the light receiving elements constituting the one pixel in the light receiving unit and determines the resolution of each pixel according to the determination result of the scene.
An object detection device.
前記シーン判定部は、前記識別部における識別結果から前記情報を取得し、取得した前記情報に従って前記シーンを判定する、
物体検出装置。 The object detection device according to claim 1.
The scene determination unit acquires the information from the identification result in the identification unit, and determines the scene according to the acquired information.
Object detector.
前記シーン判定部は、前記情報を有する外部装置(30)から前記情報を取得し、取得した前記情報に従って前記シーンを判定する、物体検出装置。 The object detection device according to claim 1.
The scene determination unit is an object detection device that acquires the information from an external device (30) having the information and determines the scene according to the acquired information.
前記シーン判定部は、前記シーンが、前記車両が通行する路面に対して予め定められる第1の高さ以上の高さを有する物体が存在し得る第1シーンであるか否かを判定し、
前記解像度決定部は、前記シーンが前記第1シーンであった場合に、前記受光部から出力される前記各画素の分解能を、少なくとも前記測定範囲の高さ方向について高くする、物体検出装置。 The object detection device according to any one of claims 1 to 3.
The scene determination unit determines whether or not the scene is a first scene in which an object having a height equal to or higher than a predetermined first height with respect to the road surface through which the vehicle passes can exist.
The resolution determining unit is an object detection device that increases the resolution of each pixel output from the light receiving unit at least in the height direction of the measurement range when the scene is the first scene.
前記シーン判定部は、前記シーンが、前記車両が通行する路面に対して予め定められる第2の高さ以下の高さを有する物体が存在し得る第2シーンであるか否か判定し、
前記解像度決定部は、前記シーンが前記第2シーンであった場合に、前記受光部から出力される前記各画素の分解能を、少なくとも前記測定範囲の高さ方向について高くする、物体検出装置。 The object detection device according to any one of claims 1 to 4.
The scene determination unit determines whether or not the scene is a second scene in which an object having a height equal to or lower than a predetermined second height with respect to the road surface through which the vehicle passes can exist.
The resolution determining unit is an object detection device that increases the resolution of each pixel output from the light receiving unit at least in the height direction of the measurement range when the scene is the second scene.
前記シーン判定部は、前記シーンが、前記車両が通行する路面上に停止物体が存在し得る第3シーンであるか否か判定し、
前記解像度決定部は、前記シーンが前記第3シーンであった場合に、前記受光部から出力される前記各画素の分解能を、少なくとも前記測定範囲の横方向について高くする、物体検出装置。 The object detection device according to any one of claims 1 to 5.
The scene determination unit determines whether or not the scene is a third scene in which a stopped object may exist on the road surface through which the vehicle passes.
The resolution determining unit is an object detection device that increases the resolution of each pixel output from the light receiving unit at least in the lateral direction of the measurement range when the scene is the third scene.
前記受光要素は、前記受光状態に応じた受光値を出力するSPADを有する、物体検出装置。 The object detection device according to any one of claims 1 to 6.
The light receiving element is an object detection device having a SPAD that outputs a light receiving value according to the light receiving state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233828A JP7338455B2 (en) | 2019-12-25 | 2019-12-25 | object detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019233828A JP7338455B2 (en) | 2019-12-25 | 2019-12-25 | object detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103101A true JP2021103101A (en) | 2021-07-15 |
JP7338455B2 JP7338455B2 (en) | 2023-09-05 |
Family
ID=76755051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019233828A Active JP7338455B2 (en) | 2019-12-25 | 2019-12-25 | object detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7338455B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023042637A1 (en) * | 2021-09-14 | 2023-03-23 | 株式会社デンソー | Control device, control method, and control program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07191148A (en) * | 1993-12-27 | 1995-07-28 | Mitsubishi Electric Corp | Wide angle laser radar device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7021885B2 (en) | 2017-09-11 | 2022-02-17 | 株式会社日立エルジーデータストレージ | Distance measuring device |
-
2019
- 2019-12-25 JP JP2019233828A patent/JP7338455B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07191148A (en) * | 1993-12-27 | 1995-07-28 | Mitsubishi Electric Corp | Wide angle laser radar device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023042637A1 (en) * | 2021-09-14 | 2023-03-23 | 株式会社デンソー | Control device, control method, and control program |
Also Published As
Publication number | Publication date |
---|---|
JP7338455B2 (en) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6471528B2 (en) | Object recognition apparatus and object recognition method | |
KR100352423B1 (en) | Vehicle distance measuring device | |
JP2019144186A (en) | Optical distance measuring device and method therefor | |
CN103523014A (en) | In-vehicle apparatus | |
WO2020196513A1 (en) | Object detection device | |
US20220011440A1 (en) | Ranging device | |
JP2019144184A (en) | Optical distance measuring device and method therefor | |
US11892539B2 (en) | Measurement device, measurement method, and non-transitory storage medium | |
CN115427831A (en) | Optical distance measuring device | |
US20220126792A1 (en) | Sensing system for vehicle and vehicle | |
JP5320880B2 (en) | Distance measuring device, distance measuring method and vehicle | |
JP7338455B2 (en) | object detector | |
JP2021501877A (en) | Equipment and method | |
WO2022190364A1 (en) | Information processing device, information processing method, program, and storage medium | |
EP4035940A1 (en) | Gating camera, automobile, vehicle lamp, image processing device, and image processing method | |
JP2006258507A (en) | Apparatus for recognizing object in front | |
JP2021113767A (en) | Obstacle detection device and obstacle detection system | |
WO2022186099A1 (en) | Information processing device, information processing method, program, and storage medium | |
JP7103324B2 (en) | Anomaly detection device for object recognition and anomaly detection program for object recognition | |
WO2022186103A1 (en) | Information processing device, information processing method, program, and storage medium | |
US20230062562A1 (en) | Sensing system and distance measuring system | |
WO2021166912A1 (en) | Object detection device | |
WO2023042637A1 (en) | Control device, control method, and control program | |
WO2023047886A1 (en) | Vehicle detection device, vehicle detection method, and vehicle detection program | |
JP7487470B2 (en) | OBJECT DETECTION DEVICE AND METHOD FOR CONTROLLING OBJECT DETECTION DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7338455 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |