JP7204958B2 - 遠赤外線カメラによる物体認識 - Google Patents

遠赤外線カメラによる物体認識 Download PDF

Info

Publication number
JP7204958B2
JP7204958B2 JP2021573828A JP2021573828A JP7204958B2 JP 7204958 B2 JP7204958 B2 JP 7204958B2 JP 2021573828 A JP2021573828 A JP 2021573828A JP 2021573828 A JP2021573828 A JP 2021573828A JP 7204958 B2 JP7204958 B2 JP 7204958B2
Authority
JP
Japan
Prior art keywords
images
fir
relative temperature
cameras
temperature range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021573828A
Other languages
English (en)
Other versions
JP2022536423A (ja
Inventor
健男 芝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JP2022536423A publication Critical patent/JP2022536423A/ja
Application granted granted Critical
Publication of JP7204958B2 publication Critical patent/JP7204958B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/10Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)

Description

本発明は、一般に、車両の運転制御装置に関し、より詳細には、物体の相対温度から分類を判断する物体認識装置に関する。
従来技術では、物体認識システムおよび方法は、可視光カメラに反射された物体の色またはコントラストに基づいて、物体を認識するように構成されている。このような物体認識システムおよび方法は、物体の形状から物体の分類を判断することができる。
しかしながら、従来技術では、(例えば、物体が別の物体または画像の干渉/ノイズによって妨害されている場合)、物体の部分形状から、分類を判断することが困難な場合がある。また、個々の画像フレームに対して行われる認識は、信頼性が低い傾向がある。十分な信頼性を得るためには、数フレームの画像が必要とされるため、従来技術の認識技術は、重大な遅延を発生させず物体を発見する際には問題がある。
さらに、可視光カメラからの画像は、直射日光および対向車両のヘッドライトの影響を受ける可能性があり、可視光カメラを利用するシステムおよび方法の認識率を低下させる。さらに、可視光カメラよりも画素数が少ない遠赤外線カメラを用いると、可視光カメラに比べて物体の距離精度が悪くなる。
本明細書に記載の例示的な実装形態は、遠赤外線カメラを利用するか、または従来の感知技術と共に遠赤外線カメラを使用することによって、物体の認識率、認識速度、および距離精度を改善するためのシステムおよび方法に関する。
第1の例示的な実施態様では、物体の分類は、物体の形状から判断され、分類は、物体の相対温度の測定から判断された相対温度ゾーンに関連する。したがって、別の物体の相対温度が、以前に分類に関連付けられた相対温度ゾーンと一致する場合、同じ分類の物体を判断するための信頼性を向上できる。
第2の例示的な実施態様では、本明細書に記載のシステムおよび方法は、ステレオカメラ距離画像および視差のないカラー画像と共に、同期FIRカメラからの相対温度画像を重ね合わせることによって、ステレオカメラの距離画像を用いて、遠赤外線(FIR)カメラの相対温度画像によりグループ化された物体の距離を抽出する。ステレオカメラと同期したFIRカメラの相対温度画像と、ステレオカメラの距離およびカラー画像とを重ね合わせることで、物体の距離が、FIRカメラの相対温度画像とグループ化され、ステレオカメラの距離画像から検出され得る。
第3の例示的な実施態様では、FIRカメラ(FIR-F)が車体の一部を占めるように設置され、撮影した本体温度を温度計で測定して、FIRカメラ(FIR-F)の相対温度と絶対温度とを照合することにより、FIRカメラ(FIR-F)の相対温度情報を絶対温度情報に変換する。FIRカメラ(FIR-F)の画像の一部とFIRカメラ(FIR-R)の画像とが重なるようにFIRカメラ(FIR-R)が設置されている場合、FIRカメラ(FIR-F)の絶対温度とFIRカメラ(FIR-R)の相対温度とを照合することにより、FIRカメラ(FIR-R)の相対温度情報を絶対温度情報に変換する。
第4の例示的な実装形態では、物体の距離および絶対温度に関する情報を有する場合、物体が1秒間に放出するエネルギー量は、「E=δT^4*4πR^2」の関係式から得ることができる。物体のエネルギー範囲と物体の分類とを予め対応付けたテーブルを用意しておき、目標物体のエネルギーが各分類に対応付けられたエネルギー範囲内であれば、物体の信頼性が向上する。
第5の例示的な実施態様では、目標物体の分類が指定されると、物体のエネルギー範囲を表から取得できる。目標物体の絶対温度が既知であれば、関係式から距離の範囲を求めることができる。
本開示の態様は、車両システムを含むことができ、車両システムは、1つまたは複数の遠赤外線(FIR)カメラと、プロセッサとを含み、プロセッサは、第1の物体の形状に基づいて、1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体の物体分類を実行して第1の物体を分類することと、第1の物体の相対温度範囲を判断することと、第1の物体の相対温度範囲を第1の物体の分類に関連付けることと、第1の物体の相対温度範囲を有する1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、第2の物体を第1の物体の分類を有するものとして認識することとを、行うように構成されている。
本開示の態様は、コンピュータプログラムをさらに含み、コンピュータプログラムは、1つまたは複数の遠赤外線(FIR)カメラを有する車両システムのためのプロセスを実行するための命令を記憶し、命令は、1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類するステップと、第1の物体と一致する相対温度範囲を有する1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、第2の物体を第1の物体の分類を有するものとして認識するステップと、を含む。命令は、非一時的コンピュータ可読媒体に組み込まれてもよい。
本開示の態様は、1つまたは複数の遠赤外線(FIR)カメラを有する車両システムのための方法をさらに含み、本方法は、1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類するステップと、第1の物体と一致する相対温度範囲を有する1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、第2の物体を第1の物体の分類を有するものとして認識するステップと、を含む。命令は、非一時的コンピュータ可読媒体に組み込まれてもよい。
本明細書に記載の例示的な実装形態を通して、物体認識および検出は、先進運転者支援システム(ADAS)を支援する車両システムにおいて、より確実かつ正確に実装することができる。
例示的な実装形態による、車両制御装置を備えた車両の例示的な概略構成を示す図である。
例示的な実装形態による、車両の制御ユニットの例示的な処理および動作を示す図である。 例示的な実装形態による、車両の制御ユニットの例示的な処理および動作を示す図である。 例示的な実装形態による、各物体分類に対する位相関係の一例を示す図である。
例示的な実装形態による、車両システムの制御ユニットによる物体認識処理からの流れ図である。
例示的な実装形態による、画像を重ね合わせるための例示的な処理を示す図である。
例示的な実装形態による、物体の分類に適用されている可視光信頼性、形状信頼性、および温度信頼性の一例を示す図である。
例示的な実装形態による、車両システムで物体認識処理を実行する例を示す図である。
例示的な実装形態による、検出例を示す図である。
例示的な実装形態による、目標物体のエネルギーに基づいて物体分類を行うための例示的な流れ図である。
例示的な実装形態による、エネルギーおよび温度を使用して、車両からの物体の距離を判断するための例示的な流れ図である。
以下の詳細な説明は、本出願の図面および例示的な実施態様のさらなる詳細を提供する。図面間の冗長な要素の参照番号および説明は、明確にするために省略されている。説明全体を通して使用される用語は、例として提供されており、限定することを意図するものではない。例えば、「自動」という用語の使用は、本出願の実装形態を実施する当業者の所望の実装形態に応じて、実装形態の特定の態様に対するユーザまたは管理者の制御を含む完全自動または半自動の実装形態を含むことができる。選択は、ユーザ・インターフェースまたは他の入力手段を介して、ユーザにより行うことができ、または所望のアルゴリズムを介して実施できる。本明細書に記載の例示的な実装形態は、単独でまたは組み合わせて利用することができ、例示的な実装形態の機能は、所望の実装形態による任意の手段を介して実装できる。
図1は、例示的な実施態様による車両制御装置を備える車両形態の車両システムの概略構成を示す図である。図1の例では、車両は、動力源としてのエンジン1と、駆動系としての自動変速機2と、プロペラシャフト3と、デファレンシャルギヤ4と、ドライブシャフト5と、を含む一般的な構成の後輪駆動車であり、エンジン1が車輪6を駆動する、駆動輪を含む。
1つまたは複数のステレオカメラ7、および1つまたは複数の遠赤外線カメラ13は、車両の前部に取り付けられ、これらのセンサは、所望の実装形態に従って、前方の先行車両、歩行者、車線、障害物、対向車両などの位置および相対速度を算出する。しかしながら、所望の実施態様に応じて、ステレオカメラ7の代わりに、またはステレオカメラ7に加えて、ライダー(LiDAR、Light Detection and Ranging、光検出と測距)、ソナー、レーダ、または単眼カメラなどの外界認識センサを使用して距離測定を行うこともできる。
電子制御ブレーキシステム11は、車輪にそれぞれ加えられる個々の制動力を制御することができる油圧ブレーキシステムである。電子制御ブレーキシステムは、旋回要求に応答して右車輪または左車輪のいずれかに制動力を加えて、車両にヨーイング・モーメントを加える。
車両には、車両の動作状態を示すパラメータの値を測定するための動作パラメータ測定ユニットが設けられ、これには、車輪速度測定装置9、および車両挙動測定装置10を含むことができる。これらの装置からの信号は、制御ユニット8に送られる。車両挙動測定装置10は、前後加速度、横加速度、ヨー・レートを測定する。
車両には、情報出力ユニット12が設けられている。情報出力ユニット12は、運転支援動作の種別に応じて、画像を表示したり、音声を生成したり、支援動作の情報を示す警告灯を点灯させたりする。情報出力ユニット12は、例えば、スピーカを内蔵したモニタである。車両には、複数の情報出力ユニットが設けることができる。
制御ユニット8は、フィールド・プログラマブル・ゲート・アレイ(FPGA)などの専用ハードウェア、中央処理装置(CPU)などのハードウェア・プロセッサ、および/またはハードウェア・プロセッサとソフトウェアプロセッサとの組み合わせの形態とすることができる。本明細書で説明するように、制御ユニット8は、1つまたは複数の遠赤外線(FIR)カメラ7の1つまたは複数の画像から検出された第1の物体を分類し、第1の物体と一致する相対温度範囲を有する、1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、第2の物体を、図2(a)および図2(b)に示すように、第1の物体の分類を有するものとして認識するように、構成される。
例示的な実施態様では、本明細書で説明するように、制御ユニット8は、第1の物体の形状に基づいて1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類することによって、1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類するように構成することができ、第1の物体の相対温度範囲を判断し、図3に示すように、第1の物体の相対温度範囲を第1の物体の分類に関連付ける。
例示的な実装形態では、本明細書で説明するように、車両システムはまた、画像情報および距離情報を提供するように構成されている追加のセンサシステムを含むことができ、制御ユニット8は、FIRカメラ7の1つまたは複数の画像をセンサシステムからの画像情報および距離情報と同期させ、図3~図5に示すように、画像情報および距離情報に基づいて第1の物体を分類するように構成される。そのようなセンサシステムは、所望の実装形態に従って、ステレオカメラ、ライダー(LiDAR)、ソナー、レーダ、または単眼カメラを含むことができるが、これらに限定されない。
例示的な実施態様では、本明細書で説明するように、車両システムの近接点の温度を測定するように構成されている温度計もあり得る。そのような例示的な実施態様では、制御ユニット8は、車両システムの近接点の温度および第1の物体の相対温度範囲に基づいて、第1の物体の絶対温度範囲を判断するように構成される。1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、制御ユニット8は、1つまたは複数のFIRカメラのうちの複数のFIRカメラからの1つまたは複数の画像のうちの重ね合わせ画像を処理し、車両システムの近接点の温度、および第2の物体の相対温度範囲に基づいて、第2の物体の相対温度範囲を第2の物体の絶対温度範囲に変換し、第1の物体の絶対温度範囲を有する第2の物体について、第2の物体を、図6~図9に示すような第1の物体の分類を有するものとして認識するように、構成される。所望の実施態様に応じて、温度計は、基準点として使用されるべき近接点(例えば、車両システムの上または近く)を、測定することができる。例えば、センサの配置に応じて、温度計は、車両システムのボンネット、サイドミラー、ドアハンドル、またはトランクの温度を測定するように構成することができ、それゆえに、センサおよびFIRカメラは、そのような温度点に対して相対温度読み取り値が生成されるときに、その中で測定された温度を基準点として使用することができる。別の例示的な実装形態では、絶対温度を判断するために車両システムの近接点を利用しない画像を取り込むセンサおよびFIRカメラがある場合、追加のセンサまたはカメラを使用して車両システムの近接点を測定することができ、それらの追加のセンサ/カメラと他のセンサおよびカメラとの間の重ね合わせ画像を使用して、絶対温度を判断できる。
例示的な実施態様では、本明細書で説明するように、制御ユニット8は、温度および第1の物体までの距離に基づいて第1の物体のエネルギーを判断し、エネルギーに基づいて、1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類し、第1の物体と一致する相対温度範囲を有し、かつ第1の物体のエネルギー範囲内にある1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、図8に示されるように、第2の物体を第1の物体の分類を有するものとして認識するように、構成できる。
例示的な実施態様では、本明細書で説明するように、制御ユニット8は、第1の物体の分類に基づいて、第2の物体のエネルギー範囲を判断し、図9に示すように、第2の物体のエネルギー範囲および相対温度範囲に基づいて、第2の物体までの距離範囲を判断するように、構成できる。
例示的な実装形態では、本明細書で説明するように、制御ユニット8は、第1の物体と一致する相対温度範囲を有さない1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第2の物体について、図2(a)~図2(c)に示すように、以前に検出された物体の相対温度範囲と比較した相対温度範囲に基づいて、第2の物体を認識するように、さらに構成できる。
本明細書に記載の例示的な実装形態は、物体検出のために他のセンサからの重ね合わせ画像と併せて温度範囲を利用し、それにより、視覚画像のみを使用するシステムよりも物体検出および分類を改善できる。所望の実装形態に応じて、車両システムはまた、制御ユニット8から提供される第1の物体および第2の物体の分類に従って、車両システムを制御するように構成されている先進運転者支援システム(ADAS)を含むことができる。例えば、ADASシステムは、検出された物体が閾値内の距離にあると判断された歩行者または動物である場合、車両システムを減速させることができる。
ここに示す車両は、例示的な実装形態を適用することができる車両の一例であるが、本開示はこれに限定されず、所望の実装形態に従って任意の車両構成を利用できる。例えば、動力源としてエンジンの代わりにモータを設けてもよいし、動力源としてエンジンとモータを設けてもよい。
次に、この車両制御装置の物体認識処理の内容について説明する。図2(a)および図2(b)は、例示的な実装形態による、車両の制御ユニットの例示的な処理および動作を示す図である。具体的には、図2(a)は、図2(b)で概説した処理に従って、物体認識のために処理される例示的な遠赤外線画像を示す。図2(b)のフローチャートは、制御ユニット8の動作を示しており、所定の時間間隔で繰り返し実行される。
S11では、遠赤外線カメラを介して、形状により物体を認識する認識処理を実行する。遠赤外線カメラの画像を用いて、物体O1の形状信頼度Rs0o1が任意の閾値Rths0c1より大きければ、物体O1を分類C1と判断する。
条件1:Rs0o1>Rths0c1
このとき、分類C1に対応する相対温度は未知であるため、相対温度確信度Rt0は0である。そして、認識した物体O1の相対温度の最大値T’maxおよびT’minを測定する。
S12では、制御ユニットは、物体の相対温度範囲を判断する。物体O1の分類C1に対応する相対温度オフセットT’omaxc1およびT’ominc1は、予め用意された各種類に対応する相対温度オフセットの表1(以下に示す)から求められ、相対温度帯域t’c1が、条件2として設定される。
Figure 0007204958000001
条件2:T’min+T’’c1omin<t’c1<T’max+T’c1omax
S13では、遠赤外線カメラの画像からt’c1の温度幅に対応する画素群をグループ化し、その領域における物体O2の相対温度確信度Rt0o2が、任意の閾値Rtht0より大きい場合、物体O2を物体としてC1に分類する。
条件3:Rt0o2>Rtht0c1
RsとRthtについては、分類毎に図2(c)に示すような位相関係があり、Rsに対応するRthtは、図2(c)のデータである表2(以下に示す)から求めることができ、分類毎に条件1が成立すると、物体が認識されたことになる。
条件4:(Rs>Rths)&(Rt>Rtht)
したがって、形状だけでなく、相対温度からも物体の種別を判断することができ、物体の認識信頼性を向上できる。
Figure 0007204958000002
次に、この車両制御装置の物体認識処理の内容について説明する。図3は、例示的な実装形態による、車両システムの制御ユニットによる物体認識処理からの流れ図である。図3のフローチャートは、制御ユニット8の動作を示しており、所定の時間間隔で繰り返し実行される。
S21では、受信した画像を重ね合わせる。例示的な実装形態では、ステレオカメラ7の可視光画像、距離画像、遠赤外線カメラ13の相対温度画像が重ね合わされる。重ね合わせ処理の一例を図4に示す。図4に示すように、ステレオカメラ7および遠赤外線カメラ13から受信した画像は、401で同期され、カラー画像(例えば、可視光画像)、距離画像、および相対温度画像を、(例えば、タイムスタンプに基づいて)同期させることができる。402において、画像のタイムスタンプに基づいて、図4に示すように、画像を重ね合わせて合成画像を形成する。
S22では、可視光画像に基づいて、物体認識の信頼性を算出する。これにより、可視光画像の情報に基づいて、目標物体O3の可視光確信度Rvo3が算出される。
S23では、相対温度画像に基づいて物体認識の信頼性を算出する。これにより、目標物体O3の形状信頼度Rso3および相対温度確信度Rto3が、相対温度画像の情報に基づいて算出される。図5は、例示的な実装形態による、物体の分類に適用されている可視光信頼性、形状信頼性、および温度信頼性の一例を示す図である。
S24では、可視光確信度Rvo3が、所望の実施態様に従って設定された閾値Rvthc2よりも大きいかどうか、比較が行われる。その場合(はい)、処理はS27へ進み、物体は分類C2として認識される。
条件5:Rvo3>Rvthc2
そうでない場合には(いいえ)、処理はS25に進み、形状信頼度Rso3がRsthc2よりも大きいかどうかと、相対温度確信度Rto3がRtthc2よりも大きいかどうかとが、判断される。その場合(はい)、処理はS27に進み、目標物体O3を分類C2として、物体認識を行う。
条件6:(Rso3>Rsthc2)&(Rto3>Rtthc2)
そうでない場合には(いいえ)、処理はS26に進み、可視光確信度Rvo3が所望の実施態様に従って設定された閾値R’vthc2よりも大いかどうかと、形状信頼度Rso3がR’sthc2よりも大きいかどうかと、相対温度確信度Rto3がR’tthc2よりも大きいかどうかと、が判断される。その場合(はい)、処理はS27に進み、目標物体O3を分類C2として認識する。そうでない場合には(いいえ)、システムが物体を認識しないため認識ができず、処理が終了する。
S28では、距離画像に基づいて、物体の距離を算出する処理を行う。これにより、物体分類が行われ、車両と物体との距離を知ることができる。
次に、この車両制御装置の物体認識処理の内容について説明する。図6は、例示的な実装形態による、車両システムで物体認識処理を実行する例を示す図である。図6のフローチャートは、制御ユニット8の動作を示しており、所定の時間間隔で繰り返し実行される。図6のフローは、図7に示す検出例を参照して行われる。
S31では、車両に搭載された温度計を用いて、図7のA点の絶対温度Taを測定する。S32では、図7に示すように、遠赤外線カメラ(FIR-F)を用いて、点Aの相対温度T’faおよび点Bの相対温度T’fbを測定する。S33では、遠赤外線カメラ(FIR-R)を用いて、点Bの相対温度T’raおよび点Bの相対温度T’rbを測定する。
S34では、B点の絶対温度Tbを以下の式1により算出する。
式1:Tb=Ta-(T’fa-T’fb)
S35では、C点の絶対温度Tcを以下の式2により算出する。
式2:Tc=Tb-(T’rb-T’rc)
したがって、形状や相対温度だけでなく、絶対温度によっても種別を判別することが可能となり、その結果、物体認識の信頼性が向上する。
図8は、例示的な実装形態による、目標物体のエネルギーに基づいて物体分類を行うための例示的な流れ図である。図8のフローチャートは、制御ユニット8の動作を示しており、所定の時間間隔で繰り返し実行される。
S41では、以下の式3により目標物体O4のエネルギーを算出する。
式3:
Figure 0007204958000003
S42では、物体O4の分類Co4が、物体の分類に対応するエネルギーの範囲を記述する表3(以下)から判断される。
Figure 0007204958000004
したがって、そのような例示的な実施態様により、形状および温度だけでなく、そのエネルギーによっても物体の種別を判断することが可能になり、その結果、物体認識の信頼性が向上する。
図9は、例示的な実装形態による、エネルギーおよび温度を使用して、車両からの物体の距離を判断するための例示的な流れ図である。図9のフローチャートは、制御ユニット8の動作を示しており、所定の時間間隔で繰り返し実行される。
S51では、物体O5の種別Co5に対応するエネルギーを下記の表4(以下)から求めて、物体O5のエネルギーEo5を判断する。あるいは、物体O5のエネルギーが過去に測定されている場合、その値を利用することができる。
Figure 0007204958000005
S52では、物体O5の種別がC1である場合、式4(以下)のEにEc1aveを入力し、Tに物体O5の絶対温度To5を入力して、物体O5の距離Ro5を算出する。
式4:
Figure 0007204958000006
したがって、目標物体の絶対温度、およびエネルギーまたは種別のみが既知であっても、距離を算出することができ、距離の精度が向上する。
詳細な説明のいくつかの部分は、コンピュータにおける動作のアルゴリズムおよび記号表現に関して提示されている。これらのアルゴリズム記述および記号表現は、それらの革新の本質を他の当業者に伝えるために、データ処理分野の当業者によって使用される手段である。アルゴリズムは、所望の最終状態または結果をもたらす一連の定義されたステップである。例示的な実施態様では、実行されるステップは、有形の結果を達成するために有形の量の物理的操作を必要とする。
説明から明らかなように、特に明記しない限り、説明全体を通して、「処理する」、「計算する」、「算出する」、「判断する」、「表示する」などの用語を利用する説明は、コンピュータシステムのレジスタおよびメモリ内の物理(電子)量として表されるデータを操作し、コンピュータシステムのメモリもしくはレジスタまたは他の情報記憶装置、伝送装置、または表示装置内の物理量として同様に表される他のデータに変換する、コンピュータシステムまたは他の情報処理装置の動作および処理を含み得ることが理解される。
例示的な実装形態はまた、本明細書の動作を実行するための装置に関し得る。この装置は、必要な目的のために特別に構成されてもよく、あるいは、1つもしくは複数のコンピュータプログラムによって、選択的に起動または再構成される1つもしくは複数の汎用コンピュータを含んでもよい。そのようなコンピュータプログラムは、コンピュータ可読記憶媒体またはコンピュータ可読信号媒体などのコンピュータ可読媒体に記憶されてもよい。コンピュータ可読記憶媒体は、限定はしないが、光ディスク、磁気ディスク、読み出し専用メモリ、ランダム・アクセス・メモリ、ソリッド・ステート・デバイスおよびドライブ、またはその他の有形種類などの有形媒体、あるいは、電子情報を記憶するのに適した非一時的媒体、を含むことができる。コンピュータ可読信号媒体は、搬送波などの媒体を含むことができる。本明細書に提示されるアルゴリズムおよび表示装置は、いかなる特定のコンピュータまたは他の装置に本質的に関連しない。コンピュータプログラムは、所望の実装形態の動作を実行する命令を含む純粋なソフトウェア実装形態を含むことができる。
様々な汎用システムは、本明細書の例によるプログラムおよびモジュールと共に使用されてもよく、または所望の方法ステップを実行するためのより特殊化された装置を構築することが好都合であることを実証してもよい。さらに、例示的な実装形態は、特定のプログラミング言語を参照して説明されていない。本明細書に記載の例示的な実装形態の教示を実施するために、様々なプログラミング言語を使用できることが理解されよう。プログラミング言語の命令は、1つまたは複数の処理装置、例えば、中央処理装置(CPU)、プロセッサ、またはコントローラによって実行されてもよい。
当技術分野で知られているように、上述の動作は、ハードウェア、ソフトウェア、またはソフトウェアとハードウェアの何らかの組み合わせによって実行することができる。例示的な実装形態の様々な態様は、回路および論理デバイス(ハードウェア)を使用して実装されてもよく、他の態様は、機械可読媒体(ソフトウェア)に格納された命令を使用して実装されてもよく、これは、プロセッサによって実行されると、プロセッサに、本出願の実装形態を実行する方法を実行させる。さらに、本出願のいくつかの例示的な実装形態は、ハードウェアでのみ実行されてもよく、他の例示的な実装形態は、ソフトウェアでのみ実行されてもよい。さらに、説明された様々な機能は、単一のユニットで実行することができ、または任意の数の方法で複数の構成要素に分散することができる。ソフトウェアによって実行される場合、方法は、コンピュータ可読媒体に格納された命令に基づいて、汎用コンピュータなどのプロセッサによって実行されてもよい。必要に応じて、命令は、圧縮および/または暗号化された形式で媒体に格納することができる。
さらに、本出願の他の実施態様は、本明細書の考察および本出願の教示の実施から当業者には明らかであろう。記載された例示的な実装形態の様々な態様および/または構成要素は、単独で、または任意の組み合わせで使用することができる。本明細書および例示的な実施態様は、例としてのみ考慮されることが意図されており、本出願の真の範囲および主旨は、以下の特許請求の範囲によって示される。

Claims (11)

  1. 車両システムであって、
    1つまたは複数の遠赤外線(FIR)カメラと、
    プロセッサであって、
    前記1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類することと、
    前記第1の物体と一致する相対温度範囲を有する前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された第2の物体について、前記第2の物体を、前記第1の物体の前記分類を有するものとして認識することと、
    前記第1の物体の前記分類に基づいて、前記第2の物体のエネルギー範囲を判断することと、
    前記第2の物体の前記エネルギー範囲および前記相対温度範囲に基づいて、前記第2の物体までの距離範囲を判断することと、
    を行うように構成されているプロセッサと、
    を備える車両システム。
  2. 前記プロセッサは、
    前記第1の物体の形状に基づいて、前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第1の物体を分類することと、
    前記第1の物体の相対温度範囲を判断することと、
    前記第1の物体の前記相対温度範囲を、前記第1の物体の前記分類に関連付けること、
    とによって、
    前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第1の物体を分類することを、
    行うように構成されている、請求項1に記載の車両システム。
  3. 画像情報および距離情報を提供するように構成されているセンサシステムをさらに備え、前記プロセッサは、前記FIRカメラの前記1つまたは複数の画像を、前記センサシステムからの前記画像情報および距離情報と同期させることと、前記画像情報および距離情報に基づいて、前記第1の物体を分類することと、を行うように構成されている、請求項1に記載の車両システム。
  4. 前記プロセッサは、
    温度および前記第1の物体までの距離に基づいて、前記第1の物体のエネルギーを判断することと、
    前記エネルギーに基づいて、前記1つまたは複数のFIRカメラの1つまたは複数の画像から検出された前記第1の物体を分類することと、
    前記第1の物体と一致する相対温度範囲を有し、かつ、前記第1の物体のエネルギー範囲内にある、前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第2の物体について、前記第2の物体を、前記第1の物体の前記分類を有するものとして認識することと、
    を行うようにさらに構成されている、請求項1に記載の車両システム。
  5. 前記第1の物体および前記第2の物体の前記分類に従って、前記車両システムを制御するように構成されている先進運転者支援システム(ADAS)をさらに備える、請求項1に記載の車両システム。
  6. 前記プロセッサは、
    前記第1の物体と一致する前記相対温度範囲を有さない前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第2の物体について、以前に検出された物体の相対温度範囲と比較した前記相対温度範囲に基づいて、前記第2の物体を認識することを、行うようにさらに構成されている、請求項1に記載の車両システム。
  7. 1つまたは複数の遠赤外線(FIR)カメラを備える車両システムのためのプロセスを実行するための命令を記憶する非一時的コンピュータ可読媒体であって、
    前記命令は、
    前記1つまたは複数のFIRカメラの1つまたは複数の画像から検出された第1の物体を分類するステップと、
    前記第1の物体と一致する相対温度範囲を有する前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された第2の物体について、前記第2の物体を、前記第1の物体の前記分類を有するものとして認識するステップと
    前記第1の物体の前記分類に基づいて、前記第2の物体のエネルギー範囲を判断するステップと、
    前記第2の物体の前記エネルギー範囲および前記相対温度範囲に基づいて、前記第2の物体までの距離範囲を判断するステップと、
    を備える、非一時的コンピュータ可読媒体。
  8. 前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第1の物体を分類する前記ステップは、
    前記第1の物体の形状に基づいて、前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第1の物体を分類するステップと、
    前記第1の物体の相対温度範囲を判断するステップと、
    前記第1の物体の前記相対温度範囲を、前記第1の物体の前記分類に関連付けるステップと、
    を備える、請求項に記載の非一時的コンピュータ可読媒体。
  9. 前記車両システムは、画像情報および距離情報を提供するように構成されているセンサシステムをさらに備え、前記命令は、前記FIRカメラの前記1つまたは複数の画像を、前記センサシステムからの前記画像情報および距離情報と同期させるステップと、前記画像情報および距離情報に基づいて、前記第1の物体を分類するステップと、をさらに備える、請求項に記載の非一時的コンピュータ可読媒体。
  10. 前記命令は、
    温度および前記第1の物体までの距離に基づいて、前記第1の物体のエネルギーを判断するステップと、
    前記エネルギーに基づいて、前記1つまたは複数のFIRカメラの1つまたは複数の画像から検出された前記第1の物体を分類するステップと、
    前記第1の物体と一致する相対温度範囲を有し、かつ、前記第1の物体のエネルギー範囲内にある、前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第2の物体について、前記第2の物体を、前記第1の物体の前記分類を有するものとして認識するステップと、
    をさらに備える、請求項に記載の非一時的コンピュータ可読媒体。
  11. 前記命令は、
    前記第1の物体と一致する前記相対温度範囲を有さない前記1つまたは複数のFIRカメラの前記1つまたは複数の画像から検出された前記第2の物体について、以前に検出された物体の相対温度範囲と比較した前記相対温度範囲に基づいて、前記第2の物体を認識することを
    さらに備える、請求項に記載の非一時的コンピュータ可読媒体。
JP2021573828A 2019-07-03 2020-04-16 遠赤外線カメラによる物体認識 Active JP7204958B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/503,287 2019-07-03
US16/503,287 US11023743B2 (en) 2019-07-03 2019-07-03 Object recognition by far infrared camera
PCT/JP2020/016724 WO2021002083A1 (en) 2019-07-03 2020-04-16 Object recognition by far infrared camera

Publications (2)

Publication Number Publication Date
JP2022536423A JP2022536423A (ja) 2022-08-16
JP7204958B2 true JP7204958B2 (ja) 2023-01-16

Family

ID=74066455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573828A Active JP7204958B2 (ja) 2019-07-03 2020-04-16 遠赤外線カメラによる物体認識

Country Status (5)

Country Link
US (2) US11023743B2 (ja)
JP (1) JP7204958B2 (ja)
CN (1) CN114026624B (ja)
DE (1) DE112020002524T5 (ja)
WO (1) WO2021002083A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998596B (zh) * 2017-09-28 2023-11-07 苹果公司 夜间感测
US11023743B2 (en) * 2019-07-03 2021-06-01 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013042404A (ja) 2011-08-18 2013-02-28 Seiko Epson Corp 画像処理装置、画像処理システム、カメラ、カメラシステム
WO2019111464A1 (ja) 2017-12-04 2019-06-13 ソニー株式会社 画像処理装置及び画像処理方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5289275A (en) * 1991-07-12 1994-02-22 Hochiki Kabushiki Kaisha Surveillance monitor system using image processing for monitoring fires and thefts
JPH10108301A (ja) * 1996-09-30 1998-04-24 Nissan Motor Co Ltd 電気自動車の走行可能距離算出方法
JP3994954B2 (ja) * 2003-10-07 2007-10-24 日産自動車株式会社 物体検出装置及び物体検出方法
US7828478B2 (en) * 2004-09-29 2010-11-09 Delphi Technologies, Inc. Apparatus and method for thermal detection
JP2006177726A (ja) * 2004-12-21 2006-07-06 Nissan Motor Co Ltd 環境評価用赤外線画像作成装置及び環境評価用赤外線画像作成方法、環境評価用レーダ検出結果作成装置及び環境評価用レーダ検出結果作成方法、道路環境評価用データ作成装置及び道路環境評価用データ作成方法
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
GB2443664A (en) * 2006-11-10 2008-05-14 Autoliv Dev An infra red object detection system de-emphasizing non relevant hot objects
TW200840541A (en) * 2007-04-09 2008-10-16 Avita Corp Non-contact temperature-measuring device and the method thereof
JP2009301494A (ja) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
JP2010020557A (ja) * 2008-07-10 2010-01-28 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
EP2230496A1 (en) * 2009-03-16 2010-09-22 Autoliv Development AB Method and system for automatically detecting objects in front of a motor vehicle
DE102010048387A1 (de) * 2010-10-13 2012-04-19 Audi Ag Verfahren zum Ermitteln der Reichweite eines Kraftfahrzeugs
US8831806B2 (en) * 2011-10-28 2014-09-09 GM Global Technology Operations LLC Range estimation for a rechargeable energy storage system of a vehicle
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
CN203136029U (zh) * 2013-03-29 2013-08-14 张南峰 一种车载红外夜视成像系统
DE102013227051B4 (de) * 2013-12-20 2017-03-30 Leoni Kabel Holding Gmbh Messanordnung und Verfahren zur Temperaturmessung sowie Sensorkabel für eine derartige Messanordnung
JP5865926B2 (ja) * 2014-02-13 2016-02-17 三菱電機株式会社 航続可能距離出力装置および航続可能距離出力方法
US9552678B2 (en) * 2014-08-28 2017-01-24 Ford Global Technologies, Llc Distance to empty energy compensation
JP2016206056A (ja) * 2015-04-24 2016-12-08 株式会社Jvcケンウッド 推定装置、推定システム
CN111762136A (zh) * 2015-05-12 2020-10-13 深圳市大疆创新科技有限公司 识别或检测障碍物的设备和方法
IL239129A0 (en) * 2015-06-01 2015-11-30 Brightway Vision Ltd Image improvements in car imaging systems
CN205450630U (zh) * 2016-01-04 2016-08-10 天津普正动力科技有限公司 一种混合动力汽车车载信息系统
CN106551679A (zh) * 2016-11-01 2017-04-05 珠海格力电器股份有限公司 一种移动终端及基于移动终端的测温方法
KR20180096102A (ko) * 2017-02-20 2018-08-29 엘아이지넥스원 주식회사 적외선 센서를 이용한 표적 정보 획득 장치 및 방법
US10324226B2 (en) * 2017-02-23 2019-06-18 Witricity Corporation Foreign object detection using infared sensing
JP7188394B2 (ja) * 2017-10-02 2022-12-13 ソニーグループ株式会社 画像処理装置及び画像処理方法
US11023743B2 (en) * 2019-07-03 2021-06-01 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013042404A (ja) 2011-08-18 2013-02-28 Seiko Epson Corp 画像処理装置、画像処理システム、カメラ、カメラシステム
WO2019111464A1 (ja) 2017-12-04 2019-06-13 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
CN114026624A (zh) 2022-02-08
US11023743B2 (en) 2021-06-01
WO2021002083A1 (en) 2021-01-07
US20210004609A1 (en) 2021-01-07
US20220366699A1 (en) 2022-11-17
CN114026624B (zh) 2023-09-29
JP2022536423A (ja) 2022-08-16
DE112020002524T5 (de) 2022-03-24

Similar Documents

Publication Publication Date Title
US10753758B2 (en) Top-down refinement in lane marking navigation
US11003921B2 (en) Apparatus and method for distinguishing false target in vehicle and vehicle including the same
EP3327618B1 (en) Method and apparatus to control velocity of vehicle
CN108025644B (zh) 车辆用显示装置以及车辆用显示方法
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
WO2015125022A3 (en) Advanced driver assistance system based on radar-cued visual imaging
EP2787496B1 (en) Object detection device
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP7204958B2 (ja) 遠赤外線カメラによる物体認識
US20190026568A1 (en) Systems and methods for augmentating upright object detection
US11150333B2 (en) Object sensing apparatus and object sensing method
US20170254651A1 (en) Localization and mapping method and system
US20190266421A1 (en) System and method for detecting close cut-in vehicle based on free space signal
US20170308262A1 (en) Display control apparatus and display system
US20180315240A1 (en) Driving support apparatus, driving support system, driving support method, and computer readable recording medium
JP6365103B2 (ja) 信号機検出装置及び信号機検出方法
JP5698618B2 (ja) 絶対速度推定装置
JP2016189084A (ja) 車両状態判定装置
JP2013054399A (ja) 車両周辺監視装置
US11615627B2 (en) Object recognition apparatus, vehicle control apparatus, object recognition method, and vehicle control method
US20190279339A1 (en) Generating a super-resolution depth-map
EP3217357A1 (en) Estimation of movement of a target object
JP2009031299A (ja) 周辺監視センサ
EP2851840B1 (en) Vision system and vision method for a motor vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221228

R150 Certificate of patent or registration of utility model

Ref document number: 7204958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150