JP2022052416A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2022052416A
JP2022052416A JP2020158801A JP2020158801A JP2022052416A JP 2022052416 A JP2022052416 A JP 2022052416A JP 2020158801 A JP2020158801 A JP 2020158801A JP 2020158801 A JP2020158801 A JP 2020158801A JP 2022052416 A JP2022052416 A JP 2022052416A
Authority
JP
Japan
Prior art keywords
detection area
image processing
image
moving body
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020158801A
Other languages
Japanese (ja)
Inventor
史行 井澤
Fumiyuki Izawa
正樹 藤原
Masaki Fujiwara
直己 小川
Naoki Ogawa
祐也 松原
Yuya Matsubara
裕哉 尾▲崎▼
Yuya Ozaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020158801A priority Critical patent/JP2022052416A/en
Publication of JP2022052416A publication Critical patent/JP2022052416A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instrument Panels (AREA)

Abstract

To provide an image processing device capable of appropriately warning an occupant of a mobile body.SOLUTION: An image processing device 1 comprises: an input section 11 for acquiring an image obtained by imaging a peripheral area of a mobile body; and a display determination section 13 for selecting a detection area to be visually displayed for an occupant of the mobile body from areas where an obstacle included in the peripheral area is detected, in accordance with a travel state of the mobile body. In the image processing device 1, the detection area includes: a first detection area being an area in front of the mobile body within the peripheral area; and a second detection area being an area behind the mobile body. The first detection area may be visually displayed for the occupant of the mobile body by overlapping with the scene of the peripheral area or the image of the peripheral area, and the second detection area may be displayed under the first detection area.SELECTED DRAWING: Figure 1

Description

本開示は、画像処理装置に関する。 The present disclosure relates to an image processing apparatus.

近年、車両等の移動体に撮像装置が搭載されることがある。車両は例えば自動車であって、運転者による直接の目視が難しい周辺領域を撮像装置が撮像して、その映像を運転者のために表示装置に表示することができる。また、撮像画像に基づいて、車両の周辺に存在する人、他の車両等の障害物及び路面上の車線等が認識されて、車両の衝突回避のためのドライバへの警告、自動ブレーキ制御及びオートクルーズコントロールの為のアクセル制御等の運転支援に活用されることがある。 In recent years, an image pickup device may be mounted on a moving body such as a vehicle. The vehicle is, for example, an automobile, and the image pickup device can take an image of a peripheral area that is difficult for the driver to see directly, and the image can be displayed on the display device for the driver. In addition, based on the captured image, people existing around the vehicle, obstacles such as other vehicles, lanes on the road surface, etc. are recognized, warning to the driver for avoiding vehicle collision, automatic braking control, and It may be used for driving support such as accelerator control for auto cruise control.

ここで、車両の周辺に存在する人及び他の車両等の障害物の画像を、映像中で強調表示して運転者に示す運転支援において、全ての障害物を強調表示で鮮明化すると、本当に注意すべき障害物以外にも注意喚起されるので、逆に注意力が低下するという問題があった。これに対し、例えば特許文献1は、走路外領域の表示を走行予想領域の表示より抑制する画像表示制御装置を開示する。 Here, in the driving support that highlights the images of obstacles such as people and other vehicles existing around the vehicle in the video and shows them to the driver, if all the obstacles are highlighted by highlighting, it really is. There was a problem that attention was reduced because attention was given to obstacles other than obstacles that should be noted. On the other hand, for example, Patent Document 1 discloses an image display control device that suppresses the display of the out-of-track area from the display of the expected travel area.

特開2009-40108号公報Japanese Unexamined Patent Publication No. 2009-40108

しかし、特許文献1は直進する車両についての障害物を考慮するものであって、直進以外の車両の動きに適用できない。 However, Patent Document 1 considers obstacles for a vehicle traveling straight ahead, and cannot be applied to the movement of a vehicle other than traveling straight ahead.

上記のような従来技術の問題点に鑑みてなされた本開示の目的は、移動体の乗員に対して適切に注意喚起することができる画像処理装置を提供することにある。 An object of the present disclosure made in view of the above-mentioned problems of the prior art is to provide an image processing apparatus capable of appropriately alerting a moving occupant.

本開示の一実施形態に係る画像処理装置は、
移動体の周辺領域を撮像した画像を取得する入力部と、
前記周辺領域に含まれる障害物が検出される領域から、前記移動体の乗員に視認可能に表示させる検出領域を前記移動体の走行状況に応じて選択する表示判定部と、を備える。
The image processing apparatus according to the embodiment of the present disclosure is
An input unit that acquires an image of the peripheral area of a moving object, and
It is provided with a display determination unit that selects a detection area to be visually displayed to the occupant of the moving body from the area where an obstacle included in the peripheral area is detected according to the traveling condition of the moving body.

本開示によれば、移動体の乗員に対して適切に注意喚起することができる画像処理装置を提供することができる。 According to the present disclosure, it is possible to provide an image processing device capable of appropriately alerting a moving occupant.

図1は、本開示の一実施形態に係る画像処理装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present disclosure. 図2は、撮像装置を搭載した車両を例示する図である。FIG. 2 is a diagram illustrating a vehicle equipped with an image pickup device. 図3は、検出領域の1つの表示例を示す図である。FIG. 3 is a diagram showing one display example of the detection area. 図4は、検出領域の1つの表示例を示す図である。FIG. 4 is a diagram showing one display example of the detection area. 図5は、検出領域の1つの表示例を示す図である。FIG. 5 is a diagram showing one display example of the detection area. 図6は、画像処理装置が実行する画像処理方法のフローチャートである。FIG. 6 is a flowchart of an image processing method executed by the image processing apparatus. 図7は、検出領域の1つの表示例を示す図である。FIG. 7 is a diagram showing one display example of the detection area. 図8は、検出領域の1つの表示例を示す図である。FIG. 8 is a diagram showing one display example of the detection area. 図9は、動作環境設定方法を例示するフローチャートである。FIG. 9 is a flowchart illustrating an operating environment setting method.

図1は、本開示の一実施形態に係る画像処理装置1の概略構成を示すブロック図である。本実施形態に係る画像処理装置1は、移動体100(図2参照)に搭載されて、移動体100の周辺領域を撮像した画像などに、安全走行のために注意喚起する画像を重畳して表示させる。 FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus 1 according to an embodiment of the present disclosure. The image processing device 1 according to the present embodiment is mounted on the moving body 100 (see FIG. 2), and an image that calls attention for safe driving is superimposed on an image obtained by capturing an image of the peripheral area of the moving body 100. Display.

画像処理装置1は、入力部11と、認識部12と、表示判定部13と、重畳処理部14と、を備える。画像処理装置1の各機能ブロックの詳細については後述する。また、図1は一例であって、画像処理装置1が図1に示される機能ブロックの全てを備えなくてよいし、図1に示されない機能ブロックをさらに備えてよい。 The image processing device 1 includes an input unit 11, a recognition unit 12, a display determination unit 13, and a superimposition processing unit 14. Details of each functional block of the image processing device 1 will be described later. Further, FIG. 1 is an example, and the image processing apparatus 1 may not include all of the functional blocks shown in FIG. 1, and may further include functional blocks not shown in FIG.

画像処理装置1は、撮像装置101、ECU102及び外部機器110と必要な情報を送受信する。本実施形態において、画像処理装置1は、移動体100に取り付けられた撮像装置101(いわゆる車載カメラ)から、移動体100の周辺領域を撮像した画像を取得する。図2は、撮像装置101を搭載した移動体100を例示する図である。撮像装置101は、1つ以上であって、移動体100の種々の場所に設置される。本実施形態において、撮像装置101aは、移動体100の進行方向(以下、前方という)を撮像し、フロントバンパー又はその近傍に配置され得る。撮像装置101bは、移動体100の進行方向と逆方向(以下、後方という)を撮像し、リアバンパー又はその近傍に配置され得る。撮像装置101cは、移動体100の進行方向に対して左側の側面の方向(以下、左方という)を撮像し、移動体100の左方のドアミラー又はその近傍に配置され得る。撮像装置101dは、移動体100の進行方向に対して右側の側面の方向(以下、右方という)を撮像し、移動体100の右方のドアミラー又はその近傍に配置され得る。図2に示される扇形の領域は、撮像装置101a、撮像装置101b、撮像装置101c及び撮像装置101dがそれぞれ撮像できる領域を例示するものである。撮像装置101は、走行中の移動体100の周辺領域を撮像することができる。ここで、撮像装置101の数は本実施形態のように4つであってよいが、1つ又は2つであってよいし、その他の数であってよい。 The image processing device 1 transmits and receives necessary information to and from the image pickup device 101, the ECU 102, and the external device 110. In the present embodiment, the image processing device 1 acquires an image obtained by capturing an image of the peripheral region of the moving body 100 from the image pickup device 101 (so-called vehicle-mounted camera) attached to the moving body 100. FIG. 2 is a diagram illustrating a mobile body 100 equipped with an image pickup device 101. The image pickup apparatus 101 is one or more, and is installed at various places of the moving body 100. In the present embodiment, the image pickup apparatus 101a may image the traveling direction (hereinafter referred to as “forward”) of the moving body 100 and may be arranged at or near the front bumper. The image pickup apparatus 101b may take an image in a direction opposite to the traveling direction of the moving body 100 (hereinafter referred to as “rearward”) and may be arranged at or near the rear bumper. The image pickup apparatus 101c may image the direction of the side surface on the left side with respect to the traveling direction of the moving body 100 (hereinafter referred to as the left side), and may be arranged at or near the door mirror on the left side of the moving body 100. The image pickup apparatus 101d may image the direction of the side surface on the right side with respect to the traveling direction of the moving body 100 (hereinafter referred to as the right side), and may be arranged at or near the door mirror on the right side of the moving body 100. The fan-shaped region shown in FIG. 2 exemplifies a region that can be imaged by the image pickup device 101a, the image pickup device 101b, the image pickup device 101c, and the image pickup device 101d, respectively. The image pickup apparatus 101 can take an image of the peripheral region of the moving body 100 in motion. Here, the number of the image pickup apparatus 101 may be four as in the present embodiment, but may be one or two, or may be another number.

ここで、本開示において移動体100は、車両、船舶、航空機を含む。車両は、自動車及び産業車両を含むが、これに限られず、鉄道車両及び生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、及びトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業及び建設向けの産業車両を含む。産業車両には、フォークリフト、及びゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。車両の分類は、上記に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。本実施形態において、移動体100は車両であるとして説明する。 Here, in the present disclosure, the mobile body 100 includes a vehicle, a ship, and an aircraft. Vehicles include, but are not limited to, automobiles and industrial vehicles, and may include railroad vehicles, living vehicles, and fixed-wing aircraft traveling on runways. Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolley buses and the like, and may include other vehicles traveling on the road. Industrial vehicles include industrial vehicles for agriculture and construction. Industrial vehicles include, but are not limited to, forklifts and golf carts. Industrial vehicles for agriculture include, but are not limited to, tractors, tillers, transplanters, binders, combines, and lawnmowers. Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, mobile cranes, dump trucks, and road rollers. Vehicles include those that run manually. The classification of vehicles is not limited to the above. For example, an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of categories. Vessels in the present disclosure include marine jets, boats and tankers. Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft. In the present embodiment, the moving body 100 will be described as a vehicle.

また、画像処理装置1は、移動体100のECU(Electronic Control Unit)102から移動体100の走行状況に関する情報を取得する。画像処理装置1がECU102から取得する移動体100の走行状況に関する情報は、例えば、移動体100の速度などを含む。画像処理装置1とECU102とは、例えばCAN(Controller Area Network)で接続されてよい。 Further, the image processing device 1 acquires information on the traveling status of the moving body 100 from the ECU (Electronic Control Unit) 102 of the moving body 100. The information regarding the traveling state of the moving body 100 acquired from the image processing device 1 from the ECU 102 includes, for example, the speed of the moving body 100 and the like. The image processing device 1 and the ECU 102 may be connected by, for example, CAN (Control Area Area Network).

また、画像処理装置1は、安全走行のために注意喚起する画像の情報を出力して、外部機器110に表示させる。画像処理装置1から出力される画像は、後述する検出領域の画像を含む。本実施形態において、外部機器110は、ヘッドアップディスプレイ(HUD:Head-Up Display)を含む。外部機器110は、移動体100の乗員が視認可能であるように移動体100のウインドシールド(フロントガラス)に画像を投影し、画像が投影されたウインドシールドが表示部111に対応する。 Further, the image processing device 1 outputs information of an image that calls attention for safe driving and displays it on the external device 110. The image output from the image processing device 1 includes an image in a detection area described later. In the present embodiment, the external device 110 includes a head-up display (HUD: Head-Up Display). The external device 110 projects an image on the windshield (windshield) of the moving body 100 so that the occupant of the moving body 100 can see it, and the windshield on which the image is projected corresponds to the display unit 111.

また、本実施形態において、外部機器110はナビゲーション装置を含む。ナビゲーション装置からの目的地までの経路情報は、ヘッドアップディスプレイによってウインドシールドに画像として投影される。つまり、本実施形態において、ナビゲーション装置とヘッドアップディスプレイとは連動して動作する。別の例として、外部機器110はヘッドアップディスプレイ又はナビゲーション装置だけであってよいし、これら以外の機器をさらに含んでよい。例えば外部機器110がナビゲーション装置であって、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどの表示部111に、安全走行のために注意喚起する画像が表示されてよい。 Further, in the present embodiment, the external device 110 includes a navigation device. The route information from the navigation device to the destination is projected as an image on the windshield by the head-up display. That is, in the present embodiment, the navigation device and the head-up display operate in conjunction with each other. As another example, the external device 110 may be only a head-up display or a navigation device, and may further include devices other than these. For example, the external device 110 is a navigation device, and an image calling attention for safe driving may be displayed on a display unit 111 such as a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Electro-luminescence) display. ..

画像処理装置1は、外部機器110から移動体100の走行状況に関する情報を取得する。画像処理装置1が外部機器110から取得する移動体100の走行状況に関する情報は、例えば、移動体100が右折又は左折する場所までの距離、地図情報及び移動体100の現在位置などを含む。ここで、画像処理装置1は、撮像装置101、ECU102及び外部機器110と共に、移動体100に搭載される画像処理システムを構成してよい。 The image processing device 1 acquires information on the traveling status of the moving body 100 from the external device 110. The information regarding the traveling state of the moving body 100 acquired by the image processing device 1 from the external device 110 includes, for example, the distance to the place where the moving body 100 turns right or left, the map information, the current position of the moving body 100, and the like. Here, the image processing device 1 may configure an image processing system mounted on the moving body 100 together with the image pickup device 101, the ECU 102, and the external device 110.

(画像処理装置の構成)
入力部11は、撮像装置101から、移動体100の周辺領域を撮像した画像を取得する。本実施形態において、撮像装置101の数は4つである。これに対応して、撮像装置101はそれぞれの撮像装置101から撮像画像を取得する4つの部分で構成されてよい。入力部11は、入力される画像信号の伝送方式に応じたコネクタを有する。例えば、入力部11は、物理コネクタを含む。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタが含まれる。電気コネクタには、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、RCA端子に対応するコネクタ、EIAJ CP-1211Aに規定されるS端子に対応するコネクタ、EIAJ RC-5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、及びBNCを含む同軸ケーブルに対応するコネクタを含む。光コネクタは、IEC 61754に準拠する種々のコネクタを含む。入力部11は、無線通信機を含むことができる。無線通信機は、Bluetooth(登録商標)、及びIEEE802.11を含む各規格に準拠する無線通信機を含んでよい。
(Configuration of image processing device)
The input unit 11 acquires an image of the peripheral region of the moving body 100 from the image pickup device 101. In this embodiment, the number of image pickup devices 101 is four. Correspondingly, the image pickup device 101 may be composed of four parts for acquiring a captured image from each image pickup device 101. The input unit 11 has a connector according to the transmission method of the input image signal. For example, the input unit 11 includes a physical connector. The physical connector includes an electric connector corresponding to transmission by an electric signal, an optical connector corresponding to transmission by an optical signal, and an electromagnetic connector corresponding to transmission by an electromagnetic wave. The electrical connector includes a connector compliant with IEC60603, a connector compliant with the USB standard, a connector corresponding to the RCA terminal, a connector corresponding to the S terminal specified in EIAJ CP-1211A, and a D terminal specified in EIAJ RC-5237. Includes connectors that support HDMI, HDMI (Registered Trademark) standards, and connectors that support coaxial cables, including BNC. Optical connectors include various connectors according to IEC 61754. The input unit 11 can include a wireless communication device. The wireless communication device may include a wireless communication device conforming to each standard including Bluetooth (registered trademark) and 802.11.

認識部12は、入力部11が取得した画像について物体認識を実行する。物体認識は、画像に含まれている物体を識別して、その物体が何であるかを認識する処理である。本開示において、物体認識における物体は人及び他の車両等を含む。物体認識は、公知の手法を用いてよく、例えば事前学習済みのディープラーニングモデルが用いられてよい。 The recognition unit 12 executes object recognition for the image acquired by the input unit 11. Object recognition is a process of identifying an object contained in an image and recognizing what the object is. In the present disclosure, an object in object recognition includes a person, another vehicle, and the like. For object recognition, a known method may be used, for example, a pre-learned deep learning model may be used.

また、認識部12は、認識した物体に障害物が含まれるかを判定する。本開示において、障害物は、移動体100の進行の妨げとなる物体及び移動体100の進行の妨げとなるおそれがある物体をいう。障害物となり得る物体は、具体例として二輪車、自動車及び人を含む。認識部12は、障害物を認識した場合に、障害物の画像における座標、移動体100との実際の位置関係、及び大きさなどを計算する。認識部12は、計算した障害物の座標などを、障害物情報として表示判定部13に出力する。ここで、認識部12の処理は、表示判定部13によって実行されてよい。つまり、認識部12は、表示判定部13に含まれる構成であってよい。 Further, the recognition unit 12 determines whether or not the recognized object includes an obstacle. In the present disclosure, the obstacle refers to an object that hinders the progress of the moving body 100 and an object that may hinder the progress of the moving body 100. Objects that can be obstacles include, for example, motorcycles, automobiles and people. When the obstacle is recognized, the recognition unit 12 calculates the coordinates in the image of the obstacle, the actual positional relationship with the moving body 100, the size, and the like. The recognition unit 12 outputs the calculated coordinates of the obstacle to the display determination unit 13 as obstacle information. Here, the processing of the recognition unit 12 may be executed by the display determination unit 13. That is, the recognition unit 12 may be configured to be included in the display determination unit 13.

表示判定部13は、撮像装置101によって撮像される移動体100の周辺領域の一部である検出領域を、重畳処理部14を介して、移動体100の乗員に視認可能に表示させる。ここで、検出領域とは、撮像装置101によって撮像される周辺領域のうち、障害物が認識された場合に検出領域の表示態様を変化させる等によって、移動体100の運転者に報知される領域である。検出領域以外の領域に障害物が存在する場合、その障害物は周辺領域の映像に表示される。検出領域以外の領域にある障害物の存在及び種類について報知することも可能であるが、運転者の注意力低下を防ぐ観点から、運転者への報知は行わなくてよい。表示判定部13は、ECU102及び外部機器110から移動体100の走行状況に関する情報を取得する。表示判定部13は、移動体100の走行状況に応じて、周辺領域から検出領域を選択してよい。また、上記のように、表示判定部13は、認識部12から障害物情報を取得する。表示判定部13は、障害物が検出された場合に、検出された障害物が含まれる少なくとも一部の検出領域の表示態様を変化させる。本実施形態において、表示判定部13は、移動体100が右折又は左折する場所に接近した場合に、検出領域を表示させる。このように、表示判定部13は、検出領域の表示又は非表示、検出領域の表示態様について判定する。検出領域の詳細及び表示判定部13が実行する検出領域に関する制御の詳細については後述する。 The display determination unit 13 visually displays the detection area, which is a part of the peripheral area of the mobile body 100 imaged by the image pickup apparatus 101, to the occupant of the mobile body 100 via the superimposition processing unit 14. Here, the detection area is a peripheral area imaged by the image pickup apparatus 101, which is notified to the driver of the mobile body 100 by changing the display mode of the detection area when an obstacle is recognized. Is. If an obstacle exists in an area other than the detection area, the obstacle is displayed in the image of the surrounding area. Although it is possible to notify the existence and type of obstacles in an area other than the detection area, it is not necessary to notify the driver from the viewpoint of preventing the driver's attention from being lowered. The display determination unit 13 acquires information on the traveling status of the mobile body 100 from the ECU 102 and the external device 110. The display determination unit 13 may select a detection area from the peripheral area according to the traveling condition of the moving body 100. Further, as described above, the display determination unit 13 acquires obstacle information from the recognition unit 12. When an obstacle is detected, the display determination unit 13 changes the display mode of at least a part of the detection area including the detected obstacle. In the present embodiment, the display determination unit 13 displays the detection area when the moving body 100 approaches a place where the moving body 100 turns right or left. In this way, the display determination unit 13 determines the display or non-display of the detection area and the display mode of the detection area. The details of the detection area and the details of the control regarding the detection area executed by the display determination unit 13 will be described later.

重畳処理部14は、表示判定部13の判定に従って、検出領域が外部機器110の表示画像に重畳表示されるようにする。重畳処理部14は、例えばヘッドアップディスプレイの表示画像に重畳表示させる場合に、ウインドシールドに検出領域が適切に表示されるように、検出領域の表示位置、大きさなどを調整する。別の例として、重畳処理部14は、ナビゲーション装置のディスプレイに重畳表示させる場合に、ディスプレイに表示される地図及び移動体100の位置を示すアイコンと共に検出領域が適切に表示されるように、検出領域の表示位置、大きさなどを調整する。更に別の例として、重畳処理部14は、ナビゲーション装置のディスプレイに重畳表示させる場合に、ディスプレイに表示される移動体100の進行方向を撮影した映像に検出領域が適切に表示されるように、検出領域の表示位置、大きさなどを調整する。 The superimposition processing unit 14 causes the detection area to be superimposed and displayed on the display image of the external device 110 according to the determination of the display determination unit 13. The superimposition processing unit 14 adjusts the display position, size, and the like of the detection area so that the detection area is appropriately displayed on the windshield, for example, when superimposing the image on the display image of the head-up display. As another example, the superimposition processing unit 14 detects so that the detection area is appropriately displayed together with the map displayed on the display and the icon indicating the position of the moving body 100 when the superimposition processing unit 14 is superposed on the display of the navigation device. Adjust the display position, size, etc. of the area. As yet another example, when the superimposition processing unit 14 superimposes and displays on the display of the navigation device, the detection area is appropriately displayed in the image obtained by capturing the traveling direction of the moving body 100 displayed on the display. Adjust the display position, size, etc. of the detection area.

本実施形態において、撮像装置101の数は4つである。これに対応して、重畳処理部14はそれぞれの撮像装置101の撮像領域について独立に重畳表示の処理を実行可能なように、4つの部分で構成されてよい。ここで、重畳処理部14の処理は、表示判定部13によって実行されてよい。つまり、重畳処理部14は、表示判定部13に含まれる構成であってよい。 In this embodiment, the number of image pickup devices 101 is four. Correspondingly, the superimposition processing unit 14 may be composed of four parts so that the superimposition display processing can be independently executed for the image pickup region of each image pickup apparatus 101. Here, the processing of the superimposition processing unit 14 may be executed by the display determination unit 13. That is, the superimposition processing unit 14 may be configured to be included in the display determination unit 13.

ここで、画像処理装置1は1つ以上のプロセッサを含んで構成されてよい。本開示における「プロセッサ」は、特定の処理に特化した専用のプロセッサ、及び特定のプログラムを読み込むことによって特定の機能を実行する汎用のプロセッサを含んでよい。専用のプロセッサには、DSP(Digital Signal Processor)及び特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれてよい。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれてよい。PLDには、FPGA(Field-Programmable Gate Array)が含まれてよい。画像処理装置1は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。プロセッサは、種々の処理のためのプログラム及び演算中の情報を記憶する1又は複数のメモリを含んでよい。メモリは、揮発性メモリ及び不揮発性メモリが含まれる。 Here, the image processing device 1 may be configured to include one or more processors. The "processor" in the present disclosure may include a dedicated processor specialized for a specific process, and a general-purpose processor that performs a specific function by reading a specific program. Dedicated processors may include DSPs (Digital Signal Processors) and application specific integrated circuits (ASICs). The processor may include a programmable logic device (PLD). The PLD may include an FPGA (Field-Programmable Gate Array). The image processing device 1 may be either a System (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package). The processor may include programs for various processes and one or more memories for storing information in operation. The memory includes a volatile memory and a non-volatile memory.

画像処理装置1の各機能ブロックは、ハードウェアモジュールであってよく、ソフトウェアモジュールであってよい。各機能ブロックの実行する動作は、画像処理装置1が実行するものと言い換えることができる。画像処理装置1が実行する動作は、画像処理装置1を構成する少なくとも1つのプロセッサが実行するものと言い換えることができる。各機能ブロックの機能は、複数のプロセッサによって分散して実行されてよい。また、単一のプロセッサが複数の機能ブロックの機能を実行してよい。 Each functional block of the image processing apparatus 1 may be a hardware module or a software module. The operation executed by each functional block can be rephrased as that executed by the image processing device 1. The operation executed by the image processing device 1 can be rephrased as being executed by at least one processor constituting the image processing device 1. The functions of each functional block may be distributed and executed by a plurality of processors. Also, a single processor may perform the functions of multiple functional blocks.

(検出領域)
検出領域は、上記のように、撮像装置101によって撮像される移動体100の周辺領域の一部である。検出領域は、安全走行のために特に注意すべき領域であって、運転者を含む移動体100の乗員に対して表示される。
(Detection area)
As described above, the detection region is a part of the peripheral region of the mobile body 100 imaged by the image pickup apparatus 101. The detection area is an area to be paid special attention to for safe driving, and is displayed to the occupants of the mobile body 100 including the driver.

図3は、検出領域の1つの表示例を示す図である。図3及び後述する図4、図5、図7及び図8では、ヘッドアップディスプレイを通して観察する移動体100の進行方向の景色に検出領域の画像(検出領域画像31)、及び右左折矢印などの案内画像を重畳表示した状態を例示する。これらの画像の表示は、移動体100のウインドシールドに投影して表示することで、運転者に虚像として適切な位置に認識されることを指す。つまり、これらの図は、運転者の視点での検出領域の表示例を示す。図3には、ヘッドアップディスプレイの表示画像である左折矢印32と、画像処理装置1が重畳表示させた検出領域画像31とが示されている。左折矢印32は、ヘッドアップディスプレイがナビゲーション装置から画像情報を取得して、表示させるものである。また、検出領域画像31は、ヘッドアップディスプレイが画像処理装置1から画像情報を取得して、重畳表示させるものである。図3の例において、検出領域画像31は、前方の検出領域画像31a及び後方の検出領域画像31bを含む。つまり、図3の例において、検出領域として、前方だけでなく、移動体100の右左折で注意すべき後方が選択されている。換言すると、図3の例における検出領域は、移動体100の前方の領域である第1の検出領域と、移動体100の後方の領域である第2の検出領域を含む。検出領域画像31a及び検出領域画像31bは、それぞれ撮像装置101a及び撮像装置101bの撮像可能領域に対応して、扇形で示されている(図2参照)。第1の検出領域に対応する検出領域画像31aの下部に、第2の検出領域に対応する検出領域画像31bが表示されている。また、図3の例において、検出領域画像31aは、運転者が距離を把握しやすいように近くと遠くとで異なる色を有するが、さらに細分されてよいし、全体が1つの色で表示されてよい。 FIG. 3 is a diagram showing one display example of the detection area. In FIG. 3, FIG. 4, FIG. 5, FIG. 7 and FIG. 8 described later, an image of the detection area (detection area image 31), a right / left turn arrow, etc. An example shows a state in which a guide image is superimposed and displayed. The display of these images means that by projecting the image onto the windshield of the moving body 100 and displaying it, the driver recognizes it as a virtual image at an appropriate position. That is, these figures show an example of displaying the detection area from the driver's point of view. FIG. 3 shows a left turn arrow 32, which is a display image of the head-up display, and a detection area image 31 superimposed and displayed by the image processing device 1. The left turn arrow 32 is for the head-up display to acquire image information from the navigation device and display it. Further, in the detection area image 31, the head-up display acquires image information from the image processing device 1 and displays the image information in an superimposed manner. In the example of FIG. 3, the detection area image 31 includes a front detection area image 31a and a rear detection area image 31b. That is, in the example of FIG. 3, as the detection area, not only the front but also the rear, which should be noted when turning left or right of the moving body 100, is selected. In other words, the detection region in the example of FIG. 3 includes a first detection region which is a region in front of the mobile body 100 and a second detection region which is a region behind the mobile body 100. The detection region image 31a and the detection region image 31b are shown in a fan shape corresponding to the imageable region of the image pickup apparatus 101a and the image pickup apparatus 101b, respectively (see FIG. 2). The detection area image 31b corresponding to the second detection area is displayed at the lower part of the detection area image 31a corresponding to the first detection area. Further, in the example of FIG. 3, the detection area image 31a has different colors for near and far so that the driver can easily grasp the distance, but may be further subdivided, and the whole is displayed in one color. It's okay.

図3は、移動体100が左折する交差点に接近している状況における、検出領域の表示例を示す。図3は、左図、中央図、右図を含み、移動体100が交差点に近付くにつれて、この順で表示が変化する。まず、図3の左図に示すように、移動体100が左折する交差点に接近するとナビゲーション装置から左折矢印32が示される。ナビゲーション装置から左折矢印32が示されたことを契機に、それぞれ扇形の検出領域画像31a及び検出領域画像31bが表示される。そして、検出領域を表示させた地点から、移動体100の右折又は左折が終了する地点までの走行状況に応じて、検出領域の位置が変化して、検出領域に対応する表示画像も変化する。図3の中央図及び右図に示すように、移動体100が交差点にさらに接近して左折する場合に、検出領域の表示態様が変化する。具体的に言うと、検出領域が移動体100の曲がる方向に向かって移動するのに従って、検出領域画像31a及び検出領域画像31bの扇形の領域は、移動体100の曲がる方向である左側に向かって減少していく。ここで、移動体100が右折する場合には、検出領域画像31a及び検出領域画像31bの扇形の領域は右側に向かって減少する。このような検出領域画像31の形状変化は、移動体100が左折(又は右折)する場合に、運転者が特に注意すべき領域が変化することに対応する。例えば、移動体100が左折(又は右折)をしている場合に、運転者は対向車線よりも、曲がる先及び曲がる方向側の後方に障害物がないかを特に注意すべきである。したがって、図3のような検出領域画像31の形状変化は、運転者が障害物に注意すべき検出領域を、移動体100の左折(又は右折)動作の状況に合わせて適切に示すことを可能にする。 FIG. 3 shows a display example of the detection area in a situation where the moving body 100 is approaching an intersection where the moving body 100 turns left. FIG. 3 includes a left view, a center view, and a right view, and the display changes in this order as the moving body 100 approaches the intersection. First, as shown in the left figure of FIG. 3, when the moving body 100 approaches an intersection where a left turn is made, a left turn arrow 32 is indicated by the navigation device. When the left turn arrow 32 is indicated by the navigation device, the fan-shaped detection area image 31a and the detection area image 31b are displayed, respectively. Then, the position of the detection area changes according to the traveling condition from the point where the detection area is displayed to the point where the right turn or the left turn of the moving body 100 ends, and the display image corresponding to the detection area also changes. As shown in the center view and the right figure of FIG. 3, when the moving body 100 approaches the intersection and turns left, the display mode of the detection area changes. Specifically, as the detection region moves toward the bending direction of the moving body 100, the fan-shaped regions of the detection area image 31a and the detection area image 31b move toward the left side, which is the bending direction of the moving body 100. It will decrease. Here, when the moving body 100 makes a right turn, the fan-shaped areas of the detection area image 31a and the detection area image 31b decrease toward the right side. Such a change in the shape of the detection area image 31 corresponds to a change in the area that the driver should pay particular attention to when the moving body 100 turns left (or right). For example, when the moving body 100 is making a left turn (or a right turn), the driver should pay particular attention to whether there is an obstacle at the end of the turn and behind the turn direction side with respect to the oncoming lane. Therefore, the shape change of the detection area image 31 as shown in FIG. 3 makes it possible to appropriately indicate the detection area in which the driver should pay attention to obstacles according to the situation of the left turn (or right turn) operation of the moving body 100. To.

画像処理装置1は、認識部12が障害物を認識し、表示判定部13がその障害物が検出領域に含まれると判定した場合に、さらに運転者に注意喚起する表示形態で検出領域画像31を表示させることができる。 When the recognition unit 12 recognizes an obstacle and the display determination unit 13 determines that the obstacle is included in the detection area, the image processing device 1 further alerts the driver to the detection area image 31. Can be displayed.

図4は、移動体100が左折する交差点に接近し、後方の検出領域に障害物が検出された状況における、検出領域の表示例を示す。図4は、左図、中央図、右図を含み、移動体100が交差点に近付くにつれて、この順で表示が変化する。検出領域画像31a、検出領域画像31b及び左折矢印32は図3と同じである。障害物が検出領域において検出された場合に、その検出領域の表示色を変化させて示すことによって、運転者に障害物の存在を知らせることができる。図4の例では、移動体100が交差点に接近してから左折するまで後方の検出領域に障害物が存在する状況であって、後方の検出領域に対応する検出領域画像31bの表示色が既定の色(以下、基準色という)から変化している。運転者の注意を促すために、障害物が検出された場合の表示色は、基準色よりも目立つ色に設定される。例えば基準色が青色である場合に、障害物が検出された場合の表示色は黄色であってよい。ここで、図4の例において、前方の検出領域には障害物が検出されていないため検出領域画像31aの表示色は基準色のままである。 FIG. 4 shows a display example of a detection area in a situation where the moving body 100 approaches an intersection where a left turn is made and an obstacle is detected in the detection area behind. FIG. 4 includes a left view, a center view, and a right view, and the display changes in this order as the moving body 100 approaches the intersection. The detection area image 31a, the detection area image 31b, and the left turn arrow 32 are the same as those in FIG. When an obstacle is detected in the detection area, the driver can be notified of the presence of the obstacle by changing the display color of the detection area. In the example of FIG. 4, there is an obstacle in the rear detection area from the time when the moving body 100 approaches the intersection until the left turn, and the display color of the detection area image 31b corresponding to the rear detection area is the default. It has changed from the color of (hereinafter referred to as the standard color). In order to draw the driver's attention, the display color when an obstacle is detected is set to a color that stands out from the reference color. For example, when the reference color is blue, the display color when an obstacle is detected may be yellow. Here, in the example of FIG. 4, since no obstacle is detected in the front detection area, the display color of the detection area image 31a remains the reference color.

図5は、移動体100が左折する交差点に接近し、前方に障害物が検出された状況における、検出領域の表示例を示す。図5は、左図、中央図、右図を含み、移動体100が交差点に近付くにつれて、この順で表示が変化する。検出領域画像31a、検出領域画像31b及び左折矢印32は図3と同じである。図5の例は、移動体100が交差点に接近する途中において、曲がる先(交差点の左側)で障害物が検出された状況における検出領域画像31の変化を示す。このとき、前方の検出領域で障害物が検出された状態に対応する中央図及び右図に示すように、前方の検出領域に対応する検出領域画像31aの表示色が基準色から変化して、運転者に障害物の存在を知らせることができる。ここで、図5の例において、障害物が検出されていない後方の検出領域に対応する検出領域画像31bの表示色は基準色のままである。ここで、運転者に障害物の存在を知らせる方法としては、警告音を発するなどの態様もとりうる。 FIG. 5 shows a display example of a detection area in a situation where the moving body 100 approaches an intersection where a left turn is made and an obstacle is detected in front of the intersection. FIG. 5 includes a left view, a center view, and a right view, and the display changes in this order as the moving body 100 approaches the intersection. The detection area image 31a, the detection area image 31b, and the left turn arrow 32 are the same as those in FIG. The example of FIG. 5 shows a change in the detection area image 31 in a situation where an obstacle is detected at a turning point (left side of the intersection) while the moving body 100 is approaching the intersection. At this time, as shown in the central figure and the right figure corresponding to the state in which an obstacle is detected in the front detection area, the display color of the detection area image 31a corresponding to the front detection area changes from the reference color. The driver can be informed of the presence of obstacles. Here, in the example of FIG. 5, the display color of the detection area image 31b corresponding to the detection area behind the area where no obstacle is detected remains the reference color. Here, as a method of notifying the driver of the existence of an obstacle, a mode such as issuing a warning sound may be taken.

ここで、障害物が検出された場合に変化する検出領域画像31の表示色は、障害物の種類に応じて変化してよい。例えば障害物が二輪車、自動車及び人の場合に、それぞれ、検出領域画像31の表示色は緑色、赤色、黄色に変化してよい。このとき、運転者は注意すべき対象を容易に把握することができる。また、障害物が検出された場合に生じる検出領域画像31の変化は、表示色の変化に限定されない。つまり、障害物が含まれる少なくとも一部の検出領域について、運転者に注意を促すように表示態様が変化すればよい。別の例として、検出領域画像31が点滅したり、検出領域画像31の明るさが変化したりしてよい。検出領域画像31のうち障害物が存在する部分のみの色を変化させてよい。また、障害物の周囲が、枠状の画像で囲まれて運転者に認識しうるように、枠状の画像を表示させてよい。 Here, the display color of the detection area image 31, which changes when an obstacle is detected, may change depending on the type of the obstacle. For example, when the obstacles are a two-wheeled vehicle, an automobile, and a person, the display colors of the detection area image 31 may change to green, red, and yellow, respectively. At this time, the driver can easily grasp the object to be noted. Further, the change in the detection area image 31 that occurs when an obstacle is detected is not limited to the change in the display color. That is, the display mode may be changed so as to call the driver's attention to at least a part of the detection area including the obstacle. As another example, the detection area image 31 may blink, or the brightness of the detection area image 31 may change. The color of only the portion of the detection area image 31 where an obstacle exists may be changed. Further, the frame-shaped image may be displayed so that the periphery of the obstacle is surrounded by the frame-shaped image and can be recognized by the driver.

(画像処理方法)
図6は、画像処理装置1が実行する画像処理方法のフローチャートである。画像処理装置1は、以下に説明する処理を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実行するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。磁気記憶媒体は、磁気ディスク、ハードディスク、磁気テープを含む。光学記憶媒体は、CD(Compact Disc)、DVD、ブルーレイディスク(Blu-ray(登録商標) Disc)等の光ディスクを含む。半導体記憶媒体は、ROM(Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリを含む。
(Image processing method)
FIG. 6 is a flowchart of an image processing method executed by the image processing apparatus 1. The image processing apparatus 1 may be configured to read and execute a program recorded on a non-temporary computer-readable medium for the processing described below. Non-temporary computer-readable media include, but are not limited to, magnetic storage media, optical storage media, photomagnetic storage media, and semiconductor storage media. Magnetic storage media include magnetic disks, hard disks, and magnetic tapes. The optical storage medium includes an optical disk such as a CD (Compact Disc), a DVD, and a Blu-ray disc (Blu-ray (registered trademark) Disc). The semiconductor storage medium includes a ROM (Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and a flash memory.

画像処理装置1は、移動体100が右折又は左折する場所に接近しているかを判定する(ステップS1)。画像処理装置1は、ステップS1の判定を、ECU102及び外部機器110から取得する移動体100の走行状況に関する情報に基づいて実行してよい。画像処理装置1は、例えばナビゲーション装置から取得した右折又は左折する場所までの距離の情報を用いてよい。例えば、ナビゲーション装置が右折又は左折の案内を表示している状態であるという情報と、ECU102から取得した速度の情報と、を用いてよい。画像処理装置1は、例えば、移動体100の速度が低速(一例として15km/h以下)であって、右折又は左折する場所までの距離が近い(一例として700m以内)場合に、移動体100が右折又は左折する場所に接近していると判定してよい。 The image processing device 1 determines whether the moving body 100 is approaching a place where the moving body 100 turns right or left (step S1). The image processing device 1 may execute the determination in step S1 based on the information regarding the traveling state of the moving body 100 acquired from the ECU 102 and the external device 110. The image processing device 1 may use, for example, the information of the distance to the place where the right turn or the left turn is obtained from the navigation device. For example, the information that the navigation device is displaying the right turn or left turn guidance and the speed information acquired from the ECU 102 may be used. In the image processing device 1, for example, when the speed of the moving body 100 is low (15 km / h or less as an example) and the distance to the place where the right or left turn is short (within 700 m as an example), the moving body 100 is used. It may be determined that the vehicle is approaching a place to turn right or left.

ここで、画像処理装置1は、移動体100の走行状況に関する情報として、地図情報と移動体100の現在位置の情報(一例として緯度、経度等の座標)を取得する場合に、これらに基づいてステップS1の判定を実行してよい。つまり、画像処理装置1は、右折又は左折する場所と現在位置との距離を計算して、計算した距離に応じて、右折又は左折する場所に接近しているか否かを判定してよい。 Here, when the image processing device 1 acquires map information and information on the current position of the moving body 100 (as an example, coordinates such as latitude and longitude) as information on the traveling status of the moving body 100, the image processing device 1 is based on these. The determination in step S1 may be executed. That is, the image processing device 1 may calculate the distance between the place where the right turn or the left turn is made and the current position, and determine whether or not the image processing device 1 is approaching the place where the right turn or the left turn is made according to the calculated distance.

画像処理装置1は、右折又は左折する場所に接近していると判定した場合に(ステップS1のYes)、ステップS2の処理に進む。画像処理装置1は、右折又は左折する場所に接近していないと判定した場合に(ステップS1のNo)、接近するまでステップS1の処理を繰り返す。 When the image processing device 1 determines that it is approaching a place to turn right or left (Yes in step S1), the image processing device 1 proceeds to the process of step S2. When the image processing apparatus 1 determines that it is not approaching a place to turn right or left (No in step S1), the image processing apparatus 1 repeats the process of step S1 until it approaches.

画像処理装置1は、移動体100が右折又は左折する場所に接近した場合に、検出領域を表示させる(ステップS2)。例えば図3~図5の左図のように、検出領域は左右に広がった扇形の検出領域画像31a及び検出領域画像31bで表示される。 The image processing device 1 displays the detection area when the moving body 100 approaches a place where the moving body 100 turns right or left (step S2). For example, as shown in the left view of FIGS. 3 to 5, the detection area is displayed by a fan-shaped detection area image 31a and a detection area image 31b that are spread to the left and right.

画像処理装置1は障害物を検出する(ステップS3)。詳細には、画像処理装置1の入力部11が撮像装置101から撮像画像を取得し、認識部12が撮像画像から障害物を認識し、表示判定部13がその障害物が検出領域に含まれるかを判定する。 The image processing device 1 detects an obstacle (step S3). Specifically, the input unit 11 of the image processing device 1 acquires the captured image from the image pickup device 101, the recognition unit 12 recognizes an obstacle from the captured image, and the display determination unit 13 includes the obstacle in the detection area. Is determined.

画像処理装置1は、検出領域に障害物を検出した場合に(ステップS3のYes)、その障害物が存在する検出領域に対応する検出領域画像31の表示色を変化させる(ステップS4)。画像処理装置1は、例えば後方の検出領域に障害物を検出した場合に、図4のように検出領域画像31bの表示色を変化させ、前方の検出領域に障害物を検出した場合に、図5のように検出領域画像31aの表示色を変化させる。 When the image processing apparatus 1 detects an obstacle in the detection area (Yes in step S3), the image processing apparatus 1 changes the display color of the detection area image 31 corresponding to the detection area in which the obstacle exists (step S4). For example, when the image processing device 1 detects an obstacle in the rear detection area, the display color of the detection area image 31b is changed as shown in FIG. 4, and when the obstacle is detected in the front detection area, FIG. The display color of the detection area image 31a is changed as in 5.

画像処理装置1は、検出領域に障害物を検出しない場合に(ステップS3のNo)、検出領域画像31を最初の表示色(基準色)で表示させる(ステップS5)。ここで、一度検出された障害物が離れて検出されなくなった場合に、その障害物が存在していた検出領域に対応する検出領域画像31の表示色は、ステップS5の処理によって基準色に戻される。ここで、検出領域でない領域で障害物が検出された場合には、検出領域画像31を最初の表示色(基準色)で表示させてよい。 When the image processing apparatus 1 does not detect an obstacle in the detection area (No in step S3), the image processing device 1 displays the detection area image 31 in the first display color (reference color) (step S5). Here, when an obstacle once detected is separated and cannot be detected, the display color of the detection area image 31 corresponding to the detection area in which the obstacle exists is returned to the reference color by the process of step S5. Is done. Here, when an obstacle is detected in a region other than the detection region, the detection region image 31 may be displayed in the first display color (reference color).

画像処理装置1は、移動体100が右折又は左折を終了したかを判定する(ステップS6)。画像処理装置1は、ステップS6の判定を、ECU102及び外部機器110から取得する移動体100の走行状況に関する情報に基づいて実行してよい。画像処理装置1は、例えばナビゲーション装置から取得した右折又は左折の表示(一例として矢印)が消去されたことを示す情報を用いてよい。画像処理装置1は、例えばナビゲーション装置の右折又は左折の矢印が消えてから少しの時間(一例として3秒)が経過した場合に、移動体100が右折又は左折を終了したと判定してよい。また、画像処理装置1は、例えばECU102から取得した移動体100の速度の情報を用いてよい。画像処理装置1は、例えば検出領域を表示させてからの経過時間と、移動体100の速度とに基づいて走行距離を計算し、計算した走行距離から移動体100の右折又は左折の終了を判定してよい。 The image processing device 1 determines whether the moving body 100 has completed a right turn or a left turn (step S6). The image processing device 1 may execute the determination in step S6 based on the information regarding the traveling state of the moving body 100 acquired from the ECU 102 and the external device 110. The image processing device 1 may use, for example, information indicating that the right turn or left turn display (arrow as an example) acquired from the navigation device has been erased. The image processing device 1 may determine that the moving body 100 has completed the right turn or the left turn, for example, when a short time (3 seconds as an example) has elapsed after the right turn or left turn arrow of the navigation device disappears. Further, the image processing device 1 may use, for example, the speed information of the moving body 100 acquired from the ECU 102. The image processing device 1 calculates the mileage based on, for example, the elapsed time since the detection area is displayed and the speed of the moving body 100, and determines the end of the right turn or the left turn of the moving body 100 from the calculated mileage. You can do it.

ここで、画像処理装置1は、移動体100の走行状況に関する情報として、地図情報と移動体100の現在位置の情報を取得する場合に、これらに基づいてステップS6の判定を実行してよい。 Here, the image processing device 1 may execute the determination in step S6 based on the map information and the information on the current position of the moving body 100 as the information on the traveling state of the moving body 100.

画像処理装置1は、移動体100が右折又は左折を終了したと判定した場合に(ステップS6のYes)、検出領域を非表示にさせる(ステップS7)。 When the image processing device 1 determines that the moving body 100 has finished turning right or left (Yes in step S6), the image processing device 1 hides the detection area (step S7).

画像処理装置1は、移動体100が右折又は左折を終了していないと判定した場合に(ステップS6のNo)、検出領域画像31の形状を変化させて(ステップS8)、ステップS3の処理に戻る。例えば図3~図5のように、検出領域画像31の領域は、移動体100が右折又は左折する場所に近付くにつれて、扇形の領域が移動体100の曲がる方向に向かって減少していく。 When the image processing apparatus 1 determines that the moving body 100 has not completed the right turn or the left turn (No in step S6), the image processing apparatus 1 changes the shape of the detection area image 31 (step S8), and performs the processing in step S3. return. For example, as shown in FIGS. 3 to 5, in the area of the detection area image 31, the fan-shaped area decreases in the bending direction of the moving body 100 as the moving body 100 approaches the place where the moving body 100 turns right or left.

以上説明したように、本実施形態に係る画像処理装置1は、移動体100の走行状況に応じて周辺領域から選択される検出領域を移動体100の乗員に認識させる。例えば周辺領域の全体に存在する障害物ついて注意を促す表示をすると、本当に注意すべき障害物以外にも注意喚起されて逆に注意力が低下するという問題があるところ、画像処理装置1は上記の構成によって、移動体100の乗員に対して適切に注意喚起することができる。 As described above, the image processing device 1 according to the present embodiment causes the occupants of the moving body 100 to recognize the detection area selected from the peripheral areas according to the traveling condition of the moving body 100. For example, when a display that calls attention to obstacles existing in the entire peripheral area is displayed, there is a problem that attention is drawn to other than the obstacles that should be really noted and the attention is reduced. With the configuration of, it is possible to appropriately alert the occupants of the moving body 100.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments according to the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or modifications based on the present disclosure. It should be noted, therefore, that these modifications or modifications are within the scope of this disclosure. For example, the functions included in each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one. Is. Although the embodiment according to the present disclosure has been mainly described with respect to the apparatus, the embodiment according to the present disclosure can also be realized as a method including steps executed by each component of the apparatus. The embodiments according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that these are also included in the scope of this disclosure.

上記の実施形態において、検出領域画像31及び左折矢印32はヘッドアップディスプレイを用いて移動体100のウインドシールドに投影することで表示されていた。しかし、LCD等により構成されたディスプレイに、移動体100の進行方向の映像が表示され、当該映像に検出領域画像31及び左折矢印32が重ねて表示されてよい。ディスプレイは、ナビゲーション装置用のディスプレイを兼用してよい。 In the above embodiment, the detection area image 31 and the left turn arrow 32 are displayed by projecting them onto the windshield of the moving body 100 using a head-up display. However, an image in the traveling direction of the moving body 100 may be displayed on a display configured by an LCD or the like, and the detection area image 31 and the left turn arrow 32 may be superimposed on the image. The display may also serve as a display for a navigation device.

上記の実施形態において、検出領域画像31は扇形であったが、例えば円形、多角形など別の形状で示されてよい。また、検出領域画像31は障害物を検知した場合に、扇形と異なる形状で示されてよい。図7は、前方の左側に障害物の一例である自転車33が検出された状況における、検出領域の表示例を示す。図7の例において、撮像される領域が自転車33によって遮られることで、死角領域が前方の左側に生じている。認識部12は死角領域に存在する障害物については認識することができない、又は、認識できる可能性が所定以下となる。このような場合に、画像処理装置1の表示判定部13は、検出領域画像31aを死角領域に応じた箇所が欠けた形状で表示させてよい。移動体100の乗員は、通常の形状(扇形)と異なる検出領域画像31を見ることによって、自転車33によって視界が遮られており、その先の物体の検出ができていないことを把握できる。このように、表示判定部13は、検出領域における死角領域の位置を、検出領域画像31の形状を変えることによって、乗員に視認可能に表示させてよい。ここで、死角領域は電柱、ガードレール、壁及び植生などによっても形成されうる。 In the above embodiment, the detection area image 31 is fan-shaped, but may be shown in another shape such as a circle or a polygon. Further, the detection area image 31 may be shown in a shape different from the fan shape when an obstacle is detected. FIG. 7 shows a display example of a detection area in a situation where a bicycle 33, which is an example of an obstacle, is detected on the left side of the front. In the example of FIG. 7, the area to be imaged is blocked by the bicycle 33, so that the blind spot area is generated on the left side in front. The recognition unit 12 cannot recognize an obstacle existing in the blind spot region, or the possibility of being able to recognize it is less than a predetermined value. In such a case, the display determination unit 13 of the image processing apparatus 1 may display the detection area image 31a in a shape in which a portion corresponding to the blind spot area is missing. By seeing the detection area image 31 different from the normal shape (fan shape), the occupant of the moving body 100 can grasp that the field of view is blocked by the bicycle 33 and the object beyond it cannot be detected. In this way, the display determination unit 13 may display the position of the blind spot region in the detection region so that the occupant can visually display it by changing the shape of the detection region image 31. Here, blind spot areas can also be formed by utility poles, guardrails, walls and vegetation.

上記の実施形態において、検出領域画像31は、障害物が検出された場合に、検出された障害物が含まれる少なくとも一部の検出領域に対応する部分の表示色が変化した。ここで、検出領域画像31は、移動体100の走行状況又は環境に応じて表示色が変化してよい。例えば図8に示すように、移動体100が右折又は左折する場合(移動体100が曲がる少し手前から曲がっている間)に、運転者に一層の注意を促すため、検出領域の表示色を変化させてよい。また、運転者が検出領域を見やすいように、時間帯に応じて基準色(例えば通常は青色)を変更してよい。例えば、夜間において基準色が黄色に変更されてよい。また、昼間において基準色が赤色に変更されてよい。このとき、表示判定部13は、例えばナビゲーション装置などの外部機器110から時刻情報を取得してよい。また、重畳される風景(例えば道路)の色に応じて、検出領域画像31の色が視認しやすい色に調整されてよい。 In the above embodiment, when an obstacle is detected, the display color of the portion corresponding to at least a part of the detection area including the detected obstacle is changed in the detection area image 31. Here, the display color of the detection area image 31 may change depending on the traveling condition or the environment of the moving body 100. For example, as shown in FIG. 8, when the moving body 100 turns right or left (while the moving body 100 is turning slightly before turning), the display color of the detection area is changed in order to call the driver more attention. You may let me. Further, the reference color (for example, usually blue) may be changed according to the time zone so that the driver can easily see the detection area. For example, the reference color may be changed to yellow at night. Further, the reference color may be changed to red in the daytime. At this time, the display determination unit 13 may acquire time information from an external device 110 such as a navigation device. Further, the color of the detection area image 31 may be adjusted to a color that is easy to see according to the color of the superimposed landscape (for example, a road).

上記の実施形態において、検出領域画像31は前方の検出領域画像31a及び後方の検出領域画像31bを含んでいた。また、検出領域画像31はヘッドアップディスプレイに表示されていた。ここで、画像処理装置1は、このような構成に限定されず、種々の構成の車載システムに適用可能である。例えば、画像処理装置1は、上記の画像処理方法を実行する前に、検出領域の選択及び表示装置の選択(以下、動作環境設定という)をするための処理を実行してよい。図9は、動作環境設定方法を例示するフローチャートである。 In the above embodiment, the detection area image 31 includes a front detection area image 31a and a rear detection area image 31b. Further, the detection area image 31 was displayed on the head-up display. Here, the image processing device 1 is not limited to such a configuration, and can be applied to an in-vehicle system having various configurations. For example, the image processing device 1 may execute a process for selecting a detection area and a display device (hereinafter referred to as an operating environment setting) before executing the above image processing method. FIG. 9 is a flowchart illustrating an operating environment setting method.

画像処理装置1は、移動体100に取り付けられた撮像装置101の数を検出する(ステップS11)。撮像装置101の数が4つである場合に、サイドカメラ(右方及び左方の撮像装置101)の画角が90°以上であるかを検出する(ステップS12)。 The image processing device 1 detects the number of image pickup devices 101 attached to the moving body 100 (step S11). When the number of image pickup devices 101 is four, it is detected whether the angle of view of the side cameras (right and left image pickup devices 101) is 90 ° or more (step S12).

画像処理装置1は、サイドカメラの画角が90°以上である場合に(ステップS12のYes)、4つの撮像装置101の撮像領域を検出領域に設定してよい(ステップS13)。画像処理装置1は、サイドカメラの画角が90°以上でない場合に(ステップS12のNo)、及び、撮像装置101の数が2つである場合に、2つの撮像装置101の撮像領域を検出領域に設定してよい(ステップS14)。このとき、検出領域は、前方と後方の撮像領域が選択されてよいし、前方と左方など別の組み合わせの撮像領域が選択されてよい。また、画像処理装置1は、撮像装置101の数が1つである場合に、1つの撮像装置101の撮像領域を検出領域に設定してよい(ステップS15)。 When the angle of view of the side camera is 90 ° or more (Yes in step S12), the image processing device 1 may set the image pickup areas of the four image pickup devices 101 as the detection areas (step S13). The image processing device 1 detects the image pickup areas of the two image pickup devices 101 when the angle of view of the side camera is not 90 ° or more (No in step S12) and when the number of image pickup devices 101 is two. It may be set in the area (step S14). At this time, the front and rear imaging regions may be selected as the detection region, or another combination of imaging regions such as front and left may be selected. Further, when the number of image pickup devices 101 is one, the image processing device 1 may set the image pickup area of one image pickup device 101 as the detection area (step S15).

画像処理装置1は、検出領域画像31を表示する外部機器110の種類を検出する(ステップS16)。表示する外部機器110がヘッドアップディスプレイの場合に、画像処理装置1は、ヘッドアップディスプレイに検出領域画像31を表示できるように設定する(ステップS17)。具体的に言うと、画像処理装置1の重畳処理部14は、ウインドシールドに検出領域が適切に表示されるように、検出領域の表示位置、大きさなどを調整する。また、表示する外部機器110がナビゲーション装置の場合に、画像処理装置1は、ナビゲーション装置のディスプレイに検出領域画像31を表示できるように設定する(ステップS18)。画像処理装置1は、例えば図9のような動作環境設定方法を、画像処理方法の前に実行することで、移動体100の車載システムに柔軟に適用され得る。 The image processing device 1 detects the type of the external device 110 that displays the detection area image 31 (step S16). When the external device 110 to be displayed is a head-up display, the image processing device 1 is set so that the detection area image 31 can be displayed on the head-up display (step S17). Specifically, the superimposition processing unit 14 of the image processing device 1 adjusts the display position, size, and the like of the detection area so that the detection area is appropriately displayed on the windshield. Further, when the external device 110 to be displayed is a navigation device, the image processing device 1 is set so that the detection area image 31 can be displayed on the display of the navigation device (step S18). The image processing device 1 can be flexibly applied to the in-vehicle system of the mobile body 100 by executing, for example, the operating environment setting method as shown in FIG. 9 before the image processing method.

上記の実施形態において、移動体100が右折又は左折する場合に、対向車線は検出領域から除外されていた(図3参照)。ここで、対向車線について、運転者の注意力を低下させない程度に、検出した対向車などが示されてよい。例えば、対向車が、検出領域画像31より目立たない表示色の枠(一例として暗赤色の枠)で示されてよい。 In the above embodiment, when the moving body 100 makes a right turn or a left turn, the oncoming lane is excluded from the detection area (see FIG. 3). Here, with respect to the oncoming lane, the detected oncoming vehicle or the like may be shown to the extent that the driver's attention is not reduced. For example, the oncoming vehicle may be indicated by a display color frame (as an example, a dark red frame) that is less conspicuous than the detection area image 31.

上記の実施形態において、移動体100が右折又は左折する場合に、検出領域が表示されていた。ここで、例えば駐車などで、移動体100が後方に進む場合に、検出領域が表示されてよい。このとき、後方確認が重要であるため、検出領域画像31は後方の検出領域画像31bを含むことが好ましい。画像処理装置1は、ECU102から取得する移動体100の走行状況に関する情報として、移動体100のギアの情報を取得し、ギアの情報から移動体100が後方に進んでいることを判定してよい。 In the above embodiment, the detection area is displayed when the moving body 100 makes a right turn or a left turn. Here, the detection area may be displayed when the moving body 100 moves backward, for example, when parking. At this time, since the rearward confirmation is important, it is preferable that the detection area image 31 includes the rearward detection area image 31b. The image processing device 1 may acquire information on the gear of the moving body 100 as information on the traveling state of the moving body 100 acquired from the ECU 102, and may determine from the gear information that the moving body 100 is moving backward. ..

ここで、駐車及び発進時に、移動体100が後方に進むことが多い。画像処理装置1は、移動体100の走行状況に関する情報として、地図情報と移動体100の現在位置の情報を取得する場合に、これらに基づいて移動体100が駐車又は発進しようとしているかを判定してよい。例えば、画像処理装置1は、移動体100の現在位置が駐車場である場合に、駐車しようとしていると判定してよい。この場合に、画像処理装置1は、運転者に一層の注意を促すように、後方の検出領域画像31bの表示色を赤色に変更してよい。 Here, when parking and starting, the moving body 100 often moves backward. When the image processing device 1 acquires map information and information on the current position of the moving body 100 as information on the traveling status of the moving body 100, the image processing device 1 determines whether the moving body 100 is about to park or start based on the map information and the information on the current position of the moving body 100. It's okay. For example, the image processing device 1 may determine that the moving body 100 is about to park when the current position of the moving body 100 is a parking lot. In this case, the image processing device 1 may change the display color of the rear detection area image 31b to red so as to call the driver more attention.

上記の実施形態において、画像処理装置1は、外部機器110から独立した装置であった。ここで、画像処理装置1は、外部機器110の1つ(例えばナビゲーション装置)の一部として構成されてよい。 In the above embodiment, the image processing device 1 is a device independent of the external device 110. Here, the image processing device 1 may be configured as a part of one of the external devices 110 (for example, a navigation device).

1 画像処理装置
11 入力部
12 認識部
13 表示判定部
14 重畳処理部
31、31a、31b 検出領域画像
32 左折矢印
33 自転車
100 移動体
101、101a、101b、101c、101d 撮像装置
102 ECU
110 外部機器
111 表示部
1 Image processing device 11 Input unit 12 Recognition unit 13 Display judgment unit 14 Superimposition processing unit 31, 31a, 31b Detection area image 32 Left turn arrow 33 Bicycle 100 Mobile object 101, 101a, 101b, 101c, 101d Imaging device 102 ECU
110 External device 111 Display unit

Claims (12)

移動体の周辺領域を撮像した画像を取得する入力部と、
前記周辺領域に含まれる障害物が検出される領域から、前記移動体の乗員に視認可能に表示させる検出領域を前記移動体の走行状況に応じて選択する表示判定部と、を備える、画像処理装置。
An input unit that acquires an image of the peripheral area of a moving object, and
Image processing including a display determination unit that selects a detection area to be visually displayed to the occupant of the moving body from the area where an obstacle included in the peripheral area is detected according to the traveling condition of the moving body. Device.
前記検出領域は、前記周辺領域のうち前記移動体の前方の領域である第1の検出領域と、前記移動体の後方の領域である第2の検出領域を含み、
前記第1の検出領域は、前記周辺領域の景色、又は前記周辺領域の画像に重ねて前記移動体の乗員に視認可能に表示させ、前記第2の検出領域は前記第1の検出領域の下部に表示させる、請求項1に記載の画像処理装置。
The detection region includes a first detection region, which is a region in front of the moving body, and a second detection region, which is a region behind the moving body, in the peripheral region.
The first detection area is superimposed on the scenery of the peripheral area or the image of the peripheral area and visually displayed to the occupant of the moving body, and the second detection area is the lower part of the first detection area. The image processing apparatus according to claim 1.
前記周辺領域に存在する障害物を認識する認識部を備え、
前記検出領域は、前記認識部によって前記障害物が認識される前記周辺領域の一部であり、
前記検出領域において前記障害物が検出された場合に、前記移動体の乗員に報知を行い、前記検出領域以外の領域において前記障害物が検出された場合には、前記報知を行わない、請求項1又は2に記載の画像処理装置。
It is equipped with a recognition unit that recognizes obstacles existing in the peripheral area.
The detection area is a part of the peripheral area where the obstacle is recognized by the recognition unit.
A claim that, when the obstacle is detected in the detection area, the occupant of the moving body is notified, and when the obstacle is detected in a region other than the detection area, the notification is not performed. The image processing apparatus according to 1 or 2.
前記表示判定部は、
前記移動体が右折又は左折する場所に接近した場合に、前記検出領域を表示させて、
前記検出領域を表示させた地点から、前記移動体の右折又は左折が終了する地点までの走行状況に応じて、前記検出領域の位置を変化させる、請求項1から3のいずれか一項に記載の画像処理装置。
The display determination unit
When the moving body approaches a place where it turns right or left, the detection area is displayed.
The invention according to any one of claims 1 to 3, wherein the position of the detection area is changed according to the traveling condition from the point where the detection area is displayed to the point where the right turn or the left turn of the moving body ends. Image processing equipment.
前記表示判定部は、
前記移動体が右折又は左折する場合に、前記検出領域を前記移動体の曲がる方向に向かって移動させ、且つ前記検出領域の大きさを減少させて表示させる、請求項4に記載の画像処理装置。
The display determination unit
The image processing apparatus according to claim 4, wherein when the moving body makes a right turn or a left turn, the detection area is moved toward the bending direction of the moving body, and the size of the detection area is reduced and displayed. ..
前記表示判定部は、
前記移動体が右折又は左折する場合に、前記検出領域の表示色を変化させる、請求項4又は5に記載の画像処理装置。
The display determination unit
The image processing apparatus according to claim 4 or 5, wherein when the moving body makes a right turn or a left turn, the display color of the detection area is changed.
前記表示判定部は、
撮像される領域に前記障害物が存在することで、前記検出領域に存在する前記障害物を検出することができない死角領域が存在する場合に、前記検出領域における前記死角領域の位置を前記乗員に視認可能に表示させる、請求項1から6のいずれか一項に記載の画像処理装置。
The display determination unit
When the obstacle is present in the imaged region and there is a blind spot region in the detection region where the obstacle cannot be detected, the position of the blind spot region in the detection region is set to the occupant. The image processing apparatus according to any one of claims 1 to 6, which is visually displayed.
前記表示判定部は、
前記障害物が検出された場合に、検出された前記障害物が含まれる少なくとも一部の前記検出領域の表示態様を変化させる、請求項1から7のいずれか一項に記載の画像処理装置。
The display determination unit
The image processing apparatus according to any one of claims 1 to 7, wherein when the obstacle is detected, the display mode of at least a part of the detection area including the detected obstacle is changed.
前記表示判定部は、
前記障害物が検出された場合に、検出された前記障害物が含まれる少なくとも一部の前記検出領域の表示色を変化させる、請求項8に記載の画像処理装置。
The display determination unit
The image processing apparatus according to claim 8, wherein when the obstacle is detected, the display color of at least a part of the detection area including the detected obstacle is changed.
前記表示判定部は、
前記障害物が検出された場合に、前記障害物の種類に応じた表示色で、検出された前記障害物が含まれる少なくとも一部の前記検出領域を表示させる、請求項9に記載の画像処理装置。
The display determination unit
The image processing according to claim 9, wherein when the obstacle is detected, at least a part of the detection area including the detected obstacle is displayed in a display color corresponding to the type of the obstacle. Device.
前記検出領域は、外部機器の表示画像に重畳表示される、請求項1から10のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the detection area is superimposed and displayed on a display image of an external device. 前記外部機器は、ヘッドアップディスプレイを含む、請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the external device includes a head-up display.
JP2020158801A 2020-09-23 2020-09-23 Image processing device Pending JP2022052416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020158801A JP2022052416A (en) 2020-09-23 2020-09-23 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020158801A JP2022052416A (en) 2020-09-23 2020-09-23 Image processing device

Publications (1)

Publication Number Publication Date
JP2022052416A true JP2022052416A (en) 2022-04-04

Family

ID=80948704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020158801A Pending JP2022052416A (en) 2020-09-23 2020-09-23 Image processing device

Country Status (1)

Country Link
JP (1) JP2022052416A (en)

Similar Documents

Publication Publication Date Title
WO2018105417A1 (en) Imaging device, image processing device, display system, and vehicle
KR101375944B1 (en) Parking assistance system
US20200086793A1 (en) Periphery monitoring device
WO2016152553A1 (en) Vehicle image display system and method
CN111731188B (en) Panoramic image control method and device and vehicle
CN109313860B (en) Peripheral monitoring device
JPWO2018061294A1 (en) Peripheral monitoring device
US11620834B2 (en) Periphery monitoring device
CN112084232B (en) Vehicle driving risk assessment method and device based on visual field information of other target vehicles
JP7067225B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
WO2019073938A1 (en) Parking assistance device
JP2019103049A (en) Periphery monitoring device
JP6762863B2 (en) Imaging equipment, image processing equipment, display systems, and vehicles
JP5169912B2 (en) Parking assistance device
JP7147300B2 (en) Traction support device
EP3544293B1 (en) Image processing device, imaging device, and display system
JP6781035B2 (en) Imaging equipment, image processing equipment, display systems, and vehicles
WO2022168540A1 (en) Display control device and display control program
JP2022052416A (en) Image processing device
CN114523905A (en) System and method for displaying detection and track prediction of targets around vehicle
JP2018085584A (en) Image processing apparatus, imaging apparatus, and display system
JP2021007255A (en) Imaging device, image processing apparatus, display system, and vehicle
US20210214007A1 (en) Method for providing assistance in a parking maneuver of a vehicle combination of towing vehicle and trailer, system and vehicle combination
JP6974564B2 (en) Display control device
JP7007438B2 (en) Imaging equipment, image processing equipment, display equipment, display systems, and vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123