JP7468207B2 - IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM - Google Patents

IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM Download PDF

Info

Publication number
JP7468207B2
JP7468207B2 JP2020118712A JP2020118712A JP7468207B2 JP 7468207 B2 JP7468207 B2 JP 7468207B2 JP 2020118712 A JP2020118712 A JP 2020118712A JP 2020118712 A JP2020118712 A JP 2020118712A JP 7468207 B2 JP7468207 B2 JP 7468207B2
Authority
JP
Japan
Prior art keywords
person
range
image
unit
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020118712A
Other languages
Japanese (ja)
Other versions
JP2022015696A (en
Inventor
成俊 鴇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020118712A priority Critical patent/JP7468207B2/en
Publication of JP2022015696A publication Critical patent/JP2022015696A/en
Application granted granted Critical
Publication of JP7468207B2 publication Critical patent/JP7468207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像された画像内からオブジェクトを認識する画像認識装置、画像認識方法、及び画像認識プログラムに関する。 The present invention relates to an image recognition device, an image recognition method, and an image recognition program for recognizing objects within a captured image.

車両に搭載されたカメラで撮影した画像内から、歩行者等の人物を認識し、運転者に注意喚起する運転支援システムがある。画像内において人物として認識された範囲の下端位置(人物の場合、人物の爪先または踵と、地面との接地位置)をもとに、車両に搭載されたカメラから人物までの距離を推定できる(例えば、特許文献1参照)。屋内に設置された監視カメラの場合も同様に、画像内において人物として認識された範囲の下端位置をもとに、監視カメラから人物までの距離を推定できる。 There is a driving assistance system that recognizes people such as pedestrians from images captured by a camera mounted on a vehicle and alerts the driver. The distance from the camera mounted on the vehicle to a person can be estimated based on the bottom end position of the area recognized as a person in the image (in the case of a person, the position where the person's toes or heels touch the ground) (see, for example, Patent Document 1). Similarly, in the case of a surveillance camera installed indoors, the distance from the surveillance camera to a person can be estimated based on the bottom end position of the area recognized as a person in the image.

特開2018-018234号公報JP 2018-018234 A

上述したようなシステムにおいて、人物の足元の接地面(例えば、路面や床面)が濡れている場合、人物の下半身が接地面に反射して撮像される。接地面が、光を反射させやすい素材(例えば、大理石)である場合も同様である。それらの場合、画像認識システムは、接地面に映っている足と実際の足を一体のものと認識し、人物の足を実際より長く検出する。即ち、人物の範囲を、本来の範囲より下方向に拡大した範囲で認識してしまう。この場合、認識された人物が実際より近くにいると判断され、不必要な注意喚起が行われてしまうことがあった。人物以外のオブジェクト(例えば、犬などの動物、対向車、その他の障害物)についても同様に、本来の検出範囲より下方向に拡大した範囲で認識してしまうことがあった。 In the above-mentioned system, if the surface under a person's feet (e.g., the road surface or floor) is wet, the lower half of the person's body is reflected by the surface and captured in an image. The same is true when the surface is made of a material that easily reflects light (e.g., marble). In such cases, the image recognition system recognizes the feet reflected on the surface as one with the actual feet, and detects the person's feet as longer than they actually are. In other words, it recognizes the range of the person as an area expanded downward from the actual range. In this case, it may be determined that the recognized person is closer than they actually are, and unnecessary warnings may be issued. Similarly, for objects other than people (e.g., animals such as dogs, oncoming vehicles, and other obstacles), it may be recognized as an area expanded downward from the actual detection range.

本実施形態はこうした状況に鑑みてなされたものであり、その目的は、画像内においてオブジェクトの範囲を高精度に検出する技術を提供することにある。 This embodiment has been made in consideration of these circumstances, and its purpose is to provide a technology that detects the range of an object within an image with high accuracy.

上記課題を解決するために、本実施形態のある態様の画像認識装置は、撮像装置から画像を取得する画像取得部と、前記画像取得部が取得した画像からオブジェクトとして人物を認識するとともに認識した人物の頭部を特定するオブジェクト認識部と、前記オブジェクト認識部が認識した人物の範囲と前記人物の頭部との縦方向の比率に基づき、前記人物の範囲の下部において上下対称部位を検出する対称部位検出部と、前記対称部位検出部が上下対称部位を検出した場合、検出した上下対称部位の対称中心線の位置が、前記人物の範囲の下限位置に対応するよう、前記人物の範囲を修正するオブジェクト範囲修正部と、前記人物の範囲の位置に基づき、前記撮像装置から前記人物までの距離を推定する距離推定部と、を備える。 In order to solve the above problems, an image recognition device of one aspect of this embodiment includes an image acquisition unit that acquires an image from an imaging device, an object recognition unit that recognizes a person as an object from the image acquired by the image acquisition unit and identifies the head of the recognized person , a symmetrical part detection unit that detects upper and lower symmetrical parts at the lower part of the range of the person based on the vertical ratio between the range of the person recognized by the object recognition unit and the head of the person , an object range correction unit that, when the symmetrical part detection unit detects upper and lower symmetrical parts, corrects the range of the person so that the position of the symmetrical center line of the detected upper and lower symmetrical parts corresponds to the lower limit position of the range of the person , and a distance estimation unit that estimates the distance from the imaging device to the person based on the position of the range of the person .

本実施形態の別の態様は、画像認識方法である。この方法は、撮像装置から画像を取得するステップと、取得した画像からオブジェクトとして人物を認識するとともに認識した人物の頭部を特定するステップと、認識した人物の範囲と前記人物の頭部との縦方向の比率に基づき、前記人物の範囲の下部において上下対称部位を検出するステップと、上下対称部位を検出した場合、検出した上下対称部位の対称中心線の位置が、前記人物の範囲の下限位置に対応するよう、前記人物の範囲を修正するステップと、前記人物の範囲の位置に基づき、前記撮像装置から前記人物までの距離を推定するステップと、を有する。 Another aspect of this embodiment is an image recognition method, which includes the steps of acquiring an image from an imaging device, recognizing a person as an object from the acquired image and identifying the head of the recognized person , detecting a vertically symmetrical portion at a lower portion of the recognized person's range based on a vertical ratio between the recognized person's range and the person's head, correcting the range of the person when the vertically symmetrical portion is detected so that the position of the symmetrical center line of the detected vertically symmetrical portion corresponds to the lower limit position of the range of the person , and estimating a distance from the imaging device to the person based on the position of the range of the person .

なお、以上の構成要素の任意の組合せ、本実施形態の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本実施形態の態様として有効である。 In addition, any combination of the above components, and conversions of the expressions of this embodiment between methods, devices, systems, recording media, computer programs, etc., are also valid aspects of this embodiment.

本実施形態によれば、画像内においてオブジェクトの範囲を高精度に検出することができる。 According to this embodiment, the range of an object within an image can be detected with high accuracy.

本発明の実施の形態に係る画像認識システムの構成を示す図である。1 is a diagram showing a configuration of an image recognition system according to an embodiment of the present invention. 実施例1に係る、検出枠の修正処理の具体例を説明するための図である(その1)。10A to 10C are diagrams for explaining a specific example of a detection frame correction process according to the first embodiment; 実施例1に係る、検出枠の修正処理の具体例を説明するための図である(その2)FIG. 2 is a diagram for explaining a specific example of the detection frame correction process in the first embodiment (part 2); 実施例1に係る、検出枠の修正処理の具体例を説明するための図である(その3)FIG. 3 is a diagram for explaining a specific example of the detection frame correction process in the first embodiment; 実施例1に係る、検出枠の修正処理の具体例を説明するための図である(その4)FIG. 4 is a diagram for explaining a specific example of the detection frame correction process in the first embodiment; 実施例2に係る、検出枠の修正処理の具体例を説明するための図である(その1)FIG. 11 is a diagram for explaining a specific example of a correction process for a detection frame according to the second embodiment; 実施例2に係る、検出枠の修正処理の具体例を説明するための図である(その2)FIG. 2 is a diagram for explaining a specific example of a correction process of a detection frame according to the second embodiment; 実施例2に係る、検出枠の修正処理の具体例を説明するための図である(その3)。FIG. 11 is a diagram for explaining a specific example of the detection frame correction process according to the second embodiment (part 3).

図1は、本発明の実施の形態に係る画像認識システム1の構成を示す図である。実施の形態に係る画像認識システム1は、撮像装置10、画像認識装置20、表示装置30及び音声出力装置40を備える。以下、本実施の形態では、画像認識システム1が車両に搭載される例を想定する。 FIG. 1 is a diagram showing the configuration of an image recognition system 1 according to an embodiment of the present invention. The image recognition system 1 according to the embodiment includes an imaging device 10, an image recognition device 20, a display device 30, and an audio output device 40. In the following, in this embodiment, an example is assumed in which the image recognition system 1 is mounted on a vehicle.

撮像装置10は、車両の進行方向前方を撮像するものであり、例えば、フロントグリルや車室内のルームミラーの上に取り付けられる。撮像装置10は固体撮像素子及び信号処理回路を含む。固体撮像素子には例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Devices)イメージセンサを使用することができる。固体撮像素子は、入射される光を電気的な画像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像認識装置20に出力する。 The imaging device 10 captures an image of the area ahead in the direction of travel of the vehicle, and is attached, for example, to the front grille or to the rearview mirror inside the vehicle. The imaging device 10 includes a solid-state imaging element and a signal processing circuit. For example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Devices) image sensor can be used as the solid-state imaging element. The solid-state imaging element converts incident light into an electrical image signal and outputs it to the signal processing circuit. The signal processing circuit performs signal processing such as A/D conversion and noise removal on the image signal input from the solid-state imaging element, and outputs it to the image recognition device 20.

固体撮像素子は、可視光域を撮像できる素子であってもよいし、赤外線領域を撮像できる素子であってもよいし、その両方の波長域を撮像できる素子であってもよい。即ち、撮像装置10には、一般的な可視光カメラが用いられてもよいし、可視光域と近赤外線域を両方撮像可能なカメラが用いられてもよいし、遠赤外線(FIR)カメラが用いられてもよい。 The solid-state imaging element may be an element capable of capturing images in the visible light range, an element capable of capturing images in the infrared range, or an element capable of capturing images in both wavelength ranges. That is, the imaging device 10 may be a general visible light camera, a camera capable of capturing images in both the visible light range and the near-infrared range, or a far-infrared (FIR) camera.

可視光域と近赤外線域を撮像可能なカメラの固体撮像素子には、例えば、通常のベイヤ配列を構成する2つのGフィルタの一方を、IRフィルタに置き換えたカラーフィルタが使用されてもよい。 For example, a solid-state imaging element of a camera capable of capturing images in the visible light and near-infrared light ranges may use a color filter in which one of the two G filters that make up a normal Bayer array is replaced with an IR filter.

遠赤外線カメラの固体撮像素子は、熱源となる人物等のオブジェクトが放射する遠赤外線を熱画像に変換する。遠赤外線カメラは、車載用途では、運転者の夜間の視界を補助するためのナイトビジョンシステムに使用される。なお、遠赤外線カメラの代わりに近赤外線カメラが使用される場合、オブジェクトに向けて近赤外線を照射する必要がある。 The solid-state image sensor of a far-infrared camera converts far-infrared radiation emitted by objects such as people that act as heat sources into a thermal image. In automotive applications, far-infrared cameras are used in night vision systems to assist the driver's nighttime vision. Note that when a near-infrared camera is used instead of a far-infrared camera, it is necessary to shine near-infrared radiation at the object.

画像認識装置20は、画像取得部21、オブジェクト認識部22、対称部位検出部23、オブジェクト追従部24、オブジェクト範囲修正部25、距離推定部26、通知制御部27及び接地面情報取得部28を含む。これらの構成要素は、ハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、その他のLSIを利用できる。ソフトウェア資源としてファームウェア等のプログラムを利用できる。 The image recognition device 20 includes an image acquisition unit 21, an object recognition unit 22, a symmetrical part detection unit 23, an object tracking unit 24, an object range correction unit 25, a distance estimation unit 26, a notification control unit 27, and a ground surface information acquisition unit 28. These components can be realized by a combination of hardware resources and software resources, or by hardware resources alone. As hardware resources, a CPU, ROM, RAM, GPU (Graphics Processing Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and other LSIs can be used. As software resources, programs such as firmware can be used.

撮像装置10と画像認識装置20間はケーブルで接続されている。なお、リアルタイム性及びノイズ耐性の要求を満たしていれば、無線接続も可能である。 The imaging device 10 and the image recognition device 20 are connected by a cable. However, a wireless connection is also possible as long as the requirements for real-time performance and noise resistance are met.

画像取得部21は、撮像装置10から画像を取得する。オブジェクト認識部22は、画像取得部21が取得した画像から所定のオブジェクトを認識する。以下、本実施の形態ではオブジェクトとして、人物を想定する。 The image acquisition unit 21 acquires an image from the imaging device 10. The object recognition unit 22 recognizes a specific object from the image acquired by the image acquisition unit 21. In the following, in this embodiment, a person is assumed to be the object.

オブジェクト認識部22は、辞書データとして、人物が写った多数の画像を学習して生成された人物の識別器を有する。オブジェクト認識部22は、画像取得部21が取得した入力画像内を、人物の識別器を用いて探索する。人物の検出には例えば、HOG(Histograms of Oriented Gradients)特徴量を用いることができる。なお、Haar-like特徴量やLBP(Local Binary Patterns)特徴量などを用いてもよい。入力画像内に人物が存在する場合、オブジェクト認識部22は、矩形の検出枠で人物を検出する。 The object recognition unit 22 has a person classifier that has been generated by learning a large number of images that include people as dictionary data. The object recognition unit 22 searches the input image acquired by the image acquisition unit 21 using the person classifier. For example, HOG (Histograms of Oriented Gradients) features can be used to detect people. Note that Haar-like features and LBP (Local Binary Patterns) features may also be used. When a person is present in the input image, the object recognition unit 22 detects the person using a rectangular detection frame.

人物の足元の床が反射素材(例えば、大理石)である場合や、人物の足元に水溜りがある場合、床や水溜りに、人物の像が鏡面反射する。この場合、撮像装置10により撮像される画像にも、人物の足元の下に、上下反転した当該人物の像が映る。その場合、オブジェクト認識部22は、人物の脚部の下端を特定することが難しくなる。フレームごとに抽出される人物の脚部の特徴点の精度に応じて、人物の検出枠の下辺が、フレーム単位で上下に変動する。オブジェクト認識部22は人物の像が鏡面反射していない場合と比較して、人物の足を長く誤認識することになる。 If the floor under a person's feet is made of a reflective material (e.g., marble) or if there is a puddle under the person's feet, the image of the person will be mirror-reflected on the floor or in the puddle. In this case, the image captured by the imaging device 10 will also show an upside-down image of the person under the person's feet. In this case, it will be difficult for the object recognition unit 22 to identify the bottom end of the person's legs. Depending on the accuracy of the feature points of the person's legs extracted for each frame, the bottom edge of the person's detection frame will fluctuate up and down on a frame-by-frame basis. The object recognition unit 22 will erroneously recognize the person's legs as longer than when the person's image is not mirror-reflected.

人物の検出枠は、後述する距離推定の基礎となるため、検出枠の上辺は人物の頭部の上端を、検出枠の下辺は人物の脚部の下端を、高精度に捉えていることが望まれる。しかしながら、人物の足元で鏡面反射が発生している場合、人物の検出枠の下辺が人物の脚部の下端と大きくずれるケースが発生する。そこで本実施の形態では、検出枠の下部に、上下対称の領域が存在する場合、検出枠の範囲を修正する仕組みを導入している。 The person detection frame is the basis for distance estimation, which will be described later, so it is desirable for the upper edge of the detection frame to accurately capture the top of the person's head, and the lower edge of the detection frame to accurately capture the bottom of the person's legs. However, if there is specular reflection at the person's feet, there are cases in which the bottom edge of the person's detection frame is significantly misaligned with the bottom of the person's legs. Therefore, in this embodiment, a mechanism is introduced to correct the range of the detection frame if there is a top-bottom symmetrical area at the bottom of the detection frame.

まず、実施例1に係る検出枠の修正方法を説明する。対称部位検出部23は、オブジェクト認識部22が認識した人物の検出枠の下部において、上下対称部位を検出する。例えば以下のように上下対称部位を検出する。対称部位検出部23は、上下対称部位の探索領域の上部の一部から画像を切り出す。上下対称部位の探索領域は、例えば、検出枠をY軸方向に三等分した場合の最も下の領域に設定されてもよい。 First, a method for correcting the detection frame according to the first embodiment will be described. The symmetrical part detection unit 23 detects vertically symmetrical parts in the lower part of the detection frame of the person recognized by the object recognition unit 22. For example, vertically symmetrical parts are detected as follows. The symmetrical part detection unit 23 cuts out an image from a part of the upper part of the search area for vertically symmetrical parts. The search area for vertically symmetrical parts may be set to the lowermost area when the detection frame is divided into three equal parts in the Y-axis direction, for example.

対称部位検出部23は、上下対称部位の探索領域の上部の一部を切り出した画像を上下反転させる。対称部位検出部23は、上下反転させた画像を、上下対称部位の探索領域において上下にスライドさせながら、当該探索領域内の画像とマッチングさせる。対称部位検出部23は、マッチング度が最も高くなるマッチング位置を特定する。対称部位検出部23は、マッチング度が最も高いときのマッチング度が予め設定された閾値以上のとき、上下対称部位が存在すると判定し、当該閾値未満のとき、上下対称部位が存在しないと判定する。 The symmetrical part detection unit 23 flips upside down an image that is cut out from a portion of the upper part of a search area for vertically symmetrical parts. The symmetrical part detection unit 23 matches the upside-down flipped image with the image in the search area while sliding it up and down in the search area for vertically symmetrical parts. The symmetrical part detection unit 23 identifies the matching position that provides the highest degree of matching. If the highest degree of matching is equal to or greater than a preset threshold, the symmetrical part detection unit 23 determines that a vertically symmetrical part exists, and if the degree is less than the threshold, determines that a vertically symmetrical part does not exist.

上下対称部位が存在すると判定した場合、対称部位検出部23は、上部の切り出し位置と探索範囲内のマッチング位置との間の中間線を、上部対称部位の対称中心線の位置に設定する。上部対称部位の対称中心線の位置が、人物の接地位置と推定できる。オブジェクト範囲修正部25は、当該上下対称部位の対称中心線の位置が、人物の検出枠の下限位置に対応するよう、検出枠の範囲を修正する。対称部位検出部23により上下対称部位が存在しないと判定された場合、オブジェクト範囲修正部25は、人物の検出枠の範囲を修正しない。 If it is determined that there are upper and lower symmetrical parts, the symmetrical part detection unit 23 sets the midline between the upper cut-out position and the matching position within the search range to the position of the symmetrical center line of the upper symmetrical part. The position of the symmetrical center line of the upper symmetrical part can be estimated to be the person's grounded position. The object range correction unit 25 corrects the range of the detection frame so that the position of the symmetrical center line of the upper and lower symmetrical parts corresponds to the lower limit position of the person's detection frame. If the symmetrical part detection unit 23 determines that there are no upper and lower symmetrical parts, the object range correction unit 25 does not correct the range of the person's detection frame.

距離推定部26は、検出された人物の検出枠の位置に基づき、車両に設置された撮像装置10から人物までの距離を推定する。具体的には、距離推定部26は、撮像された画像内で検出された人物の接地位置(即ち、人物の検出枠の下辺)のy座標と、予め導出されたテーブル又は関数をもとに、撮像装置10(即ち、車両)から人物までの距離を推定する。 The distance estimation unit 26 estimates the distance from the imaging device 10 installed in the vehicle to the person based on the position of the detection frame of the detected person. Specifically, the distance estimation unit 26 estimates the distance from the imaging device 10 (i.e., the vehicle) to the person based on the y coordinate of the ground position of the person detected in the captured image (i.e., the bottom side of the person's detection frame) and a previously derived table or function.

当該テーブル又は関数は、車両における撮像装置10の設置位置(路面からの高さ)及び撮像装置10の画角に応じて決定される、画像内の人物の接地位置のy座標と、撮像装置10から人物までの距離との関係性を記述したものである。 The table or function describes the relationship between the y coordinate of the ground contact position of a person in an image, which is determined according to the installation position (height from the road surface) of the imaging device 10 on the vehicle and the angle of view of the imaging device 10, and the distance from the imaging device 10 to the person.

通知制御部27は、距離推定部26が推定した車両から人物までの距離に応じて、表示装置30及び音声出力装置40の少なくとも一方に警告を出力させる。 The notification control unit 27 outputs a warning to at least one of the display device 30 and the audio output device 40 depending on the distance from the vehicle to the person estimated by the distance estimation unit 26.

表示装置30は、車両内に設置されているHUD(Head-up Display)であってもよい。HUDは、フロントガラス照射型であってもよいし、コンバイナ型であってもよい。また表示装置30は、車両内に設置されているカーナビゲーションシステム又はディスプレイオーディオシステムのディスプレイ(例えば、液晶ディスプレイ、有機ELディスプレイ)であってもよい。また表示装置30は、カーナビゲーションシステム又はディスプレイオーディオシステムと連携した、スマートフォン又はタブレットのディスプレイであってもよい。また表示装置30は、車両内に設置されているメータパネル内のディスプレイであってもよい。また表示装置30は、カメラモニタリングシステムを構成している電子ルームミラーであってもよい。また表示装置30は、車両前方の画像を表示する専用のディスプレイであってもよい。 The display device 30 may be a HUD (Head-up Display) installed in the vehicle. The HUD may be a windshield-illuminated type or a combiner type. The display device 30 may be a display (e.g., a liquid crystal display or an organic EL display) of a car navigation system or a display audio system installed in the vehicle. The display device 30 may be a display of a smartphone or a tablet linked to a car navigation system or a display audio system. The display device 30 may be a display in a meter panel installed in the vehicle. The display device 30 may be an electronic rearview mirror that constitutes a camera monitoring system. The display device 30 may be a dedicated display that displays an image in front of the vehicle.

音声出力装置40は、車両内に設置されているカーナビゲーションシステム又はディスプレイオーディオシステムのスピーカであってもよい。また音声出力装置40は、カーナビゲーションシステム又はディスプレイオーディオシステムと連携した、スマートフォン又はタブレットのスピーカであってもよい。また音声出力装置40は、警告音または警告メッセージを出力するための専用のスピーカであってもよい。 The audio output device 40 may be a speaker of a car navigation system or a display audio system installed in a vehicle. The audio output device 40 may also be a speaker of a smartphone or a tablet connected to a car navigation system or a display audio system. The audio output device 40 may also be a speaker dedicated to outputting a warning sound or a warning message.

通知制御部27は、撮像装置10により撮像された画像において人物が検出されると、当該人物の検出枠を、表示装置30に表示される画面上に重畳させる。通知制御部27は、距離推定部26が推定した車両から人物までの距離に応じて、検出枠の表示態様を変更する。車両から人物までの距離が予め設定された閾値以上の場合、通知制御部27は検出枠を相対的に目立たない色(例えば、白色または黄色)で表示させる。車両から人物までの距離が当該閾値未満の場合、通知制御部27は検出枠を相対的に目立つ色(例えば、黄色または赤色)で表示させる。また、車両から人物までの距離が閾値未満の場合、通知制御部27は検出枠を点滅させてもよい。また、車両から人物までの距離が当該閾値未満の場合、通知制御部27は検出枠を太くしてもよい。 When a person is detected in an image captured by the imaging device 10, the notification control unit 27 superimposes a detection frame of the person on the screen displayed on the display device 30. The notification control unit 27 changes the display mode of the detection frame according to the distance from the vehicle to the person estimated by the distance estimation unit 26. When the distance from the vehicle to the person is equal to or greater than a preset threshold, the notification control unit 27 displays the detection frame in a relatively inconspicuous color (e.g., white or yellow). When the distance from the vehicle to the person is less than the threshold, the notification control unit 27 displays the detection frame in a relatively conspicuous color (e.g., yellow or red). When the distance from the vehicle to the person is less than the threshold, the notification control unit 27 may blink the detection frame. When the distance from the vehicle to the person is less than the threshold, the notification control unit 27 may thicken the detection frame.

通知制御部27は、撮像装置10により撮像された画像において人物が検出され、車両から人物までの距離が当該閾値未満の場合、音声出力装置40に警告音または警告メッセージを出力させる。また通知制御部27は、車両から人物までの距離が当該閾値以上の場合、音声出力装置40に、相対的に音量が小さい警告音または警告メッセージを出力させ、当該閾値未満の場合、相対的に音量が大きい警告音または警告メッセージを出力させてもよい。 The notification control unit 27 causes the audio output device 40 to output a warning sound or warning message when a person is detected in an image captured by the imaging device 10 and the distance from the vehicle to the person is less than the threshold. The notification control unit 27 may also cause the audio output device 40 to output a warning sound or warning message with a relatively low volume when the distance from the vehicle to the person is equal to or greater than the threshold, and may cause the audio output device 40 to output a warning sound or warning message with a relatively high volume when the distance is less than the threshold.

なお、表示装置30による通知と音声出力装置40による通知の一方を省略することも可能である。また、ステアリングにバイブレータが設置される場合、通知制御部27は、撮像装置10により撮像された画像において人物が検出され、車両から人物までの距離が当該閾値未満の場合、当該バイブレータを振動させてもよい。 It is also possible to omit either the notification by the display device 30 or the notification by the audio output device 40. In addition, if a vibrator is installed on the steering wheel, the notification control unit 27 may vibrate the vibrator when a person is detected in the image captured by the imaging device 10 and the distance from the vehicle to the person is less than the threshold value.

図2-図5は、実施例1に係る、検出枠D1の修正処理の具体例を説明するための図である。図2は、路面の水溜りP1に人物像O1の反射像R1が映り込み、フレーム画像F1内において、検出枠D1が実際の人物の範囲より下方向に伸びている状態を示している。図3は、検出枠D1の下部において検出された、上下対称部位を含む領域Asを示している。 Figures 2 to 5 are diagrams for explaining a specific example of the correction process for the detection frame D1 according to the first embodiment. Figure 2 shows a state in which a reflected image R1 of a person image O1 is reflected in a puddle P1 on the road surface, and the detection frame D1 extends downward beyond the actual range of the person in the frame image F1. Figure 3 shows an area As that includes upper and lower symmetrical parts detected at the bottom of the detection frame D1.

図4に示すように、対称部位検出部23は、上部対称部位の対称中心線Lcを検出する。図5に示すように、オブジェクト範囲修正部25は、検出枠D1の下辺を、検出された対称中心線Lcの位置まで上方向にシフトさせる。これにより、検出枠D1が、実際の人物の範囲を反映した状態に修正される。オブジェクト範囲修正部25は、検出枠の下辺の位置の修正を、検出枠の縦横比を変更することで修正してもよく、検出枠の縦横比を変更せずに検出枠の下辺の位置の修正を行うこととしてもよい。 As shown in FIG. 4, the symmetrical part detection unit 23 detects the symmetrical center line Lc of the upper symmetrical part. As shown in FIG. 5, the object range correction unit 25 shifts the bottom side of the detection frame D1 upward to the position of the detected symmetrical center line Lc. This causes the detection frame D1 to be corrected to a state that reflects the actual range of the person. The object range correction unit 25 may correct the position of the bottom side of the detection frame by changing the aspect ratio of the detection frame, or may correct the position of the bottom side of the detection frame without changing the aspect ratio of the detection frame.

図1に戻る。次に、実施例2に係る検出枠の修正方法を説明する。実施例2では、オブジェクト認識部22は頭部認識部22aを含む。頭部認識部22aは、検出された人物の検出枠の中で、当該人物の頭部の範囲を検出する。頭部認識部22aは、辞書データとして、人物の頭部が写った多数の画像を学習して生成された頭部の識別器を有する。頭部認識部22aは、人物の検出枠で定義された画像領域内を、人物の頭部の識別器を用いて探索する。頭部認識部22aは、人物の検出枠内において、当該人物の頭部を矩形の検出枠で検出する。 Returning to FIG. 1. Next, a method of correcting a detection frame according to Example 2 will be described. In Example 2, the object recognition unit 22 includes a head recognition unit 22a. The head recognition unit 22a detects the area of the head of a detected person within the detection frame of the person. The head recognition unit 22a has a head classifier generated by learning a large number of images containing the person's head as dictionary data. The head recognition unit 22a searches within the image area defined by the person's detection frame using the person's head classifier. The head recognition unit 22a detects the person's head within the person's detection frame using a rectangular detection frame.

オブジェクト追従部24は、オブジェクト認識部22が認識した人物の範囲を、後続するフレーム画像内において追従する。人物の範囲の追従には、例えば、パーティクルフィルタやミーンシフト法を使用することができる。これにより、フレーム画像内に複数の人物が検出された場合でも、人物ごとに追従することができる。 The object tracking unit 24 tracks the range of the person recognized by the object recognition unit 22 in the subsequent frame image. For example, a particle filter or a mean shift method can be used to track the range of the person. This makes it possible to track each person individually even if multiple people are detected in a frame image.

実施例2では、対称部位検出部23は、人物の検出枠の縦方向の長さと、当該人物の頭部の検出枠の縦方向の長さとの比率をもとに当該人物の頭身を算出する。対称部位検出部23は、オブジェクト追従部24が追従している同一人物の頭身を時系列で保持する。上述したように、人物の足元で鏡面反射が発生している場合、人物の検出枠の下辺が実際より下方向に伸びる。 In the second embodiment, the symmetrical part detection unit 23 calculates the head-to-body ratio of the person based on the ratio between the vertical length of the person's detection frame and the vertical length of the detection frame for the person's head. The symmetrical part detection unit 23 stores the head-to-body ratio of the same person being tracked by the object tracking unit 24 in chronological order. As described above, if specular reflection occurs at the feet of the person, the bottom side of the person's detection frame extends further downward than it actually is.

対称部位検出部23は算出した頭身が、設定範囲(例えば、成人の場合は7~8頭身、子供の場合は4~7頭身)内である場合、鏡面反射がない状態で撮像された人物と判定する。対称部位検出部23は、鏡面反射がない状態で撮像された人物の頭身が、当該設定範囲の上限を超えた値に変化したとき、鏡面反射がある状態に変化したと判定する。上述したように、鏡面反射がある状態で撮像された人物の範囲には、上下対称部位が含まれる。対称部位検出部23は、算出した頭身の推移に基づき、上下対称部位の発生を検出する。 If the calculated head-to-body ratio is within a set range (e.g., 7-8 head-to-body ratio for adults, 4-7 head-to-body ratio for children), the symmetrical part detection unit 23 determines that the person was photographed without specular reflection. If the head-to-body ratio of a person photographed without specular reflection changes to a value that exceeds the upper limit of the set range, the symmetrical part detection unit 23 determines that the person has changed to a state with specular reflection. As described above, the range of a person photographed with specular reflection includes upper and lower symmetrical parts. The symmetrical part detection unit 23 detects the occurrence of upper and lower symmetrical parts based on the calculated change in the head-to-body ratio.

上下対称部位が発生した場合、オブジェクト範囲修正部25は、鏡面反射がない状態で撮像されていたときの当該人物の頭身の値をもとに、鏡面反射がある状態で撮像された当該人物の検出枠を修正する。具体的には、オブジェクト範囲修正部25は、検出枠の下辺を、当該検出枠内の頭部の位置を基準に、鏡面反射がない状態で撮像されていたときの頭身に応じた足元の位置まで、上方向にシフトさせる。 When a vertically symmetrical part occurs, the object range correction unit 25 corrects the detection frame of the person captured with specular reflection based on the head-to-body ratio value of the person captured with no specular reflection. Specifically, the object range correction unit 25 shifts the bottom edge of the detection frame upward based on the position of the head within the detection frame to the foot position corresponding to the head-to-body ratio when the image was captured with no specular reflection.

図6-図8は、実施例2に係る、検出枠D1の修正処理の具体例を説明するための図である。図6は、鏡面反射がない状態で撮像されたフレーム画像F0内における、人物の検出枠D1と、当該人物の頭部の検出枠D2を示している。対称部位検出部23は、人物の検出枠D1の縦方向の長さh1と、当該人物の頭部の検出枠D2の縦方向の長さh2との比率をもとに当該人物の頭身を算出する。図6に示す例では頭身(h1/h2)が設定範囲に収まっており、対称部位検出部23は、鏡面反射がない状態で撮像された人物と判定する。 Figures 6 to 8 are diagrams for explaining a specific example of the correction process of the detection frame D1 according to the second embodiment. Figure 6 shows a person's detection frame D1 and the person's head detection frame D2 in a frame image F0 captured without specular reflection. The symmetrical part detection unit 23 calculates the person's head-to-body ratio based on the ratio between the vertical length h1 of the person's detection frame D1 and the vertical length h2 of the person's head detection frame D2. In the example shown in Figure 6, the head-to-body ratio (h1/h2) falls within the set range, and the symmetrical part detection unit 23 determines that the person was captured without specular reflection.

図7は、鏡面反射がある状態で撮像されたフレーム画像F1内における、人物の検出枠D1と、当該人物の頭部の検出枠D2を示している。対称部位検出部23は、人物の検出枠D1の縦方向の長さh1と、当該人物の頭部の検出枠D2の縦方向の長さh2との比率をもとに当該人物の頭身を算出する。図7に示す例では頭身(h1/h2)が設定範囲の上限を超えており、対称部位検出部23は、鏡面反射がある状態で撮像された人物と判定する。 Figure 7 shows a person detection frame D1 and the person's head detection frame D2 in a frame image F1 captured with specular reflection. The symmetrical part detection unit 23 calculates the person's head-to-body ratio based on the ratio between the vertical length h1 of the person's detection frame D1 and the vertical length h2 of the person's head detection frame D2. In the example shown in Figure 7, the head-to-body ratio (h1/h2) exceeds the upper limit of the set range, and the symmetrical part detection unit 23 determines that the person was captured with specular reflection.

鏡面反射がある状態で撮像された人物と判定された場合、図8に示すように、オブジェクト範囲修正部25は、鏡面反射がない状態で撮像されていたフレーム画像F0で算出された頭身になるように、鏡面反射がある状態で撮像されたフレーム画像F1内の人物の検出枠D1の下辺を、上方向にシフトさせる。 If it is determined that the person was captured with specular reflection, as shown in FIG. 8, the object range correction unit 25 shifts the bottom edge of the detection frame D1 of the person in the frame image F1 captured with specular reflection upward so that the head-to-body ratio matches the head-to-body ratio calculated in the frame image F0 captured without specular reflection.

図1に戻る。接地面情報取得部28は、撮像装置10により撮像された画像内において検出された人物が位置する場所の接地面の状態を推定するための情報を取得する。接地面情報取得部は、取得した情報をもとに当該接地面の状態が人物の像を反射させやすい状態(即ち、鏡面反射が発生しやすい状態)であるか否か判定する。 Returning to FIG. 1, the ground surface information acquisition unit 28 acquires information for estimating the state of the ground surface at the location where a person detected in an image captured by the imaging device 10 is located. Based on the acquired information, the ground surface information acquisition unit determines whether or not the state of the ground surface is likely to reflect the image of a person (i.e., whether or not specular reflection is likely to occur).

接地面情報取得部28は、接地面の状態を推定するための情報として、車両のワイパーの作動情報を取得する。ワイパーの作動情報は、車載ネットワーク(例えば、CAN(Controller Area Network)やLIN(Local Interconnect Network))を介して取得することができる。ワイパーが作動している場合、接地面情報取得部28は、雨が降っていると推定することができ、接地面の状態を鏡面反射が発生しやすい状態と推定する。 The ground contact information acquisition unit 28 acquires operation information of the vehicle's wipers as information for estimating the state of the ground contact. The wiper operation information can be acquired via an in-vehicle network (e.g., a Controller Area Network (CAN) or a Local Interconnect Network (LIN)). If the wipers are operating, the ground contact information acquisition unit 28 can estimate that it is raining, and estimates that the state of the ground contact is one in which specular reflection is likely to occur.

接地面情報取得部28は、接地面の状態を推定するための情報として、インターネットを介して、車両の現在位置における天候情報を取得してもよい。この場合、外部サーバにアクセスするための無線通信機能が必要となる。車両の現在位置は、カーナビゲーションシステムに搭載されているGPS(Global Positioning System)センサから取得することができる。車両の現在位置の天候が雨の場合、接地面情報取得部28は、接地面の状態を、鏡面反射が発生しやすい状態と推定する。また、接地面情報取得部28は、雨が降っているときに加えて、雨が降った後の所定期間も、鏡面反射が発生しやすい状態と推定する。 The ground contact information acquisition unit 28 may acquire weather information at the current location of the vehicle via the Internet as information for estimating the state of the ground contact. In this case, a wireless communication function for accessing an external server is required. The current location of the vehicle can be acquired from a GPS (Global Positioning System) sensor mounted on the car navigation system. If the weather at the current location of the vehicle is raining, the ground contact information acquisition unit 28 estimates that the state of the ground contact is one in which specular reflection is likely to occur. Furthermore, the ground contact information acquisition unit 28 estimates that the state is one in which specular reflection is likely to occur not only when it is raining, but also for a predetermined period after it rains.

接地面の状態が、鏡面反射が発生しやすい状態である場合、対称部位検出部23及びオブジェクト範囲修正部25の機能を有効にし、鏡面反射が発生しにくい状態である場合、対称部位検出部23及びオブジェクト範囲修正部25の機能を無効にする。例えば、路面が乾いている状態では、人物の像が路面に反射することはなく、対称部位検出部23及びオブジェクト範囲修正部25を稼働させる必要性が低い。対称部位検出部23及びオブジェクト範囲修正部25を停止させることにより、画像認識装置20の処理負荷を低下させることができる。 When the state of the ground surface is such that specular reflection is likely to occur, the functions of the symmetrical part detection unit 23 and the object range correction unit 25 are enabled, and when the state is such that specular reflection is unlikely to occur, the functions of the symmetrical part detection unit 23 and the object range correction unit 25 are disabled. For example, when the road surface is dry, the image of a person is not reflected on the road surface, and there is little need to operate the symmetrical part detection unit 23 and the object range correction unit 25. By stopping the symmetrical part detection unit 23 and the object range correction unit 25, the processing load of the image recognition device 20 can be reduced.

なお、接地面の状態を、撮像装置10により撮像された画像を解析することにより、推定することもできる。なお、接地面の状態に関わらず、対称部位検出部23及びオブジェクト範囲修正部25を常時稼働させてもよい。その場合、接地面情報取得部28は不要である。 The state of the ground surface can also be estimated by analyzing the image captured by the imaging device 10. Regardless of the state of the ground surface, the symmetrical part detection unit 23 and the object range correction unit 25 may be operated at all times. In that case, the ground surface information acquisition unit 28 is not required.

以上説明したように本実施の形態によれば、人物の像が接地面に鏡面反射して撮像された場合でも、人物の検出枠の下辺位置を上方向に修正することにより、人物の範囲を実際より下方向に長く誤検出することを防止することができる。即ち、画像内において人物の範囲を高精度に検出することができる。これにより、車両から人物までの距離を誤って推定し、不必要な注意喚起が行われることを防止することができる。 As described above, according to this embodiment, even if an image of a person is captured by specular reflection on the ground, the lower edge position of the person detection frame can be corrected upward to prevent the range of the person from being erroneously detected as being longer downward than it actually is. In other words, the range of the person in the image can be detected with high accuracy. This makes it possible to prevent an erroneous estimation of the distance from the vehicle to the person and the issuance of unnecessary warnings.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on an embodiment. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications are possible in the combination of each component and each processing process, and that such modifications are also within the scope of the present invention.

上述した実施の形態では、オブジェクトの一例として人物を認識する例を説明した。この点、オブジェクトは人物に限るものではなく、犬や猫などの動物、対向車、先行車、自転車、オートバイなども該当する。オブジェクト認識部22は、各オブジェクトの識別器をもとに、撮像された画像内で各オブジェクトを検出する。これらのオブジェクトも人物の場合と同様に、接地面に鏡面反射し、上下対称部位が発生する。その場合、オブジェクト範囲修正部25は、上下対称部位の対称中心線の位置が、オブジェクトの範囲の下限位置に対応するように、オブジェクトの範囲を修正する。 In the above-described embodiment, an example of recognizing a person as an example of an object has been described. In this regard, the object is not limited to a person, but also includes animals such as dogs and cats, oncoming vehicles, preceding vehicles, bicycles, and motorcycles. The object recognition unit 22 detects each object in the captured image based on the classifier of each object. As in the case of a person, these objects are also mirror-reflected on the ground surface, resulting in upper and lower symmetrical parts. In this case, the object range correction unit 25 corrects the range of the object so that the position of the symmetric center line of the upper and lower symmetrical parts corresponds to the lower limit position of the range of the object.

上述した実施の形態では、画像認識システム1が車両に搭載される例を想定した。この点、車両以外の移動体に画像認識システム1が搭載されてもよい。例えば、バイク、自転車、鉄道車両、船舶、飛行機、マルチコプタ(ドローン)などに画像認識システム1が搭載されてもよい。また、画像認識システム1が監視カメラに搭載されてもよい。その場合も、監視カメラから侵入者までの距離を誤って推定し、不必要な注意喚起が行われることを防止することができる。 In the above-described embodiment, an example is assumed in which the image recognition system 1 is mounted on a vehicle. In this regard, the image recognition system 1 may be mounted on a moving object other than a vehicle. For example, the image recognition system 1 may be mounted on a motorcycle, bicycle, railroad vehicle, ship, airplane, multicopter (drone), etc. Furthermore, the image recognition system 1 may be mounted on a surveillance camera. In this case, too, it is possible to prevent the distance from the surveillance camera to an intruder from being erroneously estimated and unnecessary warnings being issued.

1 画像認識システム、 10 撮像装置、 20 画像認識装置、 21 画像取得部、 22 オブジェクト認識部、 22a 頭部認識部、 23 対称部位検出部、 24 オブジェクト追従部、 25 オブジェクト範囲修正部、 26 距離推定部、 27 通知制御部、 28 接地面情報取得部、 30 表示装置、 40 音声出力装置。 1 Image recognition system, 10 Imaging device, 20 Image recognition device, 21 Image acquisition unit, 22 Object recognition unit, 22a Head recognition unit, 23 Symmetrical part detection unit, 24 Object tracking unit, 25 Object range correction unit, 26 Distance estimation unit, 27 Notification control unit, 28 Ground surface information acquisition unit, 30 Display device, 40 Audio output device.

Claims (4)

撮像装置から画像を取得する画像取得部と、
前記画像取得部が取得した画像からオブジェクトとして人物を認識するとともに認識した人物の頭部を特定するオブジェクト認識部と、
前記オブジェクト認識部が認識した人物の範囲と前記人物の頭部との縦方向の比率に基づき、前記人物の範囲の下部において上下対称部位を検出する対称部位検出部と、
前記対称部位検出部が上下対称部位を検出した場合、検出した上下対称部位の対称中心線の位置が、前記人物の範囲の下限位置に対応するよう、前記人物の範囲を修正するオブジェクト範囲修正部と、
前記人物の範囲の位置に基づき、前記撮像装置から前記人物までの距離を推定する距離推定部と、
を備える、画像認識装置。
an image acquisition unit that acquires an image from an imaging device;
an object recognition unit that recognizes a person as an object from the image acquired by the image acquisition unit and identifies a head of the recognized person ;
a symmetrical part detection unit that detects upper and lower symmetrical parts in a lower part of the range of the person recognized by the object recognition unit based on a vertical ratio between the range of the person and the head of the person;
an object range correction unit that corrects the range of the person when the symmetrical part detection unit detects a vertically symmetrical part so that a position of a symmetrical center line of the detected vertically symmetrical part corresponds to a lower limit position of the range of the person ;
a distance estimation unit that estimates a distance from the imaging device to the person based on a position of the range of the person ;
An image recognition device comprising:
前記人物が位置する場所の接地面の状態を推定するための情報を取得する接地面情報取得部をさらに備え、
前記接地面の状態が前記人物の像の鏡面反射が発生しやすい状態である場合、前記対称部位検出部及び前記オブジェクト範囲修正部の機能が有効となる、
請求項に記載の画像認識装置。
A ground surface information acquisition unit that acquires information for estimating a state of a ground surface at a location where the person is located,
When the state of the ground surface is such that specular reflection of the image of the person is likely to occur , the functions of the symmetrical part detection unit and the object range correction unit are enabled.
The image recognition device according to claim 1 .
撮像装置から画像を取得するステップと、
取得した画像からオブジェクトとして人物を認識するとともに認識した人物の頭部を特定するステップと、
認識した人物の範囲と前記人物の頭部との縦方向の比率に基づき、前記人物の範囲の下部において上下対称部位を検出するステップと、
上下対称部位を検出した場合、検出した上下対称部位の対称中心線の位置が、前記人物の範囲の下限位置に対応するよう、前記人物の範囲を修正するステップと、
前記人物の範囲の位置に基づき、前記撮像装置から前記人物までの距離を推定するステップと、
を有する、画像認識方法。
acquiring an image from an imaging device;
A step of recognizing a person as an object from the acquired image and identifying a head of the recognized person ;
detecting a vertically symmetrical portion in a lower portion of the recognized person's area based on a vertical ratio between the recognized person's area and the person's head ;
when detecting vertically symmetrical parts, correcting the range of the person so that the position of the symmetrical center line of the detected vertically symmetrical parts corresponds to the lower limit position of the range of the person ;
estimating a distance from the imaging device to the person based on a position of the range of the person ;
The image recognition method includes:
撮像装置から画像を取得する処理と、
取得した画像からオブジェクトとして人物を認識するとともに認識した人物の頭部を特定する処理と、
認識した人物の範囲と前記人物の頭部との縦方向の比率に基づき、前記人物の範囲の下部において上下対称部位を検出する処理と、
上下対称部位を検出した場合、検出した上下対称部位の対称中心線の位置が、前記人物の範囲の下限位置に対応するよう、前記人物の範囲を修正する処理と、
前記人物の範囲の位置に基づき、前記撮像装置から前記人物までの距離を推定する処理と、
をコンピュータに実行させる、画像認識プログラム。
Acquiring an image from an imaging device;
A process of recognizing a person as an object from the acquired image and identifying the head of the recognized person ;
A process of detecting a vertically symmetrical portion in a lower portion of the recognized person's range based on a vertical ratio between the recognized person's range and the person's head ;
When vertically symmetrical parts are detected, a process of correcting the range of the person so that the position of the symmetrical center line of the detected vertically symmetrical parts corresponds to the lower limit position of the range of the person ;
A process of estimating a distance from the imaging device to the person based on a position of the range of the person ;
An image recognition program that causes a computer to execute the following:
JP2020118712A 2020-07-09 2020-07-09 IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM Active JP7468207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020118712A JP7468207B2 (en) 2020-07-09 2020-07-09 IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020118712A JP7468207B2 (en) 2020-07-09 2020-07-09 IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM

Publications (2)

Publication Number Publication Date
JP2022015696A JP2022015696A (en) 2022-01-21
JP7468207B2 true JP7468207B2 (en) 2024-04-16

Family

ID=80120842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020118712A Active JP7468207B2 (en) 2020-07-09 2020-07-09 IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM

Country Status (1)

Country Link
JP (1) JP7468207B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240066796A (en) * 2022-11-08 2024-05-16 삼성전자주식회사 Electronic device and Method for controlling the electronic device thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293627A (en) 2006-04-25 2007-11-08 Honda Motor Co Ltd Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP2008287692A (en) 2007-04-16 2008-11-27 Honda Motor Co Ltd Obstacle recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293627A (en) 2006-04-25 2007-11-08 Honda Motor Co Ltd Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP2008287692A (en) 2007-04-16 2008-11-27 Honda Motor Co Ltd Obstacle recognition device

Also Published As

Publication number Publication date
JP2022015696A (en) 2022-01-21

Similar Documents

Publication Publication Date Title
US11393217B2 (en) Vehicular vision system with detection and tracking of objects at the side of a vehicle
JP6266238B2 (en) Approaching object detection system and vehicle
JP4857840B2 (en) Object detection method and object detection apparatus
JP6246014B2 (en) Exterior recognition system, vehicle, and camera dirt detection method
US10423842B2 (en) Vehicle vision system with object detection
EP2928178B1 (en) On-board control device
US20100208075A1 (en) Surroundings monitoring device for vehicle
JP2005309797A (en) Warning device for pedestrian
JP4528283B2 (en) Vehicle periphery monitoring device
TWI585723B (en) Vehicle monitoring system and method thereof
TWI531499B (en) Anti-collision warning method and device for tracking moving object
US11081008B2 (en) Vehicle vision system with cross traffic detection
WO2016157698A1 (en) Vehicle detection system, vehicle detection apparatus, vehicle detection method, and vehicle detection program
US20160180158A1 (en) Vehicle vision system with pedestrian detection
KR101264282B1 (en) detection method vehicle in road using Region of Interest
JP2010191793A (en) Alarm display and alarm display method
JP7468207B2 (en) IMAGE RECOGNITION DEVICE, IMAGE RECOGNITION METHOD, AND IMAGE RECOGNITION PROGRAM
JP2005309660A (en) Device supporting vehicle in turning right or left
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
US20230098440A1 (en) Imaging device, imaging system, and imaging method
JP2022016962A (en) Image recognition device, method for recognizing image, and image recognition program
JP3942289B2 (en) Vehicle monitoring device
TW202241739A (en) Method and system for identifying a parking space
JP6429101B2 (en) Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object
JP7185571B2 (en) Viewing direction estimation device, viewing direction estimation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7468207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150