JP6519499B2 - Vehicle system and computer program - Google Patents

Vehicle system and computer program Download PDF

Info

Publication number
JP6519499B2
JP6519499B2 JP2016031950A JP2016031950A JP6519499B2 JP 6519499 B2 JP6519499 B2 JP 6519499B2 JP 2016031950 A JP2016031950 A JP 2016031950A JP 2016031950 A JP2016031950 A JP 2016031950A JP 6519499 B2 JP6519499 B2 JP 6519499B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
image
window
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016031950A
Other languages
Japanese (ja)
Other versions
JP2017149211A (en
Inventor
優樹 越野
優樹 越野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016031950A priority Critical patent/JP6519499B2/en
Publication of JP2017149211A publication Critical patent/JP2017149211A/en
Application granted granted Critical
Publication of JP6519499B2 publication Critical patent/JP6519499B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Description

本発明は車両用システム及びコンピュータプログラムに関する。   The present invention relates to a vehicle system and a computer program.

車両走行中に例えば手や顔等の身体の一部や荷物等の物体が車室内から車窓を介して車室外に突出していると、他車両や建造物等と接触する可能性があり危険である。このような事情から、物体が車室内から突出しているか否かを判定する車両用システムが望まれている。この種の車両用システムとして、ステレオカメラを用いて物体の位置を特定し、物体が車室内から突出しているか否かを判定する構成が考えられる。ステレオカメラを用いる構成では、車室内に配置されているステレオカメラから物体までの距離を画像の視差を用いて計算し、ステレオカメラから物体までの距離の方が車窓までの距離よりも大きければ、物体が車室内から突出していると特定する。又、特許文献1には、物体の位置を特定する別の構成として、単眼カメラとソナーやレーダ等のセンサとを併用して物体の位置を特定する構成が開示されている。   If, for example, a part of the body such as a hand or face or an object such as a luggage projects from the vehicle compartment to the outside of the vehicle via the window during travel, the vehicle may come in contact with other vehicles or buildings. is there. Under such circumstances, a vehicle system for determining whether or not an object protrudes from a vehicle compartment is desired. As a system for this type of vehicle, a configuration is conceivable in which the position of an object is specified using a stereo camera, and it is determined whether the object protrudes from the vehicle interior. In a configuration using a stereo camera, if the distance from the stereo camera to the object is calculated using the parallax of the image and the distance from the stereo camera to the object is larger than the distance to the car window, Identify the object as sticking out of the cabin. Further, as another configuration for specifying the position of an object, Patent Document 1 discloses a configuration for specifying the position of an object by using a single-eye camera and a sensor such as a sonar or a radar in combination.

特開2014−127032号公報JP, 2014-127032, A

しかしながら、ステレオカメラを用いたり単眼カメラとセンサとを併用したりする構成では、単眼カメラのみを用いる構成と比較すると、コスト高になる問題がある。   However, in the configuration using a stereo camera or using a single-eye camera and a sensor in combination, there is a problem that the cost is increased as compared with a configuration using only a single-eye camera.

本発明は、上記した事情に鑑みてなされたものであり、その目的は、コスト高を招くことなく、物体が車室内から突出しているか否かを適切に判定し、物体が車室内から突出している旨を適切に報知することができる車両用システム及びコンピュータプログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and an object thereof is to appropriately determine whether an object protrudes from a vehicle compartment without causing an increase in cost, and the object protrudes from the vehicle interior. An object of the present invention is to provide a vehicle system and a computer program capable of appropriately notifying that there is an event.

請求項1に記載した発明によれば、撮影部(3)は、単眼カメラにより構成され、少なくとも開閉可能な車窓(14〜17)を含む範囲と、その車窓の周囲を映すサイドミラーのミラー面(12a,13a)を含む範囲とを撮影する。画像解析部(5)は、撮影部により撮影された画像を解析する。判定部(5c)は、撮影部により車窓を含む範囲が撮影された直接画像の画像解析部による解析結果と、撮影部によりミラー面を含む範囲が撮影された間接画像の画像解析部による解析結果とを用い、物体が車室内から車窓を介して車室外に突出しているか否かを判定する。報知指令部(5d)は、判定部による判定結果を報知部(4)により報知する。   According to the invention described in claim 1, the photographing unit (3) is constituted by a single-eye camera, and at least a range including an openable and closable car window (14 to 17) and a mirror surface of a side mirror that reflects the periphery of the car window Photograph an area including (12a, 13a). The image analysis unit (5) analyzes an image captured by the imaging unit. The determination unit (5c) analyzes the analysis result by the image analysis unit of the direct image in which the range including the car window is captured by the imaging unit and the analysis result by the image analysis unit of the indirect image in which the range including the mirror surface is captured by the imaging unit. And determine whether the object protrudes from the vehicle interior through the vehicle window to the vehicle exterior. The notification command unit (5d) notifies the determination result of the determination unit by the notification unit (4).

車窓を含む範囲が撮影された直接画像の解析結果と、サイドミラーのミラー面を含む範囲が撮影された間接画像の解析結果とを用い、物体が車室内から突出しているか否かを判定するようにした。ステレオカメラを用いたり単眼カメラとセンサとを併用したりする構成とは異なり、単眼カメラのみを用いる構成とすることでコスト高を招くことなく、物体が車室内から突出しているか否かを適切に判定し、物体が車室内から突出している旨を適切に報知することができる。   Use the analysis results of the direct image in which the area including the car window is photographed and the analysis result of the indirect image in which the area including the mirror surface of the side mirror is photographed to determine whether the object protrudes from the vehicle interior I made it. Unlike the configuration that uses a stereo camera or a combination of a single-eye camera and a sensor, the configuration using only a single-eye camera makes it possible to appropriately determine whether the object protrudes from the vehicle interior without causing an increase in cost. It is determined that the object protrudes from the vehicle compartment can be appropriately notified.

本発明の一実施形態を示す機能ブロック図Functional block diagram showing an embodiment of the present invention カメラが車室内に配置されている態様を示す図The figure which shows the aspect by which the camera is arrange | positioned in a vehicle interior ステレオカメラを用いて物体の位置を特定する原理を示す図Diagram showing the principle of specifying the position of an object using a stereo camera 単眼カメラとミラーとを用いて物体の位置を特定する原理を示す図Diagram showing the principle of locating an object using a monocular camera and a mirror フローチャートflowchart シーケンス図Sequence Diagram 物体が車室内から突出していない状況を示す図A diagram showing the situation where an object does not protrude from the vehicle cabin 物体が車室内から突出している状況を示す図A diagram showing the situation where an object protrudes from the vehicle cabin

以下、本発明の一実施形態について図面を参照して説明する。車両用システム1は、車両用装置2と、カメラ3(撮影部に相当する)と、報知デバイス4(報知部に相当する)とを有する。カメラ3は、360度の方向を撮影視野(即ち画角)とする単眼カメラであり、図2に示すように、右側ハンドルの車両11の車室内の天井において運転席の上部に配置されている。即ち、カメラ3は、運転者の目に近い位置に配置されており、車窓を含む範囲及び車両11の車体側面に取り付けられているサイドミラー12,13のミラー面12a,13aを含む範囲を撮影する。サイドミラー12,13は、それぞれ運転席ドア及び助手席ドアに取り付けられているドアミラーである。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The system 1 for vehicles has the apparatus 2 for vehicles, the camera 3 (equivalent to a imaging | photography part), and the alerting | reporting device 4 (equivalent to an alerting | reporting part). The camera 3 is a monocular camera with a 360 degree direction as a field of view (i.e. angle of view), and is disposed above the driver's seat on the ceiling of the vehicle interior of the vehicle 11 with the right handle as shown in FIG. . That is, the camera 3 is disposed at a position close to the driver's eyes, and photographs the range including the car window and the range including the mirror surfaces 12a and 13a of the side mirrors 12 and 13 attached to the vehicle body side surface of the vehicle 11. Do. The side mirrors 12 and 13 are door mirrors attached to the driver's seat door and the passenger's seat door, respectively.

サイドミラー12,13のミラー面12a,13aは、運転者が車両前方からの少ない視線移動でも車両後方を確認可能となるように車両後方を映すように角度が調整可能である。この場合、運転者が車体側面の一部を含めて車両後方を確認可能となるようにミラー面12a,13aの角度を調整していれば、カメラ3は車体側面の一部を映すミラー面12a,13aを撮影することになる。即ち、右側サイドミラー12のミラー面12aに運転席の車窓14の一部及び右側後部座席の車窓15の一部が映るように運転者がミラー面12aの角度を調整していれば、カメラ3は運転席の車窓14の一部及び右側後部座席の車窓15の一部を映すミラー面12aを撮影する。図2では右側サイドミラー12のミラー面12aが映す範囲を破線A1,A2で示している。   The mirror surfaces 12a and 13a of the side mirrors 12 and 13 can be adjusted in angle so that the rear of the vehicle can be viewed so that the driver can check the rear of the vehicle even with a small movement of the eyes from the front of the vehicle. In this case, if the angles of the mirror surfaces 12a and 13a are adjusted so that the driver can check the rear of the vehicle including a part of the side surface of the vehicle, the camera 3 reflects the part of the side surface of the vehicle , 13a will be taken. That is, if the driver adjusts the angle of the mirror surface 12 a so that a part of the car window 14 of the driver's seat and a part of the car window 15 of the right rear seat appear on the mirror surface 12 a of the right side mirror 12. The camera captures a mirror surface 12a that reflects a part of the car window 14 of the driver's seat and a part of the car window 15 of the right rear seat. In FIG. 2, the range in which the mirror surface 12 a of the right side mirror 12 is shown is indicated by broken lines A1 and A2.

左側サイドミラー13についても同様であり、左側サイドミラー13のミラー面13aに助手席の車窓16の一部及び左側後部座席の車窓17の一部が映るように運転者がミラー面13aの角度を調整していれば、カメラ3は助手席の車窓16の一部及び左側後部座席の車窓17の一部を映すミラー面13aを撮影する。図2では左側サイドミラー13のミラー面13aが映す範囲を破線B1,B2で示している。このようにカメラ3は、車窓14〜17を含む範囲を直接的に撮影すると共に、車窓14〜17を含む範囲をミラー面12a,13aを介して間接的に撮影する。尚、車窓14〜17は、それぞれ運転者を含む乗員が所定の開閉操作を行うことで上下方向に開閉可能となっている。   The same applies to the left side mirror 13, and the driver sets the angle of the mirror surface 13a so that a part of the front window 16 and a part of the left rear window 17 are reflected on the mirror surface 13a of the left side mirror 13. If it is adjusted, the camera 3 takes an image of a mirror surface 13a that reflects a part of the passenger window 16 and a part of the left rear seat 17. In FIG. 2, the range in which the mirror surface 13 a of the left side mirror 13 is shown is indicated by broken lines B1 and B2. As described above, the camera 3 directly shoots the range including the car windows 14 to 17 and indirectly shoots the range including the car windows 14 to 17 via the mirror surfaces 12a and 13a. The vehicle windows 14 to 17 can be opened and closed in the vertical direction by the occupants including the driver performing predetermined opening and closing operations.

カメラ3は、撮影動作を行うと、その撮影した画像を含む画像信号を車両用装置2に出力する。カメラ3から車両用装置2に出力される画像信号には、カメラ3が車窓14〜17を含む範囲を直接的に撮影した直接画像と、カメラ3が車窓14〜17を含む範囲をミラー面12a,13aを介して間接的に撮影した間接画像とが含まれる。図2ではカメラ3が右側後部座席の車窓15を直接的に撮影する範囲を破線C1,C2で示し、カメラ3が左側後部座席の車窓17を直接的に撮影する範囲を破線D1,D2で示している。尚、カメラ3から車両用装置2への画像信号の出力は、有線接続によるデータ通信で行っても良いし無線接続によるデータ通信で行っても良い。有線接続によるデータ通信は、例えばUSB(Universal Serial Bus)を用いれば良い。無線接続によるデータ通信は、例えばBluetooth(登録商標)、BLE(Bluetooth Low Energy)、WiFi(Wireless Fidelity)(登録商標)等を用いれば良い。又、カメラ3は、画像信号を連続的に車両用装置2に出力しても良いし所定周期(例えば数ミリ秒間隔の周期)で間欠的に出力しても良い。   When the camera 3 performs a photographing operation, the camera 3 outputs an image signal including the photographed image to the vehicular device 2. The image signal output from the camera 3 to the vehicular apparatus 2 includes a direct image in which the camera 3 directly captures the range including the car windows 14 to 17 and a range including the camera window 14 to 17 as the mirror surface 12a. , 13a and an indirect image taken indirectly. In FIG. 2, broken lines C1 and C2 indicate ranges where the camera 3 directly shoots the car window 15 of the right rear seat, and broken lines D1 and D2 indicate ranges where the camera 3 directly shoots the car window 17 of the left rear seat. ing. The output of the image signal from the camera 3 to the vehicular apparatus 2 may be performed by data communication by wired connection or by data communication by wireless connection. For data communication by wire connection, for example, USB (Universal Serial Bus) may be used. For data communication by wireless connection, for example, Bluetooth (registered trademark), BLE (Bluetooth Low Energy), WiFi (Wireless Fidelity) (registered trademark) or the like may be used. Further, the camera 3 may continuously output the image signal to the vehicular device 2 or may intermittently output the image signal at a predetermined cycle (for example, a cycle of several millisecond intervals).

報知デバイス4は、車室内に配置されているディスプレイやスピーカー等であり、車両用装置2から報知指令信号を入力すると、報知情報を表示したり音出力したりする等の報知動作を行う。車両用装置2から報知デバイス4への報知指令信号の出力も、有線接続によるデータ通信で行っても良いし無線接続によるデータ通信で行っても良い。   The notification device 4 is a display, a speaker, or the like disposed in the vehicle compartment, and performs notification operations such as displaying notification information or outputting a sound when a notification command signal is input from the vehicular device 2. The output of the notification command signal from the vehicular device 2 to the notification device 4 may also be performed by data communication by wired connection or by data communication by wireless connection.

車両用装置2は、制御部5を有する。制御部5は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びI/O(Input/Output)を有するマイクロコンピュータにより構成されている。制御部5は、非遷移的実体的記録媒体に格納されているコンピュータプログラムを実行することで、コンピュータプログラムに対応する処理を実行し、車両用装置2の動作全般を制御する。   The vehicular device 2 includes a control unit 5. The control unit 5 is configured by a microcomputer having a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and an input / output (I / O). The control unit 5 executes the processing corresponding to the computer program by executing the computer program stored in the non-transitional tangible recording medium, and controls the overall operation of the vehicular device 2.

制御部5は、本発明に関連する機能として、背景成分除去部5aと、画像解析部5bと、判定部5cと、報知指令部5dとを有する。これらの各部5a〜5dは制御部5が実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。背景成分除去部5aは、カメラ3から車両用装置2に入力された画像信号を信号処理して直接画像及び間接画像を抽出し、その直接画像及び間接画像に対してオプティカルフローの手法を適用して背景成分を除去する。オプティカルフローとは画像内の物体の動きをベクトルで表現する手法である。この場合、具体的には、背景成分除去部5aは、車両の進行方向に対して逆方向への動きのベクトルが発生している領域を背景成分と見做して除去する。   The control unit 5 includes, as functions related to the present invention, a background component removal unit 5a, an image analysis unit 5b, a determination unit 5c, and a notification command unit 5d. These units 5a to 5d are configured by computer programs executed by the control unit 5, and are realized by software. The background component removing unit 5a processes the image signal input from the camera 3 to the vehicular apparatus 2 to extract a direct image and an indirect image, and applies an optical flow method to the direct image and the indirect image. Remove background components. Optical flow is a method of representing the motion of an object in an image as a vector. In this case, specifically, the background component removing unit 5a removes a region in which a vector of motion in the direction opposite to the traveling direction of the vehicle is generated as a background component.

画像解析部5bは、背景成分が除去された直接画像及び背景成分が除去された間接画像を解析する。判定部5cは、直接画像の画像解析部5bによる解析結果及び間接画像の画像解析部5bによる解析結果を用いて物体の位置を特定し、詳しくは後述する手法により物体が車室内から車窓14〜17を介して車室外に突出しているか否かを判定する。報知指令部4dは、物体が車室内から突出していると判定部5cにより判定されると、報知指令信号を報知デバイス4に出力させ、報知動作を報知デバイス4に行わせる。   The image analysis unit 5b analyzes the direct image from which the background component has been removed and the indirect image from which the background component has been removed. The determination unit 5c specifies the position of the object using the analysis result by the image analysis unit 5b of the direct image and the analysis result by the image analysis unit 5b of the indirect image. It is judged whether or not it protrudes outside the vehicle through 17. When it is determined by the determination unit 5c that the object protrudes from the vehicle interior, the notification command unit 4d causes the notification device 4 to output a notification command signal, and causes the notification device 4 to perform a notification operation.

ここで、判定部5cが物体の位置を特定する原理について説明する。最初にステレオカメラにより物体の位置を特定する原理について図3を参照して説明する。図3に示すように、第1のカメラの位置をM、第2のカメラの位置をN、第1のカメラの位置と第2のカメラの位置との間の距離をB、物体の任意の点の位置をP、第1のカメラ及び第2のカメラの焦点距離をf、第1のカメラが物体を撮影した画像内における物体の任意の点の位置をpl、その画像端からplまでの距離をxl、第2のカメラが物体を撮影した画像内における物体の任意の点の位置をpr、その画像端からprまでの距離をxr、第1のカメラの位置と第2のカメラの位置との中点の位置から物体の任意の点の位置までの距離をZとすると、視差と奥行きの関係から次式が成立する。   Here, the principle of determining the position of an object by the determination unit 5c will be described. First, the principle of specifying the position of an object with a stereo camera will be described with reference to FIG. As shown in FIG. 3, the position of the first camera is M, the position of the second camera is N, the distance between the position of the first camera and the position of the second camera is B, any desired object The position of the point is P, the focal length of the first camera and the second camera is f, the position of an arbitrary point of the object in the image in which the first camera has photographed the object is pl, and from the image edge to pl The distance is xl, the position of an arbitrary point of the object in the image taken by the second camera is pr, the distance from the image edge to pr is xr, the position of the first camera and the position of the second camera Assuming that the distance from the position of the middle point to the position of an arbitrary point on the object is Z, the following equation holds from the relationship between parallax and depth.

|xr−xl|/B=f/Z
|xr−xl|はxr−xlの絶対値である。この場合、B及びfが既知であるので、視差である|xr−xl|を画像解析により算出することで、Zを算出可能となる。
| Xr-xl | / B = f / Z
| Xr-xl | is an absolute value of xr-xl. In this case, since B and f are known, Z can be calculated by calculating | xr−xl |, which is parallax, by image analysis.

本実施形態では、図3に示した原理において2個のカメラのうち一方をサイドミラーのミラー面に置換することで成立する。即ち、図4に示すように、ミラー面の位置をM、カメラの位置をN、ミラー面の位置とカメラの位置との間の距離をB、物体の任意の点の位置をP、カメラの焦点距離をf、カメラが物体を撮影した画像内における物体の任意の点の位置をpr、その画像端からprまでの距離をxr、ミラー面の位置とカメラの位置との中点の位置から物体の任意の点の位置までの距離をZ、ミラー面が映す画像内における物体の任意の点の位置をplとすると、その画像端からplまでの距離がxl/Bとなり、視差と奥行きの関係から次式が成立する。   In this embodiment, in the principle shown in FIG. 3, this is established by replacing one of the two cameras with the mirror surface of the side mirror. That is, as shown in FIG. 4, the position of the mirror surface is M, the position of the camera is N, the distance between the position of the mirror surface and the position of the camera is B, the position of an arbitrary point of the object is P, The focal length is f, the position of an arbitrary point of the object in the image taken by the camera is pr, the distance from the image edge to pr is xr, and the position of the midpoint between the position of the mirror surface and the position of the camera Assuming that the distance to the position of an arbitrary point of the object is Z, and the position of an arbitrary point of the object in the image imaged by the mirror surface is pl, the distance from the image end to pl is xl / B, and the parallax and depth From the relationship, the following equation holds.

|xr−xl/B|/B=f/Z
|xr−xl/B|はxr−xl/Bの絶対値である。この場合も、B及びfが既知であるので、視差である|xr−xl/B|を画像解析により算出することで、Zを算出可能となる。
| Xr-xl / B | / B = f / Z
| Xr−xl / B | is an absolute value of xr−xl / B. Also in this case, since B and f are known, Z can be calculated by calculating | xr−xl / B |, which is parallax, by image analysis.

次に、上記した構成の作用について図5から図8を参照して説明する。制御部5は本発明に関連して物体突出判定処理を行う。制御部5は、物体突出判定処理を開始すると、カメラ3から画像信号を入力し(S1)、その入力した画像信号を信号処理して直接画像及び間接画像を抽出する(S2)。次いで、制御部5は、その抽出した直接画像及び間接画像に対してオプティカルフローの手法を適用して背景成分を除去する(S3)。そして、制御部5は、背景成分が除去された直接画像及び背景成分が除去された間接画像を解析する(S4)。   Next, the operation of the above configuration will be described with reference to FIGS. 5 to 8. The control unit 5 performs object protrusion determination processing in relation to the present invention. When the object protrusion determination process is started, the control unit 5 receives an image signal from the camera 3 (S1), and performs signal processing on the input image signal to directly extract an image and an indirect image (S2). Next, the control unit 5 applies the optical flow method to the extracted direct image and indirect image to remove the background component (S3). Then, the control unit 5 analyzes the direct image from which the background component has been removed and the indirect image from which the background component has been removed (S4).

ここでは、制御部5が、図7及び図8に示すように、カメラ3により右側後部座席の車窓15を含む範囲が撮影された直接画像と、カメラ3により右側サイドミラー12のミラー面12aを含む範囲が撮影された間接画像とを解析する場合について説明する。尚、図7及び図8で示す破線Aは、車窓15の位置の延長線を示し、車室内と車室外とを仕切る境界を示す。制御部5は、背景成分が除去された直接画像及び背景成分が除去された間接画像を解析した結果として、図4に示した原理により、視差である|xr−xl/B|を算出し、ミラー面12aの位置とカメラ3の位置との中点(基準位置に相当する)から物体の任意の点の位置までの距離であるZを物体到達距離として算出する(S5)。ミラー面12aの位置とは例えばミラー面12aの中央の位置であり、カメラ3の位置とは例えばレンズの中央の位置である。   Here, as shown in FIGS. 7 and 8, the control unit 5 directly images the range including the car window 15 of the right rear seat by the camera 3 and the mirror surface 12 a of the right side mirror 12 by the camera 3. The case of analyzing the indirect image whose captured range is included will be described. The broken line A shown in FIGS. 7 and 8 indicates an extension of the position of the car window 15, and indicates the boundary between the vehicle interior and the vehicle exterior. The control unit 5 calculates the parallax | xr−xl / B | according to the principle shown in FIG. 4 as a result of analyzing the direct image from which the background component has been removed and the indirect image from which the background component has been removed. The distance Z from the middle point (corresponding to the reference position) between the position of the mirror surface 12a and the position of the camera 3 to the position of an arbitrary point of the object is calculated as the object reaching distance (S5). The position of the mirror surface 12a is, for example, the central position of the mirror surface 12a, and the position of the camera 3 is, for example, the central position of the lens.

制御部5は、物体到達距離の算出に成功したか否かを判定し(S6)、物体到達距離の算出に成功したと判定すると(S6:YES)、その算出した物体到達距離を、右側後部座席の車窓15のサイズ(即ち前後方向の長さ及び高さ方向の長さ)に基づいて予め記憶している設定範囲と照合し、物体到達距離が設定範囲内である否かを判定する(S7)。制御部5は、物体到達距離の算出に失敗したと判定すると(S6:NO)、又は物体到達距離が設定範囲内でない(即ち設定範囲外である)と判定すると(S7:NO)、右側後部座席の車窓15の周囲に物体が存在していないと特定し(S8)、物体突出判定処理を終了する。一方、制御部5は、物体到達距離が設定範囲内であると判定すると(S7:YES)、図7に示す状況及び図8に示す状況のうち何れかであり、右側後部座席の車窓15の周囲に物体が存在していると特定する(S9)。   The control unit 5 determines whether the calculation of the object reach distance is successful (S6), and when it is determined that the calculation of the object reach distance is successful (S6: YES), the calculated object reach distance is Based on the size of the car window 15 of the seat (that is, the length in the front-rear direction and the length in the height direction), it is compared with the setting range stored in advance to determine whether the object reach distance is within the setting range S7). If the control unit 5 determines that the calculation of the object arrival distance has failed (S6: NO), or if it determines that the object arrival distance is not within the set range (that is, outside the set range) (S7: NO), the right rear part It is specified that no object exists around the car window 15 of the seat (S8), and the object protrusion determination process is ended. On the other hand, when control unit 5 determines that the object reach distance is within the set range (S7: YES), it is one of the situation shown in FIG. 7 and the situation shown in FIG. It specifies that an object is present in the surroundings (S9).

次いで、制御部5は、前述したxr及びxl/Bのうち例えばxrを方向判定基準距離として選択する(S10)。制御部5は、その選択した方向判定基準距離を、右側後部座席の車窓15の位置に基づいて予め記憶している設定値と照合し、方向判定基準距離が設定値以上である否かを判定する(S11)。この場合、図7に示すように、右側後部座席の車窓15の周囲であって車室内に物体が存在している、即ち物体が車室内から突出していなければ、方向判定基準距離として選択したxrは相対的に長くなり、カメラ3の位置から物体の任意の点の位置に向かう方向が車室内側に傾く方向となる。一方、図8に示すように、右側後部座席の車窓15の周囲であって車室外に物体が存在している、即ち物体が車室内から突出していれば、方向判定基準距離として選択したxrは相対的に短くなり、カメラ3の位置から物体の任意の点の位置に向かう方向が車室外側に傾く方向となる。   Next, the control unit 5 selects, for example, xr as the direction determination reference distance from among the above-described xr and xl / B (S10). The control unit 5 collates the selected direction determination reference distance with a setting value stored in advance based on the position of the vehicle window 15 of the right rear seat, and determines whether the direction determination reference distance is equal to or more than the setting value. To do (S11). In this case, as shown in FIG. 7, if there is an object around the window 15 of the right rear seat and there is an object in the vehicle compartment, that is, the object does not protrude from the vehicle interior, xr selected as the direction determination reference distance Is relatively long, and the direction from the position of the camera 3 to the position of an arbitrary point on the object is the direction toward the inside of the passenger compartment. On the other hand, as shown in FIG. 8, if an object exists around the car window 15 of the right rear seat and outside the vehicle, that is, the object protrudes from the vehicle interior, xr selected as the direction determination reference distance It becomes relatively short, and the direction from the position of the camera 3 to the position of an arbitrary point on the object is the direction inclined to the outside of the passenger compartment.

制御部5は、方向判定基準距離が設定値以上であると判定すると(S11:YES)、車室内に物体が存在しており、即ち物体が車室内から突出していないと特定し(S12)、物体突出判定処理を終了する。一方、制御部5は、方向判定基準距離が設定値以上でなく設定値未満であると判定すると(S11:NO)、車室外に物体が存在しており、即ち物体が車室内から突出していると特定する(S13)。そして、制御部5は、報知指令信号を報知デバイス4に出力し(S14)、物体突出判定処理を終了する。このとき、報知デバイス4は、車両用装置2から報知指令信号を入力すると、報知情報を表示したり音出力したりする等の報知動作を行い、物体が車室内から突出している旨を運転者に報知する。   When the control unit 5 determines that the direction determination reference distance is equal to or greater than the set value (S11: YES), the control unit 5 determines that an object is present in the vehicle compartment, that is, the object does not protrude from the vehicle compartment (S12), The object protrusion determination process ends. On the other hand, when control unit 5 determines that the direction determination reference distance is not less than the set value but less than the set value (S11: NO), an object is present outside the vehicle, that is, the object protrudes from the vehicle interior And (S13). Then, the control unit 5 outputs a notification command signal to the notification device 4 (S14), and ends the object protrusion determination process. At this time, when the notification device 4 receives a notification command signal from the vehicular device 2, the notification device 4 performs a notification operation such as displaying notification information or outputting a sound, and the driver indicates that the object protrudes from the vehicle interior. Alert to

運転者はサイドミラー12のミラー面12aを目視すれば物体が車室内から突出している旨を認識可能となるが、例えば運転者がサイドミラー12のミラー面12aを習慣的に目視しなかったり何らかの事情で目視することが困難な状況であったりしても前述したように報知デバイス4が報知動作を行うことで、物体が車室内から突出している旨を認識可能となる。上記した一連の処理では、S4が画像解析手順に相当し、S5〜S13が判定手順に相当し、S14が報知指令手順に相当する。   If the driver looks at the mirror surface 12a of the side mirror 12, the driver can recognize that the object protrudes from the vehicle interior. However, for example, the driver does not routinely look at the mirror surface 12a of the side mirror 12 Even if it is a situation that is difficult to visually check, it is possible to recognize that the object protrudes from the vehicle interior by the notification device 4 performing the notification operation as described above. In the above-described series of processes, S4 corresponds to the image analysis procedure, S5 to S13 correspond to the determination procedure, and S14 corresponds to the notification instruction procedure.

尚、以上は、xr及びxl/Bのうちxrを方向判定基準距離として選択した場合を例示したが、xl/Bを方向判定基準距離として選択しても良い。又、xrとxl/Bとの両方を方向判定基準距離として選択し、それぞれを設定値と比較することで、物体が車室内から突出しているか否かを判定する精度を高める構成としても良い。   Although the above illustrates the case where xr is selected as the direction determination reference distance among xr and xl / B, xl / B may be selected as the direction determination reference distance. Alternatively, both xr and xl / B may be selected as the direction determination reference distances, and the accuracy may be increased to determine whether the object protrudes from the vehicle interior by comparing each with the set value.

又、以上は、物体が車室内から右側後部座席の車窓15を介して車室外に突出しているか否かを判定する場合を例示したが、カメラ3により左側後部座席の車窓17を含む範囲が撮影された直接画像と、カメラ3により左側サイドミラー13のミラー面13aを含む範囲が撮影された間接画像とを解析することで、物体が車室内から車窓17を介して車室外に突出しているか否かを判定することも可能である。同様に、ミラー面12aに運転席の車窓14が映るようにミラー面12aの角度を調整することで、物体が車室内から運転席の車窓14を介して車室外に突出しているか否かを判定することも可能である。又、ミラー面13aに助手席の車窓16が映るようにミラー面13aの角度を調整することで、物体が車室内から助手席の車窓16を介して車室外に突出しているか否かを判定することも可能である。   Also, the above illustrates the case where it is determined whether an object protrudes from the passenger compartment to the outside of the passenger compartment via the window 15 of the right rear seat, but the range including the passenger window 17 of the left rear seat is photographed by the camera 3 Whether the object protrudes from the vehicle interior through the vehicle window 17 to the outside of the vehicle by analyzing the direct image taken and the indirect image in which the range including the mirror surface 13a of the left side mirror 13 is photographed by the camera 3 It is also possible to determine the Similarly, by adjusting the angle of the mirror surface 12a so that the vehicle window 14 of the driver's seat appears on the mirror surface 12a, it is determined whether an object protrudes from the vehicle interior through the vehicle window 14 of the driver's seat or not. It is also possible. Further, by adjusting the angle of the mirror surface 13a so that the vehicle window 16 of the front passenger seat appears on the mirror surface 13a, it is determined whether an object protrudes from the vehicle interior through the vehicle window 16 of the front passenger seat. It is also possible.

以上説明したように本実施形態によれば、次に示す効果を得ることができる。
車両用システム1において、カメラ3により車窓14〜17を含む範囲が撮影された直接画像の解析結果と、カメラ3によりサイドミラー12,13のミラー面12a,13aを含む範囲が撮影された間接画像の解析結果とを用い、物体が車室内から突出しているか否かを判定するようにした。ステレオカメラを用いたり単眼カメラとセンサとを併用したりする構成とは異なり、単眼カメラのみを用いる構成とすることでコスト高を招くことなく、物体が車室内から突出しているか否かを適切に判定し、物体が車室内から突出している旨を適切に報知することができる。又、直接画像や間接画像に対してオプティカルフローの手法を適用して背景成分を除去することで、画像を解析する際に物体を検知する精度を高めることができ、物体が車室内から突出しているか否かを判定する精度を高めることができる。
As described above, according to the present embodiment, the following effects can be obtained.
In the vehicle system 1, an analysis result of the direct image in which the range including the car windows 14 to 17 is captured by the camera 3 and an indirect image in which the range including the mirror surfaces 12a and 13a of the side mirrors 12 and 13 is captured by the camera 3 It is determined whether or not the object protrudes from the vehicle interior using the analysis result of Unlike the configuration that uses a stereo camera or a combination of a single-eye camera and a sensor, the configuration using only a single-eye camera makes it possible to appropriately determine whether the object protrudes from the vehicle interior without causing an increase in cost. It is determined that the object protrudes from the vehicle compartment can be appropriately notified. In addition, by applying the optical flow method to the direct image or the indirect image to remove the background component, it is possible to enhance the accuracy of detecting the object when analyzing the image, and the object protrudes from the vehicle interior. It is possible to improve the accuracy of determining whether the

本発明は、上記した実施形態で例示したものに限定されることなく、その範囲を逸脱しない範囲で任意に変形又は拡張することができる。
サイドミラー12,13がドアミラーである構成を例示したが、車体のボンネットの前方に取り付けられているフェンダーミラーであっても良い。サイドミラー12,13がフェンダーミラーである構成では、カメラ3からフェンダーミラーまでの距離の方がドアミラーまでの距離よりも大きくなるので、画像解析の能力を高める構成としても良い。
The present invention is not limited to those exemplified in the above-described embodiment, and can be arbitrarily modified or expanded without departing from the scope thereof.
Although the side mirrors 12 and 13 illustrated the structure which is a door mirror, it may be a fender mirror attached to the front of the bonnet of a vehicle body. In the configuration in which the side mirrors 12 and 13 are fender mirrors, the distance from the camera 3 to the fender mirror is larger than the distance to the door mirror, and thus the image analysis capability may be enhanced.

カメラ3は、360度の方向を撮影視野とする構成に限らず、少なくとも車窓14〜17を含む範囲とサイドミラー12、13のミラー面12a,13aを含む範囲とを撮影視野とする構成であれば良い。又、カメラ3は、運転者の目に近い位置に配置されていれば良く、ミラー面12a,13aまでの撮影視野が運転者の頭で妨げなければ例えば運転席のヘッドレストの脇等に配置されていても良い。   The camera 3 is not limited to the configuration in which the direction of 360 degrees is the field of view, but may be the range in which the range including at least the car windows 14 to 17 and the range including the mirror surfaces 12a and 13a of the side mirrors 12 and 13 are the field of view. Just do it. Also, the camera 3 may be disposed at a position close to the driver's eyes, and may be disposed, for example, at the side of a headrest at the driver's seat if the driver's head does not interfere with the field of view up to the mirror surfaces 12a and 13a. May be

直接画像と間接画像との両方に対してオプティカルフローの手法を適用して背景成分を除去する処理を行う構成を例示したが、直接画像及び間接画像のうち何れかに対して行っても良い。又、必要に応じてオプティカルフローの手法を適用すれば良く、オプティカルフローの手法を適用せずに背景成分を除去する処理を行わなくても良い。   Although the configuration for performing the process of removing the background component by applying the optical flow method to both the direct image and the indirect image has been illustrated, it may be performed on either the direct image or the indirect image. In addition, the optical flow method may be applied as necessary, and the process of removing the background component may not be performed without applying the optical flow method.

図面中、1は車両用システム、3はカメラ(撮影部)、4は報知デバイス(報知部)、5は制御部、5aは背景成分除去部、5bは画像解析部、5cは判定部、5dは報知指令部、12,13はサイドミラー、12a,13aはミラー面、14〜17は車窓である。   In the drawings, 1 is a vehicle system, 3 is a camera (shooting unit), 4 is a notification device (notification unit), 5 is a control unit, 5a is a background component removal unit, 5b is an image analysis unit, 5c is a determination unit, 5d Is a notification command unit, 12 and 13 are side mirrors, 12a and 13a are mirror surfaces, and 14 to 17 are car windows.

Claims (5)

開閉可能な車窓(14〜17)の周囲を映すサイドミラー(12,13)が取り付けられている車両に搭載される車両用システム(1)であって、
単眼カメラにより構成され、少なくとも前記車窓を含む範囲と前記サイドミラーのミラー面(12a,13a)を含む範囲とを撮影する撮影部(3)と、
前記撮影部により撮影された画像を解析する画像解析部(5b)と、
前記撮影部により前記車窓を含む範囲が撮影された直接画像の前記画像解析部による解析結果と、前記撮影部により前記ミラー面を含む範囲が撮影された間接画像の前記画像解析部による解析結果とを用い、物体が車室内から前記車窓を介して車室外に突出しているか否かを判定する判定部(5c)と、
前記判定部による判定結果を報知部(4)により報知する報知指令部(5d)と、を備えた車両用システム。
A vehicle system (1) mounted on a vehicle equipped with a side mirror (12, 13) for reflecting an openable / closable car window (14 to 17),
An imaging unit (3) configured by a single-eye camera and imaging an area including at least the car window and an area including the mirror surface (12a, 13a) of the side mirror;
An image analysis unit (5b) that analyzes an image captured by the imaging unit;
The analysis result by the image analysis unit of the direct image in which the range including the car window is captured by the imaging unit by the image analysis unit, and the analysis result by the image analysis unit of the indirect image in which the range including the mirror surface is captured by the imaging unit A determination unit (5c) that determines whether an object protrudes out of the vehicle compartment to the outside of the vehicle via the vehicle window, using
And a notification command unit (5d) for notifying the determination result by the determination unit by a notification unit (4).
請求項1に記載した車両用システムにおいて、
前記判定部は、前記車窓の位置に対する前記物体の位置を特定することで、前記物体が車室内から前記車窓を介して車室外に突出しているか否かを判定する車両用システム。
In the vehicle system according to claim 1,
The vehicle system according to claim 1, wherein the determination unit determines whether the object protrudes from the vehicle interior through the vehicle window to the outside by specifying the position of the object relative to the position of the vehicle window.
請求項2に記載した車両用システムにおいて、
前記判定部は、前記撮影部の位置と前記サイドミラーの位置とに依存する基準位置から前記物体の位置までの距離と、前記撮影部の位置及び前記ミラー面の位置のうち少なくとも何れかから前記物体の位置に向かう方向とを用い、前記車窓の位置に対する前記物体の位置を特定する車両用システム。
In the vehicle system according to claim 2,
The determination unit determines the distance from a reference position depending on the position of the imaging unit and the position of the side mirror to the position of the object, at least one of the position of the imaging unit and the position of the mirror surface. A system for a vehicle that determines the position of the object relative to the position of the car window using a direction toward the position of the object.
請求項1から3の何れか一項に記載した車両用システムにおいて、
前記直接画像及び前記間接画像のうち少なくとも何れかの背景成分を除去する背景成分除去部(5a)を備え、
前記画像解析部は、背景成分が除去された前記直接画像及び背景成分が除去された前記間接画像のうち少なくとも何れかを解析する車両用システム。
The vehicle system according to any one of claims 1 to 3.
The background component removing unit (5a) removes background components of at least one of the direct image and the indirect image;
The system for a vehicle, wherein the image analysis unit analyzes at least one of the direct image from which a background component has been removed and the indirect image from which a background component has been removed.
開閉可能な車窓(14〜17)の周囲を映すサイドミラー(12,13)が取り付けられている車両に搭載され、少なくとも前記車窓を含む範囲と前記サイドミラーのミラー面(12a,13a)を含む範囲とを撮影する撮影部(3)と、報知部(4)と、を有する車両用システム(1)の制御部(5)に、
前記撮影部により前記車窓を含む範囲が撮影された直接画像及び前記ミラー面を含む範囲が撮影された間接画像を解析する画像解析手順と、
前記画像解析手順の解析結果を用い、物体が車室内から前記車窓を介して車室外に突出しているか否かを判定する判定手順と、
前記判定手順の判定結果を前記報知部により報知する報知指令手順と、を実行させるコンピュータプログラム。
It is mounted on a vehicle equipped with a side mirror (12, 13) that mirrors the circumference of an openable car window (14 to 17) and includes at least a range including the car window and a mirror surface (12a, 13a) of the side mirror In the control unit (5) of the vehicle system (1) having a photographing unit (3) for photographing the range and a notification unit (4),
An image analysis procedure for analyzing a direct image in which the range including the car window is captured by the imaging unit and an indirect image in which the range including the mirror surface is captured;
A determination procedure for determining whether or not an object protrudes out of a vehicle compartment through the vehicle window to the outside of the vehicle using the analysis result of the image analysis procedure;
A computer program that causes a notification command procedure to notify the determination result of the determination procedure by the notification unit.
JP2016031950A 2016-02-23 2016-02-23 Vehicle system and computer program Expired - Fee Related JP6519499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016031950A JP6519499B2 (en) 2016-02-23 2016-02-23 Vehicle system and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016031950A JP6519499B2 (en) 2016-02-23 2016-02-23 Vehicle system and computer program

Publications (2)

Publication Number Publication Date
JP2017149211A JP2017149211A (en) 2017-08-31
JP6519499B2 true JP6519499B2 (en) 2019-05-29

Family

ID=59739546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016031950A Expired - Fee Related JP6519499B2 (en) 2016-02-23 2016-02-23 Vehicle system and computer program

Country Status (1)

Country Link
JP (1) JP6519499B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983147A (en) * 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US6757009B1 (en) * 1997-06-11 2004-06-29 Eaton Corporation Apparatus for detecting the presence of an occupant in a motor vehicle
JP2002314989A (en) * 2001-04-10 2002-10-25 Yazaki Corp Peripheral monitor for vehicle
JP2002347517A (en) * 2001-05-29 2002-12-04 Murakami Corp On-vehicle camera and vehicle periphery surveillance device
JP4058983B2 (en) * 2002-03-28 2008-03-12 株式会社デンソー In-vehicle omnidirectional camera
JP4863741B2 (en) * 2006-03-22 2012-01-25 タカタ株式会社 Object detection system, drive device, vehicle
JP2009234435A (en) * 2008-03-27 2009-10-15 Xanavi Informatics Corp Vehicular safety device
JP5927110B2 (en) * 2012-12-26 2016-05-25 クラリオン株式会社 Vehicle external recognition device

Also Published As

Publication number Publication date
JP2017149211A (en) 2017-08-31

Similar Documents

Publication Publication Date Title
WO2018092265A1 (en) Driving assistance device and driving assistance method
WO2017061376A1 (en) Viewing device for vehicles and viewing control program for vehicles
JP2016168877A (en) Visual recognition device for vehicle
JP2018129668A (en) Image display device
JP2010033106A (en) Driver support device, driver support method, and driver support processing program
KR101278654B1 (en) Apparatus and method for displaying arround image of vehicle
JP7000383B2 (en) Image processing device and image processing method
JP7051369B2 (en) Image processing device and image processing method
JP7050827B2 (en) Driving support device and video display method
JP4501708B2 (en) Driver's face orientation determination device
JP6519499B2 (en) Vehicle system and computer program
JP2001239832A (en) Device for warning in opening vehicle door
JP2005182305A (en) Vehicle travel support device
JP2020135393A (en) Driving support device
CN111186375B (en) Electronic mirror system for vehicle
JP7347330B2 (en) Vehicle surrounding monitoring device
JP6970035B2 (en) How to set the angle of view of the shooting unit of the vehicle visual recognition device
KR101941607B1 (en) Imaging and display device for vehicle and recording medium
JP2018107574A (en) Visual recognition apparatus for vehicle
JP2006298130A (en) Vehicular circumference monitoring device
US10897572B2 (en) Imaging and display device for vehicle and recording medium thereof for switching an angle of view of a captured image
JP2019185357A (en) Image display device
US11897484B2 (en) Vehicle occupant assistance apparatus
WO2022030191A1 (en) In-vehicle device and driving assistance method
US20230316771A1 (en) Apparatus for controlling vehicle including camera and method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190408

R151 Written notification of patent or utility model registration

Ref document number: 6519499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees