WO2013084317A1 - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
WO2013084317A1
WO2013084317A1 PCT/JP2011/078301 JP2011078301W WO2013084317A1 WO 2013084317 A1 WO2013084317 A1 WO 2013084317A1 JP 2011078301 W JP2011078301 W JP 2011078301W WO 2013084317 A1 WO2013084317 A1 WO 2013084317A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
display
ecu
display control
Prior art date
Application number
PCT/JP2011/078301
Other languages
English (en)
French (fr)
Inventor
竜路 岡村
有華 祖父江
愛 吉岡
悠 日栄
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to PCT/JP2011/078301 priority Critical patent/WO2013084317A1/ja
Priority to JP2013548005A priority patent/JP5888339B2/ja
Publication of WO2013084317A1 publication Critical patent/WO2013084317A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene

Definitions

  • the present invention relates to a display control device that is mounted on a vehicle and displays a situation around the vehicle.
  • This visual field support system converts rear and rear side images captured by the camera into electronic mirror images, and displays the electronic mirror images on a display arranged at a position visible to the driver.
  • an image of the rear of the vehicle is captured, and the region including the moving object and the region including the background are divided based on a change between frames of the captured image, and the region including the moving object is emphasized. And blur the area including the background.
  • an object of the present invention is to provide a display control device that suppresses the troublesomeness of an occupant in displaying the situation around a vehicle.
  • a display control apparatus is a display control apparatus that is mounted on a vehicle and displays a situation around the vehicle, and displays an imaging unit that images the periphery of the vehicle and an image captured by the imaging unit in the vehicle.
  • the image pickup means images the vehicle periphery (for example, rear, rear side, side, front) of the vehicle, and the extraction means extracts a specific object from the captured image.
  • Specific items are those that are required by the vehicle occupant (especially the driver) as information about the surroundings of the vehicle (for which attention should be paid), for example, vehicles, two-wheeled vehicles, pedestrians, lanes, and shielding objects that form blind spots. is there.
  • the display control apparatus displays the image of the specific object among the images captured on the display means and does not display the image as the background of the specific object.
  • the display control device displays an image of a specific object that a vehicle occupant (especially a driver) needs to pay attention to, but does not display an image as a background of the specific object.
  • the change in the image is suppressed, and the annoyance of the passenger can be suppressed. As a result, driving safety is improved.
  • the specific object includes a surrounding vehicle and / or a pedestrian.
  • the surrounding vehicles and pedestrians are displayed as specific objects, so the driver can be alerted to the surrounding vehicles and pedestrians.
  • the specific object includes a lane on the road.
  • the display is such that the positional relationship between the vehicle and the object to which attention should be paid and the lane is known, and the recognition of the surrounding situation is improved.
  • the specific object includes a shielding object.
  • the shielding object is an object that lowers the line of sight from the vehicle (particularly, an object that forms a blind spot area), and includes, for example, a wall, a fence, a guardrail, and a roadside tree.
  • the driver can be alerted to an area with poor visibility.
  • an image of a specific object to which a vehicle occupant (especially a driver) should pay attention is displayed, but an image as a background of the specific object is not displayed. Is suppressed, and the troublesomeness of the passenger can be suppressed.
  • the display control device is applied to a visual field support system mounted on a vehicle.
  • the field-of-view support system is a system that is an alternative to an optical mirror (back mirror) for confirming the rear or rear side of the host vehicle, and images the rear and rear sides of the host vehicle. Is displayed on the display as an electronic mirror image.
  • FIG. 1 is a configuration diagram of a visual field support system according to the present embodiment.
  • FIG. 2 is a plan view showing an example of the periphery of the host vehicle.
  • FIG. 3 is an example of an electronic mirror image displayed on the display.
  • the visual field support system 1 is necessary for the occupant as information on the rear and rear sides of the vehicle from the image captured as an electronic mirror image in order to suppress the troublesomeness of the occupant (especially the driver) of the vehicle ( For example, only vehicles, people, two-wheeled vehicles, lanes, horizons, and obstructions are displayed, and other items (for example, background) are not displayed.
  • the shielding object displays not a real image but a monotonous animation image that is not bothered when displayed.
  • the visibility support system 1 includes a camera 10, a laser radar 11, a blinker switch 12, a vehicle speed sensor 13, a navigation system 14, a peripheral recognition ECU [Electronic Control Unit] 20, a course change estimation ECU 21, an image processing ECU 22, and a display 30.
  • the camera 10 corresponds to the imaging means described in the claims
  • the periphery recognition ECU 20 corresponds to the extraction means described in the claims
  • the display 30 includes the display means described in the claims. It corresponds to.
  • the camera 10 is a camera for imaging the rear and rear sides of the host vehicle.
  • the camera 10 may be configured with one camera or a plurality of cameras as long as the camera 10 has a wide angle capable of capturing the rear and rear sides. For example, in the case of three cameras, they are attached to the center of the rear end of the vehicle and to the right and right sides of the vehicle, respectively, so that the imaging direction is the rear side.
  • the camera 10 captures the rear of the vehicle and acquires the captured image (either a color image or a monochrome image). Then, the camera 10 outputs the video information to the periphery recognition ECU 20 and the image processing ECU 22.
  • FIG. 2 shows an example of the vicinity of the host vehicle MV, and the host vehicle MV is equipped with a camera 10A at the center of the rear end and cameras 10B and 10C at the left and right side ends (for example, door mirrors). .
  • the camera is drawn enlarged for easy understanding.
  • Each camera 10A, 10B, 10C has an imaging range AA, BA, CA.
  • the rear camera OV1 and white lines WL1 and WL2 can be imaged by the center camera 10A
  • the rear right vehicle OV2 and white lines WL2 and WL3 can be imaged by the right camera 10B
  • the left camera 10C can capture the left side.
  • the shielding object S such as a guard rail and the white line WL1 can be imaged.
  • a person P is present on the left sidewalk of the shielding object S. However, since the shielding object S is present, the image is not captured by the camera 10C or is difficult to be captured.
  • the laser radar 11 is a scanning radar sensor for detecting an object behind and behind the vehicle using laser light.
  • the laser radar 11 may be composed of one laser radar or a plurality of laser radars as long as it can scan the rear and rear sides over a wide range. For example, in the case of three laser radars, they are attached at the same position as the camera 10 described above and attached so that the detection direction is the rear side.
  • the light emitting unit and the light receiving unit are rotated in the horizontal direction at regular intervals, the laser beam is emitted at each scanning angle in the horizontal direction, and the reflected laser beam is received.
  • radar information including information (horizontal scanning angle, emission time, light reception time, light reception intensity (reflection intensity), etc.) about each reflection point (detection point) that can be received is transmitted to the peripheral recognition ECU 20. Send.
  • the winker switch 12 is a switch for inputting a direction instruction (right direction instruction ON, left direction instruction ON, OFF) by the driver.
  • the winker switch 12 transmits the driver's winker operation information to the course change estimation ECU 21.
  • the vehicle speed sensor 13 is a wheel speed sensor that is provided on each wheel and detects the rotational speed of the wheel.
  • the vehicle speed sensor 13 detects the rotational speed of the wheel at regular intervals, and transmits the wheel speed information to the course change estimation ECU 21.
  • the course change estimation ECU 21 calculates the vehicle speed (vehicle speed) of the host vehicle from the wheel speed information for each wheel.
  • the vehicle speed sensor may be a vehicle speed sensor other than the wheel speed sensor.
  • the navigation system 14 is a system that performs detection of the current position of the host vehicle, route search to the destination, route guidance to the destination, and the like. In particular, in the navigation system 14, when the route to the destination is searched, the route information is output to the route change estimation ECU 21.
  • the peripheral recognition ECU 20 is an electronic control unit including a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. Is necessary as information on the rear and rear sides). Image information from the camera 10 and radar information from the laser radar 11 are input to the peripheral recognition ECU 20. Examples of objects to be recognized include objects such as vehicles, people, and two-wheeled vehicles that the driver needs to pay attention to, and lanes (white lines) for the driver to easily grasp the positional relationship between these objects and the vehicle. There are obstacles such as walls, fences, guardrails, and roadside trees that form blind spots where objects (especially moving objects such as people and motorcycles) may exist.
  • the periphery recognition ECU 20 recognizes an object to be recognized using video information of the camera 10 at regular intervals.
  • a recognition method a conventional method is applied. For example, when recognizing a vehicle, a person, or a two-wheeled vehicle, recognition is performed by pattern matching using a template of each object to be recognized, and a lane (white line), a horizon, or an obstacle is recognized. If so, it is recognized by edge processing. Further, the periphery recognition ECU 20 recognizes an object to be recognized using radar information at regular time intervals.
  • a recognition method a conventional method is applied. For example, detection points are grouped according to a predetermined condition, and a group including detection points of each object is specified and recognized. The recognition of the shielding object may be performed only when the course change estimation ECU 21 determines that there is a course change. In this case, the shielding object is recognized in the direction of the course change.
  • the periphery recognition ECU 20 calculates the position and size of each object, and specifies the cut-out area of each object from the video of the camera 10. Then, the periphery recognition ECU 20 outputs to the image processing ECU 22 a cutout instruction including information on the type of object to be recognized and the cutout area.
  • the course change estimation ECU 21 is an electronic control unit including a CPU, a ROM, a RAM, and the like, and estimates a course change of the host vehicle.
  • the route change of the estimation target is a route change when attention should be paid to a moving object that may exist in the blind spot due to the shielding object, and includes, for example, a left turn and a merge.
  • a route change when attention should be paid to a moving object that may exist in the blind spot due to the shielding object, and includes, for example, a left turn and a merge.
  • FIG. 2 when the own vehicle MV turns left onto the road R, there is a possibility that the person P present at the blind spot due to the shield S may come out on the road R to cross the pedestrian crossing. Such a course change is targeted.
  • the course change estimation ECU 21 determines whether or not there is a course change using the turn signal operation information and the vehicle speed information at regular intervals, and if it is determined that there is a course change, the direction of the course change is specified. For example, when the left direction instruction of the winker is ON and the host vehicle is decelerating, it is determined that there is a course change, and the left direction is specified as the course change. At this time, if there is navigation route information, the route information is considered. Then, the course change estimation ECU 21 outputs the course change information (presence / absence information, and the course change direction when present) to the image processing ECU 22.
  • the route change estimation using the winker operation information, the vehicle speed information, and the route information is an example, and the route change estimation method may be another method.
  • the image processing ECU 22 is an electronic control unit including a CPU, a ROM, a RAM, and the like, and creates an electronic mirror image to be displayed on the display 30.
  • video information from the camera 10 a cut-out instruction from the periphery recognition ECU 20, and route change information from the route change estimation ECU 21 are input.
  • the image processing ECU 22 integrates the images from the plurality of cameras into one image.
  • the image processing ECU 22 determines that there is no object (vehicle, person, two-wheeled vehicle, etc.) that the driver needs to pay attention to based on the cut-out instruction at certain time intervals, Only an image of the white line cut-out area and the horizon line cut-out area is cut out from the video of No. 10, and an electronic mirror video is created in which the cut-out video is arranged at a position reversed horizontally with reference to the center line in the horizontal direction in the image. Further, when the image processing ECU 22 determines that there is an object that the driver needs to pay attention to among recognized objects based on the cutout instruction, each of the cutout areas of the white line and the horizon line from the video by the camera 10 is determined.
  • each video of the cutout area of each object to which attention should be paid is cut out, and an electronic mirror video is created using each cut out video in the same manner as described above.
  • the mirror image in which the left and right positions are reversed is because the arrangement is similar to the state that the driver sees with the optical mirror.
  • the image processing ECU 22 superimposes an animation image of the vehicle on the electronic mirror image at a position where the own vehicle exists in order to make it easy to understand the positional relationship between the own vehicle and each object.
  • This vehicle animation image is a fixed position on the electronic mirror image (the center in the left-right direction and the lower end in the up-down direction), and is an image that does not change even while the vehicle is running.
  • the animation image of the shielding object is electronically displayed according to the position of the shielding object.
  • the animated image of the shielding object is an image that allows the driver to grasp that there is a blind spot due to the shielding object on the side where the course is to be changed, and that does not bother the driver (even if the vehicle is traveling) For example, a solid wall-like image. Depending on the type and height of the shield, the wall-like height may or may not be changed. Then, the image processing ECU 22 outputs the created electronic mirror video to the display 30 at regular time intervals.
  • FIG. 3 shows an example of the electronic mirror image MI in the situation around the host vehicle MV of FIG.
  • an animation image MVI showing the host vehicle is arranged at the center and lower end in the left-right direction of the electronic mirror image MI, and a cut-out video OVI1 of the rear vehicle OV1 and a cut-out video OVI2 of the rear right vehicle OV2 are arranged.
  • the cut-out videos WLI1, WLI2, and WLI3 of the white lines WL1, WL2, and WL3 that form the lane are respectively arranged, the cut-out video HI of the horizon is arranged, and the animation image SI of the shield S is arranged.
  • each object is present at a position that is horizontally reversed.
  • the display 30 is an on-vehicle display, and may be a display shared with other systems.
  • an electronic mirror image is input from the image processing ECU 22 at regular intervals, and the electronic mirror image is displayed.
  • FIG. 4 is a flowchart showing an operation flow in the visual field support system according to the present embodiment.
  • the visual field support system 1 repeatedly performs the following operations at regular intervals.
  • the camera 10 acquires a video image of the rear and rear sides of the host vehicle, and outputs the video information to the peripheral recognition ECU 20 and the image processing ECU 22 (S1).
  • the laser radar 11 emits laser light at each scanning angle in the left-right direction and receives reflected light that has been reflected, and outputs radar information about each detected point to the periphery recognition ECU 20.
  • the winker switch 12 outputs the winker operation information to the course change estimation ECU 21.
  • the vehicle speed sensor 13 of each wheel detects the rotational speed of the wheel and outputs the wheel speed information to the course change estimation ECU 21.
  • the route information is output to the route change estimation ECU 21.
  • the peripheral recognition ECU 20 can recognize the rear and rear side vehicles, pedestrians, two-wheeled vehicles, white lines, and horizon lines of the own vehicle based on the images and radar information from the camera 10, and can identify and recognize the cut-out areas of the recognized ones.
  • a cutout instruction including information on the type of cutout and cutout area is output to the image processing ECU 22 (S2).
  • the image processing ECU 22 determines whether a vehicle, a pedestrian, or a two-wheeled vehicle that the driver needs to pay attention to can be recognized based on the cut-out instruction (S3). If it is determined in S3 that none of the vehicle, the pedestrian, and the two-wheeled vehicle can be recognized, the image processing ECU 22 cuts out only the white line and horizon video that can be recognized from the video by the camera 10, and the cut video and self An electronic mirror image is created using an animation image of the vehicle (S4). When it is determined in S3 that any one of the vehicle, the pedestrian, and the two-wheeled vehicle can be recognized, the image processing ECU 22 can recognize the image in addition to the white line and the horizon line that can be recognized from the image by the camera 10. A video of a vehicle, a pedestrian, and a two-wheeled vehicle is cut out, and an electronic mirror video is created using the cut-out video and an animation image of the host vehicle (S5).
  • the course change estimation ECU 21 determines whether or not there is a course change of the host vehicle based on the winker operation information, vehicle speed information, and route information. If there is a course change, the course change direction is specified (S6). .
  • the periphery recognition ECU 20 recognizes a shield that exists in the course change direction based on the video and radar information from the camera 10, and the position and size of the shield that can be recognized.
  • the shielding object information including the presence / absence of the shielding object and the information on the position and size of the shielding object is output to the image processing ECU 22 (S7).
  • the image processing ECU 22 determines whether there is a shielding object in the direction of course change based on the shielding object information (S8). If it is determined in S8 that there is a shielding object, the image processing ECU 22 superimposes an animation image indicating the shielding object at a position where the shielding object is present in the electronic mirror image (S9).
  • the image processing ECU 22 outputs an electronic mirror image to the display 30 (S10).
  • the display 30 displays the input electronic mirror image (S10).
  • this visibility support system 1 since only the cut-out image of what the vehicle occupant (especially the driver) needs is displayed as the electronic mirror image and the image of the background is not displayed, the image of the own vehicle is not displayed. An image flowing behind the background or the like corresponding to the traveling is not displayed, a change in the displayed image is suppressed, and annoyance to the occupant can be suppressed. Further, the displayed cut-out video can prompt the driver to pay attention to surrounding vehicles, people, and motorcycles. As a result, driving safety is improved.
  • the visual field support system 1 since the cut-out video of the white line constituting the lane in the camera video is also displayed as an electronic mirror video, the positional relationship between the own vehicle and surrounding vehicles, people, motorcycles, and the white line can be grasped. , Recognition of the surrounding situation (surrounding environment) is improved.
  • the shielding object existing in the direction of the course change is displayed as an animation image as an electronic mirror image. Therefore, it is possible to call attention to the blind spot area where the prospect is poor and to prevent misunderstanding and overconfidence of the driver. As a result, driving safety is further improved. Furthermore, since the shielding object is displayed as a plain animation image, the troublesomeness of the occupant can be suppressed without the image flowing backward.
  • the present invention is applied to a rear and rear side view support system instead of an optical mirror.
  • the present invention can also be applied to a front view and a side view support system around the vehicle, a vehicle periphery monitoring system, and the like. It is.
  • the lane (white line), the horizon, and the shielding are also recognized and displayed.
  • the lane, the horizon and / or the shielding is not recognized, and the lane, the horizon and / or the shielding is displayed. It is good also as a structure which does not display.
  • the animation image of the own vehicle is displayed. However, the animation image of the own vehicle may not be displayed.
  • an animation image of the shielding object is displayed according to the direction of the course change of the host vehicle. It is good also as a structure which displays the animation image of a shield, irrespective of the course change of the own vehicle.
  • the camera image and the radar information from the laser radar are used for recognizing the periphery of the host vehicle.
  • the recognition may be performed using only the image from the camera, or only the radar information from the laser radar.
  • the recognition may be used, or may be recognition using other means such as radar information by a millimeter wave radar.
  • the present invention displays a video of a specific object that should be paid attention by a vehicle occupant (especially a driver) in a display control device for displaying a situation around the vehicle. Since the display is not performed, the change in the display image is suppressed while the vehicle is traveling, and the inconvenience to the passenger can be suppressed.
  • SYMBOLS 1 Visibility support system, 10 ... Camera, 11 ... Laser radar, 12 ... Winker switch, 13 ... Vehicle speed sensor, 14 ... Navigation system, 20 ... Peripheral recognition ECU, 21 ... Course change estimation ECU, 22 ... Image processing ECU, 30 ...display.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 車両周辺の状況を表示するための表示制御装置であって、車両周辺を撮像し、その撮像された映像の中から特定物(例えば、車両、歩行者、車線、遮蔽物)を抽出し、撮像された映像のうち特定物を表示し、特定物の背景となる映像を表示しない。このように、車両の乗員(特に、運転者)が注意を払うべき特定物の映像を表示するが、その特定物の背景となる映像を表示しないので、車両走行中に表示映像の変化が抑制され、乗員の煩わしさを抑制できる。

Description

表示制御装置
 本発明は、車両に搭載され、車両周辺の状況を表示するための表示制御装置に関する。
 車両周辺の状況を表示するシステムとして、例えば、光学ミラー(バックミラー)の代わりに使用される後方や後側方の視界支援システムがある。この視界支援システムは、カメラで撮像した後方や後側方の映像を電子ミラー映像に変換し、その電子ミラー映像を運転者から見える位置に配設されたディスプレイに表示する。特許文献1に記載の車両用監視装置では、車両後方を撮像し、撮像画像のフレーム間の変化に基づいて移動体を含む領域と背景を含む領域とに分割し、移動体を含む領域を強調して表示するとともに背景を含む領域をぼかしして表示する。
特開2008-27138号公報 特開2008-114627号公報
 上記のように、カメラで撮像した映像における背景まで表示した場合、走行中の車両では、背景全体が後方に流れるように表示される。この流れる背景映像が車両の乗員(特に、運転者)の周辺視野に入ると煩わしさを感じる。特許文献1に記載のように背景をぼかして表示したとしても、走行中の車両ではそのぼかした映像が流れるように表示されるので、乗員は煩わしさを感じる。
 そこで、本発明は、車両周辺の状況の表示において乗員の煩わしさを抑制する表示制御装置を提供することを課題とする。
 本発明に係る表示制御装置は、車両に搭載され、車両周辺の状況を表示するための表示制御装置であって、車両周辺を撮像する撮像手段と、撮像手段で撮像した映像を車内に表示する表示手段と、撮像手段で撮像した映像の中から特定物を抽出する抽出手段とを備え、撮像手段で撮像した映像のうち抽出手段で抽出した特定物の背景となる映像を表示手段に表示しないことを特徴とする。
 この表示制御装置では、撮像手段によって車両周辺(例えば、車両の後方、後側方、側方、前方)を撮像し、抽出手段によってその撮像された映像の中から特定物を抽出する。特定物は、車両の乗員(特に、運転者)が車両周辺の情報として必要なもの(注意を払うべきもの)であり、例えば、車両、二輪車、歩行者、車線、死角を形成する遮蔽物がある。そして、表示制御装置では、表示手段に撮像された映像のうち特定物の映像を表示するとともに特定物の背景となる映像を表示しない。このように、表示制御装置では、車両の乗員(特に、運転者)が注意を払うべき特定物の映像を表示するが、その特定物の背景となる映像を表示しないので、車両走行中に表示映像の変化が抑制され、乗員の煩わしさを抑制できる。その結果、運転の安全性が向上する。
 本発明の上記表示制御装置では、特定物は、周辺車両又は/及び歩行者を含む。この表示制御装置では、特定物として周辺車両や歩行者を表示するので、運転者に対して周辺車両や歩行者への注意を促すことができる。
 本発明の上記表示制御装置では、特定物は、道路上の車線を含む。この表示制御装置では、特定物として車線を表示するので、自車両及び注意を払うべき物体と車線との位置関係が判るような表示となり、周辺状況の認識性が向上する。
 本発明の上記表示制御装置では、特定物は、遮蔽物を含む。遮蔽物は、車両からの見通しを低下させる物体(特に、死角領域を形成する物体)であり、例えば、壁、塀、ガードレール、街路樹がある。この表示制御装置では、特定物として遮蔽物を表示するので、運転者に対して見通しの悪い領域への注意を促すことができる。
 本発明によれば、車両の乗員(特に、運転者)が注意を払うべき特定物の映像を表示するが、その特定物の背景となる映像を表示しないので、車両走行中に表示映像の変化が抑制され、乗員の煩わしさを抑制できる。
本実施の形態に係る視界支援システムの構成図である。 自車両周辺の一例を示す平面図である。 ディスプレイに表示される電子ミラー映像の一例である。 本実施の形態に係る視界支援システムにおける動作の流れを示すフローチャートである。
 以下、図面を参照して、本発明に係る表示制御装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。
 本実施の形態では、本発明に係る表示制御装置を、車両に搭載される視界支援システムに適用する。本実施の形態に係る視界支援システムは、自車両の後方や後側方を確認するための光学ミラー(バックミラー)の代わりとなるシステムであり、自車両の後方や後側方を撮像した映像を電子ミラー映像としてディスプレイに表示する。
 図1~図3を参照して、本実施の形態に係る視界支援システムについて説明する。図1は、本実施の形態に係る視界支援システムの構成図である。図2は、自車両周辺の一例を示す平面図である。図3は、ディスプレイに表示される電子ミラー映像の一例である。
 視界支援システム1は、車両の乗員(特に、運転者)の煩わしさを抑制するために、電子ミラー映像として撮像された映像の中から乗員が車両後方や後側方の情報として必要なもの(例えば、車両、人、二輪車、車線、地平線、遮蔽物)だけを表示し、それら以外のもの(例えば、背景)を表示しない。ただし、遮蔽物は、実際の映像ではなく、表示されても煩わしさを受けない単調なアニメーション画像を表示する。
 視界支援システム1は、カメラ10、レーザレーダ11、ウィンカスイッチ12、車速センサ13、ナビゲーションシステム14、周辺認識ECU[Electronic Control Unit]20、進路変更推定ECU21、画像処理ECU22、ディスプレイ30を備えている。なお、本実施の形態では、カメラ10が請求の範囲に記載する撮像手段に相当し、周辺認識ECU20が請求の範囲に記載する抽出手段に相当し、ディスプレイ30が請求の範囲に記載する表示手段に相当する。
 カメラ10は、自車両の後方及び後側方を撮像するためのカメラである。カメラ10は、後方及び後側方を撮像可能な広角であれば1台のカメラで構成されてもよいし、複数台のカメラで構成されてもよい。例えば、3台のカメラの場合、車両の後端の中央及び車両の右側と右側にそれぞれ取り付けられ、撮像方向が後方側となるように取り付けられる。カメラ10では、車両の後方を撮像し、その撮像した映像(カラー映像でも、白黒映像でもよい)を取得する。そして、カメラ10では、その映像情報を周辺認識ECU20と画像処理ECU22に出力する。
 なお、図2には自車両MV周辺の一例を示しており、自車両MVには後端の中央にカメラ10Aと左右両側の側端(例えば、ドアミラー)にカメラ10B,10Cが搭載されている。図2では、判り易くするために、カメラを拡大して描いている。各カメラ10A,10B,10Cには、撮像範囲AA,BA,CAがある。この例の場合、中央のカメラ10Aで後方の車両OV1や白線WL1,WL2を撮像でき、右側のカメラ10Bで後右側方の車両OV2や白線WL2,WL3を撮像でき、左側のカメラ10Cで左側のガードレール等の遮蔽物Sや白線WL1を撮像できる。この遮蔽物Sの左側の歩道には人Pが存在するが、遮蔽物Sがあるために、カメラ10Cで撮像されないかあるいは撮像され難くなっている。
 レーザレーダ11は、レーザ光を利用して車両の後方及び後側方の物体を検出するための走査型のレーダセンサである。レーザレーダ11は、後方及び後側方を広範囲に走査可能であれば1台のレーザレーダで構成されてもよいし、複数台のレーザレーダで構成されてもよい。例えば、3台のレーザレーダの場合、上記したカメラ10と同様の位置に取り付けられ、検出方向が後方側となるように取り付けられる。レーザレーダ11では、一定時間毎に、発光部と受光部を水平方向に回転させ、レーザ光を水平方向の各走査角度で出射し、反射してきたレーザ光を受光する。そして、レーザレーダ11では、受光できた各反射点(検出点)についての情報(水平方向の走査角度、出射時刻、受光時刻、受光強度(反射強度)等)からなるレーダ情報を周辺認識ECU20に送信する。
 ウィンカスイッチ12は、運転者による方向指示(右方向指示ON、左方向指示ON、OFF)を入力するためのスイッチである。ウィンカスイッチ12では、運転者のウィンカ操作情報を進路変更推定ECU21に送信する。
 車速センサ13は、各車輪に設けられ、車輪の回転速度を検出する車輪速センサである。車速センサ13では、一定時間毎に、車輪の回転速度を検出し、その車輪速情報を進路変更推定ECU21に送信する。進路変更推定ECU21では、車輪毎の車輪速情報から自車両の車速(車体速)を算出する。なお、車速センサとしては、車輪速センサ以外の車速センサでもよい。
 ナビゲーションシステム14は、自車両の現在位置の検出、目的地までのルート探索及び目的地までのルート案内等を行うシステムである。特に、ナビゲーションシステム14では、目的地までのルートが探索されている場合、そのルート情報を進路変更推定ECU21に出力する。
 周辺認識ECU20は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等からなる電子制御ユニットであり、自車両の後方及び後側方に存在する物体(特に、乗員が後方及び後側方の情報として必要なもの)認識する。周辺認識ECU20には、カメラ10からの映像情報とレーザレーダ11からのレーダ情報が入力される。認識対象の物体としては、例えば、運転者が注意を払う必要がある車両、人、二輪車等の物体、これらの物体や自車両の位置関係を運転者が容易に把握するための車線(白線)や地平線、物体(特に、人や二輪車等の移動物体)が存在する可能性がある死角を形成する壁、塀、ガードレール、街路樹等の遮蔽物がある。
 周辺認識ECU20では、一定時間毎に、カメラ10の映像情報を用いて、認識対象の物体を認識する。認識方法としては、従来の方法を適用し、例えば、車両、人、二輪車を認識する場合には認識対象の各物体のテンプレートによるパターンマッチングによって認識し、車線(白線)、地平線、遮蔽物を認識する場合にはエッジ処理によって認識する。また、周辺認識ECU20では、一定時間毎に、レーダ情報を用いて、認識対象の物体を認識する。認識方法としては、従来の方法を適用し、例えば、検出点を所定の条件によってグルーピングし、各物体の検出点からなるグループを特定して認識する。なお、遮蔽物の認識については進路変更推定ECU21で進路変更有りと判定している場合にのみ行うようにしてもよく、この場合には進路変更の方向における遮蔽物の認識を行う。
 周辺認識ECU20では、認識対象の物体を認識した場合、各物体の位置や大きさを算出し、カメラ10の映像からの各物体の切り出しエリアを特定する。そして、周辺認識ECU20では、認識対象の物体の種類及び切り出しエリアの情報を含む切り出し指示を画像処理ECU22に出力する。
 進路変更推定ECU21は、CPU、ROM、RAM等からなる電子制御ユニットであり、自車両の進路変更を推定する。進路変更推定ECU21には、ウィンカスイッチ12からのウィンカ操作情報、各車輪の車速センサ13からの車輪速情報とナビゲーションシステム14からのルート情報が入力される。推定対象の進路変更としては、遮蔽物による死角に存在する可能性のある移動物体に対して注意を払うべき必要がある場合の進路変更であり、例えば、左折、合流がある。例えば、図2に示す例の場合、自車両MVが道路Rへ左折する場合、遮蔽物Sによる死角に存在する人Pが横断歩道を渡るために道路Rに出てくる可能性があるので、このような進路変更が対象となる。
 進路変更推定ECU21では、一定時間毎に、ウィンカ操作情報と車速情報を用いて進路変更の有無を判定し、進路変更が有りと判定した場合にはその進路変更の方向を特定する。例えば、ウィンカの左方向指示がONであり、自車両が減速している場合、進路変更が有りと判定し、その進路変更として左方向を特定する。この際、ナビのルート情報がある場合には、ルート情報を考慮する。そして、進路変更推定ECU21では、進路変更情報(有無情報、有りの場合には進路変更方向)を画像処理ECU22に出力する。なお、このウィンカ操作情報、車速情報及びルート情報を用いた進路変更の推定は一例であり、進路変更の推定方法は他の方法でもよい。
 画像処理ECU22は、CPU、ROM、RAM等からなる電子制御ユニットであり、ディスプレイ30に表示するための電子ミラー映像を作成する。画像処理ECU22では、カメラ10からの映像情報及び周辺認識ECU20からの切り出し指示と進路変更推定ECU21からの進路変更情報が入力される。なお、カメラ10が複数台のカメラで構成されている場合、画像処理ECU22では、その複数台のカメラによる各映像を1つの映像に統合する。
 一定時間毎に、画像処理ECU22では、切り出し指示に基づいて、認識されているものの中に運転者が注意を払う必要がある物体(車両、人、二輪車等)が存在しないと判定した場合、カメラ10による映像から白線の切り出しエリアと地平線の切り出しエリアの映像だけを切り出し、画像における左右方向の中心線を基準として左右反転させた位置に切り出した各映像を配置させた電子ミラー映像を作成する。また、画像処理ECU22では、切り出し指示に基づいて、認識されているものの中に運転者が注意を払う必要がある物体が存在すると判定した場合、カメラ10による映像から白線や地平線の各切り出しエリアの映像に加えてその注意を払うべき各物体の切り出しエリアの各映像を切り出し、上記と同様にその切り出した各映像を用いて電子ミラー映像を作成する。このように、左右位置を反転させたミラー映像とするのは、運転者が光学ミラーで見る状態と同様の配置とするためである。さらに、画像処理ECU22では、自車両と各物体との位置関係を判り易くするために、自車両の存在する位置に車両のアニメーション画像を電子ミラー映像に重畳する。この車両のアニメーション画像は、電子ミラー映像上で固定の位置(左右方向の中央で上下方向の下端)であり、車両走行中でも変化しない画像である。
 画像処理ECU22では、進路変更情報に基づいて自車両の進路変更が有ると判定した場合、進路変更方向に遮蔽物が認識されているときにはその遮蔽物の存在する位置に従って遮蔽物のアニメーション画像を電子ミラー映像に重畳する。遮蔽物のアニメーション画像は、進路変更する側に遮蔽物による死角が存在することを運転者が把握できるような画像でありかつ運転者に煩わしさを与えない画像(車両が走行していても画像が変化しない)であり、例えば、無地の壁状の画像である。遮蔽物の種類や高さによって、壁状の高さを変えてもよいしあるいは変えなくてもよい。そして、画像処理ECU22では、一定時間毎に、その作成した電子ミラー映像をディスプレイ30に出力する。
 図3には、図2の自車両MV周辺の状況における電子ミラー映像MIの一例を示している。この例の場合、電子ミラー映像MIの左右方向の中央かつ下端に自車両を示すアニメーション画像MVIが配置され、後方の車両OV1の切り出し映像OVI1と後右側方の車両OV2の切り出し映像OVI2が配置され、車線を形成する各白線WL1,WL2,WL3の切り出し映像WLI1,WLI2,WLI3がそれぞれ配置され、地平線の切り出し映像HIが配置され、遮蔽物Sのアニメーション画像SIが配置されている。ちなみに、カメラ10で撮像された映像内では、左右反転した位置に各物体が存在する。
 このような電子ミラー映像には、上記の各物体以外の背景等の映像がない。したがって、自車両の走行に応じて背景等による変化する映像がディスプレイ30に表示されないので、背景等の後方に流れてゆく映像が運転者の周辺視野に入らない。また、遮蔽物も無地の壁状の変化しないアニメーション画像としているので、遮蔽物による後方に流れるよう映像も運転者の周辺視野に入らない。
 ディスプレイ30は、車載のディスプレイであり、他のシステムと共用のディスプレイでもよい。ディスプレイ30では、一定時間毎に、画像処理ECU22から電子ミラー映像が入力され、その電子ミラー映像を表示する。
 図1~図3を参照して、視界支援システム1における動作を図4のフローチャートに沿って説明する。図4は、本実施の形態に係る視界支援システムにおける動作の流れを示すフローチャートである。視界支援システム1では、一定時間毎に以下の動作を繰り返し行う。
 カメラ10では、自車両の後方や後側方を撮像した映像を取得し、その映像情報を周辺認識ECU20と画像処理ECU22に出力する(S1)。レーザレーダ11では、左右方向の各走査角度でレーザ光を出射するとともに反射してきた反射光を受光し、受光できた各検出点についてのレーダ情報を周辺認識ECU20に出力する。
 ウィンカスイッチ12では、ウィンカ操作情報を進路変更推定ECU21に出力する。各車輪の車速センサ13では、車輪の回転速度を検出し、その車輪速情報を進路変更推定ECU21に出力する。ナビゲーションシステム14では、目的地までのルートを探索している場合、そのルート情報を進路変更推定ECU21に出力する。
 周辺認識ECU20では、カメラ10による映像やレーダ情報に基づいて自車両の後方及び後側方の車両、歩行者、二輪車、白線、地平線を認識し、認識できたものの切り出しエリアを特定し、認識できたものの種類や切り出しエリアの情報を含む切り出し指示を画像処理ECU22に出力する(S2)。
 画像処理ECU22では、切り出し指示に基づいて、運転者が注意を払う必要がある車両、歩行者、二輪車を認識できたか否かを判定する(S3)。S3にて車両、歩行者、二輪車のいずれも認識できていないと判定した場合、画像処理ECU22では、カメラ10による映像から認識できている白線、地平線の映像だけを切り出し、その切り出した映像及び自車両のアニメーション画像を用いて電子ミラー映像を作成する(S4)。S3にて車両、歩行者、二輪車のいずれか1つでも認識できていると判定した場合、画像処理ECU22では、カメラ10による映像から認識できている白線、地平線の映像に加えて認識できている車両、歩行者、二輪車の映像を切り出し、その切り出した映像及び自車両のアニメーション画像を用いて電子ミラー映像を作成する(S5)
 進路変更推定ECU21では、ウィンカ操作情報、車速情報、ルート情報に基づいて、自車両の進路変更が有るか否かを判定し、進路変更が有る場合には進路変更の方向を特定する(S6)。
 S6にて進路変更が有ると判定した場合、周辺認識ECU20では、カメラ10による映像やレーダ情報に基づいて進路変更の方向に存在する遮蔽物を認識し、認識できた遮蔽物の位置や大きさを特定し、遮蔽物の有無や遮蔽物の位置や大きさの情報を含む遮蔽物情報を画像処理ECU22に出力する(S7)。
 画像処理ECU22では、遮蔽物情報に基づいて、進路変更の方向に遮蔽物が存在するか否かを判定する(S8)。S8にて遮蔽物が存在すると判定した場合、画像処理ECU22では、電子ミラー映像においてその遮蔽物が存在する位置に遮蔽物を示すアニメーション画像を重畳する(S9)。
 そして、画像処理ECU22では、電子ミラー映像をディスプレイ30に出力する(S10)。ディスプレイ30では、入力した電子ミラー映像を表示する(S10)。
 この視界支援システム1によれば、電子ミラー映像としてカメラ映像のうち車両の乗員(特に、運転者)が必要とするものの切り出し映像だけを表示し、背景等の映像を表示しないので、自車両の走行に応じた背景等の後方に流れる映像が表示されず、表示映像の変化が抑制され、乗員の煩わしさを抑制できる。さらに、表示した切り出し映像によって、運転者に対して周辺の車両、人、二輪車への注意を促すことができる。その結果、運転の安全性が向上する。
 また、視界支援システム1によれば、電子ミラー映像としてカメラ映像のうち車線を構成する白線の切り出し映像も表示するので、自車両及び周辺の車両、人、二輪車と白線との位置関係を把握でき、周辺状況(周辺環境)の認識性が向上する。
 また、視界支援システム1によれば、自車両が進路変更する場合には電子ミラー映像としてその進路変更の方向に存在する遮蔽物をアニメーション画像として表示するので、進路変更する際に運転者に対して見通しの悪い死角領域への注意を促すことができ、運転者の誤認や過信を防止できる。その結果、運転の安全性が更に向上する。さらに、遮蔽物を無地のアニメーション画像で表示するので、その画像が後方に流れることなく、乗員の煩わしさを抑制できる。
 以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
 例えば、本実施の形態では光学ミラーに代わる後方及び後側方の視界支援システムに適用したが、前方や側方等の他の車両周辺の視界支援システムや車両周辺の監視システム等にも適用可能である。
 また、本実施の形態では車線(白線)や地平線、遮蔽物も認識し、それらも表示する構成としたが、車線や地平線及び/又は遮蔽物を認識せず、車線や地平線及び/又は遮蔽物を表示しない構成としてもよい。また、本実施の形態では自車両のアニメーション画像を表示する構成としたが、自車両のアニメーション画像を表示しない構成としてもよい。
 また、本実施の形態では自車両の進路変更の有無を判定し、自車両の進路変更の方向に応じて遮蔽物のアニメーション画像を表示する構成としたが、自車両の進路変更の有無を判断せず、自車両の進路変更に関係なく遮蔽物のアニメーション画像を表示する構成としてもよい。
 また、本実施の形態では自車両周辺を認識するためにカメラによる映像とレーザレーダによるレーダ情報を用いる構成としたが、カメラによる映像だけを用いた認識でもよいし、レーザレーダによるレーダ情報だけを用いた認識でもよいし、あるいは、ミリ波レーダによるレーダ情報等の他の手段を用いた認識でもよい。
 本発明は、車両周辺の状況を表示するための表示制御装置において、車両の乗員(特に、運転者)が注意を払うべき特定物の映像を表示するが、その特定物の背景となる映像を表示しないので、車両走行中に表示映像の変化が抑制され、乗員の煩わしさを抑制できる。
 1…視界支援システム、10…カメラ、11…レーザレーダ、12…ウィンカスイッチ、13…車速センサ、14…ナビゲーションシステム、20…周辺認識ECU、21…進路変更推定ECU、22…画像処理ECU、30…ディスプレイ。

Claims (4)

  1.  車両に搭載され、車両周辺の状況を表示するための表示制御装置であって、
     車両周辺を撮像する撮像手段と、
     前記撮像手段で撮像した映像を車内に表示する表示手段と、
     前記撮像手段で撮像した映像の中から特定物を抽出する抽出手段と、
     を備え、
     前記撮像手段で撮像した映像のうち前記抽出手段で抽出した特定物の背景となる映像を前記表示手段に表示しないことを特徴とする表示制御装置。
  2.  前記特定物は、周辺車両又は/及び歩行者を含むことを特徴とする請求項1に記載の表示制御装置。
  3.  前記特定物は、道路上の車線を含むことを特徴とする請求項2に記載の表示制御装置。
  4.  前記特定物は、遮蔽物を含むことを特徴とする請求項1~請求項3のいずれか1項に記載の表示制御装置。
PCT/JP2011/078301 2011-12-07 2011-12-07 表示制御装置 WO2013084317A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2011/078301 WO2013084317A1 (ja) 2011-12-07 2011-12-07 表示制御装置
JP2013548005A JP5888339B2 (ja) 2011-12-07 2011-12-07 表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/078301 WO2013084317A1 (ja) 2011-12-07 2011-12-07 表示制御装置

Publications (1)

Publication Number Publication Date
WO2013084317A1 true WO2013084317A1 (ja) 2013-06-13

Family

ID=48573722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/078301 WO2013084317A1 (ja) 2011-12-07 2011-12-07 表示制御装置

Country Status (2)

Country Link
JP (1) JP5888339B2 (ja)
WO (1) WO2013084317A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159142A1 (en) * 2014-04-14 2015-10-22 Toyota Jidosha Kabushiki Kaisha On-vehicle image display device, on-vehicle image display method, and on-vehicle image setting device
GB2550262A (en) * 2016-03-21 2017-11-15 Ford Global Tech Llc Pedestrian detection and motion prediction with rear-facing camera
JP2018129833A (ja) * 2018-03-15 2018-08-16 株式会社デンソー 画像処理装置
CN108621945A (zh) * 2017-03-22 2018-10-09 丰田自动车株式会社 车辆用显示控制装置、车辆用显示控制系统及车辆用显示控制方法
KR101934731B1 (ko) 2016-11-22 2019-01-03 엘지전자 주식회사 차량용 통신 장치 및 차량
JP2019077302A (ja) * 2017-10-24 2019-05-23 クラリオン株式会社 表示制御装置、表示システム及び表示制御方法
JP2020507829A (ja) * 2017-01-26 2020-03-12 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9428711B2 (en) 2013-05-07 2016-08-30 Groupe Novasep Chromatographic process for the production of highly purified polyunsaturated fatty acids
BR112016015718B1 (pt) 2014-01-07 2021-12-07 Novasep Process Solutions Processo de purificação de aminoácidos aromáticos
JP6766715B2 (ja) 2017-03-22 2020-10-14 トヨタ自動車株式会社 車両用表示制御装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112008003481T5 (de) * 2007-12-28 2010-12-30 Mitsubishi Electric Corp. Navigationsgerät

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159142A1 (en) * 2014-04-14 2015-10-22 Toyota Jidosha Kabushiki Kaisha On-vehicle image display device, on-vehicle image display method, and on-vehicle image setting device
GB2550262A (en) * 2016-03-21 2017-11-15 Ford Global Tech Llc Pedestrian detection and motion prediction with rear-facing camera
KR101934731B1 (ko) 2016-11-22 2019-01-03 엘지전자 주식회사 차량용 통신 장치 및 차량
JP2020507829A (ja) * 2017-01-26 2020-03-12 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
JP7157054B2 (ja) 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
US11953599B2 (en) 2017-01-26 2024-04-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and LIDAR information
CN108621945A (zh) * 2017-03-22 2018-10-09 丰田自动车株式会社 车辆用显示控制装置、车辆用显示控制系统及车辆用显示控制方法
JP2019077302A (ja) * 2017-10-24 2019-05-23 クラリオン株式会社 表示制御装置、表示システム及び表示制御方法
JP7063571B2 (ja) 2017-10-24 2022-05-09 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、表示システム及び表示制御方法
JP2018129833A (ja) * 2018-03-15 2018-08-16 株式会社デンソー 画像処理装置

Also Published As

Publication number Publication date
JPWO2013084317A1 (ja) 2015-04-27
JP5888339B2 (ja) 2016-03-22

Similar Documents

Publication Publication Date Title
JP5888339B2 (ja) 表示制御装置
CN107428288B (zh) 用于车辆的检测和警告潜在碰撞的安全系统
CN111247575B (zh) 车辆驾驶辅助系统、方法及计算机可读取的存储介质
US8461976B2 (en) On-vehicle device and recognition support system
US9505346B1 (en) System and method for warning a driver of pedestrians and other obstacles
EP1961613B1 (en) Driving support method and driving support device
JP6307895B2 (ja) 車両用周辺監視装置
US20030112132A1 (en) Driver's aid using image processing
US20190135169A1 (en) Vehicle communication system using projected light
JP2006338594A (ja) 歩行者認識装置
JP2005309797A (ja) 歩行者警報装置
CN111273765A (zh) 车辆用显示控制装置、车辆用显示控制方法以及存储介质
JP2008097279A (ja) 車両外部情報表示装置
CN112498343A (zh) 车辆转向控制系统及方法
JP2006042147A (ja) 車両の認知支援装置
JP5003473B2 (ja) 注意喚起装置
JP2005202787A (ja) 車両用表示装置
JP3988551B2 (ja) 車両周囲監視装置
JP2009110343A (ja) 運転支援装置
JP2003151096A (ja) 進入警報装置
JP5192009B2 (ja) 車両の周辺監視装置
RU2706757C1 (ru) Способ и блок управления для заднего обзора
JP6555413B2 (ja) 移動体周囲表示方法及び移動体周囲表示装置
JP2008249634A (ja) 対象物検出装置
KR20220058894A (ko) 터닝 보조 시스템의 작동 방법, 터닝 보조 시스템, 및 이러한 터닝 보조 시스템을 구비한 자동차

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11877148

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013548005

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11877148

Country of ref document: EP

Kind code of ref document: A1