WO2013128917A1 - 映像処理装置、映像処理方法、および映像表示システム - Google Patents

映像処理装置、映像処理方法、および映像表示システム Download PDF

Info

Publication number
WO2013128917A1
WO2013128917A1 PCT/JP2013/001176 JP2013001176W WO2013128917A1 WO 2013128917 A1 WO2013128917 A1 WO 2013128917A1 JP 2013001176 W JP2013001176 W JP 2013001176W WO 2013128917 A1 WO2013128917 A1 WO 2013128917A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
camera
moving body
control unit
video processing
Prior art date
Application number
PCT/JP2013/001176
Other languages
English (en)
French (fr)
Inventor
理洋 森島
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/381,074 priority Critical patent/US10118566B2/en
Priority to EP13754749.3A priority patent/EP2822273B1/en
Publication of WO2013128917A1 publication Critical patent/WO2013128917A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Definitions

  • the present invention relates to a video processing device, a video processing method, and a video display system. More specifically, the present invention relates to a video processing apparatus, a video processing method, and a video display system including the video processing apparatus, which process video captured by a camera attached to a moving body.
  • Such a technique often employs a camera capable of wide-angle shooting, that is, a camera equipped with a wide-angle lens such as a wide-angle lens (see, for example, Patent Document 1). This is because, for example, an image captured by a camera capable of wide-angle imaging has a wider range that the driver can visually recognize on one screen when the image is displayed on the display unit.
  • FIG. 12 is a diagram illustrating a state where a car parked in a parking lot and the vicinity of the parking lot are viewed from above.
  • the camera 120 can capture an image with an angle of view of about 180 ° in the horizontal direction, as indicated by an arc with arrows at both ends.
  • the position where each vehicle should park is shown by the white line 300 showing the parking position of a motor vehicle.
  • a building 400 is built around the parking lot.
  • FIG. 13 In the situation as shown in FIG. 12, when an image of the rear of the automobile 100 taken by the camera 120 is displayed on the display unit 160 such as a display installed in the car, an image as shown in FIG. 13 is obtained.
  • the portion of the white line 300 that is actually straight in the horizontal direction is greatly curved, and the curvature increases as it goes to the edge of the screen.
  • a portion of the white line 300 that is actually parallel to the direction in which the automobile 100 moves backward is displayed with an angle with the backward movement direction of the automobile 100 increasing toward the edge of the screen.
  • the parallel portions are actually equidistant, they are not displayed at equidistant intervals on the display of the display unit 160.
  • an image captured by such a camera does not include much distortion at the center portion, but increases as the distance from the center portion increases, and the image end portion includes considerable distortion. For this reason, the driver is not only difficult to grasp the distance between the host vehicle and other objects, but also in the direction in which the host vehicle travels, even with the assistance of the image including such distortion. It is also difficult to grasp the direction of other objects with reference to.
  • an object of the present invention made in view of such circumstances is an image processing device, an image processing method, and an image display system that allow a driver to grasp a sense of direction and a sense of distance in an image captured by a vehicle-mounted camera. Is to provide.
  • the invention according to the first aspect to achieve the above object is A video processing apparatus that is attached to a moving body and superimposes predetermined information on a video shot by a camera capable of wide-angle shooting of the traveling direction of the moving body, When an input indicating a predetermined position in the video is detected in a state where the video shot by the camera is being output, the indicated position of the video shot by the camera and the moving body are detected. It has a control part which controls so that the information about the distance between may be superposed.
  • control unit superimposes the predetermined information as a reference line that connects the points where the distance from the moving body is equal to the designated position in the video imaged by the camera. It is preferable to control in such a manner.
  • control unit follows the movement of the moving body and changes in the image captured by the camera so that the reference line has a curvature according to distortion of the image captured by the camera. It is preferable to control it.
  • control unit performs control so that a reference line having the same curvature is displayed in each of the regions obtained by dividing the video captured by the camera into a plurality of regions according to the distance between the subject and the moving body. It is preferable to do this.
  • a storage unit for storing a distance between the subject of the image and the moving body at the coordinates of the image captured by the camera
  • the control unit reads the distance between the subject of the video and the moving body at the coordinates of the video captured by the camera stored in the storage unit, and controls to superimpose the predetermined information Is preferred.
  • control unit controls the predetermined information so as to be superimposed as a reference value representing a numerical value of a distance between the subject and the moving body at the instructed position.
  • control unit when it is recognized that the predetermined object exists at the position where the input is detected, the control unit is configured to determine the predetermined object on the basis of a position near the grounding point of the predetermined object and closest to the moving body. It is preferable to control to superimpose information.
  • control unit performs control so as to change the position of the predetermined information to be superimposed, following the movement of the moving body and the change of the image captured by the camera.
  • control unit controls to superimpose the information by changing a display mode of the predetermined information to be superimposed according to a distance between the subject and the moving body at the instructed position. .
  • control unit performs control so as to superimpose a guide line that suggests a course of the moving body when superimposing the predetermined information on an image captured by the camera.
  • control unit performs control so that the guide line is changed and superimposed according to a steering angle of the moving body.
  • an input detection unit composed of a touch panel is provided, It is preferable that the control unit performs control so that an input indicating a predetermined position in the video is detected via the input detection unit.
  • an input detection unit composed of operation keys is provided, It is preferable that the control unit performs control so that an input indicating a predetermined position in the video is detected via the input detection unit.
  • the video shot by the camera is a video shot by a camera equipped with a fisheye lens.
  • the video shot by the camera is a composite of videos shot by a plurality of cameras.
  • the invention according to the second aspect for achieving the above object is as follows: An image processing method for superimposing predetermined information on an image captured by a camera attached to a moving body and capable of wide-angle shooting of the traveling direction of the moving body, When an input indicating a predetermined position in the video is detected in a state where the video shot by the camera is being output, the indicated position of the video shot by the camera and the moving body are detected. And a control step for controlling to superimpose information on the distance between the two.
  • the invention according to the third aspect for achieving the above object is as follows: A camera attached to a moving body and capable of wide-angle shooting of the moving direction of the moving body; A controller that superimposes predetermined information on the video imaged by the camera; A display unit for displaying the video imaged by the camera and the predetermined information; An input detection unit for detecting an input indicating a predetermined position in the video displayed on the display unit; A video display system including: The control unit is photographed by the camera when the input detection unit detects an input instructing a predetermined position in the video in a state where the display unit displays a video photographed by the camera. Control is performed so as to superimpose information relating to the distance between the instructed position and the moving object.
  • the driver can grasp the sense of direction and the sense of distance in the video taken at a wide angle by the in-vehicle camera.
  • FIG. 1 is a diagram illustrating a schematic configuration of a video display system according to a first embodiment of the present invention. It is a figure explaining the relationship between the mobile body which concerns on 1st Embodiment, and a to-be-photographed object. It is a figure explaining the distance between the to-be-photographed object and moving body of the image
  • FIG. 1 is a diagram showing an example of a schematic configuration of a video display system including a video processing apparatus according to the first embodiment of the present invention.
  • the video display system according to the present embodiment includes a camera 12, a camera control unit 14, a display unit 16, and an input detection unit 60.
  • the video processing device 40 according to the present embodiment includes a camera control unit 14 and a storage unit 50.
  • the video processing apparatus 40 according to the present embodiment is assumed to be installed in a moving body 100 such as an automobile. However, it is naturally possible to install and use it on a moving body other than an automobile.
  • the video processing device 40 connected to the bus 10 includes a camera control unit 14, and the camera 12 is connected to the camera control unit 14.
  • the bus 10 includes a display unit 16, an ignition switch 18, a rudder angle sensor 20, a brake sensor 22, a GPS 24, a light 26, a speaker 28, and a control as main elements related to electronic devices provided in the automobile.
  • the unit 30 and the input detection unit 60 are connected.
  • the description will focus on the elements from which various types of information such as video are acquired and the elements from which various types of information such as video are output, among other functional units constituting the automobile. Illustration and description of elements constituting the unit are omitted.
  • the camera 12 includes a lens having a wide angle of view such as a fisheye lens, and can perform wide-angle shooting.
  • the video imaged by the camera 12 is sent to the camera control unit 14 of the video processing device 40.
  • the camera control unit 14 performs various types of control related to the camera 12 in addition to performing a process of superimposing predetermined information according to the present embodiment on a video captured by the camera 12.
  • the camera 12 is shown as one element in FIG. 1, a plurality of cameras 12 may be installed. In this case, the camera control unit 14 performs control so that the plurality of cameras 12 cooperate. And the camera control part 14 is controlled so that the process which superimposes the said predetermined information is performed, after processing and synthesize
  • the video processing device 40 outputs a video in which the camera control unit 14 superimposes the predetermined information on the video shot by the camera 12.
  • the video processing device 40 will be described as a unit including the camera control unit 14 as illustrated in FIG. 1, and will be described as a video input from the external camera 12.
  • the video processing device 40 may include the camera control unit 14, the camera 12, and the storage unit 50 to constitute a camera unit as a whole.
  • the display unit 16 is composed of, for example, a liquid crystal display or an organic EL display, and displays various information and videos. For example, various vehicle information of the moving body 100 can be displayed, and a screen of a navigation system using the GPS 24 can be displayed. In the present embodiment, the display unit 16 displays the video output from the video processing device 40.
  • the ignition switch 18 is a switch for starting and stopping the engine of the moving body 100. However, since many electronic devices of the moving body 100 are energized by turning on the accessory, the video display system is practically used. It works like a main switch.
  • the steering angle sensor 20 detects the turning angle of the steering.
  • the brake sensor 22 detects whether or not the brake of the moving body 100 is operating, the degree of braking, and the like.
  • the GPS 24 can acquire current location information by receiving GPS signals from GPS satellites via an antenna.
  • the light 26 is a general term for a headlight, a position lamp, and the like of the moving body 100. The on / off status of these headlights and position lamps can be known from the bus 10 side.
  • the speaker 28 not only outputs car stereo sound but also outputs car navigation voice guides and alarm sounds from various warning systems.
  • the control unit 30 controls processing related to electronic control of the moving body 100 and controls each functional unit of the moving body 100.
  • the control unit 30 may be a computer to which a car navigation system or the like is connected, for example, but other functional units may be responsible for the function of the control unit 30.
  • the storage unit 50 can be configured by an arbitrary memory such as a flash memory.
  • the storage unit 50 stores the distance between the subject of the video and the moving body 100 at the coordinates of the video shot by the camera 12, as will be described later.
  • the storage unit 50 will be described as being capable of storing various types of information.
  • the input detection unit 60 detects an operation input by an operator such as a driver of the moving body 100.
  • the input detection unit 60 may be configured by operation keys such as predetermined keys and buttons such as a keyboard or a dedicated controller.
  • the input detection unit 60 will be described as being configured by a touch panel that can detect an input such that an operator directly touches an image or an object displayed on the display unit 16.
  • FIG. 2 is a diagram for explaining the relationship between the subject of the video imaged by the camera 12 according to the first embodiment and the moving body 100.
  • the camera 12 is installed in the position which can image
  • the camera 12 captures images of the road surface behind the moving body 100 and objects existing on the road surface. Therefore, in the present embodiment, the “subject” of the video imaged by the camera 12 usually means a road surface behind the moving body 100 and an object existing on the road surface.
  • the area of the subject whose video is captured by the camera 12 is shown as an area A behind the moving body 100.
  • this area A for example, when an object such as an obstacle is placed on the road surface, the camera 12 captures an image of not only the road surface of the area A but also the object as a subject.
  • the video processing device 40 can output the video of the subject and display it on the display unit 16.
  • the display unit 16 illustrated in FIG. 2 is installed inside the moving body 100 so that the driver of the moving body 100 can visually recognize the display section 16.
  • the camera 12 is installed at a position where the rear of the moving body 100 can be photographed in order to mainly describe the case of moving backward.
  • the present invention is not limited to such an example, and the camera 12 may be installed at a position where the front of the moving body 100 can be photographed for the case where the moving body 100 moves forward.
  • an image shot by the camera 12 generally includes distortion. Therefore, even if an image of a subject photographed by the camera 12 is displayed on the display unit 16, what appears to be linear on the display unit 16 is not actually linear, or from a predetermined position on the display unit 16. A point at a distance may not actually be equidistant. For this reason, even if the driver of the moving body 100 refers to the video displayed on the display unit 16, it is difficult to correctly grasp the relative sense of direction and the sense of distance.
  • predetermined information means a predetermined reference line as will be described later. With this reference line, the driver of the moving body 100 can correctly grasp the relative direction feeling and distance feeling of the moving body 100.
  • the camera control unit 14 determines the subject of the video at the coordinates of the video shot by the camera 12 based on distortion data specific to the lens of the camera 12.
  • the distance from the moving body 100 is previously grasped. That is, the camera control unit 14 is a distance between the subject of the image to be captured and the moving body 100 at a predetermined coordinate (or dot or pixel) of the image captured by the camera 12 and displayed on the display unit 16. This information is grasped by storing in advance.
  • FIG. 3 is a diagram showing the video displayed on the display unit 16 divided by a region corresponding to each predetermined coordinate.
  • the video displayed on the display unit 16 is represented in a mesh shape, and each of the regions divided by the mesh represents a region corresponding to each predetermined coordinate.
  • the video displayed on the display unit 16 is shown as a mesh, but in the actual display of the display unit 16, the video is displayed as a mesh as shown in FIG. There is no need.
  • predetermined coordinates are shown in a video displayed on the display unit 16 with a relatively low resolution (that is, coarsely).
  • predetermined coordinates can be defined with high resolution (that is, finely) for each pixel, and predetermined coordinates are defined for several pixel groups. Any resolution can be used.
  • FIG. 4 is a diagram showing the correspondence of the distance between the subject of the video and the moving body in the coordinates of the video taken by the camera 12. That is, in FIG. 4, the distance between the subject displayed at the position of the coordinate and the moving body 100 is shown in correspondence with the coordinates of the divided area shown in FIG. However, for the sake of simplicity, FIG. 4 is partially omitted.
  • the upper left coordinate in FIG. 3 corresponds to the coordinate shown in FIG. 4 when a point that is actually 3 m away from the moving body 100 is taken by the camera 12 and displayed on the display unit 16.
  • the subject of the image displayed at the coordinates is 0 mm away from the moving body 100.
  • the subject displayed at the lower right coordinates in FIG. 3 actually means that the distance from the moving body 100 is zero.
  • the numerical value representing the distance for each coordinate varies depending on the distortion data inherent to the lens mounted on the camera 12, and the vertical height and angle at which the camera 12 is installed on the moving body 100. It depends on various parameters. Therefore, the correspondence table as shown in FIG. 4 is provided according to the lens mounted on the camera 12 and further according to parameters such as the vertical height and angle at which the camera is installed on the moving body 100. To. Also, the correspondence table as shown in FIG. 4 may store the numerical values for each coordinate in the storage unit 50 in advance, or store the calculation formula for each case in the storage unit 50. A numerical value may be calculated as necessary. Thus, in the present embodiment, the storage unit 50 stores the distance between the subject of the video and the moving body 100 at the coordinates of the video shot by the camera 12.
  • the guide line ⁇ represents a relatively close distance such as 1 m from the moving body 100, for example, so that when the object is displayed near the guide line ⁇ , the object is close to the moving body 100. It represents being located.
  • the guide lines ⁇ R and ⁇ L represent a direction parallel to the traveling direction of the moving body on the basis of the vehicle width of the moving body 100. In FIG. 3, guide lines ⁇ R and ⁇ L are indicated by broken lines.
  • the guide line ⁇ represents a distance such as 3 m away from the moving body 100, for example, so that when the object is displayed in the vicinity of the guide line ⁇ , the object is located slightly away from the moving body 100. It means that there is.
  • FIG. 5 shows a state in which an image taken by the camera 12 is displayed on the display unit 16 as in FIG.
  • the guide lines ⁇ , ⁇ R, ⁇ L, and ⁇ shown in FIG. 5 are the same as those described in FIG. Further, in the example shown in FIG. 5, in the image captured by the camera 12 and displayed on the display unit 16, only a normal road surface is displayed as a subject, and an object such as an obstacle is not particularly displayed. .
  • the camera control unit 14 performs control so as to detect an input indicating a predetermined position in the video via the input detection unit 60 which is a touch panel. In other words, the camera control unit 14 performs control so that the driver detects an input that contacts any position in the input detection unit 60 that is a touch panel.
  • the camera control unit 14 determines whether the subject at that position and the moving body 100 are based on the correspondence shown in FIG. The distance between them is read from the storage unit 50. Then, the camera control unit 14 reads the position of another coordinate having a distance equal to the distance between the subject at the position and the moving body 100 based on the correspondence shown in FIG.
  • the camera control unit 14 When the positions of a plurality of coordinates are read out in this way, the camera control unit 14 performs control so that a reference line obtained by connecting these points in a line is superimposed on an image captured by the camera 12 and output. To do. In this case, the camera control unit 14 reads the distance between the subject of the video and the moving body 100 at the coordinates of the video shot by the camera 12 from the storage unit 50, and performs control so as to superimpose the predetermined information. To do.
  • the reference line superimposed on the image captured by the camera 12 in the display unit 16 includes the position of the subject displayed at the position where the input by the driver is detected, and the actual line from the moving body 100 is displayed.
  • FIG. 6A shows a plurality of points that indicate the positions of subjects whose actual distance from the moving body 100 is equal, including the position of the subject displayed at the position P1 in FIG. Indicates a reference line ⁇ 1 to which is connected.
  • the driver displayed on the display unit 16 a position separated from the moving body 100 by the same distance as the position of the subject displayed at the position input by himself / herself on the video. It can be easily recognized in the entire video.
  • the camera control unit 14 when the camera control unit 14 detects an input instructing a predetermined position in the video while outputting the video shot by the camera 12, the camera control unit 14 outputs predetermined information. Control to superimpose.
  • the predetermined information is information corresponding to the instructed position in the information related to the distance between the subject of the image captured by the camera 12 and the moving body 100.
  • the predetermined information indicates that the distance between the subject displayed at the instructed position and the moving body 100 is a distance between the subject and the moving body 100 captured by the camera 12.
  • a point that is equal to the distance between and is a reference line connected in a line.
  • the coordinates corresponding to the position of P1 are specified in the manner described in FIG.
  • the display unit 16 moves as the moving body 100 advances.
  • the position where the input by the driver is detected also moves on the display unit 16 as the moving body 100 progresses, it is helpful to move the reference line ⁇ and display it to assist the driver in confirming safety. it is conceivable that. Therefore, for example, when the position where the input from the driver is detected moves on the coordinates as shown in FIG. 4, the camera control unit 14 controls to superimpose a reference line for the moved coordinates. Is preferred.
  • the reference line also changes from the reference line ⁇ 1 to ⁇ 2.
  • the reference line is displayed on the display unit 16 so as to gradually approach.
  • the reference line ⁇ 1 and the reference line ⁇ 2 are reference lines having different curvatures. Is displayed.
  • the camera control unit 14 causes the reference line to be distorted in the image captured by the camera 12 by causing the moving body 100 to move and follow the image captured by the camera 12 changing.
  • the curvature is controlled according to the
  • the display mode is appropriately changed, for example, the color of the reference line, the line type, the presence / absence of flashing, and the mode, It is desirable to alert the driver of the moving body 100.
  • the reference line is green, but in the situation shown in FIG. 6B, the reference line changes to yellow, and in the situation shown in FIG. 6C, the reference line turns red. Can be changed.
  • the camera control unit 14 performs control so as to change and superimpose the predetermined information according to the distance between the subject and the moving body 100 at the instructed position. preferable.
  • the processing when the input detection unit 60 detects the operator's input and the position where the reference line is displayed are changed according to the same basic principle as in the first embodiment described above. Except for these differences, the present embodiment can be implemented by the same configuration as that of the above-described first embodiment, and thus the description that is the same as that of the first embodiment will be omitted as appropriate.
  • the camera control unit 14 moves the road surface to the position where the input is detected. It is determined whether a predetermined object such as an obstacle other than is not displayed.
  • various image recognition techniques such as contour detection can be applied to determine whether or not a predetermined object such as an obstacle other than the road surface exists.
  • the driver detects an input that touches the position of the middle or tip of the pylon 200 in the video displayed on the display unit 16.
  • the camera control unit 14 recognizes that the pylon 200 is a predetermined object by image recognition, the camera control unit 14 locates the position closest to the moving body 100 near the point where the pylon 200 contacts the road surface.
  • a reference line is superimposed as a reference.
  • FIG. 8A an input is detected at the position of the pylon 200 in FIG. 7, and the position closest to the moving body 100 (the closest point or the lowest point) is near the point where the pylon 200 contacts the road surface.
  • the reference line ⁇ 4 is shown. By visually recognizing this reference line ⁇ 4, the driver can see the position closest to the moving body 100, which is the point where the pylon 200 displayed at the position where he / she touched and entered the image is in contact with the ground. The entire video displayed on the display unit 16 can be easily recognized.
  • the image captured by the camera 12 moves on the display unit 16, and as shown in FIG. 8B.
  • the reference line also changes from the reference line ⁇ 5 to ⁇ 6.
  • the camera control unit 14 when it is recognized that a predetermined object exists at the position where the input is detected, the camera control unit 14 is near the grounding point of the predetermined object and closest to the moving body 100. Control is performed so that predetermined information is superimposed on the basis of the position. In this case, the camera control unit 14 performs control so that the moving body 100 moves and the image captured by the camera 12 changes, and the position of the predetermined information is changed and superimposed. preferable. Also in the present embodiment, the camera control unit 14 changes the display mode of the predetermined information according to the distance between the subject and the moving body 100 at the position instructed by the operator's input. It is preferable to control so as to overlap.
  • the operator when a predetermined object such as an obstacle is not recognized at the position where the input by the operator is detected, the operator desires to display a reference line based on the position up to the road surface instead of the predetermined object.
  • the processing described in the first embodiment can be performed.
  • 3rd Embodiment displays a predetermined reference value instead of displaying a predetermined reference line on the display part 16 according to the basic principle similar to 1st Embodiment mentioned above. Except for this difference, the present embodiment can be implemented by the same configuration as that of the above-described first embodiment, and thus the description that is the same as that of the first embodiment will be omitted as appropriate.
  • the camera control unit 14 determines that the subject and the moving object at the position are based on the correspondence shown in FIG.
  • the distance to 100 is read from the storage unit 50.
  • the camera control unit 14 captures the image by the camera 12 using the numerical value of the distance as a reference value.
  • the video is controlled so as to be superimposed on the video.
  • the camera control unit 14 controls the reference value so as to be superimposed on the nearest position of the coordinates where the input is detected, such as right above or on the right side of the coordinates where the input is detected. Further, when the numerical value of the distance between the subject at the position where the input is detected and the moving body 100 is read from the storage unit 50, the numerical value is changed to an approximate value or the unit is changed, for example. It is preferable to set a reference value that is easy to see for an operator such as 100 drivers.
  • the reference value when the driver advances the moving body 100 from the situation shown in FIG. 10A, the video imaged by the camera 12 moves on the display unit 16 according to the traveling speed, and FIG. As shown in (B), it is desirable to change the reference value from ⁇ 7 to ⁇ 8 (2 m). That is, the coordinates corresponding to the moved position are specified as in the example shown in FIGS. 3 and 4, and the value corresponding to the specified coordinates is read. Similarly, when the driver further advances the moving body 100 from the situation shown in FIG. 10B, the image captured by the camera 12 moves on the display unit 16, and as shown in FIG. The reference value also changes from ⁇ 8 to ⁇ 9 (1 m).
  • the reference value when the reference value is changed and displayed, as the distance indicated by the reference value approaches the moving object 100, for example, the color of the reference value, the line type of the surrounding display, the presence / absence of blinking, and the mode are displayed. It is desirable to alert the driver of the moving body 100 by appropriately changing the mode.
  • the camera control unit 14 superimposes predetermined information as a reference value that represents the distance between the subject and the moving body 100 at a position instructed by an operator's input as a numerical value. To control.
  • the present invention is not limited to the above-described embodiment, and the video captured by the camera 12 may be a composite of the video captured by the plurality of cameras 12.
  • the driver can display a video that has not been smoothly synthesized on the display unit 16.
  • the present invention performs control to superimpose a reference line or a reference value composed of a simple image on the video imaged by the camera 12.
  • the driver can correctly grasp the sense of direction and the sense of distance in the wide-angle image captured by the in-vehicle camera.
  • the camera control unit 14 performs control so as to perform processing in which a reference line is superimposed on the acquired video of the camera 12 and output.
  • the video data output from the camera control unit 14 is output in a state where the image data of the reference line is already superimposed.
  • the present invention is not limited to the above-described embodiment.
  • the camera control unit 14 may output an image captured by the camera 12 as it is.
  • the control unit 30 can perform control so that a process in which a reference line is superimposed on the acquired video of the camera 12 and output is performed.
  • the video displayed on the display unit 16 is virtually divided into several areas such as areas (1) to (7). Do not rewrite the reference line. In each region, the reference line generated for superimposing first in the region is displayed and then moved as it is, or the reference line having a curvature prepared in advance is displayed in the region and then moved as it is. Then, when a region extends from one region to the next region, a reference line to be superimposed first in the next region is generated, or a reference line having a curvature prepared in advance in the next region is displayed. .
  • the camera control unit 14 uses the reference line having the same curvature in each of the regions obtained by dividing the video captured by the camera 12 into a plurality of parts according to the distance between the subject and the moving body 100. You may control to display. In this way, the effect of reducing the processing load of each functional unit centering on the camera control unit 14 and / or the control unit 30 can be expected.
  • the guide lines ⁇ , ⁇ , ⁇ , etc. as described in FIGS. 3 and 5 are shown as reference lines such as the direction in which the moving body 100 travels.
  • Such a guide line is not indispensable and can be prevented from being displayed on the display unit 16.
  • guide lines ⁇ R and ⁇ L are displayed on the assumption that the moving body 100 travels straight.
  • the guide line guide lines ⁇ R and ⁇ L are displayed by changing the direction and curvature of the mobile body 100 in the direction of bending. You can also.
  • the camera control unit 14 performs control so that the guide line that suggests the course of the moving body 100 is superimposed when the predetermined information is superimposed on the video captured by the camera 12. You can also. In this case, the camera control unit 14 can also perform control so that the guide line is changed and superimposed according to the steering angle of the moving body 100.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)

Abstract

 車載カメラにより広角撮影された映像において運転者が方向感覚および距離感を把握することができる映像処理装置、映像処理方法、および映像表示システムを提供する。 移動体100に取り付けられ、移動体100の進行方向を広角撮影可能なカメラ12により撮影された映像に所定の情報を重畳する映像処理装置40は、カメラ12により撮影された映像を出力している状態下において、その映像における所定の位置が指示される入力を検出すると、カメラ12により撮影された映像のうち指示された位置と移動体100との間の距離に関する情報を重畳するように制御する制御部14を備えることを特徴とする。

Description

映像処理装置、映像処理方法、および映像表示システム 関連出願の相互参照
 本出願は、2012年2月27日に出願された日本国特許出願2012-40695号の優先権を主張するものであり、この先の出願の開示全体を、ここに参照のために取り込む。
 本発明は、映像処理装置、映像処理方法、および映像表示システムに関するものである。より詳細には、本発明は、移動体に取り付けられたカメラにより撮影された映像を処理する映像処理装置、映像処理方法、および当該映像処理装置を含む映像表示システムに関するものである。
 近年、自動車に車載カメラを設置して車外を撮影した映像を、車内に設置したディスプレイ等の表示部に表示することにより、運転者の安全確認などを補助する技術が知られている。
 例えば、自動車の前方の先端付近にカメラを設置して、自動車の前方すなわち進行方向を撮影した映像を車内の運転者に示すことにより、見通しの悪い道路から交差点に進入する際などの安全性を高めようとする技術がある。また、例えば、自動車の後方を撮影できる位置にカメラを設置して、自動車の後方を中心とする映像を車内の運転者に示すことにより、運転者が自動車を後進させる際の安全性を高めようとする技術もある。
 このような技術には、一般的に広角撮影が可能なカメラ、すなわち広角レンズなどの画角の広いレンズを搭載したカメラが採用されることが多い(例えば、特許文献1参照)。これは、広角撮影可能なカメラで撮影された映像の方が、当該映像を表示部に表示した際に、運転者が一画面で視認できる範囲が広くなる等の理由によるものである。
特開2006-311222号公報
 しかしながら、上記特許文献1からも明らかなように、車載カメラとして採用される広角撮影可能なカメラで撮影した映像は、通常、映像の中心から外側に向かって徐々に歪むようになる。
 例えば、図12に示すように、自動車100の後方部分に設置した広角撮影可能なカメラ120によって、自動車100の後方の映像を撮影する場合について説明する。図12は、駐車場に停車している自動車および駐車場の周辺を上方から見た状態を表す図である。図12に示す例において、カメラ120は、両端に矢印を付した円弧で示すように、水平方向に180°程度の画角の映像を撮影可能である。図12に示す駐車場においては、自動車の駐車位置を表す白線300により、各車両が駐車すべき位置が示されている。また、この駐車場の周辺には、建物400が建っているとする。
 図12に示すような状況で、カメラ120によって自動車100の後方を撮影したものを、車内に設置したディスプレイ等の表示部160に表示すると、図13に示すような映像になる。図13に示すように、白線300のうち実際には水平方向にまっすぐな部分は大きく湾曲し、画面の端に向かうに連れてその曲率も高くなって表示される。また、白線300のうち自動車100が後進する方向と実際には平行な部分は、画面の端に向かうに連れて自動車100の後進方向との角度が大きくなって表示される。さらに、当該平行な部分同士は、実際には等間隔であるにもかかわらず、表示部160の表示上は等間隔に表示されていない。
 一般的に、このようなカメラで撮影した映像は、中央部分はあまり歪みを含まないが、中央部分から遠ざかるにつれて歪みが大きくなり、映像端部においてはかなりの歪みを含むものとなる。このため、運転者は、このような歪みを含む映像による補助があっても、自車と他の物体との間の距離を把握するのが困難であるのみならず、自車が進行する方向を基準とした他の物体の方向を把握するのも困難である。
 したがって、かかる事情に鑑みてなされた本発明の目的は、車載カメラにより広角撮影された映像において運転者が方向感覚および距離感を把握することができる映像処理装置、映像処理方法、および映像表示システムを提供することにある。
 上記目的を達成する第1の観点に係る発明は、
 移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理装置であって、
 前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御する制御部を備えることを特徴とするものである。
 また、前記制御部は、前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御するのが好ましい。
 また、前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記参照線が前記カメラにより撮影された映像の歪みに応じた曲率になるように制御するのが好ましい。
 また、前記制御部は、前記カメラにより撮影された映像を前記被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の参照線を表示するように制御するのが好ましい。
 また、前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を記憶する記憶部をさらに備え、
 前記制御部は、前記記憶部に記憶された前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を読み出して、前記所定の情報を重畳するように制御するのが好ましい。
 また、前記制御部は、前記所定の情報を、前記指示された位置における前記被写体と前記移動体との間の距離を数値で表した参照値として重畳するように制御するのが好ましい。
 また、前記制御部は、前記入力が検出された位置に所定の物体が存在することが認識された場合、当該所定の物体の接地点付近かつ前記移動体に最も近い位置を基準として、前記所定の情報を重畳するように制御するのが好ましい。
 また、前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記重畳する所定の情報の位置を変化させるように制御するのが好ましい。
 また、前記制御部は、前記指示された位置における前記被写体と前記移動体との間の距離に応じて、前記重畳する所定の情報の表示態様を変化させて重畳するように制御するのが好ましい。
 また、前記制御部は、前記カメラにより撮影された映像に前記所定の情報を重畳する際に、前記移動体の進路を示唆するガイド線を重畳するように制御するのが好ましい。
 また、前記制御部は、前記移動体のステアリングの舵角に応じて、前記ガイド線を変化させて重畳するように制御するのが好ましい。
 また、タッチパネルにより構成される入力検出部を備え、
 前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御するのが好ましい。
 また、操作キーにより構成される入力検出部を備え、
 前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御するのが好ましい。
 また、前記カメラにより撮影された映像は、魚眼レンズを備えるカメラにより撮影された映像とするのが好ましい。
 また、前記カメラにより撮影された映像は、複数のカメラにより撮影された映像を合成したものとするのが好ましい。
 また、上記目的を達成する第2の観点に係る発明は、
 移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理方法であって、
 前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御する制御ステップを含むことを特徴とするものである。
 さらに、上記目的を達成する第3の観点に係る発明は、
 移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラと、
 前記カメラにより撮影された映像に所定の情報を重畳する制御部と、
 前記カメラにより撮影された映像および前記所定の情報を表示する表示部と、
 前記表示部に表示された映像における所定の位置が指示される入力を検出する入力検出部と、
 を含む映像表示システムであって、
 前記制御部は、前記表示部が前記カメラにより撮影された映像を表示している状態下において、当該映像における所定の位置が指示される入力を前記入力検出部が検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御することを特徴とするものである。
 本発明の映像処理装置、映像処理方法、および映像表示システムによれば、運転者は、車載カメラにより広角撮影された映像において方向感覚および距離感を把握することができる。
本発明の第1実施形態に係る映像表示システムの概略構成を示す図である。 第1実施形態に係る移動体と被写体との関係を説明する図である。 第1実施形態に係るカメラにより撮影される映像の被写体と移動体との間の距離について説明する図である。 第1実施形態に係るカメラにより撮影される映像の座標における当該映像の被写体と移動体との間の距離の対応を表す図である。 第1実施形態においてカメラにより撮影された映像を表示した例を示す図である。 第1実施形態に係る参照線の例を示す図である。 第2実施形態においてカメラにより撮影された映像を表示した例を示す図である。 第2実施形態に係る参照線の例を示す図である。 第3実施形態においてカメラにより撮影された映像を表示した例を示す図である。 第3実施形態に係る参照値の例を示す図である。 本発明の実施形態の変形例に係る参照線の例を示す図である。 カメラを設置した自動車および駐車場を上方から見た図である。 広角撮影可能なカメラにより撮影した映像を示す図である。
 以下、本発明の各実施形態について、図面を参照して説明する。
(第1実施形態)
 図1は、本発明の第1実施形態に係る映像処理装置を含む映像表示システムの概略構成の例を示す図である。図1に示すように、本実施形態に係る映像表示システムは、カメラ12と、カメラ制御部14と、表示部16と、入力検出部60と、を含んで構成される。また、図1に示すように、本実施形態に係る映像処理装置40は、カメラ制御部14と、記憶部50と、を備えている。本実施形態に係る映像処理装置40は、例えば自動車などの移動体100に設置することを想定している。しかしながら、自動車以外の移動体に設置して使用することも当然可能である。
 図1に示すように、本実施形態に係る映像表示システムにおいては、バス10に各種の機能を構成する要素が接続されている。バス10に接続された映像処理装置40は、カメラ制御部14を備え、カメラ制御部14にはカメラ12が接続されている。その他、バス10には、自動車に備えられた電子機器関連の要素のうち主なものとして、表示部16、イグニッションスイッチ18、舵角センサ20、ブレーキセンサ22、GPS24、ライト26、スピーカ28、制御部30、および入力検出部60などが接続される。以下の説明においては、特に、自動車を構成する各機能部のうち映像などの各種の情報が取得される要素、および映像などの各種の情報が出力される要素を中心に説明し、他の機能部を構成する要素は図示および説明を省略する。
 カメラ12は、例えば魚眼レンズなどの画角の広いレンズを備え、広角撮影が可能である。カメラ12が撮影した映像は、映像処理装置40のカメラ制御部14に送られる。カメラ制御部14は、カメラ12が撮影した映像に、本実施形態に係る後述の所定の情報を重畳する処理が行われるように制御する他、カメラ12に関連する各種の制御を行う。例えば、図1においてカメラ12は1つの要素として示してあるが、カメラ12を複数設置することもできる。この場合、カメラ制御部14は、複数のカメラ12が連携するように制御を行う。そして、カメラ制御部14は、複数のカメラ12から送られる複数の映像を加工して合成してから、前記所定の情報を重畳する処理が行われるように制御する。
 映像処理装置40は、カメラ12により撮影された映像にカメラ制御部14が前記所定の情報を重畳した映像を出力する。本実施形態において、映像処理装置40は、図1に示すように、カメラ制御部14を備えたユニットとして説明し、外部のカメラ12から映像を入力するものとして説明する。しかしながら、映像処理装置40は、カメラ制御部14、カメラ12、および記憶部50を含んで、全体としてカメラユニットを構成するものとしてもよい。
 表示部16は、例えば液晶ディスプレイまたは有機ELディスプレイ等で構成し、各種の情報および映像などを表示する。例えば、移動体100の各種の車両情報を表示したり、GPS24を利用したナビゲーションシステムの画面を表示したりすることができる。本実施形態においては、表示部16は、映像処理装置40から出力された映像を表示する。
 イグニッションスイッチ18は、移動体100のエンジンを始動したり停止したりするスイッチであるが、アクセサリをオンにすることで移動体100の多くの電子機器が通電するため、実質的には映像表示システムのメインスイッチのような働きをする。
 舵角センサ20は、ステアリングの切れ角を検出するものである。ブレーキセンサ22は、移動体100のブレーキが作動しているか否か、およびブレーキの度合いなどを検出するものである。GPS24は、アンテナを介してGPS衛星からのGPS信号を受信することにより、現在地の情報を取得することができる。ライト26は、移動体100のヘッドライトおよびポジションランプなどを総称するものである。これらのヘッドライトおよびポジションランプなどの点灯/消灯の状況は、バス10側から知ることができる。スピーカ28は、カーステレオの音声を出力するのみならず、カーナビゲーションの音声ガイドおよび各種警告システムからの警報音なども出力する。
 制御部30は、移動体100の電子制御に係る処理を制御するとともに、移動体100の各機能部を制御する。具体的には、制御部30は、例えばカーナビゲーションシステムなどが接続されるコンピュータとすることもできるが、その他の機能部が制御部30の機能を担うようにすることもできる。
 記憶部50は、フラッシュメモリなどの任意のメモリによって構成することができる。本実施形態において、記憶部50は、後述するように、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を記憶する。また、記憶部50は、各種の情報を記憶することができるものとして説明する。
 入力検出部60は、移動体100の運転者などの操作者による操作入力を検出する。本実施形態において、入力検出部60は、例えばキーボードまたは専用コントローラなど、所定のキーやボタンなどの操作キーにより構成されるものとすることができる。しかしながら、以下の説明において、入力検出部60は、表示部16に表示された映像またはオブジェクトなどに操作者が直接触れるような入力を検出することができるタッチパネルにより構成されたものとして説明する。
 次に、本実施形態に係る被写体と移動体100との関係について説明する。図2は、第1実施形態に係るカメラ12により撮影される映像の被写体と移動体100との関係を説明する図である。図2に示すように、本実施形態において、カメラ12は、例えば自動車としての移動体100における、その後方を撮影できる位置に設置される。また、本実施形態において、カメラ12は、移動体100の後方の路面および路面上に存在する物体などの映像を撮影する。したがって、本実施形態において、カメラ12により撮影される映像の「被写体」とは、通常、移動体100の後方の路面および路面上に存在する物体などを意味する。
 図2においては、カメラ12により映像が撮影される被写体の領域を、移動体100の後方の領域Aとして示してある。この領域Aにおいて、例えば障害物などの物体が路面上に置かれていた場合、領域Aの路面のみならず当該物体も被写体としてカメラ12により映像が撮影される。このようにして、カメラ12により撮影された被写体の映像は、図1において説明した映像処理装置40に入力される。映像処理装置40は、当該被写体の映像を出力して、表示部16に表示することができる。一般的に、図2に示した表示部16は、移動体100の運転者が視認することができるように、移動体100の内部に設置される。
 図2に示した例においては、主に後進する場合について説明するため、移動体100の後方を撮影できる位置にカメラ12を設置した例を示してある。しかしながら、本発明はこのような例に限定されるものではなく、移動体100が前進する場合のために、移動体100の前方を撮影できる位置にカメラ12を設置してもよい。
 次に、第1実施形態に係るカメラ12により撮影される映像の被写体と移動体との間の距離について説明する。
 上述したように、本実施形態において、カメラ12は広角撮影可能であるため、カメラ12によって撮影された映像は、一般的に歪みを含んだものとなる。したがって、カメラ12によって被写体を撮影した映像を表示部16に表示したとしても、表示部16上で直線状に見えるものは実際には直線状ではなかったり、表示部16上で所定の位置から等距離にある地点が実際には等距離ではなかったりすることがある。このため、移動体100の運転者が表示部16に表示された映像を参照したとしても、それだけでは、移動体100の相対的な方向感覚および距離感を正しく把握することは困難である。
 そこで、本実施形態に係る映像処理装置40は、移動体100に取り付けられて移動体100の進行方向を広角撮影可能なカメラ12により撮影された映像に所定の情報を重畳する。ここで、本実施形態において「所定の情報」とは、後述するように、所定の参照線を意味する。この参照線により、移動体100の運転者は、移動体100の相対的な方向感覚および距離感を正しく把握することができる。
 本実施形態では、このような参照線を付与するために、カメラ制御部14は、カメラ12のレンズに固有の歪みデータに基づいて、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を予め把握しておく。すなわち、カメラ制御部14は、カメラ12により撮影されて表示部16に表示される映像の所定の座標(あるいはドットまたは画素など)において、撮影される映像の被写体と移動体100との間の距離の情報を予め記憶するなどして把握しておく。
 図3は、表示部16に表示された映像において、所定の座標ごとに対応する領域で区切って示した図である。図3において、表示部16に表示された映像は網目状に表されているが、当該網目によって区切られた領域のそれぞれは、所定の座標ごとに対応する領域を表している。図3においては、説明のために、表示部16に表示された映像を網目状にして表したが、実際の表示部16の表示においては、図3に示すように映像を網目状に表示する必要はない。また、図3においては、図を簡略化するために、表示部16に表示された映像において、比較的低い解像度で(つまり粗く)所定の座標を示してある。実際には、表示部16に表示された映像において、例えば画素ごとの高い解像度で(つまり細かく)所定の座標を規定することもでき、また、いくつかの画素群ごとに所定の座標を規定するなど、任意の解像度とすることができる。
 本実施形態においては、図3のように区切られた領域の座標ごとに、当該座標の位置に表示される被写体と移動体100との距離を、それぞれの座標について予め把握しておく。図4は、カメラ12により撮影される映像の座標における当該映像の被写体と移動体との間の距離の対応を表す図である。すなわち図4においては、図3で示した区切られた領域の座標に対応させて、当該座標の位置に表示される被写体と移動体100との距離を示してある。しかしながら、図の簡略化のために、図4は部分的に省略して示してある。
 例えば、図3において最も左上の座標は、実際には移動体100から3m離れている点がカメラ12により撮影されて表示部16に映し出されているものとした場合、この座標に対応する図4における最も左上の座標(X,Y)=(0,0)には3000という値が与えられている。すなわち、図3において左上の座標に対応し、当該座標に表示される映像の被写体は移動体100から3000mm離れていることが図4における座標(X,Y)=(0,0)を参照することで把握できる。また、同様に、図4において最も右下の座標(X,Y)=(639,479)は、図3においても最も右下の座標に対応し、0という値が付与されている。すなわち、当該座標に表示される映像の被写体は移動体100から0mm離れていることを表している。この場合、図3において右下の座標に表示される被写体は、実際には移動体100からの距離がゼロであることを意味する。図4から分かるように、カメラ12によって撮影された映像は歪みを含んだものとなるため、Y座標の値が同じ複数の点同士を比較しても、被写体から移動体100までの距離は必ずしも同じにならない。具体的には、同じY座標上の値であっても、X座標軸における中央(X=319)近辺の値が最も小さく、両端(X=0または639)近辺の値の方が大きい。
 このように座標ごとに距離を表す数値は、カメラ12に搭載されたレンズに固有の歪みデータにより異なるものであり、また、カメラ12が移動体100に設置される垂直方向の高さおよび角度など各種のパラメータにより異なる。したがって、図4に示すような対応表は、カメラ12に搭載されるレンズに応じて、さらにカメラが移動体100に設置される垂直方向の高さおよび角度などのパラメータに応じて提供されるようにする。また、図4に示すような対応表は、それぞれ座標ごとの数値を、記憶部50に予め記憶しておくようにしてもよいし、あるいは記憶部50にそれぞれの場合についての計算式を記憶しておき、必要に応じて数値を算出するようにしてもよい。このように、本実施形態では、記憶部50は、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を記憶する。
 また、図3において表示部16に表示された映像には、移動体100が後進する際に運転者をガイドするための各種のガイド線が表示されている。例えば、ガイド線αは、移動体100から例えば1mのような比較的近くの間隔を表すことにより、ガイド線α付近に物体が表示されている場合には、当該物体は移動体100のすぐ近くに位置することを表す。また、ガイド線βRおよびβLは、移動体100の車幅を基準として、移動体の進行方向と平行な方向を表す。図3においては、ガイド線βRおよびβLは、破線により示してある。また、ガイド線γは、移動体100から例えば3mのような少し離れた間隔を表すことにより、ガイド線γ付近に物体が表示されている場合に、当該物体は移動体100から少し離れた位置にあることを表す。
 次に、本実施形態に係る映像処理装置40による処理の具体的を説明する。
 図5は、図3と同様に、カメラ12により撮影された映像を表示部16に表示している状態を表している。図5に示すガイド線α、βR、βL、およびγは、図3で説明したのと同様である。また、図5に示す例においては、カメラ12により撮影され表示部16に表示されている映像には、通常の路面のみが被写体として表示されており、特に障害物などの物体は表示されていない。
 このような状況において、カメラ制御部14は、タッチパネルである入力検出部60を介して、前記映像における所定の位置が指示される入力を検出するように制御する。すなわち、カメラ制御部14は、運転者がタッチパネルである入力検出部60においていずれかの位置に接触する入力を検出するように制御する。
 例えば、図5に示すように、運転者が表示部16に表示された映像の中央付近の位置P1において接触する入力が検出されたとする。このようにして、表示された映像における所定の位置が指示される入力を検出すると、カメラ制御部14は、図4に示したような対応に基づいて、当該位置の被写体と移動体100との間の距離を記憶部50から読み出す。そして、カメラ制御部14は、図4に示したような対応に基づいて、当該位置の被写体と移動体100との間の距離に等しい距離の他の座標の位置を読み出す。このようにして複数の座標の位置が読み出されたら、カメラ制御部14は、これらの点を線状につないだ参照線を、カメラ12により撮影された映像に重畳して出力するように制御する。この場合、カメラ制御部14は、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を記憶部50から読み出して、前記所定の情報を重畳するように制御する。
 このようにして、表示部16においてカメラ12により撮影された映像に重畳される参照線は、運転者による入力が検出された位置に表示されている被写体の位置を含み、移動体100からの実際の距離が等しくなる被写体の位置を示す複数の点の集合になる。図6(A)は、図5においてP1の位置に入力が検出され、当該位置に表示される被写体の位置を含み、移動体100からの実際の距離が等しくなる被写体の位置を示す複数の点が結ばれた参照線δ1を示している。運転者は、この参照線δ1を視認することによって、映像上で自らが入力した位置に表示される被写体の位置と同じ距離だけ移動体100から離れた位置を、表示部16上で表示された映像全体において容易に認識することができる。
 このように、本実施形態において、カメラ制御部14は、カメラ12により撮影された映像を出力している最中に、当該映像における所定の位置が指示される入力を検出すると、所定の情報を重畳するように制御する。ここで、所定の情報とは、カメラ12により撮影された映像の被写体と移動体100との間の距離に関する情報のうち当該指示された位置に対応する情報である。特に、本実施形態においては、前記所定の情報は、前記指示された位置に表示されている前記被写体と移動体100との間の距離が、カメラ12により撮影された映像の被写体と移動体100との間の距離に等しくなる点を線状につないだ参照線とする。具体的には、例えば図5において、P1の位置に対応する座標を図3で述べた要領で特定し、当該特定された座標に対応する図4に示した座標の値を読み出す。さらに図4において、読み出した値と同じ値を有する座標を抽出する。抽出された一連の座標について、対応する点を結ぶことにより図6(A)に示す参照線δ1を得る。
 図6(A)に示すような参照線δ1が表示された後で、運転者が移動体100を進行させると、カメラ12により撮影される映像は、当然ながら撮影箇所が進行方向に沿って移動するため、表示部16において、移動体100の進行に伴って移動する。この場合、運転者による入力が検出された位置も移動体100の進行に伴って表示部16上で移動するため、参照線δも移動させて表示した方が運転者の安全確認の補助に資すると考えられる。そこで、カメラ制御部14は、例えば運転者による入力が検出された位置が、図4に示したような座標上で移動したら、当該移動した座標についての参照線を重畳するように制御するのが好適である。
 このようにすれば、図6(A)に示す状況から運転者が移動体100を進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図6(B)に示すように、参照線も参照線δ1からδ2に変化する。ここでは、移動体100が進行しているため、表示部16において、参照線は徐々に手前に近付いてくるように表示される。また、表示部16において、参照線δ1が表示される位置と、参照線δ2が表示される位置とでは歪みの度合いが異なるため、参照線δ1と参照線δ2とは、曲率が異なる参照線として表示される。図6(B)に示す状況から運転者が移動体100をさらに進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図6(C)に示すように、参照線も参照線δ2からδ3に変化する。
 このように、本実施形態において、カメラ制御部14は、移動体100が移動してカメラ12により撮影される映像が変化するのに追従させて、参照線がカメラ12により撮影された映像の歪みに応じた曲率になるように制御する。
 さらに、このように参照線を変化させて表示する場合、当該参照線が移動体100に近付くにつれて、例えば参照線の色、線種、点滅の有無および態様など、表示態様を適宜変更させて、移動体100の運転者に注意を喚起するのが望ましい。例えば、図6(A)に示す状況において参照線は緑色であるが、図6(B)に示す状況において参照線は黄色に変化し、図6(C)に示す状況において参照線は赤色に変化させることができる。このように、カメラ制御部14は、前記指示された位置における前記被写体と移動体100との間の距離に応じて、前記所定の情報の表示態様を変化させて重畳するように制御するのが好ましい。
(第2実施形態)
 次に、本発明の第2実施形態について説明する。
 第2実施形態は、上述した第1実施形態と同様の基本原理に従って、入力検出部60が操作者の入力を検出する際の処理、および参照線が表示される位置を変更するものである。これらの相違点以外は、上述した第1実施形態と同様の構成により実施することができるため、第1実施形態と同じ内容になる説明は、適宜省略する。
 本実施形態では、表示部16に表示された映像において所定の位置を指示する操作者の入力が入力検出部60により検出されたら、カメラ制御部14は、当該入力が検出された位置に、路面以外の障害物などの所定の物体が表示されていないか否かを判定する。ここで、表示部16に表示される映像において、路面以外の障害物などの所定の物体が存在するか否かは、例えば輪郭検出などによる種々の画像認識の技術を適用することができる。
 表示部16において、路面以外に表示された障害物などの物体が高さを有する場合、当該物体の接地点以外の位置においては、当該物体から移動体100までの実際の距離と、当該物体周囲に表示される路面から移動体100までの実際の距離とが一致しない。したがって、本実施形態においては、障害物などの所定の物体の位置を操作者が指示する入力が検出されたら、当該所定の物体の接地点の位置に参照線を重畳する。
 例えば、図7に示すように、運転者が表示部16に表示された映像のパイロン200の中腹あるいは先端部分の位置を接触する入力が検出されたとする。このような場合であっても、カメラ制御部14は、画像認識によりパイロン200が所定の物体であると認識すると、パイロン200が路面と接地する点付近であって移動体100に最も近い位置を基準として参照線を重畳する。ここで「パイロン200が路面と接地する点付近であって移動体100に最も近い位置」とは、物体認識された領域のうち、Y座標軸中の最下段かつX座標軸上の中央、つまり座標(X,Y)=(319,479)に最も近い座標(最近点)であることが好ましい。あるいはより単純に、物体認識された領域の最下段の座標(最下点)であってもよい。
 図8(A)は、図7においてパイロン200の位置に入力が検出され、パイロン200が路面と接地する点付近であって移動体100に最も近い位置(最近点あるいは最下点)を基準とした参照線δ4を示している。運転者は、この参照線δ4を視認することによって、映像上で自らが接触して入力した位置に表示されているパイロン200が接地している点であって移動体100に最も近い位置を、表示部16上で表示された映像全体において容易に認識することができる。
 本実施形態においても、図8(A)に示す状況から運転者が移動体100を進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図8(B)に示すように、参照線も参照線δ4からδ5に変化させるのが望ましい。この場合、図8(B)に示す状況から運転者が移動体100をさらに進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図8(C)に示すように、参照線も参照線δ5からδ6に変化する。
 このように、本実施形態において、カメラ制御部14は、入力が検出された位置に所定の物体が存在することが認識された場合、当該所定の物体の接地点付近かつ移動体100に最も近い位置を基準として、所定の情報を重畳するように制御する。この場合、カメラ制御部14は、移動体100が移動してカメラ12により撮影される映像が変化するのに追従させて、前記所定の情報の位置を変化させて重畳するように制御するのが好ましい。また、本実施形態においても、カメラ制御部14は、操作者の入力により指示された位置における前記被写体と移動体100との間の距離に応じて、前記所定の情報の表示態様を変化させて重畳するように制御するのが好ましい。
 本実施形態において、操作者による入力が検出された位置に障害物などの所定の物体が認識されない場合、操作者は所定の物体ではなく路面までの位置を基準とした参照線の表示を所望しているとみなして、第1実施形態で説明した処理を行うことができる。
(第3実施形態)
 次に、本発明の第3実施形態について説明する。
 第3実施形態は、上述した第1実施形態と同様の基本原理に従って、表示部16に所定の参照線を表示する代わりに、所定の参照値を表示する。この相違点以外は、上述した第1実施形態と同様の構成により実施することができるため、第1実施形態と同じ内容になる説明は、適宜省略する。
 本実施形態では、所定の位置を指示する操作者の入力が入力検出部60により検出されたら、カメラ制御部14は、図4に示したような対応に基づいて、当該位置の被写体と移動体100との間の距離を記憶部50から読み出す。このようにして入力が検出された座標における当該位置の被写体と移動体100との間の距離が読み出されたら、カメラ制御部14は、その距離の数値を参照値として、カメラ12により撮影された映像に重畳して出力するように制御する。この場合、カメラ制御部14は、当該参照値を、入力が検出された座標の真上または右側など、入力が検出された座標の直近に重畳するように制御するのが好ましい。また、入力が検出された位置の被写体と移動体100との間の距離の数値を記憶部50から読み出した際に、当該数値を例えば近似値にしたり、単位を変更したりして、移動体100の運転者などの操作者に見易い参照値にするのが好適である。
 例えば、図9に示すように、運転者が表示部16に表示された位置P3において接触する入力が検出されたとする。すると、図10(A)に示すように、当該接触する入力が検出された位置を基準として、当該位置の被写体と移動体100との間の実際の距離(3m)が、参照値δ7として表示部16に表示される。運転者は、この参照δ7を視認することによって、映像上で自らが入力した位置が、移動体100からどれだけ離れているかを、表示部16上で容易に認識することができる。
 本実施形態においても、図10(A)に示す状況から運転者が移動体100を進行させると、その進行速度に応じてカメラ12により撮影される映像が表示部16において移動するとともに、図10(B)に示すように、参照値もδ7からδ8(2m)に変化させるのが望ましい。すなわち、移動後の位置に対応する座標を図3および図4に示した例のようにして特定し、この特定された座標に対応する値を読み出す。同様に、図10(B)に示す状況から運転者が移動体100をさらに進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図10(C)に示すように、参照値もδ8からδ9(1m)に変化する。本実施形態においても、参照値を変化させて表示する場合、当該参照値が示す距離が移動体100に近付くにつれて、例えば参照値の色、囲み表示の線種、点滅の有無および態様など、表示態様を適宜変更させて、移動体100の運転者に注意を喚起するのが望ましい。
 このように、本実施形態において、カメラ制御部14は、所定の情報を、操作者の入力により指示された位置における被写体と移動体100との間の距離を数値で表した参照値として重畳するように制御する。
 上述した実施形態においては、カメラ12により撮影された映像は、魚眼レンズ等の画角の広いレンズを備える1つのカメラにより撮影された映像であることを想定して説明した。しかしながら、本発明は上述した実施形態に限定されるものではなく、カメラ12により撮影された映像が、複数のカメラ12により撮影された映像を合成したものとすることもできる。
 このように、複数のカメラ12により撮影された映像を組み合わせて合成すると、映像同士を組み合わせた部分は、撮影した映像がなめらかに合成されないことも想定される。本実施形態によれば、このような合成の態様に対応する参照線を演算したり予め記憶したりすることにより、運転者は、なめらかに合成されていない映像を表示部16に表示する場合においても、映像の歪み具合を容易に把握することができる。
 以上説明したように、本発明は、カメラ12により撮影された映像に、単純な画像により構成される参照線または参照値を重畳する制御を行う。これにより、運転者は、車載カメラにより広角撮影された映像において方向感覚および距離感を正しく把握することができる。
 本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能である。また、本発明を方法の発明として実施する場合にも、複数の手段やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
 また、上述した実施形態においては、カメラ制御部14が、取得したカメラ12の映像に参照線が重畳されて出力される処理が行われるように制御を行った。この場合には、カメラ制御部14から出力される映像のデータは、すでに参照線の画像データが重畳された状態で出力される。しかしながら、本発明は、上述した実施形態に限定されるものではなく、例えば、カメラ制御部14は、カメラ12が撮影した映像をそのまま出力してもよい。この場合、例えば制御部30が、取得したカメラ12の映像に参照線が重畳されて出力される処理が行われるように制御することができる。
 また、上述した第1および第2実施形態では、図6および図8の説明において、移動体100が進行する際、映像が表示部16において移動するとともに参照線も移動する態様について説明した。この場合、参照線は、移動するたびに、図4に示すような対応表から被写体と移動体100との間の距離を読み出すことにより、新たな参照線として書き換えることを想定して説明した。このような処理を例えば参照線が1画素移動するたびに行うとすると、映像処理装置40の処理速度があまり速くない場合には、処理負荷が高くなることも想定される。
 したがって、上述した第1および第2実施形態において、表示部16において映像が移動するとともに参照線も移動させる場合、所定の範囲の移動であれば、参照線の書き換えを行わずに、同じ曲率の参照線を単に移動させる処理とすることもできる。この場合、例えば図11に示すように、表示部16に表示される映像を例えば領域(1)から(7)などのいくつかの領域に仮想的に分割することより、それぞれの領域内においては、参照線の書き換えを行わないようにする。それぞれの領域内においては、当該領域内で最初に重畳するために生成した参照線を表示した後そのまま移動させるか、または当該領域内で予め用意した曲率の参照線を表示した後そのまま移動させる。そして、ある領域から次の領域にまたがった際に、当該次の領域内で最初に重畳するための参照線を生成するか、または当該次の領域内で予め用意した曲率の参照線を表示する。
 このように、本発明において、カメラ制御部14は、カメラ12により撮影された映像を被写体と移動体100との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の参照線を表示するように制御してもよい。このようにすれば、カメラ制御部14および/または制御部30を中心とする各機能部の処理負荷を低減させる効果が期待できる。
 さらに、上述した各実施形態において、図3および図5において説明したようなガイド線α、β、γ等は、移動体100が進行する方向などの基準となる線として示したが、本発明において、このようなガイド線は必須のものではなく、表示部16に表示しないようにすることもできる。
 また、上述した各実施形態において、これらのガイド線を重畳させて表示部16に表示する際には、移動体100のステアリングが操作されるのに応じて、表示部16においてガイド線を変化させることもできる。例えば図5においては、移動体100がまっすぐに進行することを想定して、ガイド線βRおよびβLを表示してある。しかしながら、例えば運転者が移動体100を後進させつつ右または左に曲がる場合、これらのガイド線ガイド線βRおよびβLは、移動体100が曲がる方向に向かって方向および曲率などを変更させて表示することもできる。
 このように、本発明において、カメラ制御部14は、カメラ12により撮影された映像に前記所定の情報を重畳する際に、移動体100の進路を示唆するガイド線を重畳するように制御することもできる。また、この場合において、カメラ制御部14は、移動体100のステアリングの舵角に応じて、前記ガイド線を変化させて重畳するように制御することもできる。
 10 バス
 12 カメラ
 14 カメラ制御部
 16 表示部
 18 イグニッションスイッチ
 20 舵角センサ
 22 ブレーキセンサ
 24 GPS
 26 ライト
 28 スピーカ
 30 制御部
 40 映像処理装置
 50 記憶部
 60 入力検出部
 100 移動体(自動車)
 
 

Claims (17)

  1.  移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理装置であって、
     前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御する制御部を備えることを特徴とする、映像処理装置。
  2.  前記制御部は、前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御する、請求項1に記載の映像処理装置。
  3.  前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記参照線が前記カメラにより撮影された映像の歪みに応じた曲率になるように制御する、請求項2に記載の映像処理装置。
  4.  前記制御部は、前記カメラにより撮影された映像を前記被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の参照線を表示するように制御する、請求項2に記載の映像処理装置。
  5.  前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を記憶する記憶部をさらに備え、
     前記制御部は、前記記憶部に記憶された前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を読み出して、前記所定の情報を重畳するように制御する、請求項1に記載の映像処理装置。
  6.  前記制御部は、前記所定の情報を、前記指示された位置における前記被写体と前記移動体との間の距離を数値で表した参照値として重畳するように制御する、請求項1に記載の映像処理装置。
  7.  前記制御部は、前記入力が検出された位置に所定の物体が存在することが認識された場合、当該所定の物体の接地点付近かつ前記移動体に最も近い位置を基準として、前記所定の情報を重畳するように制御する、請求項1に記載の映像処理装置。
  8.  前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記重畳する所定の情報の位置を変化させるように制御する、請求項1に記載の映像処理装置。
  9.  前記制御部は、前記指示された位置における前記被写体と前記移動体との間の距離に応じて、前記重畳する所定の情報の表示態様を変化させて重畳するように制御する、請求項8に記載の映像処理装置。
  10.  前記制御部は、前記カメラにより撮影された映像に前記所定の情報を重畳する際に、前記移動体の進路を示唆するガイド線を重畳するように制御する、請求項1に記載の映像処理装置。
  11.  前記制御部は、前記移動体のステアリングの舵角に応じて、前記ガイド線を変化させて重畳するように制御する、請求項10に記載の映像処理装置。
  12.  タッチパネルにより構成される入力検出部を備え、
     前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御する、請求項1に記載の映像処理装置。
  13.  操作キーにより構成される入力検出部を備え、
     前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御する、請求項1に記載の映像処理装置。
  14.  前記カメラにより撮影された映像は、魚眼レンズを備えるカメラにより撮影された映像である、請求項1に記載の映像処理装置。
  15.  前記カメラにより撮影された映像は、複数のカメラにより撮影された映像を合成したものである、請求項1に記載の映像処理装置。
  16.  移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理方法であって、
     前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御する制御ステップを含むことを特徴とする、映像処理方法。
  17.  移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラと、
     前記カメラにより撮影された映像に所定の情報を重畳する制御部と、
     前記カメラにより撮影された映像および前記所定の情報を表示する表示部と、
     前記表示部に表示された映像における所定の位置が指示される入力を検出する入力検出部と、
     を含む映像表示システムであって、
     前記制御部は、前記表示部が前記カメラにより撮影された映像を表示している状態下において、当該映像における所定の位置が指示される入力を前記入力検出部が検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御することを特徴とする、映像表示システム。
     
PCT/JP2013/001176 2012-02-27 2013-02-27 映像処理装置、映像処理方法、および映像表示システム WO2013128917A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/381,074 US10118566B2 (en) 2012-02-27 2013-02-27 Image processing device, image processing method, and image display system
EP13754749.3A EP2822273B1 (en) 2012-02-27 2013-02-27 Video processing device, video processing method, and video display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012040695A JP6045796B2 (ja) 2012-02-27 2012-02-27 映像処理装置、映像処理方法、および映像表示システム
JP2012-040695 2012-02-27

Publications (1)

Publication Number Publication Date
WO2013128917A1 true WO2013128917A1 (ja) 2013-09-06

Family

ID=49082129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/001176 WO2013128917A1 (ja) 2012-02-27 2013-02-27 映像処理装置、映像処理方法、および映像表示システム

Country Status (4)

Country Link
US (1) US10118566B2 (ja)
EP (1) EP2822273B1 (ja)
JP (1) JP6045796B2 (ja)
WO (1) WO2013128917A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255706B2 (ja) * 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
JP6244954B2 (ja) 2014-02-06 2017-12-13 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
DE102014008578B4 (de) * 2014-06-12 2016-02-18 Audi Ag Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
KR102190891B1 (ko) * 2014-09-22 2020-12-14 에스엘 주식회사 차량의 주변 감시 장치 및 방법
CN104822042B (zh) * 2015-03-03 2018-07-06 广东欧珀移动通信有限公司 一种基于摄像头的行人安全检测方法及装置
US9505404B2 (en) * 2015-04-10 2016-11-29 Jaguar Land Rover Limited Collision avoidance system
CA2987558A1 (en) * 2015-05-29 2016-12-08 Nissan Motor Co., Ltd. Information presentation system
JP2017154530A (ja) * 2016-02-29 2017-09-07 株式会社オートネットワーク技術研究所 車載機及び車両保安システム
KR101809919B1 (ko) 2016-09-26 2017-12-20 주식회사 와이즈오토모티브 운전 보조 장치 및 방법
JP6747369B2 (ja) * 2016-09-26 2020-08-26 株式会社Jvcケンウッド 表示制御装置、表示制御方法及びプログラム
EP3584120B1 (en) * 2017-02-17 2021-04-14 Sumitomo Heavy Industries, Ltd. Work machine surroundings monitoring system
JP6349558B1 (ja) * 2017-05-12 2018-07-04 パナソニックIpマネジメント株式会社 撮像システム及び表示システム
JPWO2020105698A1 (ja) * 2018-11-22 2021-10-21 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、カメラシステム及び画像処理方法
CN110855883B (zh) * 2019-11-05 2021-07-20 浙江大华技术股份有限公司 一种图像处理系统、方法、装置设备及存储介质
DE102020107016B4 (de) * 2020-03-13 2024-06-20 Mekra Lang Gmbh & Co. Kg Verfahren zum Verifizieren eines indirekten Sichtsystems sowie indirektes Sichtsystem eines Fahrzeugs
JP2024062176A (ja) * 2022-10-24 2024-05-09 株式会社クボタ 作業機の遠隔操作支援システム、遠隔装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315299A (ja) * 1995-05-19 1996-11-29 Honda Motor Co Ltd 車両の外部環境認識装置
JP2003141693A (ja) * 2001-11-01 2003-05-16 Neptune:Kk 車両安全確認装置
JP2006311222A (ja) 2005-04-28 2006-11-09 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2006330745A (ja) * 2006-06-28 2006-12-07 Sony Corp 電子地図表示装置、電子地図表示方法およびナビゲーション装置
JP2007116377A (ja) * 2005-10-19 2007-05-10 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2009187181A (ja) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd 車両用画像処理装置及び車両用画像処理方法
JP2010287163A (ja) * 2009-06-15 2010-12-24 Alpine Electronics Inc 車載用画像表示装置および画像のトリミング方法
WO2011154987A1 (ja) * 2010-06-07 2011-12-15 三菱電機株式会社 カメラ距離測定装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003093857A2 (en) * 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
WO2009036176A1 (en) 2007-09-11 2009-03-19 Magna Electronics Imaging system for vehicle
DE102009051055A1 (de) 2008-10-28 2010-07-15 Volkswagen Ag Parkassistenzsystem und Verfahren zum Betreiben eines Parkassistenzsystems für ein Kraftfahrzeug
JP2010187163A (ja) * 2009-02-12 2010-08-26 Mitsubishi Plastics Inc 電機音響変換器用振動板及び該振動板用積層フィルム
EP2481637B1 (en) * 2011-01-28 2014-05-21 Nxp B.V. Parking Assistance System and Method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315299A (ja) * 1995-05-19 1996-11-29 Honda Motor Co Ltd 車両の外部環境認識装置
JP2003141693A (ja) * 2001-11-01 2003-05-16 Neptune:Kk 車両安全確認装置
JP2006311222A (ja) 2005-04-28 2006-11-09 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2007116377A (ja) * 2005-10-19 2007-05-10 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2006330745A (ja) * 2006-06-28 2006-12-07 Sony Corp 電子地図表示装置、電子地図表示方法およびナビゲーション装置
JP2009187181A (ja) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd 車両用画像処理装置及び車両用画像処理方法
JP2010287163A (ja) * 2009-06-15 2010-12-24 Alpine Electronics Inc 車載用画像表示装置および画像のトリミング方法
WO2011154987A1 (ja) * 2010-06-07 2011-12-15 三菱電機株式会社 カメラ距離測定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2822273A4

Also Published As

Publication number Publication date
US20150009285A1 (en) 2015-01-08
EP2822273A4 (en) 2015-11-04
JP6045796B2 (ja) 2016-12-14
JP2013176024A (ja) 2013-09-05
EP2822273B1 (en) 2017-12-27
US10118566B2 (en) 2018-11-06
EP2822273A1 (en) 2015-01-07

Similar Documents

Publication Publication Date Title
JP6045796B2 (ja) 映像処理装置、映像処理方法、および映像表示システム
US10268905B2 (en) Parking assistance apparatus
JP6346614B2 (ja) 情報表示システム
JP5099451B2 (ja) 車両周辺確認装置
JP5212748B2 (ja) 駐車支援装置
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
JP5523448B2 (ja) 運転支援システム、情報表示装置、及び情報表示プログラム
JP4904997B2 (ja) 駐車支援方法及び駐車支援装置
JP2007183877A (ja) 車両用運転支援装置及び俯瞰映像の表示方法
WO2019008764A1 (ja) 駐車支援方法及び駐車支援装置
JP4910425B2 (ja) 駐車支援装置及び駐車支援方法
WO2018070298A1 (ja) 表示制御装置
JP5516988B2 (ja) 駐車支援装置
JP7067225B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法、およびプログラム
JP2009083680A (ja) 駐車支援装置および駐車支援方法
US11208147B2 (en) Parking assistance device, parking assistance method, and non-transitory computer readable medium
JP5309891B2 (ja) 駐車支援装置
WO2018061261A1 (ja) 表示制御装置
JP7006460B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法、およびプログラム
JP4769631B2 (ja) 車両運転支援装置および車両運転支援方法
JP6448714B2 (ja) 情報表示システム
JP4677820B2 (ja) 予測進路表示装置および予測進路表示方法
JP2012166689A (ja) 運転支援装置
JP6573218B2 (ja) 車両用画像表示装置及び設定方法
US20220086368A1 (en) Vehicular display system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13754749

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14381074

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013754749

Country of ref document: EP