WO2023037628A1 - 信号処理装置、および信号処理方法、並びにプログラム - Google Patents

信号処理装置、および信号処理方法、並びにプログラム Download PDF

Info

Publication number
WO2023037628A1
WO2023037628A1 PCT/JP2022/013432 JP2022013432W WO2023037628A1 WO 2023037628 A1 WO2023037628 A1 WO 2023037628A1 JP 2022013432 W JP2022013432 W JP 2022013432W WO 2023037628 A1 WO2023037628 A1 WO 2023037628A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
captured image
unit
time
Prior art date
Application number
PCT/JP2022/013432
Other languages
English (en)
French (fr)
Inventor
卓也 山口
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023037628A1 publication Critical patent/WO2023037628A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a signal processing device, a signal processing method, and a program.
  • a device such as an automatic driving vehicle that analyzes camera-captured images and automatically travels, whether the objects in the camera-captured image are not real objects such as actual roads but drawn objects such as photographs and drawings
  • the present invention relates to a signal processing device, a signal processing method, and a program for analyzing whether or not.
  • Object detection processing in an automatic driving vehicle is often performed, for example, by analyzing an image captured by a camera provided in the vehicle. It analyzes images taken in the direction in which the vehicle is traveling, detects various objects such as oncoming vehicles and preceding vehicles that act as obstacles, as well as pedestrians and roadside trees. Control speed.
  • Patent Literature 1 International Publication No. WO2020/110915 discloses a conventional technique that discloses automatic driving based on camera-captured images.
  • the camera is not a stereo camera capable of calculating an object distance with high precision, but a monocular camera
  • the following problems occur when running control is performed based on images captured by the camera.
  • the distance to the "drawing object" such as the picture or picture cannot be calculated, the road drawn in the "drawing object” may be mistakenly recognized as a real road.
  • the self-driving vehicle crashes into the wall trying to drive on the road pictured on the wall.
  • the present disclosure has been made, for example, in view of the above problems. It aims at providing a processing method and a program.
  • a first aspect of the present disclosure includes: An image signal analysis unit that inputs a photographed image taken by a monocular camera mounted on a vehicle and determines whether an object in the photographed image is a real object or a drawing object by image analysis of the inputted photographed image. in the signal processor.
  • a second aspect of the present disclosure is A signal processing method to be executed in a signal processing device,
  • the image signal analysis unit An image captured by a monocular camera mounted on a vehicle is input, and image signal analysis processing is performed to determine whether an object in the captured image is a real object or a drawing object by image analysis of the input captured image.
  • a third aspect of the present disclosure is A program for executing signal processing in a signal processing device,
  • An image captured by a monocular camera mounted on a vehicle is input, and image signal analysis processing is performed to determine whether an object in the captured image is a real object or a drawing object by image analysis of the input captured image.
  • image signal analysis processing is performed to determine whether an object in the captured image is a real object or a drawing object by image analysis of the input captured image.
  • the program of the present disclosure is, for example, a program that can be provided in a computer-readable format to an information processing device or computer system capable of executing various program codes via a storage medium or communication medium.
  • processing according to the program is realized on the information processing device or computer system.
  • a system is a logical collective configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same housing.
  • a configuration is realized in which a photographed image photographed by a monocular camera is analyzed to determine whether an object in the photographed image is a real object or a drawing object.
  • a photographed image photographed by a monocular camera is analyzed to determine whether an object in the photographed image is a real object or a drawing object.
  • an image captured by a monocular camera mounted on a vehicle is analyzed to determine whether an object in the captured image is a real object or a drawn object.
  • the image signal analysis unit detects when the amount of change per unit time of the FOE (point of infinity) position in the captured image is equal to or greater than a specified threshold value, or when the amount of change per unit time of the lane width detected from the captured image is If it is greater than or equal to a specified threshold value, or if the difference between the ground level position of the vehicle in the captured image and the ground level position corresponding to the ground level position of the vehicle is greater than or equal to the specified threshold value, the object in the captured image becomes a drawing object. It is determined that This configuration realizes a configuration in which a captured image captured by a monocular camera is analyzed to determine whether an object in the captured image is a real object or a drawn object. Note that the effects described in this specification are merely examples and are not limited, and additional effects may be provided.
  • FIG. 2 is a diagram illustrating an example of a drawing object such as a photograph or a picture of a landscape including a road drawn on a wall of a parking lot
  • FIG. 4 is a diagram illustrating an example of an image of a drawing object captured by a camera of an automatic driving vehicle; It is a figure explaining the example of composition of the signal processor of this indication.
  • FIG. 2 is a diagram illustrating an example of a drawing object such as a photograph or a picture of a landscape including a road drawn on a wall of a parking lot
  • FIG. 4 is a diagram illustrating an example of an image of a drawing object captured by a camera of an automatic driving vehicle
  • It is a figure explaining the example of composition of the signal processor of this indication.
  • FIG. 3 is a diagram illustrating a detailed configuration example of an image analysis unit in an image signal analysis unit of the signal processing device of the present disclosure; It is a figure explaining the example of the FOE (point at infinity) position which an FOE (point at infinity) position detection part detects. It is a figure explaining the example of the ground level (road surface position) which a ground level detection part detects. It is a figure explaining the example of the ground level (road surface position) which a ground level detection part detects. It is a figure explaining the specific example of the FOE (point at infinity) position detected by the FOE (point at infinity) position detection part, and the ground level (road surface position) detected by the ground level detection part.
  • FIG. 3 is a diagram illustrating a detailed configuration example of a drawing object determination unit in an image signal analysis unit of the signal processing device of the present disclosure
  • FIG. 10 is a diagram illustrating a specific example of temporal change of FOE (point of infinity) position in a captured image when the captured image is a real object
  • FIG. 10 is a diagram illustrating a specific example of temporal change of FOE (point of infinity) position in a photographed image when the photographed image is a drawing object
  • FIG. 2 is a diagram for explaining in comparison with .
  • FIG. 1 is a diagram illustrating a specific example of temporal change of FOE (point of infinity) position in a captured image when the captured image is a real object
  • FIG. 10 is a diagram illustrating a specific example of temporal change
  • FIG. 4 is a diagram illustrating a specific example of temporal change in lane width of a vehicle travel lane in a photographed image when the photographed image is a real object;
  • FIG. 4 is a diagram illustrating a specific example of temporal change in lane width of a vehicle travel lane in a photographed image when the camera photographed image is a drawing object;
  • the lane width changes over time when the vehicle's camera captures a real object including the actual road and when capturing a drawing object including the road such as a photo or picture. It is a figure which demonstrates in contrast.
  • FIG. 10 is a diagram illustrating a specific example of the relationship between the ground level detected from a photographed image when the camera photographed image is a real object, and the ground level of the vehicle in the photographed image;
  • FIG. 10 is a diagram illustrating a specific example of the relationship between the ground level detected from a photographed image when the camera photographed image is a real object, and the ground level of the vehicle in the photographed image;
  • FIG. 10 is a
  • FIG. 10 is a diagram illustrating a specific example of the relationship between the ground level detected from the captured image when the camera captured image is a drawing object and the ground level of the vehicle in the captured image;
  • the vehicle camera is shooting real objects including the actual road, and when shooting drawing objects including roads such as photos and pictures, the ground level and the vehicle in the captured image will change over time.
  • 4 is a diagram illustrating a detailed configuration example of an object analysis unit in an image signal analysis unit of the signal processing device of the present disclosure;
  • FIG. FIG. 4 is a diagram showing a flowchart describing a sequence of processing executed by the signal processing device of the present disclosure;
  • FIG. 4 is a diagram showing a flowchart describing a sequence of processing executed by the signal processing device of the present disclosure; It is a figure explaining the hardware structural example of the signal processing apparatus of this indication.
  • FIG. 1 shows a vehicle 10 that performs automatic driving.
  • a camera 12 is mounted on the vehicle 10 .
  • the vehicle 10 analyzes the image captured by the camera 12, detects and analyzes various objects in the direction of travel of the vehicle, and performs automatic driving while searching for a safe driving route.
  • An image captured by the camera 12 is, for example, a captured image 20 as shown in FIG.
  • a signal processing device in the vehicle 10 analyzes a photographed image 20 as shown in FIG. , preceding vehicles, pedestrians, and roadside trees are detected, and the travel route and speed of the vehicle 10 are controlled so as not to collide with these objects.
  • the object 21 in the captured image 20 shown in FIG. 2 is the preceding vehicle, and the object 22 is the roadside tree.
  • a signal processor in the vehicle 10 controls the travel route and speed of the vehicle 10 so as not to collide with these objects.
  • the signal processing device in the vehicle 10 detects lines such as the center line on the road, roadside strips, lane boundaries, etc. Based on these lines, the vehicle 10 recognizes the lane in which the vehicle 10 is traveling, Control to run one driving lane. For example, control is performed such that the vehicle 10 travels at a position separated by a certain distance from the lines on both sides of the lane in which the vehicle 10 is traveling.
  • the camera 12 is a monocular camera instead of a stereo camera capable of calculating an object distance with high accuracy
  • the following problems occur when running control is performed based on images captured by the camera. This is a problem in which a road drawn in a "drawing object" such as a photograph or a picture, which is not an actual road, is mistakenly recognized as a real road.
  • FIG. 3 shows a state in which a vehicle 10 that automatically operates enters the parking lot of a restaurant.
  • a "drawing object 30" such as a photograph or picture of a landscape including a road is drawn or pasted on the wall of the parking lot of the restaurant.
  • the camera 12 of the vehicle 10 photographs this "drawing object 30".
  • a captured image is input to a signal processing device in the vehicle 10 .
  • a signal processing device mistakenly recognizes a road drawn in a "drawing object” such as a photograph or a picture as an actual road. When such a misrecognition occurs, the self-driving car, trying to follow the road pictured on the wall, drives straight toward the wall of the restaurant and crashes into it.
  • the image captured by the camera 12 of the vehicle 10 is, for example, a captured image 40 as shown in FIG.
  • This photographed image 40 is a drawing object such as a photograph or a picture drawn or pasted on the wall of the restaurant.
  • the signal processing device in the vehicle 10 may judge the road included in the photographed image 40 as the actual road, and in this case, the vehicle 10 may go straight toward the wall.
  • the present disclosure solves the above problems. That is, it is possible to analyze whether the road or the like in the captured image of the camera is a real object or a drawing object such as a photograph or a picture.
  • a signal processing device, a signal processing method, and a program according to the present disclosure will be described below.
  • FIG. 5 is a diagram illustrating a configuration example of the signal processing device of the present disclosure.
  • the signal processing device 100 has an image sensor (imaging unit) 101 , an image signal analysis unit 102 , a vehicle control unit 103 , an input unit 104 and a control unit 105 .
  • the image signal analysis unit 102 has an image analysis unit 111 , a drawing object determination unit 112 , an object analysis unit 113 and an output unit 114 .
  • An image sensor (imaging unit) 101 is an image sensor in the camera 12 mounted on the vehicle 10 shown in FIG. Note that the camera 12 used in the signal processing device 100 of the present disclosure is a monocular camera. An image captured by an image sensor (imaging unit) 101 in a monocular camera is input to an image signal analysis unit 102 .
  • the image signal analysis unit 102 analyzes the captured image input from the image sensor (imaging unit) 101 . For example, the types and distances of various objects included in the captured image are analyzed. For example, it detects various objects such as oncoming vehicles and preceding vehicles that can be obstacles, as well as pedestrians and roadside trees.
  • the image analysis unit 111 executes analysis processing of the captured image input from the image sensor (imaging unit) 101 .
  • (e) Vehicle traveling direction detection process These processes are executed. Details of these processes will be described later.
  • the analysis result of the captured image by the image analysis unit 111 is output to the drawing object determination unit 112, the object analysis unit 113, and the output unit 114.
  • the drawing object determination unit 112 determines whether the object included in the photographed image of the camera 12 (the camera having the image sensor 101) mounted on the vehicle 10 is an actual road or the like. It is determined whether it is an object or a drawing object such as a photograph or a picture. The details of this processing will be described later.
  • the object analysis unit 113 analyzes the types and distances of various objects included in the captured image based on the captured image analysis result of the image analysis unit 111 .
  • object information such as the position, distance (distance from the camera), type, and size of various objects such as oncoming vehicles and preceding vehicles that can be obstacles, pedestrians, and roadside trees are analyzed for each object.
  • a determination process of whether or not the vehicle 10 deviates from the driving lane, and an analysis process of an approaching state to an object that hinders driving are performed. Details of these processes will be described later.
  • An image analysis result by the image signal analysis unit 102 is output to the vehicle control unit 103 via the output unit 114 .
  • Vehicle control unit 103 outputs control information to vehicle system 200 .
  • the vehicle control unit 103 controls the travel route and speed of the vehicle based on the image analysis result by the image signal analysis unit 102 so as not to collide with the object.
  • Vehicle information and image sensor control information obtained from the vehicle system 200 are input to the input unit 104 .
  • the vehicle information includes vehicle speed, change speed information (yaw rate) of the rotation angle (yaw angle) that is the change speed of the direction of the vehicle, and the like.
  • the image sensor control information is composed of image capturing direction, angle of view, focal length control information, and the like.
  • Vehicle information input from the input unit 104 is input to the image signal analysis unit 102 via the control unit 105 .
  • Image sensor control information is input to the image sensor 101 via the control unit 105, and the image sensor 101 is adjusted.
  • the image signal analysis unit 102 analyzes the captured image input from the image sensor (imaging unit) 101 . For example, the types and distances of various objects included in the captured image are analyzed. For example, it detects various objects such as oncoming vehicles and preceding vehicles that can be obstacles, as well as pedestrians and roadside trees. Further, it is determined whether the object included in the photographed image is an actual object or a drawn object such as a photograph or a picture.
  • FIG. 6 shows a detailed configuration of the image analysis unit 111.
  • the image analysis section 111 has an object detection section 121 , a lane detection section 122 , an FOE (point of infinity) position detection section 123 , a ground level detection section 124 and a vehicle traveling direction detection section 125 .
  • FOE point of infinity
  • the object detection unit 121 analyzes the types and distances of various objects included in the captured image input from the image sensor (imaging unit) 101 . For example, object information such as the position, distance (distance from the camera), type, and size of various objects such as oncoming vehicles and preceding vehicles that can be obstacles, pedestrians, and roadside trees are analyzed for each object.
  • the object analysis information generated by the object detection unit 121 is output to the drawing object determination unit 112 and the object analysis unit 113 in the image signal analysis unit 102 .
  • the drawing object determination unit 112 inputs all of the object position information, object distance information, object type information, and object size information of each object included in the object analysis information generated by the object detection unit 121 .
  • the object analysis unit 113 inputs object position information and object distance information of each object included in the object analysis information generated by the object detection unit 121 .
  • the lane detection unit 122 analyzes the captured image input from the image sensor (imaging unit) 101 and detects the lane in which the vehicle is traveling.
  • the lane in which the vehicle is traveling corresponds to the travel lane 24 previously described with reference to FIG.
  • the lane detection unit 122 analyzes the captured image input from the image sensor (imaging unit) 101, detects lines such as the center line on the road, the roadside strip, and the lane boundary line, and detects the vehicle 10 based on these lines. Analyze the lane position of the driving lane and generate lane position information.
  • the lane position information generated by the lane detection unit 122 is sent to the FOE (point of infinity) position detection unit 123 in the image analysis unit 111, the ground level detection unit 124, and the drawing object determination unit 112 outside the image analysis unit 111, It is output to the object analysis unit 113 .
  • FOE point of infinity
  • the FOE (point of infinity) position detection unit 123 analyzes the captured image input from the image sensor (imaging unit) 101 and detects the FOE (point of infinity) position in the captured image.
  • a FOE Fluorescence of Expansion
  • the point at infinity is a point uniquely determined with respect to the optical axis of the camera. For example, straight road lines (roadside strips, median strips, etc.) are parallel line segments in the real world, and it is possible to detect, as an FOE, a point at infinity where these lines intersect in the captured image.
  • the FOE (point of infinity) position information detected by the FOE (point of infinity) position detection unit 123 is input to the ground level detection unit 124 and the drawing object determination unit 112 .
  • the ground level detection unit 124 analyzes the captured image input from the image sensor (imaging unit) 101 and detects the ground level (road surface position) in the captured image. Ground level position information (road surface position information) detected by the ground level detection unit 124 is input to the drawing object determination unit 112 .
  • the image shown in FIG. 7 is a captured image input from the image sensor (imaging unit) 101 by the image analysis unit 111 .
  • the FOE (point of infinity) position detection unit 123 detects the FOE (point of infinity) position from the captured image input from the image sensor (imaging unit) 101 .
  • FOE Flucus of Expansion
  • FOE is a point at infinity where parallel line segments intersect in a captured image in the real world.
  • the FOE (point of infinity) position detection unit 123 detects, for example, two roadside strips (lines) on both sides of the road surface on which the vehicle travels as shown in FIG. is detected, and this point is defined as the FOE (point at infinity) position.
  • the image shown in FIG. 8 is also a captured image input from the image sensor (imaging unit) 101 by the image analysis unit 111 .
  • the ground level detection unit 124 first analyzes the photographed image input from the image sensor (imaging unit) 101, and detects feature points indicating the position of the road surface from the photographed image. For example, two roadside strips (lines) and trees on both sides of the road surface on which the vehicle is traveling are detected as shown in FIG. Detect as
  • the ground level detection unit 124 uses the detected road surface characteristic points and the FOE (point of infinity) position information detected by the FOE (point of infinity) position detection unit 123 to determine the ground level position at each position of the captured image. (road surface position) is detected.
  • FOE point of infinity
  • FIG. 9 shows three diagrams (a), (b), and (c). Each figure shows the ground level (road surface position) at different positions in the captured image.
  • the ground level (road surface position) shown in FIG. 9A is the ground level (road surface position) at an image position spaced L1 from the FOE (point at infinity) position detected by the FOE (point at infinity) position detection unit 123. is.
  • the ground level (road surface position) at the image position spaced L1 from this FOE (point of infinity) position is the camera optical axis toward the FOE (point of infinity) position at the position of distance L1 from the FOE (point at infinity) position. It can be shown as a straight line that is orthogonal and connects road surface feature points. That is, the straight lines a1 to a2 shown in FIG. 9(a) are the ground level (road surface position) at the image position separated by L1 from the FOE (point at infinity) position.
  • ground level (road surface position) shown in FIG. is.
  • the ground level (road surface position) at the image position separated by L2 from this FOE (point of infinity) position is the camera optical axis toward the FOE (point of infinity) position at a position of distance L2 from the FOE (point at infinity) position. It can be shown as a straight line that is orthogonal and connects road surface feature points. That is, the straight lines b1 and b2 shown in FIG. 9B are the ground level (road surface position) at the image position spaced apart by L2 from the FOE (point at infinity) position.
  • the ground level (road surface position) shown in FIG. 9C is the ground level (road surface position) at the image position spaced L3 from the FOE (point at infinity) position detected by the FOE (point at infinity) position detection unit 123. is.
  • the ground level (road surface position) at the image position spaced L3 from this FOE (point of infinity) position is the camera optical axis toward the FOE (point of infinity) position at the position of distance L3 from the FOE (point of infinity) position. It can be shown as a straight line that is orthogonal and connects road surface feature points. That is, the straight lines c1 to c2 shown in FIG. 9(c) are the ground level (road surface position) at the image position spaced apart by L3 from the FOE (point at infinity) position.
  • the ground level (road surface position) at each image position in the captured image is detected using the FOE (point at infinity) position detected by the FOE (point at infinity) position detection unit 123 and the road surface characteristic point position information. can do.
  • the ground level detection unit 124 analyzes the photographed image input from the image sensor (imaging unit) 101 to detect the road surface characteristic points, and the detected road surface characteristic points and the FOE (point of infinity) position detection unit 123 Using the detected FOE (point of infinity) position information, the ground level position (road surface position) at each position of the captured image is detected.
  • the ground level position (road surface position) information detected by the ground level detection unit 124 is input to the drawing object determination unit 112 .
  • FIG. 10 is a diagram showing a specific example of the FOE (point of infinity) position detected by the FOE (point of infinity) position detection section 123 and the ground level (road surface position) detected by the ground level detection section 124 . These pieces of detection information are input to the drawing object determination unit 112 .
  • the vehicle travel direction detection unit 125 determines whether the vehicle 10 is traveling in the direction of the optical axis of the camera 12 attached to the vehicle 10 .
  • the vehicle traveling direction detection unit 125 detects the direction of the vehicle 10 based on the captured image input from the image sensor (imaging unit) 101 and the vehicle information input from the vehicle system 200 via the input unit and the control unit 195 . It is determined whether or not the vehicle is traveling in the direction of the optical axis of the camera 12 attached to the vehicle. Vehicle traveling direction analysis information, which is the determination result, is input to the drawing object determination unit 112 .
  • the processing by the drawing object determination unit 112 that is, the processing for determining whether an object in the captured image is an actual object or a drawing object such as a photograph or a picture based on an image captured by the camera 12 is performed by the vehicle 10 . is executed only when it is confirmed that the vehicle 10 is traveling in the direction of the optical axis of the camera 12 mounted on the vehicle 10 .
  • the object in the captured image is determined based on the image captured by the camera 12 to be an actual object or a drawing object such as a photograph or a picture. It is possible to perform processing to determine whether However, when the vehicle 10 is not traveling in the direction of the optical axis of the camera 12, the object in the captured image is determined based on the image captured by the camera 12, whether it is an actual object or a drawing object such as a photograph or a picture. This is because the process of determining whether or not there is any is difficult.
  • the drawn object determination unit 112 determines whether the object included in the photographed image of the camera 12 (the camera having the image sensor 101) mounted on the vehicle 10 is actually an object. It is determined whether the object is a real object such as a road or a drawing object such as a photograph or a picture.
  • the determination processing by the drawing object determination unit 112 is performed only when it is confirmed that the vehicle 10 is traveling in the direction of the optical axis of the camera 12 mounted on the vehicle 10 .
  • the vehicle 10 when the vehicle 10 is not traveling in the direction of the optical axis of the camera 12, based on the image captured by the camera 12, it is determined whether the object in the captured image is an actual object or not. This is because it is difficult to determine whether it is a drawing object such as a drawing object.
  • FIG. 11 is a diagram showing the detailed configuration of the drawing object determination unit 112. As shown in FIG. As shown in FIG. 11, the drawing object determination unit 112 has an FOE position time change analysis unit 131, a lane width time change analysis 132, a ground level analysis unit 133, a reference ground level storage unit 134, and a comprehensive determination unit 135.
  • the FOE position time change analysis unit 131 inputs the following information. (a) FOE position information detected from the captured image by the FOE position detection unit 123 of the image analysis unit 111 (b) Vehicle information input from the vehicle system 200 via the input unit 104 and the control unit 105 FOE position time change analysis Based on these pieces of input information, the unit 131 analyzes the time change of the FOE (point of infinity) position in the captured image.
  • the time at the FOE (point of infinity) position in the captured image when the camera 12 of the vehicle 10, that is, the image captured by the camera 12 having the image sensor 101 is the actual road on which the vehicle 10 is traveling, that is, a real object.
  • FOE point of infinity
  • FIG. 12 shows examples of the following three captured images over time.
  • the three images are images in which the preceding vehicle is gradually approaching as time elapses.
  • Each photographed image indicates an FOE (point of infinity) position.
  • This FOE (point of infinity) position is the FOE position detected from the captured image by the FOE position detection unit 123 of the image analysis unit 111 .
  • FOE Fluorescence of Expansion
  • FOE is a point at infinity where parallel line segments intersect in a captured image in the real world.
  • the point at infinity is a point uniquely determined with respect to the optical axis of the camera.
  • the FOE point of infinity
  • the FOE point of infinity
  • the camera 12 of the vehicle 10 that is, the image taken by the camera 12 having the image sensor 101 is a drawing object such as a photograph or a picture described above with reference to FIG.
  • FOE point of infinity
  • FIG. 13 shows drawing objects 30 such as photographs and pictures.
  • This drawing object 30 is, for example, a photograph or a picture drawn on the wall of the parking lot of a restaurant, as described above with reference to FIG. That is, the roads and vehicles in the drawing object 30 are not real objects but drawing objects included in the photograph or picture.
  • the dotted line frame shown in the drawing object 30 in FIG. 13 shows the time transition of the image range captured by the camera 12 when the vehicle 10 equipped with the camera 12 approaches this drawing object 30 .
  • the camera 12 of the vehicle 10 captures an image of the captured image range at time t0.
  • the photographing area of the camera 12 of the vehicle 10 gradually narrows.
  • the camera 12 of the vehicle 10 captures an image within the captured image range at time t1 shown in the drawn object 30 shown in the upper part of FIG.
  • the captured image range at time t1 is a small area inside the captured image range at time t0.
  • the camera 12 of the vehicle 10 captures an image of the captured image range at time t2 shown in the drawing object 30 shown in the upper part of FIG.
  • the captured image range at time t2 is a small area inside the captured image range at time t1.
  • the shooting area of the camera 12 of the vehicle 10 gradually narrows.
  • FIG. 13 shows the following three examples of captured images over time.
  • the three images are captured images of the drawing object 30 shown in the upper part of FIG. That is, they are images obtained by photographing different areas of the same drawing object 30 as follows.
  • Captured image at time t0 captured image within the captured image range at time t0 of drawing object 30 shown in the upper part of FIG.
  • Each of the three photographed images (a) to (c) in the lower part of FIG. 13 also shows the FOE (point of infinity) position similar to FIG. 12 described above.
  • This FOE (point of infinity) position is the FOE position detected from the captured image by the FOE position detection unit 123 of the image analysis unit 111 .
  • the FOE (point at infinity) position shown in each of the three photographed images (a) to (c) in the lower part of FIG. 13 changes with time transition (t0 ⁇ t1 ⁇ t2).
  • the position of the FOE (point at infinity) gradually moves upward in the order of the three captured images (a) to (c) according to the time transition (t0 ⁇ t1 ⁇ t2). I understand.
  • the position of the FOE (point of infinity) of "(b) the image captured at time t1" is above the position of the FOE (point of infinity) of "(a) the image captured at time t0" by a length [L1]. moving.
  • the position of the FOE (point of infinity) of "(c) the captured image at time t2" is the length [L2] from the position of the FOE (point of infinity) of "(a) the captured image at time t0". moving up.
  • FIG. 13 is an example in which the optical axis direction of the camera 12 of the vehicle 10 faces the center position of the drawing object 30 .
  • the position of the FOE (point at infinity) in the captured image may move in a certain direction as time passes. becomes extremely high.
  • FIG. 14 shows the FOE (infinite distance) over time when the camera 12 of the vehicle 10 captures a real object including an actual road and when capturing a drawn object including a road such as a photograph or a picture.
  • FIG. 10 is a diagram showing the positional change state of points) in comparison.
  • FIG. 14 shows the following two captured image time-series data.
  • A Example of position change with time of FOE (point at infinity) when the captured image is a real object
  • B Time of FOE (point at infinity) when the captured image is a drawing object (photograph, picture, etc.)
  • A Example of position change with time of FOE (point at infinity) when the captured image is a real object
  • B Time of FOE (point at infinity) when the captured image is a drawing object (photograph, picture, etc.)
  • A Example of position change accompanying transition
  • the position of the FOE (point at infinity) in the image does not change with time.
  • the photographed image shown in FIG. 14B is a drawing object
  • the position of the FOE (point at infinity) in the image moves in a certain direction (upward in the example shown in the figure) with time. In this way, it is possible to determine whether the image captured by the camera 12 is a real object or a drawn object by detecting a change in the position of the FOE (point of infinity) in the image with time transition. Become.
  • the FOE position time change analysis unit 131 of the drawing object determination unit 112 shown in FIG. 11 analyzes the time change of the FOE (point at infinity) position in the captured image.
  • the FOE position time change analysis unit 131 of the drawing object determination unit 112 shown in FIG. (a) FOE position information detected from the captured image by the FOE position detection unit 123 of the image analysis unit 111 (b) Vehicle information input from the vehicle system 200 via the input unit 104 and the control unit 105 Input these information Then, based on these input information, the temporal change of the FOE (point of infinity) position in the photographed image is analyzed. This analysis result is input to the comprehensive determination unit 135 . For example, data on the amount of change in FOE (point at infinity) position in the captured image per unit time is input to the comprehensive determination unit 135 .
  • the lane width time change analysis unit 132 of the drawing object determination unit 112 shown in FIG. 11 receives the following information.
  • FIG. 15 shows examples of the following three captured images over time.
  • the three images are images in which the preceding vehicle is gradually approaching as time elapses.
  • the position of the vehicle travel lane is the lane position detected from the captured image by the lane detection unit 122 of the image analysis unit 111 .
  • the lane detection unit 122 analyzes the captured image input from the image sensor (imaging unit) 101, detects lines such as the center line on the road, the roadside strip, and the lane boundary line, and detects these lines.
  • the lane position of the driving lane of the vehicle 10 is analyzed based on.
  • the lane width of the travel lane of the vehicle 10 hardly changes with time while traveling on the same road.
  • the width of the vehicle running lane sandwiched by the (roadside strip) is almost the same.
  • the measurement position of the width of the vehicle travel lane is measured at the same height position in each of the captured images (a) to (c), for example.
  • the lane width is measured at the y position from the bottom end of each image.
  • the camera 12 of the vehicle 10 that is, the image taken by the camera 12 having the image sensor 101 is a drawing object such as a photograph or a picture described above with reference to FIG.
  • a specific example of temporal change in vehicle travel lane width in a captured image will be described.
  • FIG. 16 shows drawing objects 30 such as photographs and pictures.
  • This drawing object 30 is, for example, a photograph or a picture drawn on the wall of the parking lot of a restaurant, as described above with reference to FIG. That is, the roads and vehicles in the drawing object 30 are not real objects but drawing objects included in the photograph or picture.
  • the dotted frame shown within the drawing object 30 in FIG. 16 indicates the time transition of the image range captured by the camera 12 when the vehicle 10 equipped with the camera 12 approaches this drawing object 30.
  • the camera 12 of the vehicle 10 captures an image of the captured image range at time t0.
  • the photographing area of the camera 12 of the vehicle 10 gradually narrows.
  • the camera 12 of the vehicle 10 captures an image within the captured image range at time t1 shown in the drawing object 30 shown in the upper part of FIG.
  • the captured image range at time t1 is a small area inside the captured image range at time t0.
  • the camera 12 of the vehicle 10 captures an image of the captured image range at time t2 shown in the drawing object 30 shown in the upper part of FIG.
  • the captured image range at time t2 is a small area inside the captured image range at time t1.
  • the shooting area of the camera 12 of the vehicle 10 gradually narrows.
  • FIG. 16 shows the following three examples of captured images over time.
  • the three images are captured images of the drawing object 30 shown in the upper part of FIG. That is, they are images obtained by photographing different areas of the same drawing object 30 as follows.
  • Captured image at time t0 captured image within the captured image range at time t0 of drawing object 30 shown in the upper part of FIG.
  • Each of the three photographed images (a) to (c) in the lower part of FIG. 16 also shows the running lane width at the position y from the lower end of the image, as in FIG. 15 described above.
  • the travel lane position is the FOE position detected from the captured image by the lane detection unit 122 of the image analysis unit 111 .
  • the running lane width at the position y from the bottom end of each of the three photographed images (a) to (c) shown in the lower part of FIG. 16 changes with time (t0 ⁇ t1 ⁇ t2).
  • the lane width gradually increases in the order of the three captured images (a) to (c) according to the time transition (t0 ⁇ t1 ⁇ t2).
  • the driving lane width of "(a) captured image at time t0" is LW0
  • the driving lane width of "(b) captured image at time t1" is LW1
  • the driving lane width of "(a) captured image at time t2" is LW2
  • LW0 ⁇ LW1 ⁇ LW2 In this way, the width of the running lane is gradually getting longer.
  • FIG. 17 shows changes in the lane of the vehicle along with time transition when the camera 12 of the vehicle 10 captures a real object including an actual road and when capturing a drawing object including a road such as a photograph or a picture.
  • FIG. 5 is a diagram showing a comparison of lane width change states
  • FIG. 17 shows the following two captured image time-series data.
  • A Example of lane width change with time transition of vehicle travel lane when photographed image is real object
  • B Lane width with time transition of vehicle travel lane when photographed image is drawing object (photograph, picture, etc.) Change example
  • the photographed image shown in FIG. 17A is a real object
  • the lane width of the vehicle travel lane does not change with time.
  • the captured image shown in FIG. 17B is a drawn object
  • the lane width of the vehicle travel lane changes with time. In this way, it is possible to estimate whether the image captured by the camera 12 is a real object or a drawn object by detecting whether or not the lane width of the vehicle travel lane changes with time.
  • the lane width time change analysis unit 132 of the drawing object determination unit 112 shown in FIG. 11 analyzes the time change of the lane width of the vehicle travel lane in the captured image. That is, the lane width time change analysis unit 132 of the drawing object determination unit 112 shown in FIG. (a) Lane position information detected from the captured image by the lane position detection unit 122 of the image analysis unit 111 (b) Vehicle information input from the vehicle system 200 via the input unit 104 and the control unit 105 These pieces of information are input Then, based on these input information, the time change of the lane width of the vehicle travel lane in the photographed image is analyzed. This analysis result is input to the comprehensive determination unit 135 . For example, lane width change amount data of a vehicle travel lane in a photographed image per unit time is input to the comprehensive determination section 135 .
  • the ground level analysis unit 133 inputs the following information. (a) Ground level position information detected from the captured image by the ground level detection unit 124 of the image analysis unit 111 (b) Object information (object position) of the object detected from the captured image by the object detection unit 121 of the image analysis unit 111 , distance, type, size) Based on these pieces of input information, the ground level analysis unit 133 determines whether or not the ground level in the captured image is detected from the correct position. Analyze whether the position matches or not.
  • the ground level position corresponding to the contact position of the contact object is estimated from the size of the contact object such as the vehicle in the captured image. Further, the difference between the estimated ground level position and the ground contact position (tire lower end position) of the ground contact object such as the vehicle is calculated, and it is determined whether or not this difference is equal to or greater than a predetermined threshold value.
  • the camera 12 of the vehicle 10 that is, the captured image of the camera 12 having the image sensor 101 is the actual road on which the vehicle 10 is traveling, that is, the ground level detected from the captured image when it is a real object, A specific example of the relationship between 1 and the ground contact position of the vehicle will be described with reference to FIG. 18 .
  • FIG. 18 shows examples of the following three captured images over time.
  • the three images are images in which the preceding vehicle is gradually approaching as time elapses.
  • Each captured image shows the ground level.
  • This ground level is the ground level detected from the captured image by the ground level detection unit 124 of the image analysis unit 111 .
  • the ground level detection unit 124 first analyzes the captured image input from the image sensor (imaging unit) 101, and indicates the road surface position from within the captured image. Detect feature points. For example, two roadside strips (lines) and trees on both sides of the road surface on which the vehicle is traveling are detected as shown in FIG. Detect as
  • the ground level detection unit 124 estimates the ground level (road surface position) at the image position spaced Lx from the FOE (point of infinity) position as follows. That is, at a position at a distance Lx from the FOE (point of infinity), a straight line that is perpendicular to the camera optical axis toward the FOE (point of infinity) and connects the road surface characteristic points is estimated to be the ground level position.
  • the ground image of the image analysis unit 111 is used for these three captured images at different times.
  • the position of the ground level detected by the level detection unit 124 matches the ground position of the vehicle (real object) that is the subject of the captured image.
  • the ground level is set at different positions for each distance Lx from the FOE (point at infinity) position, as described above with reference to FIGS.
  • the ground level detection unit 124 detects the ground level position corresponding to the grounding position of the grounding object (vehicle, etc.) based on the size of the grounding object (vehicle), such as a preceding vehicle or an oncoming vehicle in this example, included in the captured image. to estimate
  • the reference ground level indicating the estimated ground contact position of the ground contact object (vehicle, etc.) corresponding to the type and size of the ground contact object (vehicle, etc.) is stored in the reference ground level storage unit 134 .
  • the ground level detection unit 124 detects a ground object (vehicle, etc.) from the reference ground level storage unit 134 based on the size of the ground object (vehicle), such as a preceding vehicle or an oncoming vehicle in this example, included in the captured image. Acquire a reference ground level indicating the estimated ground contact position of the ground contact object (such as a vehicle) corresponding to the type and size of the ground contact.
  • the resulting reference ground level position is the ground level position shown in FIG. (a) the captured image at time t0, (b) the captured image at time t1, and (c) the captured image at time t2.
  • the position of the reference ground level coincides with the ground position of the vehicle (real object) that is the subject of the captured image.
  • FIG. 19 shows drawing objects 30 such as photographs and pictures.
  • This drawing object 30 is, for example, a photograph or a picture drawn on the wall of the parking lot of a restaurant, as described above with reference to FIG. That is, the roads and vehicles in the drawing object 30 are not real objects but drawing objects included in the photograph or picture.
  • the dotted line frame shown in the drawn object 30 in FIG. 19 indicates the temporal transition of the image range captured by the camera 12 when the vehicle 10 equipped with the camera 12 approaches the drawn object 30 .
  • the camera 12 of the vehicle 10 captures an image of the captured image range at time t0.
  • the photographing area of the camera 12 of the vehicle 10 gradually narrows.
  • the camera 12 of the vehicle 10 captures an image within the captured image range at time t1 shown in the drawn object 30 shown in the upper part of FIG.
  • the captured image range at time t1 is a small area inside the captured image range at time t0.
  • the camera 12 of the vehicle 10 captures an image within the captured image range at time t2 shown in the drawing object 30 shown in the upper part of FIG.
  • the captured image range at time t2 is a small area inside the captured image range at time t1.
  • the shooting area of the camera 12 of the vehicle 10 gradually narrows.
  • FIG. 19 shows the following three examples of captured images over time.
  • the three images are captured images of the drawing object 30 shown in the upper part of FIG. That is, they are images obtained by photographing different areas of the same drawing object 30 as follows.
  • Captured image at time t0 captured image within the captured image range at time t0 of drawing object 30 shown in the upper part of FIG.
  • Captured image of range (c)
  • Captured image at time t2 Captured image of captured image range at time t2 of drawing object 30 shown in the upper part of FIG.
  • Each of the three photographed images (a) to (c) in the lower part of FIG. 19 also shows the position of the ground level, as in FIG. 18 described above.
  • This ground level is the ground level detected by the ground level detection unit 124 of the image analysis unit 111 shown in FIG.
  • the ground level is set at different positions for each distance Lx from the FOE (point at infinity) position, as described above with reference to FIGS.
  • the ground level detection unit 124 detects the ground contact position of the ground contact object (vehicle, etc.) based on the size of the ground contact object (vehicle), such as a preceding vehicle or an oncoming vehicle, in the captured image. Estimate the corresponding ground level position.
  • the reference ground level indicating the estimated ground contact position of the ground contact object (vehicle, etc.) corresponding to the type and size of the ground contact object (vehicle, etc.) is stored in the reference ground level storage unit 134 .
  • the ground level detection unit 124 detects a ground object (vehicle, etc.) from the reference ground level storage unit 134 based on the size of the ground object (vehicle), such as a preceding vehicle or an oncoming vehicle in this example, included in the captured image. Acquire a reference ground level indicating the estimated ground contact position of the ground contact object (such as a vehicle) corresponding to the type and size of the ground contact.
  • the resulting reference ground level position is the ground level position shown in FIG. (a)
  • the position of the reference ground level acquired by the ground level detection unit 124 of the image analysis unit 111 matches the ground contact position of the vehicle (real object) that is the subject of the captured image.
  • the position of the reference ground level acquired by the ground level detection unit 124 of the image analysis unit 111 is does not match the ground position of the vehicle (real object) that is the subject of
  • the captured image is not a captured image of a real object such as an actual road, but a captured image of a drawing object such as a photograph or a picture.
  • the ground level detection unit 124 acquires the reference ground level indicating the estimated ground contact position corresponding to the type and size of the ground object (vehicle, etc.). A configuration that does not use the data stored in the level storage unit 134 is also possible.
  • the ground level detection unit 124 may perform processing for estimating (calculating) the position of the ground level, which is the grounding position, based on the size of the grounding object (vehicle) included in the captured image.
  • the ground level detection unit 124 detects the ground level position corresponding to the grounding position of the grounding object (vehicle, etc.) based on the size of the grounding object (vehicle), such as a preceding vehicle or an oncoming vehicle in this example, included in the captured image. to estimate the ground level position corresponding to the grounding position of the grounding object (vehicle, etc.) based on the size of the grounding object (vehicle), such as a preceding vehicle or an oncoming vehicle in this example, included in the captured image. to estimate
  • the ground level analysis unit 133 of the drawn object determination unit 112 sets the ground level to the ground level of the vehicle, which is the subject of the captured image, in the “(a) captured image at time t0” in the lower part of FIG.
  • the ground level analysis unit 133 calculates the vehicle size (vehicle width) and the width between lines (roadside strip) at the ground level position in "(a) captured image at time t0" in the lower part of Fig. 19 .
  • the ground level analysis unit 133 calculates the vehicle size (vehicle width) from the “(b) captured image at time t1” in the lower part of FIG. Below is the vehicle width data.
  • Vehicle size (vehicle width) 1.5CW That is, it is calculated that the vehicle size (vehicle width) of "(b) captured image at time t1" is 1.5 times the vehicle size (vehicle width) of "(a) captured image at time t0".
  • the ground level analysis unit 133 Based on this magnification (1.5 times), the ground level analysis unit 133 also determines the width between lines (roadside strips) at the ground level position of "(b) captured image at time t1" by the same magnification (1.5 times). 1.5 LW), and the ground level position at which such a width between lines (roadside strips) can be set is obtained.
  • the ground level analysis unit 133 does not use the data stored in the reference ground level storage unit 134, and estimates the position of the ground level that will be the grounding position based on the size of the grounded object (vehicle) included in the captured image. (Calculation) may be performed.
  • the photographed image is a real image
  • vehicle size (vehicle width) of the photographed image at time t0 and the width between lines (roadside strip) at the ground level position are enlarged by the same magnification
  • the ground level position and the vehicle contact position are match.
  • the ground level position and the vehicle contact position do not match. This is because the captured image is not a captured image of a real object such as an actual road, but a captured image of a drawing object such as a photograph or a picture.
  • the ground level analysis unit 133 calculates the vehicle size (vehicle width) from the “(c) captured image at time t2” in the lower part of FIG. Below is the vehicle width data.
  • Vehicle size (vehicle width) 2.0CW That is, it is calculated that the vehicle size (vehicle width) of "(c) captured image at time t2" is 2.0 times the vehicle size (vehicle width) of "(a) captured image at time t0".
  • the ground level analysis unit 133 Based on this magnification (2.0 times), the ground level analysis unit 133 also determines the width between lines (roadside strips) at the ground level position of "(c) captured image at time t2" by the same magnification (2.0 times). 2.0 LW), and determine the ground level position where such a line (roadside strip) interval width can be set.
  • ground level setting position shown in "(c) captured image at time t2" in the lower part of FIG. 19 is detected.
  • the ground level analysis unit 133 does not use the data stored in the reference ground level storage unit 134, and estimates the position of the ground level that will be the grounding position based on the size of the grounded object (vehicle) included in the captured image. It is possible to perform processing to (calculate).
  • the photographed image is a real image
  • vehicle size (vehicle width) of the photographed image at time t0 and the width between lines (roadside strip) at the ground level position are enlarged by the same magnification
  • the ground level position and the vehicle contact position are match.
  • the ground level position and the vehicle contact position do not match. This is because the captured image is not a captured image of a real object such as an actual road, but a captured image of a drawing object such as a photograph or a picture.
  • FIG. 20 shows the ground level and vehicle ground level over time when the camera 12 of the vehicle 10 captures a real object including an actual road and when capturing a drawing object including a road such as a photograph or a picture. It is a figure which shows the transition of the corresponding relationship with a grounding position in comparison.
  • FIG. 20 shows the following two captured image time-series data.
  • A Example of change in correspondence between the ground level and the vehicle grounding position over time when the captured image is a real object
  • B Ground level and vehicle grounding when the captured image is a drawing object (photograph, picture, etc.)
  • the photographed image shown in FIG. 20B is a drawn object
  • the ground level analysis unit 133 of the drawing object determination unit 112 shown in FIG. 11 determines whether the ground level in the captured image is detected from the correct position. Analyze whether it matches the grounded position of the grounded objects contained within.
  • the ground level position corresponding to the grounding position of the grounding object is estimated from the size of the grounding object such as the vehicle in the captured image of the camera 12 mounted on the vehicle 10 . Further, the difference between the ground level position corresponding to the estimated ground contact object (vehicle, etc.) and the ground contact position (tire lower end position) of the ground contact object, such as vehicle, is calculated, and whether or not this difference is equal to or greater than a predetermined threshold value. determine whether or not
  • the ground level analysis unit 133 of the drawing object determination unit 112 shown in FIG. (a) Ground level position information detected from the captured image by the ground level detection unit 124 of the image analysis unit 111 (b) Object information (object position) of the object detected from the captured image by the object detection unit 121 of the image analysis unit 111 , distance, type, size) Based on these pieces of input information, it is determined whether or not the ground level in the captured image is detected from the correct position.
  • the ground level position corresponding to the ground contact position of the ground contact object is estimated from the size of the ground contact object, such as a vehicle, in the captured image of the camera, and the ground level position corresponding to the ground contact object (vehicle, etc.) is estimated. , and the ground contact position (tire lower end position) of the ground contact object such as the vehicle, and the difference analysis result is input to the comprehensive determination unit 135 .
  • the comprehensive determination unit 135 of the drawing object determination unit 112 receives the following data.
  • (b) Time change data of the lane width of the vehicle travel lane in the captured image analyzed by the lane width time change analysis unit 132 for example, the amount of change per unit time of the lane width of the vehicle travel lane in the captured image
  • the general determination unit 135 of the drawing object determination unit 112 shown in FIG. It is determined whether the object is a real object or a drawing object such as a photograph or a picture drawn on a wall or the like.
  • Time change data of the FOE (point at infinity) position in the captured image analyzed by the FOE position time change analysis unit 131 for example, the amount of change per unit time of the FOE (point at infinity) position in the captured image If it is equal to or greater than a predetermined threshold value, it is determined that the image captured by camera 12 is a drawing object.
  • Time change data of the lane width of the vehicle travel lane in the captured image analyzed by the lane width time change analysis unit 132 for example, the amount of change per unit time of the lane width of the vehicle travel lane in the captured image is defined in advance. If it is equal to or greater than the threshold value, it is determined that the image captured by the camera 12 is a drawing object.
  • the determination result of the overall determination unit 135 of the drawing object determination unit 112, that is, the determination result as to whether the image captured by the camera 12 is a real object or a drawing object is obtained by the image signal analysis unit 102 as shown in FIG. It is output to vehicle control section 103 via output section 114 .
  • the vehicle control unit 103 performs vehicle control based on this determination result. For example, when it is determined that the image captured by the camera 12 is a drawing object, a warning notification process is performed. Carry out transition to driving procedures. The sequence of these processes will be described later with reference to flowcharts.
  • the object analysis unit 113 in the image signal analysis unit 102 shown in FIG. Analyze object type, distance, etc. For example, object information such as the position, distance (distance from the camera), type, and size of various objects such as oncoming vehicles and preceding vehicles that can be obstacles, pedestrians, and roadside trees are analyzed for each object. Specifically, for example, a determination process of whether or not the vehicle 10 deviates from the driving lane, and an analysis process of an approaching state to an object that hinders driving are performed.
  • FIG. 21 is a diagram showing the detailed configuration of the object analysis unit 113. As shown in FIG. As shown in FIG. 21 , the object analysis section 113 has a lane departure determination section 141 and an object approach determination section 142 .
  • the lane deviation determination unit 141 has a line arrival time calculation unit 151 and a lane deviation determination cancellation requirement determination unit 152 .
  • the object approach determination unit 142 has an object arrival time calculation unit 153 and an object approach determination cancellation requirement presence/absence determination unit 154 .
  • the lane departure determination unit 141 performs determination processing as to whether or not the vehicle 10 will deviate from the driving lane.
  • the object approach determination unit 142 performs analysis processing such as the state of approach to an object that hinders travel.
  • the line arrival time calculation unit 151 of the lane deviation determination unit 141 receives the following information.
  • the line arrival time calculation unit 151 of the lane deviation determination unit 141 calculates the line (roadside strip, median strip, etc.) recorded at the left and right ends of the road in the lane in which the vehicle 10 travels. Calculate the arrival time.
  • the vehicle information input by the lane departure determination unit 141 includes the direction of travel of the vehicle and the speed of the vehicle.
  • the line arrival time calculation unit 151 determines whether the vehicle 10 is traveling in the left and right lanes based on the vehicle information and the lane position information of the lane in which the vehicle 10 travels, which is detected from the captured image by the lane detection unit 122 of the image analysis unit 111 . Calculate the time to reach the line (roadside strip, median strip, etc.). The calculated time information is input to the lane departure determination cancellation requirement presence/absence determination unit 152 .
  • the lane departure determination cancellation requirement presence/absence determination unit 152 determines whether or not the vehicle 10 is deviating from the driving lane for a justifiable reason. That is, it is analyzed whether there is a valid reason for the vehicle 10 to deviate from the lane and cross the line.
  • the vehicle 10 is about to output a turn signal signal to change the driving lane.
  • the driver is trying to change the driving lane by operating the steering wheel. In such a case, it is determined that the lane departure is being performed for a justifiable reason.
  • Vehicle information is also input from the vehicle system 200 to the lane deviation determination cancellation requirement presence/absence determination unit 152 via the control unit 105. After analyzing the output state of the blinker and the operation state of the steering wheel, it is possible to determine whether or not the lane is deviated. is executed based on a justifiable reason.
  • the line arrival time calculated by the line arrival time calculation unit 151 is equal to or less than the predetermined threshold time.
  • the lane departure determination result of “there is danger of lane departure” is output to the vehicle control unit 103 via the output unit 114 .
  • the vehicle control unit 103 When the vehicle control unit 103 receives the lane departure determination result of "there is a risk of lane departure" from the lane departure determination unit 141, the vehicle control unit 103 performs travel control by automatic operation so that the vehicle 10 does not deviate from the lane in which it is traveling. For example, steering adjustment and speed adjustment are performed. Furthermore, a warning output or the like to the driver may be performed.
  • the object approach determination unit 142 performs analysis processing such as the state of approach to an object that hinders travel.
  • the line arrival time calculation unit 153 of the object proximity determination unit 142 receives the following information.
  • the object information of (a) above is object information such as the positions and distances of various objects such as oncoming vehicles and preceding vehicles that may be obstacles to safe driving of the vehicle 10, pedestrians, and roadside trees.
  • the object arrival time calculation unit 153 of the object approach determination unit 142 calculates the time required for the vehicle 10 to reach the position of the object detected from the captured image based on the input information (a) and (b) above.
  • the vehicle information input by the object approach determination unit 142 includes the traveling direction of the vehicle and the speed of the vehicle.
  • the object arrival time calculation unit 153 calculates the time required for the vehicle 10 to reach the object based on the vehicle information and the position and distance information of the object detected from the captured image by the object detection unit 122 of the image analysis unit 111. calculate.
  • the calculated time information is input to the object approach determination cancellation requirement presence/absence determination unit 154 .
  • the object approach determination cancellation requirement presence/absence determination unit 154 determines whether or not the vehicle 10 approaches the object for a valid reason. That is, it analyzes whether there is a valid reason for the vehicle 10 to approach the object.
  • the approaching object is executed based on a valid reason.
  • Vehicle information is also input from the vehicle system 200 to the object approach determination cancellation requirement presence/absence determination unit 154 via the control unit 105, and after analyzing the output state of the blinker, the operation state of the steering, etc. Determine if the approach is being performed for a valid reason.
  • the object approach determination cancellation requirement presence/absence determination unit 154 determines that the approach to the object has not been executed for a valid reason, it performs the following processing. That is, when the arrival time to the object calculated by the object arrival time calculation unit 153 becomes equal to or less than a predetermined threshold time, the object approach determination result of "object approaching danger exists" is output via the output unit 114. Output to vehicle control unit 103 .
  • the vehicle control unit 103 When the vehicle control unit 103 receives an object approach determination result of "There is danger of approaching an object" from the object approach determination unit 142, the vehicle control unit 103 performs travel control by automatic driving so that the vehicle 10 does not get too close to the object. For example, steering adjustment and speed adjustment are performed. Furthermore, a warning output or the like to the driver may be performed.
  • FIG. 22 is a flow chart describing the sequence of processing executed by the image signal processing device of the present disclosure, that is, the image signal processing device 100 described above with reference to FIG.
  • FIG. 22 is a flowchart mainly explaining the processing of the drawing object determination unit 112 in the image signal analysis unit 102 of the image signal processing apparatus 100.
  • 10 is a flowchart for explaining mainly the determination process and the process based on the determination result.
  • the processing according to the flowchart shown in FIG. 22 can be executed, for example, according to a program stored in the storage unit within the image signal processing device 100.
  • FIG. The image signal processing apparatus 100 includes a processor such as a CPU having a program execution function, and can execute processing according to the flowchart shown in FIG. 22 according to the program stored in the storage unit. Processing of each step of the flowchart will be described below.
  • Step S101 First, in step S101, the image signal analysis unit 102 of the image signal processing device 100 inputs an image captured by the camera 12 (the camera having the image sensor 101) mounted on the vehicle 10.
  • the camera 12 the camera having the image sensor 101 mounted on the vehicle 10.
  • An image sensor (imaging unit) 101 is an image sensor in the camera 12 mounted on the vehicle 10 shown in FIG. Note that the camera 12 used in the signal processing device 100 of the present disclosure is a monocular camera. An image captured by an image sensor (imaging unit) 101 in a monocular camera is input to an image signal analysis unit 102 .
  • Step S102 the image signal analysis unit 102 executes analysis processing of the input camera-captured image.
  • This processing is processing executed by the image analysis unit 111 in the image processing unit 102 shown in FIG.
  • the image analysis unit 111 executes analysis processing of the captured image input from the image sensor (imaging unit) 101 . Specifically, as described above with reference to FIGS. 5, 6, etc., (a) Object detection process (b) Lane detection process (c) FOE (point of infinity) position detection process (d) Ground level detection process (e) Vehicle traveling direction detection process These processes are executed.
  • the object detection unit 121 of the image analysis unit 111 analyzes the types and distances of various objects included in the photographed image input from the image sensor (imaging unit) 101 . For example, object information such as the position, distance (distance from the camera), type, and size of various objects such as oncoming vehicles and preceding vehicles that can be obstacles, pedestrians, and roadside trees are analyzed for each object.
  • the lane detection unit 122 of the image analysis unit 111 analyzes the captured image input from the image sensor (imaging unit) 101 and detects the lane in which the vehicle is running.
  • An FOE (point of infinity) position detection unit 123 of the image analysis unit 111 analyzes the captured image input from the image sensor (imaging unit) 101 and detects the FOE (point of infinity) position in the captured image.
  • the ground level detection unit 124 of the image analysis unit 111 analyzes the captured image input from the image sensor (imaging unit) 101 and detects the ground level (road surface position) in the captured image.
  • the vehicle traveling direction detection unit 125 receives a photographed image input from the camera 12 (camera having the image sensor 101) mounted on the vehicle 10, and vehicle information input from the vehicle system 200 via the input unit and the control unit 195. , it is determined whether or not the vehicle 10 is traveling in the direction of the optical axis of the camera 12 mounted on the vehicle 10 .
  • Step S103 the image signal processing device 102 executes drawing object determination processing in step S103.
  • This process is executed by the drawing object determination unit 112 in the image signal analysis unit 102 shown in FIG.
  • the drawn object determination unit 112 determines whether the object included in the photographed image of the camera 12 (the camera having the image sensor 101) mounted on the vehicle 10 is actually an object. or a drawing object such as a photograph or a picture.
  • step S103 The detailed sequence of the process of step S103 will be described later with reference to the flowchart shown in FIG.
  • Step S104 is branch processing based on the determination result of the drawing object determination processing in step S103.
  • step S103 if it is determined that the object included in the captured image of the camera 12 mounted on the vehicle 10 is a real object such as an actual road, the determination processing result in step S104 is No. , the process returns to step S101, and the processing from step S101 onward is repeated. That is, analysis processing of a new captured image is started.
  • step S103 it is determined that the object included in the photographed image of the camera 12 mounted on the vehicle 10 is not a real object such as an actual road, but a drawing object such as a photograph or a picture. If so, the result of determination processing in step S104 is Yes, and the process proceeds to step S105.
  • Step S105 If it is determined in step S104 that the object included in the captured image of the camera 12 is not a real object such as an actual road but a drawing object such as a photograph or a picture, the process of step S105 is executed.
  • step S105 the image signal analysis unit 102 notifies the vehicle control unit that the object included in the image captured by the camera 12 is not a real object such as an actual road, but a drawn object such as a photograph or picture. do.
  • the vehicle control unit 103 warns the driver of the vehicle 10 in response to this notification. That is, it outputs a warning that there is an object that may collide.
  • Step S106 Furthermore, in step S106, the vehicle control unit 103 determines whether the vehicle 110 is currently being driven automatically or manually.
  • step S101 If the automatic operation is not being executed, that is, if the manual operation is being executed, the process returns to step S101 and moves to processing of a new captured image. On the other hand, when the vehicle 10 is currently executing automatic driving, the process proceeds to step S107.
  • Step S107 The processing of step S107 is processing that is performed when the vehicle 10 is currently executing automatic driving.
  • the vehicle control unit 103 stops the automatic driving process, and shifts to the start procedure of the driving subject handover (handover) process for causing the driver to perform manual driving. do.
  • the driving is switched from automatic driving to manual driving, and the vehicle 10 is controlled while the driver confirms the front, and the vehicle 10 can be stopped safely without colliding with drawing objects such as photographs and drawings.
  • step S103 that is, the detailed sequence of the drawing object determination process will be described with reference to the flowchart shown in FIG.
  • this processing is executed by the drawing object determination unit 112 in the image signal analysis unit 102 shown in FIG.
  • the drawing object determination unit 112 determines whether the object included in the photographed image of the camera 12 (the camera having the image sensor 101) mounted on the vehicle 10 is an actual object. Determine whether the object is a drawing object such as a photograph or a picture. Processing of each step of the flow shown in FIG. 23 will be described in order.
  • Step S201 First, in step S ⁇ b>201 , the image signal analysis unit 102 determines whether or not the vehicle 10 is running in the direction of the optical axis of the camera 12 attached to the vehicle 10 .
  • This determination processing is performed based on the detection result by the vehicle traveling direction detection unit 125 in the image analysis unit 111 of the image signal analysis unit 102 described with reference to FIGS.
  • Vehicle traveling direction detection unit 125 is based on a photographed image input from camera 12 (camera having image sensor 101) mounted on vehicle 10 and vehicle information input from vehicle system 200 via input unit and control unit 195. Then, it is determined whether or not the vehicle 10 is traveling in the direction of the optical axis of the camera 12 mounted on the vehicle 10 . Vehicle traveling direction analysis information, which is the determination result, is input to the drawing object determination unit 112 .
  • step S202 the processing from step S202 is not performed. That is, the process of determining whether the object included in the captured image of the camera 12 is an actual object or a drawing object such as a photograph or a picture is not performed.
  • step S207 the process advances to step S207 to stop the drawing object determination process and advances to step S104 of the flow shown in FIG.
  • step S104 the determination in step S104 is No, and the process returns to step S101 to proceed to processing for the next captured image.
  • step S202 When the vehicle 10 is traveling in the direction of the optical axis of the camera 12, the processing from step S202 is executed.
  • the object in the captured image is determined based on the image captured by the camera 12 to be an actual object or a drawing object such as a photograph or a picture. This is because it is possible to perform a process of determining whether
  • Step S202 The processes of steps S202 to S206 are executed when it is determined in step S201 that the vehicle 10 is traveling in the direction of the optical axis of the camera 12 mounted on the vehicle 10.
  • step S202 it is determined whether or not the amount of change per unit time of the FOE (point of infinity) position detected from the image captured by the camera 12 mounted on the vehicle 10 is equal to or greater than a predetermined threshold value. judge.
  • This process is executed by the FOE position time change analysis unit 131 and the comprehensive determination unit 135 of the drawing object determination unit 112 shown in FIG.
  • step S202 If the amount of change in the FOE (point at infinity) position per unit time is equal to or greater than the predetermined threshold value, the determination in step S202 is Yes, and the process proceeds to step S206.
  • step S206 it is determined that the object included in the image captured by the camera 12 (camera having the image sensor 101) mounted on the vehicle 10 is not an actual object but a drawn object such as a photograph or picture.
  • step S202 determines whether the amount of change per unit time of the FOE (point at infinity) position is less than the predetermined threshold value. If the determination process in step S202 cannot be performed, for example, if the FOE (point at infinity) position cannot be detected from the captured image, the process proceeds to step S203.
  • Step S203 In the determination processing of step S202, if the amount of change per unit time of the FOE (point at infinity) position is less than a predetermined threshold value, that is, if the determination result of step S202 is No, or if the determination of step S202 If the determination result of the process is not obtained, the process proceeds to step S203.
  • step S203 the drawing object determination unit 112 determines if the amount of change per unit time in the lane width of the vehicle travel lane detected from the image captured by the camera 12 mounted on the vehicle 10 is equal to or greater than a predetermined threshold value. Determine whether or not there is
  • This process is executed by the lane width time change analysis unit 132 and the comprehensive determination unit 135 of the drawing object determination unit 112 shown in FIG.
  • step S203 If the amount of change per unit time in the lane width of the vehicle travel lane is equal to or greater than the predetermined threshold value, the determination in step S203 is Yes, and the process proceeds to step S206.
  • step S206 it is determined that the object included in the image captured by the camera 12 (camera having the image sensor 101) mounted on the vehicle 10 is not an actual object but a drawn object such as a photograph or picture.
  • step S203 determines whether the amount of change per unit time in the lane width of the vehicle travel lane is less than the predetermined threshold value. If the determination process in step S203 is impossible, for example, if the lane width of the vehicle travel lane cannot be detected from the captured image, the process proceeds to step S204.
  • Step S204 In the determination process of step S203, if the amount of change in the lane width of the vehicle travel lane per unit time is less than a predetermined threshold value, that is, if the determination result of step S203 is No, or if the determination process of step S203 is not obtained, the process proceeds to step S204.
  • step S204 the drawing object determination unit 112 first determines the ground level position corresponding to the grounding position of the grounding object (vehicle, etc.) from the size of the grounding object such as the vehicle in the captured image of the camera 12 mounted on the vehicle 10. to estimate Further, the difference between the estimated ground level position and the ground contact position (tire lower end position) of the ground contact object such as the vehicle is calculated, and it is determined whether or not this difference is equal to or greater than a predetermined threshold value.
  • This process is executed by the ground level analysis unit 133 and the comprehensive determination unit 135 of the drawing object determination unit 112 shown in FIG.
  • step S204 If the difference between the ground level position estimated from the size of the ground contact object such as the vehicle and the ground contact position (tire lower end position) of the ground contact object such as the vehicle is equal to or greater than a predetermined threshold value, the determination in step S204 is It becomes Yes, and it progresses to step S206.
  • step S206 it is determined that the object included in the image captured by the camera 12 (camera having the image sensor 101) mounted on the vehicle 10 is not an actual object but a drawn object such as a photograph or picture.
  • step S204 if the difference between the ground level position estimated from the size of the ground contact object such as the vehicle and the ground contact position (tire lower end position) of the ground contact object such as the vehicle is less than the predetermined threshold value, then in step S204.
  • the determination is No, and the process proceeds to step S205. If the determination process in step S204 cannot be performed, for example, if a grounded object such as a vehicle cannot be detected from the captured image, or if the position of the ground level cannot be detected, the process proceeds to step S205.
  • step S205 the drawing object determination unit 112 determines that the image captured by the camera 12 is not a drawing object, that is, it is a real object obtained by capturing an actual road or the like.
  • step S205 If it is determined in step S205 that the image captured by the camera 12 is not a drawing object but a real object, or if it is determined in step S206 that the image captured by the camera 12 is a drawing object, the process proceeds to step S207.
  • step S207 the drawing object determination process is terminated, and the flow proceeds to step S104 of the flow shown in FIG.
  • the drawing object determination unit 112 performs processing according to the flow shown in FIG. It is determined whether the object is a drawing object such as a photograph or a picture.
  • the vehicle control unit 103 performs vehicle control based on this determination result. For example, when it is determined that the image captured by the camera 12 is a drawing object, a warning notification process is performed. Carry out transition to driving procedures. By performing such processing, it is possible to prevent the automatic driving vehicle from erroneously colliding with a wall or the like.
  • FIG. 24 shows an example of the hardware configuration of the signal processing device 100 installed in the mobile device that executes the above-described processing. Each component of the hardware configuration example shown in FIG. 24 will be described below.
  • a CPU (Central Processing Unit) 301 functions as a data processing section that executes various processes according to programs stored in a ROM (Read Only Memory) 302 or a storage section 308 . For example, the process according to the sequence described in the above embodiment is executed.
  • a RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301 . These CPU 301 , ROM 302 and RAM 303 are interconnected by a bus 304 .
  • the CPU 301 is connected to an input/output interface 305 via a bus 304.
  • the input/output interface 305 includes various switches, a keyboard, a touch panel, a mouse, a microphone, a sensor, a camera, a situation data acquisition unit such as a GPS, and the like.
  • a unit 306 and an output unit 307 including a display and a speaker are connected. Input information from a sensor 321 such as a distance sensor or a camera is also input to the input unit 306 .
  • the output unit 307 also outputs the object distance, position information, and the like as information to the driving unit 322 that drives the vehicle.
  • the CPU 301 receives commands, situation data, and the like input from the input unit 306 , executes various processes, and outputs processing results to the output unit 307 , for example.
  • a storage unit 308 connected to the input/output interface 305 includes, for example, a hard disk, and stores programs executed by the CPU 301 and various data.
  • a communication unit 309 functions as a transmission/reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • a drive 310 connected to the input/output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card to record or read data.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card to record or read data.
  • a signal processing device comprising:
  • the image signal analysis unit an FOE (point of infinity) position detection unit that detects an FOE (point of infinity) position from the captured image; Rendering object determination for determining whether an object in the photographed image is a real object or a rendering object based on the time change of the FOE (point at infinity) position detected by the FOE (point at infinity) position detection unit. has a part
  • the drawing object determination unit The signal processing device according to (1), wherein the object in the photographed image is determined to be a drawing object when the amount of change per unit time of the FOE (point of infinity) position is equal to or greater than a prescribed threshold value.
  • the drawing object determination unit Analyzing a plurality of time-series images taken by the monocular camera, calculating the amount of change per unit time of the FOE (point at infinity) position, If the amount of change per unit time of the FOE (point of infinity) position calculated by analyzing the plurality of time-series images is equal to or greater than a specified threshold value, it is determined that the object in the captured image is a drawing object ( 2) The signal processing device described in 2).
  • the image signal analysis unit a lane detection unit that detects a lane in which the vehicle travels from the captured image; a drawn object determination unit that determines whether an object in the photographed image is a real object or a drawn object based on the time change of the lane width of the driving lane detected by the lane detection unit;
  • the drawing object determination unit The signal processing device according to any one of (1) to (4), wherein the object in the captured image is determined to be a drawing object when the amount of change in lane width per unit time is equal to or greater than a specified threshold value.
  • the drawing object determination unit Analyzing a plurality of time-series images taken by the monocular camera to calculate the amount of change in lane width per unit time, Determining that the object in the captured image is a drawing object if the amount of change per unit time in the lane width calculated by analyzing the plurality of time-series images is equal to or greater than a specified threshold value; Signal processor.
  • the image signal analysis unit a ground level detection unit that detects a ground level from the captured image; It is determined whether the object in the photographed image is a real object or a drawing object based on the difference between the grounding position of the grounding object in the photographed image and the ground level position corresponding to the grounding position of the grounding object. having a drawing object determination unit, The drawing object determination unit determining that the object in the captured image is a drawing object when the difference between the ground level position of the grounded object in the captured image and the ground level position corresponding to the grounded position of the ground object is equal to or greater than a prescribed threshold value;
  • the signal processing device according to any one of (1) to (6).
  • the drawing object determination unit analyzing a plurality of time-series images captured by the monocular camera to detect a difference between a ground level position of the grounded object in the captured images and a ground level position corresponding to the grounded position of the grounded object; If the difference between the ground level position of the grounded object in the photographed images detected by analyzing the plurality of time-series images and the ground level position corresponding to the grounded position of the grounded object is equal to or greater than a prescribed threshold value, the photographed.
  • the signal processing device according to (7), wherein the object in the image is determined to be a drawing object.
  • the grounded object is a preceding vehicle preceding the vehicle or an oncoming vehicle;
  • the signal processing device according to (7) or (8), wherein the ground contact position of the ground object is the lower end position of the tire of the preceding vehicle or the oncoming vehicle.
  • the rendering object determination unit The signal processing device according to any one of (7) to (9), wherein the ground level position corresponding to the grounding position of the grounding object is calculated based on the size of the grounding object in the captured image, or obtained from a storage unit.
  • the image signal analysis unit The amount of change per unit time of the FOE (point of infinity) position detected from the captured image is less than a prescribed threshold, and an amount of change per unit time in the lane width of the lane in which the vehicle travels, which is detected from the captured image, is less than a prescribed threshold; when the difference between the ground level detected from the captured image and the ground position of the grounded object in the captured image is less than a specified threshold,
  • the signal processing device according to any one of (1) to (10), wherein the object in the captured image is determined to be a real object.
  • the image signal analysis unit an image analysis unit that determines whether the vehicle is traveling in the direction of the optical axis of the monocular camera;
  • the image signal analysis unit is When the image analysis unit determines that the vehicle is traveling in the optical axis direction of the monocular camera,
  • the signal processing device according to any one of (1) to (11), which executes a process of determining whether an object in the captured image is a real object or a drawn object.
  • the image signal analysis unit outputting a determination result as to whether the object in the captured image is a real object or a drawn object to a vehicle control unit;
  • the vehicle control unit The signal processing device according to any one of (1) to (12), wherein a warning is output when a determination result indicating that an object in the captured image is a drawing object is input from the image signal analysis unit.
  • the vehicle control unit When the determination result that the object in the captured image is a drawing object is input from the image signal analysis unit and the vehicle is executing automatic driving, The signal processing device according to (13), which starts the process of shifting the vehicle from automatic driving to manual driving.
  • a signal processing method executed in a signal processing device The image signal analysis unit An image captured by a monocular camera mounted on a vehicle is input, and image signal analysis processing is performed to determine whether an object in the captured image is a real object or a drawing object by image analysis of the input captured image. signal processing method.
  • a program for executing signal processing in a signal processing device In the image signal analysis part, An image captured by a monocular camera mounted on a vehicle is input, and image signal analysis processing is performed to determine whether an object in the captured image is a real object or a drawing object by image analysis of the input captured image. program to make
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • a program recording the processing sequence is installed in the memory of a computer built into dedicated hardware and executed, or the program is loaded into a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be pre-recorded on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed in a recording medium such as an internal hard disk.
  • a system is a logical collective configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same housing.
  • a captured image captured by a monocular camera is analyzed to determine whether an object in the captured image is a real object or a drawing object.
  • a configuration is realized. Specifically, for example, an image captured by a monocular camera mounted on a vehicle is analyzed to determine whether an object in the captured image is a real object or a drawn object.
  • the image signal analysis unit detects when the amount of change per unit time of the FOE (point of infinity) position in the captured image is equal to or greater than a specified threshold value, or when the amount of change per unit time of the lane width detected from the captured image is If it is greater than or equal to a specified threshold value, or if the difference between the ground level position of the vehicle in the captured image and the ground level position corresponding to the ground level position of the vehicle is greater than or equal to the specified threshold value, the object in the captured image becomes a drawing object. It is determined that This configuration realizes a configuration in which a captured image captured by a monocular camera is analyzed to determine whether an object in the captured image is a real object or a drawn object.
  • REFERENCE SIGNS LIST 10 vehicle 12 camera 20 captured image 30 drawing object 40 captured image 100 signal processing device 101 image sensor (imaging unit) 102 image signal analysis unit 103 vehicle control unit 104 input unit 105 control unit 111 image analysis unit 112 drawing object determination unit 113 object analysis unit 114 output unit 121 object detection unit 122 lane detection unit 123 FOE (point of infinity) position detection unit 124 Ground level detection unit 125 Vehicle traveling direction detection unit 131 FOE position time change analysis unit 132 Lane width time change analysis unit 133 Ground level analysis unit 134 Reference ground level storage unit 135 Comprehensive determination unit 141 Lane deviation determination unit 142 Object approach determination unit 151 Line Arrival time calculation unit 152 Lane deviation determination cancellation requirement presence/absence determination unit 153 Object arrival time calculation unit 154 Object approach determination cancellation requirement presence/absence determination unit 200 Vehicle system 301 CPU 302 ROMs 303 RAM 304 bus 305 input/output interface 306 input unit 307 output unit 308 storage unit 309 communication unit 310 drive 311 removable media 321 sensor 322 drive unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

単眼カメラが撮影する撮影画像を解析して、撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する構成を実現する。車両に搭載した単眼カメラの撮影画像を解析して撮影画像内のオブジェクトが実オブジェクトか描画オブジェクトかを判定する。画像信号解析部は、撮影画像内のFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、または撮影画像から検出したレーン幅の単位時間当たりの変化量が規定しきい値以上である場合、または撮影画像内の車両等の接地位置と、車両接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、撮影画像内のオブジェクトが描画オブジェクトであると判定する。

Description

信号処理装置、および信号処理方法、並びにプログラム
 本開示は、信号処理装置、および信号処理方法、並びにプログラムに関する。さらに詳細には、例えば自動運転車両など、カメラ撮影画像を解析して自動走行する装置において、カメラ撮影画像内のオブジェクトが実際の道路等の実オブジェクトでなく写真や絵等の描画オブジェクトであるか否かを解析する信号処理装置、および信号処理方法、並びにプログラムに関する。
 近年、自動ブレーキ、自動速度制御、障害物検出等の様々な運転支援システムが開発され、今後、運転者の操作を不要とする自動運転車や、運転者の操作を軽減する運転支援システムを搭載した車両が増大することが予想される。
 安全な自動運転を行うためには、移動の障害となる車両や歩行者、側壁等の様々なオブジェクトを確実に検出することが必要となる。
 自動運転車両におけるオブジェクト検出処理は、例えば車両に備えられたカメラの撮影画像を解析することによって行われることが多い。
 車両の進行方向の撮影画像を解析し、撮影画像から、障害物となる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトを検出し、これらのオブジェクトに衝突しないように経路や速度を制御する。
 さらに、道路上のセンターラインや、路側帯、車線境界線等のラインを検出し、これらのラインから一定距離、離間した位置を走行するような走行路制御も行われる。
 このようにオブジェクトやラインの検出情報に基づいて、車両の進行方向、速度などを制御することで、安全な自動走行が実現される。
 なお、カメラ撮影画像に基づく自動運転について開示した従来技術として例えば特許文献1(国際公開WO2020/110915号公報)がある。
 しかし、カメラが例えばステレオカメラのように高精度なオブジェクト距離を算出できるカメラでなく、単眼カメラである場合にカメラ撮影画像に基づく走行制御を行おうとすると以下の問題が発生する。
 例えば駐車場に駐車しようとする自動運転車両が駐車場に侵入し、駐車場の壁に貼ってある道路の写真を車両のカメラが撮影すると、その写真や絵等の「描画オブジェクト」までの距離を算出できないため、「描画オブジェクト」に描かれた道路を実在の道路と誤って認識してしまう可能性がある。このような誤認識が発生すると、自動運転車両は壁の写真の道路を走行しようとして壁に衝突してしまう。
国際公開WO2020/110915号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、カメラの撮影画像内の道路等が実オブジェクトであるか写真や絵等の描画オブジェクトであるかを解析する信号処理装置、および信号処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析部を有する信号処理装置にある。
 さらに、本開示の第2の側面は、
 信号処理装置において実行する信号処理方法であり、
 画像信号解析部が、
 車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析処理を実行する信号処理方法にある。
 さらに、本開示の第3の側面は、
 信号処理装置において信号処理を実行させるプログラムであり、
 画像信号解析部に、
 車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、単眼カメラが撮影する撮影画像を解析して、撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する構成が実現される。
 具体的には、例えば、車両に搭載した単眼カメラの撮影画像を解析して撮影画像内のオブジェクトが実オブジェクトか描画オブジェクトかを判定する。画像信号解析部は、撮影画像内のFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、または撮影画像から検出したレーン幅の単位時間当たりの変化量が規定しきい値以上である場合、または撮影画像内の車両等の接地位置と、車両接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、撮影画像内のオブジェクトが描画オブジェクトであると判定する。
 本構成により、単眼カメラが撮影する撮影画像を解析して、撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
自動運転車両とカメラ撮影画像に基づく自動運転の概要について説明する図である。 自動運転車両のカメラ撮影画像の例について説明する図である。 駐車場の壁に描かれた道路などを含む風景の写真または絵等の描画オブジェクトの例について説明する図である。 自動運転車両のカメラによる描画オブジェクトの撮影画像の例について説明する図である。 本開示の信号処理装置の構成例について説明する図である。 本開示の信号処理装置の画像信号解析部内の画像解析部の詳細構成例について説明する図である。 FOE(無限遠点)位置検出部が検出するFOE(無限遠点)位置の具体例について説明する図である。 グランドレベル検出部が検出するグランドレベル(路面位置)の具体例について説明する図である。 グランドレベル検出部が検出するグランドレベル(路面位置)の具体例について説明する図である。 FOE(無限遠点)位置検出部が検出したFOE(無限遠点)位置と、グランドレベル検出部が検出したグランドレベル(路面位置)の具体例について説明する図である。 本開示の信号処理装置の画像信号解析部内の描画オブジェクト判定部の詳細構成例について説明する図である。 カメラ撮影画像が実オブジェクトである場合の撮影画像中のFOE(無限遠点)位置の時間変化の具体例について説明する図である。 カメラ撮影画像が描画オブジェクトである場合の撮影画像中のFOE(無限遠点)位置の時間変化の具体例について説明する図である。 車両のカメラが実際の道路を含む実オブジェクトを撮影している場合と、写真や絵などの道路を含む描画オブジェクトを撮影している場合の時間推移に伴うFOE(無限遠点)の位置変化状態を対比して説明する図である。 カメラ撮影画像が実オブジェクトである場合の撮影画像中の車両走行レーンのレーン幅の時間変化の具体例について説明する図である。 カメラ撮影画像が描画オブジェクトである場合の撮影画像中の車両走行レーンのレーン幅の時間変化の具体例について説明する図である。 車両のカメラが実際の道路を含む実オブジェクトを撮影している場合と、写真や絵などの道路を含む描画オブジェクトを撮影している場合の時間推移に伴う車両走行レーンのレーン幅の変化状態を対比して説明する図である。 カメラ撮影画像が実オブジェクトである場合の撮影画像から検出されるグランドレベルと、撮影画像内の車両の接地位置との関係の具体例について説明する図である。 カメラ撮影画像が描画オブジェクトである場合の撮影画像から検出されるグランドレベルと、撮影画像内の車両の接地位置との関係の具体例について説明する図である。 車両のカメラが実際の道路を含む実オブジェクトを撮影している場合と、写真や絵などの道路を含む描画オブジェクトを撮影している場合の時間推移に伴うからグランドレベルと、撮影画像内の車両の接地位置との対応関係の推移を対比して説明する図である。 本開示の信号処理装置の画像信号解析部内のオブジェクト解析部の詳細構成例について説明する図である。 本開示の信号処理装置が実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の信号処理装置が実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の信号処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の信号処理装置、および信号処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.自動運転車両の概要とカメラ撮影画像に基づく自動運転の問題点について
 2.本開示の信号処理装置の構成と処理の具体例について
 3.画像解析部の構成と処理の詳細について
 4.描画オブジェクト判定部の構成と処理の詳細について
 5.オブジェクト解析部の構成と処理の詳細について
 6.本開示の画像信号処理装置が実行する処理のシーケンスについて
 7.本開示の信号処理装置のハードウェア構成例について
 8.本開示の構成のまとめ
  [1.自動運転車両の概要とカメラ撮影画像に基づく自動運転の問題点について]
 まず、図1以下を参照して、自動運転車両の概要とカメラ撮影画像に基づく自動運転の問題点について説明する。
 図1には、自動運転を実行する車両10を示している。
 車両10にはカメラ12が搭載されている。車両10はカメラ12の撮影画像を解析して車両進行方向にある様々なオブジェクトの検出、解析を行って安全な走行経路を探索しながら自動運転を行う。
 安全な自動運転を行うためには、移動の障害となる車両や歩行者、壁等の様々なオブジェクトを確実に検出することが必要であり、車両10内の装置(信号処理装置)は、カメラ12の撮影画像を入力して画像解析を実行し、車両進行方向の様々なオブジェクトの検出、解析を行う。
 カメラ12の撮影画像は、例えば図2に示すような撮影画像20である。
 車両10内の信号処理装置は、例えば図2に示すような撮影画像20、すなわち、車両10のカメラ12によって撮影される車両進行方向の撮影画像を解析し、撮影画像から障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトを検出し、これらのオブジェクトに衝突しないように車両10の走行経路や速度を制御する。
 例えば図2に示す撮影画像20内のオブジェクト21は先行車両であり、オブジェクト22は街路樹である。車両10内の信号処理装置は、これらのオブジェクトに衝突しないように車両10の走行経路や速度を制御する。
 さらに、車両10内の信号処理装置は、道路上のセンターラインや、路側帯、車線境界線等のラインを検出し、これらのラインに基づいて車両10の走行レーンを認識して車両10が1つの走行レーンを走行するように制御する。例えば、車両10が走行中の走行レーンの両サイドのラインから一定距離、離間した位置を走行するような制御を行う。
 例えば車両10が、図2に示す撮影画像20内の左側の走行レーン24を走行している場合、走行レーン24の両サイドのライン23から一定距離、離間した位置を、車両10を走行させるような制御を行う。
 しかし、カメラ12が例えばステレオカメラのように高精度なオブジェクト距離を算出できるカメラでなく、単眼カメラである場合にカメラ撮影画像に基づく走行制御を行おうとすると以下の問題が発生する。
 実際の道路ではない、写真や絵などの「描画オブジェクト」に描画された道路を実在の道路として誤認識してしまう問題である。
 例えば駐車場に自動運転車両が侵入し、駐車場の壁に貼ってある道路の写真や絵等の「描画オブジェクト」を車両の単眼カメラが撮影すると、その写真や絵等の「描画オブジェクト」までの距離を算出できないため、「描画オブジェクト」に描かれた道路を実在の道路と誤って認識してしまう可能性がある。このような誤認識が発生すると、自動運転車両は壁の写真や絵の中にある道路を走行しようとして壁に衝突することになる。
 図3、図4を参照して、この具体例について説明する。
 図3には、レストランの駐車場に自動運転を行う車両10が侵入する状態を示している。
 レストランの駐車場の壁には道路などを含む風景の写真または絵等の「描画オブジェクト30」が描画、あるいは貼り付けられている。
 車両10のカメラ12は、この「描画オブジェクト30」を撮影する。撮影画像は、車両10内の信号処理装置に入力される。信号処理装置は、写真や絵等の「描画オブジェクト」内に描かれた道路を実在の道路と誤って認識してしまう。このような誤認識が発生すると、自動運転車両は壁の写真の道路を走行しようとして、レストランの壁に向かって直進し、壁に衝突する。
 なお、この時、車両10のカメラ12が撮影している画像は、例えば図4に示すような撮影画像40である。
 この撮影画像40は、レストランの壁に描画、あるいは貼り付けられた写真や絵などの描画オブジェクトである。
 車両10内の信号処理装置は、この撮影画像40内に含まれる道路を実際の道路であると判断してしまう可能性があり、この場合、車両10を壁に向かって直進させてしまう可能性がある。
 本開示は、例えば上記問題点を解決するものである。
 すなわち、カメラの撮影画像内の道路等が実オブジェクトであるか、写真や絵等の描画オブジェクトであるかを解析することを可能とする。
 以下、本開示の信号処理装置、および信号処理方法、並びにプログラムについて説明する。
  [2.本開示の信号処理装置の構成と処理の具体例について]
 次に、本開示の信号処理装置の構成と処理の具体例について説明する。
 図5は、本開示の信号処理装置の構成例を示す図である。
 図5に示すように、信号処理装置100は、イメージセンサ(撮像部)101と、画像信号解析部102、車両制御部103、入力部104、制御部105を有する。
 画像信号解析部102は、画像解析部111、描画オブジェクト判定部112、オブジェクト解析部113、出力部114を有する。
 イメージセンサ(撮像部)101は、図1に示す車両10に搭載されたカメラ12内のイメージセンサであり、車両10の進行方向の画像を撮影する。
 なお、本開示の信号処理装置100において利用するカメラ12は、単眼カメラである。単眼カメラ内のイメージセンサ(撮像部)101による撮影画像は、画像信号解析部102に入力される。
 画像信号解析部102は、イメージセンサ(撮像部)101から入力した撮影画像を解析する。例えば、撮影画像に含まれる様々なオブジェクトの種類や距離などを解析する。例えば、障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトを検出する。
 まず、画像解析部111が、イメージセンサ(撮像部)101から入力した撮影画像の解析処理を実行する。具体的には、
 (a)オブジェクト検出処理
 (b)レーン検出処理
 (c)FOE(無限遠点)位置検出処理
 (d)グランドレベル検出処理
 (e)車両進行方向検出処理
 これらの処理を実行する。
 なお、これらの処理の詳細については後段で説明する。
 画像解析部111による撮影画像の解析結果は、描画オブジェクト判定部112、オブジェクト解析部113、出力部114に出力される。
 描画オブジェクト判定部112は、画像解析部111による撮影画像解析結果に基づいて、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際の道路等の実オブジェクトであるか、あるいは写真や絵などの描画オブジェクトであるかを判定する。
 この処理の詳細については後段で説明する。
 オブジェクト解析部113は、画像解析部111による撮影画像解析結果に基づいて、撮影画像に含まれる様々なオブジェクトの種類や距離などを解析する。
 例えば、障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトの位置、距離(カメラからの距離)、種類、大きさなどのオブジェクト情報を各オブジェクト単位で解析する。
 具体的には、例えば車両10が走行レーンを逸脱しないか否かの判定処理や、走行の妨げとなるオブジェクトに対する接近状態などの解析処理を行う。
 これらの処理の詳細については後段で説明する。
 画像信号解析部102による画像解析結果は、出力部114を介して車両制御部103に出力される。車両制御部103は車両システム200へ制御情報を出力する。
 車両制御部103は、画像信号解析部102による画像解析結果に基づいて、オブジェクトに衝突しないように車両の走行経路や速度を制御する。
 入力部104には、車両システム200から得られる車両情報とイメージセンサ制御情報が入力される。
 車両情報には、車速や、車両の向きの変化速度である回転角(ヨー角)の変化スピード情報(ヨーレート)などが含まれる。
 イメージセンサ制御情報は、画像撮影方向や画角、焦点距離の制御情報などによって構成される。
 入力部104から入力される車両情報は、制御部105を介して画像信号解析部102に入力される。また、イメージセンサ制御情報は、制御部105を介してイメージセンサ101に入力され、イメージセンサ101の調整が行われる。
 上述したように、画像信号解析部102は、イメージセンサ(撮像部)101から入力した撮影画像を解析する。例えば、撮影画像に含まれる様々なオブジェクトの種類や距離などを解析する。例えば、障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトを検出する。さらに、撮影画像に含まれるオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する。
 以下、画像信号解析部102の各構成部、すなわち、画像解析部111、描画オブジェクト判定部112、オブジェクト解析部113の詳細構成と処理について、順次説明する。
  [3.画像解析部の構成と処理の詳細について]
 まず、図5に示す画像信号解析部102内の画像解析部111の構成と処理の詳細について説明する。
 図6に画像解析部111の詳細構成を示す。
 図6に示すように、画像解析部111は、オブジェクト検出部121、レーン検出部122、FOE(無限遠点)位置検出部123、グランドレベル検出部124、車両進行方向検出部125を有する。
 オブジェクト検出部121は、イメージセンサ(撮像部)101から入力した撮影画像に含まれる様々なオブジェクトの種類や距離などを解析する。
 例えば、障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトの位置、距離(カメラからの距離)、種類、大きさなどのオブジェクト情報を各オブジェクト単位で解析する。
 オブジェクト検出部121が生成したオブジェクト解析情報は、画像信号解析部102内の描画オブジェクト判定部112と、オブジェクト解析部113に出力される。
 描画オブジェクト判定部112は、オブジェクト検出部121が生成したオブジェクト解析情報に含まれる各オブジェクトのオブジェクト位置情報、オブジェクト距離情報、オブジェクト種類情報、オブジェクト大きさ情報の全てを入力する。
 一方、オブジェクト解析部113は、オブジェクト検出部121が生成したオブジェクト解析情報に含まれる各オブジェクトのオブジェクト位置情報、オブジェクト距離情報を入力する。
 レーン検出部122は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、車両が走行中のレーンを検出する。車両が走行中のレーンは、先に図2を参照して説明した走行レーン24に相当する。
 レーン検出部122は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、道路上のセンターラインや、路側帯、車線境界線等のラインを検出し、これらのラインに基づいて車両10の走行レーンのレーン位置を解析し、レーン位置情報を生成する。
 レーン検出部122の生成したレーン位置情報は、画像解析部111内のFOE(無限遠点)位置検出部123と、グランドレベル検出部124、および画像解析部111外の描画オブジェクト判定部112と、オブジェクト解析部113に出力される。
 FOE(無限遠点)位置検出部123は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、撮影画像内のFOE(無限遠点)位置を検出する。
 FOE(無限遠点:Focus of Expansion)は、実世界において平行な線分が撮像画像内で交わる無限遠方の点(無限遠点)である。無限遠点はカメラの光軸に対して一意に決まる点である。
 例えば直線道路のライン(路側帯や中央分離帯など)は、実世界において平行な線分であり、これらのラインが撮影画像内で交わる無限遠方の点をFOEとして検出することが可能となる。
 FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置情報は、グランドレベル検出部124と、描画オブジェクト判定部112に入力される。
 グランドレベル検出部124は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、撮影画像内のグランドレベル(路面位置)を検出する。
 グランドレベル検出部124が検出したグランドレベル位置情報(路面位置情報)は、描画オブジェクト判定部112に入力される。
 図7以下を参照してFOE(無限遠点)位置検出部123が検出するFOE(無限遠点)位置と、グランドレベル検出部124が検出するグランドレベル(路面位置)の具体例について説明する。
 図7に示す画像は、画像解析部111がイメージセンサ(撮像部)101から入力した撮影画像である。
 まず、FOE(無限遠点)位置検出部123は、イメージセンサ(撮像部)101から入力した撮影画像からFOE(無限遠点)位置を検出する。
 前述したように、FOE(無限遠点:Focus of Expansion)は、実世界において平行な線分が撮像画像内で交わる無限遠方の点(無限遠点)である。
 FOE(無限遠点)位置検出部123は、例えば、図7に示すような車両の走行する路面の両サイドの2本の路側帯(ライン)を検出し、この2本の路側帯(ライン)の交わる無限遠方の点を検出して、この点をFOE(無限遠点)位置とする。
 次に、図8以下を参照してグランドレベル検出部124が検出するグランドレベル(路面位置)の具体例について説明する。
 図8に示す画像も、画像解析部111がイメージセンサ(撮像部)101から入力した撮影画像である。
 グランドレベル検出部124は、まず、イメージセンサ(撮像部)101から入力した撮影画像を解析し、撮影画像内から路面位置を示す特徴点を検出する。例えば、図8に示すような車両の走行する路面の両サイドの2本の路側帯(ライン)や樹木を検出し、2本の路側帯(ライン)の位置や樹木の下端位置を路面特徴点として検出する。
 次にグランドレベル検出部124は、検出した路面特徴点と、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置情報を用いて、撮影画像の各位置におけるグランドレベル位置(路面位置)を検出する。
 この処理の具体例について図9を参照して説明する。
 図9には、(a),(b),(c)の3つの図を示している。
 各図には、撮影画像の異なる位置のグランドレベル(路面位置)を示している。
 図9(a)は、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置に近い画像位置(距離=L1)におけるグランドレベル(路面位置)を示している。
 (b)は,(a)よりFOE(無限遠点)位置から離れた画像位置(距離=L2)のグランドレベル(路面位置)、(c)は、さらにFOE(無限遠点)位置から離れた画像位置(距離=L3)のグランドレベル(路面位置)を示している。
 例えば、図9(a)に示すグランドレベル(路面位置)は、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置からL1離間した画像位置におけるグランドレベル(路面位置)である。
 このFOE(無限遠点)位置からL1離間した画像位置におけるグランドレベル(路面位置)は、FOE(無限遠点)位置から距離L1の位置において、FOE(無限遠点)位置に向かうカメラ光軸と直行し、かつ路面特徴点を結ぶ直線として示すことができる。
 すなわち、図9(a)に示す直線ラインa1~a2が、FOE(無限遠点)位置からL1離間した画像位置におけるグランドレベル(路面位置)となる。
 同様に図9(b)に示すグランドレベル(路面位置)は、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置からL2離間した画像位置におけるグランドレベル(路面位置)である。
 このFOE(無限遠点)位置からL2離間した画像位置におけるグランドレベル(路面位置)は、FOE(無限遠点)位置から距離L2の位置において、FOE(無限遠点)位置に向かうカメラ光軸と直行し、かつ路面特徴点を結ぶ直線として示すことができる。
 すなわち、図9(b)に示す直線ラインb1~b2が、FOE(無限遠点)位置からL2離間した画像位置におけるグランドレベル(路面位置)となる。
 同様に図9(c)に示すグランドレベル(路面位置)は、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置からL3離間した画像位置におけるグランドレベル(路面位置)である。
 このFOE(無限遠点)位置からL3離間した画像位置におけるグランドレベル(路面位置)は、FOE(無限遠点)位置から距離L3の位置において、FOE(無限遠点)位置に向かうカメラ光軸と直行し、かつ路面特徴点を結ぶ直線として示すことができる。
 すなわち、図9(c)に示す直線ラインc1~c2が、FOE(無限遠点)位置からL3離間した画像位置におけるグランドレベル(路面位置)となる。
 このように、撮影画像中の各画像位置におけるグランドレベル(路面位置)は、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置と路面特徴点位置情報を用いて検出することができる。
 このように、グランドレベル検出部124はイメージセンサ(撮像部)101から入力した撮影画像を解析して路面特徴点を検出し、検出した路面特徴点と、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置情報を用いて、撮影画像の各位置におけるグランドレベル位置(路面位置)を検出する。
 グランドレベル検出部124の検出したグランドレベル位置(路面位置)情報は描画オブジェクト判定部112に入力される。
 図10は、FOE(無限遠点)位置検出部123が検出したFOE(無限遠点)位置と、グランドレベル検出部124が検出したグランドレベル(路面位置)の具体例を示す図である。
 これらの検出情報が描画オブジェクト判定部112に入力される。
 車両進行方向検出部125は、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であるか否かを判定する。
 車両進行方向検出部125は、イメージセンサ(撮像部)101から入力した撮影画像と、車両システム200から、入力部、制御部195を介して入力する車両情報に基づいて、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であるか否かを判定する。
 この判定結果である車両進行方向解析情報は、描画オブジェクト判定部112に入力される。
 描画オブジェクト判定部112による処理、すなわち、カメラ12の撮影画像に基づいて、その撮影画像内のオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理は、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であることが確認された場合にのみ実行される。
 車両10がカメラ12の光軸方向に向かって走行中である場合は、カメラ12の撮影画像に基づいて、その撮影画像内のオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理が可能である。
 しかし、車両10がカメラ12の光軸方向に向かって走行中でない場合は、カメラ12の撮影画像に基づいて、その撮影画像内のオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理が困難であるからである。
  [4.描画オブジェクト判定部の構成と処理の詳細について]
 次に、図5に示す画像信号解析部102内の描画オブジェクト判定部112の構成と処理の詳細について説明する。
 前述したように、描画オブジェクト判定部112は、画像解析部111による撮影画像解析結果に基づいて、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際の道路等の実オブジェクトであるか、あるいは写真や絵などの描画オブジェクトであるかを判定する。
 なお、前述したように描画オブジェクト判定部112による判定処理は、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であることが確認された場合にのみ実行される。
 先に説明したように、車両10がカメラ12の光軸方向に向かって走行中でない場合は、カメラ12の撮影画像に基づいて、その撮影画像内のオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理が困難であるからである。
 図11は、描画オブジェクト判定部112の詳細構成を示す図である。
 図11に示すように、描画オブジェクト判定部112は、FOE位置時間変化解析部131、レーン幅時間変化解析132、グランドレベル解析部133、参考グランドレベル格納部134、総合判定部135を有する。
 FOE位置時間変化解析部131は、以下の各情報を入力する。
 (a)画像解析部111のFOE位置検出部123が、撮影画像から検出したFOE位置情報
 (b)車両システム200から、入力部104、制御部105を介して入力する車両情報
 FOE位置時間変化解析部131はこれらの入力情報に基づいて、撮影画像中のFOE(無限遠点)位置の時間変化を解析する。
 車両10のカメラ12、すなわち、イメージセンサ101を有するカメラ12の撮影画像が、車両10が走行中の実際の道路、すなわち実オブジェクトである場合の撮影画像中のFOE(無限遠点)位置の時間変化の具体例について図12を参照して説明する。
 図12には、以下の3つの時間経過に伴う撮影画像の例を示している。
 (a)時間t0の撮影画像
 (b)時間t1の撮影画像
 (c)時間t2の撮影画像
 時間はt0~t1~t2の順に経過している。
 3つの画像には、時間経過に伴い先行車両が徐々に近づいている画像が撮影されている。
 各撮影画像には、FOE(無限遠点)位置が示されている。
 このFOE(無限遠点)位置は、画像解析部111のFOE位置検出部123が、撮影画像から検出したFOE位置である。
 前述したように、FOE(無限遠点:Focus of Expansion)は、実世界において平行な線分が撮像画像内で交わる無限遠方の点(無限遠点)である。無限遠点はカメラの光軸に対して一意に決まる点である。
 カメラ12を装着した車両がアップダウンやカーブの少ない道路を走行している場合で、かつカメラ12の撮影画像が実際の道路等の実オブジェクトである場合には、撮影画像中のFOE(無限遠点)位置は、時間推移に伴ってほとんど変化しない、すなわち撮影画像中のほぼ同じ位置に固定される。
 図12に示すように、(a)時間t0の撮影画像、(b)時間t1の撮影画像、(c)時間t2の撮影画像、これら3つの異なる時間の撮影画像中のFOE(無限遠点)位置はほとんど変化せず、撮影画像中のほぼ同じ位置となる。
 これは、FOE(無限遠点)が、カメラの光軸に対して一意に決まる点であるためである。すなわち、カメラ12を装着した車両10がアップダウンやカーブの少ない道路をカメラ12の光軸方向に走行している場合、車両の進行方向とカメラ12の光軸方向は一致する。このため、撮影画像中のFOE(無限遠点)位置はほとんど変化せず、撮影画像中のほぼ同じ位置となる。
 次に、図13を参照して車両10のカメラ12、すなわち、イメージセンサ101を有するカメラ12の撮影画像が、先に図3を参照して説明した写真や絵などの描画オブジェクトである場合の撮影画像中のFOE(無限遠点)位置の時間変化の具体例について説明する。
 図13の上段には、写真や絵などの描画オブジェクト30を示している。この描画オブジェクト30は、先に図3を参照して説明したように、例えばレストランの駐車場の壁に描かれた写真や絵である。すなわち、描画オブジェクト30内の道路や車両もすべて実オブジェクトではなく写真や絵の中に含まれる描画オブジェクトである。
 図13の描画オブジェクト30内に示す点線枠は、カメラ12を装着した車両10がこの描画オブジェクト30に近づくいていった場合に、カメラ12によって撮影される画像範囲の時間推移を示している。
 例えば、時間t0では、車両10のカメラ12は、時間t0の撮影画像範囲の画像を撮影する。車両10が、描画オブジェクト30が描かれた壁に近づくと、車両10のカメラ12の撮影領域は次第に狭められる。
 すなわち、図13に示すように、時間t1では、車両10のカメラ12は図13の上段に示す描画オブジェクト30内に示す時間t1の撮影画像範囲の画像を撮影する。この時間t1の撮影画像範囲は、時間t0の撮影画像範囲の内側の小さな領域となる。
 さらに、時間t2では、車両10のカメラ12は図13の上段に示す描画オブジェクト30内に示す時間t2の撮影画像範囲の画像を撮影する。時間t2の撮影画像範囲は、時間t1の撮影画像範囲よりさらに内側の小さな領域となる。
 このように、車両10が、描画オブジェクト30が描かれた壁に近づくにつれ、車両10のカメラ12の撮影領域は次第に狭められる。
 図13の下段には、図12と同様、以下の3つの時間経過に伴う撮影画像の例を示している。
 (a)時間t0の撮影画像
 (b)時間t1の撮影画像
 (c)時間t2の撮影画像
 時間はt0~t1~t2の順に経過している。
 3つの画像は、図13上段に示す描画オブジェクト30の撮影画像である。すなわち、以下のように同じ描画オブジェクト30の異なる領域を撮影した画像である。
 (a)時間t0の撮影画像=図13上段に示す描画オブジェクト30の時間t0の撮影画像範囲の撮影画像
 (b)時間t1の撮影画像=図13上段に示す描画オブジェクト30の時間t1の撮影画像範囲の撮影画像
 (c)時間t2の撮影画像=図13上段に示す描画オブジェクト30の時間t2の撮影画像範囲の撮影画像
 時間経過に伴い先行車両が徐々に近づいているように見えるが、単に撮影画像範囲が小さくなり、撮影画像に対して相対的に車両の大きさが大きくなっているに過ぎない。
 図13下段の3つの撮影画像(a)~(c)の各々にも、先に説明した図12と同様のFOE(無限遠点)位置を示している。
 このFOE(無限遠点)位置は、画像解析部111のFOE位置検出部123が、撮影画像から検出したFOE位置である。
 図13下段の3つの撮影画像(a)~(c)の各々に示すFOE(無限遠点)位置は、時間推移(t0→t1→t2)に伴い変化している。
 図の例では、時間推移(t0→t1→t2)に従った3つの撮影画像(a)~(c)の順に、FOE(無限遠点)の位置は、徐々に上方に移動しているのが分かる。
 「(b)時間t1の撮影画像」のFOE(無限遠点)の位置は、「(a)時間t0の撮影画像」のFOE(無限遠点)の位置より、長さ[L1]だけ上部に移動している。
 また、「(c)時間t2の撮影画像」のFOE(無限遠点)の位置は、「(a)時間t0の撮影画像」のFOE(無限遠点)の位置より、長さ[L2]だけ上部に移動している。
 なお、この図13に示す例は、車両10のカメラ12の光軸方向が、描画オブジェクト30の中心位置を向いている場合の例である。
 車両10のカメラ12の光軸方向が、描画オブジェクト30の中心位置を向いている場合、時間t0~t3においてカメラ12が撮影する画像領域は、図13の上段の描画オブジェクト30の中心領域に向かって徐々に狭められることになる。その結果、FOE(無限遠点)の位置は、図13下段の3つの撮影画像(a)~(c)に示すように、徐々に上方向に移動する。
 車両10のカメラ12の光軸方向が、描画オブジェクト30の中心位置以外の位置を向いている場合には、FOE(無限遠点)の位置の移動方向は、図13に示す例とは異なる方向になる。
 なお、車両10のカメラ12の光軸方向が、描画オブジェクト30内のFOE(無限遠点)の位置を向いており車両10もその方向に直進している場合には、車両10のカメラ12が撮影している画像が描画オブジェクト30であってもFOE(無限遠点)の位置の移動が発生しないが、このような偶然の発生する可能性は極めて低い。
 このように、車両10のカメラ12が描画オブジェクト30を撮影している場合、その撮影画像内のFOE(無限遠点)の位置は時間推移に伴い、ある方向に移動して観察される可能性が極めて高くなる。
 図14は、車両10のカメラ12が実際の道路を含む実オブジェクトを撮影している場合と、写真や絵などの道路を含む描画オブジェクトを撮影している場合の時間推移に伴うFOE(無限遠点)の位置変化状態を対比して示す図である。
 図14には、以下の2つの撮影画像時系列データを示している。
 (A)撮影画像が実オブジェクトの場合のFOE(無限遠点)の時間推移に伴う位置変化例
 (B)撮影画像が描画オブジェクト(写真、絵など)の場合のFOE(無限遠点)の時間推移に伴う位置変化例
 図14(A)に示す撮影画像が実オブジェクトの場合には、FOE(無限遠点)の画像内位置は、時間推移に伴って変化しない。
 図14(B)に示す撮影画像が描画オブジェクトの場合には、FOE(無限遠点)の画像内位置は、時間推移に伴って一定方向(図の例では上方向)に移動する。
 このように、時間推移に伴うFOE(無限遠点)の画像内位置の変化を検出することで、カメラ12の撮影画像が実オブジェクトであるか、描画オブジェクトであるかを判定することが可能となる。
 上述したように、図11に示す描画オブジェクト判定部112のFOE位置時間変化解析部131は、撮影画像中のFOE(無限遠点)位置の時間変化を解析する。
 すなわち、図11に示す描画オブジェクト判定部112のFOE位置時間変化解析部131は、
 (a)画像解析部111のFOE位置検出部123が、撮影画像から検出したFOE位置情報
 (b)車両システム200から、入力部104、制御部105を介して入力する車両情報
 これらの情報を入力し、これらの入力情報に基づいて、撮影画像中のFOE(無限遠点)位置の時間変化を解析する。
 この解析結果は、総合判定部135に入力される。
 例えば、単位時間当たりの撮影画像中のFOE(無限遠点)位置の変化量データが総合判定部135に入力される。
 次に、図11に示す描画オブジェクト判定部112のレーン幅時間変化解析部132の実行する処理について説明する。
 図11に示す描画オブジェクト判定部112のレーン幅時間変化解析部132は、以下の各情報を入力する。
 (a)画像解析部111のレーン検出部122が、撮影画像から検出したレーン位置情報
 (b)車両システム200から、入力部104、制御部105を介して入力する車両情報
 FOE位置時間変化解析部131はこれらの入力情報に基づいて、撮影画像中の車両走行レーンのレーン幅の時間変化を解析する。
 車両10のカメラ12、すなわち、イメージセンサ101を有するカメラ12の撮影画像が、車両10が走行中の実際の道路、すなわち実オブジェクトである場合の撮影画像中の車両走行レーンのレーン幅の時間変化の具体例について図15を参照して説明する。
 図15には、以下の3つの時間経過に伴う撮影画像の例を示している。
 (a)時間t0の撮影画像
 (b)時間t1の撮影画像
 (c)時間t2の撮影画像
 時間はt0~t1~t2の順に経過している。
 3つの画像には、時間経過に伴い先行車両が徐々に近づいている画像が撮影されている。
 なお、車両走行レーンの位置は、画像解析部111のレーン検出部122が、撮影画像から検出したレーン位置である。
 前述したように、レーン検出部122は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、道路上のセンターラインや、路側帯、車線境界線等のラインを検出し、これらのラインに基づいて車両10の走行レーンのレーン位置を解析する。
 車両10の走行レーンのレーン幅は、同一の道路を走行中は、多くの場合、時間推移に伴ってほとんど変化しない。
 図15に示すように、(a)時間t0の撮影画像、(b)時間t1の撮影画像、(c)時間t2の撮影画像、これら3つの異なる時間の撮影画像において、車両走行レーン、すなわちライン(路側帯)によって挟まれた車両走行レーンの幅はほぼ一致する。
 なお、車両走行レーンの幅の計測位置は、例えば撮影画像(a)~(c)の各撮影画像中の同一高さ位置で計測する。図に示す例では、各画像の下端からyの位置で走行レーン幅を計測している。
 図15に示すように、(a)時間t0の撮影画像、(b)時間t1の撮影画像、(c)時間t2の撮影画像、これら3つの異なる時間の撮影画像の下端からyの位置の走行レーン幅はいずれもLWaであり、同一のレーン幅である。
 これは、車両10が同一幅の道路を走行し、FOE(無限遠点)がほぼ固定されている場合には、撮影時間が異なっても撮影画像の同一高さ位置では、同じ幅の道路が継続して撮影されるからである。
 次に、図16を参照して車両10のカメラ12、すなわち、イメージセンサ101を有するカメラ12の撮影画像が、先に図3を参照して説明した写真や絵などの描画オブジェクトである場合の撮影画像中の車両走行レーン幅の時間変化の具体例について説明する。
 図16の上段には、写真や絵などの描画オブジェクト30を示している。この描画オブジェクト30は、先に図3を参照して説明したように、例えばレストランの駐車場の壁に描かれた写真や絵である。すなわち、描画オブジェクト30内の道路や車両もすべて実オブジェクトではなく写真や絵の中に含まれる描画オブジェクトである。
 図16の描画オブジェクト30内に示す点線枠は、カメラ12を装着した車両10がこの描画オブジェクト30に近づくいていった場合に、カメラ12によって撮影される画像範囲の時間推移を示している。
 例えば、時間t0では、車両10のカメラ12は、時間t0の撮影画像範囲の画像を撮影する。車両10が、描画オブジェクト30が描かれた壁に近づくと、車両10のカメラ12の撮影領域は次第に狭められる。
 すなわち、図16に示すように、時間t1では、車両10のカメラ12は図16の上段に示す描画オブジェクト30内に示す時間t1の撮影画像範囲の画像を撮影する。この時間t1の撮影画像範囲は、時間t0の撮影画像範囲の内側の小さな領域となる。
 さらに、時間t2では、車両10のカメラ12は図16の上段に示す描画オブジェクト30内に示す時間t2の撮影画像範囲の画像を撮影する。時間t2の撮影画像範囲は、時間t1の撮影画像範囲よりさらに内側の小さな領域となる。
 このように、車両10が、描画オブジェクト30が描かれた壁に近づくにつれ、車両10のカメラ12の撮影領域は次第に狭められる。
 図16の下段には、図15と同様、以下の3つの時間経過に伴う撮影画像の例を示している。
 (a)時間t0の撮影画像
 (b)時間t1の撮影画像
 (c)時間t2の撮影画像
 時間はt0~t1~t2の順に経過している。
 3つの画像は、図16上段に示す描画オブジェクト30の撮影画像である。すなわち、以下のように同じ描画オブジェクト30の異なる領域を撮影した画像である。
 (a)時間t0の撮影画像=図16上段に示す描画オブジェクト30の時間t0の撮影画像範囲の撮影画像
 (b)時間t1の撮影画像=図16上段に示す描画オブジェクト30の時間t1の撮影画像範囲の撮影画像
 (c)時間t2の撮影画像=図16上段に示す描画オブジェクト30の時間t2の撮影画像範囲の撮影画像
 時間経過に伴い先行車両が徐々に近づいているように見えるが、単に撮影画像範囲が小さくなり、撮影画像に対して相対的に車両の大きさが大きくなっているに過ぎない。
 図16下段の3つの撮影画像(a)~(c)の各々にも、先に説明した図15と同様、画像の下端からyの位置の走行レーン幅を示している。
 走行レーンの位置は、画像解析部111のレーン検出部122が、撮影画像から検出したFOE位置である。
 図16下段の3つの撮影画像(a)~(c)の各々に示す各画像の下端からyの位置の走行レーン幅は、時間推移(t0→t1→t2)に伴い変化している。
 図の例では、時間推移(t0→t1→t2)に従った3つの撮影画像(a)~(c)の順に、走行レーン幅は徐々に大きくなっているのが分かる。
 「(a)時間t0の撮影画像」の走行レーン幅はLW0、
 「(b)時間t1の撮影画像」の走行レーン幅はLW1、
 「(a)時間t2の撮影画像」の走行レーン幅はLW2、
 であり、
 LW0<LW1<LW2
 このように、走行レーン幅は徐々に長くなっている。
 このように、車両10のカメラ12が描画オブジェクト30を撮影している場合、その撮影画像内の車両の走行レーンの幅は、時間推移に伴い変化して観察される。
 図17は、車両10のカメラ12が実際の道路を含む実オブジェクトを撮影している場合と、写真や絵などの道路を含む描画オブジェクトを撮影している場合の時間推移に伴う車両走行レーンのレーン幅の変化状態を対比して示す図である。
 図17には、以下の2つの撮影画像時系列データを示している。
 (A)撮影画像が実オブジェクトの場合の車両走行レーンの時間推移に伴うレーン幅変化例
 (B)撮影画像が描画オブジェクト(写真、絵など)の場合の車両走行レーンの時間推移に伴うレーン幅変化例
 図17(A)に示す撮影画像が実オブジェクトの場合には、車両走行レーンのレーン幅は、時間推移に伴って変化しない。
 図17(B)に示す撮影画像が描画オブジェクトの場合には、車両走行レーンのレーン幅は、時間推移に伴って変化する。
 このように、時間推移に伴う車両走行レーンのレーン幅の変化の有無を検出することで、カメラ12の撮影画像が実オブジェクトであるか、描画オブジェクトであるかを推定することが可能となる。
 上述したように、図11に示す描画オブジェクト判定部112のレーン幅時間変化解析部132は、撮影画像中の車両走行レーンのレーン幅の時間変化を解析する。
 すなわち、図11に示す描画オブジェクト判定部112のレーン幅時間変化解析部132は、
 (a)画像解析部111のレーン位置検出部122が、撮影画像から検出したレーン位置情報
 (b)車両システム200から、入力部104、制御部105を介して入力する車両情報
 これらの情報を入力し、これらの入力情報に基づいて、撮影画像中の車両走行レーンのレーン幅の時間変化を解析する。
 この解析結果は、総合判定部135に入力される。
 例えば、単位時間当たりの撮影画像中の車両走行レーンのレーン幅の変化量データが総合判定部135に入力される。
 次に、図11に示す描画オブジェクト判定部112のグランドレベル解析部133が実行する処理の詳細について説明する。
 グランドレベル解析部133は、以下の各情報を入力する。
 (a)画像解析部111のグランドレベル検出部124が、撮影画像から検出したグランドレベル位置情報
 (b)画像解析部111のオブジェクト検出部121が、撮影画像から検出したオブジェクトのオブジェクト情報(オブジェクト位置、距離、種類、大きさ)
 グランドレベル解析部133はこれらの入力情報に基づいて、撮影画像中のグランドレベルが正しい位置から検出されるか否か、具体的には、グランンドレベルが撮影画像内に含まれる接地オブジェクトの接地位置に一致するか否かを解析する。
 具体的には、例えば撮影画像中の車両等の接地オブジェクトのサイズから接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定する。
 さらに、推定したグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分を算出し、この差分が予め既定したしきい値以上であるか否かを判定する。
 車両10のカメラ12、すなわち、イメージセンサ101を有するカメラ12の撮影画像が、車両10が走行中の実際の道路、すなわち実オブジェクトである場合の撮影画像から検出されるグランドレベルと、撮影画像内の車両の接地位置との関係の具体例について図18を参照して説明する。
 図18には、以下の3つの時間経過に伴う撮影画像の例を示している。
 (a)時間t0の撮影画像
 (b)時間t1の撮影画像
 (c)時間t2の撮影画像
 時間はt0~t1~t2の順に経過している。
 3つの画像には、時間経過に伴い先行車両が徐々に近づいている画像が撮影されている。
 各撮影画像には、グランドレベルを示している。
 このグランドレベルは、画像解析部111のグランドレベル検出部124が、撮影画像から検出したグランドレベルである。
 先に、図8、図9を参照して説明したように、グランドレベル検出部124は、まず、イメージセンサ(撮像部)101から入力した撮影画像を解析し、撮影画像内から路面位置を示す特徴点を検出する。
 例えば、図8に示すような車両の走行する路面の両サイドの2本の路側帯(ライン)や樹木を検出し、2本の路側帯(ライン)の位置や樹木の下端位置を路面特徴点として検出する。
 さらに、図9を参照して説明したように、グランドレベル検出部124は、FOE(無限遠点)位置からLx離間した画像位置におけるグランドレベル(路面位置)を以下のようにして推定する。
 すなわち、FOE(無限遠点)位置から距離Lxの位置において、FOE(無限遠点)位置に向かうカメラ光軸と直行し、かつ路面特徴点を結ぶ直線をグランドレベル位置であると推定する。
 図18に示すように、(a)時間t0の撮影画像、(b)時間t1の撮影画像、(c)時間t2の撮影画像、これら3つの異なる時間の撮影画像において、画像解析部111のグランドレベル検出部124が検出したグランドレベルの位置は、撮影画像の被写体である車両(実オブジェクト)の接地位置に一致する。
 なお、グランドレベルは、先に図8、図9を参照して説明したように、FOE(無限遠点)位置からの距離Lxごとに異なる位置に設定される。
 グランドレベル検出部124は、撮影画像に含まれる接地オブジェクト、本例では先行車両または対向車両等の接地オブジェクト(車両)のサイズに基づいて、接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定する。
 接地オブジェクト(車両等)の種類やサイズに対応する、その接地オブジェクト(車両等)の推定接地位置を示す参考グランドレベルは、参考グランドレベル格納部134に格納されている。
 グランドレベル検出部124は、撮影画像に含まれる接地オブジェクト、本例では先行車両または対向車両等の接地オブジェクト(車両)のサイズに基づいて、参考グランドレベル格納部134から、接地オブジェクト(車両等)の種類やサイズに対応する、その接地オブジェクト(車両等)の推定接地位置を示す参考グランドレベルを取得する。
 この結果として得られる参考グランドレベル位置が図18に示すグランドレベル位置である。
 (a)時間t0の撮影画像、(b)時間t1の撮影画像、(c)時間t2の撮影画像、これら3つの異なる時間の撮影画像において、画像解析部111のグランドレベル検出部124が取得した参考グランドレベルの位置は、撮影画像の被写体である車両(実オブジェクト)の接地位置に一致する。
 これは、当然の結果である。すなわち、車両走行レーンを走行中の車両は、グランドレベル(路面位置)の位置にタイヤを接触させながら走行しており、グランドレベルの位置は、撮影画像の被写体である車両(実オブジェクト)の接地位置に一致することになる。
 次に、図19を参照して車両10のカメラ12、すなわち、イメージセンサ101を有するカメラ12の撮影画像が、先に図3を参照して説明した写真や絵などの描画オブジェクトである場合に撮影画像から検出されるグランドレベルと、撮影画像内の車両の接地位置との関係の具体例について説明する。
 図19の上段には、写真や絵などの描画オブジェクト30を示している。この描画オブジェクト30は、先に図3を参照して説明したように、例えばレストランの駐車場の壁に描かれた写真や絵である。すなわち、描画オブジェクト30内の道路や車両もすべて実オブジェクトではなく写真や絵の中に含まれる描画オブジェクトである。
 図19の描画オブジェクト30内に示す点線枠は、カメラ12を装着した車両10がこの描画オブジェクト30に近づいていった場合に、カメラ12によって撮影される画像範囲の時間推移を示している。
 例えば、時間t0では、車両10のカメラ12は、時間t0の撮影画像範囲の画像を撮影する。車両10が、描画オブジェクト30が描かれた壁に近づくと、車両10のカメラ12の撮影領域は次第に狭められる。
 すなわち、図19に示すように、時間t1では、車両10のカメラ12は図19の上段に示す描画オブジェクト30内に示す時間t1の撮影画像範囲の画像を撮影する。この時間t1の撮影画像範囲は、時間t0の撮影画像範囲の内側の小さな領域となる。
 さらに、時間t2では、車両10のカメラ12は図19の上段に示す描画オブジェクト30内に示す時間t2の撮影画像範囲の画像を撮影する。時間t2の撮影画像範囲は、時間t1の撮影画像範囲よりさらに内側の小さな領域となる。
 このように、車両10が、描画オブジェクト30が描かれた壁に近づくにつれ、車両10のカメラ12の撮影領域は次第に狭められる。
 図19の下段には、図18と同様、以下の3つの時間経過に伴う撮影画像の例を示している。
 (a)時間t0の撮影画像
 (b)時間t1の撮影画像
 (c)時間t2の撮影画像
 時間はt0~t1~t2の順に経過している。
 3つの画像は、図19上段に示す描画オブジェクト30の撮影画像である。すなわち、以下のように同じ描画オブジェクト30の異なる領域を撮影した画像である。
 (a)時間t0の撮影画像=図19上段に示す描画オブジェクト30の時間t0の撮影画像範囲の撮影画像
 (b)時間t1の撮影画像=図19上段に示す描画オブジェクト30の時間t1の撮影画像範囲の撮影画像
 (c)時間t2の撮影画像=図19上段に示す描画オブジェクト30の時間t2の撮影画像範囲の撮影画像
 時間経過に伴い先行車両が徐々に近づいているように見えるが、単に撮影画像範囲が小さくなり、撮影画像に対して相対的に車両の大きさが大きくなっているに過ぎない。
 図19下段の3つの撮影画像(a)~(c)の各々にも、先に説明した図18と同様、グランドレベルの位置を示している。
 このグランドレベルは、図6に示す画像解析部111のグランドレベル検出部124が検出したグランドレベルである。
 なお、グランドレベルは、先に図8、図9を参照して説明したように、FOE(無限遠点)位置からの距離Lxごとに異なる位置に設定される。
 前述したように、グランドレベル検出部124は、撮影画像に含まれる接地オブジェクト、本例では先行車両または対向車両等の接地オブジェクト(車両)のサイズに基づいて、接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定する。
 接地オブジェクト(車両等)の種類やサイズに対応する、その接地オブジェクト(車両等)の推定接地位置を示す参考グランドレベルは、参考グランドレベル格納部134に格納されている。
 グランドレベル検出部124は、撮影画像に含まれる接地オブジェクト、本例では先行車両または対向車両等の接地オブジェクト(車両)のサイズに基づいて、参考グランドレベル格納部134から、接地オブジェクト(車両等)の種類やサイズに対応する、その接地オブジェクト(車両等)の推定接地位置を示す参考グランドレベルを取得する。
 この結果として得られる参考グランドレベル位置が図19に示すグランドレベル位置である。
 (a)時間t0の撮影画像では、画像解析部111のグランドレベル検出部124が取得した参考グランドレベルの位置は、撮影画像の被写体である車両(実オブジェクト)の接地位置に一致する。
 しかし、(b)時間t1の撮影画像、(c)時間t2の撮影画像、これらの時間の撮影画像において、画像解析部111のグランドレベル検出部124が取得した参考グランドレベルの位置は、撮影画像の被写体である車両(実オブジェクト)の接地位置に一致しない。
 これは、撮影画像が実際の道路等の実オブジェクト撮影画像ではなく、写真や絵等の描画オブジェクトの撮影画像であるからである。
 このように、車両10のカメラ12が描画オブジェクト30を撮影している場合、その撮影画像内の接地オブジェクト(車両等)の接地位置と、その接地オブジェクト(車両等)のサイズ変化に基づいて推定されるグラントレベルの位置とが一致しないという現象が発生する。
 なお、上述した処理例では、グランドレベル検出部124が、接地オブジェクト(車両等)の種類やサイズに対応する推定接地位置を示す参考グランドレベルを取得する例として説明したが、このような参考グランドレベル格納部134の格納データを用いない構成も可能である。
 すなわち、グランドレベル検出部124が、撮影画像に含まれる接地オブジェクト(車両)のサイズに基づいてその接地位置となるグランドレベルの位置を推定(算出)する処理を行ってもよい。
 例えば、以下のような処理を行う。
 グランドレベル検出部124は、撮影画像に含まれる接地オブジェクト、本例では先行車両または対向車両等の接地オブジェクト(車両)のサイズに基づいて、接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定する。
 まず、描画オブジェクト判定部112のグランドレベル解析部133は、図19下段の「(a)時間t0の撮影画像」において、撮影画像の被写体である車両の接地位置にグランドレベルを設定する。
 グランドレベル解析部133は、図19下段の「(a)時間t0の撮影画像」における車両サイズ(車両幅)と、グランドレベル位置のライン(路側帯)間幅を算出する。以下の各幅データである。
 車両サイズ(車両幅)=CW
 グランドレベル位置のライン(路側帯)間の幅=LW
 である。
 次に、グランドレベル解析部133は、図19下段の「(b)時間t1の撮影画像」から、車両サイズ(車両幅)を算出する。以下の車両幅データである。
 車両サイズ(車両幅)=1.5CW
 すなわち、「(b)時間t1の撮影画像」の車両サイズ(車両幅)は、「(a)時間t0の撮影画像」の車両サイズ(車両幅)の1.5倍であること算出する。
 グランドレベル解析部133は、この倍率(1.5倍)に基づいて、「(b)時間t1の撮影画像」のグランドレベル位置のライン(路側帯)間幅も同一倍率(1.5倍の1.5LW)になると推定し、このようなライン(路側帯)間幅が設定可能なグランドレベル位置を求める。
 この結果、図19下段の「(b)時間t1の撮影画像」に示すグランドレベル設定位置が検出される。
 図19下段の「(b)時間t1の撮影画像」に示すグランドレベルは、
 グランドレベル位置のライン(路側帯)間の幅=1.5LW
 すなわち、図19下段の「(b)時間t1の撮影画像」における車両サイズ(車両幅)と、グランドレベル位置のライン(路側帯)間幅は、以下の各幅データである。
 車両サイズ(車両幅)=1.5CW
 グランドレベル位置のライン(路側帯)間の幅=1.5LW
 このように、グランドレベル解析部133は、参考グランドレベル格納部134の格納データを用いず、撮影画像に含まれる接地オブジェクト(車両)のサイズに基づいてその接地位置となるグランドレベルの位置を推定(算出)する処理を行ってもよい。
 撮影画像が実画像である場合、時間t0の撮影画像の車両サイズ(車両幅)と、グランドレベル位置のライン(路側帯)間幅を同一倍率で拡大した場合、グランドレベル位置と車両接地位置は一致する。
 しかし、図19下段の「(b)時間t1の撮影画像」では、グランドレベル位置と車両接地位置は一致していない。
 これは、撮影画像が実際の道路等の実オブジェクト撮影画像ではなく、写真や絵等の描画オブジェクトの撮影画像であるからである。
 同様に、グランドレベル解析部133は、図19下段の「(c)時間t2の撮影画像」から、車両サイズ(車両幅)を算出する。以下の車両幅データである。
 車両サイズ(車両幅)=2.0CW
 すなわち、「(c)時間t2の撮影画像」の車両サイズ(車両幅)は、「(a)時間t0の撮影画像」の車両サイズ(車両幅)の2.0倍であること算出する。
 グランドレベル解析部133は、この倍率(2.0倍)に基づいて、「(c)時間t2の撮影画像」のグランドレベル位置のライン(路側帯)間幅も同一倍率(2.0倍の2.0LW)になると推定し、このようなライン(路側帯)間幅が設定可能なグランドレベル位置を求める。
 この結果、図19下段の「(c)時間t2の撮影画像」に示すグランドレベル設定位置が検出される。
 図19下段の「(c)時間t2の撮影画像」に示すグランドレベルは、
 グランドレベル位置のライン(路側帯)間の幅=2.0LW
 すなわち、図19下段の「(c)時間t2の撮影画像」における車両サイズ(車両幅)と、グランドレベル位置のライン(路側帯)間幅は、以下の各幅データである。
 車両サイズ(車両幅)=2.0CW
 グランドレベル位置のライン(路側帯)間の幅=2.0LW
 このように、グランドレベル解析部133は、参考グランドレベル格納部134の格納データを用いず、撮影画像に含まれる接地オブジェクト(車両)のサイズに基づいてその接地位置となるグランドレベルの位置を推定(算出)する処理を行うことが可能である。
 撮影画像が実画像である場合、時間t0の撮影画像の車両サイズ(車両幅)と、グランドレベル位置のライン(路側帯)間幅を同一倍率で拡大した場合、グランドレベル位置と車両接地位置は一致する。
 しかし、図19下段の「(c)時間t2の撮影画像」では、グランドレベル位置と車両接地位置は一致していない。
 これは、撮影画像が実際の道路等の実オブジェクト撮影画像ではなく、写真や絵等の描画オブジェクトの撮影画像であるからである。
 上述したように、車両10のカメラ12が描画オブジェクト30を撮影している場合、その撮影画像内の接地オブジェクト(車両等)の接地位置と、その接地オブジェクト(車両等)のサイズ変化に基づいて推定されるグラントレベルの位置とが一致しないという現象が発生する。
 図20は、車両10のカメラ12が実際の道路を含む実オブジェクトを撮影している場合と、写真や絵などの道路を含む描画オブジェクトを撮影している場合の時間推移に伴うグランドレベルと車両接地位置との対応関係の推移を対比して示す図である。
 図20には、以下の2つの撮影画像時系列データを示している。
 (A)撮影画像が実オブジェクトの場合のグランドレベルと車両接地位置との時間推移に伴う対応関係の変化例
 (B)撮影画像が描画オブジェクト(写真、絵など)の場合のグランドレベルと車両接地位置との時間推移に伴う対応関係の変化例
 図20(A)に示す撮影画像が実オブジェクトの場合には、グランドレベルと車両接地位置は時間推移が発生しても、位置ずれが起こらず、常に、グランドレベル=車両接地位置の関係性が維持される。
 一方、図20(B)に示す撮影画像が描画オブジェクトの場合には、グランドレベルと車両接地位置は時間推移が発生すると位置ずれが起こり、グランドレベル=車両接地位置の関係性が維持されない。
 すなわち、車両がグランドレベルより高い位置に浮いているような状態になる。
 このように、グランドレベル位置と実オブジェクト(車両等)の接地位置との一致、不一致を検出することで、カメラ12の撮影画像が実オブジェクトであるか、描画オブジェクトであるかを推定することが可能となる。
 上述したように、図11に示す描画オブジェクト判定部112のグランドレベル解析部133は、撮影画像中のグランドレベルが正しい位置から検出されるか否か、具体的には、グランンドレベルが撮影画像内に含まれる接地オブジェクトの接地位置に一致するか否かを解析する。
 すなわち、まず、車両10に装着したカメラ12の撮影画像中の車両等の接地オブジェクトのサイズから接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定する。
 さらに、推定した接地オブジェクト(車両等)対応のグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分を算出し、この差分が予め既定したしきい値以上であるか否かを判定する。
 このように、図11に示す描画オブジェクト判定部112のグランドレベル解析部133は、
 (a)画像解析部111のグランドレベル検出部124が、撮影画像から検出したグランドレベル位置情報
 (b)画像解析部111のオブジェクト検出部121が、撮影画像から検出したオブジェクトのオブジェクト情報(オブジェクト位置、距離、種類、大きさ)
 これらの入力情報に基づいて、撮影画像中のグランドレベルが正しい位置から検出されるか否かを判定する。
 具体的には、カメラの撮影画像中の車両等の接地オブジェクトのサイズから接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定し、推定した接地オブジェクト(車両等)対応のグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分を算出し、この差分解析結果を総合判定部135に入力する。
 次に、図11に示す描画オブジェクト判定部112の総合判定部135が実行する処理について説明する。
 描画オブジェクト判定部112の総合判定部135は、以下の各データを入力する。
 (a)FOE位置時間変化解析部131が解析した撮影画像中のFOE(無限遠点)位置の時間変化データ、例えば、撮影画像中のFOE(無限遠点)位置の単位時間当たりの変化量
 (b)レーン幅時間変化解析部132が解析した撮影画像中の車両走行レーンのレーン幅の時間変化データ、例えば、撮影画像中の車両走行レーンのレーン幅の単位時間当たりの変化量
 (c)グランドレベル解析部133が解析した撮影画像中の接地オブジェクト(車両等)対応のグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分データ
 図11に示す描画オブジェクト判定部112の総合判定部135は、これらの入力データに基づいて、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)によって撮影された画像が実際の道路等の実オブジェクトであるか、壁などに描かれた写真や絵などの描画オブジェクトであるかを判定する。
 具体的には、以下の判定結果を出力する。
 (a)FOE位置時間変化解析部131が解析した撮影画像中のFOE(無限遠点)位置の時間変化データ、例えば、撮影画像中のFOE(無限遠点)位置の単位時間当たりの変化量が予め規定したしきい値以上である場合には、カメラ12の撮影画像が描画オブジェクトであると判定する。
 さらに、
 (b)レーン幅時間変化解析部132が解析した撮影画像中の車両走行レーンのレーン幅の時間変化データ、例えば、撮影画像中の車両走行レーンのレーン幅の単位時間当たりの変化量が予め規定したしきい値以上である場合には、カメラ12の撮影画像が描画オブジェクトであると判定する。
 さらに、
 (c)グランドレベル解析部133が解析した撮影画像中の接地オブジェクト(車両等)対応のグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分が予め規定したしきい値以上である場合には、カメラ12の撮影画像が描画オブジェクトであると判定する。
 これらのいずれにも該当しない場合、すなわち、
 (a)FOE位置時間変化解析部131が解析した撮影画像中のFOE(無限遠点)位置の単位時間当たりの変化量が予め規定したしきい値未満であり、かつ、
 (b)レーン幅時間変化解析部132が解析した撮影画像中の車両走行レーンのレーン幅の単位時間当たりの変化量が予め規定したしきい値未満であり、かつ、
 (c)グランドレベル解析部133が解析した撮影画像中の接地オブジェクト(車両等)対応のグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分が予め規定したしきい値未満である、
 これらの条件をすべて満たす場合には、カメラ12の撮影画像が描画オブジェクトでなく、実際の道路等の実オブジェクトであると判定する。
 描画オブジェクト判定部112の総合判定部135の判定結果、すなわちカメラ12の撮影画像が実オブジェクトであるか、描画オブジェクトであるかの判定結果は、図5に示すように、画像信号解析部102の出力部114を介して車両制御部103に出力される。
 車両制御部103は、この判定結果に基づいて、車両制御を行う。
 例えば、カメラ12の撮影画像が描画オブジェクトであると判定した場合は、警告通知処理を行い、さらに、自動運転実行中である場合は、運転者に対して手動運転への切り替え要求を行い、手動運転への移行手続きを実行する。
 なお、これらの処理のシーケンスについては後段においてフローチャートを参照して説明する。
  [5.オブジェクト解析部の構成と処理の詳細について]
 次に、図5に示す画像信号解析部102内のオブジェクト解析部113の構成と処理の詳細について説明する。
 先に図5を参照して説明したように、図5に示す画像信号解析部102内のオブジェクト解析部113は、画像解析部111による撮影画像解析結果に基づいて、撮影画像に含まれる様々なオブジェクトの種類や距離などを解析する。
 例えば、障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトの位置、距離(カメラからの距離)、種類、大きさなどのオブジェクト情報を各オブジェクト単位で解析する。
 具体的には、例えば車両10が走行レーンを逸脱しないか否かの判定処理や、走行の妨げとなるオブジェクトに対する接近状態などの解析処理を行う。
 図21は、オブジェクト解析部113の詳細構成を示す図である。
 図21に示すように、オブジェクト解析部113は、レーン逸脱判定部141と、オブジェクト接近判定部142を有する。
 レーン逸脱判定部141は、ライン到達時間算出部151と、レーン逸脱判定キャンセル要件有無判定部152を有する。
 オブジェクト接近判定部142は、オブジェクト到達時間算出部153と、オブジェクト接近判定キャンセル要件有無判定部154を有する。
 レーン逸脱判定部141は、車両10が走行レーンを逸脱しないか否かの判定処理を行う。
 オブジェクト接近判定部142は、走行の妨げとなるオブジェクトに対する接近状態などの解析処理を実行する。
 レーン逸脱判定部141のライン到達時間算出部151は、以下の各情報を入力する。
 (a)画像解析部111のレーン検出部122が、撮影画像から検出した車両10の走行する走行レーンのレーン位置情報
 (b)車両システム200から、入力部104、制御部105を介して入力する車両情報
 レーン逸脱判定部141のライン到達時間算出部151は、これらの入力情報に基づいて、車両10が走行する走行レーンの道路左右端部に記録されたライン(路側帯、中央分離帯等)までに到達する時間を算出する。
 レーン逸脱判定部141が入力する車両情報には、車両の進行方向や車両の速度が含まれている。
 ライン到達時間算出部151は、これらの車両情報と、画像解析部111のレーン検出部122が撮影画像から検出した車両10の走行する走行レーンのレーン位置情報に基づいて、車両10が走行レーン左右のライン(路側帯、中央分離帯等)に到達するまでの時間を算出する。
 算出した時間情報は、レーン逸脱判定キャンセル要件有無判定部152に入力される。
 レーン逸脱判定キャンセル要件有無判定部152は、車両10による走行レーンの逸脱が正当な理由に基づいて実行されているか否かを判定する。すなわち、車両10が走行レーンを逸脱してラインを超える正当な理由があるか否かを解析する。
 例えば、車両10がウィンカによる合図を出力して走行レーンを変更しようとしている。あるいは運転者がステアリング(ハンドル)を操作して走行レーンを変更しようとしている。このような場合は、走行レーンの逸脱が正当な理由に基づいて実行されていると判定する。
 なお、レーン逸脱判定キャンセル要件有無判定部152にも車両システム200から制御部105を介して車両情報が入力されており、ウィンカの出力状態やステアリングの操作状態などを解析した上で走行レーンの逸脱が正当な理由に基づいて実行されているかの判定処理が実行される。
 レーン逸脱判定キャンセル要件有無判定部152は、レーン逸脱が正当な理由に基づいて実行されていないと判定した場合、ライン到達時間算出部151が算出したライン到達時間が予め規定したしきい値時間以下となった段階で、「レーン逸脱危険あり」のレーン逸脱判定結果を、出力部114を介して車両制御部103に出力する。
 車両制御部103は、レーン逸脱判定部141から、「レーン逸脱危険あり」のレーン逸脱判定結果を入力した場合、車両10が走行中のレーンを逸脱しないように自動運転による走行制御を行う。例えばステアリングの調整や、速度の調整を行う。さらに、運転者に対する警告出力などを行ってもよい。
 次に、オブジェクト接近判定部142が実行する処理について説明する。
 オブジェクト接近判定部142は、走行の妨げとなるオブジェクトに対する接近状態などの解析処理を実行する。
 オブジェクト接近判定部142のライン到達時間算出部153は、以下の各情報を入力する。
 (a)画像解析部111のオブジェクト検出部121が、撮影画像から検出したオブジェクトの位置や距離からなるオブジェクト情報
 (b)車両システム200から、入力部104、制御部105を介して入力する車両情報
 なお、上記(a)のオブジェクト情報は、車両10の安全走行に対する障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトの位置、距離などのオブジェクト情報である。
 オブジェクト接近判定部142のオブジェクト到達時間算出部153は、上記(a),(b)の入力情報に基づいて、車両10が撮影画像から検出されたオブジェクトの位置に到達する時間を算出する。
 オブジェクト接近判定部142が入力する車両情報には、車両の進行方向や車両の速度が含まれている。
 オブジェクト到達時間算出部153は、これらの車両情報と、画像解析部111のオブジェクト検出部122が撮影画像から検出したオブジェクトの位置、距離情報に基づいて、車両10がオブジェクトに到達するまでの時間を算出する。
 算出した時間情報は、オブジェクト接近判定キャンセル要件有無判定部154に入力される。
 オブジェクト接近判定キャンセル要件有無判定部154は、車両10によるオブジェクトへの接近が正当な理由に基づいて実行されているか否かを判定する。すなわち、車両10がオブジェクトに接近する正当な理由があるか否かを解析する。
 例えば、運転者がステアリング(ハンドル)を操作しながら、アクセルを踏んで先行車両(接近オブジェクト)を追い抜こうとしているような場合は、走行オブジェクトへの接近が正当な理由に基づいて実行されていると判定する。
 なお、オブジェクト接近判定キャンセル要件有無判定部154にも車両システム200から制御部105を介して車両情報が入力されており、ウィンカの出力状態やステアリングの操作状態などを解析した上で、オブジェクトへの接近が正当な理由に基づいて実行されているかを判定する。
 オブジェクト接近判定キャンセル要件有無判定部154は、オブジェクトへの接近が正当な理由に基づいて実行されていないと判定した場合には、以下の処理を実行する。
 すなわち、オブジェクト到達時間算出部153が算出したオブジェクトまでの到達時間が予め規定したしきい値時間以下となった段階で、「オブジェクト接近危険あり」のオブジェクト接近判定結果を、出力部114を介して車両制御部103に出力する。
 車両制御部103は、オブジェクト接近判定部142から、「オブジェクト接近危険あり」のオブジェクト接近判定結果を入力した場合、車両10がオブジェクトに接近しすぎないように自動運転による走行制御を行う。例えばステアリングの調整や、速度の調整を行う。さらに、運転者に対する警告出力などを行ってもよい。
  [6.本開示の画像信号処理装置が実行する処理のシーケンスについて]
 次に、本開示の画像信号処理差装置が実行する処理のシーケンスについて説明する。
 図22は、本開示の画像信号処理装置、すなわち先に図5を参照して説明した画像信号処理装置100が実行する処理のシーケンスについて説明するフローチャートである。
 なお、図22に示すフローチャートは、主として画像信号処理装置100の画像信号解析部102内の描画オブジェクト判定部112の処理を中心として説明するフローチャートである。
 すなわち、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像が実際の道路等からなる実オブジェクトの画像であるか、壁に描かれた写真や絵などの描画オブジェクトであるかの判定処理と判定結果に基づく処理を中心として説明するフローチャートである。
 なお、図22に示すフローチャートに従った処理は、例えば、画像信号処理装置100内の記憶部に格納されたプログラムに従って実行することが可能である。
 画像信号処理装置100は、プログラム実行機能を有するCPU等のプロセッサを備え、記憶部に格納されたプログラムに従って図22に示すフローチャートに従った処理を実行することができる。
 以下、フローチャートの各ステップの処理について説明する。
  (ステップS101)
 まず、ステップS101において、画像信号処理装置100の画像信号解析部102は、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像を入力する。
 なお、イメージセンサ(撮像部)101は、図1に示す車両10に搭載されたカメラ12内のイメージセンサであり、車両10の進行方向の画像を撮影する。
 なお、本開示の信号処理装置100において利用するカメラ12は、単眼カメラである。単眼カメラ内のイメージセンサ(撮像部)101による撮影画像は、画像信号解析部102に入力される。
  (ステップS102)
 次に画像信号解析部102は、ステップS102において、入力したカメラ撮影画像の解析処理を実行する。
 この処理は、図5に示す画像処理部102内の画像解析部111が実行する処理である。
 画像解析部111は、イメージセンサ(撮像部)101から入力した撮影画像の解析処理を実行する。先に図5、図6他を参照して説明したように、具体的には、
 (a)オブジェクト検出処理
 (b)レーン検出処理
 (c)FOE(無限遠点)位置検出処理
 (d)グランドレベル検出処理
 (e)車両進行方向検出処理
 これらの処理を実行する。
 すなわち、先に図6~図10を参照して説明したように、
 画像解析部111のオブジェクト検出部121は、イメージセンサ(撮像部)101から入力した撮影画像に含まれる様々なオブジェクトの種類や距離などを解析する。
 例えば、障害物となりえる対向車や先行車両、さらに歩行者、街路樹など、様々なオブジェクトの位置、距離(カメラからの距離)、種類、大きさなどのオブジェクト情報を各オブジェクト単位で解析する。
 また、画像解析部111のレーン検出部122は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、車両が走行中のレーンを検出する。
 また、画像解析部111のFOE(無限遠点)位置検出部123は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、撮影画像内のFOE(無限遠点)位置を検出する。
 さらに、画像解析部111のグランドレベル検出部124は、イメージセンサ(撮像部)101から入力した撮影画像を解析し、撮影画像内のグランドレベル(路面位置)を検出する。
 さらに、車両進行方向検出部125は、車両10に搭載したカメラ12(イメージセンサ101を有するカメラ)から入力した撮影画像と、車両システム200から、入力部、制御部195を介して入力する車両情報に基づいて、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であるか否かを判定する。
  (ステップS103)
 次に、画像信号処理装置102は、ステップS103において、描画オブジェクト判定処理を実行する。
 この処理は、図5に示す画像信号解析部102内の描画オブジェクト判定部112が実行する処理である。
 前述したように、描画オブジェクト判定部112は、画像解析部111による撮影画像解析結果に基づいて、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する。
 このステップS103の処理の詳細シーケンスについては、後段において図23に示すフローチャートを参照して説明する。
  (ステップS104)
 ステップS104は、ステップS103における描画オブジェクト判定処理の判定結果に基づく分岐処理である。
 ステップS103における描画オブジェクト判定処理において、車両10に装着されたカメラ12の撮影画像に含まれるオブジェクトが実際の道路等の実オブジェクトであると判定された場合は、ステップS104の判定処理結果はNoとなり、ステップS101に戻り、ステップS101以下の処理を繰り返す。
 すなわち、新たな撮影画像の解析処理を開始する。
 一方、ステップS103における描画オブジェクト判定処理において、車両10に装着されたカメラ12の撮影画像に含まれるオブジェクトが実際の道路等の実オブジェクトでなく、写真や絵などの描画オブジェクトであると判定された場合は、ステップS104の判定処理結果はYesとなり、ステップS105に進む。
  (ステップS105)
 ステップS104で、カメラ12の撮影画像に含まれるオブジェクトが実際の道路等の実オブジェクトでなく、写真や絵などの描画オブジェクトであると判定された場合は、ステップS105の処理を実行する。
 この場合、画像信号解析部102は、ステップS105において、カメラ12の撮影画像に含まれるオブジェクトが実際の道路等の実オブジェクトでなく、写真や絵などの描画オブジェクトであることを車両制御部に通知する。
 車両制御部103は、この通知に応じて、車両10の運転者に対する警告を行う。すなわち、衝突可能性のあるオブジェクトが存在することの警告(Warning)を出力する。
  (ステップS106)
 さらに、車両制御部103は、ステップS106において、車両110が、現在、自動運転実行中であるか、手動運転実行中であるかを判定する。
 自動運転実行中でない場合、すなわち手動運転実行中である場合は、ステップS101に戻り、新たな撮影画像の処理に移行する。
 一方、車両10が、現在、自動運転実行中である場合は、ステップS107に進む。
  (ステップS107)
 ステップS107の処理は、車両10が、現在、自動運転実行中である場合に行われる処理である。
 車両10が、現在、自動運転実行中である場合、車両制御部103は、自動運転処理を停止し、運転者に手動運転を行わせるための運転主体ハンドオーバー(引継ぎ)処理の開始手続きに移行する。
 この後、運転が自動運転から手動運転に切り替わり、運転者による前方確認の下、車両10が制御され、写真や絵などの描画オブジェクトに衝突させることなく車両10を安全に停止させることができる。
 なお、手動運転への切り替えがスムーズに実行されていないことが検知された場合には、車両10を緊急停止させるなどの処理が行われる。
 次に、ステップS103の処理、すなわち描画オブジェクト判定処理の詳細シーケンスについて、図23に示すフローチャートを参照して説明する。
 前述したように、この処理は、図5に示す画像信号解析部102内の描画オブジェクト判定部112が実行する処理である。
 描画オブジェクト判定部112は、画像解析部111による撮影画像解析結果に基づいて、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する。
 図23に示すフローの各ステップの処理について順次、説明する。
  (ステップS201)
 まず、画像信号解析部102は、ステップS201において、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中か否かを判定する。
 この判定処理は、図5、図6を参照して説明した画像信号解析部102の画像解析部111内の車両進行方向検出部125による検出結果に基づいて行われる。
 車両進行方向検出部125は、車両10に搭載したカメラ12(イメージセンサ101を有するカメラ)から入力した撮影画像と、車両システム200から、入力部、制御部195を介して入力する車両情報に基づいて、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であるか否かを判定する。
 この判定結果である車両進行方向解析情報は、描画オブジェクト判定部112に入力される。
 車両10がカメラ12の光軸方向に向かって走行中でない場合は、ステップS202以下の処理は行わない。
 すなわち、カメラ12の撮影画像に含まれるオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理は行わない。
 前述したように、車両10がカメラ12の光軸方向に向かって走行中でない場合は、カメラ12の撮影画像に基づいて、その撮影画像内のオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理が困難であるからである。
 この場合は、ステップS207に進み、描画オブジェクト判定処理を中止して、図22に示すフローのステップS104に進む。
 なお、この場合、ステップS104の判定は、Noと判定されることになり、ステップS101に戻って、次の撮影画像に対する処理に移行する。
 車両10がカメラ12の光軸方向に向かって走行中である場合は、ステップS202以下の処理を実行する。
 車両10がカメラ12の光軸方向に向かって走行中である場合は、カメラ12の撮影画像に基づいて、その撮影画像内のオブジェクトが実際のオブジェクトであるか写真や絵などの描画オブジェクトであるかを判定する処理が可能であるからである。
  (ステップS202)
 ステップS202~S206の処理は、ステップS201において、車両10が、車両10に装着したカメラ12の光軸方向に向かって走行中であると判定された場合に実行する。
 この場合、まず、ステップS202において、車両10に装着したカメラ12の撮影画像から検出されるFOE(無限遠点)位置の単位時間当たりの変化量が予め規定したしきい値以上であるか否かを判定する。
 この処理は、図11に示す描画オブジェクト判定部112のFOE位置時間変化解析部131と、総合判定部135が実行する処理である。
 FOE(無限遠点)位置の単位時間当たりの変化量が予め規定したしきい値以上である場合は、ステップS202の判定はYesとなり、ステップS206に進む。
 この場合、ステップS206において、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際のオブジェクトではなく、写真や絵などの描画オブジェクトであると判定する。
 一方、FOE(無限遠点)位置の単位時間当たりの変化量が予め規定したしきい値未満である場合は、ステップS202の判定はNoとなり、ステップS203に進む。
 なお、ステップS202の判定処理が不可能な場合、例えば撮影画像からのFOE(無限遠点)位置検出ができなかった場合などもステップS203に進む。
  (ステップS203)
 ステップS202の判定処理において、FOE(無限遠点)位置の単位時間当たりの変化量が予め規定したしきい値未満である場合、すなわちステップS202の判定結果がNoの場合、あるいは、ステップS202の判定処理の判定結果が得られなかった場合は、ステップS203に進む。
 この場合、描画オブジェクト判定部112は、ステップS203において、車両10に装着したカメラ12の撮影画像から検出される車両走行レーンのレーン幅の単位時間当たりの変化量が予め規定したしきい値以上であるか否かを判定する。
 この処理は、図11に示す描画オブジェクト判定部112のレーン幅時間変化解析部132と、総合判定部135が実行する処理である。
 車両走行レーンのレーン幅の単位時間当たりの変化量が予め規定したしきい値以上である場合は、ステップS203の判定はYesとなり、ステップS206に進む。
 この場合、ステップS206において、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際のオブジェクトではなく、写真や絵などの描画オブジェクトであると判定する。
 一方、車両走行レーンのレーン幅の単位時間当たりの変化量が予め規定したしきい値未満である場合は、ステップS203の判定はNoとなり、ステップS204に進む。
 なお、ステップS203の判定処理が不可能な場合、例えば撮影画像から車両走行レーンのレーン幅の検出ができなかった場合などもステップS204に進む。
  (ステップS204)
 ステップS203の判定処理において、車両走行レーンのレーン幅の単位時間当たりの変化量が予め規定したしきい値未満である場合、すなわちステップS203の判定結果がNoの場合、あるいは、ステップS203の判定処理の判定結果が得られなかった場合は、ステップS204に進む。
 この場合、描画オブジェクト判定部112は、ステップS204において、まず、車両10に装着したカメラ12の撮影画像中の車両等の接地オブジェクトのサイズから接地オブジェクト(車両等)の接地位置対応のグランドレベル位置を推定する。
 さらに、推定したグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分を算出し、この差分が予め既定したしきい値以上であるか否かを判定する。
 この処理は、図11に示す描画オブジェクト判定部112のグランドレベル解析部133と、総合判定部135が実行する処理である。
 車両等の接地オブジェクトのサイズから推定されるグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分が予め規定したしきい値以上である場合は、ステップS204の判定はYesとなり、ステップS206に進む。
 この場合、ステップS206において、車両10に装着されたカメラ12(イメージセンサ101を有するカメラ)の撮影画像に含まれるオブジェクトが実際のオブジェクトではなく、写真や絵などの描画オブジェクトであると判定する。
 一方、車両等の接地オブジェクトのサイズから推定されるグラントレベル位置と、車両等の接地オブジェクトの接地位置(タイヤ下端位置)との差分が予め規定したしきい値未満である場合は、ステップS204の判定はNoとなり、ステップS205に進む。
 なお、ステップS204の判定処理が不可能な場合、例えば撮影画像から車両等の接地オブジェクトが検出できなかった場合や、グランドレベルの位置検出ができなかった場合などもステップS205に進む。
  (ステップS205)
 描画オブジェクト判定部112は、ステップS205において、カメラ12の撮影画像が描画オブジェクトでない、すなわち実際の道路等を撮影した実オブジェクトであると判定する。
 ステップS205においてカメラ12の撮影画像が描画オブジェクトでなく実オブジェクトであると判定した場合、あるいは、ステップS206において、カメラ12の撮影画像が描画オブジェクトであると判定した後は、ステップS207に進む。
 ステップS207では、描画オブジェクト判定処理を終了して、図22に示すフローのステップS104に進む。
 描画オブジェクト判定部112は、図23に示すフローに従った処理を行うことで、車両10に装着したカメラ12による撮影画像が実際の道路等を撮影した実オブジェクトであるか、壁などに描かれた写真や絵などの描画オブジェクトであるかを判定する。
 車両制御部103は、この判定結果に基づいて、車両制御を行う。
 例えば、カメラ12の撮影画像が描画オブジェクトであると判定した場合は、警告通知処理を行い、さらに、自動運転実行中である場合は、運転者に対して手動運転への切り替え要求を行い、手動運転への移行手続きを実行する。
 このような処理を行うことで、自動運転車両が誤って壁などに衝突することを防止することが可能となる。
  [7.本開示の信号処理装置のハードウェア構成例について]
 次に、上述した処理を実行する本開示の信号処理装置100のハードウェア構成例について説明する。
 図24は、上述した処理を実行する移動装置内に装着される信号処理装置100のハードウェア構成の一例である。
 以下、図24に示すハードウェア構成例の各構成要素について説明する。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、タッチパネル、マウス、マイクロフォン、さらに、センサ、カメラ、GPS等の状況データ取得部などよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。
 なお、入力部306には、距離センサやカメラ等のセンサ321からの入力情報も入力される。
 また、出力部307は、車両の駆動を行う駆動部322に対する情報としてオブジェクトの距離、位置情報等も出力する。
 CPU301は、入力部306から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [8.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析部を有する信号処理装置。
 (2) 前記画像信号解析部は、
 前記撮影画像からFOE(無限遠点)位置を検出するFOE(無限遠点)位置検出部と、
 前記FOE(無限遠点)位置検出部が検出したFOE(無限遠点)位置の時間変化に基づいて、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する描画オブジェクト判定部を有し、
 前記描画オブジェクト判定部は、
 FOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する(1)に記載の信号処理装置。
 (3) 前記描画オブジェクト判定部は、
 前記単眼カメラが撮影した複数の時系列画像を解析して、FOE(無限遠点)位置の単位時間当たりの変化量を算出し、
 前記複数の時系列画像の解析によって算出したFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する(2)に記載の信号処理装置。
 (4) FOE(無限遠点)位置検出部は、
 直線道路上に記録された複数のラインが撮影画像内で交わる無限遠方の点をFOE(無限遠点)位置として検出する(2)または(3)に記載の信号処理装置。
 (5) 前記画像信号解析部は、
 前記撮影画像から前記車両が走行する走行レーンを検出するレーン検出部と、
 前記レーン検出部が検出した走行レーンのレーン幅の時間変化に基づいて、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する描画オブジェクト判定部を有し、
 前記描画オブジェクト判定部は、
 レーン幅の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する(1)~(4)いずれかに記載の信号処理装置。
 (6) 前記描画オブジェクト判定部は、
 前記単眼カメラが撮影した複数の時系列画像を解析して、レーン幅の単位時間当たりの変化量を算出し、
 前記複数の時系列画像の解析によって算出したレーン幅の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する(5)に記載の信号処理装置。
 (7) 前記画像信号解析部は、
 前記撮影画像からグランドレベルを検出するグランンドレベル検出部と、
 前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分に基づいて、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する描画オブジェクト判定部を有し、
 前記描画オブジェクト判定部は、
 前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する(1)~(6)いずれかに記載の信号処理装置。
 (8) 前記描画オブジェクト判定部は、
 前記単眼カメラが撮影した複数の時系列画像を解析して、前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分を検出し、
 前記複数の時系列画像の解析によって検出された前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する(7)に記載の信号処理装置。
 (9) 前記接地オブジェクトは、前記車両に先行する先行車両、または対向車両であり、
 前記接地オブジェクトの接地位置は、前記先行車両、または前記対向車両のタイヤの下端位置である(7)または(8)に記載の信号処理装置。
 (10) 前記描画オブジェクト判定部は、
 前記撮影画像内の接地オブジェクトのサイズに基づいて、前記接地オブジェクトの接地位置対応のグランドレベル位置を算出、または記憶部から取得する(7)~(9)いずれかに記載の信号処理装置。
 (11) 前記画像信号解析部は、
 前記撮影画像から検出されるFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値未満であり、かつ、
 前記撮影画像から検出される前記車両が走行する走行レーンのレーン幅の単位時間当たりの変化量が規定しきい値未満であり、かつ、
 前記撮影画像から検出されるグランドレベルと、前記撮影画像内の接地オブジェクトの接地位置との差分が規定しきい値未満である場合、
 前記撮影画像内のオブジェクトが実オブジェクトであると判定する(1)~(10)いずれかに記載の信号処理装置。
 (12) 前記画像信号解析部は、
 前記車両が前記単眼カメラの光軸方向に走行しているか否かを判定する画像解析部を有し、
 前記画像信号解析部は、
 前記画像解析部が、前記車両が前記単眼カメラの光軸方向に走行していると判定した場合に、
 前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかの判定処理を実行する(1)~(11)いずれかに記載の信号処理装置。
 (13) 前記画像信号解析部は、
 前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかの判定結果を車両制御部に出力し、
 車両制御部は、
 前記画像信号解析部から、前記撮影画像内のオブジェクトが描画オブジェクトであるとの判定結果を入力した場合、警告を出力する(1)~(12)いずれかに記載の信号処理装置。
 (14) 車両制御部は、
 前記画像信号解析部から、前記撮影画像内のオブジェクトが描画オブジェクトであるとの判定結果を入力し、かつ、前記車両が自動運転実行中である場合、
 前記車両を自動運転から手動運転へ移行させる処理を開始する(13)に記載の信号処理装置。
 (15) 信号処理装置において実行する信号処理方法であり、
 画像信号解析部が、
 車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析処理を実行する信号処理方法。
 (16) 信号処理装置において信号処理を実行させるプログラムであり、
 画像信号解析部に、
 車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、単眼カメラが撮影する撮影画像を解析して、撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する構成が実現される。
 具体的には、例えば、車両に搭載した単眼カメラの撮影画像を解析して撮影画像内のオブジェクトが実オブジェクトか描画オブジェクトかを判定する。画像信号解析部は、撮影画像内のFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、または撮影画像から検出したレーン幅の単位時間当たりの変化量が規定しきい値以上である場合、または撮影画像内の車両等の接地位置と、車両接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、撮影画像内のオブジェクトが描画オブジェクトであると判定する。
 本構成により、単眼カメラが撮影する撮影画像を解析して、撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する構成が実現される。
  10 車両
  12 カメラ
  20 撮影画像
  30 描画オブジェクト
  40 撮影画像
 100 信号処理装置
 101 イメージセンサ(撮像部)
 102 画像信号解析部
 103 車両制御部
 104 入力部
 105 制御部
 111 画像解析部
 112 描画オブジェクト判定部
 113 オブジェクト解析部
 114 出力部
 121 オブジェクト検出部
 122 レーン検出部
 123 FOE(無限遠点)位置検出部
 124 グランドレベル検出部
 125 車両進行方向検出部
 131 FOE位置時間変化解析部
 132 レーン幅時間変化解析
 133 グランドレベル解析部
 134 参考グランドレベル格納部
 135 総合判定部
 141 レーン逸脱判定部
 142 オブジェクト接近判定部
 151 ライン到達時間算出部
 152 レーン逸脱判定キャンセル要件有無判定部
 153 オブジェクト到達時間算出部
 154 オブジェクト接近判定キャンセル要件有無判定部
 200 車両システム
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア
 321 センサ
 322 駆動部

Claims (16)

  1.  車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析部を有する信号処理装置。
  2.  前記画像信号解析部は、
     前記撮影画像からFOE(無限遠点)位置を検出するFOE(無限遠点)位置検出部と、
     前記FOE(無限遠点)位置検出部が検出したFOE(無限遠点)位置の時間変化に基づいて、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する描画オブジェクト判定部を有し、
     前記描画オブジェクト判定部は、
     FOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する請求項1に記載の信号処理装置。
  3.  前記描画オブジェクト判定部は、
     前記単眼カメラが撮影した複数の時系列画像を解析して、FOE(無限遠点)位置の単位時間当たりの変化量を算出し、
     前記複数の時系列画像の解析によって算出したFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する請求項2に記載の信号処理装置。
  4.  FOE(無限遠点)位置検出部は、
     直線道路上に記録された複数のラインが撮影画像内で交わる無限遠方の点をFOE(無限遠点)位置として検出する請求項2に記載の信号処理装置。
  5.  前記画像信号解析部は、
     前記撮影画像から前記車両が走行する走行レーンを検出するレーン検出部と、
     前記レーン検出部が検出した走行レーンのレーン幅の時間変化に基づいて、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する描画オブジェクト判定部を有し、
     前記描画オブジェクト判定部は、
     レーン幅の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する請求項1に記載の信号処理装置。
  6.  前記描画オブジェクト判定部は、
     前記単眼カメラが撮影した複数の時系列画像を解析して、レーン幅の単位時間当たりの変化量を算出し、
     前記複数の時系列画像の解析によって算出したレーン幅の単位時間当たりの変化量が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する請求項5に記載の信号処理装置。
  7.  前記画像信号解析部は、
     前記撮影画像からグランドレベルを検出するグランンドレベル検出部と、
     前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分に基づいて、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する描画オブジェクト判定部を有し、
     前記描画オブジェクト判定部は、
     前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する請求項1に記載の信号処理装置。
  8.  前記描画オブジェクト判定部は、
     前記単眼カメラが撮影した複数の時系列画像を解析して、前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分を検出し、
     前記複数の時系列画像の解析によって検出された前記撮影画像内の接地オブジェクトの接地位置と、前記接地オブジェクトの接地位置対応のグランドレベル位置との差分が規定しきい値以上である場合、前記撮影画像内のオブジェクトが描画オブジェクトであると判定する請求項7に記載の信号処理装置。
  9.  前記接地オブジェクトは、前記車両に先行する先行車両、または対向車両であり、
     前記接地オブジェクトの接地位置は、前記先行車両、または前記対向車両のタイヤの下端位置である請求項7に記載の信号処理装置。
  10.  前記描画オブジェクト判定部は、
     前記撮影画像内の接地オブジェクトのサイズに基づいて、前記接地オブジェクトの接地位置対応のグランドレベル位置を算出、または記憶部から取得する請求項7に記載の信号処理装置。
  11.  前記画像信号解析部は、
     前記撮影画像から検出されるFOE(無限遠点)位置の単位時間当たりの変化量が規定しきい値未満であり、かつ、
     前記撮影画像から検出される前記車両が走行する走行レーンのレーン幅の単位時間当たりの変化量が規定しきい値未満であり、かつ、
     前記撮影画像から検出されるグランドレベルと、前記撮影画像内の接地オブジェクトの接地位置との差分が規定しきい値未満である場合、
     前記撮影画像内のオブジェクトが実オブジェクトであると判定する請求項1に記載の信号処理装置。
  12.  前記画像信号解析部は、
     前記車両が前記単眼カメラの光軸方向に走行しているか否かを判定する画像解析部を有し、
     前記画像信号解析部は、
     前記画像解析部が、前記車両が前記単眼カメラの光軸方向に走行していると判定した場合に、
     前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかの判定処理を実行する請求項1に記載の信号処理装置。
  13.  前記画像信号解析部は、
     前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかの判定結果を車両制御部に出力し、
     車両制御部は、
     前記画像信号解析部から、前記撮影画像内のオブジェクトが描画オブジェクトであるとの判定結果を入力した場合、警告を出力する請求項1に記載の信号処理装置。
  14.  車両制御部は、
     前記画像信号解析部から、前記撮影画像内のオブジェクトが描画オブジェクトであるとの判定結果を入力し、かつ、前記車両が自動運転実行中である場合、
     前記車両を自動運転から手動運転へ移行させる処理を開始する請求項13に記載の信号処理装置。
  15.  信号処理装置において実行する信号処理方法であり、
     画像信号解析部が、
     車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析処理を実行する信号処理方法。
  16.  信号処理装置において信号処理を実行させるプログラムであり、
     画像信号解析部に、
     車両に搭載した単眼カメラが撮影する撮影画像を入力し、入力した撮影画像の画像解析により、前記撮影画像内のオブジェクトが実オブジェクトであるか描画オブジェクトであるかを判定する画像信号解析処理を実行させるプログラム。
PCT/JP2022/013432 2021-09-13 2022-03-23 信号処理装置、および信号処理方法、並びにプログラム WO2023037628A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-148641 2021-09-13
JP2021148641 2021-09-13

Publications (1)

Publication Number Publication Date
WO2023037628A1 true WO2023037628A1 (ja) 2023-03-16

Family

ID=85507364

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/013432 WO2023037628A1 (ja) 2021-09-13 2022-03-23 信号処理装置、および信号処理方法、並びにプログラム

Country Status (1)

Country Link
WO (1) WO2023037628A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252147A (ja) * 2002-02-26 2003-09-10 Toyota Motor Corp 車両用障害物検出装置
JP2008287692A (ja) * 2007-04-16 2008-11-27 Honda Motor Co Ltd 障害物認識装置
JP2010020476A (ja) * 2008-07-09 2010-01-28 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
WO2020189266A1 (ja) * 2019-03-18 2020-09-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び情報処理システム
JP2021026557A (ja) * 2019-08-06 2021-02-22 三菱電機株式会社 障害物検知装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252147A (ja) * 2002-02-26 2003-09-10 Toyota Motor Corp 車両用障害物検出装置
JP2008287692A (ja) * 2007-04-16 2008-11-27 Honda Motor Co Ltd 障害物認識装置
JP2010020476A (ja) * 2008-07-09 2010-01-28 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
WO2020189266A1 (ja) * 2019-03-18 2020-09-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び情報処理システム
JP2021026557A (ja) * 2019-08-06 2021-02-22 三菱電機株式会社 障害物検知装置

Similar Documents

Publication Publication Date Title
EP3258214B1 (en) Object detection device
JP6331811B2 (ja) 信号機検出装置及び信号機検出方法
JP4755227B2 (ja) 物体を認識するための方法
EP2927054A1 (en) On-vehicle control device
US11987239B2 (en) Driving assistance device
US11318930B2 (en) Parking assistance device and parking assistance method
JP2024023319A (ja) 緊急車両の検出
JP2011053809A (ja) 車両用白線認識装置
CN104797488A (zh) 驾驶辅助装置
JP4940177B2 (ja) 交通流計測装置
WO2019065970A1 (ja) 車両用外界認識装置
US20210402992A1 (en) Apparatus and method for setting planned trajectory
US6956959B2 (en) Apparatus for recognizing environment
JP2002334330A (ja) 車両認識装置
JP6115429B2 (ja) 自車位置認識装置
EP4009228A1 (en) Method for determining a semantic free space
JP2020047210A (ja) 物体検出装置
JP6763198B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2023037628A1 (ja) 信号処理装置、および信号処理方法、並びにプログラム
JP2015035055A (ja) 移動物体進入判定装置及び移動物体進入判定方法
KR102444675B1 (ko) 주변 객체의 차로 변경 예측 장치 및 방법
CN113160605B (zh) 一种融合的车位识别方法
CN114084129A (zh) 一种基于融合的车辆自动驾驶控制方法及系统
JP2001101420A (ja) 障害物検出装置及びその方法
CN113492846A (zh) 控制装置、控制方法以及存储程序的计算机可读取存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22866960

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE