WO2014142367A1 - Electronic device and method for controlling same - Google Patents

Electronic device and method for controlling same Download PDF

Info

Publication number
WO2014142367A1
WO2014142367A1 PCT/KR2013/001999 KR2013001999W WO2014142367A1 WO 2014142367 A1 WO2014142367 A1 WO 2014142367A1 KR 2013001999 W KR2013001999 W KR 2013001999W WO 2014142367 A1 WO2014142367 A1 WO 2014142367A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
vanishing
camera parameter
image
parameter
Prior art date
Application number
PCT/KR2013/001999
Other languages
French (fr)
Korean (ko)
Inventor
김현수
이중재
박영경
박준오
진주경
한종우
이남승
박덕기
이제훈
박수범
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2013/001999 priority Critical patent/WO2014142367A1/en
Publication of WO2014142367A1 publication Critical patent/WO2014142367A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present invention relates to an electronic device capable of acquiring an image while driving and a control method thereof.
  • Electronic devices that can have such functions can be divided into portable electronic devices such as terminals, and fixed electronic devices such as video display devices and refrigerators.
  • the portable electronic device may be mounted on a vehicle and display driving information of the vehicle.
  • the vehicle may be equipped with a camera.
  • the camera may be mounted on at least one of the front part and the rear part of the vehicle, and may acquire an image from the outside.
  • the controller may detect a roadway outer line indicating a lane mark, a shoulder, and the like, an obstacle, another vehicle, a pedestrian, and the like, from the acquired image, and display the detection result on the display unit.
  • the controller may calculate distance information between the front vehicle and the rear vehicle using the acquired image.
  • the camera may be inclined, and thus the obtained image may be distorted.
  • the camera pitches down, and the camera acquires an image in which lanes converge.
  • the camera pitches up, and the camera acquires an image in which the lane diverges.
  • An object of the present invention is to provide an electronic device and a control method thereof capable of acquiring an undistorted image even when the vehicle is inclined.
  • An electronic device includes a main body; A camera that acquires an image from the outside while the main body is driving; A memory for storing the first camera parameter as a camera parameter; And predicting a vanishing line using the vanishing point detected in the obtained image, generating a second camera parameter based on the predicted vanishing line, and comparing the first and second camera parameters to update the camera parameter. It includes a control unit for determining whether or not.
  • the controller may correct the pitch motion of the camera using the updated camera parameter.
  • the camera parameter may include an internal parameter and an external parameter, the internal parameter may include a focal length value of the camera, and the external parameter may be an angle on x, y, and z axes of the camera. It may include.
  • the control unit may detect a vanishing point in the obtained image, predict the vanishing line using the detected vanishing point, and verify the reliability of the predicted vanishing line.
  • the control unit may extract an image related to the inclination of the lane from the obtained image, extract intersection points of lane candidates from the extracted image, and detect any one of the extracted intersection points as a vanishing point. Can be.
  • the controller may correct the detected vanishing point based on statistical information of the extracted intersection points.
  • the control unit may include: a short term filter for predicting a vanishing line using a vanishing point of each frame; And a long term filter that predicts a vanishing line by using an average of vanishing points of each of a predetermined number of frames.
  • control unit may generate reliability information related to the degree of parallelism of the lane candidates and determine whether to correct the predicted vanishing line based on the reliability information.
  • the controller may determine whether the convergence condition of the second camera parameter is satisfied based on at least one of a travel distance, a travel time, and a travel speed.
  • the control unit may update the second camera parameter to a new camera parameter when the convergence condition is satisfied, and maintain the first camera parameter as the camera parameter when the convergence condition is not satisfied. Can be.
  • the control unit may store the new camera parameter in the memory when the start of the main body is stopped when the convergence condition is satisfied.
  • One embodiment of the present invention relates to a control method of an electronic device including a main body.
  • the control method of the electronic device may include loading a first camera parameter stored in a memory as a camera parameter; Acquiring an image from the outside using a camera while driving the main body; Predicting a vanishing line using the vanishing point detected in the acquired image, and generating a second camera parameter based on the predicted vanishing line; And comparing the first and second camera parameters to determine whether to update the camera parameters.
  • the control method of the electronic device may further include correcting a pitch motion of the camera by using the updated camera parameter.
  • the method may further include estimating a vanishing line using the vanishing point detected in the acquired image, and generating a second camera parameter based on the predicted vanishing line, detecting the vanishing point in the obtained image. ; Predicting a vanishing line using the detected vanishing point; And verifying reliability of the predicted vanishing line.
  • the detecting of the vanishing point in the acquired image may include: extracting an image related to a slope of a lane from the obtained image; Extracting intersections of lane candidates from the extracted image; And detecting any one of the extracted intersection points as a vanishing point.
  • the present invention may predict the vanishing line using the vanishing point of the acquired image and generate a new camera parameter corresponding to the predicted vanishing line.
  • the present invention can correct the pitch motion of a camera using the generated new camera parameter when the generated new camera parameter satisfies the update condition. As a result, the present invention can automatically obtain the undistorted image by automatically correcting the pitch motion of the camera even when the vehicle is inclined.
  • FIG. 1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 2 is a conceptual diagram illustrating a visible region according to a pitch motion of a camera provided in a vehicle.
  • 3 is a conceptual diagram illustrating lanes in world coordinates generated by pitch motion.
  • FIG. 4 is a flowchart illustrating a control method of an electronic device according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method of predicting a vanishing line in an acquired image.
  • FIG. 6 is a flowchart illustrating a method of detecting a vanishing point in an acquired image.
  • FIG. 7 is a conceptual diagram illustrating an algorithm in which a short term filter predicts a disappearance line.
  • FIG. 8 is a conceptual diagram illustrating an algorithm in which a long term filter predicts a vanishing line.
  • FIG. 9 is a conceptual diagram illustrating an embodiment in which bright points are classified before and after correction of pitch motion.
  • a vehicle terminal described herein may mean a terminal installed in a vehicle.
  • a vehicle terminal is not only a fixed terminal embedded in a vehicle, but also a mobile phone, a smartphone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player that can be attached to and detached from a cradle. ), A navigator, etc. may be included.
  • PDA personal digital assistant
  • FIG. 1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • the vehicle terminal 100 may include a wireless communication unit 110, an output unit 120, a user input unit 130, a memory 140, a power supply unit 150, a microphone 170, and a controller 160. It may include. Since the components shown in FIG. 1 are not essential, the vehicle terminal 100 having more or fewer components may be implemented.
  • the wireless communication unit 110 may include one or more modules that enable wireless communication between the vehicle terminal 100 and the external server 200 or between the vehicle terminal 100 and a network in which the vehicle terminal 100 is located.
  • the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, and a GPS receiver 115.
  • the broadcast receiving module 111 receives a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast related information means information related to a broadcast channel, a broadcast program or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network.
  • the broadcast related information may be received by the mobile communication module 112.
  • the broadcast signal and the broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.
  • the mobile communication module 112 transmits and receives a wireless signal with at least one of a base station, an external terminal, and an external server 200 on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of voice call signals, video call signals, text messages or multimedia messages.
  • the mobile communication module 112 may receive information on a predetermined region and content corresponding to the predetermined region from an external server.
  • the wireless internet module 113 is a module for wireless internet access and may be built in or external to the vehicle terminal 100.
  • Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
  • the short range communication unit 114 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used.
  • the vehicle terminal 100 may wirelessly connect a mobile terminal (not shown) located near the vehicle by using the short-range communication unit 114, and perform a call using the mobile terminal (not shown).
  • the GPS receiver 115 is a module for obtaining a location of the vehicle terminal 100, and a representative example thereof is a satellite navigation device (GPS).
  • GPS satellite navigation device
  • the GPS receiver 115 may calculate location information of the vehicle in which the vehicle terminal 100 is installed.
  • the output unit 120 generates an output related to visual, auditory, tactile, and the like.
  • the output unit 120 may include a display unit 121, a sound output module 122, and an alarm unit 123.
  • the display unit 121 displays (outputs) information processed by the vehicle terminal 100. For example, when the vehicle terminal 100 operates in the navigation mode, the display 121 displays a user interface (UI) or a graphic user interface (GUI) related to the navigation. When the vehicle terminal 100 operates in the broadcast reception mode, the display 121 displays the received image, the UI, or the GUI.
  • UI user interface
  • GUI graphic user interface
  • the display unit 121 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT-LCD), an organic light emitting diode (OLED), or a flexible display (flexible).
  • the display may include at least one of a 3D display and an e-ink display.
  • At least one display (or display element) included in the display unit 121 may be configured to be transparent or light transmissive so that the outside can be seen therethrough. This may be referred to as a transparent display.
  • a representative example of such a transparent display is TOLED (Transparant OLED).
  • the display unit 151 may have a light transmissive structure on the windshield of the vehicle. With this structure, the object located in front of the vehicle can be seen through the area occupied by the display 121 in the vehicle. For example, a front glass window for checking the front of the vehicle may be used as the display unit 121.
  • a plurality of display units may be spaced apart from or integrally located on one surface, or may be located on different surfaces.
  • the display unit 121 may output a map according to the navigation mode.
  • the GPS receiver 115 may map location information of the vehicle calculated on the map.
  • the driving information of the vehicle calculated by the controller 160 may be output to the display 121.
  • the driving information may include information related to the driving of the vehicle, such as the speed of the vehicle, the position of the vehicle, the residual amount of oil, and the direction in which the vehicle is headed.
  • mapping refers to outputting by overlaying a graphic image or an object on a predetermined position of a 2D or 3D image called a map.
  • the output of a new pop-up window on the map may be regarded as mapping of the pop-up window on the map.
  • the object refers to graphic elements such as an application icon, a widget, a thumbnail image, and the like.
  • the touch sensor may have the form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a pressure applied to a specific portion of the display 121 or a change in capacitance generated at a specific portion of the display 121 into an electrical input signal.
  • the touch sensor may be configured to detect a touch pressure as well as a touched position and area.
  • the display unit 121 may be used as an input device in addition to the output device.
  • the display unit 121 may be referred to as a “touch screen”.
  • a touch controller (not shown).
  • the touch controller processes the signals transmitted from the touch sensor and then transmits data corresponding to the processed signals to the controller 160. As a result, the controller 160 can determine which area of the display 121 is touched.
  • the touch screen When the touch screen is capacitive, the touch screen may be configured to detect the proximity of the sensing object by the change of the electric field according to the proximity of the sensing object.
  • the touch screen may be classified as the proximity sensor 141.
  • the sound output module 122 may output audio data received from the wireless communication unit 110 or stored in the memory 140 in a call signal reception, a call mode or a recording mode, a voice selection mode, a broadcast reception mode, and the like.
  • the sound output module 122 may output a sound signal related to a function (for example, a call signal reception sound, a message reception sound, a navigation alarm, etc.) performed in the vehicle terminal 100.
  • the sound output module 122 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 123 outputs a signal for notifying occurrence of an event of the vehicle terminal 100. Examples of events generated in the vehicle terminal 100 include call signal reception, message reception, key signal input, and touch input.
  • the alarm unit 123 may output a signal for notifying occurrence of an event by vibration, in addition to a video signal or an audio signal. Since the video signal or the audio signal may be output through the display 121 or the sound output module 122, the display 121 and the sound output module 122 may be classified as part of the alarm unit 123.
  • the user input unit 130 generates input data for the user to control the operation of the vehicle terminal 100.
  • the user input unit 130 may be composed of a key pad, a dome switch, a touch pad (static and electrostatic), a jog wheel, a jog switch, and the like.
  • the user input unit 130 may detect a touch input for at least one predetermined area output to the display unit 121.
  • the memory 140 may store a program for the operation of the controller 160 and may temporarily store input and output data (for example, a predetermined area, a still image, a video, etc.).
  • the memory 140 may store data relating to various patterns of vibration and sound output when a touch is input on the touch screen.
  • the memory 140 may be a flash memory, a hard disk, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), random access memory.
  • RAM static random access memory
  • ROM read-only memory
  • EEPROM electrically erasable programmable read-only memory
  • PROM programmable read-only memory
  • magnetic memory magnetic disk
  • optical disk It may include at least one storage medium.
  • the vehicle terminal 100 may operate in association with a web storage that performs a storage function of the memory 140 on the Internet.
  • the power supply unit 150 receives external power and internal power under the control of the controller 160 to supply power required for the operation of each component.
  • the microphone 170 processes the sound signal input from the outside in the call mode, the recording mode, the voice selection mode, and the like as electrical voice data.
  • the voice data processed by the microphone 170 in the call mode may be converted into a form transmittable to a mobile terminal wirelessly connected through the local area communication unit 114 and output.
  • the microphone 170 may implement various noise removing algorithms for removing noise generated in the process of inputting an external sound signal.
  • the controller 160 controls the overall operation of the vehicle terminal 100. For example, control and processing related to receiving a predetermined area, calculating position information, and determining whether to enter a predetermined area is performed.
  • the controller 160 may store one or more predetermined areas received from the external server 200 in the memory 140.
  • the controller 160 may determine whether the vehicle enters the at least one predetermined region by using the location information calculated by the GPS receiver. As a result of the determination, when entering the predetermined area, content corresponding to the predetermined area may be played.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using software, hardware or a combination thereof.
  • the embodiments described herein include Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs). It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. In some cases, the embodiments described herein may be implemented by the controller 160 itself.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code can be implemented in software applications written in the appropriate programming languages. Such software code may be stored in the memory 140 and executed by the controller 160.
  • FIG. 2 is a conceptual diagram illustrating a visible region according to a pitch motion of a camera provided in a vehicle.
  • a vehicle may include an electronic device 100.
  • the electronic device 100 may include a camera 180, a memory 140, a controller 160, and a display 121.
  • the camera 180 may be mounted on at least one of the front part and the rear part of the vehicle, and may acquire an image from the outside.
  • the controller 160 may detect a roadway outer line indicating a lane mark, a shoulder, and the like, an obstacle, another vehicle, a pedestrian, and the like, from the acquired image, and display the detection result on the display 121. .
  • the controller 160 may calculate distance information between the front vehicle and the rear vehicle using the acquired image.
  • an image acquired by the camera 180 in a state where the vehicle is not inclined has a general viewable area.
  • the vehicle can be inclined due to the inclination of the road or the weight of the occupants.
  • the camera 180 is also tilted, and accordingly, the visible area of the image acquired by the camera 180 may be changed.
  • the camera 180 pitches down and the camera 180 acquires an image in which lanes converge. do.
  • the camera 180 pitches up and the camera 180 acquires an image in which the lane diverges.
  • the inclination of the vehicle due to the inclination of the roadway or the weight of the occupant generates a pitch motion of the camera 180, thereby causing a change in the visible area.
  • 3 is a conceptual diagram illustrating lanes in world coordinates generated by pitch motion.
  • 3A shows a lane image.
  • 3B shows a lane on the world coordinate in a situation where the vehicle is not inclined, that is, there is no pitch motion.
  • 3C shows a lane on the world coordinate in a situation in which the vehicle is inclined forward, that is, in a pitch down state.
  • 3D shows a lane on the world coordinate in a situation in which the vehicle is inclined backward, that is, in a pitched up state.
  • the information of the world coordination is distorted by the pitch motion.
  • Parallelism of lanes is not guaranteed in the acquired image, and distance information between different vehicles is distorted. Accordingly, when the pitch motion is not corrected, an error may occur in the lane detection or the algorithm for estimating the distance between other vehicles or the pedestrian.
  • the electronic device 100 stably estimates the vanishing point and automatically corrects the pitch motion of the camera 180 according to the driving distance, the traveling speed, and the traveling time at the time of driving of the vehicle without additional driver's operation. It will be described with reference to the accompanying drawings.
  • the electronic device 100 may include a camera 180, a memory 140, a controller 160, and a display 121.
  • a step (S110) of loading a first camera parameter stored in the memory 140 as a camera parameter is performed.
  • the controller 160 may load the first camera parameter as the initial camera parameter when the vehicle starts up.
  • the first camera parameter means the most recently updated camera parameter.
  • the controller 160 may initialize camera parameters.
  • the camera parameter refers to a conversion constant for acquiring world coordinate information from an image acquired by the camera 180.
  • the camera parameter may include at least one of an internal parameter and an external parameter.
  • the internal parameter includes a focal length value and a center value of the camera 180
  • the external parameter includes an angle on the x, y and z axes of the camera 180.
  • operation S120 an image is acquired from the outside using the camera 180 while the vehicle is driving.
  • the camera 180 may be mounted on at least one of the front part and the rear part of the vehicle, and may acquire an image from the outside.
  • the vanishing line is detected using the vanishing point detected in the acquired image, and a second camera parameter is generated based on the predicted vanishing line (S130).
  • the controller 160 may extract an input value for performing online calibration based on the acquired image.
  • the controller 160 may perform online calibration to predict the vanishing line and generate a second camera parameter based on the predicted vanishing line.
  • step S140 is performed in which it is determined whether to update the camera parameters by comparing the first and second camera parameters.
  • the controller 160 may inspect the update condition of the second camera parameter based on at least one of the travel distance, the travel time, and the travel speed.
  • the controller 160 may update the second camera parameter with the new camera parameter.
  • the controller 160 may store the new camera parameter in the memory 140 when the vehicle is stopped.
  • the controller 160 may correct the pitch motion of the camera 180 by using the new camera parameter.
  • the controller 160 may continuously maintain the first camera parameter as the camera parameter.
  • the present invention may predict the vanishing line by using the vanishing point of the acquired image, and generate a new camera parameter corresponding to the predicted vanishing line.
  • the present invention can correct the pitch motion of the camera 180 by using the generated new camera parameter when the generated new camera parameter satisfies the update condition. As a result, according to the present invention, even when the vehicle is inclined, the pitch motion of the camera 180 is automatically corrected, thereby obtaining an undistorted image.
  • the electronic device 100 may include a camera 180, a memory 140, a controller 160, and a display 121.
  • a vanishing point is detected in an image acquired by the camera 180 (S210). This will be described in more detail with reference to FIG. 6.
  • the controller 160 may extract an image related to the inclination of the lane from the obtained image (S310).
  • the controller 160 may find lane candidates in the extracted image (S320), extract intersections of the lane candidates (S330), and detect any one of the extracted intersection points as a vanishing point (S340).
  • the controller 160 may display points on a portion corresponding to the lane in the acquired image.
  • the controller 160 may extract an intersection point when a straight line connecting the points is drawn.
  • the controller 160 may detect, as the vanishing point, the point at which the most intersection points are displayed based on the extracted statistical information of the intersection points.
  • step S220 is followed in which the vanishing point is tracked.
  • the controller 160 may acquire the statistics of the vanishing point for a predetermined period while tracking the vanishing point. By continuing to track the vanishing point, the controller 160 can correct the vanishing point found in the wrong instant. Accordingly, the controller 160 may robustly process noise.
  • a step (S230) in which a vanishing line is predicted proceeds.
  • the controller 160 includes a short term filter and a long term filter.
  • the short term filter may predict the vanishing line using the vanishing point of each frame.
  • the long term filter may calculate an average of vanishing points of each of a predetermined number of frames, and predict the vanishing line using the average.
  • the short term filter may be used to correct for pitch motion that is changed instantaneously by curvature of the roadway.
  • the long term filter may be used to correct the pitch motion changed as the vehicle body is tilted by the occupant.
  • step S240 is performed in which reliability of the vanishing line is verified.
  • the controller 160 may generate reliability information related to the degree of parallelism of the lane candidates, and determine whether to correct the predicted vanishing line based on the reliability information.
  • Reliability information may be defined to the degree of parallelism of the lane candidates.
  • the reliability information can be calculated using the vector dot product.
  • the controller 160 may correct the predicted vanishing line based on the reliability information, and may update camera parameters.
  • the present invention may predict the vanishing line using the corrected vanishing point instead of directly using the vanishing point to predict the vanishing line.
  • the present invention can predict the vanishing line using both the short term filter and the long term filter.
  • FIG. 7 is a conceptual diagram illustrating an algorithm in which a short term filter predicts a disappearance line.
  • the first portion P1 refers to a portion that predicts the vanishing line with the detected vanishing point
  • the second portion P2 converges to the reference vanishing line VL REF when the detection of the vanishing point fails. It means the part to do.
  • FIG. 7 (a) is y (VP), which means the y coordinate of the vanishing point.
  • FIG. 7B is a flow weight, and means the influence of the currently detected vanishing point on predicting the short term vanishing line VL SHORT .
  • 7 (c) is an inertia weight, and means the influence of the update amount ⁇ VL SHORT of the short term vanishing line predicted in the previous frame.
  • an average value of the flow weight and the inertial weight may be used to predict the short term vanishing line VL SHORT . That is, the flow weight and the inertial weight can buffer each other.
  • FIG. 7D is a compensation weight, which means the speed of convergence to the reference vanishing line VL REF when the detection of the vanishing point fails.
  • the reference vanishing line VL REF is a value associated with the first camera parameter in FIG. 4. Accordingly, when the detection of the vanishing point fails, the controller 160 can use the first camera parameter, which is the most recent camera parameter.
  • FIG. 7E means the update amount ⁇ VL SHORT of the short term vanishing line predicted by the short term filter.
  • the update amount ⁇ VL SHORT of the short term vanishing line means a difference value between the most recent vanishing line and the vanishing line predicted by the current short term filter.
  • the update amount ⁇ VL SHORT of the short term vanishing line may be delayed D to the previous frame and then multiplied by the inertia weight.
  • the reference vanishing line VL REF is a value associated with the first camera parameter in FIG. 4.
  • FIG. 7G illustrates a final short term vanishing line VL SHORT as a final value.
  • FIG. 8 is a conceptual diagram illustrating an algorithm in which a long term filter predicts a vanishing line.
  • the long term filter obtains an average of vanishing points of each of the latest n frames (eg, 300 frames), and predicts a vanishing line using the average.
  • vanishing point data of each of the last n frames may be stored in the memory 140.
  • FIG. 9 is a conceptual diagram illustrating an embodiment in which bright points are classified before and after correction of pitch motion.
  • objects are not easily classified by bumps or the like before the pitch motion is corrected.
  • the control unit 160 since the control unit 160 only uses color information and brightness information for classification of objects, the objects 302 and 303 are overlapped based on the vanishing line (horizontal line) 301. 302, 303) was not easy to distinguish between the front vehicle and other objects.
  • the controller 160 controls the front vehicle 305 located above the vanishing line 304 and the streetlight 306 located above the front lane 305 based on the vanishing line 304. It can be detected easily.
  • the total calculation time may be determined by setting a region of interest (ROI) for vehicle search.
  • ROI region of interest
  • the lane detection algorithm using the camera homography performance is determined by the accuracy of the camera homography. Therefore, according to the present invention which compensates for the inaccuracy of camera parameters due to the pitch motion change of the camera 180, the accuracy of the algorithm can be increased.
  • processor-readable code on a medium in which a program is recorded.
  • processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the configuration and method of the above-described embodiments may not be limitedly applied, but all or a part of the embodiments may be selectively combined so that various modifications may be made. It may be.

Abstract

The present invention relates to an electronic device capable of acquiring an image during driving and a method for controlling the same. The electronic device according to an embodiment of the present invention comprises: a main body; a camera for acquiring an image from the outside during driving of the main body; a memory for storing a first camera parameter as a camera parameter; and a control unit for predicting a vanishing line using a vanishing point detected in the acquired image, for generating a second camera parameter on the basis of the predicted vanishing line, and for comparing the first camera parameter and the second camera parameter, thereby determining whether to update the camera parameter.

Description

전자 기기 및 그것의 제어 방법Electronic device and its control method
본 발명은 주행 중 영상을 획득할 수 있는 전자 기기 및 그것의 제어 방법에 관한 것이다.The present invention relates to an electronic device capable of acquiring an image while driving and a control method thereof.
정보화 시대가 급속히 발전함에 따라 전자 기기에서 정보를 입·출력하는 기능 및 데이터를 저장할 수 있는 기능의 중요성이 강조되고 있다. 이러한 기능을 구비할 수 있는 전자 기기는 단말기 등의 휴대 전자 기기와, 영상 표시 기기 및 냉장고 등의 고정 전자 기기로 나뉠 수 있다. 휴대 전자 기기는 차량에 탑재될 수 있으며, 차량의 주행 정보를 표시할 수 있다.With the rapid development of the information age, the importance of the ability to input and output information and to store data in electronic devices is emphasized. Electronic devices that can have such functions can be divided into portable electronic devices such as terminals, and fixed electronic devices such as video display devices and refrigerators. The portable electronic device may be mounted on a vehicle and display driving information of the vehicle.
차량은 카메라를 구비할 수 있다. 카메라는 차량의 앞 부분 및 뒷 부분 중 적어도 하나에 장착될 수 있으며, 외부로부터 영상을 획득할 수 있다. 제어부는 획득된 영상으로부터 차량의 앞쪽 및 뒤쪽의 레인 마크, 갓길 등을 나타내는 차도 외측선, 장애물, 다른 차량, 보행자 등을 검출하고, 디스플레이부에 검출 결과를 표시할 수 있다. 또한, 제어부는 획득된 영상을 이용하여 앞 차량 및 뒤 차량과의 거리 정보를 계산할 수 있다.The vehicle may be equipped with a camera. The camera may be mounted on at least one of the front part and the rear part of the vehicle, and may acquire an image from the outside. The controller may detect a roadway outer line indicating a lane mark, a shoulder, and the like, an obstacle, another vehicle, a pedestrian, and the like, from the acquired image, and display the detection result on the display unit. The controller may calculate distance information between the front vehicle and the rear vehicle using the acquired image.
그러나, 차량의 기울어짐에 따라 카메라가 기울어지게 되고, 이에 따라 획득된 영상이 왜곡되는 문제점이 발생할 수 있다. 예를 들어, 차량이 앞쪽으로 기울어짐에 따라 카메라가 피치 다운(pitch down)되고, 카메라가 차선이 수렴되는 영상을 획득하게 된다. 반면, 차량이 뒤쪽으로 기울어짐에 따라 카메라가 피치 업(pitch up)되고, 카메라가 차선이 발산하는 영상을 획득하게 된다.However, as the vehicle is inclined, the camera may be inclined, and thus the obtained image may be distorted. For example, as the vehicle is tilted forward, the camera pitches down, and the camera acquires an image in which lanes converge. On the other hand, as the vehicle is inclined backward, the camera pitches up, and the camera acquires an image in which the lane diverges.
본 발명의 목적은 차량이 기울어지는 경우에도 왜곡되지 않은 영상을 획득할 수 있는 전자 기기 및 그것의 제어 방법을 제공하는 데 있다.An object of the present invention is to provide an electronic device and a control method thereof capable of acquiring an undistorted image even when the vehicle is inclined.
본 발명의 일 실시 예에 따른 전자 기기는 본체; 상기 본체의 주행 중 외부로부터 영상을 획득하는 카메라; 카메라 파라미터로서 제 1 카메라 파라미터를 저장하는 메모리; 및 상기 획득된 영상에서 검출된 소실점을 이용하여 소실선을 예측하며, 상기 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성하고, 상기 제 1 및 제 2 카메라 파라미터를 비교하여 상기 카메라 파라미터를 갱신할지 여부를 결정하는 제어부를 포함한다.An electronic device according to an embodiment of the present disclosure includes a main body; A camera that acquires an image from the outside while the main body is driving; A memory for storing the first camera parameter as a camera parameter; And predicting a vanishing line using the vanishing point detected in the obtained image, generating a second camera parameter based on the predicted vanishing line, and comparing the first and second camera parameters to update the camera parameter. It includes a control unit for determining whether or not.
실시 예에 있어서, 상기 제어부는, 상기 갱신된 카메라 파라미터를 이용하여 상기 카메라의 피치 모션(pitch motion)을 보정할 수 있다.In example embodiments, the controller may correct the pitch motion of the camera using the updated camera parameter.
실시 예에 있어서, 상기 카메라 파라미터는, 내부 파라미터 및 외부 파라미터를 포함하고, 상기 내부 파라미터는, 상기 카메라의 초점 거리 값을 포함하고, 상기 외부 파라미터는, 상기 카메라의 x, y, z축 상 각도를 포함할 수 있다.The camera parameter may include an internal parameter and an external parameter, the internal parameter may include a focal length value of the camera, and the external parameter may be an angle on x, y, and z axes of the camera. It may include.
실시 예에 있어서, 상기 제어부는, 상기 획득된 영상에서 소실점을 검출하고, 상기 검출된 소실점을 이용하여 소실선을 예측하며, 상기 예측된 소실선의 신뢰도를 검증할 수 있다.The control unit may detect a vanishing point in the obtained image, predict the vanishing line using the detected vanishing point, and verify the reliability of the predicted vanishing line.
실시 예에 있어서, 상기 제어부는, 상기 획득된 영상에서 차선의 경사도와 관련된 이미지를 추출하고, 상기 추출된 이미지에서 차선 후보들의 교차점들을 추출하며, 상기 추출된 교차점들 중 어느 하나를 소실점으로 검출할 수 있다.The control unit may extract an image related to the inclination of the lane from the obtained image, extract intersection points of lane candidates from the extracted image, and detect any one of the extracted intersection points as a vanishing point. Can be.
실시 예에 있어서, 상기 제어부는, 상기 추출된 교차점들의 통계치 정보에 근거하여 상기 검출된 소실점을 보정할 수 있다.In an embodiment, the controller may correct the detected vanishing point based on statistical information of the extracted intersection points.
실시 예에 있어서, 상기 제어부는, 매 프레임들 각각의 소실점을 이용하여 소실선을 예측하는 쇼트 텀 필터; 및 기 설정된 개수의 프레임들 각각의 소실점의 평균을 이용하여 소실선을 예측하는 롱 텀 필터를 포함할 수 있다.The control unit may include: a short term filter for predicting a vanishing line using a vanishing point of each frame; And a long term filter that predicts a vanishing line by using an average of vanishing points of each of a predetermined number of frames.
실시 예에 있어서, 상기 제어부는, 상기 차선 후보들의 평행 정도와 관련된 신뢰도 정보를 생성하고, 상기 신뢰도 정보에 근거하여 상기 예측된 소실선을 보정할지 여부를 결정할 수 있다.In example embodiments, the control unit may generate reliability information related to the degree of parallelism of the lane candidates and determine whether to correct the predicted vanishing line based on the reliability information.
실시 예에 있어서, 상기 제어부는, 주행 거리, 주행 시간 및 주행 속도 중 적어도 하나에 근거하여, 상기 제 2 카메라 파라미터의 수렴 조건의 만족 여부를 검사할 수 있다.In example embodiments, the controller may determine whether the convergence condition of the second camera parameter is satisfied based on at least one of a travel distance, a travel time, and a travel speed.
실시 예에 있어서, 상기 제어부는, 상기 수렴 조건을 만족하는 경우, 상기 제 2 카메라 파라미터를 새로운 카메라 파라미터로 갱신하고, 상기 수렴 조건을 만족하지 않는 경우, 상기 제 1 카메라 파라미터를 상기 카메라 파라미터로 유지할 수 있다.The control unit may update the second camera parameter to a new camera parameter when the convergence condition is satisfied, and maintain the first camera parameter as the camera parameter when the convergence condition is not satisfied. Can be.
실시 예에 있어서, 상기 제어부는, 상기 수렴 조건을 만족하는 경우, 상기 본체의 시동이 정지될 때 상기 새로운 카메라 파라미터를 상기 메모리에 저장할 수 있다.The control unit may store the new camera parameter in the memory when the start of the main body is stopped when the convergence condition is satisfied.
본 발명의 일 실시 예는 본체를 포함하는 전자 기기의 제어 방법에 관한 것이다. 상기 전자 기기의 제어 방법은, 카메라 파라미터로서 메모리에 저장된 제 1 카메라 파라미터를 로딩하는 단계; 상기 본체의 주행 중 카메라를 이용하여 외부로부터 영상을 획득하는 단계; 상기 획득된 영상에서 검출된 소실점을 이용하여 소실선을 예측하며, 상기 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성하는 단계; 및 상기 제 1 및 제 2 카메라 파라미터를 비교하여 상기 카메라 파라미터를 갱신할지 여부를 결정하는 단계를 포함한다.One embodiment of the present invention relates to a control method of an electronic device including a main body. The control method of the electronic device may include loading a first camera parameter stored in a memory as a camera parameter; Acquiring an image from the outside using a camera while driving the main body; Predicting a vanishing line using the vanishing point detected in the acquired image, and generating a second camera parameter based on the predicted vanishing line; And comparing the first and second camera parameters to determine whether to update the camera parameters.
실시 예에 있어서, 상기 전자 기기의 제어 방법은, 상기 갱신된 카메라 파라미터를 이용하여 상기 카메라의 피치 모션을 보정하는 단계를 더 포함할 수 있다.The control method of the electronic device may further include correcting a pitch motion of the camera by using the updated camera parameter.
실시 예에 있어서, 상기 획득된 영상에서 검출된 소실점을 이용하여 소실선을 예측하며, 상기 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성하는 단계는, 상기 획득된 영상에서 소실점을 검출하는 단계; 상기 검출된 소실점을 이용하여 소실선을 예측하는 단계; 및 상기 예측된 소실선의 신뢰도를 검증하는 단계를 포함할 수 있다.The method may further include estimating a vanishing line using the vanishing point detected in the acquired image, and generating a second camera parameter based on the predicted vanishing line, detecting the vanishing point in the obtained image. ; Predicting a vanishing line using the detected vanishing point; And verifying reliability of the predicted vanishing line.
실시 예에 있어서, 상기 획득된 영상에서 소실점을 검출하는 단계는, 상기 획득된 영상에서 차선의 경사도와 관련된 이미지를 추출하는 단계; 상기 추출된 이미지에서 차선 후보들의 교차점들을 추출하는 단계; 및 상기 추출된 교차점들 중 어느 하나를 소실점으로 검출하는 단계를 포함할 수 있다.The detecting of the vanishing point in the acquired image may include: extracting an image related to a slope of a lane from the obtained image; Extracting intersections of lane candidates from the extracted image; And detecting any one of the extracted intersection points as a vanishing point.
본 발명은 획득된 영상의 소실점을 이용하여 소실선을 예측하고, 예측된 소실선에 대응하는 새로운 카메라 파라미터를 생성할 수 있다. 본 발명은 생성된 새로운 카메라 파라미터가 갱신 조건을 만족하는 경우에 생성된 새로운 카메라 파라미터를 이용하여 카메라의 피치 모션을 보정할 수 있다. 결과적으로, 본 발명은 차량이 기울어지는 경우에도 카메라의 피치 모션을 자동으로 보정함에 따라, 왜곡되지 않은 영상을 획득할 수 있다.The present invention may predict the vanishing line using the vanishing point of the acquired image and generate a new camera parameter corresponding to the predicted vanishing line. The present invention can correct the pitch motion of a camera using the generated new camera parameter when the generated new camera parameter satisfies the update condition. As a result, the present invention can automatically obtain the undistorted image by automatically correcting the pitch motion of the camera even when the vehicle is inclined.
도 1은 본 발명의 일 실시 예에 따른 전자 기기의 구성을 보여주는 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 2는 차량에 구비된 카메라의 피치 모션에 따른 가시 영역을 보여주는 개념도이다.2 is a conceptual diagram illustrating a visible region according to a pitch motion of a camera provided in a vehicle.
도 3은 피치 모션에 의해 발생하는 월드 코디네이트(world coordinate)상의 차선을 보여주는 개념도이다.3 is a conceptual diagram illustrating lanes in world coordinates generated by pitch motion.
도 4는 본 발명의 일 실시 예에 따른 전자 기기의 제어 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a control method of an electronic device according to an embodiment of the present disclosure.
도 5는 획득된 영상에서 소실선을 예측하는 방법을 설명하기 위한 순서도이다.5 is a flowchart illustrating a method of predicting a vanishing line in an acquired image.
도 6은 획득된 영상에서 소실점을 검출하는 방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating a method of detecting a vanishing point in an acquired image.
도 7은 쇼트 텀 필터가 소실선을 예측하는 알고리즘을 보여주는 개념도이다.7 is a conceptual diagram illustrating an algorithm in which a short term filter predicts a disappearance line.
도 8은 롱 텀 필터가 소실선을 예측하는 알고리즘을 보여주는 개념도이다.8 is a conceptual diagram illustrating an algorithm in which a long term filter predicts a vanishing line.
도 9는 피치 모션의 보정 전과 보정 후 각각에 대해 명점이 분류되는 실시 예를 보여주는 개념도이다.9 is a conceptual diagram illustrating an embodiment in which bright points are classified before and after correction of pitch motion.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세하게 설명하기 위하여, 본 발명의 실시 예가 첨부된 도면을 참조하여 설명한다. 하지만, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통해 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the technical idea of the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
본 명세서에서 설명되는 차량용 단말기는 차량에 설치된 단말기를 의미할 수 있다. 예를 들어, 차량용 단말기는 차량에 내장된 고정 단말기일 뿐만 아니라, 거치대에 탈부착이 가능한 휴대폰, 스마트폰, 노트북 컴퓨터(laptop computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이터(navigator) 등이 포함될 수 있다. A vehicle terminal described herein may mean a terminal installed in a vehicle. For example, a vehicle terminal is not only a fixed terminal embedded in a vehicle, but also a mobile phone, a smartphone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player that can be attached to and detached from a cradle. ), A navigator, etc. may be included.
도 1은 본 발명의 일 실시 예에 따른 전자 기기의 구성을 보여주는 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 1을 참조하면, 차량용 단말기(100)는 무선 통신부(110), 출력부(120), 사용자 입력부(130), 메모리(140), 전원부(150), 마이크(170) 및 제어부(160)를 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 차량용 단말기(100)가 구현될 수 있다.Referring to FIG. 1, the vehicle terminal 100 may include a wireless communication unit 110, an output unit 120, a user input unit 130, a memory 140, a power supply unit 150, a microphone 170, and a controller 160. It may include. Since the components shown in FIG. 1 are not essential, the vehicle terminal 100 having more or fewer components may be implemented.
이하에서, 차량용 단말기(100)의 구성요소들(110~170)에 대해 차례대로 살펴본다.Hereinafter, the components 110 to 170 of the vehicle terminal 100 will be described in order.
무선 통신부(110)는 차량용 단말기(100)와 외부 서버(200) 사이, 또는 차량용 단말기(100)와 차량용 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 GPS 수신부(115)을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the vehicle terminal 100 and the external server 200 or between the vehicle terminal 100 and a network in which the vehicle terminal 100 is located. . For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, and a GPS receiver 115.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및 방송 관련 정보를 수신한다. 여기서, 방송 관련 정보는 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련된 정보를 의미한다. 그리고, 방송 관련 정보는 이동 통신망을 통하여도 제공될 수 있다. 이러한 경우에, 방송 관련 정보는 이동통신 모듈(112)에 의해 수신될 수 있다. 방송 수신 모듈(111)을 통해 수신되는 방송 신호 및 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 receives a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel. Here, the broadcast related information means information related to a broadcast channel, a broadcast program or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, the broadcast related information may be received by the mobile communication module 112. The broadcast signal and the broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.
이동통신 모듈(112)은 이동 통신망 상에서 기지국, 외부의 단말기, 외부 서버(200) 중 적어도 하나와 무선 신호를 송수신한다. 이러한 무선 신호는 음성 호 신호, 화상 통화 호 신호, 문자 메시지 또는 멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 또한, 이동통신 모듈(112)은 외부 서버로부터 소정의 영역에 대한 정보와 상기 소정의 영역에 대응하는 콘텐츠를 수신할 수 있다.The mobile communication module 112 transmits and receives a wireless signal with at least one of a base station, an external terminal, and an external server 200 on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of voice call signals, video call signals, text messages or multimedia messages. In addition, the mobile communication module 112 may receive information on a predetermined region and content corresponding to the predetermined region from an external server.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈로서, 차량용 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module 113 is a module for wireless internet access and may be built in or external to the vehicle terminal 100. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
근거리 통신부(114)는 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다. 차량용 단말기(100)는 이러한 근거리 통신부(114)를 이용하여 차량 근처에 위치하는 이동 단말기(미도시)를 무선으로 연결할 수 있으며, 이동 단말기(미도시)를 이용하여 통화를 수행할 수도 있다.The short range communication unit 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used. The vehicle terminal 100 may wirelessly connect a mobile terminal (not shown) located near the vehicle by using the short-range communication unit 114, and perform a call using the mobile terminal (not shown).
GPS 수신부(115)는 차량용 단말기(100)의 위치를 획득하기 위한 모듈로서, 그것의 대표적인 예로는 위성 항법 장치(GPS)가 있다. 이러한 GPS 수신부(115)는 차량용 단말기(100)가 설치된 차량의 위치 정보를 산출할 수 있다.The GPS receiver 115 is a module for obtaining a location of the vehicle terminal 100, and a representative example thereof is a satellite navigation device (GPS). The GPS receiver 115 may calculate location information of the vehicle in which the vehicle terminal 100 is installed.
출력부(120)는 시각, 청각, 촉각 등과 관련된 출력을 발생시킨다. 출력부(120)는 디스플레이부(121), 음향 출력 모듈(122) 및 알람부(123)를 포함할 수 있다.The output unit 120 generates an output related to visual, auditory, tactile, and the like. The output unit 120 may include a display unit 121, a sound output module 122, and an alarm unit 123.
디스플레이부(121)는 차량용 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 차량용 단말기(100)가 내비게이션 모드에서 동작하는 경우에는, 디스플레이부(121)는 내비게이션과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 차량용 단말기(100)가 방송 수신 모드에서 동작하는 경우에는, 디스플레이부(121)는 수신된 영상, UI 또는 GUI 등을 표시한다.The display unit 121 displays (outputs) information processed by the vehicle terminal 100. For example, when the vehicle terminal 100 operates in the navigation mode, the display 121 displays a user interface (UI) or a graphic user interface (GUI) related to the navigation. When the vehicle terminal 100 operates in the broadcast reception mode, the display 121 displays the received image, the UI, or the GUI.
디스플레이부(121)는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT- LCD), 유기 발광 다이오드(Organic Light Emitting Diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중 적어도 하나를 포함할 수 있다.The display unit 121 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT-LCD), an organic light emitting diode (OLED), or a flexible display (flexible). The display may include at least one of a 3D display and an e-ink display.
디스플레이부(121)에 포함되는 적어도 하나의 디스플레이(또는 디스플레이 소자)는 그것을 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭할 수 있는데, 이러한 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)는 차량의 앞 유리에 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 차량에서 디스플레이부(121)가 차지하는 영역을 통해 차량의 전방에 위치한 사물을 볼 수 있다. 예를 들어, 차량 전면을 확인하기 위한 전면 유리창이 디스플레이부(121)로 이용될 수 있다.At least one display (or display element) included in the display unit 121 may be configured to be transparent or light transmissive so that the outside can be seen therethrough. This may be referred to as a transparent display. A representative example of such a transparent display is TOLED (Transparant OLED). The display unit 151 may have a light transmissive structure on the windshield of the vehicle. With this structure, the object located in front of the vehicle can be seen through the area occupied by the display 121 in the vehicle. For example, a front glass window for checking the front of the vehicle may be used as the display unit 121.
디스플레이부(121)는 차량용 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 예를 들어, 차량용 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 위치할 수 있고, 또한 서로 다른 면에 각각 위치할 수도 있다.There may be two or more display units 121 according to the implementation form of the vehicle terminal 100. For example, in the vehicle terminal 100, a plurality of display units may be spaced apart from or integrally located on one surface, or may be located on different surfaces.
이러한 디스플레이부(121)는 내비게이션 모드에 따라 지도를 출력할 수 있다. 그리고 지도에 GPS 수신부(115)가 산출한 차량의 위치 정보를 매핑(mapping) 할 수 있다. 뿐만 아니라, 제어부(160)에 의해 산출된 차량의 주행 정보가 디스플레이부(121)에 출력될 수 있다. 주행 정보는, 예를 들어, 차량의 속도, 차량의 위치, 기름 잔여량, 차량이 향하는 방향 등 차량의 주행과 관련된 정보를 포함할 수 있다.The display unit 121 may output a map according to the navigation mode. The GPS receiver 115 may map location information of the vehicle calculated on the map. In addition, the driving information of the vehicle calculated by the controller 160 may be output to the display 121. The driving information may include information related to the driving of the vehicle, such as the speed of the vehicle, the position of the vehicle, the residual amount of oil, and the direction in which the vehicle is headed.
이때, 매핑(mapping)이란 지도라는 2차원 또는 3차원 이미지의 기 설정된 위치에 그래픽 이미지 또는 객체를 겹치어 출력하는 것을 의미한다. 예를 들어, 지도 위에 새로운 팝업창(pop-up window)가 출력되는 것도 지도 위에 팝업창이 매핑(mapping)되는 것으로 볼 수 있다. 여기서, 객체란 애플리케이션 아이콘(application icon), 위젯(widget), 썸네일 이미지(thumbnail image) 등의 그래픽 요소(graphic element)를 말한다.In this case, mapping refers to outputting by overlaying a graphic image or an object on a predetermined position of a 2D or 3D image called a map. For example, the output of a new pop-up window on the map may be regarded as mapping of the pop-up window on the map. Here, the object refers to graphic elements such as an application icon, a widget, a thumbnail image, and the like.
터치 센서는 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다. 터치 센서는 디스플레이부(121)의 특정 부위에 가해진 압력 또는 디스플레이부(121)의 특정 부위에 발생하는 정전 용량의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may have the form of a touch film, a touch sheet, a touch pad, or the like. The touch sensor may be configured to convert a pressure applied to a specific portion of the display 121 or a change in capacitance generated at a specific portion of the display 121 into an electrical input signal. The touch sensor may be configured to detect a touch pressure as well as a touched position and area.
터치 센서와 디스플레이부(121)가 상호 레이어 구조를 이루는 경우에는, 디스플레이부(121)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 이러한 디스플레이부(121)는 ‘터치 스크린’으로 호칭할 수 있다.When the touch sensor and the display unit 121 have a mutual layer structure, the display unit 121 may be used as an input device in addition to the output device. The display unit 121 may be referred to as a “touch screen”.
터치 스크린을 통한 터치 입력이 있는 경우, 그것에 대응하는 신호들은 터치 제어기(미도시됨)로 보내진다. 터치 제어기는 터치 센서로부터 전달되는 신호들을 처리한 다음 처리된 신호들에 대응하는 데이터를 제어부(160)로 전송한다. 이로써, 제어부(160)는 디스플레이부(121)의 어느 영역이 터치 되었는지 여부를 알 수 있게 된다.If there is a touch input via the touch screen, signals corresponding thereto are sent to a touch controller (not shown). The touch controller processes the signals transmitted from the touch sensor and then transmits data corresponding to the processed signals to the controller 160. As a result, the controller 160 can determine which area of the display 121 is touched.
터치 스크린이 정전식인 경우에는 감지 대상의 근접에 따른 전계의 변화로 감지 대상의 근접을 검출하도록 구성될 수 있다. 이러한 터치 스크린은 근접 센서(141)로 분류될 수 있다.When the touch screen is capacitive, the touch screen may be configured to detect the proximity of the sensing object by the change of the electric field according to the proximity of the sensing object. The touch screen may be classified as the proximity sensor 141.
음향 출력 모듈(122)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성선택 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(140)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(122)은 차량용 단말기(100)에서 수행되는 기능(예를 들어, 호 신호 수신음, 메시지 수신음, 내비게이션 알람 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(122)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output module 122 may output audio data received from the wireless communication unit 110 or stored in the memory 140 in a call signal reception, a call mode or a recording mode, a voice selection mode, a broadcast reception mode, and the like. The sound output module 122 may output a sound signal related to a function (for example, a call signal reception sound, a message reception sound, a navigation alarm, etc.) performed in the vehicle terminal 100. The sound output module 122 may include a receiver, a speaker, a buzzer, and the like.
알람부(123)는 차량용 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 차량용 단말기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(123)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어, 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(121)나 음향 출력 모듈(122)을 통해서도 출력될 수 있으므로, 디스플레이부(121) 및 음향 출력 모듈(122)은 알람부(123)의 일부로 분류될 수도 있다.The alarm unit 123 outputs a signal for notifying occurrence of an event of the vehicle terminal 100. Examples of events generated in the vehicle terminal 100 include call signal reception, message reception, key signal input, and touch input. The alarm unit 123 may output a signal for notifying occurrence of an event by vibration, in addition to a video signal or an audio signal. Since the video signal or the audio signal may be output through the display 121 or the sound output module 122, the display 121 and the sound output module 122 may be classified as part of the alarm unit 123.
사용자 입력부(130)는 사용자가 차량용 단말기(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압 및 정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 또한, 사용자 입력부(130)는 디스플레이부(121)에 출력되는 적어도 하나의 소정의 영역에 대한 터치 입력을 감지할 수 있다. The user input unit 130 generates input data for the user to control the operation of the vehicle terminal 100. The user input unit 130 may be composed of a key pad, a dome switch, a touch pad (static and electrostatic), a jog wheel, a jog switch, and the like. In addition, the user input unit 130 may detect a touch input for at least one predetermined area output to the display unit 121.
메모리(140)는 제어부(160)의 동작을 위한 프로그램을 저장할 수 있고, 입력 및 출력되는 데이터들(예를 들어, 소정의 영역, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 메모리(140)는 터치 스크린상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 140 may store a program for the operation of the controller 160 and may temporarily store input and output data (for example, a predetermined area, a still image, a video, etc.). The memory 140 may store data relating to various patterns of vibration and sound output when a touch is input on the touch screen.
메모리(140)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다. 차량용 단말기(100)는 인터넷(internet)상에서 메모리(140)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 140 may be a flash memory, a hard disk, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), random access memory. RAM, static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, optical disk It may include at least one storage medium. The vehicle terminal 100 may operate in association with a web storage that performs a storage function of the memory 140 on the Internet.
전원부(150)는 제어부(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 150 receives external power and internal power under the control of the controller 160 to supply power required for the operation of each component.
마이크(170)는 통화 모드, 녹음 모드, 음성선택 모드 등에서 외부로부터 입력되는 음향 신호를 전기적인 음성 데이터로 처리한다. 통화 모드에서 마이크(170)에 의해 처리된 음성 데이터는 근거리통신부(114)을 통해 무선으로 연결된 이동 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(170)에는 외부의 음향 신호가 입력되는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 170 processes the sound signal input from the outside in the call mode, the recording mode, the voice selection mode, and the like as electrical voice data. The voice data processed by the microphone 170 in the call mode may be converted into a form transmittable to a mobile terminal wirelessly connected through the local area communication unit 114 and output. The microphone 170 may implement various noise removing algorithms for removing noise generated in the process of inputting an external sound signal.
제어부(controller, 160)는 차량용 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 소정의 영역 수신, 위치 정보 산출, 소정의 영역 진입 여부 판단 등과 관련된 제어 및 처리를 수행한다. 특히, 제어부(160)는 외부 서버(200)로부터 수신된 하나 이상의 소정의 영역을 메모리(140)에 저장할 수 있다. 제어부(160)는 GPS 수신부를 이용하여 산출한 위치 정보를 이용하여 차량이 상기 적어도 하나의 소정의 영역에 진입하는지 여부를 판단할 수 있다. 판단 결과 상기 소정의 영역에 진입하는 경우, 상기 소정의 영역에 대응하는 콘텐츠를 재생할 수 있다. The controller 160 controls the overall operation of the vehicle terminal 100. For example, control and processing related to receiving a predetermined area, calculating position information, and determining whether to enter a predetermined area is performed. In particular, the controller 160 may store one or more predetermined areas received from the external server 200 in the memory 140. The controller 160 may determine whether the vehicle enters the at least one predetermined region by using the location information calculated by the GPS receiver. As a result of the determination, when entering the predetermined area, content corresponding to the predetermined area may be played.
여기에 설명되는 다양한 실시 예는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(Application specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서들(processors), 제어기들(controllers), 마이크로 컨트롤러들(micro-controllers), 마이크로 프로세서들(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(160) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs). It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. In some cases, the embodiments described herein may be implemented by the controller 160 itself.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰인 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 이러한 소프트웨어 코드는 메모리(140)에 저장되고, 제어부(160)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented in software applications written in the appropriate programming languages. Such software code may be stored in the memory 140 and executed by the controller 160.
도 2는 차량에 구비된 카메라의 피치 모션에 따른 가시 영역을 보여주는 개념도이다.2 is a conceptual diagram illustrating a visible region according to a pitch motion of a camera provided in a vehicle.
도 2를 참조하면, 차량은 전자 기기(100)를 구비할 수 있다. 전자 기기(100)는 도 1에 도시된 바와 같이 카메라(180), 메모리(140), 제어부(160) 및 디스플레이부(121)를 포함할 수 있다.2, a vehicle may include an electronic device 100. As illustrated in FIG. 1, the electronic device 100 may include a camera 180, a memory 140, a controller 160, and a display 121.
카메라(180)는 차량의 앞 부분 및 뒷 부분 중 적어도 하나에 장착될 수 있으며, 외부로부터 영상을 획득할 수 있다. 제어부(160)는 획득된 영상으로부터 차량의 앞쪽 및 뒤쪽의 레인 마크, 갓길 등을 나타내는 차도 외측선, 장애물, 다른 차량, 보행자 등을 검출하고, 디스플레이부(121)에 검출 결과를 표시할 수 있다. 또한, 제어부(160)는 획득된 영상을 이용하여 앞 차량 및 뒤 차량과의 거리 정보를 계산할 수 있다.The camera 180 may be mounted on at least one of the front part and the rear part of the vehicle, and may acquire an image from the outside. The controller 160 may detect a roadway outer line indicating a lane mark, a shoulder, and the like, an obstacle, another vehicle, a pedestrian, and the like, from the acquired image, and display the detection result on the display 121. . In addition, the controller 160 may calculate distance information between the front vehicle and the rear vehicle using the acquired image.
도 2의 (a)에 도시된 바와 같이, 차량이 기울어지지 않은 상태에서 카메라(180)에 의해 획득된 영상은 일반적인 가시 영역을 가진다.As shown in (a) of FIG. 2, an image acquired by the camera 180 in a state where the vehicle is not inclined has a general viewable area.
한편, 도 2의 (b) 및 (c)에 도시된 바와 같이, 도로의 경사 또는 탑승 인원의 무게로 인해 차량이 기울어질 수 있다. 차량이 기울어짐에 따라 카메라(180)도 기울어지게 되고, 이에 따라, 카메라(180)에 의해 획득된 영상의 가시 영역이 변화될 수 있다.On the other hand, as shown in (b) and (c) of Figure 2, the vehicle can be inclined due to the inclination of the road or the weight of the occupants. As the vehicle is tilted, the camera 180 is also tilted, and accordingly, the visible area of the image acquired by the camera 180 may be changed.
예를 들어, 도 2의 (b)에 도시된 바와 같이, 차량이 앞쪽으로 기울어짐에 따라 카메라(180)가 피치 다운(pitch down)되고, 카메라(180)가 차선이 수렴되는 영상을 획득하게 된다. 반면, 도 2의 (c)에 도시된 바와 같이, 차량이 뒤쪽으로 기울어짐에 따라 카메라(180)가 피치 업(pitch up)되고, 카메라(180)가 차선이 발산하는 영상을 획득하게 된다.For example, as shown in FIG. 2B, as the vehicle is inclined forward, the camera 180 pitches down and the camera 180 acquires an image in which lanes converge. do. On the other hand, as shown in (c) of FIG. 2, as the vehicle is inclined backward, the camera 180 pitches up and the camera 180 acquires an image in which the lane diverges.
즉, 도로의 경사 또는 탑승 인원의 무게로 인한 차량의 기울어짐은 카메라(180)의 피치 모션을 발생시키고, 이에 따라, 가시 영역의 변화를 야기시킨다.That is, the inclination of the vehicle due to the inclination of the roadway or the weight of the occupant generates a pitch motion of the camera 180, thereby causing a change in the visible area.
도 3은 피치 모션에 의해 발생하는 월드 코디네이트(world coordinate)상의 차선을 보여주는 개념도이다.3 is a conceptual diagram illustrating lanes in world coordinates generated by pitch motion.
도 3의 (a)는 차선 영상을 보여준다. 도 3의 (b)는 차량이 기울어지지 않은 상황, 즉, 피치 모션이 없는 상황에서의 월드 코디네이트상의 차선을 보여준다. 도 3의 (c)는 차량이 앞쪽으로 기울어진 상황, 즉, 피치 다운된 상황에서의 월드 코디네이트상의 차선을 보여준다. 도 3의 (d)는 차량이 뒤쪽으로 기울어진 상황, 즉, 피치 업된 상황에서의 월드 코디네이트상의 차선을 보여준다.3A shows a lane image. 3B shows a lane on the world coordinate in a situation where the vehicle is not inclined, that is, there is no pitch motion. 3C shows a lane on the world coordinate in a situation in which the vehicle is inclined forward, that is, in a pitch down state. 3D shows a lane on the world coordinate in a situation in which the vehicle is inclined backward, that is, in a pitched up state.
즉, 피치 모션에 의해 월드 코디네이트의 정보가 왜곡된다. 획득된 영상에서 차선의 평행성이 보장되지 않으며, 다른 차량간의 거리 정보가 왜곡된다. 이에 따라, 피치 모션을 보정하지 않는 경우, 차선 검출이나 다른 차량간의 거리 또는 보행자와의 거리 추정 알고리즘에 오류가 야기될 수 있다.That is, the information of the world coordination is distorted by the pitch motion. Parallelism of lanes is not guaranteed in the acquired image, and distance information between different vehicles is distorted. Accordingly, when the pitch motion is not corrected, an error may occur in the lane detection or the algorithm for estimating the distance between other vehicles or the pedestrian.
한편, 소실점을 추정하여 피치 모션을 보정하는 기존의 기술에 따르면, 노이즈에 따른 소실점 추정의 에러에 의해 피치 모션을 보정하는 성능이 저하될 수 있다는 문제점이 있었다.On the other hand, according to the conventional technology of estimating the vanishing point to correct the pitch motion, there is a problem that the performance of correcting the pitch motion may be degraded due to an error of the vanishing point estimation due to noise.
이에 따라, 이하에서, 소실점을 안정적으로 추정하고, 운전자의 추가 조작 없이 차량의 주행 시에 주행 거리, 주행 속도, 주행 시간에 따라 자동으로 카메라(180)의 피치 모션을 보정하는 전자 기기(100)에 대해 첨부된 도면을 참조하여 설명한다.Accordingly, hereinafter, the electronic device 100 stably estimates the vanishing point and automatically corrects the pitch motion of the camera 180 according to the driving distance, the traveling speed, and the traveling time at the time of driving of the vehicle without additional driver's operation. It will be described with reference to the accompanying drawings.
도 4는 본 발명의 일 실시 예에 따른 전자 기기(100)의 제어 방법을 설명하기 위한 순서도이다. 전자 기기(100)는 도 1에 도시된 바와 같이 카메라(180), 메모리(140), 제어부(160) 및 디스플레이부(121)를 포함할 수 있다.4 is a flowchart illustrating a control method of the electronic device 100 according to an embodiment of the present disclosure. As illustrated in FIG. 1, the electronic device 100 may include a camera 180, a memory 140, a controller 160, and a display 121.
도 4를 참조하면, 우선, 카메라 파라미터로서 메모리(140)에 저장된 제 1 카메라 파라미터가 로딩되는 단계(S110)가 진행된다.Referring to FIG. 4, first, a step (S110) of loading a first camera parameter stored in the memory 140 as a camera parameter is performed.
구체적으로, 제어부(160)는 차량의 시동 시, 초기 카메라 파라미터로서 제 1 카메라 파라미터를 로딩할 수 있다. 이때, 제 1 카메라 파라미터는 가장 최근에 갱신된 카메라 파라미터를 의미한다. 제어부(160)는 카메라 파라미터를 초기화할 수 있다.In detail, the controller 160 may load the first camera parameter as the initial camera parameter when the vehicle starts up. In this case, the first camera parameter means the most recently updated camera parameter. The controller 160 may initialize camera parameters.
카메라 파라미터는 카메라(180)에 의해 획득된 영상에서 월드 코디네이트 정보를 획득하기 위한 변환 상수를 의미한다. 카메라 파라미터는 내부 파라미터 및 외부 파라미터 중 적어도 하나를 포함할 수 있다. 여기에서, 내부 파라미터는 카메라(180)의 초점 거리 값 및 중심 값을 포함하고, 외부 파라미터는 카메라(180)의 x, y, z축 상 각도를 포함한다.The camera parameter refers to a conversion constant for acquiring world coordinate information from an image acquired by the camera 180. The camera parameter may include at least one of an internal parameter and an external parameter. Herein, the internal parameter includes a focal length value and a center value of the camera 180, and the external parameter includes an angle on the x, y and z axes of the camera 180.
다음으로, 차량의 주행 중 카메라(180)를 이용하여 외부로부터 영상이 획득되는 단계(S120)가 진행된다.Next, in operation S120, an image is acquired from the outside using the camera 180 while the vehicle is driving.
앞서 설명한 바와 같이, 카메라(180)는 차량의 앞 부분 및 뒷 부분 중 적어도 하나에 장착될 수 있으며, 외부로부터 영상을 획득할 수 있다.As described above, the camera 180 may be mounted on at least one of the front part and the rear part of the vehicle, and may acquire an image from the outside.
이후, 획득된 영상에서 검출된 소실점을 이용하여 소실선을 예측하며, 예측된 소실선에 근거하여 제 2 카메라 파라미터가 생성되는 단계(S130)가 진행된다.Thereafter, the vanishing line is detected using the vanishing point detected in the acquired image, and a second camera parameter is generated based on the predicted vanishing line (S130).
구체적으로, 제어부(160)는 획득된 영상에 근거하여, 온라인 캘리브레이션(online calibration)을 수행하기 위한 입력 값을 추출할 수 있다. 제어부(160)는 소실선을 예측하기 위한 온라인 캘리브레이션을 수행하고, 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성할 수 있다.In detail, the controller 160 may extract an input value for performing online calibration based on the acquired image. The controller 160 may perform online calibration to predict the vanishing line and generate a second camera parameter based on the predicted vanishing line.
이후, 제 1 및 제 2 카메라 파라미터를 비교하여 카메라 파라미터를 갱신할지 여부가 결정되는 단계(S140)가 진행된다.Thereafter, step S140 is performed in which it is determined whether to update the camera parameters by comparing the first and second camera parameters.
제어부(160)는 주행 거리, 주행 시간 및 주행 속도 중 적어도 하나에 근거하여 제 2 카메라 파라미터의 갱신 조건을 검사할 수 있다. 여기에서, 제 2 카메라 파라미터가 수렴 조건을 만족하는 경우, 제어부(160)는 제 2 카메라 파라미터를 새로운 카메라 파라미터로 갱신할 수 있다. 이때, 제어부(160)는 차량의 시동이 정지될 때 새로운 카메라 파라미터를 메모리(140)에 저장할 수 있다. 또한, 제어부(160)는 새로운 카메라 파라미터를 이용하여 카메라(180)의 피치 모션을 보정할 수 있다.The controller 160 may inspect the update condition of the second camera parameter based on at least one of the travel distance, the travel time, and the travel speed. Here, when the second camera parameter satisfies the convergence condition, the controller 160 may update the second camera parameter with the new camera parameter. In this case, the controller 160 may store the new camera parameter in the memory 140 when the vehicle is stopped. In addition, the controller 160 may correct the pitch motion of the camera 180 by using the new camera parameter.
반면, 제 2 카메라 파라미터가 수렴 조건을 만족하지 않는 경우, 제어부(160)는 제 1 카메라 파라미터를 카메라 파라미터로 계속해서 유지할 수 있다.On the other hand, when the second camera parameter does not satisfy the convergence condition, the controller 160 may continuously maintain the first camera parameter as the camera parameter.
상술한 바와 같이, 본 발명은 획득된 영상의 소실점을 이용하여 소실선을 예측하고, 예측된 소실선에 대응하는 새로운 카메라 파라미터를 생성할 수 있다. 본 발명은 생성된 새로운 카메라 파라미터가 갱신 조건을 만족하는 경우에 생성된 새로운 카메라 파라미터를 이용하여 카메라(180)의 피치 모션을 보정할 수 있다. 결과적으로, 본 발명은 차량이 기울어지는 경우에도 카메라(180)의 피치 모션을 자동으로 보정함에 따라, 왜곡되지 않은 영상을 획득할 수 있다.As described above, the present invention may predict the vanishing line by using the vanishing point of the acquired image, and generate a new camera parameter corresponding to the predicted vanishing line. The present invention can correct the pitch motion of the camera 180 by using the generated new camera parameter when the generated new camera parameter satisfies the update condition. As a result, according to the present invention, even when the vehicle is inclined, the pitch motion of the camera 180 is automatically corrected, thereby obtaining an undistorted image.
도 5는 획득된 영상에서 소실선을 예측하는 방법을 설명하기 위한 순서도이다. 도 6은 획득된 영상에서 소실점을 검출하는 방법을 설명하기 위한 순서도이다. 전자 기기(100)는 도 1에 도시된 바와 같이 카메라(180), 메모리(140), 제어부(160) 및 디스플레이부(121)를 포함할 수 있다.5 is a flowchart illustrating a method of predicting a vanishing line in an acquired image. 6 is a flowchart illustrating a method of detecting a vanishing point in an acquired image. As illustrated in FIG. 1, the electronic device 100 may include a camera 180, a memory 140, a controller 160, and a display 121.
도 5를 참조하면, 우선, 카메라(180)에 의해 획득된 영상에서 소실점이 검출되는 단계(S210)가 진행된다. 이에 대해, 도 6을 참조하여 좀 더 상세하게 설명하도록 한다.Referring to FIG. 5, first, a vanishing point is detected in an image acquired by the camera 180 (S210). This will be described in more detail with reference to FIG. 6.
도 6을 참조하면, 제어부(160)는 획득된 영상에서 차선의 경사도와 관련된 이미지를 추출할 수 있다(S310). 제어부(160)는 추출된 이미지에서 차선 후보들을 찾고(S320), 차선 후보들의 교차점들을 추출하며(S330), 추출된 교차점들 중 어느 하나를 소실점으로 검출할 수 있다(S340).Referring to FIG. 6, the controller 160 may extract an image related to the inclination of the lane from the obtained image (S310). The controller 160 may find lane candidates in the extracted image (S320), extract intersections of the lane candidates (S330), and detect any one of the extracted intersection points as a vanishing point (S340).
예를 들어, 제어부(160)는 획득된 영상에서 차선에 해당하는 부분에 점(point)들을 표시할 수 있다. 제어부(160)는 점들을 잇는 직선을 그었을 때의 교차점을 추출할 수 있다. 제어부(160)는 추출된 교차점들의 통계치 정보에 근거하여, 가장 많은 교차점이 표시된 지점을 소실점으로 검출할 수 있다.For example, the controller 160 may display points on a portion corresponding to the lane in the acquired image. The controller 160 may extract an intersection point when a straight line connecting the points is drawn. The controller 160 may detect, as the vanishing point, the point at which the most intersection points are displayed based on the extracted statistical information of the intersection points.
도 5로 돌아가서, 다음으로, 소실점이 추적되는 단계(S220)가 진행된다.Returning to FIG. 5, step S220 is followed in which the vanishing point is tracked.
제어부(160)는 소실점을 추적하면서 일정 기간 동안의 소실점의 통계치를 획득할 수 있다. 이렇게 계속해서 소실점을 추적함으로써, 제어부(160)는 순간적으로 잘못 찾아진 소실점을 보정할 수 있다. 이에 따라, 제어부(160)는 노이즈에 강건(robust)하게 처리할 수 있다.The controller 160 may acquire the statistics of the vanishing point for a predetermined period while tracking the vanishing point. By continuing to track the vanishing point, the controller 160 can correct the vanishing point found in the wrong instant. Accordingly, the controller 160 may robustly process noise.
이후, 소실선이 예측되는 단계(S230)가 진행된다.Subsequently, a step (S230) in which a vanishing line is predicted proceeds.
제어부(160)는 쇼트 텀 필터(short term filter) 및 롱 텀 필터(long term filter)를 포함한다. 쇼트 텀 필터는 매 프레임들 각각의 소실점을 이용하여 소실선을 예측할 수 있다. 한편, 롱 텀 필터는 기 설정된 개수의 프레임들 각각의 소실점의 평균을 구하고, 평균을 이용하여 소실선을 예측할 수 있다.The controller 160 includes a short term filter and a long term filter. The short term filter may predict the vanishing line using the vanishing point of each frame. Meanwhile, the long term filter may calculate an average of vanishing points of each of a predetermined number of frames, and predict the vanishing line using the average.
쇼트 텀 필터는 도로의 굴곡에 의해 순간적으로 변화된 피치 모션을 보정하기 위해 이용될 수 있다. 또한, 롱 텀 필터는 탐승자에 의해 차체가 기울어짐에 따라 변화된 피치 모션을 보정하기 위해 이용될 수 있다.The short term filter may be used to correct for pitch motion that is changed instantaneously by curvature of the roadway. In addition, the long term filter may be used to correct the pitch motion changed as the vehicle body is tilted by the occupant.
이후, 소실선의 신뢰도가 검증되는 단계(S240)가 진행된다.Thereafter, step S240 is performed in which reliability of the vanishing line is verified.
제어부(160)는 차선 후보들의 평행 정도와 관련된 신뢰도 정보를 생성하고, 신뢰도 정보에 근거하여 예측된 소실선을 보정할지 여부를 결정할 수 있다.The controller 160 may generate reliability information related to the degree of parallelism of the lane candidates, and determine whether to correct the predicted vanishing line based on the reliability information.
신뢰도 정보는 차선 후보들의 평행 정도로 정의될 수 있다. 신뢰도 정보는 벡터 내적을 이용하여 계산될 수 있다. 제어부(160)는 신뢰도 정보에 근거하여 예측된 소실선을 보정할 수 있으며, 카메라 파라미터(homography)를 업데이트할 수 있다.Reliability information may be defined to the degree of parallelism of the lane candidates. The reliability information can be calculated using the vector dot product. The controller 160 may correct the predicted vanishing line based on the reliability information, and may update camera parameters.
이와 같이, 본 발명은 소실선을 예측하기 위해 소실점을 바로 이용하는 것이 아니라, 보정된 소실점을 이용하여 소실선을 예측할 수 있다. 또한, 본 발명은 쇼트 텀 필터 및 롱 텀 필터를 모두 이용하여 소실선을 예측할 수 있다.As described above, the present invention may predict the vanishing line using the corrected vanishing point instead of directly using the vanishing point to predict the vanishing line. In addition, the present invention can predict the vanishing line using both the short term filter and the long term filter.
도 7은 쇼트 텀 필터가 소실선을 예측하는 알고리즘을 보여주는 개념도이다.7 is a conceptual diagram illustrating an algorithm in which a short term filter predicts a disappearance line.
도 7의 알고리즘에서 제 1 부분(P1)은 검출된 소실점으로 소실선을 예측하는 부분을 의미하고, 제 2 부분(P2)은 소실점의 검출이 실패했을 때, 참조 소실선(VLREF)으로 수렴하기 위한 부분을 의미한다.In the algorithm of FIG. 7, the first portion P1 refers to a portion that predicts the vanishing line with the detected vanishing point, and the second portion P2 converges to the reference vanishing line VL REF when the detection of the vanishing point fails. It means the part to do.
도 7의 (a)는 y(VP)로서, 소실점의 y좌표를 의미한다. 도 7의 (b)는 플로우 웨이트(flow weight)로서, 현재 검출된 소실점이 쇼트 텀 소실선(VLSHORT)을 예측하는 데 미치는 영향을 의미한다. 도 7의 (c)는 관성 웨이트(inertia weight)로서, 이전 프레임에 예측된 쇼트 텀 소실선의 업데이트 양(ΔVLSHORT)이 지속적으로 미치는 영향을 의미한다.7 (a) is y (VP), which means the y coordinate of the vanishing point. FIG. 7B is a flow weight, and means the influence of the currently detected vanishing point on predicting the short term vanishing line VL SHORT . 7 (c) is an inertia weight, and means the influence of the update amount ΔVL SHORT of the short term vanishing line predicted in the previous frame.
도 7의 제 1 부분(P1)을 참조하면, 플로우 웨이트 및 관성 웨이트의 평균 값이 쇼트 텀 소실선(VLSHORT)을 예측하는 데 이용될 수 있다. 즉, 플로우 웨이트 및 관성 웨이트가 서로 완충 작용을 할 수 있다.Referring to the first portion P1 of FIG. 7, an average value of the flow weight and the inertial weight may be used to predict the short term vanishing line VL SHORT . That is, the flow weight and the inertial weight can buffer each other.
도 7의 (d)는 보상 웨이트(compensation weight)로서, 소실점의 검출에 실패했을 때, 참조 소실선(VLREF)으로 수렴하는 속도를 의미한다. 여기에서, 참조 소실선(VLREF)은 도 4에서의 제 1 카메라 파라미터와 관련된 값이다. 이에 따라, 제어부(160)는 소실점의 검출에 실패하면, 가장 최근의 카메라 파라미터인 제 1 카메라 파라미터를 이용한다는 것을 알 수 있다.FIG. 7D is a compensation weight, which means the speed of convergence to the reference vanishing line VL REF when the detection of the vanishing point fails. Here, the reference vanishing line VL REF is a value associated with the first camera parameter in FIG. 4. Accordingly, when the detection of the vanishing point fails, the controller 160 can use the first camera parameter, which is the most recent camera parameter.
도 7의 (e)는 쇼트 텀 필터가 예측한 쇼트 텀 소실선의 업데이트 양(ΔVLSHORT)을 의미한다. 구체적으로, 쇼트 텀 소실선의 업데이트 양(ΔVLSHORT)은 가장 최근의 소실선과 현재 쇼트 텀 필터에 의해 예측된 소실선의 차이 값을 의미한다. 쇼트 텀 소실선의 업데이트 양(ΔVLSHORT)은 이전 프레임으로 딜레이(D)된 후, 관성 웨이트(inertia weight)와 곱해질 수 있다.FIG. 7E means the update amount ΔVL SHORT of the short term vanishing line predicted by the short term filter. Specifically, the update amount ΔVL SHORT of the short term vanishing line means a difference value between the most recent vanishing line and the vanishing line predicted by the current short term filter. The update amount ΔVL SHORT of the short term vanishing line may be delayed D to the previous frame and then multiplied by the inertia weight.
도 7의 (f)는 참조 소실선(VLREF)을 의미한다. 앞서 설명한 바와 같이, 참조 소실선(VLREF)은 도 4에서의 제 1 카메라 파라미터와 관련된 값이다.7 (f) means the reference vanishing line VL REF . As described above, the reference vanishing line VL REF is a value associated with the first camera parameter in FIG. 4.
도 7의 (g)는 최종 값으로서, 예측된 쇼트 텀 소실선(VLSHORT)을 의미한다.FIG. 7G illustrates a final short term vanishing line VL SHORT as a final value.
도 8은 롱 텀 필터가 소실선을 예측하는 알고리즘을 보여주는 개념도이다.8 is a conceptual diagram illustrating an algorithm in which a long term filter predicts a vanishing line.
도 8을 참조하면, 롱 텀 필터는 최근 n개(예를 들어, 300개)의 프레임들 각각의 소실점들의 평균을 구하고, 평균을 이용하여 소실선을 예측할 수 있다. 이때, 최근 n개의 프레임들 각각의 소실점 데이터는 메모리(140)에 저장되어 있을 수 있다.Referring to FIG. 8, the long term filter obtains an average of vanishing points of each of the latest n frames (eg, 300 frames), and predicts a vanishing line using the average. In this case, vanishing point data of each of the last n frames may be stored in the memory 140.
도 9는 피치 모션의 보정 전과 보정 후 각각에 대해 명점이 분류되는 실시 예를 보여주는 개념도이다.9 is a conceptual diagram illustrating an embodiment in which bright points are classified before and after correction of pitch motion.
도 9의 (a)를 참조하면, 피치 모션의 보정 전에는 범프 등에 의해 객체들의 분류가 쉽지 않았다. 도시된 바와 같이, 제어부(160)는 객체들의 분류를 위해 색상 정보 및 밝기 정보를 이용할 뿐이므로, 소실선(지평선)(301)을 기준으로 객체들(302, 303)이 겹쳐 보이기 때문에 객체들(302, 303)이 앞 차량인지 다른 물건인지 구분이 쉽지 않았다.Referring to FIG. 9A, objects are not easily classified by bumps or the like before the pitch motion is corrected. As shown, since the control unit 160 only uses color information and brightness information for classification of objects, the objects 302 and 303 are overlapped based on the vanishing line (horizontal line) 301. 302, 303) was not easy to distinguish between the front vehicle and other objects.
그러나, 도 9의 (b)를 참조하면, 피치 모션의 보정 후, 소실선(304)을 기준으로 객체들(305, 306)의 분류가 용이하다. 도시된 바와 같이, 제어부(160)는 소실선(304)을 기준으로 소실선(304)의 윗 부분에 위치한 앞 차량(305) 및 앞 차랑(305)보다 더 윗 부분에 위치한 가로등(306)을 쉽게 검출할 수 있다.However, referring to FIG. 9B, after the pitch motion is corrected, the objects 305 and 306 may be easily classified based on the vanishing line 304. As shown, the controller 160 controls the front vehicle 305 located above the vanishing line 304 and the streetlight 306 located above the front lane 305 based on the vanishing line 304. It can be detected easily.
한편, 차량 검출 시 차량 탐색을 위한 관심 영역(Region Of Interest, ROI) 설정에 의해 전체 연산 시간이 좌우될 수 있다. 이때, 본 발명에 의하면, 예측된 소실선을 통해 업데이트 된 카메라 파라미터(homography)를 이용하여 ROI를 조정 가능하도록 설정하여 연산 시간을 줄일 수 있다.Meanwhile, when calculating a vehicle, the total calculation time may be determined by setting a region of interest (ROI) for vehicle search. At this time, according to the present invention, it is possible to reduce the calculation time by setting the ROI to be adjustable by using the updated camera parameter (homography) through the predicted vanishing line.
또한, 카메라 파라미터(homography)를 이용한 차선 검출 알고리즘은 카메라 파라미터(homography)의 정확성에 의해 성능이 좌우된다. 그러므로, 카메라(180)의 피치 모션 변화에 의한 카메라 파라미터(homography)의 부정확성을 보상하는 본 발명에 의하면, 알고리즘의 정확성을 높일 수 있다.In addition, the lane detection algorithm using the camera homography performance is determined by the accuracy of the camera homography. Therefore, according to the present invention which compensates for the inaccuracy of camera parameters due to the pitch motion change of the camera 180, the accuracy of the algorithm can be increased.
본 명세서에 개시된 일 실시 예에 의하면, 상술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to one embodiment disclosed in the present specification, the above-described method may be implemented in processor-readable code on a medium in which a program is recorded. Examples of processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
본 명세서에 개시된 차량 운전자의 생체 신호 측정 장치에 있어서, 상술한 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In the apparatus for measuring a biosignal of a vehicle driver disclosed herein, the configuration and method of the above-described embodiments may not be limitedly applied, but all or a part of the embodiments may be selectively combined so that various modifications may be made. It may be.

Claims (15)

  1. 본체;main body;
    상기 본체의 주행 중 외부로부터 영상을 획득하는 카메라;A camera that acquires an image from the outside while the main body is driving;
    카메라 파라미터로서 제 1 카메라 파라미터를 저장하는 메모리; 및A memory for storing the first camera parameter as a camera parameter; And
    상기 획득된 영상에서 검출된 소실점(vanishing point)을 이용하여 소실선(vanishing line)을 예측하며, 상기 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성하고,A vanishing line is predicted using vanishing points detected in the acquired image, and a second camera parameter is generated based on the predicted vanishing line.
    상기 제 1 및 제 2 카메라 파라미터를 비교하여 상기 카메라 파라미터를 갱신할지 여부를 결정하는 제어부를 포함하는 전자 기기.And a controller configured to compare the first and second camera parameters to determine whether to update the camera parameters.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 갱신된 카메라 파라미터를 이용하여 상기 카메라의 피치 모션(pitch motion)을 보정하는 것을 특징으로 하는 전자 기기.And correct the pitch motion of the camera by using the updated camera parameter.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 카메라 파라미터는,The camera parameter is,
    내부 파라미터 및 외부 파라미터를 포함하고,Including internal and external parameters,
    상기 내부 파라미터는,The internal parameter is
    상기 카메라의 초점 거리 값을 포함하고,A focal length value of the camera,
    상기 외부 파라미터는,The external parameter is,
    상기 카메라의 x, y, z축 상 각도를 포함하는 것을 특징으로 하는 전자 기기.And an x, y and z axis angle of the camera.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 획득된 영상에서 소실점을 검출하고,Detecting a vanishing point from the acquired image,
    상기 검출된 소실점을 이용하여 소실선을 예측하며,Using the detected vanishing point to predict a vanishing line,
    상기 예측된 소실선의 신뢰도를 검증하는 것을 특징으로 하는 전자 기기.And verifying the reliability of the predicted vanishing line.
  5. 제 4 항에 있어서,The method of claim 4, wherein
    상기 제어부는,The control unit,
    상기 획득된 영상에서 차선의 경사도와 관련된 이미지를 추출하고, 상기 추출된 이미지에서 차선 후보들의 교차점들을 추출하며, 상기 추출된 교차점들 중 어느 하나를 소실점으로 검출하는 것을 특징으로 하는 전자 기기.And extracting an image related to the inclination of the lane from the obtained image, extracting intersections of lane candidates from the extracted image, and detecting any one of the extracted intersections as a vanishing point.
  6. 제 5 항에 있어서,The method of claim 5,
    상기 제어부는,The control unit,
    상기 추출된 교차점들의 통계치 정보에 근거하여 상기 검출된 소실점을 보정하는 것을 특징으로 하는 전자 기기.And correct the detected vanishing point based on statistical information of the extracted intersection points.
  7. 제 6 항에 있어서,The method of claim 6,
    상기 제어부는,The control unit,
    매 프레임들 각각의 소실점을 이용하여 소실선을 예측하는 쇼트 텀 필터; 및A short term filter for predicting a vanishing line using the vanishing point of each frame; And
    기 설정된 개수의 프레임들 각각의 소실점의 평균을 이용하여 소실선을 예측하는 롱 텀 필터를 포함하는 것을 특징으로 하는 전자 기기.And a long term filter for predicting a vanishing line by using an average of vanishing points of each of a predetermined number of frames.
  8. 제 7 항에 있어서,The method of claim 7, wherein
    상기 제어부는,The control unit,
    상기 차선 후보들의 평행 정도와 관련된 신뢰도 정보를 생성하고, 상기 신뢰도 정보에 근거하여 상기 예측된 소실선을 보정할지 여부를 결정하는 것을 특징으로 하는 전자 기기.And generating reliability information related to the degree of parallelism of the lane candidates and determining whether to correct the predicted vanishing line based on the reliability information.
  9. 제 1 항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    주행 거리, 주행 시간 및 주행 속도 중 적어도 하나에 근거하여, 상기 제 2 카메라 파라미터의 수렴 조건의 만족 여부를 검사하는 것을 특징으로 하는 전자 기기.And checking whether the convergence condition of the second camera parameter is satisfied based on at least one of a travel distance, a travel time, and a travel speed.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 제어부는,The control unit,
    상기 수렴 조건을 만족하는 경우, 상기 제 2 카메라 파라미터를 새로운 카메라 파라미터로 갱신하고,If the convergence condition is satisfied, updating the second camera parameter with a new camera parameter,
    상기 수렴 조건을 만족하지 않는 경우, 상기 제 1 카메라 파라미터를 상기 카메라 파라미터로 유지하는 것을 특징으로 하는 전자 기기.And when the convergence condition is not satisfied, maintaining the first camera parameter as the camera parameter.
  11. 제 10 항에 있어서,The method of claim 10,
    상기 제어부는,The control unit,
    상기 수렴 조건을 만족하는 경우, 상기 본체의 시동이 정지될 때 상기 새로운 카메라 파라미터를 상기 메모리에 저장하는 것을 특징으로 하는 전자 기기.And when the convergence condition is satisfied, storing the new camera parameter in the memory when the start of the main body is stopped.
  12. 본체를 포함하는 전자 기기의 제어 방법에 있어서:In the control method of an electronic device including a main body:
    카메라 파라미터로서 메모리에 저장된 제 1 카메라 파라미터를 로딩하는 단계;Loading a first camera parameter stored in a memory as a camera parameter;
    상기 본체의 주행 중 카메라를 이용하여 외부로부터 영상을 획득하는 단계;Acquiring an image from the outside using a camera while driving the main body;
    상기 획득된 영상에서 검출된 소실점을 이용하여 소실선을 예측하며, 상기 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성하는 단계; 및Predicting a vanishing line using the vanishing point detected in the acquired image, and generating a second camera parameter based on the predicted vanishing line; And
    상기 제 1 및 제 2 카메라 파라미터를 비교하여 상기 카메라 파라미터를 갱신할지 여부를 결정하는 단계를 포함하는 전자 기기의 제어 방법.Comparing the first and second camera parameters to determine whether to update the camera parameters.
  13. 제 12 항에 있어서,The method of claim 12,
    상기 갱신된 카메라 파라미터를 이용하여 상기 카메라의 피치 모션을 보정하는 단계를 더 포함하는 것을 특징으로 하는 전자 기기의 제어 방법.And correcting the pitch motion of the camera using the updated camera parameter.
  14. 제 12 항에 있어서,The method of claim 12,
    상기 획득된 영상에서 검출된 소실점을 이용하여 소실선을 예측하며, 상기 예측된 소실선에 근거하여 제 2 카메라 파라미터를 생성하는 단계는,A method of predicting a vanishing line using the vanishing point detected in the acquired image, and generating a second camera parameter based on the predicted vanishing line,
    상기 획득된 영상에서 소실점을 검출하는 단계;Detecting a vanishing point in the acquired image;
    상기 검출된 소실점을 이용하여 소실선을 예측하는 단계; 및Predicting a vanishing line using the detected vanishing point; And
    상기 예측된 소실선의 신뢰도를 검증하는 단계를 포함하는 것을 특징으로 하는 전자 기기의 제어 방법.And verifying reliability of the predicted vanishing line.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 획득된 영상에서 소실점을 검출하는 단계는,Detecting a vanishing point in the obtained image,
    상기 획득된 영상에서 차선의 경사도와 관련된 이미지를 추출하는 단계;Extracting an image related to the inclination of the lane from the obtained image;
    상기 추출된 이미지에서 차선 후보들의 교차점들을 추출하는 단계; 및Extracting intersections of lane candidates from the extracted image; And
    상기 추출된 교차점들 중 어느 하나를 소실점으로 검출하는 단계를 포함하는 것을 특징으로 하는 전자 기기의 제어 방법.And detecting any one of the extracted intersection points as a vanishing point.
PCT/KR2013/001999 2013-03-13 2013-03-13 Electronic device and method for controlling same WO2014142367A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/001999 WO2014142367A1 (en) 2013-03-13 2013-03-13 Electronic device and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/001999 WO2014142367A1 (en) 2013-03-13 2013-03-13 Electronic device and method for controlling same

Publications (1)

Publication Number Publication Date
WO2014142367A1 true WO2014142367A1 (en) 2014-09-18

Family

ID=51537008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/001999 WO2014142367A1 (en) 2013-03-13 2013-03-13 Electronic device and method for controlling same

Country Status (1)

Country Link
WO (1) WO2014142367A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008225784A (en) * 2007-03-12 2008-09-25 Toyota Motor Corp Vanishing point extraction device
JP2011215063A (en) * 2010-04-01 2011-10-27 Tottori Univ Camera attitude parameter estimation device
JP2012003604A (en) * 2010-06-18 2012-01-05 Toshiba Alpine Automotive Technology Corp Mobile body detector and mobile body detection method
US20120081512A1 (en) * 2009-06-18 2012-04-05 Fujitsu Limited Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008225784A (en) * 2007-03-12 2008-09-25 Toyota Motor Corp Vanishing point extraction device
US20120081512A1 (en) * 2009-06-18 2012-04-05 Fujitsu Limited Image processing device and image processing method
JP2011215063A (en) * 2010-04-01 2011-10-27 Tottori Univ Camera attitude parameter estimation device
JP2012003604A (en) * 2010-06-18 2012-01-05 Toshiba Alpine Automotive Technology Corp Mobile body detector and mobile body detection method

Similar Documents

Publication Publication Date Title
WO2017119737A1 (en) Method and device for sharing image information in communication system
US9547435B2 (en) Rendering across terminals
US8717198B2 (en) Communication connecting apparatus and method for detecting mobile units in a vehicle
US9414201B2 (en) Information providing apparatus and method thereof
US20070124064A1 (en) Map information updating system, central apparatus, map information updating method and recording medium
US9103692B2 (en) Navigation method of mobile terminal and apparatus thereof
WO2015122729A1 (en) Method and apparatus for forecasting flow of traffic
WO2013054957A1 (en) Input interface controlling apparatus and method thereof
WO2017010601A1 (en) Vehicle control device and method therefor
WO2011136456A1 (en) Video display apparatus and method
EP2690546A1 (en) Image processing device and method for controlling image processing device
WO2013133464A1 (en) Image display device and method thereof
JP2013032932A (en) Portable terminal
US20120064865A1 (en) Mobile terminal and control method thereof
EP2740103A1 (en) Traffic lane recognizing apparatus and method thereof
JP6532968B1 (en) Parking management device, sensor device, parking management system, parking management method and program
CN108051010B (en) Method for determining time of arrival at destination and mobile terminal
WO2018026090A1 (en) Vehicle on-boarding recognition method and electronic device implementing same
US8271192B2 (en) Navigation apparatus and method thereof
CN108362303B (en) Navigation method and mobile terminal
WO2016182179A1 (en) User terminal apparatus and controlling method thereof
KR101562581B1 (en) Navigation apparatus and method thereof
WO2012081787A1 (en) Image processing apparatus of mobile terminal and method thereof
WO2019103427A1 (en) Method, device, and recording medium for processing image
JP2007038782A (en) Diagnostic device for vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13878478

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13878478

Country of ref document: EP

Kind code of ref document: A1