WO2019117658A1 - Camera control device and control method therefor - Google Patents

Camera control device and control method therefor Download PDF

Info

Publication number
WO2019117658A1
WO2019117658A1 PCT/KR2018/015891 KR2018015891W WO2019117658A1 WO 2019117658 A1 WO2019117658 A1 WO 2019117658A1 KR 2018015891 W KR2018015891 W KR 2018015891W WO 2019117658 A1 WO2019117658 A1 WO 2019117658A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
event
processor
vehicle
processed
Prior art date
Application number
PCT/KR2018/015891
Other languages
French (fr)
Korean (ko)
Inventor
김선엽
김지현
정정균
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020207007093A priority Critical patent/KR102362452B1/en
Publication of WO2019117658A1 publication Critical patent/WO2019117658A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Definitions

  • the present invention relates to a camera control apparatus for controlling a plurality of cameras mounted on a vehicle and a control method thereof.
  • a vehicle means a means of transporting people or goods by using kinetic energy.
  • Typical examples of vehicles include automobiles and motorcycles.
  • the function of the vehicle can be divided into a convenience function for the convenience of the driver and a safety function for the safety of the driver and / or the pedestrian.
  • the convenience function has the motive for development related to driver convenience, such as providing infotainment (information + entertainment) function to the vehicle, supporting partial autonomous driving function, assisting driver's vision such as night vision or blind spot .
  • driver convenience such as providing infotainment (information + entertainment) function to the vehicle, supporting partial autonomous driving function, assisting driver's vision such as night vision or blind spot .
  • ACC active cruise control
  • SPAS smart parking assist system
  • NV night vision
  • HUD head up display
  • AHS adaptive headlight system
  • the safety function is to secure the safety of the driver and / or pedestrians.
  • LDWS lane departure warning system
  • LKAS lane keeping assist system
  • AEB autonomous emergency braking
  • each camera performs only one function that has already been set, so it must be added to the new camera model in order to implement other functions.
  • the function of the parking assist system when it is desired to implement the function of the arround view monitor in a state in which the parking assist camera for photographing the rear of the vehicle is mounted, Should be additionally mounted.
  • the present invention is directed to solving the above-mentioned problems and other problems.
  • An object of the present invention is to provide a camera control apparatus and a control method thereof that can simultaneously implement various functions using one camera mounted on a vehicle.
  • the present invention provides a camera control apparatus and a control method thereof for controlling a plurality of cameras mounted on a vehicle.
  • the camera control device includes: a communication unit for receiving an original image from a certain camera; And a processor for generating a first processed image required in the first event by using the original image when a first event occurs, It is possible to generate the second processed image requested by the second event using the original image.
  • the processor may simultaneously generate n processed images using the original image, and may adjust the n according to a predetermined condition.
  • the processor can adjust the n based on the amount of data of the processed images being generated.
  • the processor can adjust the n based on the storable space of the memory set to store the processed image.
  • the processor may adjust the n based on an amount of use of the processor.
  • the processor may update the event list in response to an event occurrence, and may simultaneously generate the n processed images according to the order registered in the event list.
  • an event is one in which a message requesting a predetermined image is received from at least one of an application installed in the vehicle and an electrical component mounted on the vehicle, the processor comprising: And control the communication unit to receive an image from the selected camera.
  • the processor classifies the cameras into a first group and a second group based on the message, the first group of cameras being on and the second group of cameras being off, Can be controlled.
  • the processor may restrict the generation of the second processed image when the image requested by the second event is the same as the first processed image.
  • the processor can determine whether the image requested by the second event is identical to the first processed image according to a reference condition, and determine the generation of the second processed image according to the determination result.
  • the reference condition may be defined by at least one of a data rate, a resolution, an address to be transmitted, a frame rate, and image scaling.
  • the processor determines that the image requested by the second event is identical to the first processed image can do.
  • the processor may generate a processed image using at least one of changing at least one of a size, a frame rate, and a resolution of the original image, and cutting out a part of the entire region of the original image have.
  • the processor includes: a first image processing unit for wirelessly transmitting a processed image to an external device; And a second image processing unit for storing the processed image in a memory mounted on the vehicle, and the generation of the processed image according to the event can be allocated to the first image processing unit or the second image processing unit.
  • the control method of the camera control device may further include: receiving an original image from a camera; Generating a first processed image required in the first event using the original image when a first event occurs; And generating a second processed image requested by the second event using the original image when a second event occurs during the generation of the first processed image.
  • the method may further include adjusting n according to a predetermined condition, wherein n processed images are simultaneously generated using the original image.
  • the method further includes updating the event list in response to the event occurrence, and the n processed images may be simultaneously generated according to the order registered in the event list.
  • the event is that a message requesting a predetermined image is received from at least one of an application installed in the vehicle and an electric component mounted on the vehicle, and selecting at least one of the cameras based on the message ; And controlling the communication unit to receive an image from the selected camera.
  • classifying the cameras into a first group and a second group based on the message And controlling the communication unit such that the camera of the first group is turned on and the camera of the second group is turned off.
  • the step of generating the second processed image may include determining whether an image requested by the second event is identical to the first processed image according to a reference condition; Restricting the generation of the second processed image if an image requested by the second event is identical to the first processed image; And generating the second processed image if the image requested by the second event is not identical to the first processed image.
  • the present invention can be extended to a vehicle including the camera control device described above.
  • the camera control apparatus for controlling a plurality of cameras mounted on a vehicle and the effect of the control method thereof will be described as follows.
  • the camera generates one original image, but the processor simultaneously generates different processed images using the original image. For example, a first processed image corresponding to the first event and a second processed image corresponding to the second event may be simultaneously generated from the original image.
  • the camera control device can support different functions simultaneously using one camera.
  • FIG. 1 is a block diagram for explaining an example of a camera control apparatus according to the present invention
  • FIG. 2 is a flowchart for explaining a control method of the camera control apparatus of FIG.
  • 3 is a flowchart for explaining a method for simultaneously generating n processed images
  • 4A, 4B and 4C are conceptual diagrams for explaining the operation of the camera control device
  • FIG. 5 is a flowchart for explaining a method of selecting a camera
  • FIG. 6 is a flowchart for explaining a method for determining whether to simultaneously generate processed images
  • the vehicle described herein may be a concept including a car, a motorcycle.
  • the vehicle will be described mainly with respect to the vehicle.
  • FIG. 1 is a block diagram for explaining an example of a camera control apparatus according to the present invention.
  • the camera control device means a device for controlling the vehicle.
  • the camera control device may be a device mounted on a vehicle, performing communication via CAN communication, and generating a message for controlling the vehicle and / or the electrical equipments mounted on the vehicle.
  • the camera control device may be located outside the vehicle, such as a server or a communication device, and may communicate with the vehicle via a mobile communication network.
  • the camera control device can remotely control an electric component mounted on a vehicle and / or a vehicle using a mobile communication network.
  • the camera control device 100 is provided in the vehicle, and may be an independent device that can be attached to or detached from the vehicle, or may be a part of the vehicle installed integrally with the vehicle.
  • the camera control apparatus 100 includes a communication unit 110 and a processor 130.
  • the communication unit 110 is configured to perform communication with various components provided in the vehicle.
  • the communication unit 110 may receive various information provided through the CAN (controller are network).
  • the communication unit 110 can perform communication with all devices capable of communicating with each other, such as a vehicle, a mobile terminal and a server, and another vehicle. This can be named Vehicle to everything (V2X) communication.
  • V2X communication can be defined as technology that exchanges information such as traffic situation while communicating with road infrastructure and other vehicles while driving.
  • the communication unit 110 can receive information related to the running of the vehicle from most of the electric equipments provided in the vehicle.
  • the information transmitted from the electrical equipments provided in the vehicle to the camera controller 100 is referred to as 'vehicle driving information'.
  • the vehicle running information includes vehicle information and peripheral information of the vehicle.
  • Information relating to the inside of the vehicle based on the frame of the vehicle can be defined as vehicle information, and information related to the outside of the vehicle can be defined as the surrounding information.
  • the vehicle information means information about the vehicle itself.
  • the vehicle information may include vehicle speed, running direction, acceleration, angular speed, position (GPS), weight, vehicle occupant, braking force of the vehicle, maximum braking force of the vehicle, air pressure of each wheel, , Whether or not the vehicle is in a traveling mode (whether it is an autonomous driving mode or a manual driving mode), a parking mode of the vehicle (autonomous parking mode, automatic parking mode, manual parking mode) .
  • the peripheral information means information relating to another object located within a predetermined range around the vehicle and information related to the outside of the vehicle. For example, the state of the road surface on which the vehicle is running (frictional force), the weather, the distance from the front (or rear) vehicle, the relative speed of the front (or rear) vehicle, Information related to an object existing in a reference area (a predetermined area) on the basis of the vehicle, whether the object enters / leaves the predetermined area, whether a user exists around the vehicle, and information related to the user Whether the user is an authorized user, etc.).
  • the peripheral information includes at least one of object information (a person, a vehicle, a signboard, etc.) located in the vicinity of the surrounding brightness, temperature, sun position, a kind of road surface during running, a feature, a lane information, ) Information, and information necessary for autonomous driving / autonomous parking / automatic parking / manual parking modes.
  • object information a person, a vehicle, a signboard, etc. located in the vicinity of the surrounding brightness, temperature, sun position, a kind of road surface during running, a feature, a lane information, ) Information, and information necessary for autonomous driving / autonomous parking / automatic parking / manual parking modes.
  • the peripheral information includes an object (object) for identifying the distance to the vehicle and the vehicle existing in the vicinity of the vehicle, the possibility of collision, the type of the object, the parking space in which the vehicle can park, , Rope, other vehicle, wall, etc.), and the like.
  • object object for identifying the distance to the vehicle and the vehicle existing in the vicinity of the vehicle, the possibility of collision, the type of the object, the parking space in which the vehicle can park, , Rope, other vehicle, wall, etc.
  • the vehicle running information is not limited to the example described above, and may include all information generated from the components provided in the vehicle.
  • the processor 130 is configured to control one or more electric components provided in the vehicle using the communication unit 110.
  • the processor 130 may determine whether at least one of a plurality of pre-set conditions is satisfied, based on the vehicle travel information received through the communication unit 110. [ Depending on the conditions being satisfied, the processor 130 may control the one or more electrical components in different ways.
  • the processor 130 may detect occurrence of an event in the electrical product and / or application provided in the vehicle, and may determine whether the sensed event meets a predetermined condition. At this time, the processor 130 may detect occurrence of an event from the information received through the communication unit 110.
  • the application is a concept including a widget, a home launcher, etc., and means any type of program that can be driven in a vehicle. Accordingly, the application may be a program that performs a function of a web browser, a moving image playback, a message transmission / reception, a schedule management, and an application update.
  • the application may include a forward collision warning (FCW), a blind spot detection (BSD), a lane departure warning (LDW), a pedestrian detection (PD) A Curve Speed Warning (CSW), and a turn-by-turn navigation (TBT).
  • FCW forward collision warning
  • BSD blind spot detection
  • LWD lane departure warning
  • PD pedestrian detection
  • CSW Curve Speed Warning
  • TBT turn-by-turn navigation
  • an event can be triggered when there is a missed call, when there is an application to be updated, when a message arrives, when the message is received, such as start on, start off, autonomous travel on / off, An LCD awake key, an alarm, an incoming call, a missed notification, and the like.
  • the occurrence of an event may be a case where an alert set by the advanced driver assistance system (ADAS), a function set in ADAS is performed. For example, if a forward collision warning occurs, a blind spot detection occurs, a lane departure warning occurs, a lane keeping alarm (lane keeping) If an assist warning occurs, an event occurs when an autonomous emergency braking function is performed.
  • ADAS advanced driver assistance system
  • the event may be that the camera control device 100 receives a message requesting a predetermined image from at least one of an application installed in the vehicle and an electrical component mounted on the vehicle.
  • the processor 130 controls the communication unit 110 to display information corresponding to the satisfied condition on one or more displays provided in the vehicle .
  • the communication unit 110 may be connected to a plurality of cameras mounted on the vehicle through wired and / or wireless communication with the cameras.
  • the processor 130 may control the plurality of cameras through the communication unit 110. [ For example, the processor 130 may generate a control signal for controlling the plurality of cameras.
  • the processor 130 may receive an original image from the plurality of cameras, and may generate a processed image requested from the event from the original image.
  • the generated processed image can be transmitted through the communication unit 110 to a place requested by the event. For example, it can be stored in a memory provided in the vehicle, transmitted to an electric component provided in the vehicle, or transmitted to a server or a cloud.
  • the camera control apparatus 100 can simultaneously generate a plurality of images that can be used for various purposes by using a plurality of cameras mounted on the vehicle. For example, a vehicle rearview image may be requested from a display, and a server remotely controlling the vehicle may request a rearview image of the vehicle. Since the characteristics of the image required by the display and the server are different from each other, the camera control device 100 receives the original image from the rear camera of the vehicle photographing the rear of the vehicle, Backward images can be simultaneously generated and transmitted to the display and the server, respectively.
  • FIG. 2 is a flowchart for explaining a control method of the camera control apparatus of FIG.
  • the processor 130 receives the original image from any camera (S210).
  • the processor 130 may receive a plurality of original images from a plurality of cameras at the same time. However, for convenience of explanation, the processor 130 receives an original image from one of the cameras.
  • the processor 130 generates the first processed image using the original image (S230).
  • the event may be that a message requesting a predetermined image is received from at least one of an application installed in the vehicle, an electrical component mounted on the vehicle, and a system.
  • AVM Around View Monitor
  • a message requesting a left side image, a right side image, a forward image, and a rear image may be received.
  • a message requesting a backward image may be received.
  • a message may be received requesting an in-vehicle image of a vehicle taken from the service center in the event of an emergency.
  • the event may be a predetermined case in which a passenger rides or gets off. For example, when at least one of the doors provided in the vehicle is opened, a message requesting a seat image of a seat corresponding to the at least one seat may be received. The photographed seat image can be used before and after the passenger is compared to search for the thing left by the passenger in the vehicle.
  • the processor 130 selects at least one of a plurality of cameras mounted on the vehicle based on the first event and generates one processed image using one or more original images received from the selected camera .
  • the first processed image is generated by the first event.
  • the method and / or method of processing the first processed image is preset in the first event, and the processor (130) sets the first processed image in a manner and / or manner set in the first event .
  • the processor 130 may generate one processed image by processing one original image.
  • a processed image may be generated using at least one of changing at least one of the size, the transmission rate, the magnification, the frame rate, and the resolution of the original image, and cutting out a part of the entire area of the original image.
  • the processor 130 may synthesize a plurality of original images into one processed image, or may generate a plurality of processed images using a plurality of original images.
  • the processed image is a new image created by processing the original image, but it is also possible to process the original image as a processed image without any processing.
  • the processor 130 may store the raw image as it is in the memory or transmit it through the communication unit 110.
  • the processor 130 may generate a processed image by capturing a still image using an original image received from a camera or generating a moving image in a format required by an event.
  • the processor 130 may store the generated processed image in a memory provided in the vehicle, transmit it to an external device having a predetermined address, or transmit it to an electrical device in the vehicle according to a method requested by the event.
  • the processor 130 when the second event occurs during the generation of the first processed image, the processor 130 generates the second processed image using the original image (S250).
  • the processor 130 simultaneously generates different processed images using the original image. For example, a first processed image corresponding to the first event and a second processed image corresponding to the second event may be simultaneously generated from the original image.
  • the camera control device 100 can support different functions simultaneously using one camera.
  • the camera control apparatus 100 can adjust the number of simultaneously processed images to be generated simultaneously. The method of adjusting the number will be described in detail with reference to FIG.
  • FIG. 3 is a flowchart illustrating a method of simultaneously generating n processed images.
  • the processor 130 may update the event list in response to the event occurrence (S310).
  • a new event is added to the event list, and when the generation of the processed image corresponding to the existing event is ended, the existing event is deleted from the event list.
  • the event list is added in the order in which the events are generated and deleted in the order in which the generation of the processed image corresponding to the event is terminated.
  • the first event is added first in the event list and the second event is added in the next order of the first event. Thereafter, when the third event is generated, the third event is added in the next order of the second event.
  • n is determined according to predetermined conditions (S330).
  • the processor 130 determines n as the number of processed images to be simultaneously generated.
  • N is a natural number.
  • the n may vary according to predetermined conditions.
  • the processor 130 may adjust the n based on the amount of data of the processed images being generated. Specifically, the processor 130 may measure the data amount of the processed images generated per unit time, and may determine the n based on the measured data amount. The larger the amount of data per unit time, the smaller n can be.
  • the processor 130 may adjust the n based on the amount of use of the processor 130. As the amount of use of the processor 130 increases, the value of n may be decreased.
  • n is adjusted according to the amount of data per unit time or the amount of use of the processor 130 is to control the load of the processor 130 and / or the load of the communication unit 110.
  • the processor 130 may adjust the n based on the storable space of the memory set to store the processed image.
  • the processor 130 may monitor the storable space of the memory and change the n according to the storable space.
  • the processor 130 may wait for securing the storage space of the memory while adjusting the value of n. This is to prevent the data stored in the memory from being deleted by the new data.
  • n processed images are simultaneously generated according to the order registered in the event list (S350).
  • n is changed to 2
  • two processed images corresponding to the first event and the second event registered in the list are generated, but the generation of the processed image corresponding to the third event is restricted. That is, the processed image corresponding to the third event is not generated and is placed in the waiting state.
  • 4A, 4B, and 4C are conceptual diagrams for explaining the operation of the camera control device.
  • the camera control apparatus 100 receives one or more original images from a plurality of cameras provided in the vehicle.
  • the configuration for receiving the original image is the communication unit 110 and may be referred to as an 'input unit'.
  • the processor 130 may comprise a distributor and an implementer.
  • the tribute distribution unit receives an original image through an input unit, and generates a processed image or a processed image by software processing of the original image at the request of the implementation unit.
  • the implementing unit executes a function corresponding to an event using the processed image generated by the distributing unit.
  • a still image captured from an original image may be stored in a memory
  • a moving image recorded with an original image may be stored in a memory
  • a processed image may be encoded and transmitted to a predetermined server through an antenna.
  • the implementer may update the event list and determine the n.
  • the distributing unit may selectively generate a processed image according to the operation of the implementing unit.
  • the implementation unit may include a first image processing unit for transmitting a processed image to an external device by wireless, and a second image processing unit for storing the processed image in a memory mounted on the vehicle.
  • the first image processing unit is connected to the antenna and transmits the generated processed image to the external device wirelessly.
  • the second image processing unit is connected to a memory and stores the generated processed image in a memory.
  • the processor 130 may allocate a processed image to the first image processing unit or the second image processing unit according to an event.
  • the distributing unit distributes the three original images According to a method and / or a method required in the first event, and the implementing unit may store the three processed images generated in the distribution unit in a memory.
  • a snapshot storage function (or a second event) for the first and third cameras may be executed.
  • the distributing unit may generate the processed images corresponding to the first event and the processed images corresponding to the second event. In this case, although there are three cameras, a total of five processed images are generated, and five processed images are stored in the memory by the implementation unit.
  • the transmission function (or the third event) for the first and second cameras may be executed.
  • the distributing unit generates a total of seven processed images using three original images, and the implementing unit may store the processed images according to each event in a memory or transmit the processed images to a server through an antenna.
  • FIG. 5 is a flowchart for explaining a method of selecting a camera.
  • the processor 130 receives a message requesting a predetermined image (S510).
  • the message is received through the communication unit 110 and may be received as the vehicle running information described above with reference to FIG.
  • the processor 130 may determine whether the vehicle running information corresponds to a preset message, and may generate a processed image corresponding to the predetermined message.
  • At least one of the cameras is selected based on the message (S530).
  • the processor 130 selects at least one camera to generate the predetermined image requested by the message. For example, when a parking assist system requests a rear image, a rear camera installed in the rear of the vehicle can be selected. As another example, when an outside-vehicle image is requested from an ambient view monitor (AVM), cameras installed in the front, rear, left-side and right-side rooms of the vehicle can be selected. The selected camera is varied according to the message.
  • a parking assist system requests a rear image
  • a rear camera installed in the rear of the vehicle can be selected.
  • an outside-vehicle image is requested from an ambient view monitor (AVM)
  • AVM ambient view monitor
  • the processor 130 controls the communication unit to receive an image from the selected camera (S550).
  • the processor 130 may classify the cameras included in the vehicle into the first group and the second group based on the message.
  • the first group may include a camera selected by the message
  • the second group may include a camera that is not selected by the message.
  • the processor 130 may control the communication unit 110 such that the cameras of the first group are turned on and the cameras of the second group are turned off. This is to prevent the camera from unnecessarily turning on and consuming power.
  • the camera to be turned off may be different according to the message received by the camera control device.
  • FIG. 6 is a flowchart for explaining a method for determining whether to simultaneously generate processed images.
  • the processor 130 may determine whether an image requested by the second event is identical to the first processed image according to a reference condition (S610).
  • the reference condition may be defined by at least one of a bit rate, a resolution, an address to be transmitted, a frame rate, and image scaling.
  • the processor 130 may use the already processed first processed image for the first and second events.
  • the processor 130 determines that the image requested by the second event is identical to the first processed image You may.
  • the processor 130 may restrict the generation of the second processed image (S630).
  • the processor 130 continuously generates the first processed image and does not generate the second processed image.
  • the processor 130 outputs an error message for the second event.
  • the processor 130 may generate the second processed image (S650).
  • the above-described present invention can be implemented as a computer-readable code (or application or software) on a medium on which the program is recorded.
  • the control method of the above-described autonomous vehicle can be realized by a code stored in a memory or the like.
  • the computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
  • Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet).
  • the computer may include a processor or a control unit. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

The present invention provides a camera control device for controlling a plurality of cameras mounted in a vehicle and a control method therefor. The camera control device comprises: a communication unit for receiving an original image from any camera; and a processor for generating, by using the original image, a first processing image required in a first event when the first event occurs, wherein, when a second event occurs while the first processing image is generated, the processor generates, by using the original image, a second processing image required in the second event.

Description

카메라 제어 장치 및 그것의 제어 방법Camera control device and control method thereof
본 발명은 차량에 탑재된 복수의 카메라들을 제어하는 카메라 제어 장치 및 그것의 제어 방법에 관한 것이다.The present invention relates to a camera control apparatus for controlling a plurality of cameras mounted on a vehicle and a control method thereof.
차량은 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. 차량의 대표적인 예로, 자동차 및 오토바이를 들 수 있다. A vehicle means a means of transporting people or goods by using kinetic energy. Typical examples of vehicles include automobiles and motorcycles.
차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화 되고 있다. For safety and convenience of a user who uses the vehicle, various sensors and devices are provided in the vehicle, and the functions of the vehicle are diversified.
차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다. The function of the vehicle can be divided into a convenience function for the convenience of the driver and a safety function for the safety of the driver and / or the pedestrian.
먼저, 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 지대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련된 개발 동기를 가진다. 예를 들어, 적응 순향 제어(active cruise control, ACC), 스마트주자시스템(smart parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다. First, the convenience function has the motive for development related to driver convenience, such as providing infotainment (information + entertainment) function to the vehicle, supporting partial autonomous driving function, assisting driver's vision such as night vision or blind spot . For example, an active cruise control (ACC), a smart parking assist system (SPAS), a night vision (NV), a head up display (HUD) (AVM), adaptive headlight system (AHS), and so on.
안전 기능은 운전자의 안전 및/또는 보행자의 안전을 확보하는 기술로, 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다. The safety function is to secure the safety of the driver and / or pedestrians. The lane departure warning system (LDWS), the lane keeping assist system (LKAS), the autonomous emergency braking, and AEB) functions.
편의 기능 및 안전 기능을 구현하기 위하여, 차량에는 여러 가지 목적의 다양한 카메라들이 탑재되어 사용되고 있다. 각 카메라는 기 설정되어 있는 한가지 기능을 수행할 뿐이어서, 다른 기능을 구현하기 위해서는 새로운 카메라기 차량에 추가로 탑재되어야 한다. 예를 들어, 주차 보조 시스템의 기능을 구현하기 위하여 차량 후방을 촬영하는 주차 보조 카메라가 탑재된 상태에서 어라운드 뷰 모니터(Arround View Monitor)의 기능을 구현하고자 하는 경우, 차량 후방을 촬영하는 어라운드 뷰 카메라가 추가적으로 탑재되어야 한다. In order to implement convenience functions and safety functions, various cameras for various purposes are mounted on the vehicle. Each camera performs only one function that has already been set, so it must be added to the new camera model in order to implement other functions. For example, in order to realize the function of the parking assist system, when it is desired to implement the function of the arround view monitor in a state in which the parking assist camera for photographing the rear of the vehicle is mounted, Should be additionally mounted.
차량과 관련된 다양한 기능이 개발됨에 따라, 차량에는 새로운 카메라가 계속해서 추가되고 있다. 하나의 카메라가 하나의 기능을 구현하기 위해 차량에 설치되기 때문에, 비용과 리소스의 낭비가 발생한다. With the development of various vehicle-related functions, new cameras are being added to the car continually. Since one camera is installed in the vehicle to implement one function, costs and resources are wasted.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.The present invention is directed to solving the above-mentioned problems and other problems.
본 발명의 일 목적은, 차량에 탑재된 하나의 카메라를 이용하여 다양한 기능들을 동시에 구현할 수 있는 카메라 제어 장치 및 그것의 제어 방법을 제공하는 것이다. An object of the present invention is to provide a camera control apparatus and a control method thereof that can simultaneously implement various functions using one camera mounted on a vehicle.
본 발명은 차량에 탑재된 복수의 카메라들을 제어하는 카메라 제어 장치 및 그것의 제어 방법을 제공한다. The present invention provides a camera control apparatus and a control method thereof for controlling a plurality of cameras mounted on a vehicle.
상기 카메라 제어 장치는, 어느 카메라로부터 원본 영상을 수신하는 통신부; 및 제1 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제1 이벤트에서 요구하는 제1 가공 영상을 생성하는 프로세서를 포함하며, 상기 프로세서는, 상기 제1 가공 영상을 생성하는 중에 제2 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제2 이벤트에서 요구하는 제2 가공 영상을 생성할 수 있다.The camera control device includes: a communication unit for receiving an original image from a certain camera; And a processor for generating a first processed image required in the first event by using the original image when a first event occurs, It is possible to generate the second processed image requested by the second event using the original image.
일 실시 예에 따르면, 상기 프로세서는, 상기 원본 영상을 이용하여 자연수 n개의 가공 영상들을 동시에 생성하며, 기 설정된 조건에 따라 상기 n을 조절할 수 있다.According to an exemplary embodiment, the processor may simultaneously generate n processed images using the original image, and may adjust the n according to a predetermined condition.
일 실시 예에 따르면, 상기 프로세서는, 생성 중인 가공 영상들의 데이터량에 근거하여 상기 n을 조절할 수 있다.According to one embodiment, the processor can adjust the n based on the amount of data of the processed images being generated.
일 실시 예에 따르면, 상기 프로세서는, 가공 영상을 저장하도록 설정된 메모리의 저장 가능 공간에 근거하여 상기 n을 조절할 수 있다.According to one embodiment, the processor can adjust the n based on the storable space of the memory set to store the processed image.
일 실시 예에 따르면, 상기 프로세서는, 상기 프로세서의 사용량에 근거하여 상기 n을 조절할 수 있다.According to one embodiment, the processor may adjust the n based on an amount of use of the processor.
일 실시 예에 따르면, 상기 프로세서는, 이벤트 발생에 응답하여 이벤트 리스트를 업데이트 하고, 상기 이벤트 리스트에 등록된 순서에 따라 상기 n개의 가공 영상들을 동시에 생성할 수 있다.According to an embodiment, the processor may update the event list in response to an event occurrence, and may simultaneously generate the n processed images according to the order registered in the event list.
일 실시 예에 따르면, 이벤트는 상기 차량에 설치된 애플리케이션 및 상기 차량에 탑재된 전장품 중 적어도 하나에서 소정 영상을 요청하는 메시지가 수신되는 것이며, 상기 프로세서는, 상기 메시지에 근거하여 상기 카메라들 중 적어도 하나를 선택하고, 상기 선택된 카메라로부터 영상이 수신되도록 상기 통신부를 제어할 수 있다.According to one embodiment, an event is one in which a message requesting a predetermined image is received from at least one of an application installed in the vehicle and an electrical component mounted on the vehicle, the processor comprising: And control the communication unit to receive an image from the selected camera.
일 실시 예에 따르면, 상기 프로세서는, 상기 메시지에 근거하여 상기 카메라들을 제1그룹과 제2그룹으로 분류하고, 상기 제1그룹의 카메라는 온 되고 상기 제2그룹의 카메라는 오프 되도록 상기 통신부를 제어할 수 있다.According to one embodiment, the processor classifies the cameras into a first group and a second group based on the message, the first group of cameras being on and the second group of cameras being off, Can be controlled.
일 실시 예에 따르면, 상기 프로세서는, 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한 경우, 상기 제2 가공 영상의 생성을 제한할 수 있다.According to an embodiment, the processor may restrict the generation of the second processed image when the image requested by the second event is the same as the first processed image.
일 실시 예에 따르면, 상기 프로세서는, 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한지를 기준 조건에 따라 판단하고, 판단 결과에 따라 상기 제2 가공 영상의 생성을 결정할 수 있다.According to one embodiment, the processor can determine whether the image requested by the second event is identical to the first processed image according to a reference condition, and determine the generation of the second processed image according to the determination result.
일 실시 예에 따르면, 상기 기준 조건은 전송률, 해상도, 전송되어야 하는 주소, 프레임 레이트 및 이미지 스케일링 중 적어도 하나에 의하여 정의될 수 있다.According to one embodiment, the reference condition may be defined by at least one of a data rate, a resolution, an address to be transmitted, a frame rate, and image scaling.
일 실시 예에 따르면, 상기 프로세서는, 상기 제2 이벤트가 요구하는 영상의 이름과 상기 제1 가공 영상의 이름이 동일한 경우, 상기 제2 이벤트가 요구하는 영상과 상기 제1 가공 영상이 동일하다고 판단할 수 있다.According to an embodiment, when the name of the image requested by the second event is identical to the name of the first processed image, the processor determines that the image requested by the second event is identical to the first processed image can do.
일 실시 예에 따르면, 상기 프로세서는, 상기 원본 영상의 크기, 프레임 레이트 및 해상도 중 적어도 하나를 변경하기 그리고 상기 원본 영상의 전체 영역 중 일부분을 잘라내기 중 적어도 하나를 이용하여 가공 영상을 생성할 수 있다.According to one embodiment, the processor may generate a processed image using at least one of changing at least one of a size, a frame rate, and a resolution of the original image, and cutting out a part of the entire region of the original image have.
일 실시 예에 따르면, 상기 프로세서는, 가공 영상을 무선으로 외부 장치에 전송하는 제1 영상 가공부; 및 가공 영상을 상기 차량에 탑재된 메모리에 저장하는 제2 영상 가공부를 포함하며, 이벤트에 따라 가공 영상의 생성을 상기 제1 영상 가공부 또는 상기 제2 영상 가공부에 할당할 수 있다.According to one embodiment, the processor includes: a first image processing unit for wirelessly transmitting a processed image to an external device; And a second image processing unit for storing the processed image in a memory mounted on the vehicle, and the generation of the processed image according to the event can be allocated to the first image processing unit or the second image processing unit.
또한, 상기 카메라 제어 장치의 제어 방법은, 어느 카메라로부터 원본 영상을 수신하는 단계; 제1 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제1 이벤트에서 요구하는 제1 가공 영상을 생성하는 단계; 및 상기 제1 가공 영상을 생성하는 중에 제2 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제2 이벤트에서 요구하는 제2 가공 영상을 생성하는 단계를 포함한다.The control method of the camera control device may further include: receiving an original image from a camera; Generating a first processed image required in the first event using the original image when a first event occurs; And generating a second processed image requested by the second event using the original image when a second event occurs during the generation of the first processed image.
일 실시 예에 따르면, 상기 원본 영상을 이용하여 자연수 n개의 가공 영상들이 동시에 생성되며, 기 설정된 조건에 따라 상기 n을 조절하는 단계를 더 포함할 수 있다.According to an exemplary embodiment of the present invention, the method may further include adjusting n according to a predetermined condition, wherein n processed images are simultaneously generated using the original image.
일 실시 예에 따르면, 이벤트 발생에 응답하여 이벤트 리스트를 업데이트 하는 단계를 더 포함하며, 상기 이벤트 리스트에 등록된 순서에 따라 상기 n개의 가공 영상들이 동시에 생성될 수 있다.According to one embodiment, the method further includes updating the event list in response to the event occurrence, and the n processed images may be simultaneously generated according to the order registered in the event list.
일 실시 예에 따르면, 이벤트는 상기 차량에 설치된 애플리케이션 및 상기 차량에 탑재된 전장품 중 적어도 하나에서 소정 영상을 요청하는 메시지가 수신되는 것이며, 상기 메시지에 근거하여 상기 카메라들 중 적어도 하나를 선택하는 단계; 및 상기 선택된 카메라로부터 영상이 수신되도록 통신부를 제어하는 단계를 더 포함할 수 있다.According to one embodiment, the event is that a message requesting a predetermined image is received from at least one of an application installed in the vehicle and an electric component mounted on the vehicle, and selecting at least one of the cameras based on the message ; And controlling the communication unit to receive an image from the selected camera.
일 실시 예에 따르면, 상기 메시지에 근거하여 상기 카메라들을 제1그룹과 제2그룹으로 분류하는 단계; 및 상기 제1그룹의 카메라는 온 되고 상기 제2그룹의 카메라는 오프 되도록 상기 통신부를 제어하는 단계를 더 포함할 수 있다.According to one embodiment, classifying the cameras into a first group and a second group based on the message; And controlling the communication unit such that the camera of the first group is turned on and the camera of the second group is turned off.
일 실시 예에 따르면, 상기 제2 가공 영상을 생성하는 단계는, 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한지를 기준 조건에 따라 판단하는 단계; 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한 경우, 상기 제2 가공 영상의 생성을 제한하는 단계; 및 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일하지 않은 경우, 상기 제2 가공 영상을 생성하는 단계를 포함할 수 있다.According to an embodiment, the step of generating the second processed image may include determining whether an image requested by the second event is identical to the first processed image according to a reference condition; Restricting the generation of the second processed image if an image requested by the second event is identical to the first processed image; And generating the second processed image if the image requested by the second event is not identical to the first processed image.
나아가, 본 발명은 상술한 카메라 제어 장치를 포함하는 차량으로까지 확장될 수 있다. Furthermore, the present invention can be extended to a vehicle including the camera control device described above.
본 발명은 차량에 탑재된 복수의 카메라들을 제어하는 카메라 제어 장치 및 그것의 제어 방법의 효과에 대해 설명하면 다음과 같다.The camera control apparatus for controlling a plurality of cameras mounted on a vehicle and the effect of the control method thereof will be described as follows.
카메라는 하나의 원본 영상을 생성하지만, 상기 프로세서는 상기 원본 영상을 이용하여 서로 다른 가공 영상을 동시에 생성한다. 예를 들어, 제1 이벤트에 대응하는 제1 가공 영상과 제2 이벤트에 대응하는 제2 가공 영상이 상기 원본 영상으로부터 동시에 생성될 수 있다. 이로써, 상기 카메라 제어 장치는 하나의 카메라를 이용하여 서로 다른 기능을 동시에 지원할 수 있다. The camera generates one original image, but the processor simultaneously generates different processed images using the original image. For example, a first processed image corresponding to the first event and a second processed image corresponding to the second event may be simultaneously generated from the original image. Thus, the camera control device can support different functions simultaneously using one camera.
도 1은 본 발명에 따른 카메라 제어 장치의 일 예를 설명하기 위한 블록도1 is a block diagram for explaining an example of a camera control apparatus according to the present invention;
도 2는 도 1의 카메라 제어 장치의 제어 방법을 설명하기 위한 흐름도2 is a flowchart for explaining a control method of the camera control apparatus of FIG.
도 3은 n개의 가공 영상들을 동시에 생성하는 방법을 설명하기 위한 흐름도3 is a flowchart for explaining a method for simultaneously generating n processed images
도 4a, 도 4b 및 도 4c는 카메라 제어 장치의 동작을 설명하기 위한 개념도들4A, 4B and 4C are conceptual diagrams for explaining the operation of the camera control device
도 5는 카메라를 선택하는 방법을 설명하기 위한 흐름도5 is a flowchart for explaining a method of selecting a camera
도 6은 가공 영상을 동시에 생성할지를 결정하는 방법을 설명하기 위한 흐름도6 is a flowchart for explaining a method for determining whether to simultaneously generate processed images
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.The vehicle described herein may be a concept including a car, a motorcycle. Hereinafter, the vehicle will be described mainly with respect to the vehicle.
도 1은 본 발명에 따른 카메라 제어 장치의 일 예를 설명하기 위한 블록도이다.FIG. 1 is a block diagram for explaining an example of a camera control apparatus according to the present invention.
상기 카메라 제어 장치는 차량을 제어하는 장치를 의미한다. The camera control device means a device for controlling the vehicle.
예를 들어, 상기 카메라 제어 장치는 차량에 탑재되어 CAN 통신을 통해 통신을 수행하며 차량 및/또는 차량에 탑재된 전장품을 제어하기 위한 메시지를 생성하는 장치일 수 있다. For example, the camera control device may be a device mounted on a vehicle, performing communication via CAN communication, and generating a message for controlling the vehicle and / or the electrical equipments mounted on the vehicle.
다른 예를 들어, 상기 카메라 제어 장치는 서버나 통신 장치처럼 상기 차량 밖에 위치하며 이동 통신 네트워크를 통해 상기 차량과 통신을 수행할 수 있다. 이경우, 상기 카메라 제어 장치는 이동 통신 네트워크를 이용하여 원격으로 차량 및/또는 차량에 탑재된 전장품을 제어할 수 있다.As another example, the camera control device may be located outside the vehicle, such as a server or a communication device, and may communicate with the vehicle via a mobile communication network. In this case, the camera control device can remotely control an electric component mounted on a vehicle and / or a vehicle using a mobile communication network.
상기 카메라 제어 장치(100)는 차량에 구비되는 것으로, 차량에 탈부착이 가능한 독립된 장치로 이루어지거나, 차량에 일체형으로 설치되어 차량의 일부 구성 요소일 수 있다. The camera control device 100 is provided in the vehicle, and may be an independent device that can be attached to or detached from the vehicle, or may be a part of the vehicle installed integrally with the vehicle.
도 1을 참조하면, 상기 카메라 제어 장치(100)는 통신부(110), 그리고 프로세서(130)를 포함한다. Referring to FIG. 1, the camera control apparatus 100 includes a communication unit 110 and a processor 130.
통신부(110)는, 차량에 구비된 다양한 구성요소들과 통신을 수행하도록 이루어진다. 일 예로, 통신부(110)는 CAN(controller are network)을 통해 제공되는 각종 정보를 수신할 수 있다. 다른 일 예로, 통신부(110)는, 차량, 이동 단말기와 서버, 다른 차량과 같이 통신 가능한 모든 기기와 통신을 수행할 수 있다. 이는, V2X(Vehicle to everything) 통신으로 명명될 수 있다. V2X 통신은 운전 중 도로 인프라 및 다른 차량과 통신하면서 교통상황 등의 정보를 교환하거나 공유하는 기술로 정의될 수 있다.The communication unit 110 is configured to perform communication with various components provided in the vehicle. For example, the communication unit 110 may receive various information provided through the CAN (controller are network). In another example, the communication unit 110 can perform communication with all devices capable of communicating with each other, such as a vehicle, a mobile terminal and a server, and another vehicle. This can be named Vehicle to everything (V2X) communication. V2X communication can be defined as technology that exchanges information such as traffic situation while communicating with road infrastructure and other vehicles while driving.
통신부(110)는 차량에 구비된 대부분의 전장품들로부터 차량의 주행과 관련된 정보를 수신할 수 있다. 상기 차량에 구비된 전장품으로부터 상기 카메라 제어 장치(100)로 전송되는 정보를 ‘차량 주행 정보’로 호칭한다. The communication unit 110 can receive information related to the running of the vehicle from most of the electric equipments provided in the vehicle. The information transmitted from the electrical equipments provided in the vehicle to the camera controller 100 is referred to as 'vehicle driving information'.
차량 주행 정보는 차량 정보 및 차량의 주변 정보를 포함한다. 차량의 프레임을 기준으로 차량 내부와 관련된 정보를 차량 정보, 차량 외부와 관련된 정보를 주변 정보로 정의할 수 있다. The vehicle running information includes vehicle information and peripheral information of the vehicle. Information relating to the inside of the vehicle based on the frame of the vehicle can be defined as vehicle information, and information related to the outside of the vehicle can be defined as the surrounding information.
차량 정보는 차량 자체에 관한 정보를 의미한다. 예를 들어, 차량 정보는 차량의 주행속도, 주행방향, 가속도, 각속도, 위치(GPS), 무게, 차량의 탑승인원, 차량의 제동력, 차량의 최대 제동력, 각 바퀴의 공기압, 차량에 가해지는 원심력, 차량의 주행모드(자율주행모드인지 수동주행인지 여부), 차량의 주차모드(자율주차모드, 자동주차모드, 수동주차모드), 차량 내에 사용자가 탑승해있는지 여부 및 상기 사용자와 관련된 정보 등을 포함할 수 있다.The vehicle information means information about the vehicle itself. For example, the vehicle information may include vehicle speed, running direction, acceleration, angular speed, position (GPS), weight, vehicle occupant, braking force of the vehicle, maximum braking force of the vehicle, air pressure of each wheel, , Whether or not the vehicle is in a traveling mode (whether it is an autonomous driving mode or a manual driving mode), a parking mode of the vehicle (autonomous parking mode, automatic parking mode, manual parking mode) .
주변 정보는 차량을 중심으로 소정 범위 내에 위치하는 다른 물체에 관한 정보 및 차량 외부와 관련된 정보를 의미한다. 예를 들어, 차량이 주행중인 노면의 상태(마찰력), 날씨, 전방(또는 후방) 차량과의 거리, 전방(또는 후방) 차량의 상대속도, 주행중인 차선이 커브인 경우 커브의 굴곡률, 차량 주변밝기, 차량을 기준으로 기준영역(일정영역) 내에 존재하는 객체와 관련된 정보, 상기 일정영역으로 객체가 진입/이탈하는지 여부, 차량 주변에 사용자가 존재하는지 여부 및 상기 사용자와 관련된 정보(예를 들어, 상기 사용자가 인증된 사용자인지 여부) 등일 수 있다.The peripheral information means information relating to another object located within a predetermined range around the vehicle and information related to the outside of the vehicle. For example, the state of the road surface on which the vehicle is running (frictional force), the weather, the distance from the front (or rear) vehicle, the relative speed of the front (or rear) vehicle, Information related to an object existing in a reference area (a predetermined area) on the basis of the vehicle, whether the object enters / leaves the predetermined area, whether a user exists around the vehicle, and information related to the user Whether the user is an authorized user, etc.).
또한, 상기 주변 정보는, 주변밝기, 온도, 태양위치, 주변에 위치하는 객체 정보(사람, 타차량, 표지판 등), 주행중인 노면의 종류, 지형지물, 차선(Line) 정보, 주행 차로(Lane) 정보, 자율주행/자율주차/자동주차/수동주차 모드에 필요한 정보를 포함할 수 있다.In addition, the peripheral information includes at least one of object information (a person, a vehicle, a signboard, etc.) located in the vicinity of the surrounding brightness, temperature, sun position, a kind of road surface during running, a feature, a lane information, ) Information, and information necessary for autonomous driving / autonomous parking / automatic parking / manual parking modes.
또한, 주변 정보는, 차량 주변에 존재하는 객체(오브젝트)와 차량까지의 거리, 충돌 가능성, 상기 객체의 종류, 차량이 주차 가능한 주차공간, 주차공간을 식별하기 위한 객체(예를 들어, 주차선, 노끈, 타차량, 벽 등) 등을 더 포함할 수 있다.In addition, the peripheral information includes an object (object) for identifying the distance to the vehicle and the vehicle existing in the vicinity of the vehicle, the possibility of collision, the type of the object, the parking space in which the vehicle can park, , Rope, other vehicle, wall, etc.), and the like.
상기 차량 주행 정보는 이상에서 설명한 예에 한정되지 않으며, 상기 차량에 구비된 구성요소로부터 생성된 모든 정보를 포함할 수 있다. The vehicle running information is not limited to the example described above, and may include all information generated from the components provided in the vehicle.
한편, 상기 프로세서(130)는 상기 통신부(110)를 이용하여 상기 차량에 구비된 하나 또는 그 이상의 전장품들을 제어하도록 이루어진다. Meanwhile, the processor 130 is configured to control one or more electric components provided in the vehicle using the communication unit 110.
구체적으로, 상기 프로세서(130)는 상기 통신부(110)를 통해 수신되는 차량 주행 정보에 근거하여, 기 설정되어 있는 복수의 조건들 중에서 적어도 하나의 조건이 만족되는지를 판단할 수 있다. 만족되는 조건에 따라, 상기 프로세서(130)는 상기 하나 또는 그 이상의 전장품들을 서로 다른 방식으로 제어할 수 있다. Specifically, the processor 130 may determine whether at least one of a plurality of pre-set conditions is satisfied, based on the vehicle travel information received through the communication unit 110. [ Depending on the conditions being satisfied, the processor 130 may control the one or more electrical components in different ways.
기 설정된 조건과 관련하여, 상기 프로세서(130)는 차량에 구비된 전장품 및/또는 애플리케이션에서 이벤트가 발생한 것을 감지하고, 감지된 이벤트가 기 설정된 조건을 만족하는지를 판단할 수 있다. 이때, 상기 프로세서(130)는 통신부(110)를 통해 수신된 정보로부터 이벤트가 발생한 것을 감지할 수도 있다.Regarding the predetermined condition, the processor 130 may detect occurrence of an event in the electrical product and / or application provided in the vehicle, and may determine whether the sensed event meets a predetermined condition. At this time, the processor 130 may detect occurrence of an event from the information received through the communication unit 110. [
상기 애플리케이션은 위젯(widget)이나 홈 런처 등을 포함한 개념으로서, 차량에서 구동 가능한 모든 형태의 프로그램을 의미한다. 따라서, 상기 애플리케이션은 웹 브라우저, 동영상 재생, 메세지 송수신, 일정 관리, 애플리케이션의 업데이트의 기능을 수행하는 프로그램이 될 수 있다.The application is a concept including a widget, a home launcher, etc., and means any type of program that can be driven in a vehicle. Accordingly, the application may be a program that performs a function of a web browser, a moving image playback, a message transmission / reception, a schedule management, and an application update.
나아가, 상기 애플리케이션은 전방 추돌 방지(Forward Collision Warning, FCW), 사각 지대 감지(Blind Spot Detection, BSD), 차선 이탈 경고(Lane Departure Warning, LDW), 보행자 감지(Pedestrian Detection, PD), 커브 속도 경고(Curve Speed Warning, CSW) 및 턴 바이 턴 길안내(turn by turn navigation, TBT) 중 적어도 하나를 포함할 수 있다. Further, the application may include a forward collision warning (FCW), a blind spot detection (BSD), a lane departure warning (LDW), a pedestrian detection (PD) A Curve Speed Warning (CSW), and a turn-by-turn navigation (TBT).
예를 들어, 이벤트 발생은, 부재중 전화가 있는 경우, 업데이트 대상인 애플리케이션이 있는 경우, 메세지가 도착한 경우, 시동 온(start on), 시동 오프(start off), 자율 주행 온/오프, 디스플레이 활성화 키 눌림(LCD awake key), 알람(alarm), 호 연결(Incoming call), 부재중 알림(missed notification) 등이 될 수 있다.For example, an event can be triggered when there is a missed call, when there is an application to be updated, when a message arrives, when the message is received, such as start on, start off, autonomous travel on / off, An LCD awake key, an alarm, an incoming call, a missed notification, and the like.
다른 예로서, 이벤트 발생은 ADAS(advanced driver assistance system)에서 설정한 경고 발생, ADAS에서 설정한 기능이 수행되는 경우일 수 있다. 예를 들어, 전방 충돌 경고(forward collision warning)가 발생하는 경우, 후측방 경고(blind spot detection)가 발생하는 경우, 차선 이탈 경보(lane departure warning)가 발생하는 경우, 주행 조향 보조 경보(lane keeping assist warning)가 발생하는 경우, 긴급 제동 기능(autonomous emergency braking)이 수행되는 경우에 이벤트가 발생한 것으로 볼 수 있다. As another example, the occurrence of an event may be a case where an alert set by the advanced driver assistance system (ADAS), a function set in ADAS is performed. For example, if a forward collision warning occurs, a blind spot detection occurs, a lane departure warning occurs, a lane keeping alarm (lane keeping) If an assist warning occurs, an event occurs when an autonomous emergency braking function is performed.
또 다른 예로서, 전진 기어에서 후진 기어로 변경되는 경우, 소정 값보다 큰 가속이 발생되는 경우, 소정 값보다 큰 감속이 발생되는 경우, 동력장치가 내연기관에서 모터로 변경되는 경우, 또는 모터에서 내연기관으로 변경되는 경우에도 이벤트가 발생한 것으로 볼 수 있다. As another example, when changing from a forward gear to a reverse gear, when an acceleration greater than a predetermined value is generated, when a deceleration greater than a predetermined value is generated, when the power unit is changed from an internal combustion engine to a motor, Even if it is changed to the internal combustion engine, it can be seen that the event has occurred.
또 다른 예로서, 상기 이벤트는 상기 차량에 설치된 애플리케이션 및 상기 차량에 탑재된 전장품 중 적어도 하나에서 소정 영상을 요청하는 메시지가 상기 카메라 제어 장치(100)에 수신되는 것일 수 있다. As another example, the event may be that the camera control device 100 receives a message requesting a predetermined image from at least one of an application installed in the vehicle and an electrical component mounted on the vehicle.
이 밖에도, 차량에 구비된 다양한 ECU가 특정 기능을 수행하는 경우에도 이벤트가 발생한 것으로 볼 수 있다. In addition, even when various ECUs provided in a vehicle perform specific functions, it can be seen that an event has occurred.
일 예로, 발생한 이벤트가 기 설정된 조건에 만족되는 경우, 상기 프로세서(130)는 만족되는 조건에 대응하는 정보가 상기 차량에 구비된 하나 또는 그 이상의 디스플레이들에 표시되도록 상기 통신부(110)를 제어할 수 있다. For example, when the generated event satisfies the predetermined condition, the processor 130 controls the communication unit 110 to display information corresponding to the satisfied condition on one or more displays provided in the vehicle .
상기 통신부(110)는 상기 차량에 탑재된 복수의 카메라들과 유선 및/또는 무선으로 연결되어 상기 카메라들과 통신을 수행할 수 있다. The communication unit 110 may be connected to a plurality of cameras mounted on the vehicle through wired and / or wireless communication with the cameras.
상기 프로세서(130)는 상기 통신부(110)를 통하여 상기 복수의 카메라들을 제어할 수 있다. 예를 들어, 상기 프로세서(130)는 상기 복수의 카메라들을 제어하기 위한 제어신호를 생성할 수 있다.The processor 130 may control the plurality of cameras through the communication unit 110. [ For example, the processor 130 may generate a control signal for controlling the plurality of cameras.
상기 프로세서(130)는 상기 복수의 카메라들로부터 원본 영상을 수신하고, 상기 원본 영상으로부터 이벤트에서 요구하는 가공 영상을 생성할 수 있다. 생성된 가공 영상은 상기 통신부(110)를 통해 상기 이벤트에서 요구하는 곳으로 전송될 수 있다. 예를 들어, 상기 차량에 구비된 메모리에 저장되거나, 상기 차량에 구비된 전장품으로 전송되거나, 서버나 클라우드로 전송될 수 있다. The processor 130 may receive an original image from the plurality of cameras, and may generate a processed image requested from the event from the original image. The generated processed image can be transmitted through the communication unit 110 to a place requested by the event. For example, it can be stored in a memory provided in the vehicle, transmitted to an electric component provided in the vehicle, or transmitted to a server or a cloud.
본 발명에 따른 카메라 제어 장치(100)는 차량에 탑재된 복수의 카메라들을 이용하여 다양한 용도로 사용될 수 있는 복수 개의 영상들을 동시에 생성할 수 있다. 예를 들어, 디스플레이에서 차량 후방 영상을 요청하고, 차량을 원격으로 제어하는 서버에서 차량 후방 영상을 요청할 수 있다. 이때, 디스플레이와 서버가 요구하는 영상의 특성이 상이하므로, 상기 카메라 제어 장치(100)는 차량 후방을 촬영하는 차량 후방 카메라로부터 원본 영상을 수신하고, 디스플레이용 제1 차량 후방 영상과 서버용 제2 차량 후방 영상을 동시에 생성해 디스플레이와 서버로 각각 전송할 수 있다. The camera control apparatus 100 according to the present invention can simultaneously generate a plurality of images that can be used for various purposes by using a plurality of cameras mounted on the vehicle. For example, a vehicle rearview image may be requested from a display, and a server remotely controlling the vehicle may request a rearview image of the vehicle. Since the characteristics of the image required by the display and the server are different from each other, the camera control device 100 receives the original image from the rear camera of the vehicle photographing the rear of the vehicle, Backward images can be simultaneously generated and transmitted to the display and the server, respectively.
이하, 첨부된 도면을 참조하여 상기 카메라 제어 장치(100)의 동작에 대하여 보다 구체적으로 설명한다. Hereinafter, the operation of the camera control device 100 will be described in more detail with reference to the accompanying drawings.
도 2는 도 1의 카메라 제어 장치의 제어 방법을 설명하기 위한 흐름도이다.2 is a flowchart for explaining a control method of the camera control apparatus of FIG.
상기 프로세서(130)는 어느 카메라로부터 원본 영상을 수신한다(S210). 상기 프로세서(130)는 복수의 카메라들로부터 복수 개의 원본 영상들을 동시에 수신할 수도 있으나, 설명의 편의를 위하여 어느 하나의 카메라로부터 원본 영상을 수신하는 경우를 예로 들어 설명한다. The processor 130 receives the original image from any camera (S210). The processor 130 may receive a plurality of original images from a plurality of cameras at the same time. However, for convenience of explanation, the processor 130 receives an original image from one of the cameras.
다음으로, 상기 프로세서(130)는 제1 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 제1 가공 영상을 생성한다(S230).Next, when the first event occurs, the processor 130 generates the first processed image using the original image (S230).
여기서, 이벤트는 상기 차량에 설치된 애플리케이션, 상기 차량에 탑재된 전장품 및 시스템 중 적어도 하나에서 소정 영상을 요청하는 메시지가 수신되는 것일 수 있다. Here, the event may be that a message requesting a predetermined image is received from at least one of an application installed in the vehicle, an electrical component mounted on the vehicle, and a system.
예를 들어, 어라운드 뷰 모니터(AVM)가 실행되는 경우, 좌측방 영상, 우측방 영상, 전방 영상 그리고 후방 영상을 요청하는 메시지가 수신될 수 있다. 주차 보조 시스템이 실행되는 경우, 후방 영상을 요청하는 메시지가 수신될 수 있다. 다른 예를 들어, 응급 상황 발생시 서비스 센터로부터 차량 내부를 촬영한 차량 내부 영상을 요청하는 메시지가 수신될 수도 있다. For example, when an Around View Monitor (AVM) is executed, a message requesting a left side image, a right side image, a forward image, and a rear image may be received. When the parking assist system is running, a message requesting a backward image may be received. For another example, a message may be received requesting an in-vehicle image of a vehicle taken from the service center in the event of an emergency.
상기 이벤트는 탑승객의 승차나 하차가 발생하는 기 설정된 케이스일 수도 있다. 예를 들어, 상기 차량에 구비된 도어들 중 적어도 하나가 열리는 경우, 상기 적어도 하나에 대응하는 좌석을 촬영한 좌석 영상을 요청하는 메시지가 수신될 수 있다. 촬영된 좌석 영상은 탑승객이 탑승하기 전과 후가 비교되어 탑승객이 차량에 두고 간 물건을 탐색하는데 이용될 수 있다. The event may be a predetermined case in which a passenger rides or gets off. For example, when at least one of the doors provided in the vehicle is opened, a message requesting a seat image of a seat corresponding to the at least one seat may be received. The photographed seat image can be used before and after the passenger is compared to search for the thing left by the passenger in the vehicle.
상기 프로세서(130)는 상기 제1 이벤트에 근거하여 상기 차량에 탑재된 복수의 카메라들 중 적어도 하나를 선택하고, 선택된 카메라로부터 수신된 하나 또는 그 이상의 원본 영상을 이용하여 하나의 가공 영상을 생성할 수 있다. 다시 말해, 상기 제1 이벤트에 의하여 제1 가공 영상이 생성된다.The processor 130 selects at least one of a plurality of cameras mounted on the vehicle based on the first event and generates one processed image using one or more original images received from the selected camera . In other words, the first processed image is generated by the first event.
상기 제1 이벤트에는 상기 제1 가공 영상을 처리하는 방법 및/또는 방식이 기 설정되어 있으며, 상기 프로세서(130)는 상기 제1 이벤트에 설정되어 있는 방법 및/또는 방식으로 상기 제1 가공 영상을 처리한다. The method and / or method of processing the first processed image is preset in the first event, and the processor (130) sets the first processed image in a manner and / or manner set in the first event .
상기 프로세서(130)는 하나의 원본 영상을 가공하여 하나의 가공 영상을 생성할 수 있다. 예를 들어, 상기 원본 영상의 크기, 전송률, 배율, 프레임 레이트 및 해상도 중 적어도 하나를 변경하기 그리고 상기 원본 영상의 전체 영역 중 일부분을 잘라내기 중 적어도 하나를 이용하여 가공 영상을 생성할 수 있다. The processor 130 may generate one processed image by processing one original image. For example, a processed image may be generated using at least one of changing at least one of the size, the transmission rate, the magnification, the frame rate, and the resolution of the original image, and cutting out a part of the entire area of the original image.
나아가, 상기 프로세서(130)는 복수의 원본 영상들을 하나의 가공 영상으로 합성하거나, 복수의 원본 영상들을 이용하여 복수의 가공 영상들을 생성할 수도 있다. Further, the processor 130 may synthesize a plurality of original images into one processed image, or may generate a plurality of processed images using a plurality of original images.
가공 영상은 원본 영상을 가공하여 만들어지는 새로운 영상을 의미하나, 아무런 가공을 하지 않고 원본 영상을 가공 영상으로 처리하는 것도 가능하다. 다시 말해, 상기 프로세서(130)는 원본 영상을 요구하는 이벤트가 발생하는 경우, 가공되지 않은 원본 영상 그대로를 메모리에 저장하거나, 상기 통신부(110)를 통해 전송할 수 있다. The processed image is a new image created by processing the original image, but it is also possible to process the original image as a processed image without any processing. In other words, when an event requesting an original image occurs, the processor 130 may store the raw image as it is in the memory or transmit it through the communication unit 110.
상기 프로세서(130)는 카메라로부터 수신되는 원본 영상을 이용하여 스틸 이미지를 캡쳐하거나, 이벤트가 요구하는 형식의 무빙 이미지를 생성함으로써 가공 영상을 생성할 수 있다. The processor 130 may generate a processed image by capturing a still image using an original image received from a camera or generating a moving image in a format required by an event.
상기 프로세서(130)는 생성된 가공 영상을 이벤트에서 요구하는 방식에 따라 상기 차량에 구비된 메모리에 저장하거나, 소정 주소를 가진 외부 장치로 전송하거나, 차량 내의 전장품으로 전송할 수 있다. The processor 130 may store the generated processed image in a memory provided in the vehicle, transmit it to an external device having a predetermined address, or transmit it to an electrical device in the vehicle according to a method requested by the event.
다음으로, 상기 프로세서(130)는 상기 제1 가공 영상을 생성하는 중에 제2 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 제2 가공 영상을 생성한다(S250).Next, when the second event occurs during the generation of the first processed image, the processor 130 generates the second processed image using the original image (S250).
카메라는 하나의 원본 영상을 생성하지만, 상기 프로세서(130)는 상기 원본 영상을 이용하여 서로 다른 가공 영상을 동시에 생성한다. 예를 들어, 제1 이벤트에 대응하는 제1 가공 영상과 제2 이벤트에 대응하는 제2 가공 영상이 상기 원본 영상으로부터 동시에 생성될 수 있다. Although the camera generates one original image, the processor 130 simultaneously generates different processed images using the original image. For example, a first processed image corresponding to the first event and a second processed image corresponding to the second event may be simultaneously generated from the original image.
상기 카메라 제어 장치(100)는 하나의 카메라를 이용하여 서로 다른 기능을 동시에 지원할 수 있다. The camera control device 100 can support different functions simultaneously using one camera.
본 발명에 따른 카메라 제어 장치(100)는 동시에 생성하는 가공 영상의 개수를 조절할 수 있다. 개수를 조절하는 방법을 도 3을 참조하여 구체적으로 설명한다. The camera control apparatus 100 according to the present invention can adjust the number of simultaneously processed images to be generated simultaneously. The method of adjusting the number will be described in detail with reference to FIG.
도 3은 n개의 가공 영상들을 동시에 생성하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of simultaneously generating n processed images.
상기 프로세서(130)는 이벤트 발생에 응답하여 이벤트 리스트를 업데이트 할 수 있다(S310).The processor 130 may update the event list in response to the event occurrence (S310).
새로운 이벤트 발생시 이벤트 리스트에 새로운 이벤트가 추가되고, 기존 이벤트에 대응하는 가공 영상의 생성이 종료되는 경우 기존 이벤트는 이벤트 리스트에서 삭제된다. 이벤트 리스트는 이벤트가 발생된 순서대로 추가되고, 이벤트에 대응한 가공 영상의 생성이 종료되는 순서대로 삭제된다. When a new event occurs, a new event is added to the event list, and when the generation of the processed image corresponding to the existing event is ended, the existing event is deleted from the event list. The event list is added in the order in which the events are generated and deleted in the order in which the generation of the processed image corresponding to the event is terminated.
예를 들어, 제1 이벤트가 발생한 후 제2 이벤트가 발생되면, 이벤트 리스트에는 제1 이벤트가 먼저 추가되고 제2 이벤트가 상기 제1 이벤트의 다음 순서로 추가된다. 이후 제3 이벤트가 발생되면, 제2 이벤트의 다음 순서로 상기 제3 이벤트가 추가된다. For example, if a second event occurs after a first event occurs, the first event is added first in the event list and the second event is added in the next order of the first event. Thereafter, when the third event is generated, the third event is added in the next order of the second event.
다음으로, 기 설정된 조건에 따라 자연수 n을 결정한다(S330).Next, a natural number n is determined according to predetermined conditions (S330).
상기 프로세서(130)는 동시에 생성할 가공 영상의 개수로 n을 결정한다. 상기 n은 자연수이다. 상기 n은 기 설정된 조건에 따라 가변될 수 있다. The processor 130 determines n as the number of processed images to be simultaneously generated. N is a natural number. The n may vary according to predetermined conditions.
일 예로, 상기 프로세서(130)는 생성 중인 가공 영상들의 데이터량에 근거하여 상기 n을 조절할 수 있다. 구체적으로, 상기 프로세서(130)는 단위 시간당 생성되는 가공 영상들의 데이터량을 측정하고, 측정된 데이터량에 근거하여 상기 n을 결정할 수 있다. 단위시간당 데이터량이 커질수록, 상기 n은 작아질 수 있다. For example, the processor 130 may adjust the n based on the amount of data of the processed images being generated. Specifically, the processor 130 may measure the data amount of the processed images generated per unit time, and may determine the n based on the measured data amount. The larger the amount of data per unit time, the smaller n can be.
다른 일 예로, 상기 프로세서(130)는 상기 프로세서(130)의 사용량에 근거하여 상기 n을 조절할 수 있다. 상기 프로세서(130)의 사용량이 커질수록 상기 n을 작아질 수 있다. In another example, the processor 130 may adjust the n based on the amount of use of the processor 130. As the amount of use of the processor 130 increases, the value of n may be decreased.
상기 n을 단위시간당 데이터량 또는 상기 프로세서(130)의 사용량에 따라 조절하는 이유는 상기 프로세서(130)의 부하 및/또는 상기 통신부(110)의 부하를 조절하기 위함이다.The reason why n is adjusted according to the amount of data per unit time or the amount of use of the processor 130 is to control the load of the processor 130 and / or the load of the communication unit 110.
또 다른 일 예로, 상기 프로세서(130)는 가공 영상을 저장하도록 설정된 메모리의 저장 가능 공간에 근거하여 상기 n을 조절할 수 있다. 상기 프로세서(130)는 메모리의 저장 가능 공간을 모니터링 하고, 상기 저장 가능 공간에 따라 상기 n을 변경할 수 있다. 상기 프로세서(130)는 상기 n을 조절하면서, 상기 메모리의 저장 가능 공간이 확보되는 것을 대기할 수 있다. 이는, 메모리에 저장되어 있는 데이터가 새로운 데이터에 의해 삭제되는 것을 방지하기 위함이다.In another example, the processor 130 may adjust the n based on the storable space of the memory set to store the processed image. The processor 130 may monitor the storable space of the memory and change the n according to the storable space. The processor 130 may wait for securing the storage space of the memory while adjusting the value of n. This is to prevent the data stored in the memory from being deleted by the new data.
다음으로, 상기 이벤트 리스트에 등록된 순서에 따라 n개의 가공 영상들을 동시에 생성한다(S350).Next, n processed images are simultaneously generated according to the order registered in the event list (S350).
예를 들어, 3개의 이벤트가 상기 이벤트 리스트에 등록된 상태에서 상기 n이 3으로 결정되면, 3개의 가공 영상들이 생성된다. For example, if three events are registered in the event list and the value of n is 3, three processed images are generated.
이후, 상기 n이 2로 변경되면, 리스트에 등록된 첫 번째 이벤트와 두 번째 이벤트에 대응하는 두 개의 가공 영상들은 생성되지만, 세 번째 이벤트에 대응하는 가공 영상의 생성은 제한된다. 즉, 세 번째 이벤트에 대응하는 가공 영상은 생성되지 않고 대기 상태에 놓인다. Thereafter, when n is changed to 2, two processed images corresponding to the first event and the second event registered in the list are generated, but the generation of the processed image corresponding to the third event is restricted. That is, the processed image corresponding to the third event is not generated and is placed in the waiting state.
이후, 첫 번째 이벤트에 대응하는 가공 영상의 생성이 종료되면, 대기 상태에 놓여있던 세 번째 이벤트에 대응하는 가공 영상의 생성이 시작된다. 이로써, 두 번째 이벤트와 세 번째 이벤트에 대응하는 두 개의 가공 영상들이 생성된다. Thereafter, when the generation of the processed image corresponding to the first event is terminated, the generation of the processed image corresponding to the third event in the standby state is started. Thus, two processed images corresponding to the second event and the third event are generated.
도 4a, 도 4b 및 도 4c는 카메라 제어 장치의 동작을 설명하기 위한 개념도들이다.4A, 4B, and 4C are conceptual diagrams for explaining the operation of the camera control device.
상기 카메라 제어 장치(100)는 상기 차량에 구비된 복수의 카메라들로부터 하나 또는 그 이상의 원본 영상들을 수신한다. 상기 원본 영상을 수신하는 구성은 통신부(110)이며, ‘입력부’로 호칭될 수도 있다. The camera control apparatus 100 receives one or more original images from a plurality of cameras provided in the vehicle. The configuration for receiving the original image is the communication unit 110 and may be referred to as an 'input unit'.
상기 프로세서(130)는 분배부와 구현부로 이루어질 수 있다. The processor 130 may comprise a distributor and an implementer.
성가 분배부는 입력부를 통해 원본 영상을 입력받으며, 상기 구현부의 요청에 따라 원본 영상을 소프트웨어적으로 가공 또는 변환된 가공 영상을 생성한다. The tribute distribution unit receives an original image through an input unit, and generates a processed image or a processed image by software processing of the original image at the request of the implementation unit.
상기 구현부는 상기 분배부에 의하여 생성된 가공 영상을 이용하여 이벤트에 대응하는 기능을 실행한다. 예를 들어, 원본 영상을 캡쳐한 스틸 이미지를 메모리에 저장하거나, 원본 영상을 녹화한 무빙 이미지를 메모리에 저장하거나, 가공 영상을 인코딩하여 안테나를 통해 소정 서버로 전송할 수 있다. The implementing unit executes a function corresponding to an event using the processed image generated by the distributing unit. For example, a still image captured from an original image may be stored in a memory, a moving image recorded with an original image may be stored in a memory, or a processed image may be encoded and transmitted to a predetermined server through an antenna.
상기 구현부는 상기 이벤트 리스트를 업데이트 하고, 상기 n을 결정할 수 있다. 상기 구현부의 동작에 따라 상기 분배부는 가공 영상을 선택적으로 생성할 수 있다. The implementer may update the event list and determine the n. The distributing unit may selectively generate a processed image according to the operation of the implementing unit.
상기 구현부는 가공 영상을 무선으로 외부 장치에 전송하는 제1 영상 가공부 및 가공 영상을 상기 차량에 탑재된 메모리에 저장하는 제2 영상 가공부를 포함할 수 있다.The implementation unit may include a first image processing unit for transmitting a processed image to an external device by wireless, and a second image processing unit for storing the processed image in a memory mounted on the vehicle.
상기 제1 영상 가공부는 안테나와 연결되어 생성된 가공 영상을 무선으로 외부 장치에 전송하도록 이루어진다. 상기 제2 영상 가공부는 메모리와 연결되어 생성된 가공 영상을 메모리에 저장하도록 이루어진다. The first image processing unit is connected to the antenna and transmits the generated processed image to the external device wirelessly. The second image processing unit is connected to a memory and stores the generated processed image in a memory.
상기 프로세서(130)는 이벤트에 따라 가공 영상의 생성을 상기 제1 영상 가공부 또는 상기 제2 영상 가공부에 할당할 수 있다. The processor 130 may allocate a processed image to the first image processing unit or the second image processing unit according to an event.
도 4a에 도시된 바와 같이, 제1 내지 제3 카메라들에 대한 동영상 저장 기능(또는, 제1 이벤트)이 실행되는 경우, 상기 분배부는 상기 제1 내지 제3 카메라들로부터 수신된 3개의 원본 영상들을 상기 제1 이벤트에서 요구하는 방법 및/또는 방식에 따라 가공하고, 상기 구현부는 상기 분배부에서 생성된 3개의 가공 영상들을 메모리에 저장할 수 있다. As shown in FIG. 4A, when the moving image storing function (or the first event) is executed for the first to third cameras, the distributing unit distributes the three original images According to a method and / or a method required in the first event, and the implementing unit may store the three processed images generated in the distribution unit in a memory.
이후, 도 4b에 도시된 바와 같이, 제1 및 제3 카메라에 대한 스냅샷 저장 기능(또는, 제2 이벤트)가 실행될 수 있다. 상기 분배부는 상기 제1 이벤트에 대응하는 가공 영상들을 생성함과 동시에, 상기 제2 이벤트에 대응하는 가공 영상들을 생성할 수 있다. 이경우, 카메라는 3대이지만, 총 5개의 가공 영상들이 생성되며, 상기 구현부에 의하여 5개의 가공 영상들은 메모리에 저장된다. Thereafter, as shown in FIG. 4B, a snapshot storage function (or a second event) for the first and third cameras may be executed. The distributing unit may generate the processed images corresponding to the first event and the processed images corresponding to the second event. In this case, although there are three cameras, a total of five processed images are generated, and five processed images are stored in the memory by the implementation unit.
이후, 도 4c에 도시된 바와 같이, 제1 및 제2 카메라에 대한 전송 기능(또는, 제3 이벤트)가 실행될 수 있다. 상기 분배부는 3개의 원본 영상을 이용하여 총 7개의 가공 영상들을 생성하고, 상기 구현부는 7개의 가공 영상들을 각 이벤트에 맞추어 메모리에 저장하거나 안테나를 통하여 서버로 전송할 수 있다. Thereafter, as shown in FIG. 4C, the transmission function (or the third event) for the first and second cameras may be executed. The distributing unit generates a total of seven processed images using three original images, and the implementing unit may store the processed images according to each event in a memory or transmit the processed images to a server through an antenna.
도 5는 카메라를 선택하는 방법을 설명하기 위한 흐름도이다.5 is a flowchart for explaining a method of selecting a camera.
상기 프로세서(130)는 소정 영상을 요청하는 메시지를 수신한다(S510).The processor 130 receives a message requesting a predetermined image (S510).
상기 메시지는 상기 통신부(110)를 통해 수신되며, 도 1에서 상술한 차량 주행 정보로 수신될 수도 있다. 상기 프로세서(130)는 상기 차량 주행 정보가 기 설정된 메시지에 해당하는지를 판단하고, 기 설정된 메시지인 경우 그에 대응하는 가공 영상을 생성할 수 있다.The message is received through the communication unit 110 and may be received as the vehicle running information described above with reference to FIG. The processor 130 may determine whether the vehicle running information corresponds to a preset message, and may generate a processed image corresponding to the predetermined message.
다음으로, 상기 메시지에 근거하여 카메라들 중 적어도 하나를 선택한다(S530).Next, at least one of the cameras is selected based on the message (S530).
상기 프로세서(130)는 상기 메시지가 요구하는 상기 소정 영상을 생성하기 위하여 적어도 하나의 카메라를 선택한다. 예를 들어, 주차 보조 시스템에서 후방 영상을 요구하는 경우, 상기 차량의 후방에 설치된 후방 카메라가 선택될 수 있다. 다른 예를 들어, 어라운드 뷰 모니터(AVM)에서 차량 외부 영상을 요구하는 경우, 상기 차량의 전방, 후방, 좌측방 및 우측방에 설치된 카메라들이 선택될 수 있다. 상기 선택된 카메라는 상기 메시지에 따라 가변된다. The processor 130 selects at least one camera to generate the predetermined image requested by the message. For example, when a parking assist system requests a rear image, a rear camera installed in the rear of the vehicle can be selected. As another example, when an outside-vehicle image is requested from an ambient view monitor (AVM), cameras installed in the front, rear, left-side and right-side rooms of the vehicle can be selected. The selected camera is varied according to the message.
상기 프로세서(130)는 상기 선택된 카메라로부터 영상이 수신되도록 통신부를 제어한다(S550).The processor 130 controls the communication unit to receive an image from the selected camera (S550).
상기 프로세서(130)는, 상기 메시지에 근거하여 상기 차량에 구비된 카메라들을 제1 그룹과 제2 그룹으로 분류할 수 있다. 상기 제1 그룹에는 상기 메시지에 의하여 선택된 카메라가 포함되고, 상기 제2 그룹에는 상기 메시지에 의하여 선택되지 않은 카메라가 포함될 수 있다. The processor 130 may classify the cameras included in the vehicle into the first group and the second group based on the message. The first group may include a camera selected by the message, and the second group may include a camera that is not selected by the message.
상기 프로세서(130)는 상기 제1그룹의 카메라는 온 되고 상기 제2그룹의 카메라는 오프 되도록 상기 통신부(110)를 제어할 수 있다. 이는, 불필요하게 카메라가 온 되어 전원을 소모하는 것을 방지하기 위함이다. 카메라 제어 장치로 수신된 메시지에 따라 오프 되는 카메라가 달라질 수 있다. The processor 130 may control the communication unit 110 such that the cameras of the first group are turned on and the cameras of the second group are turned off. This is to prevent the camera from unnecessarily turning on and consuming power. The camera to be turned off may be different according to the message received by the camera control device.
도 6은 가공 영상을 동시에 생성할지를 결정하는 방법을 설명하기 위한 흐름도이다.6 is a flowchart for explaining a method for determining whether to simultaneously generate processed images.
상기 프로세서(130)는 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한지를 기준 조건에 따라 판단할 수 있다(S610).The processor 130 may determine whether an image requested by the second event is identical to the first processed image according to a reference condition (S610).
일 예로, 상기 기준 조건은 전송률, 해상도, 전송되어야 하는 주소, 프레임 레이트 및 이미지 스케일링 중 적어도 하나에 의하여 정의될 수 있다. In one example, the reference condition may be defined by at least one of a bit rate, a resolution, an address to be transmitted, a frame rate, and image scaling.
제2 이벤트가 제1 이벤트와 동일한 영상을 필요로 하는 경우, 동일한 가공 영상을 중복 생성할 필요가 없기 때문이다. 상기 프로세서(130)는 이미 생성되고 있는 제1 가공 영상을 제1 및 제2 이벤트에 이용할 수 있다. When the second event requires the same image as the first event, it is not necessary to duplicate the same processed image. The processor 130 may use the already processed first processed image for the first and second events.
다른 일 예로, 상기 프로세서(130)는 상기 제2 이벤트가 요구하는 영상의 이름과 상기 제1 가공 영상의 이름이 동일한 경우, 상기 제2 이벤트가 요구하는 영상과 상기 제1 가공 영상이 동일하다고 판단할 수도 있다. In another example, when the name of the image requested by the second event is identical to the name of the first processed image, the processor 130 determines that the image requested by the second event is identical to the first processed image You may.
상기 프로세서(130)는 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한 경우, 상기 제2 가공 영상의 생성을 제한할 수 있다(S630).If the image requested by the second event is identical to the first processed image, the processor 130 may restrict the generation of the second processed image (S630).
이경우, 상기 프로세서(130)는 상기 제1 가공 영상을 계속해서 생성하고, 상기 제2 가공 영상을 생성하지 않는다. 상기 프로세서(130)는 상기 제2 이벤트에 대하여 에러 메시지를 출력한다. In this case, the processor 130 continuously generates the first processed image and does not generate the second processed image. The processor 130 outputs an error message for the second event.
상기 프로세서(130)는 상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일하지 않은 경우, 상기 제2 가공 영상을 생성할 수 있다(S650).If the image requested by the second event is not identical to the first processed image, the processor 130 may generate the second processed image (S650).
서로 다른 이벤트가 요구하는 영상이 동일한지를 먼저 판단한 후, 동일하지 않은 경우에만 가공 영상을 생성하기 때문에, 불필요하게 동일한 영상이 중복 생성되어 자원이 낭비되는 것을 차단할 수 있다. Since the processed images are generated only when the images requested by the different events are identical, and then the processed images are generated only when they are not identical, unnecessary duplicate images are generated redundantly, and resources can be prevented from being wasted.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드(또는, 애플리케이션이나 소프트웨어)로서 구현하는 것이 가능하다. 상술한 자율 주행 차량의 제어 방법은 메모리 등에 저장된 코드에 의하여 실현될 수 있다. The above-described present invention can be implemented as a computer-readable code (or application or software) on a medium on which the program is recorded. The control method of the above-described autonomous vehicle can be realized by a code stored in a memory or the like.
컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). In addition, the computer may include a processor or a control unit. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

Claims (20)

  1. 차량에 탑재된 복수의 카메라들을 제어하는 카메라 제어 장치로서,A camera control apparatus for controlling a plurality of cameras mounted on a vehicle,
    어느 카메라로부터 원본 영상을 수신하는 통신부; 및A communication unit for receiving an original image from a certain camera; And
    제1 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제1 이벤트에서 요구하는 제1 가공 영상을 생성하는 프로세서를 포함하며,And a processor for generating a first processed image required in the first event using the original image when a first event occurs,
    상기 프로세서는,The processor comprising:
    상기 제1 가공 영상을 생성하는 중에 제2 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제2 이벤트에서 요구하는 제2 가공 영상을 생성하는 것을 특징으로 하는 카메라 제어 장치.And generates a second processed image requested by the second event using the original image if a second event occurs during the generation of the first processed image.
  2. 제1항에 있어서,The method according to claim 1,
    상기 프로세서는,The processor comprising:
    상기 원본 영상을 이용하여 자연수 n개의 가공 영상들을 동시에 생성하며, 기 설정된 조건에 따라 상기 n을 조절하는 것을 특징으로 하는 카메라 제어 장치.Wherein the control unit simultaneously generates n processed images of natural number using the original image, and adjusts the n according to a predetermined condition.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 프로세서는,The processor comprising:
    생성 중인 가공 영상들의 데이터량에 근거하여 상기 n을 조절하는 것을 특징으로 하는 카메라 제어 장치.Wherein the controller adjusts the n based on the data amount of the processed images being generated.
  4. 제2항에 있어서,3. The method of claim 2,
    상기 프로세서는,The processor comprising:
    가공 영상을 저장하도록 설정된 메모리의 저장 가능 공간에 근거하여 상기 n을 조절하는 것을 특징으로 하는 카메라 제어 장치.And adjusts the n based on a storable space of a memory set to store a processed image.
  5. 제2항에 있어서,3. The method of claim 2,
    상기 프로세서는,The processor comprising:
    상기 프로세서의 사용량에 근거하여 상기 n을 조절하는 것을 특징으로 하는 카메라 제어 장치.And adjusts the n based on an amount of use of the processor.
  6. 제2항에 있어서,3. The method of claim 2,
    상기 프로세서는,The processor comprising:
    이벤트 발생에 응답하여 이벤트 리스트를 업데이트 하고, 상기 이벤트 리스트에 등록된 순서에 따라 상기 n개의 가공 영상들을 동시에 생성하는 것을 특징으로 하는 카메라 제어 장치.Updating the event list in response to an event occurrence, and simultaneously generating the n processed images according to the order registered in the event list.
  7. 제1항에 있어서,The method according to claim 1,
    이벤트는 상기 차량에 설치된 애플리케이션 및 상기 차량에 탑재된 전장품 중 적어도 하나에서 소정 영상을 요청하는 메시지가 수신되는 것이며,The event is a message for requesting a predetermined image from at least one of an application installed in the vehicle and an electric component mounted on the vehicle,
    상기 프로세서는,The processor comprising:
    상기 메시지에 근거하여 상기 카메라들 중 적어도 하나를 선택하고, 상기 선택된 카메라로부터 영상이 수신되도록 상기 통신부를 제어하는 것을 특징으로 하는 카메라 제어 장치.Selects at least one of the cameras based on the message, and controls the communication unit to receive an image from the selected camera.
  8. 제7항에 있어서,8. The method of claim 7,
    상기 프로세서는,The processor comprising:
    상기 메시지에 근거하여 상기 카메라들을 제1그룹과 제2그룹으로 분류하고, 상기 제1그룹의 카메라는 온 되고 상기 제2그룹의 카메라는 오프 되도록 상기 통신부를 제어하는 것을 특징으로 하는 카메라 제어 장치.Wherein the control unit controls the communication unit to classify the cameras into a first group and a second group based on the message, wherein the first group of cameras is turned on and the second group of cameras is turned off.
  9. 제1항에 있어서,The method according to claim 1,
    상기 프로세서는,The processor comprising:
    상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한 경우, 상기 제2 가공 영상의 생성을 제한하는 것을 특징으로 하는 카메라 제어 장치.Wherein the generation of the second processed image is restricted when the image requested by the second event is identical to the first processed image.
  10. 제9항에 있어서,10. The method of claim 9,
    상기 프로세서는,The processor comprising:
    상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한지를 기준 조건에 따라 판단하고, 판단 결과에 따라 상기 제2 가공 영상의 생성을 결정하는 것을 특징으로 하는 카메라 제어 장치.Determines whether an image requested by the second event is the same as the first processed image according to a reference condition, and determines generation of the second processed image according to a determination result.
  11. 제10항에 있어서,11. The method of claim 10,
    상기 기준 조건은 전송률, 해상도, 전송되어야 하는 주소, 프레임 레이트 및 이미지 스케일링 중 적어도 하나에 의하여 정의되는 것을 특징으로 하는 카메라 제어 장치.Wherein the reference condition is defined by at least one of a data rate, a resolution, an address to be transmitted, a frame rate, and image scaling.
  12. 제10항에 있어서,11. The method of claim 10,
    상기 프로세서는,The processor comprising:
    상기 제2 이벤트가 요구하는 영상의 이름과 상기 제1 가공 영상의 이름이 동일한 경우, 상기 제2 이벤트가 요구하는 영상과 상기 제1 가공 영상이 동일하다고 판단하는 것을 특징으로 하는 카메라 제어 장치.And determines that the image requested by the second event and the first processed image are the same if the name of the image requested by the second event is the same as the name of the first processed image.
  13. 제1항에 있어서,The method according to claim 1,
    상기 프로세서는,The processor comprising:
    상기 원본 영상의 크기, 프레임 레이트 및 해상도 중 적어도 하나를 변경하기 그리고 상기 원본 영상의 전체 영역 중 일부분을 잘라내기 중 적어도 하나를 이용하여 가공 영상을 생성하는 것을 특징으로 하는 카메라 제어 장치.Wherein the processed image is generated using at least one of changing at least one of the size, the frame rate, and the resolution of the original image, and cutting out a part of the entire area of the original image.
  14. 제1항에 있어서,The method according to claim 1,
    상기 프로세서는,The processor comprising:
    가공 영상을 무선으로 외부 장치에 전송하는 제1 영상 가공부; 및A first image processing unit for wirelessly transmitting a processed image to an external device; And
    가공 영상을 상기 차량에 탑재된 메모리에 저장하는 제2 영상 가공부를 포함하며,And a second image processing unit for storing the processed image in a memory mounted on the vehicle,
    이벤트에 따라 가공 영상의 생성을 상기 제1 영상 가공부 또는 상기 제2 영상 가공부에 할당하는 것을 특징으로 하는 카메라 제어 장치.Wherein the generation of the processed image is assigned to the first image processing unit or the second image processing unit in accordance with the event.
  15. 차량에 탑재된 복수의 카메라들을 제어하는 카메라 제어 장치의 제어 방법으로서,A control method of a camera control apparatus for controlling a plurality of cameras mounted on a vehicle,
    어느 카메라로부터 원본 영상을 수신하는 단계;Receiving an original image from a certain camera;
    제1 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제1 이벤트에서 요구하는 제1 가공 영상을 생성하는 단계; 및Generating a first processed image required in the first event using the original image when a first event occurs; And
    상기 제1 가공 영상을 생성하는 중에 제2 이벤트가 발생하는 경우, 상기 원본 영상을 이용하여 상기 제2 이벤트에서 요구하는 제2 가공 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 카메라 제어 장치의 제어 방법.And generating a second processed image requested by the second event using the original image when a second event occurs during the generation of the first processed image. Way.
  16. 제15에 있어서,15. The method according to claim 15,
    상기 원본 영상을 이용하여 자연수 n개의 가공 영상들이 동시에 생성되며,N processed images are simultaneously generated using the original image,
    기 설정된 조건에 따라 상기 n을 조절하는 단계를 더 포함하는 것을 특징으로 하는 카메라 제어 장치의 제어 방법.And adjusting the n according to a predetermined condition. ≪ Desc / Clms Page number 20 >
  17. 제16에 있어서,The method according to claim 16,
    이벤트 발생에 응답하여 이벤트 리스트를 업데이트 하는 단계를 더 포함하며, Further comprising updating the event list in response to an event occurrence,
    상기 이벤트 리스트에 등록된 순서에 따라 상기 n개의 가공 영상들이 동시에 생성되는 것을 특징으로 하는 카메라 제어 장치의 제어 방법.And the n processed images are simultaneously generated according to the order registered in the event list.
  18. 제15항에 있어서,16. The method of claim 15,
    이벤트는 상기 차량에 설치된 애플리케이션 및 상기 차량에 탑재된 전장품 중 적어도 하나에서 소정 영상을 요청하는 메시지가 수신되는 것이며,The event is a message for requesting a predetermined image from at least one of an application installed in the vehicle and an electric component mounted on the vehicle,
    상기 메시지에 근거하여 상기 카메라들 중 적어도 하나를 선택하는 단계; 및Selecting at least one of the cameras based on the message; And
    상기 선택된 카메라로부터 영상이 수신되도록 통신부를 제어하는 단계를 더 포함하는 것을 특징으로 하는 카메라 제어 장치의 제어 방법.And controlling the communication unit to receive an image from the selected camera.
  19. 제18항에 있어서,19. The method of claim 18,
    상기 메시지에 근거하여 상기 카메라들을 제1그룹과 제2그룹으로 분류하는 단계; 및Classifying the cameras into a first group and a second group based on the message; And
    상기 제1그룹의 카메라는 온 되고 상기 제2그룹의 카메라는 오프 되도록 상기 통신부를 제어하는 단계를 더 포함하는 것을 특징으로 하는 카메라 제어 장치의 제어 방법.Further comprising the step of controlling the communication unit such that the cameras of the first group are turned on and the cameras of the second group are turned off.
  20. 제9항에 있어서,10. The method of claim 9,
    상기 제2 가공 영상을 생성하는 단계는,Wherein the step of generating the second processed image comprises:
    상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한지를 기준 조건에 따라 판단하는 단계; Determining whether an image requested by the second event is identical to the first processed image according to a reference condition;
    상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일한 경우, 상기 제2 가공 영상의 생성을 제한하는 단계; 및Restricting the generation of the second processed image if an image requested by the second event is identical to the first processed image; And
    상기 제2 이벤트가 요구하는 영상이 상기 제1 가공 영상과 동일하지 않은 경우, 상기 제2 가공 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 카메라 제어 장치의 제어 방법.And generating the second processed image when an image requested by the second event is not identical to the first processed image.
PCT/KR2018/015891 2017-12-14 2018-12-14 Camera control device and control method therefor WO2019117658A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020207007093A KR102362452B1 (en) 2017-12-14 2018-12-14 Camera control device and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762598467P 2017-12-14 2017-12-14
US62/598,467 2017-12-14

Publications (1)

Publication Number Publication Date
WO2019117658A1 true WO2019117658A1 (en) 2019-06-20

Family

ID=66820451

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015891 WO2019117658A1 (en) 2017-12-14 2018-12-14 Camera control device and control method therefor

Country Status (2)

Country Link
KR (1) KR102362452B1 (en)
WO (1) WO2019117658A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128838A (en) * 2020-04-17 2021-10-27 엘지이노텍 주식회사 Image Processing Apparatus and Image Processing Method
US12047548B2 (en) * 2020-04-23 2024-07-23 Lg Electronics Inc. Method and apparatus for handling emergency situation in vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100064628A (en) * 2008-12-05 2010-06-15 엘지전자 주식회사 Telematics system and control method using the same
KR20160123775A (en) * 2015-04-17 2016-10-26 (주)이에스브이 Data processing method of vehicle image recording apparatus having a motion detection.
KR101696801B1 (en) * 2016-10-21 2017-01-16 이형각 integrated image monitoring system based on IoT camera
KR101765556B1 (en) * 2016-05-11 2017-08-23 (주)캠시스 Apparatus and method for processing the image according to the velocity of automobile
KR20170121992A (en) * 2016-04-26 2017-11-03 주식회사 아이디스 Video recording apparatus with pre-event circulation recording function

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100064628A (en) * 2008-12-05 2010-06-15 엘지전자 주식회사 Telematics system and control method using the same
KR20160123775A (en) * 2015-04-17 2016-10-26 (주)이에스브이 Data processing method of vehicle image recording apparatus having a motion detection.
KR20170121992A (en) * 2016-04-26 2017-11-03 주식회사 아이디스 Video recording apparatus with pre-event circulation recording function
KR101765556B1 (en) * 2016-05-11 2017-08-23 (주)캠시스 Apparatus and method for processing the image according to the velocity of automobile
KR101696801B1 (en) * 2016-10-21 2017-01-16 이형각 integrated image monitoring system based on IoT camera

Also Published As

Publication number Publication date
KR102362452B1 (en) 2022-02-14
KR20200033346A (en) 2020-03-27

Similar Documents

Publication Publication Date Title
WO2020122270A1 (en) Vehicle control apparatus and vehicle including same
WO2020105759A1 (en) Communication device, control method thereof, and communication system including same
WO2020222325A1 (en) Integrated control system using zone-based mobility service recommendation and dynamic drop-off location configuration ui/ux, and method for controlling same
WO2021101054A1 (en) Electronic device for processing v2x message and operating method thereof
WO2020171263A1 (en) Vehicle control device and vehicle including same
WO2017003013A1 (en) Apparatus for vehicle driving assistance, operation method therefor, and vehicle comprising same
JP2016182906A (en) Operation support system
WO2014077441A1 (en) Apparatus and method for detecting nearby vehicles though inter-vehicle communication
JP4747125B2 (en) Mobile equipment
WO2015053434A1 (en) Device for performing a camera-based estimation of load on a vehicle and method of estimating load on a vehicle
WO2020145441A1 (en) Electronic device for vehicle and method for operating electronic device for vehicle
WO2018164335A1 (en) System for detecting dangerous situation of two-wheeled vehicle by using sensor and method for transmitting emergency rescue signal by using same
WO2020071564A1 (en) Mobile its station and message transmission and reception method of said mobile its station
JP5291733B2 (en) Mobile body mounting device
WO2018147599A1 (en) Electronic device and method for assisting in vehicle driving
WO2020184755A1 (en) Vehicle control device and vehicle comprising same
WO2020034534A1 (en) Drive recorder-based evidence production method, apparatus and device, and storage medium
WO2020189832A1 (en) Method for providing transportation service using self-driving vehicle
WO2021002517A1 (en) Shared vehicle management device and shared vehicle management method
WO2020222333A1 (en) In-vehicle electronic device and method for operating in-vehicle electronic device
WO2019117658A1 (en) Camera control device and control method therefor
WO2020130485A1 (en) Electronic device and method for providing v2x service using same
WO2020189831A1 (en) Method for monitoring and controlling autonomous vehicle
WO2020241952A1 (en) Autonomous vehicle system and autonomus driving method for vehicle
WO2018186617A1 (en) Electronic device and method for recognizing object using plurality of sensors

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18888275

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20207007093

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18888275

Country of ref document: EP

Kind code of ref document: A1