KR101515404B1 - Method and apparatus for controlling of virtual camera - Google Patents

Method and apparatus for controlling of virtual camera Download PDF

Info

Publication number
KR101515404B1
KR101515404B1 KR1020140070733A KR20140070733A KR101515404B1 KR 101515404 B1 KR101515404 B1 KR 101515404B1 KR 1020140070733 A KR1020140070733 A KR 1020140070733A KR 20140070733 A KR20140070733 A KR 20140070733A KR 101515404 B1 KR101515404 B1 KR 101515404B1
Authority
KR
South Korea
Prior art keywords
camera module
subject
video signal
value
image
Prior art date
Application number
KR1020140070733A
Other languages
Korean (ko)
Inventor
박득인
이성근
Original Assignee
주식회사 리버스톤미디어
경기과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리버스톤미디어, 경기과학기술대학교 산학협력단 filed Critical 주식회사 리버스톤미디어
Priority to KR1020140070733A priority Critical patent/KR101515404B1/en
Application granted granted Critical
Publication of KR101515404B1 publication Critical patent/KR101515404B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase

Abstract

The present invention relates to an apparatus for controlling a virtual camera, and more specifically to a method and an apparatus for controlling a virtual camera which provides an image similar with the filmed image of an object at a certain point on a virtual diagonal line, from a first camera and a second camera individually arranged at both sides of the virtual diagonal line generated based on a horizontal line. The present invention includes: a camera unit, an input unit, a storing unit, a control unit, and an image signal output unit.

Description

가상 카메라의 제어 장치 및 방법{METHOD AND APPARATUS FOR CONTROLLING OF VIRTUAL CAMERA}TECHNICAL FIELD [0001] The present invention relates to a virtual camera control method and apparatus,

본 발명의 실시예들은 가상 카메라의 제어 장치에 관한 것으로서, 예컨대, 동일한 피사체를 촬영하며, 수평선을 기준으로 가상의 사선 상의 양단에 각각 배치되는 제1 카메라와 제2 카메라로부터 가상의 사선 상의 특정 지점에서 피사체를 대상으로 촬영된 영상과 유사한 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to a control apparatus for a virtual camera. For example, a control system for a virtual camera includes: a first camera that photographs the same object and is disposed at both ends of an imaginary oblique line with respect to a horizontal line; The present invention relates to a control apparatus and method for a virtual camera capable of providing an image similar to an image photographed on a subject.

최근 인터넷 기술의 발달로 인해 서로 먼 거리에 떨어져 있는 사람들끼리 실내에 설치된 각각의 디스플레이 장치에 표시되는 화상 및 오디오 장치를 통해 제공되는 음향 등을 통해 회의를 진행할 수 있는 시스템인 다자간 화상회의 시스템의 기술 개발이 증가하고 있다. 다자간 화상회의 시스템은 회의 참석자들이 서로 원거리에서 회의를 진행하고 있다는 거리감을 느끼기 쉬운 난점이 있으므로, 회의 참석자들이 임장감(presence)을 가질 수 있도록 영상 기술 및 오디오 기술에 대한 기술 개발이 증가하고 있다. Description of the Related Art [0002] A technology of a multi-user video conferencing system, which is a system capable of conducting a conference through audio and the like provided through video and audio devices displayed on respective display devices installed in a room, Development is increasing. The multi-party video conferencing system has an increasing difficulty in sensing the distance that the conference participants are meeting at a distance, and the development of technology for video and audio technology is increasing so that meeting attendees can have presence.

종래의 다자간 화상회의 시스템의 영상 기술에서는 단일 카메라를 디스플레이 상단에 설치하고, 각 회의 참석자들은 디스플레이를 보며 회의를 진행한다. 각 회의 참석자들의 디스플레이를 바라보는 다른 회의 참석자들의 모습을 보며 회의를 진행하게 된다. 실제 공간의 회의 참가자들과 달리 다자간 화상회의에 참석하는 회의 참석자들은 서로 아이컨택(eye contact)하며 회의를 진행하기 어렵다. 아이컨택이 어려운 다자간 화상회의는 회의 참가자들의 집중도를 떨어트리며, 회의 진행자의 설득력을 떨어트릴 수 있다. In the image technology of the conventional multi-party video conferencing system, a single camera is installed at the top of the display, and each participant performs the conference while watching the display. The meeting will be held with the other attendees watching the display of the attendees at each meeting. Unlike the participants in the actual space, conference attendees attending the multi-party video conference are unable to conduct the meeting with eye contact with each other. Multipurpose videoconferencing, which is difficult to contact with children, can reduce the concentration of conference participants and reduce the persuasiveness of the conference host.

따라서 카메라로 취득된 영상을 기반으로 대화를 하는 시스템에 있어서, 원거리에 위치한 각각의 대화 당사자들이 서로 아이컨택을 유지하여 대화의 집중도를 높이며, 임장감 또한 높은 대화를 할 수 있는 기술의 개발이 요구된다.Therefore, in a system for conversation based on images captured by a camera, it is required to develop a technology that enables each conversation party located at a remote location to keep an eye contact with each other, thereby increasing the concentration of conversation, .

KR 1008052090000 B1KR 1008052090000 B1

본 발명의 실시예는 카메라로 취득된 영상을 기반으로 대화를 하는 시스템에 있어서, 상대방의 시선에 상관없이, 상대방의 시선이 카메라를 향해 있는 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법을 제공한다.An embodiment of the present invention is a system and method for controlling a virtual camera capable of providing a video with a gaze of a partner facing a camera regardless of the gaze of the opponent in a system for conversation based on a video captured by a camera to provide.

또한, 본 발명의 실시예는 동일한 피사체를 촬영하며, 수평선을 기준으로 가상의 사선 상의 양단에 각각 배치되는 제1 카메라와 제2 카메라로부터 가상의 사선 상의 특정 지점에서 피사체를 대상으로 촬영된 영상과 유사한 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법을 제공한다.The embodiments of the present invention are also directed to a method of shooting an image of a same subject and photographing a subject photographed at a specific point on a virtual oblique line from a first camera and a second camera respectively disposed at both ends of a virtual oblique line with respect to a horizontal line, A virtual camera control apparatus and method capable of providing similar images are provided.

본 발명의 실시예에 따른 가상 카메라의 제어 장치는, 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 각각 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 생성하는, 제1 카메라 모듈 및 제2 카메라 모듈을 포함하는 카메라부; 편차 고정 제어값 및 편차별 제어 테이블 중 적어도 하나가 미리 저장된 저장부; 가상 카메라 합성 영상 신호를 표시부로 출력하는 가상 카메라 영상 출력부; 및 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호 수신받고, 상기 저장부에 상기 편차 고정 제어값이 미리 저장되어 있는지 판단하고, 미리 저장된 상기 편차 고정 제어값이 있는 경우, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 편차 고정 제어값을 반영하여 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성하며, 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 생성하고, 상기 가상 카메라 휘도 신호 보정값, 상기 가상 카메라 색차 신호 보정값, 상기 제1 가상 카메라 RGB 영상 신호 및 상기 제2 가상 카메라 RGB 영상 신호로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들을 생성한 후 합성하여 상기 가상 카메라 합성 영상 신호를 생성하며 상기 가상 카메라 영상 신호 출력부를 통해 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력되도록 제어하는 제어부; 를 포함할 수 있다.A control device of a virtual camera according to an embodiment of the present invention includes a first camera module and a second camera module which are disposed at both ends of a virtual slanting line and generate a first RGB video signal and a second RGB video signal, 2 camera module including a camera module; A storage unit in which at least one of the deviation fixing control value and the difference discrimination control table is stored in advance; A virtual camera video output unit for outputting a virtual camera composite video signal to a display unit; And a controller for receiving the first RGB video signal and the second RGB video signal, determining whether the deviation fixing control value is stored in advance in the storage unit, and if the deviation fixing control value is stored in advance, And generates the first virtual camera RGB image signal and the second virtual camera RGB image signal by reflecting the deviation fixed control value for the image signal and the second RGB image signal, respectively, and generates the virtual camera luminance signal correction value and the virtual camera color difference signal A first virtual camera luminance signal corrected from the virtual camera luminance signal correction value, the virtual camera color difference signal correction value, the first virtual camera RGB video signal, and the second virtual camera RGB video signal, The corrected first virtual camera color difference signal, and the corrected second virtual camera color difference signal Property to the virtual camera, a composite video signal to produce a control unit for controlling so that the output to the display unit by changing the CVBS, HDMI, at least one image of the VGA size from the virtual camera image signal output unit; . ≪ / RTI >

상기 가상 카메라의 제어 장치는, 합성 영상 신호를 상기 표시부로 출력하는 합성 영상 출력부; 출력되는 상기 합성 영상 신호 중 선택된 합성 영상 신호를 나타내는 사용자 입력 신호를 수신받는 입력부; 및 미리 저장된 상기 편차 고정 제어값이 없는 경우, 상기 편차별 제어 테이블로부터 임의의 편차 제어값을 생성하고, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 임의의 편차 제어값을 반영하여 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 생성하며, 휘도 신호 보정값 및 색차 신호 보정값을 생성하고, 상기 휘도 신호 보정값, 상기 색차 신호 보정값, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호로부터 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들을 생성한 후 합성하여 합성 영상 신호를 생성하며, 상기 합성 영상 신호 출력부를 통해 상기 CVBS, 상기 HDMI, 상기 VGA 중 적어도 하나의 영상 규격으로 변경하여 상기 표시부로 출력하고, 상기 입력부를 통해 상기 사용자 입력 신호가 수신되었는지 판단하고, 상기 사용자 입력 신호가 수신되면, 상기 편차별 제어 테이블로부터 상기 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 추출하여 상기 편차 고정 제어값을 생성하는 제어부; 를 더 포함할 수 있다.The controller of the virtual camera includes: a composite video output unit for outputting a composite video signal to the display unit; An input unit receiving a user input signal representing a selected composite video signal among the composite video signals to be output; And a control unit for generating an arbitrary deviation control value from the deviation discrimination control table when there is no previously stored deviation fixing control value and outputting the arbitrary deviation control value to the received first RGB video signal and the second RGB video signal The first RGB image signal and the second RGB image signal, respectively, and generates a luminance signal correction value and a color difference signal correction value, and outputs the luminance signal correction value, the color difference signal correction value, And generating a synthesized image signal by generating a first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal from the second RGB video signal, The video signal output unit converts the video standard into at least one video standard of the CVBS, the HDMI, and the VGA, and outputs the video standard to the display unit, After receiving that determination, wherein the user input signal is received, the control unit which extracts the position error value and the deviation distance value corresponding to the composite video signal selected from said control piece discrimination table generating the deviation fixed control value; As shown in FIG.

상기 카메라부는, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루는 것을 특징으로 포함할 수 있다.Wherein the camera unit has an angle formed by a straight line connecting the center point of the image acquisition sensor of the first camera module and the center point of the subject and a horizontal line at an angle of 15 to 20 degrees and a center point of the image acquisition sensor of the second camera module, And the angle formed by the straight line connecting the center point of the center line and the horizontal line is 15 to 20 degrees.

상기 편차 고정 제어값은, 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함할 수 있다.The deviation fixed control value may include a distance deviation value and a position deviation value, which are parameter information for controlling the virtual camera.

상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라,Wherein the distance deviation value indicates a degree of distance of the virtual camera from the reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same reduction distance deviation calculation equation,

Figure 112014104323237-pat00027
Figure 112014104323237-pat00027

DODR은 상기 거리 편차값, D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module, and n is the value of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the module may be defined as the height of the image of the subject output by the RGB video signals output from the remaining camera modules other than the specific camera module.

상기 거리 편차값은,The distance deviation value is calculated by:

Figure 112014054504513-pat00002
Figure 112014054504513-pat00002

D2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D2 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module, and n is the value of the size of the subject of the virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.

상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라,Wherein the distance deviation value represents a degree of distance of the virtual camera from a reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same enlargement distance deviation calculation equation,

Figure 112014104323237-pat00028
Figure 112014104323237-pat00028

DODE는 상기 거리 편차값, D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module, and n is the size of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the remaining camera module may be defined as the height of the image of the subject output by the RGB video signal output from the specific camera module.

상기 거리 편차값은,The distance deviation value is calculated by:

Figure 112014054504513-pat00004
Figure 112014054504513-pat00004

D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D1 is a width of an image of a subject outputted by the RGB video signal outputted from the remaining camera module, and n is a value indicating the size of a subject of a virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.

상기 위치 편차값은, 상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다.Wherein the positional deviation value represents an angle formed by a straight line connecting the center point of the image acquisition sensor of the first camera module and the center of the subject and a horizontal line, 2 It can be calculated from the angle formed by the straight line connecting the center point of the image acquisition sensor of the camera module and the center point of the subject and the horizontal line.

상기 제어부는, 상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 휘도 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 휘도 신호를 생성하고, 상기 제1 가상 카메라 휘도 신호와 상기 제2 가상 카메라 휘도 신호 간 차이를 나타내는 가상 카메라 휘도 신호 차이값을 생성하며, 생성된 상기 가상 카메라 휘도 신호 차이값으로부터 상기 가상 카메라 휘도 신호 보정값을 생성할 수 있다.The control unit generates a first virtual camera luminance signal from the first virtual camera RGB image signal, generates a second virtual camera luminance signal from the second virtual camera RGB image signal, A virtual camera luminance signal difference value indicating a difference between the second virtual camera luminance signals may be generated and the virtual camera luminance signal correction value may be generated from the generated virtual camera luminance signal difference value.

상기 제어부는, 상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 색차 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 색차 신호를 생성하고, 상기 제1 가상 카메라 색차 신호와 상기 제2 가상 카메라 색차 신호 간 차이를 나타내는 가상 카메라 색차 신호 차이값을 생성하며, 생성된 상기 가상 카메라 색차 신호 차이값으로부터 상기 가상 카메라 색차 신호 보정값을 생성할 수 있다.The control unit generates a first virtual camera color difference signal from the first virtual camera RGB image signal, generates a second virtual camera color difference signal from the second virtual camera RGB image signal, A virtual camera color difference signal difference indicating a difference between the second virtual camera color difference signals is generated and the virtual camera color difference signal correction value may be generated from the generated virtual camera color difference signal difference.

상기 제어부는, 상기 제1 RGB 영상 신호로부터 제1 휘도 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 휘도 신호를 생성하고, 상기 제1 휘도 신호와 상기 제2 휘도 신호 간 차이를 나타내는 휘도 신호 차이값을 생성하며, 생성된 상기 휘도 신호 차이값으로부터 상기 휘도 신호 보정값을 생성할 수 있다.Wherein the controller generates a first luminance signal from the first RGB video signal, generates a second luminance signal from the second RGB video signal, and generates a luminance signal representing a difference between the first luminance signal and the second luminance signal A difference signal value is generated, and the luminance signal correction value is generated from the generated luminance signal difference value.

상기 제어부는, 상기 제1 RGB 영상 신호로부터 제1 색차 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 색차 신호를 생성하고, 상기 제1 색차 신호와 상기 제2 색차 신호 간 차이를 나타내는 색차 신호 차이값을 생성하며, 생성된 상기 색차 신호 차이값으로부터 상기 색차 신호 보정값을 생성할 수 있다.The control unit generates a first color difference signal from the first RGB image signal, generates a second color difference signal from the second RGB image signal, and generates a color difference signal representing a difference between the first color difference signal and the second color difference signal And generates the color difference signal correction value from the generated color difference signal difference value.

본 발명의 실시예에 따른 가상 카메라의 제어 방법은, 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 촬영을 수행하는 제1 카메라 모듈 및 제2 카메라 모듈로부터 각각 생성된 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 수신하는 단계; 저장부에 편차 고정 제어값이 미리 저장되어 있는지 판단하는 단계; 편차 고정 제어값이 상기 저장부에 미리 저장되어 있는 경우, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 편차 고정 제어값을 반영하여, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성하는 단계; 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 생성하는 단계; 상기 가상 카메라 휘도 신호 보정값 및 상기 가상 카메라 색차 신호 보정값을 반영하여, 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성하는 단계; 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들이 합성된 하나의 영상 신호인 가상 카메라 합성 영상 신호를 생성하는 단계; 및 상기 가상 카메라 합성 영상 신호를 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력하는 단계; 를 포함할 수 있다.A control method for a virtual camera according to an exemplary embodiment of the present invention includes a first camera module and a second camera module which are disposed at both ends of a virtual slanting line, And receiving a second RGB video signal; Determining whether a deviation fixing control value is stored in advance in the storage unit; When the deviation fixing control value is previously stored in the storage unit, the deviation control value is reflected on the first RGB video signal and the second RGB video signal so that the first virtual camera RGB video signal and the second virtual Generating a camera RGB video signal, respectively; Generating a virtual camera luminance signal correction value and a virtual camera color difference signal correction value; The corrected first virtual camera luminance signal, the corrected first virtual camera luminance signal, the corrected first virtual camera chrominance signal, and the corrected second virtual camera chrominance signal by reflecting the virtual camera luminance signal correction value and the virtual camera chrominance signal correction value, Generating virtual camera color difference signals; And generates a virtual camera composite video signal, which is a video signal obtained by combining the corrected first virtual camera luminance signal, the corrected second virtual camera luminance signal, the corrected first virtual camera color difference signal, and the corrected second virtual camera color difference signals ; And converting the virtual camera composite video signal into at least one video standard of CVBS, HDMI, and VGA and outputting the converted video standard to a display unit; . ≪ / RTI >

상기 가상 카메라의 제어 방법은, 상기 편차 고정 제어값이 상기 저장부에 미리 저장되어 있는 않은 경우, 임의의 편차 제어값을 생성하는 단계; 상기 임의의 편차 제어값을 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계; 휘도 신호 보정값 및 색차 신호 보정값을 생성하는 단계; 상기 휘도 신호 보정값 및 상기 색차 신호 보정값을 반영하여 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성하는 단계; 상기 보정된 제1 휘도 신호, 상기 보정된 제2 휘도 신호, 상기 보정된 제1 색차 신호 및 상기 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 생성하는 단계; 상기 합성 영상 신호를 상기 CVBS, 상기 HDMI, 상기 VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력하는 단계; 및 입력부를 통해 사용자 선택 신호가 수신되었는지 판단하고, 상기 사용자 선택 신호가 수신된 경우, 상기 저장부에 미리 저장된 편차별 제어 테이블로부터 상기 사용자 선택 신호가 나타내는 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 추출하여 상기 편차 고정 제어값을 생성하고, 상기 저장부에 저장하는 단계; 를 더 포함할 수 있다.The control method of the virtual camera may further include: generating an arbitrary deviation control value when the deviation fixing control value is not stored in the storage unit in advance; Reflecting the arbitrary deviation control value on the first RGB video signal and the second RGB video signal, respectively; Generating a luminance signal correction value and a color difference signal correction value; Generating a corrected first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal by reflecting the luminance signal correction value and the color difference signal correction value; Generating a synthesized image signal which is one image signal in which the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected second color difference signals are synthesized; Converting the synthesized video signal into at least one video standard of the CVBS, the HDMI, and the VGA and outputting the video standard to the display unit; And through the input A position deviation value and a distance deviation value corresponding to the selected composite video signal indicated by the user selection signal are stored in the storage section according to the user selection signal, Generating the deviation-fixed control value, and storing the deviation-fixed control value in the storage unit; As shown in FIG.

상기 가상 카메라의 제어 방법은, 상기 사용자 선택 신호가 수신되지 않은 경우, 상기 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하고, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계로 이동하여 해당 단계를 수행할 수 있다.The control method of the virtual camera may further include the steps of: when the user selection signal is not received, generating a new deviation control value different from the arbitrary deviation control value, and generating the first RGB video signal and the second RGB video signal To the step of reflecting them, respectively, and perform the corresponding step.

상기 편차 고정 제어값은, 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함할 수 있다.The deviation fixed control value may include a distance deviation value and a position deviation value, which are parameter information for controlling the virtual camera.

상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라,Wherein the distance deviation value indicates a degree of distance of the virtual camera from the reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same reduction distance deviation calculation equation,

Figure 112014104323237-pat00029
Figure 112014104323237-pat00029

DODR은 상기 거리 편차값, D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module, and n is the value of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the module may be defined as the height of the image of the subject output by the RGB video signals output from the remaining camera modules other than the specific camera module.

상기 거리 편차값은,The distance deviation value is calculated by:

Figure 112014054504513-pat00006
Figure 112014054504513-pat00006

D2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D2 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module, and n is the value of the size of the subject of the virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.

상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라,Wherein the distance deviation value represents a degree of distance of the virtual camera from a reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same enlargement distance deviation calculation equation,

Figure 112014104323237-pat00030
Figure 112014104323237-pat00030

DODE는 상기 거리 편차값, D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module, and n is the size of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the remaining camera module may be defined as the height of the image of the subject output by the RGB video signal output from the specific camera module.

상기 거리 편차값은,The distance deviation value is calculated by:

Figure 112014054504513-pat00008
Figure 112014054504513-pat00008

D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D1 is a width of an image of a subject outputted by the RGB video signal outputted from the remaining camera module, and n is a value indicating the size of a subject of a virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.

상기 위치 편차값은, 상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다.Wherein the positional deviation value represents an angle formed by a straight line connecting the center point of the image acquisition sensor of the first camera module and the center of the subject and a horizontal line, 2 It can be calculated from the angle formed by the straight line connecting the center point of the image acquisition sensor of the camera module and the center point of the subject and the horizontal line.

본 발명의 실시예에 따르면, 상대방의 시선에 상관없이, 상대방의 시선이 카메라를 향해 있는 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법을 제공할 수 있다.According to the embodiments of the present invention, it is possible to provide a control apparatus and method for a virtual camera capable of providing an image of the other party's gaze toward the camera regardless of the gaze of the other party.

도 1은 본 발명에 실시예에 따른 가상 카메라의 제어 장치를 도시하는 블록도.
도 2는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 가상 카메라의 배치를 나타내는 예시도.
도 3은 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 제1 및 제2 카메라 모듈에서 출력되는 각각의 영상과 가상 카메라를 통해 생성되는 영상을 나타내는 예시도.
도 4는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 발생하는 거리 편차를 나타내는 예시도.
도 5는 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있는 경우, 가상 카메라의 제어 방법을 도시하는 흐름도.
도 6은 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있지 않은 경우, 가상 카메라의 제어 방법을 도시하는 흐름도이다.
1 is a block diagram showing a control apparatus of a virtual camera according to an embodiment of the present invention.
FIG. 2 is an exemplary view showing the arrangement of a virtual camera when first and second camera modules according to an embodiment of the present invention are located on an oblique line; FIG.
FIG. 3 is a diagram illustrating an example of an image generated through a virtual camera and an image output from the first and second camera modules, respectively, when the first and second camera modules according to an embodiment of the present invention are located on a diagonal line. Degree.
4 is a diagram illustrating an example of a distance deviation generated when first and second camera modules according to an embodiment of the present invention are located on a diagonal line;
5 is a flowchart showing a control method of a virtual camera when a deviation fixing control value is stored in advance in a storage unit according to an embodiment of the present invention.
6 is a flowchart showing a control method of a virtual camera when the deviation fixing control value is not stored in advance in the storage unit according to an embodiment of the present invention.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시 예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다. Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited to or limited by the exemplary embodiments. Like reference numerals in the drawings denote members performing substantially the same function.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예컨대, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

한편, 본 발명의 실시예에 따른 카메라부는 CCD 센서, CMOS 센서 등과 같은 영상 취득 수단이 구비된 적어도 두 개의 카메라 모듈을 포함할 수 있다.Meanwhile, the camera unit according to the embodiment of the present invention may include at least two camera modules having image acquisition means such as a CCD sensor, a CMOS sensor, and the like.

본 발명의 실시예에 따른 저장부는 기록 매체로서 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함할 수 있다. 예컨대, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 피롬(PROM: Programmable Read-Only Memory), 이피롬(EPROM: Erasable PROM), 플래시-이피롬(FLASH-EPROM),롬(ROM: Read Only Memory), 램(RAM: Random Access Memory), CD(Compact Disk), CD-ROM(Compact Disc Read-Only Memory), DVD(Digital Video Disk)―ROM, 자기 테이프, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 광 데이터 저장 장치, 하드 디스크 드라이브(HDD), 솔리드스테이트 드라이브(SSD), 솔리드스테이트 하이브리드 드라이브(SSHD) 및 임베디드 멀티미디어 카드(eMMC: embedded Multi Media Card) 등을 포함할 수 있다. 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다.The storage unit according to an embodiment of the present invention may include all kinds of recording media in which programs and data are stored so that the storage medium can be read by a computer system. For example, a punch card, a paper tape, a programmable read-only memory (PROM), an erasable programmable read-only memory (EPROM), a flash-EPROM, Read only memory (ROM), a random access memory (RAM), a compact disk (CD), a compact disk read-only memory (CD-ROM), a digital video disk (DVD) , A flexible disk, an optical data storage device, a hard disk drive (HDD), a solid state drive (SSD), a solid state hybrid drive (SSHD), and an embedded multimedia card (eMMC) . And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet).

먼저, 본 발명의 실시예에 따른 가상 카메라의 제어 장치 및 방법의 이해를 돕기 위해 다음과 같이 용어를 설명한다.First, in order to facilitate understanding of an apparatus and method for controlling a virtual camera according to an embodiment of the present invention, the following terms will be described.

본 발명의 실시예에 따른 가상 카메라의 제어 장치의 카메라부에 구비된 제1 카메라 모듈와 제2 카메라 모듈은 동일한 피사체를 대상으로 촬영을 수행하여 각각 제1 RGB 영상 신호 및 제2 RGB 영상 신호 생성할 수 있다.The first camera module and the second camera module provided in the camera unit of the virtual camera control apparatus according to the embodiment of the present invention perform shooting on the same subject to generate a first RGB video signal and a second RGB video signal .

본 발명의 실시예에 따른 제1 카메라 모듈과 제2 카메라 모듈은 동일한 피사체를 촬영하며, 수평선을 기준으로 가상의 사선 상의 양단에 각각 배치될 수 있다. 예컨대, 제1 카메라 모듈의 영상 취득 센서의 중심점은 제2 카메라 모듈의 영상 취득 센서의 중심점을 서로 잇는 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향으로 연장될 수 있다. The first camera module and the second camera module according to the embodiment of the present invention photograph the same subject and can be disposed at both ends of a virtual oblique line with respect to a horizontal line. For example, the center point of the image acquisition sensor of the first camera module may be located on a virtual slant line connecting the center points of the image acquisition sensors of the second camera module. The hypothetical oblique line may extend upward in the direction of the horizontal line.

본 발명의 실시예에 따른 제1 카메라 모듈의 영상 취득 센서의 화각(Angle of view)과 제2 카메라 모듈은 화각은 서로 동일하나, 피사체와 각 카메라 모듈 간의 거리는 동일하거나 서로 다른 값을 가질 수 있다.The angle of view of the image acquisition sensor of the first camera module according to the embodiment of the present invention and the angle of view of the second camera module are the same but the distances between the subject and the camera modules may be the same or different from each other .

본 발명의 실시예에 따른 저장부는 피사체와 제1 카메라 모듈 간의 거리 값(L1), 피사체와 제2 카메라 모듈 간의 거리 값(L2), 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 미리 저장할 수 있다.A storage unit according to an embodiment of the present invention includes a distance value L1 between a subject and a first camera module, a distance value L2 between a subject and a second camera module, a center value of the image acquisition sensor of the first camera module, The angle formed by the straight line and the horizontal line, and the angle between the center point of the image acquisition sensor of the second camera module and the straight line connecting the subject and the horizontal line can be stored in advance.

또한, 본 발명의 실시예에 따른 저장부는 가상 카메라를 제어하는 파라미터 정보인 편차 고정 제어값을 미리 저장할 수 있다. 편차 고정 제어값은 거리 편차값과 위치 편차값을 포함할 수 있다.In addition, the storage unit according to the embodiment of the present invention may previously store the deviation fixing control value, which is parameter information for controlling the virtual camera. The deviation lock control value may include a distance deviation value and a position deviation value.

또한, 본 발명의 실시예에 따른 저장부는 가상 카메라를 제어하는 임의의 파라미터 정보인 편차별 제어 테이블을 미리 저장할 수 있다. 편차별 제어 테이블은 거리 테이블 값 및 위치 테이블 값을 포함할 수 있다.In addition, the storage unit according to the embodiment of the present invention may previously store a difference discrimination control table which is arbitrary parameter information for controlling the virtual camera. The difference discrimination control table may include a distance table value and a position table value.

본 발명의 실시예에 따른 거리 테이블 값은 복수 개의 거리 편차값을 포함할 수 있다. 복수의 거리 편차값은 저장부에 미리 저장된 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 생성될 수 있다. The distance table value according to an embodiment of the present invention may include a plurality of distance deviation values. The plurality of distance deviation values may be generated by reflecting the distance (L1) between the first camera module and the subject stored in advance in the storage unit, and the distance (L2) between the second camera module and the subject.

본 발명의 실시예에 따른 위치 테이블 값은 복수 개의 위치 편차값을 포함할 수 있다. 복수의 위치 편차값은 저장부에 미리 저장된 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 생성될 수 있다.The position table value according to an embodiment of the present invention may include a plurality of position deviation values. The plurality of positional deviation values may be generated by reflecting an angle formed by a straight line and a horizontal line connecting the first camera module and the subject stored in advance in the storage unit and an angle formed by a straight line and a horizontal line connecting the second camera module and the subject, .

본 발명의 실시예에 따른 기준 거리값은 0을 가지며, 기준 거리 값 0은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체 간의 거리(L1)와 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체 간의 거리(L2)가 동일한 경우, 제1 카메라 모듈의 영상 취득 센서의 중심점과 제2 카메라 모듈의 영상 취득 센서의 중심점을 잇는 가상의 사선 상에 가운데 지점에 배치된 가상 카메라의 위치를 나타내는 값이다. 기준 거리 값 0에 위치한 가상 카메라는 피사체의 정면 영상을 취득할 수 있다.The reference distance value according to the embodiment of the present invention is 0 and the reference distance value 0 is a distance between the center point of the image acquisition sensor of the first camera module and the object L1 and the center point of the image acquisition sensor of the second camera module, Is a value indicating the position of the virtual camera disposed at the center point on a virtual slant line connecting the center point of the image acquisition sensor of the first camera module and the center point of the image acquisition sensor of the second camera module . The virtual camera located at the reference distance value 0 can acquire the frontal image of the subject.

본 발명의 실시예에 따른 거리 편차값(Deviation Of Distance, 이하 DOD)은 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내는 값이다.The Deviation Of Distance (DOD) according to the embodiment of the present invention is a value indicating the degree of distance of the virtual camera from the reference distance value 0.

또한, 본 발명의 실시예에 따른 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로하는 축소 거리 편차(Deviation Of Distance Reduction, 이하 DODR) 산출 방정식을 통해 산출될 수 있다.In addition, the distance deviation value according to the embodiment of the present invention may be calculated based on a Deviation Of Distance Reduction (DODR) calculating equation based on a specific camera module located at a close distance from a subject among the first camera module and the second camera module, Lt; / RTI >

본 발명의 실시예에 따른 축소 거리 편차 산출 방정식(DODR)은 하기와 같이 표현될 수 있다.The reduction distance deviation calculation equation (DODR) according to the embodiment of the present invention can be expressed as follows.

Figure 112014104323237-pat00031
Figure 112014104323237-pat00031

DODR은 거리 편차값, D1는 피사체와 가까운 거리에 위치한 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 피사체와 가까운 거리에 위치한 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module located close to the subject, and n is the size of the subject of the virtual camera composite image. m is used and is a point equal to the position of the virtual camera at a point where a position deviation value according to a distance between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero, The height of the image of the subject outputted by the RGB video signal output from the specific camera module located close to the subject and H2 is the height of the image of the subject outputted by the RGB video signal output from the remaining camera module Height.

또한, 본 발명의 실시예에 따른 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로하는 확대 거리 편차 산출(Deviation Of Distance Expansion, 이하 DODE) 방정식을 통해 산출될 수 있다.Further, the distance deviation value according to the embodiment of the present invention may be calculated by using a Deviation Of Distance Expansion (DODE) equation based on a specific camera module located at a distance from the subject, Lt; / RTI >

본 발명의 실시예에 따른 확대 거리 편차 산출 방정식(DODE)은 하기와 같이 표현될 수 있다.The enlargement distance deviation calculation equation (DODE) according to the embodiment of the present invention can be expressed as follows.

Figure 112014104323237-pat00032
Figure 112014104323237-pat00032

DODE는 거리 편차값, D2는 피사체와 먼 거리에 위치한 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module located at a distance from the subject, and n is the size of the subject of the virtual camera composite image. m is used and is a point equal to the position of the virtual camera at a point where a position deviation value according to a distance between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero, Is the height of the image of the subject outputted by the RGB video signal outputted from the other camera module other than the specific camera module and H2 is the height of the image of the subject outputted by the RGB video signal output from the specific camera module.

본 발명의 실시예에 따른 기준 위치값은 0을 가지며, 기준 위치값 0은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루는 경우, 제1 카메라 모듈의 영상 취득 센서의 중심점과 제2 카메라 모듈의 영상 취득 센서의 중심점을 잇는 가상의 사선 상에 가운데 지점에 배치된 가상 카메라의 위치를 나타내는 값이다. 기준 위치값 0에 위치한 가상 카메라는 피사체의 정면 영상을 취득할 수 있다.The reference position value according to the embodiment of the present invention has a value of 0 and the reference position value 0 is an angle formed by a straight line connecting the central point of the image acquisition sensor of the first camera module and the central point of the subject, When the angle formed by the straight line connecting the center point of the image acquisition sensor of the second camera module and the center point of the subject and the horizontal line is 15 degrees to 20 degrees, the center point of the image acquisition sensor of the first camera module, Is a value indicating the position of the virtual camera disposed at the center point on the virtual slant line connecting the center point of the image acquisition sensor of the camera. The virtual camera located at the reference position value 0 can acquire the frontal image of the subject.

본 발명의 실시예에 따른 위치 편차값(deviation of position, 이하 DOP)은 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내는 값이다.A deviation of position (DOP) according to an exemplary embodiment of the present invention is a value indicating the degree to which the position of the virtual camera is spaced from the reference position value 0. [

또한, 본 발명의 실시예에 따른 위치 편차값은 가상 카메라와 피사체를 잇는 직선과 수평선이 이루는 각도와 비례하여 증가할 수 있다. 예컨대, 가상 카메라와 피사체를 잇는 직선과 수평선이 이루는 각도가 플러스 각도이면, 가상 카메라가 제1 카메라 모듈 쪽에 위치한다. 반면, 가상 카메라와 피사체를 잇는 직선과 수평선이 이루는 각도가 마이너스 각도이면, 가상 카메라가 제2 카메라 모듈 쪽에 위치한다.Further, the positional deviation value according to the embodiment of the present invention may increase in proportion to the angle formed by the straight line connecting the virtual camera and the subject and the horizontal line. For example, if the angle between the straight line connecting the virtual camera and the subject and the horizontal line is positive, the virtual camera is positioned on the first camera module side. On the other hand, if the angle formed by the straight line connecting the virtual camera and the subject and the horizontal line is a negative angle, the virtual camera is located on the second camera module side.

또한, 본 발명의 실시예에 따른 위치 편차값은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다.In addition, the positional deviation value according to the embodiment of the present invention may be determined by the angle formed by the straight line connecting the central point of the image acquisition sensor of the first camera module and the central point of the subject and the horizontal line, and the center point of the image acquisition sensor of the second camera module, Can be calculated from the angle formed by the straight line connecting the center point and the horizontal line.

이하 첨부된 도면을 참조하여 본 발명의 실시예에 따른 가상 카메라 제어 장치 및 방법에 대하여 설명하기로 한다.Hereinafter, an apparatus and method for controlling a virtual camera according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 실시예에 따른 가상 카메라의 제어 장치를 도시하는 블록도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 가상 카메라의 제어 장치(100)는 카메라부(110), 입력부(120), 저장부(130), 영상 신호 출력부(140) 및 제어부(150)를 포함할 수 있다.1 is a block diagram showing a control apparatus of a virtual camera according to an embodiment of the present invention. 1, a control apparatus 100 for a virtual camera according to an exemplary embodiment of the present invention includes a camera unit 110, an input unit 120, a storage unit 130, a video signal output unit 140, and a controller 150 ).

카메라부(110)는 제1 카메라 모듈(110-1) 및 제2 카메라 모듈(110-2)을 포함할 수 있다.The camera unit 110 may include a first camera module 110-1 and a second camera module 110-2.

제1 카메라 모듈(110-1)은 제어부(150)의 제어에 따라 제2 카메라 모듈(110-2)과 동일한 피사체를 대상으로 촬영을 수행하여 제1 RGB 영상 신호를 생성하고, 생성된 제1 RGB 영상 신호를 제어부(150)의 영상 신호 처리부(152)로 실시간 전달할 수 있다.The first camera module 110-1 generates a first RGB video signal by photographing the same object as the second camera module 110-2 under the control of the controller 150, RGB video signal to the video signal processing unit 152 of the control unit 150 in real time.

또한, 제1 카메라 모듈(110-1)은 제1 카메라 모듈(110-1)의 영상 취득 센서의 중심점과 제2 카메라 모듈(110-2)의 영상 취득 센서의 중심점을 서로 잇는 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향에 형성될 수 있다.The first camera module 110-1 has a virtual oblique line connecting the center point of the image acquisition sensor of the first camera module 110-1 and the center point of the image acquisition sensor of the second camera module 110-2 Lt; / RTI > An imaginary oblique line can be formed in the upper direction with respect to the horizontal line.

또한, 제1 카메라 모듈(110-1)은 제1 카메라 모듈(110-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 15도 내지 20도 각도 범위를 이루는 위치에 배치될 수 있다.In addition, the first camera module 110-1 is located at a position in a range of 15 to 20 degrees formed by a straight line connecting the central point of the image acquisition sensor of the first camera module 110-1 and the central point of the subject, .

제2 카메라 모듈(110-2)은 제어부(150)의 제어에 따라 제1 카메라 모듈(110-1)과 동일한 피사체를 대상으로 촬영을 수행하여 제2 RGB 영상 신호를 생성하고, 생성된 제2 RGB 영상 신호를 제어부(150)의 영상 신호 처리부(152)로 실시간 전달할 수 있다.The second camera module 110-2 generates a second RGB video signal by capturing an object of the same object as the first camera module 110-1 under the control of the controller 150, RGB video signal to the video signal processing unit 152 of the control unit 150 in real time.

또한, 제2 카메라 모듈(110-2)은 제2 카메라 모듈(110-2)의 영상 취득 센서의 중심점과 제1 카메라 모듈(110-1)의 영상 취득 센서의 중심점을 서로 잇는 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향에 형성될 수 있다.The second camera module 110-2 has a virtual oblique line connecting the center point of the image acquisition sensor of the second camera module 110-2 and the center point of the image acquisition sensor of the first camera module 110-1 Lt; / RTI > An imaginary oblique line can be formed in the upper direction with respect to the horizontal line.

또한, 제2 카메라 모듈(110-2)은 제2 카메라 모듈(110-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 -15도 내지 -20도 각도 범위를 이루는 위치에 배치될 수 있다.In addition, the second camera module 110-2 has a range of -15 degrees to -20 degrees formed by a straight line connecting the central point of the image acquisition sensor of the second camera module 110-2 and the central point of the subject, Position.

입력부(120)는 제어부(150)의 제어에 따라 표시부(미도시)를 통해 표출되는 복수 개의 합성 영상 신호 중 사용자에 의해 선택된 하나의 합성 영상을 나타내는 사용자 선택 신호를 수신할 수 있다.The input unit 120 may receive a user selection signal indicating one composite image selected by the user among a plurality of composite video signals displayed through a display unit (not shown) under the control of the controller 150. [

저장부(130)는 편차 고정 제어 값 및 편차별 제어 테이블을 미리 저장할 수 있다. The storage unit 130 may previously store the deviation fixing control value and the difference discrimination control table.

편차 고정 제어 값은 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함할 수 있다.The deviation fixed control value may include a distance deviation value and a position deviation value which are parameter information for controlling the virtual camera.

편차별 제어 테이블은 가상 카메라를 제어하는 임의의 파라미터 정보인 거리 테이블 값 및 위치 테이블 값을 포함할 수 있다. The difference discrimination control table may include a distance table value and a position table value which are arbitrary parameter information for controlling the virtual camera.

거리 테이블 값은 복수 개의 거리 편차값을 포함할 수 있다. 복수 개의 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로하는 축소 거리 편차 산출 방정식을 통해 복수 개가 산출될 수 있다. 축소 거리 편차 산출 방정식을 통해 산출된 복수 개의 거리 편차값은 저장부(130)에 미리 저장될 수 있다.The distance table value may include a plurality of distance deviation values. A plurality of distance deviation values may be calculated through a shrinkage distance deviation calculating equation based on a specific camera module located at a close distance from the subject among the first camera module and the second camera module. The plurality of distance deviation values calculated through the reduction distance deviation calculation equation may be stored in the storage unit 130 in advance.

또한, 복수 개의 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로하는 확대 거리 편차 산출 방정식을 통해 복수 개가 산출될 수 있다. 축소 거리 편차 산출 방정식을 통해 산출된 복수 개의 거리 편차값은 저장부(130)에 미리 저장될 수 있다.In addition, a plurality of distance deviation values may be calculated through an enlarged distance deviation calculation equation based on a specific camera module located at a distance from the subject, among the first camera module and the second camera module. The plurality of distance deviation values calculated through the reduction distance deviation calculation equation may be stored in the storage unit 130 in advance.

위치 테이블 값은 복수 개의 위치 편차값을 포함할 수 있다. 복수 개의 위치 편차값은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다. 산출된 복수 개의 위치 편차값은 저장부(130)에 미리 저장될 수 있다.The position table value may include a plurality of position deviation values. The plurality of positional deviation values are obtained by dividing an angle formed by a straight line and a horizontal line connecting the center point of the image acquisition sensor of the first camera module and the subject and a straight line connecting the center point of the image acquisition sensor of the second camera module and the center point of the subject and a horizontal line Can be calculated from the angle formed. The calculated plurality of positional deviation values may be stored in the storage unit 130 in advance.

또한, 저장부(130)는 피사체와 제1 카메라 모듈 간의 거리 값(L1), 피사체와 제2 카메라 모듈 간의 거리 값(L2), 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 미리 저장할 수 있다. 예컨대, 피사체와 제1 카메라 모듈 간의 거리 값(L1), 피사체와 제2 카메라 모듈 간의 거리 값(L2), 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도는 입력부(120)를 통해 각각 수신되어 저장부(130)에 미리 저장될 수 있으며, 제1 카메라 모듈(110-1) 및 제2 카메라 모듈(110-2)의 위치 변경 시 새로운 값으로 갱신될 수 있다. The storage unit 130 stores the distance L1 between the subject and the first camera module, the distance L2 between the subject and the second camera module, the angle between the straight line connecting the first camera module and the subject and the horizontal line, The angle between the straight line connecting the second camera module and the subject and the horizontal line can be stored in advance. For example, the distance L1 between the subject and the first camera module, the distance L2 between the subject and the second camera module, the angle between the straight line connecting the first camera module and the subject and the horizontal line, The angle formed between the straight line and the horizontal line connecting the first camera module 110-1 and the second camera module 110-2 may be received through the input unit 120 and stored in advance in the storage unit 130, It can be updated to a new value at the time of the change of the position.

또한, 피사체와 제1 카메라 모듈 간의 거리 값(L1)과 피사체와 제2 카메라 모듈 간의 거리 값(L2)은 제1 카메라 모듈(110-1) 및 제2 카메라 센서 모듈(110-2)에 각각 구비된 거리 센서(미도시)를 통해 제어부(150)가 측정하고, 측정된 각각의 거리값을 저장부(130)에 저장할 수 있다.The distance value L1 between the subject and the first camera module and the distance L2 between the subject and the second camera module are set to the first camera module 110-1 and the second camera sensor module 110-2, The control unit 150 may measure the distance values through the provided distance sensors (not shown), and store the measured distance values in the storage unit 130.

제어부(150)는 영상 신호 처리 제어부(151), 영상 신호 처리부(152), 영상 신호 합성부(153) 및 가상 카메라 설정부(154)를 포함할 수 있다.The control unit 150 may include a video signal processing control unit 151, a video signal processing unit 152, a video signal synthesizing unit 153, and a virtual camera setting unit 154.

먼저, 제어부(150)의 영상 신호 처리 제어부(151)는 카메라부(110)에 구비된 제1 카메라 모듈(110-1)과 제2 카메라 모듈(110-2)이 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 생성하여 영상 신호 처리 제어부(151)로 출력하도록 제어할 수 있다. First, the video signal processing controller 151 of the controller 150 controls the first camera module 110-1 and the second camera module 110-2 provided in the camera unit 110 to output the first RGB video signal and 2 RGB video signals to be output to the video signal processing control unit 151. [

그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(130)에 편차 고정 제어값이 미리 저장되어 있는지 판단할 수 있다.Thereafter, the video signal processing control unit 151 of the control unit 150 can determine whether the deviation fixing control value is stored in the storage unit 130 in advance.

상기 판단 결과, 편차 고정 제어값이 미리 저장되어 있는 경우, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(130)로부터 미리 저장된 편차 고정 제어값을 추출할 수 있다.As a result of the determination, if the deviation fixing control value is stored in advance, the video signal processing controller 151 of the controller 150 may extract the deviation fixing control value stored in advance from the storage unit 130. [

그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 카메라부(110)로부터 출력되는 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 대상으로 추출된 편차 고정 제어값을 반영하여, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 생성하고, 생성된 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 영상 신호 처리부(152)로 실시간 출력할 수 있다. 예컨대, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호는 제1 카메라 모듈(110-1)과 제2 카메라 모듈(110-2) 사이를 잇는 가상의 사선 상의 특정 지점에 위치하는 가상 카메라에서 피사체를 대상으로 촬영된 영상 신호와 동일한 영상 신호를 생성하기 위해 합성에 사용되는 영상 신호들이다. 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호는 피사체를 대상으로 촬영하는 가상 카메라의 화각과 최종 출력되는 피사체의 영상의 크기가 조정된 영상 신호의 정보를 각각 포함할 수 있다.Thereafter, the video signal processing control unit 151 of the control unit 150 reflects the deviation fixed control values extracted for each of the first RGB video signal and the second RGB video signal output from the camera unit 110, 1 virtual camera RGB video signal and the second virtual camera RGB video signal, and output the generated first virtual camera RGB video signal and second virtual camera RGB video signal to the video signal processing unit 152 in real time. For example, the first virtual camera RGB video signal and the second virtual camera RGB video signal are transmitted to the first camera module 110-1 and the second camera module 110-2, The image signals used in the synthesis to generate the same image signal as the image signal photographed by the camera on the subject. The first virtual camera RGB video signal and the second virtual camera RGB video signal may each include information of a view angle of a virtual camera that photographs a subject and information of a video signal whose size of an image of a finally outputted subject is adjusted.

그 후, 제어부(150)의 영상 처리 신호부(152)는 영상 신호 처리 제어부(151)로부터 수신받은 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호들로부터 제1 가상 카메라 휘도 신호, 제1 가상 카메라 색차 신호, 제2 가상 카메라 휘도 신호 및 제2 가상 카메라 색차 신호를 각각 실시간 생성할 수 있다. 예컨대, 제어부(150)의 영상 신호 처리부(152)는 영상 신호 처리 제어부(151)로부터 전달되는 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 휘도 신호 및 제1 가상 카메라 색차 신호를 실시간 생성할 수 있다. 제1 가상 카메라 색차 신호는 제1 가상 카메라 RY 색차 신호, 제1 가상 카메라 GY 색차 신호 및 제1 가상 카메라 BY 색차 신호를 포함할 수 있다. 또한, 제어부(150)의 영상 신호 처리부(152)는 영상 신호 처리 제어부(151)로부터 전달되는 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 휘도 신호 및 제2 가상 카메라 색차 신호를 실시간 생성할 수 있다. 제2 가상 카메라 색차 신호는 제2 가상 카메라 RY 색차 신호, 제2 가상 카메라 GY 색차 신호 및 제2 가상 카메라 BY 색차 신호를 포함할 수 있다.Then, the image processing signal unit 152 of the control unit 150 receives the first virtual camera luminance signal, the second virtual camera RGB image signal, and the second virtual camera RGB image signal from the first virtual camera RGB image signal and the second virtual camera RGB image signal received from the image signal processing control unit 151, The first virtual camera color difference signal, the second virtual camera luminance signal, and the second virtual camera color difference signal, respectively, in real time. for example, The video signal processing unit 152 of the control unit 150 can generate the first virtual camera luminance signal and the first virtual camera color difference signal in real time from the first virtual camera RGB video signal transmitted from the video signal processing control unit 151. [ The first virtual camera color difference signal may include a first virtual camera RY color difference signal, a first virtual camera GY color difference signal, and a first virtual camera BY color difference signal. The video signal processing unit 152 of the control unit 150 may generate the second virtual camera luminance signal and the second virtual camera color difference signal from the second virtual camera RGB video signal transmitted from the video signal processing control unit 151 in real time have. The second virtual camera color difference signal may include a second virtual camera RY color difference signal, a second virtual camera GY color difference signal, and a second virtual camera BY color difference signal.

그 후, 제어부(150)의 영상 신호 처리부(152)는 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 실시간 생성할 수 있다. 예컨대, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 휘도 신호와 제2 가상 카메라 휘도 신호 간의 차이를 산출하여, 두 신호 간의 차이를 나타내는 가상 카메라 휘도 신호 차이값을 실시간 생성하고, 생성된 가상 카메라 휘도 신호 차이값으로부터 가상 카메라 휘도 신호 보정값을 실시간 생성할 수 있다. 가상 카메라 휘도 신호 보정값은 두 신호 간의 차이가 없어지도록 보정하기 위한 값이다. 또한, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 색차 신호와 제2 가상 카메라 색차 신호 간의 차이를 산출하여, 두 신호 간의 차이를 나타내는 가상 카메라 색차 신호 차이값을 실시간 생성하고, 생성된 가상 카메라 색차 신호 차이값으로부터 가상 카메라 색차 신호 보정값을 실시간 생성할 수 있다. 가상 카메라 색차 신호 보정값은 두 신호 간의 차이가 없어지도록 보정하기 위한 값이다.Thereafter, the video signal processing unit 152 of the control unit 150 can generate the virtual camera luminance signal correction value and the virtual camera color difference signal correction value in real time. For example, the video signal processor 152 of the controller 150 calculates the difference between the first virtual camera luminance signal and the second virtual camera luminance signal, generates a virtual camera luminance signal difference value indicating the difference between the two signals in real time, The virtual camera luminance signal correction value can be generated in real time from the generated virtual camera luminance signal difference value. The virtual camera luminance signal correction value is a value for correcting to eliminate the difference between the two signals. The video signal processing unit 152 of the control unit 150 calculates the difference between the first virtual camera color difference signal and the second virtual camera color difference signal to generate a virtual camera color difference signal difference value representing the difference between the two signals in real time, The virtual camera color difference signal correction value can be generated in real time from the generated virtual camera color difference signal difference value. The virtual camera color difference signal correction value is a value for correcting the difference between the two signals.

또한, 제어부(150)의 영상 신호 처리부(152)는 실시간 생성되는 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 저장부(130)에 저장할 수 있다. 저장부(130)에 저장된 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값은 제어부(150)의 영상 신호 처리부(152)가 새로운 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값의 생성 시간을 단축하기 위한 참조값으로 사용될 수 있다.The video signal processor 152 of the control unit 150 may store the virtual camera luminance signal correction value and the virtual camera color difference signal correction value generated in real time in the storage unit 130. [ The virtual camera luminance signal correction value and the virtual camera color difference signal correction value stored in the storage unit 130 are stored in the storage unit 130 so that the video signal processing unit 152 of the controller 150 generates a new virtual camera luminance signal correction value and a virtual camera color difference signal correction value generation time Can be used as a reference value for shortening the time.

그 후, 제어부(150)의 영상 신호 처리부(152)는 생성된 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값으로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성할 수 있다. 예컨대, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 휘도 신호 및 제2 가상 카메라 휘도 신호를 대상으로 생성된 가상 카메라 휘도 신호 보정값을 반영하여 보정된 제1 가상 카메라 휘도 신호 및 보정된 제2 가상 카메라 휘도 신호를 각각 생성할 수 있다. 또한, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 색차 신호 및 제2 가상 카메라 색차 신호를 대상으로 생성된 가상 카메라 색차 신호 보정값을 반영하여 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성할 수 있다.Thereafter, the video signal processing unit 152 of the control unit 150 receives the first virtual camera luminance signal, the corrected second virtual camera luminance signal, the corrected first virtual camera luminance signal, and the corrected second virtual camera luminance signal, which are corrected from the generated virtual camera luminance signal correction value and the virtual camera color difference signal correction value, The first virtual camera color difference signal and the corrected second virtual camera color difference signal, respectively. For example, the video signal processing unit 152 of the control unit 150 receives the first virtual camera luminance signal, which is corrected by reflecting the virtual camera luminance signal correction value generated for the first virtual camera luminance signal and the second virtual camera luminance signal, And generate the corrected second virtual camera luminance signal, respectively. In addition, the video signal processor 152 of the controller 150 receives the first virtual camera color difference signal, which is corrected by reflecting the virtual camera color difference signal correction value generated for the first virtual camera color difference signal and the second virtual camera color difference signal, And generate the corrected second virtual camera color difference signal.

그 후, 제어부(150)의 영상 신호 처리부(152)는 생성된 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 영상 신호 합성부(153)로 전달할 수 있다.Thereafter, the video signal processing unit 152 of the control unit 150 outputs the corrected first virtual camera luminance signal, the corrected second virtual camera luminance signal, the corrected first virtual camera color difference signal, and the corrected second virtual camera luminance signal, And may transmit the color difference signal to the image signal synthesis unit 153.

그 후, 제어부(150)의 영상 신호 합성부(153)는 영상 신호 처리부(152)로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들을 전달받아, 전달받은 신호들이 합성된 하나의 영상 신호인 가상 카메라 합성 영상 신호를 실시간 생성할 수 있다.Thereafter, the video signal synthesis unit 153 of the control unit 150 receives the first virtual camera luminance signal, the corrected second virtual camera luminance signal, the corrected first virtual camera color difference signal, and the corrected first virtual camera luminance signal from the video signal processing unit 152, The second virtual camera color difference signals are received and the virtual camera composite video signal, which is one video signal in which the received signals are synthesized, can be generated in real time.

또한, 제어부(150)의 영상 신호 합성부(153)는 생성된 가상 카메라 합성 영상 신호를 대상으로 가상 카메라 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the video signal synthesis unit 153 of the control unit 150 may further perform a layout correction processing operation in consideration of the layout of an image finally output from the virtual camera composite video signal, with respect to the generated virtual camera composite video signal have.

그 후, 제어부(150)의 영상 신호 합성부(153)는 생성된 가상 카메라 합성 영상 신호를 영상 신호 출력부(140)에 구비된 가상 카메라 영상 신호 출력부(140-1)로 실시간 전달할 수 있다.Thereafter, the video signal composition unit 153 of the control unit 150 can transmit the generated virtual camera composite video signal to the virtual camera video signal output unit 140-1 provided in the video signal output unit 140 in real time .

영상 신호 출력부(140)는 가상 카메라 영상 신호 출력부(140-1) 및 합성 영상 신호 출력부(140-2)를 포함할 수 있다.The video signal output unit 140 may include a virtual camera video signal output unit 140-1 and a composite video signal output unit 140-2.

가상 카메라 영상 신호 출력부(140-1)는 제어부(150)의 제어에 따라 영상 신호 합성부(153)로부터 가상 카메라 합성 영상 신호를 실시간 전달받고, 전달받은 가상 카메라 합성 영상 신호를 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경하여 표시부(미도시)로 출력할 수 있다.The virtual camera video signal output unit 140-1 receives the virtual camera composite video signal in real time from the video signal synthesis unit 153 under the control of the control unit 150 and outputs the received virtual camera composite video signal to the CVBS Banking Sync, HDMI (High Definition Multimedia Interface), and VGA (Video Graphics Array), and outputs the video standard to a display unit (not shown).

한편, 편차 고정 제어값이 미리 저장되어 있지 않은 경우, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 임의의 위치 편차값 및 임의의 거리 편차값을 각각 추출할 수 있다.On the other hand, when the deviation fixing control value is not stored in advance, the video signal processing control section 151 of the control section 150 obtains a position deviation value and an arbitrary distance deviation from the deviation difference control table stored in advance in the storage section 130 Values can be respectively extracted.

임의의 위치 편차값은 편차별 제어 테이블에 포함된 위치 테이블값으로부터 추출될 수 있다. 또한, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(150)에 미리 저장된 제1 카메라 모듈(110-1)과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈(110-2)과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 임의의 위치 편차값을 편차별 제어 테이블로부터 추출할 수 있다.Any position deviation value can be extracted from the position table value included in the deviation discrimination control table. The image signal processing controller 151 of the controller 150 controls the angle formed between the straight line connecting the first camera module 110-1 stored in the storage unit 150 and the subject and the horizontal line, -2) and an angle formed by a straight line connecting the subject and the horizontal line, an arbitrary position deviation value can be extracted from the deviation discrimination control table.

임의의 거리 편차값은 편차별 제어 테이블에 포함된 거리 테이블값으로부터 추출될 수 있다. 또한, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(150)에 미리 저장된 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 임의의 거리 편차값을 편차별 제어 테이블로부터 추출할 수 있다. Any distance deviation value can be extracted from the distance table value included in the deviation discrimination control table. The video signal processing control unit 151 of the control unit 150 controls the video signal processing controller 151 to reflect the distance L1 between the first camera module and the subject stored in advance in the storage unit 150 and the distance L2 between the second camera module and the subject, Can be extracted from the deviation discrimination control table.

그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 추출된 임의의 위치 편차값 및 임의의 거리 편차값을 포함하는 임의의 편차 제어값을 생성할 수 있다. Thereafter, the video signal processing control unit 151 of the control unit 150 may generate an arbitrary deviation control value including the extracted arbitrary position deviation value and an arbitrary distance deviation value.

그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 추출된 임의의 편차 제어값을 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 각각 반영하여, 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호를 각각 생성할 수 있다.Thereafter, the video signal processing control unit 151 of the control unit 150 reflects the extracted arbitrary deviation control values to the first RGB video signal and the second RGB video signal, respectively, 1 RGB video signal and a second RGB video signal in which an arbitrary deviation control value is reflected.

그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 생성된 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호를 영상 신호 처리부(152)로 전달할 수 있다.Then, the video signal processing controller 151 of the controller 150 outputs the first RGB video signal reflecting the generated deviation control value and the second RGB video signal reflecting the arbitrary deviation control value to the video signal processor 152, .

그 후, 제어부(150)의 영상 신호 처리부(152)는 전달받은 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호들로부터 제1 휘도 신호, 제1 색차 신호, 제2 휘도 신호 및 제2 색차 신호를 각각 실시간 생성할 수 있다.Thereafter, the video signal processing unit 152 of the control unit 150 receives the first RGB video signal from which the received arbitrary deviation control value is reflected, and the first luminance signal from the second RGB video signals in which the arbitrary deviation control value is reflected, The first chrominance signal, the second chrominance signal, and the second chrominance signal in real time.

그 후, 제어부(150)의 영상 신호 처리부(152)는 휘도 신호 보정값 및 색차 신호 보정값을 실시간 생성할 수 있다.Thereafter, the video signal processing unit 152 of the control unit 150 can generate the luminance signal correction value and the color difference signal correction value in real time.

그 후, 제어부(150)의 영상 신호 처리부(152)는 생성된 휘도 신호 보정값 및 색차 신호 보정값으로부터 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성할 수 있다.Thereafter, the video signal processing unit 152 of the control unit 150 outputs the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected first luminance signal, which have been corrected from the generated luminance signal correction value and the color difference signal correction value, The second color difference signal can be generated.

또한, 제어부(150)의 영상 신호 처리부(152)는 생성된 휘도 보정값 및 색차 보정값을 저장부(130)에 실시간 저장할 수 있다.In addition, the image signal processor 152 of the control unit 150 may store the generated luminance correction value and color difference correction value in the storage unit 130 in real time.

그 후, 제어부(150)의 영상 신호 처리부(152)는 보정된 제1 휘도 신호, 보정된 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들을 영상 신호 합성부(152)로 전달할 수 있다.Thereafter, the video signal processing unit 152 of the control unit 150 transmits the corrected first luminance signal, the corrected luminance signal, the corrected first color difference signal, and the corrected second color difference signals to the video signal synthesis unit 152 .

그 후, 제어부(150)의 영상 신호 합성부(152)는 전달받은 보정된 제1 휘도 신호, 보정된 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 실시간 생성할 수 있다.Thereafter, the image signal synthesis unit 152 of the control unit 150 generates an image signal S 1, S 2, S 1, S 2, S 3, S 4, S 5, S 6, Can be generated in real time.

또한, 제어부(150)의 영상 신호 합성부(152)는 생성된 합성 영상 신호를 대상으로 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the video signal synthesis unit 152 of the control unit 150 may further perform a layout correction processing operation in consideration of the layout of an image finally output from the composite video signal for the generated composite video signal.

그 후, 제어부(150)는 생성된 합성 영상 신호를 영상 신호 출력부(140)의 합성 영상 신호 출력부(140-2)로 실시간 전달할 수 있다.Thereafter, the control unit 150 can transmit the generated composite video signal to the composite video signal output unit 140-2 of the video signal output unit 140 in real time.

그 후, 제어부(150)는 합성 영상 신호 출력부(140-2)를 통해 합성 영상 신호가 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경되어 표시부(미도시)로 출력되도록 제어할 수 있다.Thereafter, the control unit 150 controls the composite video signal output unit 140-2 so that the composite video signal is transmitted through at least one of CVBS (Composite Video Banking Sync), HDMI (High Definition Multimedia Interface), and VGA It can be controlled so as to be changed to the video standard and output to the display unit (not shown).

그 후, 제어부(150)의 가상 카메라 설정부(154)는 입력부(120)를 통해 사용자 선택 신호가 수신되었는지 판단할 수 있다. 사용자 선택 신호는 표시부(미도시)로 출력되는 복수 개의 합성 영상 신호 중 사용자에 의해 선택된 하나의 합성 영상을 나타내는 정보를 포함할 수 있다.Thereafter, the virtual camera setting unit 154 of the control unit 150 transmits, via the input unit 120, It can be determined whether a user selection signal has been received. The user selection signal may include information indicating one composite image selected by the user among a plurality of composite video signals output to the display unit (not shown).

상기 판단 결과, 사용자 선택 신호가 수신된 경우, 제어부(150)의 가상 카메라 설정부(154)는 사용자 선택 신호에 따라 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 추출할 수 있다.If the user selection signal is received, the virtual camera setting unit 154 of the controller 150 stores the position deviation value and the distance deviation value corresponding to the selected composite video signal in the storage unit 130 according to the user selection signal, From the previously stored difference discrimination control table.

또한, 제어부(150)의 가상 카메라 설정부(154)는 추출된 위치 편차값과 거리 편차값을 포함하는 편차 고정 제어값을 생성하여 저장부(130)에 저장 또는 갱신할 수 있다. In addition, the virtual camera setting unit 154 of the control unit 150 may generate and store the deviation deviation control value including the extracted position deviation value and the distance deviation value in the storage unit 130 or update it.

한편, 사용자 선택 신호가 수신되지 않은 경우, 제어부(150)의 가상 카메라 설정부(154)는 현재 사용된 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하여, 사용자 선택 신호 판단을 수행하기 전까지의 처리를 재수행할 수 있다. 예컨대, 제어부(150)의 가상 카메라 설정부(154)는 현재 사용된 임의의 편차 제어값에 포함된 거리 편차값이 0이고 위치 편차값이 0이라면, 저장부(130)의 편차별 제어 테이블로부터 1의 값을 가지는 거리 편차값 및 1의 값을 가지는 위치 편차값을 추출하여 새로운 임의의 편차 제어값을 생성할 수 있다.On the other hand, when no user selection signal is received, the virtual camera setting unit 154 of the control unit 150 newly generates an arbitrary deviation control value different from the arbitrary deviation control value currently used, The processing before the execution can be re-executed. For example, if the distance deviation value included in any deviation control value currently used is 0 and the position deviation value is 0, the virtual camera setting unit 154 of the control unit 150 determines A new deviation control value can be generated by extracting a distance deviation value having a value of 1 and a position deviation value having a value of 1.

한편, 상기 가상 카메라의 제어 장치(100)의 각각의 구성요소들은 기능 및 논리적으로 분리될 수 있음을 나타나기 위해 별도로 도면에 표시한 것이며, 물리적으로 반드시 별도의 구성요소이거나 별도의 코드로 구현되는 것을 의미하는 것은 아니다.In the meantime, each component of the control device 100 of the virtual camera is separately shown in the drawing to show that it can be functionally and logically separated, and is physically separate component or implemented as a separate code It does not mean anything.

그리고 본 명세서에서 각 기능부라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부는 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술 분야의 평균적 전문가에게는 용이하게 추론될 수 있다. In this specification, each function means a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, each functional unit may refer to a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and may be a code physically connected to the functional unit, But can be easily deduced to the average expert in the field of the invention.

도 2는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 가상 카메라의 배치를 나타내는 예시도이다. 도 2를 참조하면, 먼저, 본 발명의 실시예에 다른 제1 카메라 모듈(210-1)은 수평선과 평행한 가상의 수평선상에 설치되며, 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)은 가상의 사선으로 서로 이어질 수 있다. 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 가상의 사선 상에는 복수 개의 가상의 카메라(210-3)들은 서로 등간격을 유지하도록 배치될 수 있다.FIG. 2 is an exemplary view showing the arrangement of a virtual camera when first and second camera modules according to an embodiment of the present invention are located on an oblique line; FIG. 2, the first camera module 210-1 according to the embodiment of the present invention is installed on an imaginary horizontal line parallel to the horizontal line, and the first camera module 210-1 and the second camera module 210-1, Module 210-2 may be connected to each other in a virtual diagonal line. A plurality of virtual cameras 210-3 may be arranged to be spaced apart from each other on a virtual slant line connecting the first camera module 210-1 and the second camera module 210-2.

도 3은 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 제1 및 제2 카메라 모듈에서 출력되는 각각의 영상과 가상 카메라를 통해 생성되는 영상을 나타내는 예시도이다. 도 3을 참조하면, 먼저, 본 발명의 실시예에 따른 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)은 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향으로 연장되어 형성될 수 있다. FIG. 3 is a diagram illustrating an example of an image generated through a virtual camera and an image output from the first and second camera modules, respectively, when the first and second camera modules according to an embodiment of the present invention are located on a diagonal line. . Referring to FIG. 3, the first camera module 210-1 and the second camera module 210-2 according to the embodiment of the present invention may be located on a virtual diagonal line. The hypothetical oblique line can be formed extending in the upward direction with respect to the horizontal line.

또한, 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점은 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점보다 피사체(230)의 중심점에 더 가까운 거리에 위치할 수 있다. The center point of the image capturing sensor of the first camera module 210-1 may be located closer to the center point of the subject 230 than the center point of the image capturing sensor of the second camera module 210-2.

또한, 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 형성할 수 있다.An angle formed by a straight line connecting the central point of the image acquisition sensor of the first camera module 210-1 and the central point of the subject and the horizontal line forms an angle of 15 to 20 degrees and the image of the second camera module 210-2 The angle formed by the straight line connecting the center point of the acquisition sensor and the center point of the subject and the horizontal line can be 15 degrees to 20 degrees.

제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 가상의 사선 상에 복수 개의 가상 카메라(210-3)들이 각각 등간격을 유지하며 배치될 수 있다.A plurality of virtual cameras 210-3 may be disposed at equal intervals on a virtual slant line connecting the first camera module 210-1 and the second camera module 210-2.

복수 개의 가상 카메라(210-3)들 중 가운데 위치한 가상 카메라를 기준으로 상부 방향에 배치되는 적어도 하나의 가상 카메라는 제1 카메라 모듈(210-1) 쪽에 배치될 수 있다.At least one virtual camera disposed in the upper direction with respect to the virtual camera positioned at the center among the plurality of virtual cameras 210-3 may be disposed on the first camera module 210-1.

또한, 복수 개의 가상 카메라(210-3)들 중 가운데 위치한 가상 카메라를 기준으로 하부 방향에 배치되는 적어도 하나의 가상 카메라는 제2 카메라 모듈(210-2) 쪽에 배치될 수 있다.In addition, at least one virtual camera disposed in the lower direction with respect to the virtual camera positioned at the center among the plurality of virtual cameras 210-3 may be disposed on the side of the second camera module 210-2.

제1 카메라 모듈(210-1)은 피사체(230)의 상부면이 포함된 제1 카메라 모듈의 출력 영상(220-1)을 출력할 수 있다.The first camera module 210-1 may output the output image 220-1 of the first camera module including the upper surface of the subject 230. [

제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이가 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이보다 더 짧으므로, 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지의 폭(width)은 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지의 폭보다 더 큰 값을 가질 수 있다. 따라서 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지는 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지에 비해 확대된 이미지를 가질 수 있다. The length of a straight line connecting the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject is shorter than the length of the straight line connecting the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject The width of the image of the subject 230 finally output by the output image 220-1 of the first camera module is finally output by the output image 220-2 of the second camera module And may have a value larger than the width of the image of the subject 230. [ Accordingly, the image of the subject 230 that is finally output by the output image 220-1 of the first camera module is compared with the image of the subject 230 that is finally output by the output image 220-2 of the second camera module It may have an enlarged image.

제2 카메라 모듈(210-2)은 피사체(230)의 하부면이 포함된 제2 카메라 모듈의 출력 영상(220-2)을 출력할 수 있다.The second camera module 210-2 may output the output image 220-2 of the second camera module including the lower surface of the subject 230. [

제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이가 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이보다 더 길기 때문에, 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지의 폭은 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지의 폭보다 더 작은 값을 가질 수 있다. 따라서 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지는 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지에 비해 축소된 이미지를 가질 수 있다.The length of a straight line connecting the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject is shorter than the length of the straight line connecting the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject The width of the image of the subject 230 that is finally output by the output image 220-2 of the second camera module is shorter than the width of the subject 230 that is finally output by the output image 220-1 of the first camera module Quot;) < / RTI > The image of the subject 230 finally output by the output image 220-2 of the second camera module is compared with the image of the subject 230 which is finally output by the output image 220-1 of the first camera module You can have a reduced image.

복수 개의 가상 카메라(210-3)가 출력하는 복수 개의 가상 카메라 합성 영상 (220-3) 중 하나는 피사체(230)의 정면부를 포함하는 영상을 출력할 수 있다. One of the plurality of virtual camera composite images 220-3 output by the plurality of virtual cameras 210-3 may output an image including a front portion of the subject 230. [

복수 개의 가상 카메라(210-3)가 출력하는 복수 개의 가상 카메라 합성 영상 (220-3) 중 최상부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지의 폭은 최하부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지의 폭보다 큰 값을 가질 수 있다. 따라서 최상부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지는 최하부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지에 비해 확대된 이미지를 가질 수 있다. The width of the image of the subject 230, which is finally output by the virtual camera located at the top of the plurality of virtual camera composite images 220-3 output from the plurality of virtual cameras 210-3, And may have a value larger than the width of the image of the subject 230 that is finally output. Therefore, the image of the subject 230, which is finally output by the virtual camera located at the uppermost position, can have an enlarged image as compared with the image of the subject 230 which is finally output by the virtual camera located at the lowermost position.

반면, 최하부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지는 최상부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지에 비해 축소된 이미지를 가질 수 있다.On the other hand, the image of the subject 230 that is finally output by the virtual camera located at the lowermost portion may have a reduced image compared to the image of the subject 230 that is finally output by the virtual camera located at the topmost position.

도 4는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 발생하는 거리 편차를 나타내는 예시도이다. 도 4를 참조하면, 먼저, 본 발명의 실시예에 다른 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)는 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)보다 더 짧다. FIG. 4 is a diagram illustrating distance deviations occurring when first and second camera modules according to an embodiment of the present invention are located on a diagonal line; FIG. Referring to Figure 4, The distance L1 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230 according to the embodiment of the present invention is smaller than the distance L1 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230, Is shorter than the distance L2 between the center point of the subject 230 and the center point of the subject 230.

반면, 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)는 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)보다 더 길다.The distance L2 between the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject 230 is longer than the distance L2 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230. [ Is longer than the distance Ll between the center points of the center of gravity.

제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 형성한다.The angle formed by the straight line connecting the central point of the image acquisition sensor of the first camera module 210-1 and the central point of the subject and the horizontal line is 15 degrees to 20 degrees and the image acquisition sensor of the second camera module 210-2 The angle formed by the straight line connecting the center point of the subject and the center point of the subject and the horizontal line forms 15 to 20 degrees.

제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 가상의 사선 상에 복수 개의 가상 카메라(210-3)가 등간격을 유지하며 배치될 수 있다.A plurality of virtual cameras 210-3 may be arranged on an imaginary slant line connecting the first camera module 210-1 and the second camera module 210-2 while maintaining equal intervals.

제1 카메라 모듈(210-1)은 피사체(230)의 상부면이 포함된 제1 카메라 모듈의 출력 영상(220-1)을 출력할 수 있다.The first camera module 210-1 may output the output image 220-1 of the first camera module including the upper surface of the subject 230. [

또한, 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체의 은 폭(D1)은 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체의 폭(D2)보다 더 넓다. 이는 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)가 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)보다 더 짧은 거리를 갖기 때문이다. The silver width D1 of the subject finally output by the output image 220-1 of the first camera module corresponds to the width D2 of the subject finally output by the output image 220-2 of the second camera module, It is much wider. This is because the distance L1 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230 is smaller than the distance L1 between the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject 230 Is shorter than the distance L2 between the center points.

제2 카메라 모듈(210-2)은 피사체(230)의 하부면이 포함된 제2 카메라 모듈의 출력 영상(220-2)을 출력할 수 있다.The second camera module 210-2 may output the output image 220-2 of the second camera module including the lower surface of the subject 230. [

또한, 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체의 은 폭(D2)은 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체의 폭(D1)보다 더 좁다. 이는 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)가 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)보다 더 긴 거리를 갖기 때문이다.The silver width D2 of the subject finally output by the output image 220-2 of the second camera module is the width D1 of the subject finally output by the output image 220-1 of the first camera module, . This is because the distance L2 between the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject 230 is shorter than the distance L2 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230 And has a longer distance than the distance L1 between the center points.

제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체의 폭(D1)과 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체의 폭(D2)으로부터 거리 편차값을 산출할 수 있다.From the width D2 of the subject finally output by the width D1 of the subject finally output by the output image 220-1 of the first camera module and the output image 220-2 of the second camera module, Value can be calculated.

본 발명의 실시예에 따른 거리 편차값(DOD)은 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내는 값이다.The distance deviation value DOD according to the embodiment of the present invention is a value indicating the degree of distance of the virtual camera from the reference distance value 0.

또한, 본 발명의 실시예에 따른 거리 편차값(DOD)은 축소 거리 편차(Deviation Of Distance Reduction, 이하 DODR) 산출 방정식 또는 확대 거리 편차 산출(Deviation Of Distance Expansion, 이하 DODE) 방정식을 통해 산출될 수 있다. Also, the distance deviation value DOD according to the embodiment of the present invention can be calculated through a Deviation Of Distance Reduction (DODR) calculation equation or a Deviation Of Distance Expansion (DODE) equation have.

도 4에 도시된 바와 같이, 축소 거리 편차(DODR) 산출 방정식은 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 거리 편차값 산출할 수 있다. 예컨대, 축소 거리 편차(DODR) 산출 방정식은 거리 편차값 산출 시, 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈인 제1 카메라 모듈(210-1)을 기준으로 사용할 수 있다. As shown in FIG. 4, the reduction distance deviation (DODR) calculation equation is calculated based on the distance between the first camera module 210-1 and the second camera module 210-2, The deviation value can be calculated. For example, the calculation method of the reduction distance deviation (DODR) is a method of calculating the distance deviation value based on the distance between the first camera module 210-1 and the second camera module 210-2, Module 210-1 as a reference.

본 발명의 실시예에 따른 축소 거리 편차 산출 방정식(DODR)은 하기와 같이 표현될 수 있다.The reduction distance deviation calculation equation (DODR) according to the embodiment of the present invention can be expressed as follows.

Figure 112014104323237-pat00033
Figure 112014104323237-pat00033

DODR은 거리 편차값, D1는 피사체와 가까운 거리에 위치한 특정 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is a specific camera module located close to the subject, (M) is used as a value indicating the size of a subject, and the position of the subject is changed to a point at which a position deviation value corresponding to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero. H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 and H2 is the height of the image of the second camera Means the height of the image of the subject output by the RGB video signal output from the module 210-2.

또한, 축소 거리 편차 산출 방정식(DODR)으로 거리 편차값 산출 시, 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제2 카메라 모듈(210-2)의 거리 편차값은 D2+(H1-H2-n)으로 산출될 수 있다. D2는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 나타낸다.Further, at the time of calculating the distance deviation value by the reduction distance variation calculation equation (DODR), the distance deviation value of the second camera module 210-2 which is a camera module other than the specific camera module is calculated as D2 + (H1-H2-n) . D2 is the width of the image of the subject outputted by the RGB video signal outputted from the second camera module 210-2 which is not the specific camera module, and n is the value indicating the size of the subject of the virtual camera composite image Unit m is used and the same position as the position of the virtual camera at a point where a position deviation value according to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0 H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is a specific camera module, H2 is the height of the image of the subject outputted from the second camera module 210-2, And the height of the image of the subject output by the camera.

또한, 도 4에 도시된 바와 같이, 확대 거리 편차(DODE) 산출 방정식은 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 거리 편차값 산출할 수 있다. 예컨대, 확대 거리 편차(DODE) 산출 방정식은 거리 편차값 산출 시, 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 먼 거리에 위치한 특정 카메라 모듈인 제2 카메라 모듈(210-2)을 기준으로 사용할 수 있다. 4, the enlargement distance deviation (DODE) calculation equation is calculated by dividing a specific camera module located at a distance from the subject, among the first camera module 210-1 and the second camera module 210-2, To calculate the distance deviation value. For example, when calculating the distance deviation value, the DODE calculation equation is used to calculate the distance deviation value based on a distance between the first camera module 210-1 and the second camera module 210-2, Module 210-2 as a reference.

본 발명의 실시예에 따른 확대 거리 편차 산출 방정식(DODE)은 하기와 같이 표현될 수 있다.The enlargement distance deviation calculation equation (DODE) according to the embodiment of the present invention can be expressed as follows.

Figure 112014104323237-pat00034
Figure 112014104323237-pat00034

DODE는 거리 편차값, D2는 피사체와 먼 거리에 위치한 특정 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the second camera module 210-2 which is a specific camera module located at a distance from the subject, (M) is used as a value indicating the size of a subject, and the position of the subject is changed to a point at which a position deviation value corresponding to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero. H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is not the specific camera module and H2 is the height of the image of the specific camera module Means the height of the image of the subject output by the RGB video signal output from the second camera module 210-2.

또한, 확대 거리 편차 산출 방정식(DODE)으로 거리 편차값 산출 시, 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)의 거리 편차값은 D1-(H1-H2-n)으로 산출될 수 있다. D1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 특정 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.In calculating the distance deviation value by the enlargement distance deviation calculation equation (DODE), the distance deviation value of the first camera module 210-1 which is a camera module other than the specific camera module is D1- (H1-H2-n) Can be calculated. D1 is the width of the image of the subject outputted from the RGB video signal outputted from the first camera module 210-1 which is the camera module other than the specific camera module and n is the value indicating the size of the subject of the virtual camera composite image Unit m is used and the same position as the position of the virtual camera at a point where a position deviation value according to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0 H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is the other camera module other than the specific camera module and H2 is the height of the second camera module 210 -2) of the subject image outputted by the RGB video signal.

따라서 본 발명의 실시예에 따른 가상 카메라의 제어 장치 및 방법은 편차별 제어 테이블에 미리 저장된 편차 고정 제어값을 통해 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 사선 상의 위치하는 가상 카메라의 위치를 결정할 수 있다.Therefore, the apparatus and method for controlling a virtual camera according to an embodiment of the present invention may be configured such that a first camera module 210-1 and a second camera module 210-2 are connected to each other through a deviation control value stored in advance in a deviation control table The position of the virtual camera located on the diagonal line can be determined.

또한, 본 발명의 실시예에 따른 가상 카메라의 제어 장치 및 방법은 편차별 제어 테이블에 미리 저장된 편차 고정 제어값이 없다면, 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 사선 상의 위치하는 가상 카메라의 위치를 임의의 편차 고정 제어값을 생성하여 임시로 결정한 후, 사용자 입력 신호에 따라 편차 고정 제어값 결정하여 가상 카메라의 위치를 제어할 수 있다.The apparatus and method for controlling a virtual camera according to an exemplary embodiment of the present invention may include a first camera module 210-1 and a second camera module 210-2, And the position of the virtual camera can be controlled by determining a deviation fixed control value according to the user input signal after temporarily determining an arbitrary deviation fixed control value.

편차별 제어 테이블은 미리 산출되어 생성된 복수 개의 위치 편차값 및 복수 개의 거리 편차값을 포함할 수 있다. 예컨대, 본 발명의 실시예에 따른 가상 카메라의 제어 장치는 복수 개의 거리 편차값 중 입력부를 통해 입력받거나 저장부에 미리 저장된 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점 간의 거리(L1) 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점 간의 거리(L2)에 대응하는 임의의 거리 편차값을 추출할 수 있다.The deviation discrimination control table may include a plurality of position deviation values and a plurality of distance deviation values generated in advance and generated. For example, the controller of a virtual camera according to an embodiment of the present invention may calculate the distance L1 between the center point of the image acquisition sensor of the first camera module and the center point of the object received through the input unit or stored in the storage unit among the plurality of distance deviation values, And an arbitrary distance deviation value corresponding to the distance L2 between the center point of the image acquisition sensor of the second camera module and the center point of the subject can be extracted.

또한, 본 발명의 실시예에 따른 가상 카메라의 제어 장치는 저장부에 미리 저장된 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도에 대응하는 임의의 위치 편차값을 추출할 수 있다.In addition, the controller of the virtual camera according to the embodiment of the present invention controls the angles formed by the straight line and the horizontal line connecting the central point of the image acquisition sensor of the first camera module 210-1 stored in advance in the storage unit and the central point of the subject, It is possible to extract an arbitrary position deviation value corresponding to an angle formed by a straight line connecting the center point of the image acquisition sensor of the camera module 210-2 and the center point of the subject and the horizontal line.

도 5는 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있는 경우, 가상 카메라의 제어 방법을 도시하는 흐름도이다. 도 5를 참조하면, 본 발명의 실시예에 따른 가상 카메라의 제어 장치(100)의 제어부(150)는 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 촬영을 수행하는 제1 카메라 모듈(201-1) 및 제2 카메라 모듈(210-2)로부터 로부터 각각 생성된 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 수신할 수 있다(501).5 is a flowchart showing a control method of a virtual camera when a deviation fixing control value is stored in advance in a storage unit according to an embodiment of the present invention. 5, the control unit 150 of the controller 100 of the virtual camera according to the embodiment of the present invention includes a first camera module (not shown) disposed at both ends of a virtual oblique line, The first RGB image signal and the second RGB image signal generated from the first camera module 201-1 and the second camera module 210-2, respectively.

그 후, 제어부(150)는 구비된 저장부(130)에 편차 고정 제어값이 미리 저장되어 있는지 판단할 수 있다(502). Thereafter, the control unit 150 may determine whether the deviation fixing control value is stored in the storage unit 130 (502).

상기 판단 결과, 편차 고정 제어값이 저장부(130)에 미리 저장되어 있는 경우, 제어부(150)는 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 편차 고정 제어값을 반영하여, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성할 수 있다(503). 예컨대, 제어부(150)는 저장부(130)로부터 미리 저장된 편차 고정 제어값을 추출할 수 있다.As a result of the determination, when the deviation fixed control value is stored in advance in the storage unit 130, the controller 150 reflects the deviation control value for the first RGB video signal and the second RGB video signal, The virtual camera RGB image signal, and the second virtual camera RGB image signal, respectively (503). For example, the control unit 150 may extract the deviation-fixed control value stored in advance from the storage unit 130. [

그 후, 제어부(150)는 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 실시간 생성할 수 있다(504). 예컨대, 제어부(150)의 생성된 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호들로부터 제1 가상 카메라 휘도 신호, 제1 가상 카메라 색차 신호, 제2 가상 카메라 휘도 신호 및 제2 가상 카메라 색차 신호를 각각 실시간 생성할 수 있다. 그 후, 제어부(150)는 제1 가상 카메라 휘도 신호 및 제2 가상 카메라 휘도 신호로부터 가상 카메라 휘도 신호 차이값을 생성하며, 제1 가상 카메라 색차 신호 및 제2 가상 카메라 색차 신호로부터 가상 카메라 색차 신호 차이값을 생성할 수 있다. 그 후, 제어부(150)는 가상 카메라 휘도 신호 차이값으로부터 가상 카메라 휘도 신호 보정값을 생성하며, 가상 카메라 색차 신호 차이값으로부터 가상 카메라 색차 신호 보정값을 생성할 수 있다.Thereafter, the controller 150 may generate the virtual camera luminance signal correction value and the virtual camera color difference signal correction value in real time (504). For example, a first virtual camera luminance signal, a first virtual camera color difference signal, a second virtual camera luminance signal, and a second virtual camera luminance signal are generated from the generated first virtual camera RGB video signal and second virtual camera RGB video signals of the controller 150, Camera color difference signals can be generated in real time. Thereafter, the controller 150 generates a virtual camera luminance signal difference value from the first virtual camera luminance signal and the second virtual camera luminance signal, and generates a virtual camera color difference signal from the first virtual camera color difference signal and the second virtual camera color difference signal, A difference value can be generated. Thereafter, the controller 150 generates a virtual camera luminance signal correction value from the virtual camera luminance signal difference value, and generates a virtual camera color difference signal correction value from the virtual camera color difference signal difference value.

또한, 제어부(150)는 생성된 가상 카메라 휘도 보정값 및 가상 카메라 색차 보정값을 저장부(130)에 실시간 저장할 수 있다.In addition, the controller 150 may store the generated virtual camera luminance correction value and the generated virtual camera color difference correction value in the storage unit 130 in real time.

그 후, 제어부(150)는 생성된 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 반영하여, 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성할 수 있다(505).Thereafter, the controller 150 reflects the generated virtual camera luminance signal correction value and the virtual camera color difference signal correction value, and outputs the corrected first virtual camera luminance signal, the corrected second virtual camera luminance signal, A camera color difference signal, and a corrected second virtual camera color difference signal, respectively (505).

그 후, 제어부(150)는 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들이 합성된 하나의 영상 신호인 가상 카메라 합성 영상 신호를 실시간 생성할 수 있다(506). 제어부(150)는 생성된 가상 카메라 합성 영상 신호를 영상 신호 출력부(140)의 가상 카메라 영상 신호 출력부(140-1)로 실시간 전달할 수 있다.Thereafter, the control unit 150 receives the first virtual camera luminance signal, the corrected second virtual camera luminance signal, the corrected first virtual camera color difference signal, and the corrected second virtual camera color difference signals, The synthesized video signal of the virtual camera can be generated in real time (506). The control unit 150 can transmit the generated virtual camera composite video signal to the virtual camera video signal output unit 140-1 of the video signal output unit 140 in real time.

또한, 제어부(150)는 생성된 가상 카메라 합성 영상 신호를 대상으로 가상 카메라 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the controller 150 may further perform a layout correction processing operation in consideration of the layout of an image finally output from the virtual camera composite video signal with respect to the generated virtual camera composite video signal.

그 후, 제어부(150)는 가상 카메라 영상 신호 출력부(140-1)를 통해 가상 카메라 합성 영상 신호를 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경하여 표시부(미도시)로 출력되도록 제어할 수 있다(507).Thereafter, the control unit 150 outputs the virtual camera composite video signal through the virtual camera video signal output unit 140-1 to the video camera 100 through a composite video banking sync (CVBS), a high-definition multimedia interface (HDMI) It is possible to change the image standard to at least one image standard and output the image standard to a display unit (not shown) (507).

한편, 상기 저장부(130)에 미리 저장되어 있는 편차 고정 제어값은 거리 편차값과 위치 편차값을 포함할 수 있다. 거리 편차 값은 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 축소 거리 편차 산출 방정식 또는 확대 거리 편차 산출 방정식을 통해 산출되어 미리 저장될 수 있다.Meanwhile, the deviation fixing control value stored in advance in the storage unit 130 may include a distance deviation value and a position deviation value. The distance deviation value may be calculated and stored in advance through a reduction distance deviation calculation equation or an enlarged distance deviation calculation equation reflecting the distance (L1) between the first camera module and the subject and the distance (L2) between the second camera module and the subject .

또한, 위치 편차값은 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 산출되어 미리 저장될 수 있다. In addition, the positional deviation value may be calculated and reflected by reflecting an angle formed by a straight line connecting the first camera module and the subject and a horizontal line, and an angle formed by a straight line and a horizontal line connecting the second camera module and the subject.

도 6은 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있지 않은 경우, 가상 카메라의 제어 방법을 도시하는 흐름도이다. 도 6을 참조하면, 본 발명의 실시예에 따른 본 발명의 실시예에 따른 가상 카메라의 제어 장치(100)의 제어부(150)는 저장부에 편차 고정 제어값 미리 저장되어 있지 않은 경우, 임의의 편차 제어값을 생성할 수 있다(601). 예컨대, 제어부(150)는 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 임의의 위치 편차값 및 임의의 거리 편차값을 각각 추출할 수 있다. 그 후, 제어부(150)는 추출된 임의의 위치 편차값 및 임의의 거리 편차값을 포함하는 임의의 편차 제어값을 생성할 수 있다. 6 is a flowchart showing a control method of a virtual camera when the deviation fixing control value is not stored in advance in the storage unit according to an embodiment of the present invention. Referring to FIG. 6, when the deviation fixing control value is not stored in the storage unit in advance, the controller 150 of the control apparatus 100 of the virtual camera according to the embodiment of the present invention determines the arbitrary A deviation control value may be generated (601). For example, the control unit 150 may extract an arbitrary position deviation value and an arbitrary distance deviation value from the entry discrimination control table stored in the storage unit 130, respectively. Then, the control unit 150 may generate an arbitrary deviation control value including any extracted position deviation value and any distance deviation value.

그 후, 제어부(150)는 추출된 임의의 편차 제어값을 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 각각 반영하여, 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호를 각각 생성할 수 있다(602).Thereafter, the control unit 150 reflects the extracted arbitrary deviation control values to the first RGB video signal and the second RGB video signal, respectively, and outputs the first RGB video signal reflecting an arbitrary deviation control value, A second RGB video signal reflecting the control value can be generated (602).

그 후, 제어부(150)는 휘도 신호 보정값 및 색차 신호 보정값을 실시간 생성할 수 있다(603). 예컨대, 제어부(150)는 생성된 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호들로부터 제1 휘도 신호, 제1 색차 신호, 제2 휘도 신호 및 제2 색차 신호를 각각 실시간 생성할 수 있다. 그 후, 제어부(150)는 제1 휘도 신호 및 제2 휘도 신호로부터 휘도 신호 차이값을 생성하며, 제1 색차 신호 및 제2 색차 신호로부터 색차 신호 차이값을 생성할 수 있다. 그 후, 제어부(150)는 휘도 신호 차이값으로부터 휘도 신호 보정값을 생성하며, 색차 신호 차이값으로부터 색차 신호 보정값을 생성할 수 있다.Thereafter, the controller 150 can generate the luminance signal correction value and the color difference signal correction value in real time (603). For example, the control unit 150 generates a first luminance signal, a first color difference signal, a second luminance signal, and a second luminance signal from the first RGB image signal in which the generated deviation control value is reflected and the second RGB image signals in which a certain deviation control value is reflected, And the second color difference signal, respectively. Thereafter, the controller 150 may generate a luminance signal difference value from the first luminance signal and the second luminance signal, and may generate a color difference signal difference value from the first color difference signal and the second color difference signal. Thereafter, the control unit 150 generates a luminance signal correction value from the luminance signal difference value, and generates a color difference signal correction value from the color difference signal difference value.

그 후, 제어부(150)는 생성된 휘도 신호 보정값 및 색차 신호 보정값을 반영하여 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성할 수 있다(604).Thereafter, the controller 150 outputs the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected second color difference signal by reflecting the generated luminance signal correction value and the color difference signal correction value Respectively (604).

그 후, 제어부(150)는 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 실시간 생성할 수 있다(605).Thereafter, the control unit 150 generates a composite video signal, which is a video signal obtained by combining the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected second color difference signals in real time (605).

또한, 제어부(150)는 생성된 합성 영상 신호를 대상으로 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the controller 150 may further perform a layout correction processing operation in consideration of the layout of an image finally output from the composite video signal for the generated composite video signal.

그 후, 제어부(150)는 합성 영상 신호 출력부(140-2)를 통해 합성 영상 신호가 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경되어 표시부(미도시)로 출력되도록 제어할 수 있다(606).Thereafter, the control unit 150 controls the composite video signal output unit 140-2 so that the composite video signal is transmitted through at least one of CVBS (Composite Video Banking Sync), HDMI (High Definition Multimedia Interface), and VGA (606) so as to be output to the display unit (not shown).

그 후, 제어부(150)는 입력부(120)를 통해 사용자 선택 신호가 수신되었는지 판단할 수 있다(607).Thereafter, the control unit 150 transmits, via the input unit 120, It can be determined whether a user selection signal has been received (607).

상기 판단 결과, 사용자 선택 신호가 수신된 경우, 제어부(150)는 사용자 선택 신호에 따라 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 추출할 수 있다(608).As a result of the determination, if the user selection signal is received, the controller 150 outputs a position deviation value and a distance deviation value corresponding to the selected composite video signal according to the user selection signal, (608).

그 후, 제어부(150)의 가상 카메라 설정부(154)는 추출된 위치 편차값과 거리 편차값을 포함하는 편차 고정 제어값을 생성하고, 생성된 편차 고정 제어값을 저장부(130)에 저장할 수 있다(609).Thereafter, the virtual camera setting unit 154 of the control unit 150 generates a deviation fixed control value including the extracted position deviation value and the distance deviation value, and stores the generated deviation fixed control value in the storage unit 130 (609).

사용자 선택 신호가 수신되지 않은 경우, 제어부(150)는 현재 사용된 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하고, 상기 602 과정으로 이동해 해당 과정을 수행할 수 있다(610).If the user selection signal is not received, the controller 150 generates a new deviation control value different from the currently used deviation control value, and proceeds to step 602 to perform the corresponding process (step 610) .

한편, 상기 저장부(130)에 미리 저장되어 있는 편차별 제어 테이블은 거리 테이블 값 및 위치 테이블 값을 포함할 수 있다. 거리 테이블 값은 복수 개의 거리 편차값을 포함하며, 복수 개의 거리 편차값은 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 축소 거리 편차 산출 방정식 또는 확대 거리 편차 산출 방정식을 통해 산출되어 미리 저장될 수 있다.Meanwhile, the difference discrimination control table stored in advance in the storage unit 130 may include a distance table value and a position table value. The distance table value includes a plurality of distance deviation values, and the plurality of distance difference values reflect the distance (L1) between the first camera module and the subject and the distance (L2) between the second camera module and the subject, Or may be calculated and stored in advance in the magnification-varying deviation calculation equation.

또한, 위치 테이블 값은 복수 개의 위치 편차값을 포함하며, 복수 개의 위치 편차값은 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 산출되어 미리 저장될 수 있다.The position table value includes a plurality of positional deviation values. The plurality of positional deviation values include an angle formed by a straight line connecting the first camera module and the subject and a horizontal line, and a straight line connecting the second camera module and the subject, Can be calculated and reflected in advance.

본 발명의 예시적 실시예들에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to exemplary embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the present invention or may be known and available to those of ordinary skill in the computer software arts.

본 발명을 첨부 도면과 전술된 실시예들을 참조하여 설명하였으나, 본 발명은 그에 한정되지 않으며, 후술되는 특허청구범위에 의해 한정된다. 따라서 본 기술 분야의 통상의 지식을 가진 자라면 후술되는 특허청구범위의 기술적 사상에서 벗어나지 않는 범위 내에서 본 발명을 다양하게 변형 및 수정할 수 있다.Although the present invention has been described with reference to the accompanying drawings and the foregoing embodiments, the present invention is not limited thereto but is limited by the following claims. Accordingly, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope of the present invention as defined by the appended claims.

100: 가상 카메라의 제어 장치
110: 카메라부
110-1: 제1 카메라 모듈
110-2: 제2 카메라 모듈
120: 입력부
130: 저장부
140: 영상 신호 출력부
140-1: 가상 카메라 영상 신호 출력부
140-2: 합성 영상 신호 출력부
150: 제어부
151: 영상 신호 처리 제어부
152: 영상 신호 처리부
153: 영상 신호 합성부
154: 가상 카메라 설정부
210-1: 제1 카메라 모듈
210-2: 제2 카메라 모듈
210-3: 복수 개의 가상 카메라
220-1: 제1 카메라 모듈의 출력 영상
220-2: 제2 카메라 모듈의 출력 영상
220-3: 복수 개의 가상 카메라의 출력 영상
100: Control device of virtual camera
110:
110-1: First camera module
110-2: second camera module
120: Input unit
130:
140: Video signal output section
140-1: Virtual camera video signal output unit
140-2: Composite video signal output unit
150:
151: Video signal processing control unit
152: Video signal processor
153:
154: Virtual camera setting unit
210-1: First camera module
210-2: second camera module
210-3: Multiple virtual cameras
220-1: Output image of the first camera module
220-2: output image of the second camera module
220-3: Output image of plural virtual cameras

Claims (22)

가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 각각 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 생성하는, 제1 카메라 모듈 및 제2 카메라 모듈을 포함하며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루고, 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루는 카메라부;
편차 고정 제어값 및 편차별 제어 테이블 중 적어도 하나가 미리 저장되되, 상기 편차 고정 제어값에는 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값이 포함되는 저장부;
가상 카메라 합성 영상 신호를 표시부로 출력하는 영상신호 출력부; 및
상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호 수신받고, 상기 저장부에 상기 편차 고정 제어값이 미리 저장되어 있는지 판단하고, 미리 저장된 상기 편차 고정 제어값이 있는 경우, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 편차 고정 제어값을 반영하여 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성하며, 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 생성하고, 상기 가상 카메라 휘도 신호 보정값, 상기 가상 카메라 색차 신호 보정값, 상기 제1 가상 카메라 RGB 영상 신호 및 상기 제2 가상 카메라 RGB 영상 신호로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들을 생성한 후 합성하여 상기 가상 카메라 합성 영상 신호를 생성하며 상기 영상신호 출력부의 가상 카메라 영상 신호 출력부를 통해 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력되도록 제어하는 제어부를 포함하며,
상기 영상신호 출력부는 합성 영상 신호 출력부를 더 포함하고,
상기 합성 영상 신호 출력부로부터 출력되어 상기 표시부를 통해 표출되는 복수의 합성 영상 신호 중 선택된 합성 영상 신호를 나타내는 사용자 입력 신호를 수신받는 입력부를 더 포함하며,
상기 제어부는 미리 저장된 상기 편차 고정 제어값이 없는 경우, 상기 편차별 제어 테이블로부터 임의의 편차 제어값을 생성하고, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 임의의 편차 제어값을 반영하여 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 생성하며, 휘도 신호 보정값 및 색차 신호 보정값을 생성하고, 상기 휘도 신호 보정값, 상기 색차 신호 보정값, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호로부터 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들을 생성한 후 합성하여 합성 영상 신호를 생성하며, 상기 합성 영상 신호 출력부를 통해 상기 CVBS, 상기 HDMI, 상기 VGA 중 적어도 하나의 영상 규격으로 변경하여 상기 표시부로 출력하고, 상기 입력부를 통해 상기 사용자 입력 신호가 수신되었는지 판단하고, 상기 사용자 입력 신호가 수신되면, 상기 편차별 제어 테이블로부터 상기 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 추출하여 상기 편차 고정 제어값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
A first camera module and a second camera module which are respectively disposed at both ends of a virtual slanting line and generate a first RGB video signal and a second RGB video signal respectively with respect to a subject, An angle formed by a straight line connecting the center point of the acquired sensor and the center point of the subject and a horizontal line forms an angle of 15 to 20 degrees and an angle formed by a straight line connecting the center point of the image acquisition sensor of the second camera module and the center of the subject, A camera unit having an angle of 15 to 20 degrees;
At least one of a deviation control value and a difference control table is stored in advance, wherein the deviation control value includes a distance deviation value and a position deviation value, which are parameter information for controlling the virtual camera;
A video signal output unit for outputting a virtual camera composite video signal to a display unit; And
The first RGB image signal and the second RGB image signal, determining whether the deviation fixing control value is stored in the storage unit in advance, and if there is the deviation fixing control value stored in advance, Signal and the second RGB video signal to generate the first virtual camera RGB video signal and the second virtual camera RGB video signal respectively by reflecting the deviation fixed control value to the virtual camera luminance signal correction value and the virtual camera color difference signal correction And generates a first virtual camera luminance signal corrected from the virtual camera luminance signal correction value, the virtual camera color difference signal correction value, the first virtual camera RGB video signal, and the second virtual camera RGB video signal, A second virtual camera luminance signal, a corrected first virtual camera color difference signal, and a corrected second virtual camera color difference signal, And a control unit for generating the virtual camera composite video signal and changing the video standard to at least one of CVBS, HDMI, and VGA through a virtual camera video signal output unit of the video signal output unit,
Wherein the video signal output unit further includes a composite video signal output unit,
And an input unit receiving a user input signal representing a selected composite video signal among a plurality of composite video signals outputted from the composite video signal output unit and displayed through the display unit,
Wherein the control unit generates an arbitrary deviation control value from the deviation discrimination control table when there is no previously stored deviation fixing control value and outputs the arbitrary deviation control value to the received first RGB video signal and the second RGB video signal Generating a first RGB image signal and a second RGB image signal by reflecting the control value, generating a luminance signal correction value and a color difference signal correction value, and outputting the luminance signal correction value, the color difference signal correction value, A first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal from the video signal and the second RGB video signal to generate a composite video signal, Converting the video standard into at least one video standard among the CVBS, the HDMI, and the VGA through the composite video signal output unit, and outputting the video standard to the display unit, Wherein the controller determines whether an input signal is received and, when the user input signal is received, extracts a position deviation value and a distance deviation value corresponding to the selected composite video signal from the deviation difference control table to generate the deviation fixing control value The control unit of the virtual camera.
삭제delete 삭제delete 삭제delete 제1 항에 있어서, 상기 거리 편차값은,
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라 아래의 식
Figure 112015018731381-pat00035

(DODR은 거리 편차값,
D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1은 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어장치.
2. The method according to claim 1,
Wherein the distance between the first camera module and the second camera module is defined as a distance from the reference distance value 0, and a distance between the first camera module and the second camera module, According to the following equation
Figure 112015018731381-pat00035

(DODR is the distance deviation value,
D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the specific camera module,
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
제5 항에 있어서, 상기 거리 편차값은,
아래의 식
Figure 112014104323237-pat00014

(D2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1은 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어장치.
6. The method according to claim 5,
The following equation
Figure 112014104323237-pat00014

(D2 is the width of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the specific camera module,
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
제1 항에 있어서, 상기 거리 편차값은,
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라, 아래의 식
Figure 112014104323237-pat00036

(DODE는 상기 거리 편차값,
D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어장치.
2. The method according to claim 1,
Wherein the distance between the first camera module and the second camera module is a distance from the reference distance value 0, and the distance between the first camera module and the second camera module, , The following equation
Figure 112014104323237-pat00036

(DODE is the distance deviation value,
D2 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
제 7항에 있어서, 상기 거리 편차값은,
아래의 식
Figure 112015018731381-pat00016

(D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함하는 것을 특징으로 하는 가상 카메라의 제어 장치.
8. The method according to claim 7,
The following equation
Figure 112015018731381-pat00016

(D1 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
And a distance deviation value of the remaining camera module, which is defined as < RTI ID = 0.0 > a < / RTI >
제 6항 또는 제 8항에 있어서, 상기 위치 편차값은,
상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출되는 것을 특징으로 하는 가상 카메라의 제어 장치.
9. The method according to claim 6 or 8,
An angle formed by a straight line connecting the center point of the image capturing sensor of the first camera module and the center point of the subject and a horizontal line, and an angle of the image captured by the second camera module Is calculated from an angle formed by a straight line connecting the center point of the sensor and the center point of the subject and a horizontal line.
제1 항에 있어서, 상기 제어부는,
상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 휘도 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 휘도 신호를 생성하고, 상기 제1 가상 카메라 휘도 신호와 상기 제2 가상 카메라 휘도 신호 간 차이를 나타내는 가상 카메라 휘도 신호 차이값을 생성하며, 생성된 상기 가상 카메라 휘도 신호 차이값으로부터 상기 가상 카메라 휘도 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
The apparatus of claim 1,
Generating a first virtual camera luminance signal from the first virtual camera RGB video signal, generating a second virtual camera luminance signal from the second virtual camera RGB video signal, Generates a virtual camera luminance signal difference value indicating a difference between camera luminance signals, and generates the virtual camera luminance signal correction value from the generated virtual camera luminance signal difference value.
제10 항에 있어서, 상기 제어부는,
상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 색차 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 색차 신호를 생성하고, 상기 제1 가상 카메라 색차 신호와 상기 제2 가상 카메라 색차 신호 간 차이를 나타내는 가상 카메라 색차 신호 차이값을 생성하며, 생성된 상기 가상 카메라 색차 신호 차이값으로부터 상기 가상 카메라 색차 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
11. The apparatus according to claim 10,
Generating a first virtual camera color difference signal from the first virtual camera RGB image signal, generating a second virtual camera color difference signal from the second virtual camera RGB image signal, Generates a virtual camera color difference signal difference indicating a difference between camera color difference signals, and generates the virtual camera color difference signal correction value from the generated virtual camera color difference signal difference value.
제1 항에 있어서, 상기 제어부는,
상기 제1 RGB 영상 신호로부터 제1 휘도 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 휘도 신호를 생성하고, 상기 제1 휘도 신호와 상기 제2 휘도 신호 간 차이를 나타내는 휘도 신호 차이값을 생성하며, 생성된 상기 휘도 신호 차이값으로부터 상기 휘도 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
The apparatus of claim 1,
Generating a first luminance signal from the first RGB video signal, generating a second luminance signal from the second RGB video signal, and generating a luminance signal difference value indicating a difference between the first luminance signal and the second luminance signal And generates the luminance signal correction value from the generated luminance signal difference value.
제12 항에 있어서, 상기 제어부는,
상기 제1 RGB 영상 신호로부터 제1 색차 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 색차 신호를 생성하고, 상기 제1 색차 신호와 상기 제2 색차 신호 간 차이를 나타내는 색차 신호 차이값을 생성하며, 생성된 상기 색차 신호 차이값으로부터 상기 색차 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
13. The apparatus according to claim 12,
Generating a first color difference signal from the first RGB image signal, generating a second color difference signal from the second RGB image signal, and generating a color difference signal difference value indicating a difference between the first color difference signal and the second color difference signal And generates the color difference signal correction value from the generated color difference signal difference value.
삭제delete 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 촬영을 수행하는 제1 카메라 모듈 및 제2 카메라 모듈로부터 각각 생성된 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 수신하는 단계;
저장부에 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함하는 편차 고정 제어값이 미리 저장되어 있는지 판단하는 단계;
상기 편차 고정 제어값이 상기 저장부에 미리 저장되어 있지 않은 경우, 임의의 편차 제어값을 생성하는 단계;
상기 임의의 편차 제어값을 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계;
휘도 신호 보정값 및 색차 신호 보정값을 생성하는 단계;
상기 휘도 신호 보정값 및 상기 색차 신호 보정값을 반영하여 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성하는 단계;
상기 보정된 제1 휘도 신호, 상기 보정된 제2 휘도 신호, 상기 보정된 제1 색차 신호 및 상기 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 생성하는 단계;
상기 합성 영상 신호를 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력하는 단계; 및
입력부를 통해 사용자 선택 신호가 수신되었는지 판단하고, 상기 사용자 선택 신호가 수신되지 않은 경우, 상기 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하고, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계로 이동하여 해당 단계를 수행하는 것을 특징으로 하는 가상 카메라의 제어 방법.
Receiving a first RGB video signal and a second RGB video signal respectively generated from a first camera module and a second camera module, which are respectively disposed at both ends of a virtual oblique line and perform shooting with respect to a subject;
Determining whether a deviation fixed control value including a distance deviation value and a position deviation value, which is parameter information for controlling the virtual camera, is stored in advance in the storage unit;
Generating an arbitrary deviation control value when the deviation fixing control value is not previously stored in the storage section;
Reflecting the arbitrary deviation control value on the first RGB video signal and the second RGB video signal, respectively;
Generating a luminance signal correction value and a color difference signal correction value;
Generating a corrected first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal by reflecting the luminance signal correction value and the color difference signal correction value;
Generating a synthesized image signal which is one image signal in which the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected second color difference signals are synthesized;
Converting the synthesized video signal into at least one video standard of CVBS, HDMI, and VGA, and outputting the synthesized video signal to a display unit; And
Through the input And generates a new deviation control value different from the arbitrary deviation control value when the user selection signal is not received, Wherein the step of performing the step is performed by moving to a step of reflecting each signal to the target.
삭제delete 삭제delete 제15 항에 있어서, 상기 거리 편차값은,
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라,
Figure 112014104323237-pat00037

(DODR은 상기 거리 편차값,
D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어 방법.
16. The method of claim 15,
Wherein the distance between the first camera module and the second camera module is defined as a distance from the reference distance value 0, and a distance between the first camera module and the second camera module, Depending on the,
Figure 112014104323237-pat00037

(DODR is the distance deviation value,
D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the specific camera module
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
제18 항에 있어서, 상기 거리 편차값은,
아래의 식
Figure 112014104323237-pat00018

(D2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함하는 것을 특징으로 하는 가상 카메라의 제어 방법.
19. The method of claim 18,
The following equation
Figure 112014104323237-pat00018

(D2 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module,
H1 is the height of the image of the subject output by the RGB video signal output from the specific camera module,
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the remaining camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
And a distance deviation value of the remaining camera module defined by the distance value of the camera module.
제15 항에 있어서, 상기 거리 편차값은,
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라,
Figure 112014104323237-pat00038

(DODE는 상기 거리 편차값,
D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어 방법.
16. The method of claim 15,
Wherein the distance between the first camera module and the second camera module is a distance from the reference distance value 0, and the distance between the first camera module and the second camera module, Depending on the,
Figure 112014104323237-pat00038

(DODE is the distance deviation value,
D2 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
제20 항에 있어서, 상기 거리 편차값은,
아래의 식
Figure 112015018731381-pat00020

(D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함하는 것을 특징으로 하는 가상 카메라의 제어 방법.
21. The method of claim 20,
The following equation
Figure 112015018731381-pat00020

(D1 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
And a distance deviation value of the remaining camera module defined by the distance value of the camera module.
제19 항 또는 제21 항에 있어서, 상기 위치 편차값은,
상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출되는 것을 특징으로 하는 가상 카메라의 제어 방법.
22. The method according to claim 19 or claim 21,
An angle formed by a straight line connecting the center point of the image capturing sensor of the first camera module and the center point of the subject and a horizontal line, and an angle of the image captured by the second camera module Is calculated from an angle formed by a straight line connecting the center point of the sensor and the center point of the subject and a horizontal line.
KR1020140070733A 2014-06-11 2014-06-11 Method and apparatus for controlling of virtual camera KR101515404B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140070733A KR101515404B1 (en) 2014-06-11 2014-06-11 Method and apparatus for controlling of virtual camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140070733A KR101515404B1 (en) 2014-06-11 2014-06-11 Method and apparatus for controlling of virtual camera

Publications (1)

Publication Number Publication Date
KR101515404B1 true KR101515404B1 (en) 2015-05-04

Family

ID=53393241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140070733A KR101515404B1 (en) 2014-06-11 2014-06-11 Method and apparatus for controlling of virtual camera

Country Status (1)

Country Link
KR (1) KR101515404B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10136110B2 (en) 2015-10-21 2018-11-20 Samsung Electronics Co., Ltd. Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
KR20010029129A (en) * 1999-09-29 2001-04-06 윤종용 Image processing apparatus for image communication
JP2005080015A (en) * 2003-09-01 2005-03-24 Sony Corp Imaging device and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
KR20010029129A (en) * 1999-09-29 2001-04-06 윤종용 Image processing apparatus for image communication
JP2005080015A (en) * 2003-09-01 2005-03-24 Sony Corp Imaging device and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10136110B2 (en) 2015-10-21 2018-11-20 Samsung Electronics Co., Ltd. Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method

Similar Documents

Publication Publication Date Title
US10395338B2 (en) Virtual lens simulation for video and photo cropping
CN107690649B (en) Digital photographing apparatus and method of operating the same
US9007442B2 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
JP5592006B2 (en) 3D image processing
US8063947B2 (en) Image shooting device
JP4970302B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US20070222858A1 (en) Monitoring system, monitoring method and program therefor
EP3316568B1 (en) Digital photographing device and operation method therefor
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
JP6172935B2 (en) Image processing apparatus, image processing method, and image processing program
KR102529479B1 (en) Control apparatus, control method, and storage medium
US10250803B2 (en) Video generating system and method thereof
US20140369611A1 (en) Image processing apparatus and control method thereof
US9154693B2 (en) Photographing control apparatus and photographing control method
US11706378B2 (en) Electronic device and method of controlling electronic device
WO2009119288A1 (en) Communication system and communication program
JP2011048295A (en) Compound eye photographing device and method for detecting posture of the same
US11102403B2 (en) Image device, information processing apparatus, information processing method, system, and storage medium
KR101515404B1 (en) Method and apparatus for controlling of virtual camera
US10122964B2 (en) Communication system
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
TW201222422A (en) Method and arrangement for identifying virtual visual information in images
US10282633B2 (en) Cross-asset media analysis and processing
KR101479901B1 (en) Method and apparatus for controlling of virtual camera
WO2014097465A1 (en) Video processor and video p rocessing method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant