KR101515404B1 - Method and apparatus for controlling of virtual camera - Google Patents
Method and apparatus for controlling of virtual camera Download PDFInfo
- Publication number
- KR101515404B1 KR101515404B1 KR1020140070733A KR20140070733A KR101515404B1 KR 101515404 B1 KR101515404 B1 KR 101515404B1 KR 1020140070733 A KR1020140070733 A KR 1020140070733A KR 20140070733 A KR20140070733 A KR 20140070733A KR 101515404 B1 KR101515404 B1 KR 101515404B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera module
- subject
- video signal
- value
- image
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/76—Circuits for processing colour signals for obtaining special effects for mixing of colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/77—Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
Abstract
Description
본 발명의 실시예들은 가상 카메라의 제어 장치에 관한 것으로서, 예컨대, 동일한 피사체를 촬영하며, 수평선을 기준으로 가상의 사선 상의 양단에 각각 배치되는 제1 카메라와 제2 카메라로부터 가상의 사선 상의 특정 지점에서 피사체를 대상으로 촬영된 영상과 유사한 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to a control apparatus for a virtual camera. For example, a control system for a virtual camera includes: a first camera that photographs the same object and is disposed at both ends of an imaginary oblique line with respect to a horizontal line; The present invention relates to a control apparatus and method for a virtual camera capable of providing an image similar to an image photographed on a subject.
최근 인터넷 기술의 발달로 인해 서로 먼 거리에 떨어져 있는 사람들끼리 실내에 설치된 각각의 디스플레이 장치에 표시되는 화상 및 오디오 장치를 통해 제공되는 음향 등을 통해 회의를 진행할 수 있는 시스템인 다자간 화상회의 시스템의 기술 개발이 증가하고 있다. 다자간 화상회의 시스템은 회의 참석자들이 서로 원거리에서 회의를 진행하고 있다는 거리감을 느끼기 쉬운 난점이 있으므로, 회의 참석자들이 임장감(presence)을 가질 수 있도록 영상 기술 및 오디오 기술에 대한 기술 개발이 증가하고 있다. Description of the Related Art [0002] A technology of a multi-user video conferencing system, which is a system capable of conducting a conference through audio and the like provided through video and audio devices displayed on respective display devices installed in a room, Development is increasing. The multi-party video conferencing system has an increasing difficulty in sensing the distance that the conference participants are meeting at a distance, and the development of technology for video and audio technology is increasing so that meeting attendees can have presence.
종래의 다자간 화상회의 시스템의 영상 기술에서는 단일 카메라를 디스플레이 상단에 설치하고, 각 회의 참석자들은 디스플레이를 보며 회의를 진행한다. 각 회의 참석자들의 디스플레이를 바라보는 다른 회의 참석자들의 모습을 보며 회의를 진행하게 된다. 실제 공간의 회의 참가자들과 달리 다자간 화상회의에 참석하는 회의 참석자들은 서로 아이컨택(eye contact)하며 회의를 진행하기 어렵다. 아이컨택이 어려운 다자간 화상회의는 회의 참가자들의 집중도를 떨어트리며, 회의 진행자의 설득력을 떨어트릴 수 있다. In the image technology of the conventional multi-party video conferencing system, a single camera is installed at the top of the display, and each participant performs the conference while watching the display. The meeting will be held with the other attendees watching the display of the attendees at each meeting. Unlike the participants in the actual space, conference attendees attending the multi-party video conference are unable to conduct the meeting with eye contact with each other. Multipurpose videoconferencing, which is difficult to contact with children, can reduce the concentration of conference participants and reduce the persuasiveness of the conference host.
따라서 카메라로 취득된 영상을 기반으로 대화를 하는 시스템에 있어서, 원거리에 위치한 각각의 대화 당사자들이 서로 아이컨택을 유지하여 대화의 집중도를 높이며, 임장감 또한 높은 대화를 할 수 있는 기술의 개발이 요구된다.Therefore, in a system for conversation based on images captured by a camera, it is required to develop a technology that enables each conversation party located at a remote location to keep an eye contact with each other, thereby increasing the concentration of conversation, .
본 발명의 실시예는 카메라로 취득된 영상을 기반으로 대화를 하는 시스템에 있어서, 상대방의 시선에 상관없이, 상대방의 시선이 카메라를 향해 있는 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법을 제공한다.An embodiment of the present invention is a system and method for controlling a virtual camera capable of providing a video with a gaze of a partner facing a camera regardless of the gaze of the opponent in a system for conversation based on a video captured by a camera to provide.
또한, 본 발명의 실시예는 동일한 피사체를 촬영하며, 수평선을 기준으로 가상의 사선 상의 양단에 각각 배치되는 제1 카메라와 제2 카메라로부터 가상의 사선 상의 특정 지점에서 피사체를 대상으로 촬영된 영상과 유사한 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법을 제공한다.The embodiments of the present invention are also directed to a method of shooting an image of a same subject and photographing a subject photographed at a specific point on a virtual oblique line from a first camera and a second camera respectively disposed at both ends of a virtual oblique line with respect to a horizontal line, A virtual camera control apparatus and method capable of providing similar images are provided.
본 발명의 실시예에 따른 가상 카메라의 제어 장치는, 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 각각 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 생성하는, 제1 카메라 모듈 및 제2 카메라 모듈을 포함하는 카메라부; 편차 고정 제어값 및 편차별 제어 테이블 중 적어도 하나가 미리 저장된 저장부; 가상 카메라 합성 영상 신호를 표시부로 출력하는 가상 카메라 영상 출력부; 및 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호 수신받고, 상기 저장부에 상기 편차 고정 제어값이 미리 저장되어 있는지 판단하고, 미리 저장된 상기 편차 고정 제어값이 있는 경우, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 편차 고정 제어값을 반영하여 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성하며, 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 생성하고, 상기 가상 카메라 휘도 신호 보정값, 상기 가상 카메라 색차 신호 보정값, 상기 제1 가상 카메라 RGB 영상 신호 및 상기 제2 가상 카메라 RGB 영상 신호로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들을 생성한 후 합성하여 상기 가상 카메라 합성 영상 신호를 생성하며 상기 가상 카메라 영상 신호 출력부를 통해 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력되도록 제어하는 제어부; 를 포함할 수 있다.A control device of a virtual camera according to an embodiment of the present invention includes a first camera module and a second camera module which are disposed at both ends of a virtual slanting line and generate a first RGB video signal and a second RGB video signal, 2 camera module including a camera module; A storage unit in which at least one of the deviation fixing control value and the difference discrimination control table is stored in advance; A virtual camera video output unit for outputting a virtual camera composite video signal to a display unit; And a controller for receiving the first RGB video signal and the second RGB video signal, determining whether the deviation fixing control value is stored in advance in the storage unit, and if the deviation fixing control value is stored in advance, And generates the first virtual camera RGB image signal and the second virtual camera RGB image signal by reflecting the deviation fixed control value for the image signal and the second RGB image signal, respectively, and generates the virtual camera luminance signal correction value and the virtual camera color difference signal A first virtual camera luminance signal corrected from the virtual camera luminance signal correction value, the virtual camera color difference signal correction value, the first virtual camera RGB video signal, and the second virtual camera RGB video signal, The corrected first virtual camera color difference signal, and the corrected second virtual camera color difference signal Property to the virtual camera, a composite video signal to produce a control unit for controlling so that the output to the display unit by changing the CVBS, HDMI, at least one image of the VGA size from the virtual camera image signal output unit; . ≪ / RTI >
상기 가상 카메라의 제어 장치는, 합성 영상 신호를 상기 표시부로 출력하는 합성 영상 출력부; 출력되는 상기 합성 영상 신호 중 선택된 합성 영상 신호를 나타내는 사용자 입력 신호를 수신받는 입력부; 및 미리 저장된 상기 편차 고정 제어값이 없는 경우, 상기 편차별 제어 테이블로부터 임의의 편차 제어값을 생성하고, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 임의의 편차 제어값을 반영하여 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 생성하며, 휘도 신호 보정값 및 색차 신호 보정값을 생성하고, 상기 휘도 신호 보정값, 상기 색차 신호 보정값, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호로부터 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들을 생성한 후 합성하여 합성 영상 신호를 생성하며, 상기 합성 영상 신호 출력부를 통해 상기 CVBS, 상기 HDMI, 상기 VGA 중 적어도 하나의 영상 규격으로 변경하여 상기 표시부로 출력하고, 상기 입력부를 통해 상기 사용자 입력 신호가 수신되었는지 판단하고, 상기 사용자 입력 신호가 수신되면, 상기 편차별 제어 테이블로부터 상기 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 추출하여 상기 편차 고정 제어값을 생성하는 제어부; 를 더 포함할 수 있다.The controller of the virtual camera includes: a composite video output unit for outputting a composite video signal to the display unit; An input unit receiving a user input signal representing a selected composite video signal among the composite video signals to be output; And a control unit for generating an arbitrary deviation control value from the deviation discrimination control table when there is no previously stored deviation fixing control value and outputting the arbitrary deviation control value to the received first RGB video signal and the second RGB video signal The first RGB image signal and the second RGB image signal, respectively, and generates a luminance signal correction value and a color difference signal correction value, and outputs the luminance signal correction value, the color difference signal correction value, And generating a synthesized image signal by generating a first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal from the second RGB video signal, The video signal output unit converts the video standard into at least one video standard of the CVBS, the HDMI, and the VGA, and outputs the video standard to the display unit, After receiving that determination, wherein the user input signal is received, the control unit which extracts the position error value and the deviation distance value corresponding to the composite video signal selected from said control piece discrimination table generating the deviation fixed control value; As shown in FIG.
상기 카메라부는, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루는 것을 특징으로 포함할 수 있다.Wherein the camera unit has an angle formed by a straight line connecting the center point of the image acquisition sensor of the first camera module and the center point of the subject and a horizontal line at an angle of 15 to 20 degrees and a center point of the image acquisition sensor of the second camera module, And the angle formed by the straight line connecting the center point of the center line and the horizontal line is 15 to 20 degrees.
상기 편차 고정 제어값은, 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함할 수 있다.The deviation fixed control value may include a distance deviation value and a position deviation value, which are parameter information for controlling the virtual camera.
상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라,Wherein the distance deviation value indicates a degree of distance of the virtual camera from the reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same reduction distance deviation calculation equation,
DODR은 상기 거리 편차값, D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module, and n is the value of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the module may be defined as the height of the image of the subject output by the RGB video signals output from the remaining camera modules other than the specific camera module.
상기 거리 편차값은,The distance deviation value is calculated by:
D2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D2 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module, and n is the value of the size of the subject of the virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.
상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라,Wherein the distance deviation value represents a degree of distance of the virtual camera from a reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same enlargement distance deviation calculation equation,
DODE는 상기 거리 편차값, D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module, and n is the size of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the remaining camera module may be defined as the height of the image of the subject output by the RGB video signal output from the specific camera module.
상기 거리 편차값은,The distance deviation value is calculated by:
D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D1 is a width of an image of a subject outputted by the RGB video signal outputted from the remaining camera module, and n is a value indicating the size of a subject of a virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.
상기 위치 편차값은, 상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다.Wherein the positional deviation value represents an angle formed by a straight line connecting the center point of the image acquisition sensor of the first camera module and the center of the subject and a horizontal line, 2 It can be calculated from the angle formed by the straight line connecting the center point of the image acquisition sensor of the camera module and the center point of the subject and the horizontal line.
상기 제어부는, 상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 휘도 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 휘도 신호를 생성하고, 상기 제1 가상 카메라 휘도 신호와 상기 제2 가상 카메라 휘도 신호 간 차이를 나타내는 가상 카메라 휘도 신호 차이값을 생성하며, 생성된 상기 가상 카메라 휘도 신호 차이값으로부터 상기 가상 카메라 휘도 신호 보정값을 생성할 수 있다.The control unit generates a first virtual camera luminance signal from the first virtual camera RGB image signal, generates a second virtual camera luminance signal from the second virtual camera RGB image signal, A virtual camera luminance signal difference value indicating a difference between the second virtual camera luminance signals may be generated and the virtual camera luminance signal correction value may be generated from the generated virtual camera luminance signal difference value.
상기 제어부는, 상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 색차 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 색차 신호를 생성하고, 상기 제1 가상 카메라 색차 신호와 상기 제2 가상 카메라 색차 신호 간 차이를 나타내는 가상 카메라 색차 신호 차이값을 생성하며, 생성된 상기 가상 카메라 색차 신호 차이값으로부터 상기 가상 카메라 색차 신호 보정값을 생성할 수 있다.The control unit generates a first virtual camera color difference signal from the first virtual camera RGB image signal, generates a second virtual camera color difference signal from the second virtual camera RGB image signal, A virtual camera color difference signal difference indicating a difference between the second virtual camera color difference signals is generated and the virtual camera color difference signal correction value may be generated from the generated virtual camera color difference signal difference.
상기 제어부는, 상기 제1 RGB 영상 신호로부터 제1 휘도 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 휘도 신호를 생성하고, 상기 제1 휘도 신호와 상기 제2 휘도 신호 간 차이를 나타내는 휘도 신호 차이값을 생성하며, 생성된 상기 휘도 신호 차이값으로부터 상기 휘도 신호 보정값을 생성할 수 있다.Wherein the controller generates a first luminance signal from the first RGB video signal, generates a second luminance signal from the second RGB video signal, and generates a luminance signal representing a difference between the first luminance signal and the second luminance signal A difference signal value is generated, and the luminance signal correction value is generated from the generated luminance signal difference value.
상기 제어부는, 상기 제1 RGB 영상 신호로부터 제1 색차 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 색차 신호를 생성하고, 상기 제1 색차 신호와 상기 제2 색차 신호 간 차이를 나타내는 색차 신호 차이값을 생성하며, 생성된 상기 색차 신호 차이값으로부터 상기 색차 신호 보정값을 생성할 수 있다.The control unit generates a first color difference signal from the first RGB image signal, generates a second color difference signal from the second RGB image signal, and generates a color difference signal representing a difference between the first color difference signal and the second color difference signal And generates the color difference signal correction value from the generated color difference signal difference value.
본 발명의 실시예에 따른 가상 카메라의 제어 방법은, 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 촬영을 수행하는 제1 카메라 모듈 및 제2 카메라 모듈로부터 각각 생성된 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 수신하는 단계; 저장부에 편차 고정 제어값이 미리 저장되어 있는지 판단하는 단계; 편차 고정 제어값이 상기 저장부에 미리 저장되어 있는 경우, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 편차 고정 제어값을 반영하여, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성하는 단계; 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 생성하는 단계; 상기 가상 카메라 휘도 신호 보정값 및 상기 가상 카메라 색차 신호 보정값을 반영하여, 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성하는 단계; 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들이 합성된 하나의 영상 신호인 가상 카메라 합성 영상 신호를 생성하는 단계; 및 상기 가상 카메라 합성 영상 신호를 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력하는 단계; 를 포함할 수 있다.A control method for a virtual camera according to an exemplary embodiment of the present invention includes a first camera module and a second camera module which are disposed at both ends of a virtual slanting line, And receiving a second RGB video signal; Determining whether a deviation fixing control value is stored in advance in the storage unit; When the deviation fixing control value is previously stored in the storage unit, the deviation control value is reflected on the first RGB video signal and the second RGB video signal so that the first virtual camera RGB video signal and the second virtual Generating a camera RGB video signal, respectively; Generating a virtual camera luminance signal correction value and a virtual camera color difference signal correction value; The corrected first virtual camera luminance signal, the corrected first virtual camera luminance signal, the corrected first virtual camera chrominance signal, and the corrected second virtual camera chrominance signal by reflecting the virtual camera luminance signal correction value and the virtual camera chrominance signal correction value, Generating virtual camera color difference signals; And generates a virtual camera composite video signal, which is a video signal obtained by combining the corrected first virtual camera luminance signal, the corrected second virtual camera luminance signal, the corrected first virtual camera color difference signal, and the corrected second virtual camera color difference signals ; And converting the virtual camera composite video signal into at least one video standard of CVBS, HDMI, and VGA and outputting the converted video standard to a display unit; . ≪ / RTI >
상기 가상 카메라의 제어 방법은, 상기 편차 고정 제어값이 상기 저장부에 미리 저장되어 있는 않은 경우, 임의의 편차 제어값을 생성하는 단계; 상기 임의의 편차 제어값을 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계; 휘도 신호 보정값 및 색차 신호 보정값을 생성하는 단계; 상기 휘도 신호 보정값 및 상기 색차 신호 보정값을 반영하여 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성하는 단계; 상기 보정된 제1 휘도 신호, 상기 보정된 제2 휘도 신호, 상기 보정된 제1 색차 신호 및 상기 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 생성하는 단계; 상기 합성 영상 신호를 상기 CVBS, 상기 HDMI, 상기 VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력하는 단계; 및 입력부를 통해 사용자 선택 신호가 수신되었는지 판단하고, 상기 사용자 선택 신호가 수신된 경우, 상기 저장부에 미리 저장된 편차별 제어 테이블로부터 상기 사용자 선택 신호가 나타내는 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 추출하여 상기 편차 고정 제어값을 생성하고, 상기 저장부에 저장하는 단계; 를 더 포함할 수 있다.The control method of the virtual camera may further include: generating an arbitrary deviation control value when the deviation fixing control value is not stored in the storage unit in advance; Reflecting the arbitrary deviation control value on the first RGB video signal and the second RGB video signal, respectively; Generating a luminance signal correction value and a color difference signal correction value; Generating a corrected first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal by reflecting the luminance signal correction value and the color difference signal correction value; Generating a synthesized image signal which is one image signal in which the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected second color difference signals are synthesized; Converting the synthesized video signal into at least one video standard of the CVBS, the HDMI, and the VGA and outputting the video standard to the display unit; And through the input A position deviation value and a distance deviation value corresponding to the selected composite video signal indicated by the user selection signal are stored in the storage section according to the user selection signal, Generating the deviation-fixed control value, and storing the deviation-fixed control value in the storage unit; As shown in FIG.
상기 가상 카메라의 제어 방법은, 상기 사용자 선택 신호가 수신되지 않은 경우, 상기 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하고, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계로 이동하여 해당 단계를 수행할 수 있다.The control method of the virtual camera may further include the steps of: when the user selection signal is not received, generating a new deviation control value different from the arbitrary deviation control value, and generating the first RGB video signal and the second RGB video signal To the step of reflecting them, respectively, and perform the corresponding step.
상기 편차 고정 제어값은, 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함할 수 있다.The deviation fixed control value may include a distance deviation value and a position deviation value, which are parameter information for controlling the virtual camera.
상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라,Wherein the distance deviation value indicates a degree of distance of the virtual camera from the reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same reduction distance deviation calculation equation,
DODR은 상기 거리 편차값, D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module, and n is the value of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the module may be defined as the height of the image of the subject output by the RGB video signals output from the remaining camera modules other than the specific camera module.
상기 거리 편차값은,The distance deviation value is calculated by:
D2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D2 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module, and n is the value of the size of the subject of the virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.
상기 거리 편차값은, 상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라,Wherein the distance deviation value represents a degree of distance of the virtual camera from a reference distance value of 0 and a distance between the first camera module and the second camera module, According to the same enlargement distance deviation calculation equation,
DODE는 상기 거리 편차값, D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의될 수 있다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module, and n is the size of the subject of the virtual camera composite image. H1 is a point at which a position deviation value corresponding to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0, The height and H2 of the image of the subject output by the RGB video signal output from the remaining camera module may be defined as the height of the image of the subject output by the RGB video signal output from the specific camera module.
상기 거리 편차값은,The distance deviation value is calculated by:
D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함할 수 있다.D1 is a width of an image of a subject outputted by the RGB video signal outputted from the remaining camera module, and n is a value indicating the size of a subject of a virtual camera composite image. The unit m is used as a unit, H1 denotes a point where a position deviation value according to a distance between the camera module and a distance between the subject and the remaining camera module becomes 0, And H2 may be a distance deviation value of the remaining camera module defined as the height of the image of the subject output by the RGB video signal output from the remaining camera module.
상기 위치 편차값은, 상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다.Wherein the positional deviation value represents an angle formed by a straight line connecting the center point of the image acquisition sensor of the first camera module and the center of the subject and a horizontal line, 2 It can be calculated from the angle formed by the straight line connecting the center point of the image acquisition sensor of the camera module and the center point of the subject and the horizontal line.
본 발명의 실시예에 따르면, 상대방의 시선에 상관없이, 상대방의 시선이 카메라를 향해 있는 영상을 제공할 수 있는 가상 카메라의 제어 장치 및 방법을 제공할 수 있다.According to the embodiments of the present invention, it is possible to provide a control apparatus and method for a virtual camera capable of providing an image of the other party's gaze toward the camera regardless of the gaze of the other party.
도 1은 본 발명에 실시예에 따른 가상 카메라의 제어 장치를 도시하는 블록도.
도 2는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 가상 카메라의 배치를 나타내는 예시도.
도 3은 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 제1 및 제2 카메라 모듈에서 출력되는 각각의 영상과 가상 카메라를 통해 생성되는 영상을 나타내는 예시도.
도 4는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 발생하는 거리 편차를 나타내는 예시도.
도 5는 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있는 경우, 가상 카메라의 제어 방법을 도시하는 흐름도.
도 6은 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있지 않은 경우, 가상 카메라의 제어 방법을 도시하는 흐름도이다.1 is a block diagram showing a control apparatus of a virtual camera according to an embodiment of the present invention.
FIG. 2 is an exemplary view showing the arrangement of a virtual camera when first and second camera modules according to an embodiment of the present invention are located on an oblique line; FIG.
FIG. 3 is a diagram illustrating an example of an image generated through a virtual camera and an image output from the first and second camera modules, respectively, when the first and second camera modules according to an embodiment of the present invention are located on a diagonal line. Degree.
4 is a diagram illustrating an example of a distance deviation generated when first and second camera modules according to an embodiment of the present invention are located on a diagonal line;
5 is a flowchart showing a control method of a virtual camera when a deviation fixing control value is stored in advance in a storage unit according to an embodiment of the present invention.
6 is a flowchart showing a control method of a virtual camera when the deviation fixing control value is not stored in advance in the storage unit according to an embodiment of the present invention.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시 예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다. Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited to or limited by the exemplary embodiments. Like reference numerals in the drawings denote members performing substantially the same function.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예컨대, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .
한편, 본 발명의 실시예에 따른 카메라부는 CCD 센서, CMOS 센서 등과 같은 영상 취득 수단이 구비된 적어도 두 개의 카메라 모듈을 포함할 수 있다.Meanwhile, the camera unit according to the embodiment of the present invention may include at least two camera modules having image acquisition means such as a CCD sensor, a CMOS sensor, and the like.
본 발명의 실시예에 따른 저장부는 기록 매체로서 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함할 수 있다. 예컨대, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 피롬(PROM: Programmable Read-Only Memory), 이피롬(EPROM: Erasable PROM), 플래시-이피롬(FLASH-EPROM),롬(ROM: Read Only Memory), 램(RAM: Random Access Memory), CD(Compact Disk), CD-ROM(Compact Disc Read-Only Memory), DVD(Digital Video Disk)―ROM, 자기 테이프, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 광 데이터 저장 장치, 하드 디스크 드라이브(HDD), 솔리드스테이트 드라이브(SSD), 솔리드스테이트 하이브리드 드라이브(SSHD) 및 임베디드 멀티미디어 카드(eMMC: embedded Multi Media Card) 등을 포함할 수 있다. 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다.The storage unit according to an embodiment of the present invention may include all kinds of recording media in which programs and data are stored so that the storage medium can be read by a computer system. For example, a punch card, a paper tape, a programmable read-only memory (PROM), an erasable programmable read-only memory (EPROM), a flash-EPROM, Read only memory (ROM), a random access memory (RAM), a compact disk (CD), a compact disk read-only memory (CD-ROM), a digital video disk (DVD) , A flexible disk, an optical data storage device, a hard disk drive (HDD), a solid state drive (SSD), a solid state hybrid drive (SSHD), and an embedded multimedia card (eMMC) . And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet).
먼저, 본 발명의 실시예에 따른 가상 카메라의 제어 장치 및 방법의 이해를 돕기 위해 다음과 같이 용어를 설명한다.First, in order to facilitate understanding of an apparatus and method for controlling a virtual camera according to an embodiment of the present invention, the following terms will be described.
본 발명의 실시예에 따른 가상 카메라의 제어 장치의 카메라부에 구비된 제1 카메라 모듈와 제2 카메라 모듈은 동일한 피사체를 대상으로 촬영을 수행하여 각각 제1 RGB 영상 신호 및 제2 RGB 영상 신호 생성할 수 있다.The first camera module and the second camera module provided in the camera unit of the virtual camera control apparatus according to the embodiment of the present invention perform shooting on the same subject to generate a first RGB video signal and a second RGB video signal .
본 발명의 실시예에 따른 제1 카메라 모듈과 제2 카메라 모듈은 동일한 피사체를 촬영하며, 수평선을 기준으로 가상의 사선 상의 양단에 각각 배치될 수 있다. 예컨대, 제1 카메라 모듈의 영상 취득 센서의 중심점은 제2 카메라 모듈의 영상 취득 센서의 중심점을 서로 잇는 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향으로 연장될 수 있다. The first camera module and the second camera module according to the embodiment of the present invention photograph the same subject and can be disposed at both ends of a virtual oblique line with respect to a horizontal line. For example, the center point of the image acquisition sensor of the first camera module may be located on a virtual slant line connecting the center points of the image acquisition sensors of the second camera module. The hypothetical oblique line may extend upward in the direction of the horizontal line.
본 발명의 실시예에 따른 제1 카메라 모듈의 영상 취득 센서의 화각(Angle of view)과 제2 카메라 모듈은 화각은 서로 동일하나, 피사체와 각 카메라 모듈 간의 거리는 동일하거나 서로 다른 값을 가질 수 있다.The angle of view of the image acquisition sensor of the first camera module according to the embodiment of the present invention and the angle of view of the second camera module are the same but the distances between the subject and the camera modules may be the same or different from each other .
본 발명의 실시예에 따른 저장부는 피사체와 제1 카메라 모듈 간의 거리 값(L1), 피사체와 제2 카메라 모듈 간의 거리 값(L2), 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 미리 저장할 수 있다.A storage unit according to an embodiment of the present invention includes a distance value L1 between a subject and a first camera module, a distance value L2 between a subject and a second camera module, a center value of the image acquisition sensor of the first camera module, The angle formed by the straight line and the horizontal line, and the angle between the center point of the image acquisition sensor of the second camera module and the straight line connecting the subject and the horizontal line can be stored in advance.
또한, 본 발명의 실시예에 따른 저장부는 가상 카메라를 제어하는 파라미터 정보인 편차 고정 제어값을 미리 저장할 수 있다. 편차 고정 제어값은 거리 편차값과 위치 편차값을 포함할 수 있다.In addition, the storage unit according to the embodiment of the present invention may previously store the deviation fixing control value, which is parameter information for controlling the virtual camera. The deviation lock control value may include a distance deviation value and a position deviation value.
또한, 본 발명의 실시예에 따른 저장부는 가상 카메라를 제어하는 임의의 파라미터 정보인 편차별 제어 테이블을 미리 저장할 수 있다. 편차별 제어 테이블은 거리 테이블 값 및 위치 테이블 값을 포함할 수 있다.In addition, the storage unit according to the embodiment of the present invention may previously store a difference discrimination control table which is arbitrary parameter information for controlling the virtual camera. The difference discrimination control table may include a distance table value and a position table value.
본 발명의 실시예에 따른 거리 테이블 값은 복수 개의 거리 편차값을 포함할 수 있다. 복수의 거리 편차값은 저장부에 미리 저장된 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 생성될 수 있다. The distance table value according to an embodiment of the present invention may include a plurality of distance deviation values. The plurality of distance deviation values may be generated by reflecting the distance (L1) between the first camera module and the subject stored in advance in the storage unit, and the distance (L2) between the second camera module and the subject.
본 발명의 실시예에 따른 위치 테이블 값은 복수 개의 위치 편차값을 포함할 수 있다. 복수의 위치 편차값은 저장부에 미리 저장된 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 생성될 수 있다.The position table value according to an embodiment of the present invention may include a plurality of position deviation values. The plurality of positional deviation values may be generated by reflecting an angle formed by a straight line and a horizontal line connecting the first camera module and the subject stored in advance in the storage unit and an angle formed by a straight line and a horizontal line connecting the second camera module and the subject, .
본 발명의 실시예에 따른 기준 거리값은 0을 가지며, 기준 거리 값 0은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체 간의 거리(L1)와 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체 간의 거리(L2)가 동일한 경우, 제1 카메라 모듈의 영상 취득 센서의 중심점과 제2 카메라 모듈의 영상 취득 센서의 중심점을 잇는 가상의 사선 상에 가운데 지점에 배치된 가상 카메라의 위치를 나타내는 값이다. 기준 거리 값 0에 위치한 가상 카메라는 피사체의 정면 영상을 취득할 수 있다.The reference distance value according to the embodiment of the present invention is 0 and the reference distance value 0 is a distance between the center point of the image acquisition sensor of the first camera module and the object L1 and the center point of the image acquisition sensor of the second camera module, Is a value indicating the position of the virtual camera disposed at the center point on a virtual slant line connecting the center point of the image acquisition sensor of the first camera module and the center point of the image acquisition sensor of the second camera module . The virtual camera located at the reference distance value 0 can acquire the frontal image of the subject.
본 발명의 실시예에 따른 거리 편차값(Deviation Of Distance, 이하 DOD)은 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내는 값이다.The Deviation Of Distance (DOD) according to the embodiment of the present invention is a value indicating the degree of distance of the virtual camera from the reference distance value 0.
또한, 본 발명의 실시예에 따른 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로하는 축소 거리 편차(Deviation Of Distance Reduction, 이하 DODR) 산출 방정식을 통해 산출될 수 있다.In addition, the distance deviation value according to the embodiment of the present invention may be calculated based on a Deviation Of Distance Reduction (DODR) calculating equation based on a specific camera module located at a close distance from a subject among the first camera module and the second camera module, Lt; / RTI >
본 발명의 실시예에 따른 축소 거리 편차 산출 방정식(DODR)은 하기와 같이 표현될 수 있다.The reduction distance deviation calculation equation (DODR) according to the embodiment of the present invention can be expressed as follows.
DODR은 거리 편차값, D1는 피사체와 가까운 거리에 위치한 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 피사체와 가까운 거리에 위치한 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module located close to the subject, and n is the size of the subject of the virtual camera composite image. m is used and is a point equal to the position of the virtual camera at a point where a position deviation value according to a distance between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero, The height of the image of the subject outputted by the RGB video signal output from the specific camera module located close to the subject and H2 is the height of the image of the subject outputted by the RGB video signal output from the remaining camera module Height.
또한, 본 발명의 실시예에 따른 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로하는 확대 거리 편차 산출(Deviation Of Distance Expansion, 이하 DODE) 방정식을 통해 산출될 수 있다.Further, the distance deviation value according to the embodiment of the present invention may be calculated by using a Deviation Of Distance Expansion (DODE) equation based on a specific camera module located at a distance from the subject, Lt; / RTI >
본 발명의 실시예에 따른 확대 거리 편차 산출 방정식(DODE)은 하기와 같이 표현될 수 있다.The enlargement distance deviation calculation equation (DODE) according to the embodiment of the present invention can be expressed as follows.
DODE는 거리 편차값, D2는 피사체와 먼 거리에 위치한 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the specific camera module located at a distance from the subject, and n is the size of the subject of the virtual camera composite image. m is used and is a point equal to the position of the virtual camera at a point where a position deviation value according to a distance between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero, Is the height of the image of the subject outputted by the RGB video signal outputted from the other camera module other than the specific camera module and H2 is the height of the image of the subject outputted by the RGB video signal output from the specific camera module.
본 발명의 실시예에 따른 기준 위치값은 0을 가지며, 기준 위치값 0은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루는 경우, 제1 카메라 모듈의 영상 취득 센서의 중심점과 제2 카메라 모듈의 영상 취득 센서의 중심점을 잇는 가상의 사선 상에 가운데 지점에 배치된 가상 카메라의 위치를 나타내는 값이다. 기준 위치값 0에 위치한 가상 카메라는 피사체의 정면 영상을 취득할 수 있다.The reference position value according to the embodiment of the present invention has a value of 0 and the reference position value 0 is an angle formed by a straight line connecting the central point of the image acquisition sensor of the first camera module and the central point of the subject, When the angle formed by the straight line connecting the center point of the image acquisition sensor of the second camera module and the center point of the subject and the horizontal line is 15 degrees to 20 degrees, the center point of the image acquisition sensor of the first camera module, Is a value indicating the position of the virtual camera disposed at the center point on the virtual slant line connecting the center point of the image acquisition sensor of the camera. The virtual camera located at the reference position value 0 can acquire the frontal image of the subject.
본 발명의 실시예에 따른 위치 편차값(deviation of position, 이하 DOP)은 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내는 값이다.A deviation of position (DOP) according to an exemplary embodiment of the present invention is a value indicating the degree to which the position of the virtual camera is spaced from the reference position value 0. [
또한, 본 발명의 실시예에 따른 위치 편차값은 가상 카메라와 피사체를 잇는 직선과 수평선이 이루는 각도와 비례하여 증가할 수 있다. 예컨대, 가상 카메라와 피사체를 잇는 직선과 수평선이 이루는 각도가 플러스 각도이면, 가상 카메라가 제1 카메라 모듈 쪽에 위치한다. 반면, 가상 카메라와 피사체를 잇는 직선과 수평선이 이루는 각도가 마이너스 각도이면, 가상 카메라가 제2 카메라 모듈 쪽에 위치한다.Further, the positional deviation value according to the embodiment of the present invention may increase in proportion to the angle formed by the straight line connecting the virtual camera and the subject and the horizontal line. For example, if the angle between the straight line connecting the virtual camera and the subject and the horizontal line is positive, the virtual camera is positioned on the first camera module side. On the other hand, if the angle formed by the straight line connecting the virtual camera and the subject and the horizontal line is a negative angle, the virtual camera is located on the second camera module side.
또한, 본 발명의 실시예에 따른 위치 편차값은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다.In addition, the positional deviation value according to the embodiment of the present invention may be determined by the angle formed by the straight line connecting the central point of the image acquisition sensor of the first camera module and the central point of the subject and the horizontal line, and the center point of the image acquisition sensor of the second camera module, Can be calculated from the angle formed by the straight line connecting the center point and the horizontal line.
이하 첨부된 도면을 참조하여 본 발명의 실시예에 따른 가상 카메라 제어 장치 및 방법에 대하여 설명하기로 한다.Hereinafter, an apparatus and method for controlling a virtual camera according to an embodiment of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 실시예에 따른 가상 카메라의 제어 장치를 도시하는 블록도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 가상 카메라의 제어 장치(100)는 카메라부(110), 입력부(120), 저장부(130), 영상 신호 출력부(140) 및 제어부(150)를 포함할 수 있다.1 is a block diagram showing a control apparatus of a virtual camera according to an embodiment of the present invention. 1, a
카메라부(110)는 제1 카메라 모듈(110-1) 및 제2 카메라 모듈(110-2)을 포함할 수 있다.The
제1 카메라 모듈(110-1)은 제어부(150)의 제어에 따라 제2 카메라 모듈(110-2)과 동일한 피사체를 대상으로 촬영을 수행하여 제1 RGB 영상 신호를 생성하고, 생성된 제1 RGB 영상 신호를 제어부(150)의 영상 신호 처리부(152)로 실시간 전달할 수 있다.The first camera module 110-1 generates a first RGB video signal by photographing the same object as the second camera module 110-2 under the control of the
또한, 제1 카메라 모듈(110-1)은 제1 카메라 모듈(110-1)의 영상 취득 센서의 중심점과 제2 카메라 모듈(110-2)의 영상 취득 센서의 중심점을 서로 잇는 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향에 형성될 수 있다.The first camera module 110-1 has a virtual oblique line connecting the center point of the image acquisition sensor of the first camera module 110-1 and the center point of the image acquisition sensor of the second camera module 110-2 Lt; / RTI > An imaginary oblique line can be formed in the upper direction with respect to the horizontal line.
또한, 제1 카메라 모듈(110-1)은 제1 카메라 모듈(110-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 15도 내지 20도 각도 범위를 이루는 위치에 배치될 수 있다.In addition, the first camera module 110-1 is located at a position in a range of 15 to 20 degrees formed by a straight line connecting the central point of the image acquisition sensor of the first camera module 110-1 and the central point of the subject, .
제2 카메라 모듈(110-2)은 제어부(150)의 제어에 따라 제1 카메라 모듈(110-1)과 동일한 피사체를 대상으로 촬영을 수행하여 제2 RGB 영상 신호를 생성하고, 생성된 제2 RGB 영상 신호를 제어부(150)의 영상 신호 처리부(152)로 실시간 전달할 수 있다.The second camera module 110-2 generates a second RGB video signal by capturing an object of the same object as the first camera module 110-1 under the control of the
또한, 제2 카메라 모듈(110-2)은 제2 카메라 모듈(110-2)의 영상 취득 센서의 중심점과 제1 카메라 모듈(110-1)의 영상 취득 센서의 중심점을 서로 잇는 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향에 형성될 수 있다.The second camera module 110-2 has a virtual oblique line connecting the center point of the image acquisition sensor of the second camera module 110-2 and the center point of the image acquisition sensor of the first camera module 110-1 Lt; / RTI > An imaginary oblique line can be formed in the upper direction with respect to the horizontal line.
또한, 제2 카메라 모듈(110-2)은 제2 카메라 모듈(110-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 -15도 내지 -20도 각도 범위를 이루는 위치에 배치될 수 있다.In addition, the second camera module 110-2 has a range of -15 degrees to -20 degrees formed by a straight line connecting the central point of the image acquisition sensor of the second camera module 110-2 and the central point of the subject, Position.
입력부(120)는 제어부(150)의 제어에 따라 표시부(미도시)를 통해 표출되는 복수 개의 합성 영상 신호 중 사용자에 의해 선택된 하나의 합성 영상을 나타내는 사용자 선택 신호를 수신할 수 있다.The
저장부(130)는 편차 고정 제어 값 및 편차별 제어 테이블을 미리 저장할 수 있다. The
편차 고정 제어 값은 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함할 수 있다.The deviation fixed control value may include a distance deviation value and a position deviation value which are parameter information for controlling the virtual camera.
편차별 제어 테이블은 가상 카메라를 제어하는 임의의 파라미터 정보인 거리 테이블 값 및 위치 테이블 값을 포함할 수 있다. The difference discrimination control table may include a distance table value and a position table value which are arbitrary parameter information for controlling the virtual camera.
거리 테이블 값은 복수 개의 거리 편차값을 포함할 수 있다. 복수 개의 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로하는 축소 거리 편차 산출 방정식을 통해 복수 개가 산출될 수 있다. 축소 거리 편차 산출 방정식을 통해 산출된 복수 개의 거리 편차값은 저장부(130)에 미리 저장될 수 있다.The distance table value may include a plurality of distance deviation values. A plurality of distance deviation values may be calculated through a shrinkage distance deviation calculating equation based on a specific camera module located at a close distance from the subject among the first camera module and the second camera module. The plurality of distance deviation values calculated through the reduction distance deviation calculation equation may be stored in the
또한, 복수 개의 거리 편차값은 제1 카메라 모듈 및 제2 카메라 모듈 중 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로하는 확대 거리 편차 산출 방정식을 통해 복수 개가 산출될 수 있다. 축소 거리 편차 산출 방정식을 통해 산출된 복수 개의 거리 편차값은 저장부(130)에 미리 저장될 수 있다.In addition, a plurality of distance deviation values may be calculated through an enlarged distance deviation calculation equation based on a specific camera module located at a distance from the subject, among the first camera module and the second camera module. The plurality of distance deviation values calculated through the reduction distance deviation calculation equation may be stored in the
위치 테이블 값은 복수 개의 위치 편차값을 포함할 수 있다. 복수 개의 위치 편차값은 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출될 수 있다. 산출된 복수 개의 위치 편차값은 저장부(130)에 미리 저장될 수 있다.The position table value may include a plurality of position deviation values. The plurality of positional deviation values are obtained by dividing an angle formed by a straight line and a horizontal line connecting the center point of the image acquisition sensor of the first camera module and the subject and a straight line connecting the center point of the image acquisition sensor of the second camera module and the center point of the subject and a horizontal line Can be calculated from the angle formed. The calculated plurality of positional deviation values may be stored in the
또한, 저장부(130)는 피사체와 제1 카메라 모듈 간의 거리 값(L1), 피사체와 제2 카메라 모듈 간의 거리 값(L2), 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 미리 저장할 수 있다. 예컨대, 피사체와 제1 카메라 모듈 간의 거리 값(L1), 피사체와 제2 카메라 모듈 간의 거리 값(L2), 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도는 입력부(120)를 통해 각각 수신되어 저장부(130)에 미리 저장될 수 있으며, 제1 카메라 모듈(110-1) 및 제2 카메라 모듈(110-2)의 위치 변경 시 새로운 값으로 갱신될 수 있다. The
또한, 피사체와 제1 카메라 모듈 간의 거리 값(L1)과 피사체와 제2 카메라 모듈 간의 거리 값(L2)은 제1 카메라 모듈(110-1) 및 제2 카메라 센서 모듈(110-2)에 각각 구비된 거리 센서(미도시)를 통해 제어부(150)가 측정하고, 측정된 각각의 거리값을 저장부(130)에 저장할 수 있다.The distance value L1 between the subject and the first camera module and the distance L2 between the subject and the second camera module are set to the first camera module 110-1 and the second camera sensor module 110-2, The
제어부(150)는 영상 신호 처리 제어부(151), 영상 신호 처리부(152), 영상 신호 합성부(153) 및 가상 카메라 설정부(154)를 포함할 수 있다.The
먼저, 제어부(150)의 영상 신호 처리 제어부(151)는 카메라부(110)에 구비된 제1 카메라 모듈(110-1)과 제2 카메라 모듈(110-2)이 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 생성하여 영상 신호 처리 제어부(151)로 출력하도록 제어할 수 있다. First, the video
그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(130)에 편차 고정 제어값이 미리 저장되어 있는지 판단할 수 있다.Thereafter, the video signal
상기 판단 결과, 편차 고정 제어값이 미리 저장되어 있는 경우, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(130)로부터 미리 저장된 편차 고정 제어값을 추출할 수 있다.As a result of the determination, if the deviation fixing control value is stored in advance, the video
그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 카메라부(110)로부터 출력되는 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 대상으로 추출된 편차 고정 제어값을 반영하여, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 생성하고, 생성된 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 영상 신호 처리부(152)로 실시간 출력할 수 있다. 예컨대, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호는 제1 카메라 모듈(110-1)과 제2 카메라 모듈(110-2) 사이를 잇는 가상의 사선 상의 특정 지점에 위치하는 가상 카메라에서 피사체를 대상으로 촬영된 영상 신호와 동일한 영상 신호를 생성하기 위해 합성에 사용되는 영상 신호들이다. 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호는 피사체를 대상으로 촬영하는 가상 카메라의 화각과 최종 출력되는 피사체의 영상의 크기가 조정된 영상 신호의 정보를 각각 포함할 수 있다.Thereafter, the video signal
그 후, 제어부(150)의 영상 처리 신호부(152)는 영상 신호 처리 제어부(151)로부터 수신받은 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호들로부터 제1 가상 카메라 휘도 신호, 제1 가상 카메라 색차 신호, 제2 가상 카메라 휘도 신호 및 제2 가상 카메라 색차 신호를 각각 실시간 생성할 수 있다. 예컨대, 제어부(150)의 영상 신호 처리부(152)는 영상 신호 처리 제어부(151)로부터 전달되는 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 휘도 신호 및 제1 가상 카메라 색차 신호를 실시간 생성할 수 있다. 제1 가상 카메라 색차 신호는 제1 가상 카메라 RY 색차 신호, 제1 가상 카메라 GY 색차 신호 및 제1 가상 카메라 BY 색차 신호를 포함할 수 있다. 또한, 제어부(150)의 영상 신호 처리부(152)는 영상 신호 처리 제어부(151)로부터 전달되는 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 휘도 신호 및 제2 가상 카메라 색차 신호를 실시간 생성할 수 있다. 제2 가상 카메라 색차 신호는 제2 가상 카메라 RY 색차 신호, 제2 가상 카메라 GY 색차 신호 및 제2 가상 카메라 BY 색차 신호를 포함할 수 있다.Then, the image
그 후, 제어부(150)의 영상 신호 처리부(152)는 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 실시간 생성할 수 있다. 예컨대, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 휘도 신호와 제2 가상 카메라 휘도 신호 간의 차이를 산출하여, 두 신호 간의 차이를 나타내는 가상 카메라 휘도 신호 차이값을 실시간 생성하고, 생성된 가상 카메라 휘도 신호 차이값으로부터 가상 카메라 휘도 신호 보정값을 실시간 생성할 수 있다. 가상 카메라 휘도 신호 보정값은 두 신호 간의 차이가 없어지도록 보정하기 위한 값이다. 또한, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 색차 신호와 제2 가상 카메라 색차 신호 간의 차이를 산출하여, 두 신호 간의 차이를 나타내는 가상 카메라 색차 신호 차이값을 실시간 생성하고, 생성된 가상 카메라 색차 신호 차이값으로부터 가상 카메라 색차 신호 보정값을 실시간 생성할 수 있다. 가상 카메라 색차 신호 보정값은 두 신호 간의 차이가 없어지도록 보정하기 위한 값이다.Thereafter, the video
또한, 제어부(150)의 영상 신호 처리부(152)는 실시간 생성되는 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 저장부(130)에 저장할 수 있다. 저장부(130)에 저장된 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값은 제어부(150)의 영상 신호 처리부(152)가 새로운 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값의 생성 시간을 단축하기 위한 참조값으로 사용될 수 있다.The
그 후, 제어부(150)의 영상 신호 처리부(152)는 생성된 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값으로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성할 수 있다. 예컨대, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 휘도 신호 및 제2 가상 카메라 휘도 신호를 대상으로 생성된 가상 카메라 휘도 신호 보정값을 반영하여 보정된 제1 가상 카메라 휘도 신호 및 보정된 제2 가상 카메라 휘도 신호를 각각 생성할 수 있다. 또한, 제어부(150)의 영상 신호 처리부(152)는 제1 가상 카메라 색차 신호 및 제2 가상 카메라 색차 신호를 대상으로 생성된 가상 카메라 색차 신호 보정값을 반영하여 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성할 수 있다.Thereafter, the video
그 후, 제어부(150)의 영상 신호 처리부(152)는 생성된 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 영상 신호 합성부(153)로 전달할 수 있다.Thereafter, the video
그 후, 제어부(150)의 영상 신호 합성부(153)는 영상 신호 처리부(152)로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들을 전달받아, 전달받은 신호들이 합성된 하나의 영상 신호인 가상 카메라 합성 영상 신호를 실시간 생성할 수 있다.Thereafter, the video
또한, 제어부(150)의 영상 신호 합성부(153)는 생성된 가상 카메라 합성 영상 신호를 대상으로 가상 카메라 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the video
그 후, 제어부(150)의 영상 신호 합성부(153)는 생성된 가상 카메라 합성 영상 신호를 영상 신호 출력부(140)에 구비된 가상 카메라 영상 신호 출력부(140-1)로 실시간 전달할 수 있다.Thereafter, the video
영상 신호 출력부(140)는 가상 카메라 영상 신호 출력부(140-1) 및 합성 영상 신호 출력부(140-2)를 포함할 수 있다.The video
가상 카메라 영상 신호 출력부(140-1)는 제어부(150)의 제어에 따라 영상 신호 합성부(153)로부터 가상 카메라 합성 영상 신호를 실시간 전달받고, 전달받은 가상 카메라 합성 영상 신호를 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경하여 표시부(미도시)로 출력할 수 있다.The virtual camera video signal output unit 140-1 receives the virtual camera composite video signal in real time from the video
한편, 편차 고정 제어값이 미리 저장되어 있지 않은 경우, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 임의의 위치 편차값 및 임의의 거리 편차값을 각각 추출할 수 있다.On the other hand, when the deviation fixing control value is not stored in advance, the video signal
임의의 위치 편차값은 편차별 제어 테이블에 포함된 위치 테이블값으로부터 추출될 수 있다. 또한, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(150)에 미리 저장된 제1 카메라 모듈(110-1)과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈(110-2)과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 임의의 위치 편차값을 편차별 제어 테이블로부터 추출할 수 있다.Any position deviation value can be extracted from the position table value included in the deviation discrimination control table. The image
임의의 거리 편차값은 편차별 제어 테이블에 포함된 거리 테이블값으로부터 추출될 수 있다. 또한, 제어부(150)의 영상 신호 처리 제어부(151)는 저장부(150)에 미리 저장된 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 임의의 거리 편차값을 편차별 제어 테이블로부터 추출할 수 있다. Any distance deviation value can be extracted from the distance table value included in the deviation discrimination control table. The video signal
그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 추출된 임의의 위치 편차값 및 임의의 거리 편차값을 포함하는 임의의 편차 제어값을 생성할 수 있다. Thereafter, the video signal
그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 추출된 임의의 편차 제어값을 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 각각 반영하여, 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호를 각각 생성할 수 있다.Thereafter, the video signal
그 후, 제어부(150)의 영상 신호 처리 제어부(151)는 생성된 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호를 영상 신호 처리부(152)로 전달할 수 있다.Then, the video
그 후, 제어부(150)의 영상 신호 처리부(152)는 전달받은 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호들로부터 제1 휘도 신호, 제1 색차 신호, 제2 휘도 신호 및 제2 색차 신호를 각각 실시간 생성할 수 있다.Thereafter, the video
그 후, 제어부(150)의 영상 신호 처리부(152)는 휘도 신호 보정값 및 색차 신호 보정값을 실시간 생성할 수 있다.Thereafter, the video
그 후, 제어부(150)의 영상 신호 처리부(152)는 생성된 휘도 신호 보정값 및 색차 신호 보정값으로부터 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성할 수 있다.Thereafter, the video
또한, 제어부(150)의 영상 신호 처리부(152)는 생성된 휘도 보정값 및 색차 보정값을 저장부(130)에 실시간 저장할 수 있다.In addition, the
그 후, 제어부(150)의 영상 신호 처리부(152)는 보정된 제1 휘도 신호, 보정된 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들을 영상 신호 합성부(152)로 전달할 수 있다.Thereafter, the video
그 후, 제어부(150)의 영상 신호 합성부(152)는 전달받은 보정된 제1 휘도 신호, 보정된 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 실시간 생성할 수 있다.Thereafter, the image
또한, 제어부(150)의 영상 신호 합성부(152)는 생성된 합성 영상 신호를 대상으로 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the video
그 후, 제어부(150)는 생성된 합성 영상 신호를 영상 신호 출력부(140)의 합성 영상 신호 출력부(140-2)로 실시간 전달할 수 있다.Thereafter, the
그 후, 제어부(150)는 합성 영상 신호 출력부(140-2)를 통해 합성 영상 신호가 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경되어 표시부(미도시)로 출력되도록 제어할 수 있다.Thereafter, the
그 후, 제어부(150)의 가상 카메라 설정부(154)는 입력부(120)를 통해 사용자 선택 신호가 수신되었는지 판단할 수 있다. 사용자 선택 신호는 표시부(미도시)로 출력되는 복수 개의 합성 영상 신호 중 사용자에 의해 선택된 하나의 합성 영상을 나타내는 정보를 포함할 수 있다.Thereafter, the virtual
상기 판단 결과, 사용자 선택 신호가 수신된 경우, 제어부(150)의 가상 카메라 설정부(154)는 사용자 선택 신호에 따라 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 추출할 수 있다.If the user selection signal is received, the virtual
또한, 제어부(150)의 가상 카메라 설정부(154)는 추출된 위치 편차값과 거리 편차값을 포함하는 편차 고정 제어값을 생성하여 저장부(130)에 저장 또는 갱신할 수 있다. In addition, the virtual
한편, 사용자 선택 신호가 수신되지 않은 경우, 제어부(150)의 가상 카메라 설정부(154)는 현재 사용된 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하여, 사용자 선택 신호 판단을 수행하기 전까지의 처리를 재수행할 수 있다. 예컨대, 제어부(150)의 가상 카메라 설정부(154)는 현재 사용된 임의의 편차 제어값에 포함된 거리 편차값이 0이고 위치 편차값이 0이라면, 저장부(130)의 편차별 제어 테이블로부터 1의 값을 가지는 거리 편차값 및 1의 값을 가지는 위치 편차값을 추출하여 새로운 임의의 편차 제어값을 생성할 수 있다.On the other hand, when no user selection signal is received, the virtual
한편, 상기 가상 카메라의 제어 장치(100)의 각각의 구성요소들은 기능 및 논리적으로 분리될 수 있음을 나타나기 위해 별도로 도면에 표시한 것이며, 물리적으로 반드시 별도의 구성요소이거나 별도의 코드로 구현되는 것을 의미하는 것은 아니다.In the meantime, each component of the
그리고 본 명세서에서 각 기능부라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부는 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술 분야의 평균적 전문가에게는 용이하게 추론될 수 있다. In this specification, each function means a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, each functional unit may refer to a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and may be a code physically connected to the functional unit, But can be easily deduced to the average expert in the field of the invention.
도 2는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 가상 카메라의 배치를 나타내는 예시도이다. 도 2를 참조하면, 먼저, 본 발명의 실시예에 다른 제1 카메라 모듈(210-1)은 수평선과 평행한 가상의 수평선상에 설치되며, 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)은 가상의 사선으로 서로 이어질 수 있다. 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 가상의 사선 상에는 복수 개의 가상의 카메라(210-3)들은 서로 등간격을 유지하도록 배치될 수 있다.FIG. 2 is an exemplary view showing the arrangement of a virtual camera when first and second camera modules according to an embodiment of the present invention are located on an oblique line; FIG. 2, the first camera module 210-1 according to the embodiment of the present invention is installed on an imaginary horizontal line parallel to the horizontal line, and the first camera module 210-1 and the second camera module 210-1, Module 210-2 may be connected to each other in a virtual diagonal line. A plurality of virtual cameras 210-3 may be arranged to be spaced apart from each other on a virtual slant line connecting the first camera module 210-1 and the second camera module 210-2.
도 3은 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 제1 및 제2 카메라 모듈에서 출력되는 각각의 영상과 가상 카메라를 통해 생성되는 영상을 나타내는 예시도이다. 도 3을 참조하면, 먼저, 본 발명의 실시예에 따른 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)은 가상의 사선 상에 위치할 수 있다. 가상의 사선은 수평선을 기준으로 상부 방향으로 연장되어 형성될 수 있다. FIG. 3 is a diagram illustrating an example of an image generated through a virtual camera and an image output from the first and second camera modules, respectively, when the first and second camera modules according to an embodiment of the present invention are located on a diagonal line. . Referring to FIG. 3, the first camera module 210-1 and the second camera module 210-2 according to the embodiment of the present invention may be located on a virtual diagonal line. The hypothetical oblique line can be formed extending in the upward direction with respect to the horizontal line.
또한, 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점은 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점보다 피사체(230)의 중심점에 더 가까운 거리에 위치할 수 있다. The center point of the image capturing sensor of the first camera module 210-1 may be located closer to the center point of the subject 230 than the center point of the image capturing sensor of the second camera module 210-2.
또한, 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 형성할 수 있다.An angle formed by a straight line connecting the central point of the image acquisition sensor of the first camera module 210-1 and the central point of the subject and the horizontal line forms an angle of 15 to 20 degrees and the image of the second camera module 210-2 The angle formed by the straight line connecting the center point of the acquisition sensor and the center point of the subject and the horizontal line can be 15 degrees to 20 degrees.
제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 가상의 사선 상에 복수 개의 가상 카메라(210-3)들이 각각 등간격을 유지하며 배치될 수 있다.A plurality of virtual cameras 210-3 may be disposed at equal intervals on a virtual slant line connecting the first camera module 210-1 and the second camera module 210-2.
복수 개의 가상 카메라(210-3)들 중 가운데 위치한 가상 카메라를 기준으로 상부 방향에 배치되는 적어도 하나의 가상 카메라는 제1 카메라 모듈(210-1) 쪽에 배치될 수 있다.At least one virtual camera disposed in the upper direction with respect to the virtual camera positioned at the center among the plurality of virtual cameras 210-3 may be disposed on the first camera module 210-1.
또한, 복수 개의 가상 카메라(210-3)들 중 가운데 위치한 가상 카메라를 기준으로 하부 방향에 배치되는 적어도 하나의 가상 카메라는 제2 카메라 모듈(210-2) 쪽에 배치될 수 있다.In addition, at least one virtual camera disposed in the lower direction with respect to the virtual camera positioned at the center among the plurality of virtual cameras 210-3 may be disposed on the side of the second camera module 210-2.
제1 카메라 모듈(210-1)은 피사체(230)의 상부면이 포함된 제1 카메라 모듈의 출력 영상(220-1)을 출력할 수 있다.The first camera module 210-1 may output the output image 220-1 of the first camera module including the upper surface of the subject 230. [
제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이가 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이보다 더 짧으므로, 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지의 폭(width)은 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지의 폭보다 더 큰 값을 가질 수 있다. 따라서 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지는 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지에 비해 확대된 이미지를 가질 수 있다. The length of a straight line connecting the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject is shorter than the length of the straight line connecting the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject The width of the image of the subject 230 finally output by the output image 220-1 of the first camera module is finally output by the output image 220-2 of the second camera module And may have a value larger than the width of the image of the subject 230. [ Accordingly, the image of the subject 230 that is finally output by the output image 220-1 of the first camera module is compared with the image of the subject 230 that is finally output by the output image 220-2 of the second camera module It may have an enlarged image.
제2 카메라 모듈(210-2)은 피사체(230)의 하부면이 포함된 제2 카메라 모듈의 출력 영상(220-2)을 출력할 수 있다.The second camera module 210-2 may output the output image 220-2 of the second camera module including the lower surface of the subject 230. [
제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이가 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선의 길이보다 더 길기 때문에, 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지의 폭은 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지의 폭보다 더 작은 값을 가질 수 있다. 따라서 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체(230)의 이미지는 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체(230)의 이미지에 비해 축소된 이미지를 가질 수 있다.The length of a straight line connecting the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject is shorter than the length of the straight line connecting the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject The width of the image of the subject 230 that is finally output by the output image 220-2 of the second camera module is shorter than the width of the subject 230 that is finally output by the output image 220-1 of the first camera module Quot;) < / RTI > The image of the subject 230 finally output by the output image 220-2 of the second camera module is compared with the image of the subject 230 which is finally output by the output image 220-1 of the first camera module You can have a reduced image.
복수 개의 가상 카메라(210-3)가 출력하는 복수 개의 가상 카메라 합성 영상 (220-3) 중 하나는 피사체(230)의 정면부를 포함하는 영상을 출력할 수 있다. One of the plurality of virtual camera composite images 220-3 output by the plurality of virtual cameras 210-3 may output an image including a front portion of the subject 230. [
복수 개의 가상 카메라(210-3)가 출력하는 복수 개의 가상 카메라 합성 영상 (220-3) 중 최상부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지의 폭은 최하부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지의 폭보다 큰 값을 가질 수 있다. 따라서 최상부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지는 최하부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지에 비해 확대된 이미지를 가질 수 있다. The width of the image of the subject 230, which is finally output by the virtual camera located at the top of the plurality of virtual camera composite images 220-3 output from the plurality of virtual cameras 210-3, And may have a value larger than the width of the image of the subject 230 that is finally output. Therefore, the image of the subject 230, which is finally output by the virtual camera located at the uppermost position, can have an enlarged image as compared with the image of the subject 230 which is finally output by the virtual camera located at the lowermost position.
반면, 최하부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지는 최상부에 위치한 가상 카메라에 의해 최종 출력되는 피사체(230)의 이미지에 비해 축소된 이미지를 가질 수 있다.On the other hand, the image of the subject 230 that is finally output by the virtual camera located at the lowermost portion may have a reduced image compared to the image of the subject 230 that is finally output by the virtual camera located at the topmost position.
도 4는 본 발명에 실시예에 따른 제1 및 제2 카메라 모듈이 서로 사선 상에 위치할 경우, 발생하는 거리 편차를 나타내는 예시도이다. 도 4를 참조하면, 먼저, 본 발명의 실시예에 다른 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)는 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)보다 더 짧다. FIG. 4 is a diagram illustrating distance deviations occurring when first and second camera modules according to an embodiment of the present invention are located on a diagonal line; FIG. Referring to Figure 4, The distance L1 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230 according to the embodiment of the present invention is smaller than the distance L1 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230, Is shorter than the distance L2 between the center point of the subject 230 and the center point of the subject 230.
반면, 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)는 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)보다 더 길다.The distance L2 between the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject 230 is longer than the distance L2 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230. [ Is longer than the distance Ll between the center points of the center of gravity.
제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 이루며, 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도가 15도 내지 20도를 형성한다.The angle formed by the straight line connecting the central point of the image acquisition sensor of the first camera module 210-1 and the central point of the subject and the horizontal line is 15 degrees to 20 degrees and the image acquisition sensor of the second camera module 210-2 The angle formed by the straight line connecting the center point of the subject and the center point of the subject and the horizontal line forms 15 to 20 degrees.
제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 가상의 사선 상에 복수 개의 가상 카메라(210-3)가 등간격을 유지하며 배치될 수 있다.A plurality of virtual cameras 210-3 may be arranged on an imaginary slant line connecting the first camera module 210-1 and the second camera module 210-2 while maintaining equal intervals.
제1 카메라 모듈(210-1)은 피사체(230)의 상부면이 포함된 제1 카메라 모듈의 출력 영상(220-1)을 출력할 수 있다.The first camera module 210-1 may output the output image 220-1 of the first camera module including the upper surface of the subject 230. [
또한, 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체의 은 폭(D1)은 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체의 폭(D2)보다 더 넓다. 이는 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)가 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)보다 더 짧은 거리를 갖기 때문이다. The silver width D1 of the subject finally output by the output image 220-1 of the first camera module corresponds to the width D2 of the subject finally output by the output image 220-2 of the second camera module, It is much wider. This is because the distance L1 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230 is smaller than the distance L1 between the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject 230 Is shorter than the distance L2 between the center points.
제2 카메라 모듈(210-2)은 피사체(230)의 하부면이 포함된 제2 카메라 모듈의 출력 영상(220-2)을 출력할 수 있다.The second camera module 210-2 may output the output image 220-2 of the second camera module including the lower surface of the subject 230. [
또한, 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체의 은 폭(D2)은 제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체의 폭(D1)보다 더 좁다. 이는 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L2)가 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체(230)의 중심점 간의 거리(L1)보다 더 긴 거리를 갖기 때문이다.The silver width D2 of the subject finally output by the output image 220-2 of the second camera module is the width D1 of the subject finally output by the output image 220-1 of the first camera module, . This is because the distance L2 between the center point of the image capturing sensor of the second camera module 210-2 and the center point of the subject 230 is shorter than the distance L2 between the center point of the image capturing sensor of the first camera module 210-1 and the center point of the subject 230 And has a longer distance than the distance L1 between the center points.
제1 카메라 모듈의 출력 영상(220-1)에 의해 최종 출력되는 피사체의 폭(D1)과 제2 카메라 모듈의 출력 영상(220-2)에 의해 최종 출력되는 피사체의 폭(D2)으로부터 거리 편차값을 산출할 수 있다.From the width D2 of the subject finally output by the width D1 of the subject finally output by the output image 220-1 of the first camera module and the output image 220-2 of the second camera module, Value can be calculated.
본 발명의 실시예에 따른 거리 편차값(DOD)은 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내는 값이다.The distance deviation value DOD according to the embodiment of the present invention is a value indicating the degree of distance of the virtual camera from the reference distance value 0.
또한, 본 발명의 실시예에 따른 거리 편차값(DOD)은 축소 거리 편차(Deviation Of Distance Reduction, 이하 DODR) 산출 방정식 또는 확대 거리 편차 산출(Deviation Of Distance Expansion, 이하 DODE) 방정식을 통해 산출될 수 있다. Also, the distance deviation value DOD according to the embodiment of the present invention can be calculated through a Deviation Of Distance Reduction (DODR) calculation equation or a Deviation Of Distance Expansion (DODE) equation have.
도 4에 도시된 바와 같이, 축소 거리 편차(DODR) 산출 방정식은 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 거리 편차값 산출할 수 있다. 예컨대, 축소 거리 편차(DODR) 산출 방정식은 거리 편차값 산출 시, 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 가까운 거리에 위치한 특정 카메라 모듈인 제1 카메라 모듈(210-1)을 기준으로 사용할 수 있다. As shown in FIG. 4, the reduction distance deviation (DODR) calculation equation is calculated based on the distance between the first camera module 210-1 and the second camera module 210-2, The deviation value can be calculated. For example, the calculation method of the reduction distance deviation (DODR) is a method of calculating the distance deviation value based on the distance between the first camera module 210-1 and the second camera module 210-2, Module 210-1 as a reference.
본 발명의 실시예에 따른 축소 거리 편차 산출 방정식(DODR)은 하기와 같이 표현될 수 있다.The reduction distance deviation calculation equation (DODR) according to the embodiment of the present invention can be expressed as follows.
DODR은 거리 편차값, D1는 피사체와 가까운 거리에 위치한 특정 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODR is the distance deviation value, D1 is the width of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is a specific camera module located close to the subject, (M) is used as a value indicating the size of a subject, and the position of the subject is changed to a point at which a position deviation value corresponding to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero. H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 and H2 is the height of the image of the second camera Means the height of the image of the subject output by the RGB video signal output from the module 210-2.
또한, 축소 거리 편차 산출 방정식(DODR)으로 거리 편차값 산출 시, 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제2 카메라 모듈(210-2)의 거리 편차값은 D2+(H1-H2-n)으로 산출될 수 있다. D2는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 나타낸다.Further, at the time of calculating the distance deviation value by the reduction distance variation calculation equation (DODR), the distance deviation value of the second camera module 210-2 which is a camera module other than the specific camera module is calculated as D2 + (H1-H2-n) . D2 is the width of the image of the subject outputted by the RGB video signal outputted from the second camera module 210-2 which is not the specific camera module, and n is the value indicating the size of the subject of the virtual camera composite image Unit m is used and the same position as the position of the virtual camera at a point where a position deviation value according to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0 H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is a specific camera module, H2 is the height of the image of the subject outputted from the second camera module 210-2, And the height of the image of the subject output by the camera.
또한, 도 4에 도시된 바와 같이, 확대 거리 편차(DODE) 산출 방정식은 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 거리 편차값 산출할 수 있다. 예컨대, 확대 거리 편차(DODE) 산출 방정식은 거리 편차값 산출 시, 제1 카메라 모듈(210-1) 및 제2 카메라 모듈(210-2) 중 피사체와 먼 거리에 위치한 특정 카메라 모듈인 제2 카메라 모듈(210-2)을 기준으로 사용할 수 있다. 4, the enlargement distance deviation (DODE) calculation equation is calculated by dividing a specific camera module located at a distance from the subject, among the first camera module 210-1 and the second camera module 210-2, To calculate the distance deviation value. For example, when calculating the distance deviation value, the DODE calculation equation is used to calculate the distance deviation value based on a distance between the first camera module 210-1 and the second camera module 210-2, Module 210-2 as a reference.
본 발명의 실시예에 따른 확대 거리 편차 산출 방정식(DODE)은 하기와 같이 표현될 수 있다.The enlargement distance deviation calculation equation (DODE) according to the embodiment of the present invention can be expressed as follows.
DODE는 거리 편차값, D2는 피사체와 먼 거리에 위치한 특정 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이 및 H2는 특정 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.DODE is the distance deviation value, D2 is the width of the image of the subject outputted by the RGB video signal outputted from the second camera module 210-2 which is a specific camera module located at a distance from the subject, (M) is used as a value indicating the size of a subject, and the position of the subject is changed to a point at which a position deviation value corresponding to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module becomes zero. H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is not the specific camera module and H2 is the height of the image of the specific camera module Means the height of the image of the subject output by the RGB video signal output from the second camera module 210-2.
또한, 확대 거리 편차 산출 방정식(DODE)으로 거리 편차값 산출 시, 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)의 거리 편차값은 D1-(H1-H2-n)으로 산출될 수 있다. D1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비, n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함, H1는 특정 카메라 모듈이 아닌 나머지 카메라 모듈인 제1 카메라 모듈(210-1)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이, H2는 특정 카메라 모듈인 제2 카메라 모듈(210-2)에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이를 의미한다.In calculating the distance deviation value by the enlargement distance deviation calculation equation (DODE), the distance deviation value of the first camera module 210-1 which is a camera module other than the specific camera module is D1- (H1-H2-n) Can be calculated. D1 is the width of the image of the subject outputted from the RGB video signal outputted from the first camera module 210-1 which is the camera module other than the specific camera module and n is the value indicating the size of the subject of the virtual camera composite image Unit m is used and the same position as the position of the virtual camera at a point where a position deviation value according to a difference between the distance between the subject and the specific camera module and the distance between the subject and the remaining camera module becomes 0 H1 is the height of the image of the subject outputted by the RGB video signal outputted from the first camera module 210-1 which is the other camera module other than the specific camera module and H2 is the height of the second camera module 210 -2) of the subject image outputted by the RGB video signal.
따라서 본 발명의 실시예에 따른 가상 카메라의 제어 장치 및 방법은 편차별 제어 테이블에 미리 저장된 편차 고정 제어값을 통해 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 사선 상의 위치하는 가상 카메라의 위치를 결정할 수 있다.Therefore, the apparatus and method for controlling a virtual camera according to an embodiment of the present invention may be configured such that a first camera module 210-1 and a second camera module 210-2 are connected to each other through a deviation control value stored in advance in a deviation control table The position of the virtual camera located on the diagonal line can be determined.
또한, 본 발명의 실시예에 따른 가상 카메라의 제어 장치 및 방법은 편차별 제어 테이블에 미리 저장된 편차 고정 제어값이 없다면, 제1 카메라 모듈(210-1)과 제2 카메라 모듈(210-2)을 서로 잇는 사선 상의 위치하는 가상 카메라의 위치를 임의의 편차 고정 제어값을 생성하여 임시로 결정한 후, 사용자 입력 신호에 따라 편차 고정 제어값 결정하여 가상 카메라의 위치를 제어할 수 있다.The apparatus and method for controlling a virtual camera according to an exemplary embodiment of the present invention may include a first camera module 210-1 and a second camera module 210-2, And the position of the virtual camera can be controlled by determining a deviation fixed control value according to the user input signal after temporarily determining an arbitrary deviation fixed control value.
편차별 제어 테이블은 미리 산출되어 생성된 복수 개의 위치 편차값 및 복수 개의 거리 편차값을 포함할 수 있다. 예컨대, 본 발명의 실시예에 따른 가상 카메라의 제어 장치는 복수 개의 거리 편차값 중 입력부를 통해 입력받거나 저장부에 미리 저장된 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점 간의 거리(L1) 및 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점 간의 거리(L2)에 대응하는 임의의 거리 편차값을 추출할 수 있다.The deviation discrimination control table may include a plurality of position deviation values and a plurality of distance deviation values generated in advance and generated. For example, the controller of a virtual camera according to an embodiment of the present invention may calculate the distance L1 between the center point of the image acquisition sensor of the first camera module and the center point of the object received through the input unit or stored in the storage unit among the plurality of distance deviation values, And an arbitrary distance deviation value corresponding to the distance L2 between the center point of the image acquisition sensor of the second camera module and the center point of the subject can be extracted.
또한, 본 발명의 실시예에 따른 가상 카메라의 제어 장치는 저장부에 미리 저장된 제1 카메라 모듈(210-1)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 제2 카메라 모듈(210-2)의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도에 대응하는 임의의 위치 편차값을 추출할 수 있다.In addition, the controller of the virtual camera according to the embodiment of the present invention controls the angles formed by the straight line and the horizontal line connecting the central point of the image acquisition sensor of the first camera module 210-1 stored in advance in the storage unit and the central point of the subject, It is possible to extract an arbitrary position deviation value corresponding to an angle formed by a straight line connecting the center point of the image acquisition sensor of the camera module 210-2 and the center point of the subject and the horizontal line.
도 5는 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있는 경우, 가상 카메라의 제어 방법을 도시하는 흐름도이다. 도 5를 참조하면, 본 발명의 실시예에 따른 가상 카메라의 제어 장치(100)의 제어부(150)는 가상의 사선 상의 양단에 각각 배치되며, 피사체를 대상으로 촬영을 수행하는 제1 카메라 모듈(201-1) 및 제2 카메라 모듈(210-2)로부터 로부터 각각 생성된 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 수신할 수 있다(501).5 is a flowchart showing a control method of a virtual camera when a deviation fixing control value is stored in advance in a storage unit according to an embodiment of the present invention. 5, the
그 후, 제어부(150)는 구비된 저장부(130)에 편차 고정 제어값이 미리 저장되어 있는지 판단할 수 있다(502). Thereafter, the
상기 판단 결과, 편차 고정 제어값이 저장부(130)에 미리 저장되어 있는 경우, 제어부(150)는 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 편차 고정 제어값을 반영하여, 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성할 수 있다(503). 예컨대, 제어부(150)는 저장부(130)로부터 미리 저장된 편차 고정 제어값을 추출할 수 있다.As a result of the determination, when the deviation fixed control value is stored in advance in the
그 후, 제어부(150)는 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 실시간 생성할 수 있다(504). 예컨대, 제어부(150)의 생성된 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호들로부터 제1 가상 카메라 휘도 신호, 제1 가상 카메라 색차 신호, 제2 가상 카메라 휘도 신호 및 제2 가상 카메라 색차 신호를 각각 실시간 생성할 수 있다. 그 후, 제어부(150)는 제1 가상 카메라 휘도 신호 및 제2 가상 카메라 휘도 신호로부터 가상 카메라 휘도 신호 차이값을 생성하며, 제1 가상 카메라 색차 신호 및 제2 가상 카메라 색차 신호로부터 가상 카메라 색차 신호 차이값을 생성할 수 있다. 그 후, 제어부(150)는 가상 카메라 휘도 신호 차이값으로부터 가상 카메라 휘도 신호 보정값을 생성하며, 가상 카메라 색차 신호 차이값으로부터 가상 카메라 색차 신호 보정값을 생성할 수 있다.Thereafter, the
또한, 제어부(150)는 생성된 가상 카메라 휘도 보정값 및 가상 카메라 색차 보정값을 저장부(130)에 실시간 저장할 수 있다.In addition, the
그 후, 제어부(150)는 생성된 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 반영하여, 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호를 각각 생성할 수 있다(505).Thereafter, the
그 후, 제어부(150)는 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들이 합성된 하나의 영상 신호인 가상 카메라 합성 영상 신호를 실시간 생성할 수 있다(506). 제어부(150)는 생성된 가상 카메라 합성 영상 신호를 영상 신호 출력부(140)의 가상 카메라 영상 신호 출력부(140-1)로 실시간 전달할 수 있다.Thereafter, the
또한, 제어부(150)는 생성된 가상 카메라 합성 영상 신호를 대상으로 가상 카메라 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the
그 후, 제어부(150)는 가상 카메라 영상 신호 출력부(140-1)를 통해 가상 카메라 합성 영상 신호를 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경하여 표시부(미도시)로 출력되도록 제어할 수 있다(507).Thereafter, the
한편, 상기 저장부(130)에 미리 저장되어 있는 편차 고정 제어값은 거리 편차값과 위치 편차값을 포함할 수 있다. 거리 편차 값은 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 축소 거리 편차 산출 방정식 또는 확대 거리 편차 산출 방정식을 통해 산출되어 미리 저장될 수 있다.Meanwhile, the deviation fixing control value stored in advance in the
또한, 위치 편차값은 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 산출되어 미리 저장될 수 있다. In addition, the positional deviation value may be calculated and reflected by reflecting an angle formed by a straight line connecting the first camera module and the subject and a horizontal line, and an angle formed by a straight line and a horizontal line connecting the second camera module and the subject.
도 6은 본 발명에 실시예에 따른 저장부에 편차 고정 제어값 미리 저장되어 있지 않은 경우, 가상 카메라의 제어 방법을 도시하는 흐름도이다. 도 6을 참조하면, 본 발명의 실시예에 따른 본 발명의 실시예에 따른 가상 카메라의 제어 장치(100)의 제어부(150)는 저장부에 편차 고정 제어값 미리 저장되어 있지 않은 경우, 임의의 편차 제어값을 생성할 수 있다(601). 예컨대, 제어부(150)는 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 임의의 위치 편차값 및 임의의 거리 편차값을 각각 추출할 수 있다. 그 후, 제어부(150)는 추출된 임의의 위치 편차값 및 임의의 거리 편차값을 포함하는 임의의 편차 제어값을 생성할 수 있다. 6 is a flowchart showing a control method of a virtual camera when the deviation fixing control value is not stored in advance in the storage unit according to an embodiment of the present invention. Referring to FIG. 6, when the deviation fixing control value is not stored in the storage unit in advance, the
그 후, 제어부(150)는 추출된 임의의 편차 제어값을 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 각각 반영하여, 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호를 각각 생성할 수 있다(602).Thereafter, the
그 후, 제어부(150)는 휘도 신호 보정값 및 색차 신호 보정값을 실시간 생성할 수 있다(603). 예컨대, 제어부(150)는 생성된 임의의 편차 제어값이 반영된 제1 RGB 영상 신호 및 임의의 편차 제어값이 반영된 제2 RGB 영상 신호들로부터 제1 휘도 신호, 제1 색차 신호, 제2 휘도 신호 및 제2 색차 신호를 각각 실시간 생성할 수 있다. 그 후, 제어부(150)는 제1 휘도 신호 및 제2 휘도 신호로부터 휘도 신호 차이값을 생성하며, 제1 색차 신호 및 제2 색차 신호로부터 색차 신호 차이값을 생성할 수 있다. 그 후, 제어부(150)는 휘도 신호 차이값으로부터 휘도 신호 보정값을 생성하며, 색차 신호 차이값으로부터 색차 신호 보정값을 생성할 수 있다.Thereafter, the
그 후, 제어부(150)는 생성된 휘도 신호 보정값 및 색차 신호 보정값을 반영하여 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성할 수 있다(604).Thereafter, the
그 후, 제어부(150)는 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 실시간 생성할 수 있다(605).Thereafter, the
또한, 제어부(150)는 생성된 합성 영상 신호를 대상으로 합성 영상 신호로부터 최종 출력되는 영상의 레이아웃을 고려하여 레이아웃 보정 처리 작업을 추가로 수행할 수 있다.In addition, the
그 후, 제어부(150)는 합성 영상 신호 출력부(140-2)를 통해 합성 영상 신호가 CVBS(Composite Video Banking Sync), HDMI(High Definition Multimedia Interface), VGA(Video Graphics Array) 중 적어도 하나의 영상 규격으로 변경되어 표시부(미도시)로 출력되도록 제어할 수 있다(606).Thereafter, the
그 후, 제어부(150)는 입력부(120)를 통해 사용자 선택 신호가 수신되었는지 판단할 수 있다(607).Thereafter, the
상기 판단 결과, 사용자 선택 신호가 수신된 경우, 제어부(150)는 사용자 선택 신호에 따라 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 저장부(130)에 미리 저장된 편차별 제어 테이블로부터 추출할 수 있다(608).As a result of the determination, if the user selection signal is received, the
그 후, 제어부(150)의 가상 카메라 설정부(154)는 추출된 위치 편차값과 거리 편차값을 포함하는 편차 고정 제어값을 생성하고, 생성된 편차 고정 제어값을 저장부(130)에 저장할 수 있다(609).Thereafter, the virtual
사용자 선택 신호가 수신되지 않은 경우, 제어부(150)는 현재 사용된 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하고, 상기 602 과정으로 이동해 해당 과정을 수행할 수 있다(610).If the user selection signal is not received, the
한편, 상기 저장부(130)에 미리 저장되어 있는 편차별 제어 테이블은 거리 테이블 값 및 위치 테이블 값을 포함할 수 있다. 거리 테이블 값은 복수 개의 거리 편차값을 포함하며, 복수 개의 거리 편차값은 제1 카메라 모듈과 피사체 간의 거리(L1), 제2 카메라 모듈과 피사체 간의 거리(L2)를 반영하여 축소 거리 편차 산출 방정식 또는 확대 거리 편차 산출 방정식을 통해 산출되어 미리 저장될 수 있다.Meanwhile, the difference discrimination control table stored in advance in the
또한, 위치 테이블 값은 복수 개의 위치 편차값을 포함하며, 복수 개의 위치 편차값은 제1 카메라 모듈과 피사체를 서로 잇는 직선과 수평선이 이루는 각도 및 제2 카메라 모듈과 과 피사체를 서로 잇는 직선과 수평선이 이루는 각도를 반영하여 산출되어 미리 저장될 수 있다.The position table value includes a plurality of positional deviation values. The plurality of positional deviation values include an angle formed by a straight line connecting the first camera module and the subject and a horizontal line, and a straight line connecting the second camera module and the subject, Can be calculated and reflected in advance.
본 발명의 예시적 실시예들에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to exemplary embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the present invention or may be known and available to those of ordinary skill in the computer software arts.
본 발명을 첨부 도면과 전술된 실시예들을 참조하여 설명하였으나, 본 발명은 그에 한정되지 않으며, 후술되는 특허청구범위에 의해 한정된다. 따라서 본 기술 분야의 통상의 지식을 가진 자라면 후술되는 특허청구범위의 기술적 사상에서 벗어나지 않는 범위 내에서 본 발명을 다양하게 변형 및 수정할 수 있다.Although the present invention has been described with reference to the accompanying drawings and the foregoing embodiments, the present invention is not limited thereto but is limited by the following claims. Accordingly, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope of the present invention as defined by the appended claims.
100: 가상 카메라의 제어 장치
110: 카메라부
110-1: 제1 카메라 모듈
110-2: 제2 카메라 모듈
120: 입력부
130: 저장부
140: 영상 신호 출력부
140-1: 가상 카메라 영상 신호 출력부
140-2: 합성 영상 신호 출력부
150: 제어부
151: 영상 신호 처리 제어부
152: 영상 신호 처리부
153: 영상 신호 합성부
154: 가상 카메라 설정부
210-1: 제1 카메라 모듈
210-2: 제2 카메라 모듈
210-3: 복수 개의 가상 카메라
220-1: 제1 카메라 모듈의 출력 영상
220-2: 제2 카메라 모듈의 출력 영상
220-3: 복수 개의 가상 카메라의 출력 영상100: Control device of virtual camera
110:
110-1: First camera module
110-2: second camera module
120: Input unit
130:
140: Video signal output section
140-1: Virtual camera video signal output unit
140-2: Composite video signal output unit
150:
151: Video signal processing control unit
152: Video signal processor
153:
154: Virtual camera setting unit
210-1: First camera module
210-2: second camera module
210-3: Multiple virtual cameras
220-1: Output image of the first camera module
220-2: output image of the second camera module
220-3: Output image of plural virtual cameras
Claims (22)
편차 고정 제어값 및 편차별 제어 테이블 중 적어도 하나가 미리 저장되되, 상기 편차 고정 제어값에는 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값이 포함되는 저장부;
가상 카메라 합성 영상 신호를 표시부로 출력하는 영상신호 출력부; 및
상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호 수신받고, 상기 저장부에 상기 편차 고정 제어값이 미리 저장되어 있는지 판단하고, 미리 저장된 상기 편차 고정 제어값이 있는 경우, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 편차 고정 제어값을 반영하여 제1 가상 카메라 RGB 영상 신호 및 제2 가상 카메라 RGB 영상 신호를 각각 생성하며, 가상 카메라 휘도 신호 보정값 및 가상 카메라 색차 신호 보정값을 생성하고, 상기 가상 카메라 휘도 신호 보정값, 상기 가상 카메라 색차 신호 보정값, 상기 제1 가상 카메라 RGB 영상 신호 및 상기 제2 가상 카메라 RGB 영상 신호로부터 보정된 제1 가상 카메라 휘도 신호, 보정된 제2 가상 카메라 휘도 신호, 보정된 제1 가상 카메라 색차 신호 및 보정된 제2 가상 카메라 색차 신호들을 생성한 후 합성하여 상기 가상 카메라 합성 영상 신호를 생성하며 상기 영상신호 출력부의 가상 카메라 영상 신호 출력부를 통해 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력되도록 제어하는 제어부를 포함하며,
상기 영상신호 출력부는 합성 영상 신호 출력부를 더 포함하고,
상기 합성 영상 신호 출력부로부터 출력되어 상기 표시부를 통해 표출되는 복수의 합성 영상 신호 중 선택된 합성 영상 신호를 나타내는 사용자 입력 신호를 수신받는 입력부를 더 포함하며,
상기 제어부는 미리 저장된 상기 편차 고정 제어값이 없는 경우, 상기 편차별 제어 테이블로부터 임의의 편차 제어값을 생성하고, 수신받은 상기 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 대상으로 상기 임의의 편차 제어값을 반영하여 제1 RGB 영상 신호 및 제2 RGB 영상 신호를 각각 생성하며, 휘도 신호 보정값 및 색차 신호 보정값을 생성하고, 상기 휘도 신호 보정값, 상기 색차 신호 보정값, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호로부터 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호들을 생성한 후 합성하여 합성 영상 신호를 생성하며, 상기 합성 영상 신호 출력부를 통해 상기 CVBS, 상기 HDMI, 상기 VGA 중 적어도 하나의 영상 규격으로 변경하여 상기 표시부로 출력하고, 상기 입력부를 통해 상기 사용자 입력 신호가 수신되었는지 판단하고, 상기 사용자 입력 신호가 수신되면, 상기 편차별 제어 테이블로부터 상기 선택된 합성 영상 신호에 대응하는 위치 편차값과 거리 편차값을 추출하여 상기 편차 고정 제어값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
A first camera module and a second camera module which are respectively disposed at both ends of a virtual slanting line and generate a first RGB video signal and a second RGB video signal respectively with respect to a subject, An angle formed by a straight line connecting the center point of the acquired sensor and the center point of the subject and a horizontal line forms an angle of 15 to 20 degrees and an angle formed by a straight line connecting the center point of the image acquisition sensor of the second camera module and the center of the subject, A camera unit having an angle of 15 to 20 degrees;
At least one of a deviation control value and a difference control table is stored in advance, wherein the deviation control value includes a distance deviation value and a position deviation value, which are parameter information for controlling the virtual camera;
A video signal output unit for outputting a virtual camera composite video signal to a display unit; And
The first RGB image signal and the second RGB image signal, determining whether the deviation fixing control value is stored in the storage unit in advance, and if there is the deviation fixing control value stored in advance, Signal and the second RGB video signal to generate the first virtual camera RGB video signal and the second virtual camera RGB video signal respectively by reflecting the deviation fixed control value to the virtual camera luminance signal correction value and the virtual camera color difference signal correction And generates a first virtual camera luminance signal corrected from the virtual camera luminance signal correction value, the virtual camera color difference signal correction value, the first virtual camera RGB video signal, and the second virtual camera RGB video signal, A second virtual camera luminance signal, a corrected first virtual camera color difference signal, and a corrected second virtual camera color difference signal, And a control unit for generating the virtual camera composite video signal and changing the video standard to at least one of CVBS, HDMI, and VGA through a virtual camera video signal output unit of the video signal output unit,
Wherein the video signal output unit further includes a composite video signal output unit,
And an input unit receiving a user input signal representing a selected composite video signal among a plurality of composite video signals outputted from the composite video signal output unit and displayed through the display unit,
Wherein the control unit generates an arbitrary deviation control value from the deviation discrimination control table when there is no previously stored deviation fixing control value and outputs the arbitrary deviation control value to the received first RGB video signal and the second RGB video signal Generating a first RGB image signal and a second RGB image signal by reflecting the control value, generating a luminance signal correction value and a color difference signal correction value, and outputting the luminance signal correction value, the color difference signal correction value, A first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal from the video signal and the second RGB video signal to generate a composite video signal, Converting the video standard into at least one video standard among the CVBS, the HDMI, and the VGA through the composite video signal output unit, and outputting the video standard to the display unit, Wherein the controller determines whether an input signal is received and, when the user input signal is received, extracts a position deviation value and a distance deviation value corresponding to the selected composite video signal from the deviation difference control table to generate the deviation fixing control value The control unit of the virtual camera.
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라 아래의 식
(DODR은 거리 편차값,
D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1은 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어장치.2. The method according to claim 1,
Wherein the distance between the first camera module and the second camera module is defined as a distance from the reference distance value 0, and a distance between the first camera module and the second camera module, According to the following equation
(DODR is the distance deviation value,
D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the specific camera module,
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
아래의 식
(D2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1은 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어장치.6. The method according to claim 5,
The following equation
(D2 is the width of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the specific camera module,
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라, 아래의 식
(DODE는 상기 거리 편차값,
D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어장치.
2. The method according to claim 1,
Wherein the distance between the first camera module and the second camera module is a distance from the reference distance value 0, and the distance between the first camera module and the second camera module, , The following equation
(DODE is the distance deviation value,
D2 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
아래의 식
(D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함하는 것을 특징으로 하는 가상 카메라의 제어 장치.
8. The method according to claim 7,
The following equation
(D1 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module,
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
And a distance deviation value of the remaining camera module, which is defined as < RTI ID = 0.0 > a < / RTI >
상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출되는 것을 특징으로 하는 가상 카메라의 제어 장치.
9. The method according to claim 6 or 8,
An angle formed by a straight line connecting the center point of the image capturing sensor of the first camera module and the center point of the subject and a horizontal line, and an angle of the image captured by the second camera module Is calculated from an angle formed by a straight line connecting the center point of the sensor and the center point of the subject and a horizontal line.
상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 휘도 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 휘도 신호를 생성하고, 상기 제1 가상 카메라 휘도 신호와 상기 제2 가상 카메라 휘도 신호 간 차이를 나타내는 가상 카메라 휘도 신호 차이값을 생성하며, 생성된 상기 가상 카메라 휘도 신호 차이값으로부터 상기 가상 카메라 휘도 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
The apparatus of claim 1,
Generating a first virtual camera luminance signal from the first virtual camera RGB video signal, generating a second virtual camera luminance signal from the second virtual camera RGB video signal, Generates a virtual camera luminance signal difference value indicating a difference between camera luminance signals, and generates the virtual camera luminance signal correction value from the generated virtual camera luminance signal difference value.
상기 제1 가상 카메라 RGB 영상 신호로부터 제1 가상 카메라 색차 신호를 생성하며, 상기 제2 가상 카메라 RGB 영상 신호로부터 제2 가상 카메라 색차 신호를 생성하고, 상기 제1 가상 카메라 색차 신호와 상기 제2 가상 카메라 색차 신호 간 차이를 나타내는 가상 카메라 색차 신호 차이값을 생성하며, 생성된 상기 가상 카메라 색차 신호 차이값으로부터 상기 가상 카메라 색차 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
11. The apparatus according to claim 10,
Generating a first virtual camera color difference signal from the first virtual camera RGB image signal, generating a second virtual camera color difference signal from the second virtual camera RGB image signal, Generates a virtual camera color difference signal difference indicating a difference between camera color difference signals, and generates the virtual camera color difference signal correction value from the generated virtual camera color difference signal difference value.
상기 제1 RGB 영상 신호로부터 제1 휘도 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 휘도 신호를 생성하고, 상기 제1 휘도 신호와 상기 제2 휘도 신호 간 차이를 나타내는 휘도 신호 차이값을 생성하며, 생성된 상기 휘도 신호 차이값으로부터 상기 휘도 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
The apparatus of claim 1,
Generating a first luminance signal from the first RGB video signal, generating a second luminance signal from the second RGB video signal, and generating a luminance signal difference value indicating a difference between the first luminance signal and the second luminance signal And generates the luminance signal correction value from the generated luminance signal difference value.
상기 제1 RGB 영상 신호로부터 제1 색차 신호를 생성하며, 상기 제2 RGB 영상 신호로부터 제2 색차 신호를 생성하고, 상기 제1 색차 신호와 상기 제2 색차 신호 간 차이를 나타내는 색차 신호 차이값을 생성하며, 생성된 상기 색차 신호 차이값으로부터 상기 색차 신호 보정값을 생성하는 것을 특징으로 하는 가상 카메라의 제어 장치.
13. The apparatus according to claim 12,
Generating a first color difference signal from the first RGB image signal, generating a second color difference signal from the second RGB image signal, and generating a color difference signal difference value indicating a difference between the first color difference signal and the second color difference signal And generates the color difference signal correction value from the generated color difference signal difference value.
저장부에 가상 카메라를 제어하는 파라미터 정보인 거리 편차값과 위치 편차값을 포함하는 편차 고정 제어값이 미리 저장되어 있는지 판단하는 단계;
상기 편차 고정 제어값이 상기 저장부에 미리 저장되어 있지 않은 경우, 임의의 편차 제어값을 생성하는 단계;
상기 임의의 편차 제어값을 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계;
휘도 신호 보정값 및 색차 신호 보정값을 생성하는 단계;
상기 휘도 신호 보정값 및 상기 색차 신호 보정값을 반영하여 보정된 제1 휘도 신호, 보정된 제2 휘도 신호, 보정된 제1 색차 신호 및 보정된 제2 색차 신호를 각각 생성하는 단계;
상기 보정된 제1 휘도 신호, 상기 보정된 제2 휘도 신호, 상기 보정된 제1 색차 신호 및 상기 보정된 제2 색차 신호들이 합성된 하나의 영상 신호인 합성 영상 신호를 생성하는 단계;
상기 합성 영상 신호를 CVBS, HDMI, VGA 중 적어도 하나의 영상 규격으로 변경하여 표시부로 출력하는 단계; 및
입력부를 통해 사용자 선택 신호가 수신되었는지 판단하고, 상기 사용자 선택 신호가 수신되지 않은 경우, 상기 임의의 편차 제어값과 서로 다른 임의의 편차 제어값을 새로 생성하고, 상기 제1 RGB 영상 신호 및 상기 제2 RGB 영상 신호를 대상으로 각각 반영하는 단계로 이동하여 해당 단계를 수행하는 것을 특징으로 하는 가상 카메라의 제어 방법.
Receiving a first RGB video signal and a second RGB video signal respectively generated from a first camera module and a second camera module, which are respectively disposed at both ends of a virtual oblique line and perform shooting with respect to a subject;
Determining whether a deviation fixed control value including a distance deviation value and a position deviation value, which is parameter information for controlling the virtual camera, is stored in advance in the storage unit;
Generating an arbitrary deviation control value when the deviation fixing control value is not previously stored in the storage section;
Reflecting the arbitrary deviation control value on the first RGB video signal and the second RGB video signal, respectively;
Generating a luminance signal correction value and a color difference signal correction value;
Generating a corrected first luminance signal, a corrected second luminance signal, a corrected first color difference signal, and a corrected second color difference signal by reflecting the luminance signal correction value and the color difference signal correction value;
Generating a synthesized image signal which is one image signal in which the corrected first luminance signal, the corrected second luminance signal, the corrected first color difference signal, and the corrected second color difference signals are synthesized;
Converting the synthesized video signal into at least one video standard of CVBS, HDMI, and VGA, and outputting the synthesized video signal to a display unit; And
Through the input And generates a new deviation control value different from the arbitrary deviation control value when the user selection signal is not received, Wherein the step of performing the step is performed by moving to a step of reflecting each signal to the target.
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 가까운 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 축소 거리 편차 산출 방정식에 따라,
(DODR은 상기 거리 편차값,
D1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어 방법. 16. The method of claim 15,
Wherein the distance between the first camera module and the second camera module is defined as a distance from the reference distance value 0, and a distance between the first camera module and the second camera module, Depending on the,
(DODR is the distance deviation value,
D1 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the specific camera module
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
아래의 식
(D2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이,
H2는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함하는 것을 특징으로 하는 가상 카메라의 제어 방법.
19. The method of claim 18,
The following equation
(D2 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module,
H1 is the height of the image of the subject output by the RGB video signal output from the specific camera module,
H2 is the height of the image of the subject outputted by the RGB video signal outputted from the remaining camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
And a distance deviation value of the remaining camera module defined by the distance value of the camera module.
상기 가상 카메라의 거리가 기준 거리값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈 및 상기 제2 카메라 모듈 중 상기 피사체와 먼 거리에 위치한 특정 카메라 모듈을 기준으로 하기와 같은 확대 거리 편차 산출 방정식에 따라,
(DODE는 상기 거리 편차값,
D2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비,
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 것을 특징으로 하는 가상 카메라의 제어 방법.
16. The method of claim 15,
Wherein the distance between the first camera module and the second camera module is a distance from the reference distance value 0, and the distance between the first camera module and the second camera module, Depending on the,
(DODE is the distance deviation value,
D2 is the width of the image of the subject outputted by the RGB video signal output from the specific camera module,
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
Of the virtual camera.
아래의 식
(D1는 상기 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 너비
H1는 상기 특정 카메라 모듈이 아닌 나머지 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
H2는 상기 특정 카메라 모듈에서 출력되는 RGB 영상 신호에 의해 출력되는 피사체의 이미지의 높이
n은 가상 카메라 합성 영상의 피사체의 크기를 나타낸 값으로써 단위로 (m)가 사용되며, 상기 피사체와 상기 특정 카메라 모듈 간 거리 및 상기 피사체와 상기 나머지 카메라 모듈 간 거리의 편차에 따른 위치 편차값이 0이되는 지점으로 상기 가상 카메라의 위치와 동일한 지점을 말함)
으로 정의되는 상기 나머지 카메라 모듈의 거리 편차값을 포함하는 것을 특징으로 하는 가상 카메라의 제어 방법.
21. The method of claim 20,
The following equation
(D1 is the width of the image of the subject outputted by the RGB video signal outputted from the remaining camera module
H1 is the height of the image of the subject outputted by the RGB video signal outputted from the camera module other than the specific camera module
H2 is the height of the image of the subject output by the RGB video signal output from the specific camera module
n is a value representing the size of the subject of the virtual camera composite image, and unit m is used as a unit, and a position deviation value according to a deviation between the subject and the specific camera module and a distance between the subject and the remaining camera module is 0 " refers to the same point as the position of the virtual camera)
And a distance deviation value of the remaining camera module defined by the distance value of the camera module.
상기 가상 카메라의 위치가 기준 위치값 0으로부터 이격된 정도를 나타내며, 상기 제1 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도 및 상기 제2 카메라 모듈의 영상 취득 센서의 중심점과 피사체의 중심점을 잇는 직선과 수평선이 형성하는 각도로부터 산출되는 것을 특징으로 하는 가상 카메라의 제어 방법.22. The method according to claim 19 or claim 21,
An angle formed by a straight line connecting the center point of the image capturing sensor of the first camera module and the center point of the subject and a horizontal line, and an angle of the image captured by the second camera module Is calculated from an angle formed by a straight line connecting the center point of the sensor and the center point of the subject and a horizontal line.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140070733A KR101515404B1 (en) | 2014-06-11 | 2014-06-11 | Method and apparatus for controlling of virtual camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140070733A KR101515404B1 (en) | 2014-06-11 | 2014-06-11 | Method and apparatus for controlling of virtual camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101515404B1 true KR101515404B1 (en) | 2015-05-04 |
Family
ID=53393241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140070733A KR101515404B1 (en) | 2014-06-11 | 2014-06-11 | Method and apparatus for controlling of virtual camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101515404B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10136110B2 (en) | 2015-10-21 | 2018-11-20 | Samsung Electronics Co., Ltd. | Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001052177A (en) * | 1999-08-11 | 2001-02-23 | Univ Waseda | Image processor and method for processing image |
KR20010029129A (en) * | 1999-09-29 | 2001-04-06 | 윤종용 | Image processing apparatus for image communication |
JP2005080015A (en) * | 2003-09-01 | 2005-03-24 | Sony Corp | Imaging device and method thereof |
-
2014
- 2014-06-11 KR KR1020140070733A patent/KR101515404B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001052177A (en) * | 1999-08-11 | 2001-02-23 | Univ Waseda | Image processor and method for processing image |
KR20010029129A (en) * | 1999-09-29 | 2001-04-06 | 윤종용 | Image processing apparatus for image communication |
JP2005080015A (en) * | 2003-09-01 | 2005-03-24 | Sony Corp | Imaging device and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10136110B2 (en) | 2015-10-21 | 2018-11-20 | Samsung Electronics Co., Ltd. | Low-light image quality enhancement method for image processing device and method of operating image processing system performing the method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10395338B2 (en) | Virtual lens simulation for video and photo cropping | |
CN107690649B (en) | Digital photographing apparatus and method of operating the same | |
US9007442B2 (en) | Stereo image display system, stereo imaging apparatus and stereo display apparatus | |
JP5592006B2 (en) | 3D image processing | |
US8063947B2 (en) | Image shooting device | |
JP4970302B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
US20070222858A1 (en) | Monitoring system, monitoring method and program therefor | |
EP3316568B1 (en) | Digital photographing device and operation method therefor | |
US10694115B2 (en) | Method, apparatus, and terminal for presenting panoramic visual content | |
JP6172935B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR102529479B1 (en) | Control apparatus, control method, and storage medium | |
US10250803B2 (en) | Video generating system and method thereof | |
US20140369611A1 (en) | Image processing apparatus and control method thereof | |
US9154693B2 (en) | Photographing control apparatus and photographing control method | |
US11706378B2 (en) | Electronic device and method of controlling electronic device | |
WO2009119288A1 (en) | Communication system and communication program | |
JP2011048295A (en) | Compound eye photographing device and method for detecting posture of the same | |
US11102403B2 (en) | Image device, information processing apparatus, information processing method, system, and storage medium | |
KR101515404B1 (en) | Method and apparatus for controlling of virtual camera | |
US10122964B2 (en) | Communication system | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
TW201222422A (en) | Method and arrangement for identifying virtual visual information in images | |
US10282633B2 (en) | Cross-asset media analysis and processing | |
KR101479901B1 (en) | Method and apparatus for controlling of virtual camera | |
WO2014097465A1 (en) | Video processor and video p rocessing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |