KR100673955B1 - Method to capture moving images from video presenter with audio - Google Patents

Method to capture moving images from video presenter with audio Download PDF

Info

Publication number
KR100673955B1
KR100673955B1 KR1020050103793A KR20050103793A KR100673955B1 KR 100673955 B1 KR100673955 B1 KR 100673955B1 KR 1020050103793 A KR1020050103793 A KR 1020050103793A KR 20050103793 A KR20050103793 A KR 20050103793A KR 100673955 B1 KR100673955 B1 KR 100673955B1
Authority
KR
South Korea
Prior art keywords
data
audio
frame data
image frame
video
Prior art date
Application number
KR1020050103793A
Other languages
Korean (ko)
Inventor
이진욱
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020050103793A priority Critical patent/KR100673955B1/en
Application granted granted Critical
Publication of KR100673955B1 publication Critical patent/KR100673955B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9202Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/4448Receiver circuitry for the reception of television signals according to analogue transmission standards for frame-grabbing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals

Abstract

A method for capturing a moving image from a video presenter with audio data is provided to allow a computer to capture a moving image from a video presenter together with audio data from a microphone connected to the computer on lip-synchronization level. Video frame data is received from a video presenter. Input audio data is received from an audio input terminal while the video frame data is received. The time when the video frame data is received is recorded. The operation of receiving video frame data and audio data and recording the video frame data receiving time is repeated until the time when capturing of video frame data and audio data is finished. At the time when capturing of video frame data and audio data is finished, audio data corresponding to video frame data is detected according to a difference between the video frame data input time and the audio data input time, and one of the video frame data and the audio data is controlled so that the video frame data receiving time corresponds to the audio data receiving time.

Description

비데오 프리젠터로부터의 동영상을 오디오와 함께 포착하는 방법{Method to capture moving images from video presenter with audio} How to capture moving images from video presenter with audio}

도 1은 비데오 프리젠터 및 본 발명에 따른 동영상 포착 프로그램을 실행하는 컴퓨터를 보여주는 사시도이다.1 is a perspective view showing a video presenter and a computer executing a moving image capture program according to the present invention.

도 2는 도 1의 비데오 프리젠터의 내부 구성을 보여주는 블록도이다.FIG. 2 is a block diagram illustrating an internal configuration of the video presenter of FIG. 1.

도 3은 비데오 프리젠터의 사용을 위하여 도 1의 컴퓨터에 의하여 실행되는 주 프로그램을 보여주는 흐름도이다. 3 is a flow chart showing a main program executed by the computer of FIG. 1 for use of a video presenter.

도 4는 도 3의 동영상 포착 단계의 알고리듬을 보여주는 흐름도이다. 4 is a flowchart illustrating an algorithm of the video capturing step of FIG. 3.

도 5는 도 4의 단계 S81a를 상세하게 보여주는 흐름도이다. FIG. 5 is a flowchart showing step S81a of FIG. 4 in detail.

도 6은 도 4의 단계 S81b를 상세하게 보여주는 흐름도이다. FIG. 6 is a flowchart showing step S81b of FIG. 4 in detail.

도 7은 도 4의 단계 S83a를 상세하게 보여주는 흐름도이다. FIG. 7 is a flowchart showing step S83a of FIG. 4 in detail.

도 8은 도 4의 단계 S83b를 상세하게 보여주는 흐름도이다. FIG. 8 is a flowchart showing step S83b of FIG. 4 in detail.

도 9는 도 4의 단계 S85 및 S86을 설명하기 위한 도면이다. FIG. 9 is a diagram for explaining steps S85 and S86 of FIG. 4.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

1...비데오 프리젠터, 15...영상 감지부,1 ... video presenter, 15 ... video detector,

13a, 13b...조명 장치, 16...지주,13a, 13b ... lighting device, 16 ...

18...잠금 버튼, 3...피사체,18 ... lock button, 3 ... subject,

11...피사대, 12...키 입력 장치,11 ... with a basin, 12 ... key input device,

14...원격 수신 장치, 7...마우스,14 ... remote receiver, 7 ... mouse,

5...컴퓨터, 6...키보드,5 ... computer, 6 ... keyboard,

2...모니터, S...화면,2 ... monitor, S ... screen,

21...그림판, 3a...피사체 영상,21 Paint, 3a ...

P1, P2...그림, 22...포인터,P1, P2 ... picture, 22 ... pointer,

9...마이크로폰,9 ... microphone,

15a...광학계, 15b...광전 변환부,15a ... optical system, 15b ... photoelectric conversion unit,

101...마이크로프로세서, 102...타이밍 회로,101 microprocessor, 102 timing circuit,

103...아날로그 신호 처리부, 104...아날로그-디지털 변환부,103 ... analog signal processing section, 104 ... analog-to-digital conversion section,

105...디지털 카메라 프로세서, 106...SDRAM,105 ... digital camera processor, 106 ... SDRAM,

107...프레임-규격 조정부, 108...영상 출력부, 107 frame-specification section, 108 video output section,

109...USB 인터페이스.109 ... USB interface.

본 발명은, 동영상 포착 방법에 관한 것으로서, 보다 상세하게는, 컴퓨터가 비데오 프리젠터로부터의 동영상을 오디오와 함께 포착하는 동영상 포착 방법에 관한 것이다.The present invention relates to a moving image capture method, and more particularly, to a moving image capture method in which a computer captures a moving image from a video presenter together with audio.

통상적인 비데오 프리젠터의 예로는 본 출원인에 의하여 출원되어 등록되었 던 미국 특허 제5,822,013호의 비데오 프리젠터를 들 수 있다. 이와 같은 비데오 프리젠터는 자신의 데이터 처리 프로그램을 실행중인 컴퓨터와 직렬 통신을 수행하면서 영상 데이터를 컴퓨터에 제공한다. 이에 따라, 컴퓨터는 비데오 프리젠터로부터의 영상 데이터를 처리하여 동영상을 디스플레이하고 정지영상 포착 신호가 발생되면 정지영상을 포착한다.An example of a typical video presenter is the video presenter of US Pat. No. 5,822,013, filed and registered by the applicant. Such a video presenter provides image data to a computer while performing serial communication with a computer running its data processing program. Accordingly, the computer processes the image data from the video presenter to display the moving image and to capture the still image when the still image capture signal is generated.

한편, 최근 고속 직렬 통신의 프로토콜 예를 들어, 480 Mbps(Mega bits per second)의 데이터 전송이 가능한 "USB(Universal Serial Bus) 2.0"의 프로토콜이 컴퓨터와 비데오 프리젠터 사이에서 사용된다. 이에 따라, 비데오 프리젠터는 컴퓨터에 고속으로 동영상 전송이 가능하다. 예를 들어, 비데오 프리젠터는 XGA(Extended Graphics Array) 규격의 해상도 예를 들어, 1,024 X 768 화소들의 규격의 영상 데이터를 20 FPS(Frames Per Second)의 속도로 컴퓨터에 전송할 수 있다. 이에 따라 비데오 프리젠터로부터의 동영상을 컴퓨터의 모니터에 디스플레이할 수 있을 뿐만 아니라 동영상 파일에 포착할 수도 있다. Meanwhile, a protocol of high speed serial communication, for example, a protocol of "USB (Universal Serial Bus) 2.0" capable of data transmission of 480 Mbps (Mega bits per second), is used between a computer and a video presenter. Accordingly, the video presenter can transmit a video to a computer at high speed. For example, the video presenter may transmit image data having a resolution of the extended graphics array (XGA) standard, for example, 1,024 × 768 pixels, to a computer at a rate of 20 frames per second (FPS). As a result, the video from the video presenter can not only be displayed on the monitor of the computer but also captured in the video file.

여기에서, 비데오 프리젠터로부터의 동영상을 오디오와 함께 포착할 수 있다면 강의용 또는 회의용으로서의 비데오 프리젠터의 활용 가치가 커질 것이다. 하지만, 비데오 프리젠터에 오디오 코덱(Coder and Decoder) 등의 오디오 처리 장치를 추가할 경우, 비데오 프리젠터의 제조 원가가 상승할 뿐만 아니라, 비데오 프리젠터와 컴퓨터가 비데오 프리젠터로부터의 멀티플렉싱된 오디오/동영상 데이터를 원활하게 송수신할 수 있는 성능을 가져야만 하는 문제점들이 있다.Here, if video from a video presenter can be captured with audio, the value of utilizing the video presenter as a lecture or a meeting will increase. However, when an audio processing device such as an audio coder (Coder and Decoder) is added to the video presenter, not only the manufacturing cost of the video presenter increases but also the video presenter and the computer smoothly multiplex the audio / video data from the video presenter. There are problems that must have the ability to send and receive easily.

따라서, 컴퓨터가 자신에 연결된 마이크로폰으로부터의 오디오를 비데오 프 리젠터로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착할 수 있다면, 다음과 같은 효과가 있을 것이다. Thus, if a computer can capture audio from a microphone connected to it at the level of lip-synchronization with a video from a video presenter, the following effects will occur.

첫째, 비데오 프리젠터에 오디오 코덱(Coder and Decoder) 등의 오디오 처리 장치가 추가될 필요가 없으므로, 비데오 프리젠터의 제조 원가가 높아지지 않는다.First, since an audio processing device such as an audio coder and a coder need not be added to the video presenter, the manufacturing cost of the video presenter does not increase.

둘째, 비데오 프리젠터와 컴퓨터가 비데오 프리젠터로부터의 멀티플렉싱된 오디오/동영상 데이터를 원활하게 송수신할 수 있는 성능을 가질 필요가 없다. Second, the video presenter and the computer need not have the capability to smoothly send and receive multiplexed audio / video data from the video presenter.

하지만, 비데오 프리젠터로부터의 영상 프레임 데이터와 컴퓨터의 오디오 입력 단자로부터의 입력 오디오 데이터가 상기 컴퓨터에 입력되는 시점 차이가 존재하고, 전송 상황에 따라 각각의 영상 프레임 데이터의 수신 시간이 변한다. 따라서, 컴퓨터가 자신에 연결된 마이크로폰으로부터의 오디오를 비데오 프리젠터로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착하는 데에 어려움이 있다.However, there is a difference in time point at which the image frame data from the video presenter and the input audio data from the audio input terminal of the computer are input to the computer, and the reception time of each image frame data changes according to the transmission situation. Thus, it is difficult for a computer to capture audio from a microphone connected to it at the level of lip-synchronization with video from a video presenter.

본 발명의 목적은, 비데오 프리젠터로부터의 영상 프레임 데이터와 컴퓨터의 오디오 입력 단자로부터의 입력 오디오 데이터가 상기 컴퓨터에 입력되는 시점 차이가 존재하고, 전송 상황에 따라 각각의 영상 프레임 데이터의 수신 시간이 변함에도 불구하고, 컴퓨터가 자신에 연결된 마이크로폰으로부터의 오디오를 비데오 프리젠터로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착할 수 있는 동영상 포착 방법을 제공하는 것이다.An object of the present invention is that there is a difference in time point at which image frame data from a video presenter and input audio data from an audio input terminal of a computer are input to the computer, and the reception time of each image frame data varies according to a transmission situation. Nevertheless, it provides a video capture method that allows a computer to capture audio from a microphone connected to it at the level of lip-synchronization along with video from a video presenter.

상기 목적을 이루기 위한 본 발명은, 컴퓨터가 비데오 프리젠터로부터의 동영상을 오디오와 함께 포착하는 동영상 포착 방법으로서, 단계들 (a) 내지 (e)를 포함한다. 상기 단계 (a)에서는, 상기 비데오 프리젠터로부터의 영상 프레임 데이터가 수신된다. 상기 단계 (b)에서는, 상기 영상 프레임 데이터가 수신되는 시간 동안에 오디오 입력 단자로부터의 입력 오디오 데이터가 수신된다. 상기 단계 (c)에서는, 상기 단계 (a)에서의 영상 프레임 데이터의 수신 시간이 기록된다. 상기 단계 (d)에서는, 포착 종료 시점이 되기 전까지 상기 단계들 (a) 내지 (c)가 반복 수행된다. 상기 단계 (e)에서는, 포착 종료 시점이 되면, 영상 프레임 데이터와 입력 오디오 데이터의 입력 시점 차이에 따라 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터가 찾아지고, 각각의 영상 프레임 데이터의 수신 시간과 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터의 수신 시간이 같아지도록 각각의 영상 프레임 데이터 및 각각의 오디오 데이터 중에서 어느 하나가 조정된다.The present invention for achieving the above object is a moving picture capture method in which a computer captures a moving picture from a video presenter with audio, comprising steps (a) to (e). In step (a), image frame data from the video presenter is received. In step (b), input audio data from an audio input terminal is received during the time when the image frame data is received. In step (c), the reception time of the image frame data in step (a) is recorded. In the step (d), the steps (a) to (c) are repeatedly performed until the capturing end point. In the step (e), when the capturing end point is reached, the respective audio data corresponding to the respective video frame data is found according to the difference in the input time points of the video frame data and the input audio data, and the reception time of each video frame data is found. Any one of each of the image frame data and the respective audio data is adjusted so that the reception time of the audio data corresponding to each of the image frame data is equal to each other.

본 발명의 상기 동영상 포착 방법에 의하면, 비데오 프리젠터로부터의 영상 프레임 데이터와 컴퓨터의 오디오 입력 단자로부터의 입력 오디오 데이터가 상기 컴퓨터에 입력되는 시점 차이가 존재하고, 전송 상황에 따라 각각의 영상 프레임 데이터의 수신 시간이 변함에도 불구하고, 컴퓨터가 자신에 연결된 마이크로폰으로부터의 오디오를 비데오 프리젠터로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착할 수 있다. 이에 따라, 다음과 같은 효과들이 얻어질 수 있다.According to the moving picture capturing method of the present invention, there is a difference in time point at which video frame data from a video presenter and input audio data from an audio input terminal of a computer are input to the computer, Despite the change in reception time, the computer can capture audio from the microphone connected to it at the level of lip-synchronization along with video from the video presenter. Accordingly, the following effects can be obtained.

첫째, 비데오 프리젠터에 오디오 코덱(Coder and Decoder) 등의 오디오 처리 장치가 추가될 필요가 없으므로, 비데오 프리젠터의 제조 원가가 높아지지 않는다.First, since an audio processing device such as an audio coder and a coder need not be added to the video presenter, the manufacturing cost of the video presenter does not increase.

둘째, 비데오 프리젠터와 컴퓨터가 비데오 프리젠터로부터의 멀티플렉싱된 오디오/동영상 데이터를 원활하게 송수신할 수 있는 성능을 가질 필요가 없다. Second, the video presenter and the computer need not have the capability to smoothly send and receive multiplexed audio / video data from the video presenter.

이하, 본 발명에 따른 바람직한 실시예가 상세히 설명된다.Hereinafter, preferred embodiments according to the present invention will be described in detail.

도 1을 참조하면, 본 발명에 따른 비데오 프리젠터(1)는 영상 감지부(15), 조명 장치(13a, 13b), 지주(16), 잠금 버튼(18), 피사대(11), 키 입력 장치(12), 및 원격 수신 장치(14)를 포함한다. Referring to FIG. 1, the video presenter 1 according to the present invention includes an image sensing unit 15, lighting devices 13a and 13b, a strut 16, a lock button 18, a subject 11, and a key input. Device 12, and remote receiving device 14.

앞뒤 이동 및 회전이 가능한 영상 감지부(15)에는 광학계 및 광전 변환부가 구비된다. 피사체로부터의 빛을 광학적으로 처리하는 광학계는 렌즈부 및 필터부를 구비한다. CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal-Oxide-Semiconductor)의 광전 변환부는 피사체로부터 광학계를 통하여 입사되는 빛을 전기적 아날로그 신호로 변환시킨다. The image sensing unit 15 that can move back and forth and rotates is provided with an optical system and a photoelectric conversion unit. An optical system for optically processing light from a subject includes a lens unit and a filter unit. A photoelectric conversion unit of a charge coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS) converts light incident from an object through an optical system into an electrical analog signal.

사용자는 잠금 버튼(18)을 눌러서 지주(16)를 움직일 수 있다. 피사대(11)의 아래에는 또다른 조명 장치가 내장된다. 키 입력 장치(12)는 사용자의 조작에 의하여 영상 감지부(15) 및 조명 장치(13a, 13b) 등의 각 부의 구동을 제어하는 데에 사용된다. 한편, 사용자는, 원격 송신 장치(미도시)를 조작하여 제어 신호를 원격 수신 장치(14)에 입력시킴으로써, 영상 감지부(15) 및 조명 장치(13a, 13b) 등의 각 부의 구동을 제어할 수 있다. The user can move the strut 16 by pressing the lock button 18. Underneath the cover 11 is another lighting device. The key input device 12 is used to control the driving of each unit such as the image sensing unit 15 and the lighting devices 13a and 13b by a user's manipulation. On the other hand, the user operates a remote transmission device (not shown) to input a control signal to the remote reception device 14, thereby controlling the driving of each unit such as the image sensing unit 15 and the lighting devices 13a and 13b. Can be.

본 발명에 따른 동영상 포착 프로그램을 포함한 비데오 프리젠터(1)의 전용 프로그램을 실행하는 컴퓨터(5)는, 비데오 프리젠터(1)로부터의 영상 데이터를 처리하여 동영상을 모니터(2)의 디스플레이 화면(S)에 디스플레이하고, 사용자로부터의 정지영상 포착 신호가 발생되면 정지영상을 포착하며, 사용자로부터의 동영상 포착 신호가 발생되면 동영상을 포착한다. 이를 위하여, 비데오 프리젠터(1)의 주 제어부는 고속 직렬 통신의 프로토콜로서 480 Mbps(Mega bits per second)의 데이터 전송이 가능한 "USB(Universal Serial Bus) 2.0"의 프로토콜의 인터페이스를 통하여 컴퓨터(5)와 통신을 수행한다. 이에 따라, 비데오 프리젠터(1)는 XGA(Extended Graphics Array) 규격의 해상도로서 1,024 X 768 화소들의 규격의 영상 데이터를 20 FPS(Frames Per Second)의 속도로 빠르게 컴퓨터에 전송한다.The computer 5 executing the dedicated program of the video presenter 1 including the video capturing program according to the present invention processes the video data from the video presenter 1 and displays the video on the display screen S of the monitor 2. The still image is captured when the still image capturing signal from the user is generated, and the video is captured when the video capturing signal from the user is generated. To this end, the main control unit of the video presenter 1 is a high-speed serial communication protocol, and the computer 5 is connected via an interface of "USB (Universal Serial Bus) 2.0" protocol capable of data transmission of 480 Mbps (Mega bits per second). Communicate with Accordingly, the video presenter 1 rapidly transmits image data having a resolution of 1,024 X 768 pixels as a resolution of an extended graphics array (XGA) standard to a computer at a rate of 20 frames per second (FPS).

컴퓨터(5)는 비데오 프리젠터(1)로부터의 영상 데이터를 수신 및 처리하여 동영상을 모니터(2)의 디스플레이 화면(S)에 디스플레이한다. 이에 따라, 피사대(11) 위의 피사체(3)의 동영상이 모니터(2)의 디스플레이 화면(S)에 디스플레이된다. 또한, 컴퓨터(5)는 사용자로부터의 정지영상 포착 신호에 따라 비데오 프리젠터(1)로부터의 정지영상을 포착한다. 아울러, 컴퓨터(5)는 사용자로부터의 동영상 포착 신호에 따라 비데오 프리젠터(1)로부터의 동영상을 포착한다(도 3 참조). The computer 5 receives and processes the image data from the video presenter 1 to display the moving image on the display screen S of the monitor 2. Accordingly, the video of the subject 3 on the subject 11 is displayed on the display screen S of the monitor 2. The computer 5 also captures a still image from the video presenter 1 in accordance with a still image capture signal from the user. In addition, the computer 5 captures the moving picture from the video presenter 1 in accordance with the moving picture capture signal from the user (see Fig. 3).

상기 동영상 포착에 있어서, 컴퓨터(5)는, 도 4 내지 9를 참조하여 설명될 알고리듬을 실행함으로써, 자신에 연결된 마이크로폰(9)으로부터의 오디오를 비데오 프리젠터(1)로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착할 수 있다. In capturing the video, the computer 5 performs the algorithm to be described with reference to FIGS. 4 to 9 to thereby lip-sync the audio from the microphone 9 connected to it with the video from the video presenter 1. can be captured at the level of (lip-synchronization).

한편, 사용자는 비데오 프리젠터(1)로부터의 정지영상 및 동영상을 편집할 수 있다. 예를 들어, 모니터(2)의 디스플레이 화면(S)에는 그림판(21)이 디스플레이되고, 사용자는 마우스(7), 키보드(6), 및 그림판(21)을 사용하여 피사체 영상(3a) 위에 그림들(P1,P2)을 중첩하여 그릴 수 있으므로, 사용자가 다양한 설명을 수행할 수 있다. 도 1에서 참조 부호 22는 마우스(7)의 포인터를 가리킨다. On the other hand, the user can edit still images and moving images from the video presenter 1. For example, the paint plate 21 is displayed on the display screen S of the monitor 2, and the user uses the mouse 7, the keyboard 6, and the paint plate 21 to draw on the subject image 3a. Since the fields P1 and P2 may be overlapped and drawn, the user may perform various descriptions. In FIG. 1, reference numeral 22 denotes a pointer of the mouse 7.

물론, 비데오 프리젠터(1)로부터의 출력 영상 데이터는 모니터(2)에 직접 입력될 수도 있다. Of course, the output image data from the video presenter 1 may be directly input to the monitor 2.

도 2를 참조하면, 본 발명에 따른 도 1의 비데오 프리젠터(1)는 키 입력 장치(12), 원격 수신 장치(14), USB(Universal Serial Bus) 인터페이스(109), 광학계(15a), 광전 변환부(15b), 아날로그 신호 처리부(103), 아날로그-디지털 변환부(104), 디지털 카메라 프로세서(105), 타이밍 회로(102), 주 제어부로서의 마이크로프로세서(101), 프레임 메모리로서의 SDRAM(106, Synchronous Dynamic Random Access Memory), 메모리 제어부(107), 및 영상 출력부(108)를 포함한다. 도 2에서 도 1과 동일한 참조 부호는 동일한 기능의 대상을 가리킨다.Referring to FIG. 2, the video presenter 1 of FIG. 1 according to the present invention includes a key input device 12, a remote receiving device 14, a universal serial bus (USB) interface 109, an optical system 15a, and a photoelectric device. Converter 15b, analog signal processor 103, analog-digital converter 104, digital camera processor 105, timing circuit 102, microprocessor 101 as the main controller, SDRAM 106 as frame memory , A synchronous dynamic random access memory), a memory controller 107, and an image output unit 108. In FIG. 2, the same reference numerals as used in FIG. 1 indicate objects of the same function.

광학계(15a)는 피사체로부터의 빛을 광학적으로 처리한다. CCD 또는 CMOS의 광전 변환부(15b)는 광학계(15a)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 주 제어부로서의 마이크로프로세서(101)의 제어에 따라 동작하는 타이밍 회로(102) 예를 들어, 타이밍 제너레이터 소자는 광전 변환부(15b)의 동작을 제어한다. 아날로그 신호 처리부(103) 예를 들어, CDS-AGC(Correlation Double Sampler and Automatic Gain Controller) 소자는, 광전 변환부(15b)로부터의 아날로그 신호를 처리하여 그 고주파 노이즈를 제거하고 진폭을 조정한다. 아날로그-디지털 변환부 (104)는 아날로그 신호 처리부(103)로부터의 아날로그 신호를 적색(R), 녹색(G), 및 청색(B)의 디지털 신호로 변환시킨다. 디지털 카메라 프로세서(105)는 아날로그-디지털 변환부(104)로부터의 디지털 신호를 처리하여 휘도 및 색도 형식으로서 잘 알려진 "Y:Cb:Cr 4:2:2" 형식의 영상 데이터를 발생시킨다. The optical system 15a optically processes light from a subject. The photoelectric conversion section 15b of the CCD or CMOS converts the light from the optical system 15a into an electrical analog signal. The timing circuit 102, which operates under the control of the microprocessor 101 as the main controller, for example, the timing generator element controls the operation of the photoelectric conversion section 15b. The analog signal processing unit 103, for example, a CDS-AGC (Correlation Double Sampler and Automatic Gain Controller) element processes an analog signal from the photoelectric conversion unit 15b to remove the high frequency noise and adjust the amplitude. The analog-digital converter 104 converts the analog signal from the analog signal processor 103 into digital signals of red (R), green (G), and blue (B). The digital camera processor 105 processes the digital signal from the analog-to-digital converter 104 to generate image data of " Y: Cb: Cr 4: 2: 2 " format, which is well known as a luminance and chromaticity format.

프레임 메모리로서의 SDRAM(106)에는 디지털 카메라 프로세서(105)로부터의 영상 데이터를 프레임 단위로 저장한다. FPGA(Field Programmable Gate Array)로 구성된 메모리 제어부(107)는, SDRAM(106)으로부터의 프레임 데이터를 영상 출력부에 제공하는 한편, 마이크로프로세서(101)의 제어에 따라 프레임 데이터를 마이크로프로세서(101)에 선택적으로 입력시킨다. 이에 따라 마이크로프로세서(101)는 USB 인터페이스(109)를 통하여 컴퓨터(도 1의 5)와 통신을 수행하고, 컴퓨터(5)로부터의 요청에 따라 프레임 데이터를 메모리 제어부(107)로부터 제공받아 컴퓨터(5)로 전송한다. The SDRAM 106 as a frame memory stores image data from the digital camera processor 105 in units of frames. The memory control unit 107 composed of a Field Programmable Gate Array (FPGA) provides the frame data from the SDRAM 106 to the image output unit, and provides the frame data to the microprocessor 101 under the control of the microprocessor 101. Optionally enter Accordingly, the microprocessor 101 communicates with the computer (5 of FIG. 1) through the USB interface 109, and receives frame data from the memory controller 107 in response to a request from the computer 5. 5) to send.

영상 출력부(108) 예를 들어, VGA(Video Graphics Array) 엔진 소자는 메모리 제어부(107)로부터의 영상 데이터를 아날로그 복합 영상 신호로 변환시켜 출력한다. 비데오 프리젠터(도 1의 1)가 모니터(2)에 직접 연결되는 경우, 영상 출력부(108)로부터의 아날로그 복합 영상 신호가 모니터(2)에 직접 입력된다. 한편, 마이크로프로세서(101)는 키 입력 장치(12) 및 원격 수신 장치(14)로부터 입력되는 신호에 따라 각 부 예를 들어, 타이밍 회로(102) 및 디지털 카메라 프로세서(105)의 동작을 제어한다. The video output unit 108, for example, a video graphics array (VGA) engine element converts the video data from the memory control unit 107 into an analog composite video signal and outputs it. When the video presenter (1 in FIG. 1) is directly connected to the monitor 2, the analog composite video signal from the image output unit 108 is directly input to the monitor 2. On the other hand, the microprocessor 101 controls the operations of the respective parts, for example, the timing circuit 102 and the digital camera processor 105 according to the signals input from the key input device 12 and the remote receiving device 14. .

도 1 내지 3을 참조하여, 비데오 프리젠터(1)의 사용을 위하여 도 1의 컴퓨 터에 의하여 실행되는 주 프로그램을 설명하면 다음과 같다. 1 to 3, a main program executed by the computer of FIG. 1 for use of the video presenter 1 will be described.

먼저, 비데오 프리젠터(1)의 USB 인터페이스(109)와 컴퓨터(5)의 USB 인터페이스(도시되지 않음)가 잘 연결되었는지 확인된다(단계 S1). 잘 연결되어 있지 않은 경우, 이에 따른 안내 메세지가 모니터(2)에 디스플레이된다(단계 S2). 잘 연결되어 있는 경우, 아래의 데이터 처리 단계들이 수행된다.First, it is checked whether the USB interface 109 of the video presenter 1 and the USB interface (not shown) of the computer 5 are well connected (step S1). If it is not well connected, the guidance message accordingly is displayed on the monitor 2 (step S2). If well connected, the following data processing steps are performed.

먼저, 비데오 프리젠터(1)와의 USB 통신을 위한 초기화가 수행된다(단계 S3). 다음에, 비데오 프리젠터(1)와의 USB 통신이 수행되면서 비데오 프리젠터(1)로부터의 연속적인 프레임들의 데이터가 처리되어 피사체(3)의 동영상이 디스플레이된다(단계 S4). First, initialization for USB communication with the video presenter 1 is performed (step S3). Next, while USB communication with the video presenter 1 is performed, data of consecutive frames from the video presenter 1 is processed to display a moving image of the subject 3 (step S4).

상기와 같이 동영상을 디스플레이하는 동안에 사용자로부터 정지영상 포착 신호가 발생되면(단계 S5), 비데오 프리젠터(1)로부터의 단일 프레임의 데이터가 처리되어 정지영상이 포착된다(단계 S6). If a still image capture signal is generated from the user while displaying the moving image as described above (step S5), the data of a single frame from the video presenter 1 is processed to capture the still image (step S6).

또한, 상기와 같이 동영상을 디스플레이하는 동안에 사용자로부터 동영상 포착 신호가 발생되면(단계 S7), 비데오 프리젠터(1)로부터의 연속적인 프레임들의 데이터가 처리되어 동영상이 포착된다(단계 S8). 이 동영상 포착 단계(S8)의 알고리듬은 도 4 내지 9를 참조하여 상세히 설명될 것이다. Further, if a moving picture capture signal is generated from the user while displaying the moving picture as described above (step S7), data of consecutive frames from the video presenter 1 is processed to capture the moving picture (step S8). The algorithm of this video capture step S8 will be described in detail with reference to Figs.

상기 단계들 S4 내지 S8은 종료 신호가 입력될 때까지 반복 수행된다(단계 S9). 즉, 정지영상 포착 단계(S6)가 수행되지 않는 동안에는, 동영상 디스플레이 단계(S4) 또는 동영상 포착 단계(S8)가 반복 수행되고, 각 동영상 디스플레이 단계에서 처리되는 프레임들이 연속하여 디스플레이됨으로써 동영상이 디스플레이된다. The steps S4 to S8 are repeatedly performed until the end signal is input (step S9). That is, while the still image capturing step S6 is not performed, the moving image display step S4 or the moving image capturing step S8 is repeatedly performed, and the moving images are displayed by successively displaying the frames processed in each moving image display step. .

도 4는 도 3의 동영상 포착 단계(S85)의 알고리듬을 보여준다. 도 9는 도 4의 단계 S85 및 S86을 설명하기 위한 도면이다. 도 1, 4, 및 9를 참조하여, 도 3의 동영상 포착 단계(S8)의 알고리듬을 설명하면 다음과 같다.4 shows an algorithm of the video capture step S85 of FIG. FIG. 9 is a diagram for explaining steps S85 and S86 of FIG. 4. 1, 4, and 9, the algorithm of the video capture step S8 of FIG. 3 will be described.

먼저, 컴퓨터(5)의 중앙처리소자는 비데오 프리젠터(2)로부터의 영상 프레임 데이터를 수신한다(단계 S81a). 또한, 컴퓨터(5)의 중앙처리소자는 영상 프레임 데이터가 수신되는 시간 동안에 자신의 오디오 입력 단자로부터의 입력 오디오 데이터를 수신한다(단계 S81b).First, the central processing element of the computer 5 receives the image frame data from the video presenter 2 (step S81a). Further, the central processing element of the computer 5 receives input audio data from its audio input terminal during the time when image frame data is received (step S81b).

다음에, 컴퓨터(5)의 중앙처리소자는 상기 단계 S81a에서의 영상 프레임 데이터의 수신 시간을 기록한다(단계 S82). 여기에서, 컴퓨터(5)의 중앙처리소자는 내부 타이머를 사용하여 영상 프레임 데이터의 수신 시간을 측정하여 기록할 수 있다. 하지만, 컴퓨터(5)의 중앙처리소자의 부하를 줄이려면, 비데오 프리젠터(2)의 마이크로프로세서(101)가 내부 타이머를 사용하여 영상 프레임 데이터의 전송 시간을 측정하고, 이 전송 시간의 데이터를 프레임 데이터의 말단에 추가하여 상기 수신 시간의 데이터로서 컴퓨터(5)의 중앙처리소자에 전송하는 것이 바람직하다. Next, the central processing element of the computer 5 records the reception time of the image frame data in step S81a (step S82). Here, the central processing element of the computer 5 may use the internal timer to measure and record the reception time of the image frame data. However, in order to reduce the load on the central processing element of the computer 5, the microprocessor 101 of the video presenter 2 measures the transmission time of the image frame data using an internal timer, and the data of this transmission time is framed. In addition to the end of the data, it is preferable to transmit the data of the reception time to the central processing element of the computer 5.

다음에, 컴퓨터(5)의 중앙처리소자는, 수신된 영상 프레임 데이터를 처리하여 동영상 파일에 저장하는 한편(단계 S83a), 수신된 오디오 데이터를 처리하여 오디오 파일에 저장한다(단계 S83b). Next, the central processing element of the computer 5 processes the received image frame data and stores it in the moving image file (step S83a), while processing the received audio data and stores it in the audio file (step S83b).

상기 단계들 S81a 내지 S83b는 포착 종료 시점이 되기 전까지 예를 들어, 설정 포착 시간이 경과되기 전까지 반복 수행된다(단계 S84). 이에 따라, 각각의 영상 프레임 데이터의 수신 시간 동안에 각각의 영상 프레임 데이터와 각각의 오디오 데이터가 저장된다. The steps S81a to S83b are repeatedly performed until the capturing end point is reached, for example, until the set capturing time has elapsed (step S84). Accordingly, each image frame data and each audio data are stored during the reception time of each image frame data.

상기와 같이 녹화 시간 즉, 동영상 포착 시간 동안에 동영상 파일과 오디오 파일에 저장된 각각의 영상 프레임 데이터(V1 내지 Vn)와 각각의 오디오 데이터(A1 내지 An)에 있어서, 비데오 프리젠터(1)로부터의 영상 프레임 데이터와 컴퓨터(5)의 오디오 입력 단자로부터의 입력 오디오 데이터가 상기 컴퓨터(5)에 입력되는 시점 차이가 존재한다. As described above, in the respective video frame data V1 to Vn and the respective audio data A1 to An stored in the video file and the audio file during the recording time, that is, the video capturing time, the video frame from the video presenter 1. There is a difference in time point at which data and input audio data from the audio input terminal of the computer 5 are input to the computer 5.

본 실시예의 경우, 상기 단계들 S81a 내지 S84의 수행에 있어서, 상기 단계 S81b에서 최초의 오디오 데이터(A1)가 수신된 후에 상기 단계들 S82 내지 S84가 수행되고, 상기 단계 S81b에서 두번째의 오디오 데이터(A2)가 입력되는 동안에 상기 단계 S81a에서 첫번째의 영상 프레임 데이터(V1)가 입력되었다. 따라서, 본 실시예의 경우, 비데오 프리젠터(1)로부터의 영상 프레임 데이터와 컴퓨터(5)의 오디오 입력 단자로부터의 입력 오디오 데이터가 상기 컴퓨터에 입력되는 시점 차이는 한 프레임의 시간이다(도 9 참조). In the case of this embodiment, in performing the steps S81a to S84, after the first audio data A1 is received in the step S81b, the steps S82 to S84 are performed, and the second audio data ( While A2) was input, the first image frame data V1 was input in step S81a. Therefore, in the case of the present embodiment, the time difference between the image frame data from the video presenter 1 and the input audio data from the audio input terminal of the computer 5 is input to the computer is the time of one frame (see FIG. 9). .

여기에서, 각각의 영상 프레임 데이터(V1 내지 Vn)의 수신 시간이 변하지 않는다면, 영상 프레임 데이터와 입력 오디오 데이터의 입력 시점 차이에 따라 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터를 찾아 멀티플렉싱함으로써, 컴퓨터(5)에 연결된 마이크로폰(9)으로부터의 오디오가 비데오 프리젠터(15)로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착될 수 있을 것이다. Here, if the reception time of each image frame data V1 to Vn does not change, the respective audio data corresponding to each image frame data is found and multiplexed according to the difference in the input viewpoint of the image frame data and the input audio data. Audio from microphone 9 connected to computer 5 may be captured at the level of lip-synchronization along with video from video presenter 15.

하지만, 전송 상황에 따라 각각의 영상 프레임 데이터의 수신 시간이 변한다 (도 9 참조). 이에 따라, 컴퓨터(5)의 중앙처리소자는, 영상 프레임 데이터와 입력 오디오 데이터의 입력 시점 차이에 따라 각각의 영상 프레임 데이터(V1 내지 Vn)에 상응하는 각각의 오디오 데이터(A1 내지 An)를 찾고, 각각의 영상 프레임 데이터(V1 내지 Vn)의 수신 시간과 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터(A1 내지 An)의 수신 시간이 같아지도록 각각의 영상 프레임 데이터(V1 내지 Vn)를 조정한다(단계 S85). However, the reception time of each image frame data changes depending on the transmission situation (see FIG. 9). Accordingly, the central processing element of the computer 5 finds the respective audio data A1 to An corresponding to the respective image frame data V1 to Vn according to the difference in the input viewpoints of the image frame data and the input audio data. Each image frame data V1 to Vn is adjusted so that the reception time of each image frame data V1 to Vn is equal to the reception time of each audio data A1 to An corresponding to each image frame data. (Step S85).

예를 들어, 도 9를 참조하면, A1의 수신 시간보다 V1의 수신 시간이 길므로, V1의 데이터가 축소된다. 이 축소 기법은 잘 알려진 프레임-비율 하강 기법(Frame-rate down conversion)을 이용한다. 다음에, A2의 수신 시간보다 V2의 수신 시간이 짧으므로, V2의 데이터가 확장된다. 이 확장 기법은 잘 알려진 프레임-비율 상승 기법(Frame-rate up conversion)을 이용한다. For example, referring to FIG. 9, since the reception time of V1 is longer than the reception time of A1, the data of V1 is reduced. This reduction technique uses the well-known frame-rate down conversion. Next, since the reception time of V2 is shorter than the reception time of A2, the data of V2 is expanded. This extension technique uses the well-known frame-rate up conversion.

물론, 사용자의 선택에 따라 각각의 영상 프레임 데이터(V1 내지 Vn)가 조정되는 대신에 각각의 오디오 데이터(A1 내지 An)가 조정될 수도 있다. Of course, instead of adjusting the respective image frame data V1 to Vn according to the user's selection, the respective audio data A1 to An may be adjusted.

이에 따라, 비데오 프리젠터(1)로부터의 영상 프레임 데이터와 컴퓨터(5)의 오디오 입력 단자로부터의 입력 오디오 데이터가 컴퓨터(5)에 입력되는 시점 차이가 존재하고, 전송 상황에 따라 각각의 영상 프레임 데이터의 수신 시간이 변함에도 불구하고, 컴퓨터(5)가 자신에 연결된 마이크로폰(9)으로부터의 오디오를 비데오 프리젠터(1)로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착할 수 있다.Accordingly, there is a difference in time point at which the image frame data from the video presenter 1 and the input audio data from the audio input terminal of the computer 5 are input to the computer 5, and each image frame data according to the transmission situation. Despite the change in the reception time of, the computer 5 can capture audio from the microphone 9 connected to it at the level of lip-synchronization with the video from the video presenter 1. .

단계 S86에서 컴퓨터(5)의 중앙처리소자는, 조정된 각각의 영상 프레임 데이 터(V1 내지 Vn)와 이에 상응하는 각각의 오디오 데이터(A1 내지 An)를 멀티플렉싱한다. 또한, 단계 S87에서 컴퓨터(5)의 중앙처리소자는, 멀티플렉싱된 오디오/동영상 데이터를 생성된 오디오/동영상 파일에 저장한다.In step S86, the central processing element of the computer 5 multiplexes each of the adjusted image frame data V1 to Vn and the respective audio data A1 to An corresponding thereto. Further, in step S87, the central processing element of the computer 5 stores the multiplexed audio / video data in the generated audio / video file.

도 1, 2, 및 5를 참조하면, 도 4의 단계 S81a에서는 다음 단계들이 수행된다.1, 2, and 5, the following steps are performed in step S81a of FIG.

먼저, 컴퓨터(5)의 중앙처리소자는, 비데오 프리젠터(1)의 마이크로프로세서(101)에게 영상 프레임 데이터를 요청한다(단계 S81a1). 이에 따라, 비데오 프리젠터(1)로부터의 영상 프레임 데이터가 컴퓨터(5)에 입력되고, 컴퓨터(5)의 중앙처리소자는 영상 프레임 데이터의 수신이 완료될 때까지 입력 영상 데이터를 프레임 버퍼에 저장한다(단계들 S81a2 및 S81a3).First, the central processing element of the computer 5 requests the image frame data from the microprocessor 101 of the video presenter 1 (step S81a1). Accordingly, the image frame data from the video presenter 1 is input to the computer 5, and the central processing element of the computer 5 stores the input image data in the frame buffer until the reception of the image frame data is completed. (Steps S81a2 and S81a3).

도 1, 2, 및 6을 참조하면, 도 4의 단계 S81b에서는 다음 단계들이 수행된다.1, 2, and 6, the following steps are performed in step S81b of FIG.

먼저, 컴퓨터(5)의 중앙처리소자는, 상기 단계 S81a2의 영상 프레임 데이터의 입력이 시작되는 시점에서 오디오 버퍼의 입력단을 인에이블(enable)시킨다(단계들 S81b1 및 S81b2). 이에 따라 입력 오디오 데이터가 오디오 버퍼에 저장된다.First, the central processing element of the computer 5 enables the input end of the audio buffer at the time when the input of the image frame data of step S81a2 starts (steps S81b1 and S81b2). Accordingly, the input audio data is stored in the audio buffer.

다음에, 컴퓨터(5)의 중앙처리소자는, 상기 단계 S81a3의 영상 프레임 데이터의 입력이 종료되는 시점에서 오디오 버퍼의 입력단을 디스에이블(disable)시킨다(단계들 S81b3 및 S81b4). 이에 따라 입력 오디오 데이터의 저장이 중단된다. Next, the central processing element of the computer 5 disables the input terminal of the audio buffer at the point when the input of the image frame data of step S81a3 is finished (steps S81b3 and S81b4). As a result, the storage of the input audio data is stopped.

도 1, 2, 및 7을 참조하면, 도 4의 단계 S83a에서는 다음 단계들이 수행된다.1, 2, and 7, the following steps are performed in step S83a of FIG. 4.

먼저, 컴퓨터(5)의 중앙처리소자는, 프레임 버퍼에 저장되어 있는 "Y:Cb:Cr 4:2:2" 형식의 영상 프레임 데이터를 RGB(Red-Green-Blue) 24 형식의 영상 프레임 데이터로 변환시킨다(단계 S83a1). First, the central processing element of the computer 5 converts the image frame data of the "Y: Cb: Cr 4: 2: 2" format stored in the frame buffer into the image frame data of the RGB (Red-Green-Blue) 24 format. Are converted to (step S83a1).

다음에, 컴퓨터(5)의 OS(Operating System)의 GDI(Graphic Device Interface)에서 사용될 수 있도록, 컴퓨터(5)의 중앙처리소자는 상기 RGB(Red-Green-Blue) 24 형식의 영상 프레임 데이터를 DIB(Device Independent Bitmap) 형식의 영상 프레임 데이터로 변환시킨다(단계 S83a2). 그리고, 컴퓨터(5)의 중앙처리소자는 DIB(Device Independent Bitmap) 형식의 영상 프레임 데이터를 GDI(Graphic Device Interface)로 출력한다(단계 S83a3). 이에 따라, 비데오 프리젠터(1)로부터의 영상 프레임 데이터가 컴퓨터(5)의 OS(Operating System)에 의하여 디스플레이된다. Next, the central processing element of the computer 5 carries out the image frame data of the RGB (Red-Green-Blue) 24 format so that it can be used in the GDI (Graphic Device Interface) of the operating system (OS) of the computer 5. The video frame data is converted into DIB (Device Independent Bitmap) format (step S83a2). Then, the central processing element of the computer 5 outputs the image frame data of the device independent bitmap (DIB) format to the graphic device interface (GDI) (step S83a3). Accordingly, image frame data from the video presenter 1 is displayed by the operating system (OS) of the computer 5.

한편, 컴퓨터(5)의 중앙처리소자는, 상기 단계들 S83a2 및 S83a3을 수행함과 동시에, 사용자의 선택에 따라 상기 RGB(Red-Green-Blue) 형식의 영상 프레임 데이터를 압축하고(단계들 S83a4 및 S83a5), 압축되거나 압축되지 않은 영상 프레임 데이터를 생성된 동영상 파일에 저장한다(단계들 S83a6). On the other hand, the central processing element of the computer 5 performs the steps S83a2 and S83a3 and simultaneously compresses the image frame data in the RGB (Red-Green-Blue) format according to the user's selection (steps S83a4 and S83a5), the compressed or uncompressed image frame data is stored in the generated moving image file (steps S83a6).

도 1 및 8을 참조하면, 도 4의 단계 S83b에서 컴퓨터(5)의 중앙처리소자는, 오디오 버퍼에 저장되어 있는 오디오 데이터를 압축하고(단계들 S83a5), 압축된 오디오 데이터를 생성된 오디오 파일에 저장한다(단계들 S83b). 1 and 8, in step S83b of FIG. 4, the central processing element of the computer 5 compresses the audio data stored in the audio buffer (step S83a5), and generates the compressed audio data. In step S83b.

이상 설명된 바와 같이, 본 발명에 따른 동영상 포착 방법에 의하면, 비데오 프리젠터로부터의 영상 프레임 데이터와 컴퓨터의 오디오 입력 단자로부터의 입력 오디오 데이터가 상기 컴퓨터에 입력되는 시점 차이가 존재하고, 전송 상황에 따라 각각의 영상 프레임 데이터의 수신 시간이 변함에도 불구하고, 컴퓨터가 자신에 연결된 마이크로폰으로부터의 오디오를 비데오 프리젠터로부터의 동영상과 함께 립-씽크(lip-synchronization)의 수준으로 포착할 수 있다. 이에 따라, 다음과 같은 효과들이 얻어질 수 있다.As described above, according to the video capturing method according to the present invention, there is a difference in time point at which the image frame data from the video presenter and the input audio data from the audio input terminal of the computer are input to the computer. Although the reception time of each image frame data changes, the computer can capture audio from a microphone connected to it at a level of lip-synchronization along with a video from a video presenter. Accordingly, the following effects can be obtained.

첫째, 비데오 프리젠터에 오디오 코덱(Coder and Decoder) 등의 오디오 처리 장치가 추가될 필요가 없으므로, 비데오 프리젠터의 제조 원가가 높아지지 않는다.First, since an audio processing device such as an audio coder and a coder need not be added to the video presenter, the manufacturing cost of the video presenter does not increase.

둘째, 비데오 프리젠터와 컴퓨터가 비데오 프리젠터로부터의 멀티플렉싱된 오디오/동영상 데이터를 원활하게 송수신할 수 있는 성능을 가질 필요가 없다. Second, the video presenter and the computer need not have the capability to smoothly send and receive multiplexed audio / video data from the video presenter.

본 발명은, 상기 실시예에 한정되지 않고, 청구범위에서 정의된 발명의 사상 및 범위 내에서 당업자에 의하여 변형 및 개량될 수 있다.The present invention is not limited to the above embodiments, but may be modified and improved by those skilled in the art within the spirit and scope of the invention as defined in the claims.

Claims (7)

컴퓨터가 비데오 프리젠터로부터의 동영상을 오디오와 함께 포착하는 동영상 포착 방법에 있어서,In a video capturing method in which a computer captures a video from a video presenter with audio, (a) 상기 비데오 프리젠터로부터의 영상 프레임 데이터를 수신하는 단계;(a) receiving image frame data from the video presenter; (b) 상기 영상 프레임 데이터가 수신되는 시간 동안에 오디오 입력 단자로부터의 입력 오디오 데이터를 수신하는 단계;(b) receiving input audio data from an audio input terminal during the time when the image frame data is received; (c) 상기 단계 (a)에서의 상기 영상 프레임 데이터의 수신 시간을 기록하는 단계; (c) recording a reception time of the image frame data in step (a); (d) 포착 종료 시점이 되기 전까지 상기 단계들 (a) 내지 (c)를 반복 수행하는 단계; 및(d) repeating steps (a) to (c) until the acquisition end point; And (e) 포착 종료 시점이 되면, 영상 프레임 데이터와 입력 오디오 데이터의 입력 시점 차이에 따라 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터를 찾고, 각각의 영상 프레임 데이터의 수신 시간과 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터의 수신 시간이 같아지도록 각각의 영상 프레임 데이터 및 각각의 오디오 데이터 중에서 어느 하나를 조정하는 단계를 포함한 동영상 포착 방법. (e) When the capturing end point is reached, the respective audio data corresponding to the respective video frame data is found according to the difference in the input viewpoint of the image frame data and the input audio data, and the reception time of each image frame data and each image frame are found. And adjusting one of each of the image frame data and each of the audio data such that the reception time of each of the audio data corresponding to the data is the same. 컴퓨터가 비데오 프리젠터로부터의 동영상을 오디오와 함께 포착하는 동영상 포착 방법에 있어서,In a video capturing method in which a computer captures a video from a video presenter with audio, (a) 상기 비데오 프리젠터로부터의 영상 프레임 데이터를 수신하는 단계;(a) receiving image frame data from the video presenter; (b) 상기 영상 프레임 데이터가 수신되는 시간 동안에 오디오 입력 단자로부터의 입력 오디오 데이터를 수신하는 단계;(b) receiving input audio data from an audio input terminal during the time when the image frame data is received; (c) 상기 단계 (a)에서의 영상 프레임 데이터의 수신 시간을 기록하는 단계; (c) recording the reception time of the image frame data in step (a); (d) 수신된 영상 프레임 데이터를 처리하여 동영상 파일에 저장하는 단계; (d) processing the received image frame data and storing it in a moving image file; (e) 수신된 오디오 데이터를 처리하여 오디오 파일에 저장하는 단계; (e) processing the received audio data and storing it in an audio file; (f) 포착 종료 시점이 되기 전까지 상기 단계들 (a) 내지 (e)를 반복 수행하는 단계; 및(f) repeating steps (a) to (e) until the acquisition end point; And (g) 포착 종료 시점이 되면, 영상 프레임 데이터와 입력 오디오 데이터의 입력 시점 차이에 따라 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터를 찾고, 각각의 영상 프레임 데이터의 수신 시간과 각각의 영상 프레임 데이터에 상응하는 각각의 오디오 데이터의 수신 시간이 같아지도록 각각의 영상 프레임 데이터 및 각각의 오디오 데이터 중에서 어느 하나를 조정하는 단계를 포함한 동영상 포착 방법. (g) When the capturing end point is reached, the respective audio data corresponding to each image frame data is found according to the difference between the input time points of the image frame data and the input audio data, and the reception time and each image frame of each image frame data are found. Adjusting any one of each image frame data and each audio data such that the reception time of each audio data corresponding to the data is the same. 제2항에 있어서,The method of claim 2, (h) 각각의 영상 프레임 데이터와 이에 상응하는 각각의 오디오 데이터를 멀티플렉싱하는 단계; 및(h) multiplexing each image frame data and the respective audio data corresponding thereto; And (i) 멀티플렉싱된 오디오/동영상 데이터를 오디오/동영상 파일에 저장하는 단계를 더 포함한 동영상 포착 방법. (i) storing the multiplexed audio / video data in an audio / video file. 제2항에 있어서, 상기 단계 (a)가,The method of claim 2, wherein step (a) comprises (a1) 상기 비데오 프리젠터에게 영상 프레임 데이터를 요청하는 단계; 및(a1) requesting image frame data from the video presenter; And (a2) 상기 영상 프레임 데이터의 수신이 완료될 때까지 입력 영상 데이터를 프레임 버퍼에 저장하는 단계를 포함한 동영상 포착 방법. (a2) storing the input image data in a frame buffer until the reception of the image frame data is completed. 제4항에 있어서, 상기 단계 (d)에서, The method of claim 4, wherein in step (d), RGB(Red-Green-Blue) 형식의 프레임 데이터가 사용자의 선택에 따라 압축되어 상기 동영상 파일에 저장되는 동영상 포착 방법. A moving picture capturing method in which frame data of a red-green-blue (RGB) format is compressed according to a user's selection and stored in the moving picture file. 제5항에 있어서, 상기 단계 (d)에서,The method of claim 5, wherein in step (d), 상기 RGB(Red-Green-Blue) 형식의 영상 데이터가 DIB(Device Independent Bitmap) 형식의 프레임 데이터로 변환되고,The image data of the RGB (Red-Green-Blue) format is converted into frame data of the Device Independent Bitmap (DIB) format, 상기 DIB(Device Independent Bitmap) 형식의 프레임 데이터가 GDI(Graphic Device Interface)로 출력되는 동영상 포착 방법.And a frame data in the device independent bitmap (DIB) format is output to a graphics device interface (GDI). 제2항에 있어서, 상기 단계 (b)가,The method of claim 2, wherein step (b) (b1) 상기 영상 프레임 데이터의 입력이 시작되는 시점에서 오디오 버퍼의 입력단을 인에이블(enable)시키는 단계; 및(b1) enabling an input of an audio buffer at the time when the input of the image frame data starts; And (b2) 상기 영상 프레임 데이터의 입력이 종료되는 시점에서 상기 오디오 버 퍼의 입력단을 디스에이블(disable)시키는 단계를 포함한 동영상 포착 방법. and (b2) disabling the input terminal of the audio buffer when the input of the image frame data ends.
KR1020050103793A 2005-11-01 2005-11-01 Method to capture moving images from video presenter with audio KR100673955B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050103793A KR100673955B1 (en) 2005-11-01 2005-11-01 Method to capture moving images from video presenter with audio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050103793A KR100673955B1 (en) 2005-11-01 2005-11-01 Method to capture moving images from video presenter with audio

Publications (1)

Publication Number Publication Date
KR100673955B1 true KR100673955B1 (en) 2007-01-24

Family

ID=38014771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050103793A KR100673955B1 (en) 2005-11-01 2005-11-01 Method to capture moving images from video presenter with audio

Country Status (1)

Country Link
KR (1) KR100673955B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970072978A (en) * 1996-04-22 1997-11-07 클라크 3세 죤 엠. Digital electronic camera
JP2005260653A (en) 2004-03-12 2005-09-22 Sony Corp Video and sound reproduction system, and amplifier device
JP2006033436A (en) 2004-07-16 2006-02-02 Sony Corp Video sound processing system, amplifier device, and sound delay processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970072978A (en) * 1996-04-22 1997-11-07 클라크 3세 죤 엠. Digital electronic camera
JP2005260653A (en) 2004-03-12 2005-09-22 Sony Corp Video and sound reproduction system, and amplifier device
JP2006033436A (en) 2004-07-16 2006-02-02 Sony Corp Video sound processing system, amplifier device, and sound delay processing method

Similar Documents

Publication Publication Date Title
US8872934B2 (en) Image capturing device which inhibits incorrect detection of subject movement during automatic image capturing
JP2007241756A (en) Remote control device and system, and method of displaying equipment specific information
US9445085B2 (en) Imaging apparatus, method for controlling imaging apparatus, and system therefor
US20060055781A1 (en) Method of processing video data from video presenter
KR20100007628A (en) Image sensor interface apparatus and digital photographing apparatus comprising the same
US10397462B2 (en) Imaging control apparatus and imaging apparatus for synchronous shooting
US7193647B2 (en) Filtering still image data from a multimode stream
KR101289799B1 (en) Video presenting system having embedded operationg system and there of driving method
KR20080029051A (en) Device having image sensor and method for getting image
KR100673955B1 (en) Method to capture moving images from video presenter with audio
CN114298889A (en) Image processing circuit and image processing method
KR101012707B1 (en) Method to efficiently process image data from the video presenter
KR101025774B1 (en) Method to efficiently process image data from the video presenter
KR20080006774A (en) Method and device for transmitting thumbnail data
KR101046111B1 (en) Image capture method
JP2018207424A (en) Information transfer device
KR100492568B1 (en) A method and a device of transforming still image from video image
JP2009105687A (en) Imaging system
JP3122445B2 (en) Communication device
JP2001359108A (en) Mobile image pickup device and its operation control method
KR101537965B1 (en) Photographing system having a image sensor
KR100669607B1 (en) Display control apparatus for each mode of mobile terminal
KR100211839B1 (en) High efficiency image transmitting method for digital camcorder
KR100678227B1 (en) Method for displaying of picture in wireless terminal
KR100797533B1 (en) Stop screen capture method for personal video recorder

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130102

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee