KR20090024402A - 임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법 - Google Patents

임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법 Download PDF

Info

Publication number
KR20090024402A
KR20090024402A KR1020070089401A KR20070089401A KR20090024402A KR 20090024402 A KR20090024402 A KR 20090024402A KR 1020070089401 A KR1020070089401 A KR 1020070089401A KR 20070089401 A KR20070089401 A KR 20070089401A KR 20090024402 A KR20090024402 A KR 20090024402A
Authority
KR
South Korea
Prior art keywords
image
embedded
real
live
document
Prior art date
Application number
KR1020070089401A
Other languages
English (en)
Other versions
KR101289799B1 (ko
Inventor
이진욱
윤정한
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020070089401A priority Critical patent/KR101289799B1/ko
Priority to US12/214,868 priority patent/US20090059094A1/en
Priority to GB0812117.0A priority patent/GB2452590B/en
Priority to CN2008101447125A priority patent/CN101383142B/zh
Priority to TW097129149A priority patent/TWI440361B/zh
Publication of KR20090024402A publication Critical patent/KR20090024402A/ko
Application granted granted Critical
Publication of KR101289799B1 publication Critical patent/KR101289799B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/06Projectors or projection-type viewers; Accessories therefor affording only episcopic projection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 기기 제어를 목적으로 하는 임베디드 시스템을 광학영상 전자장비인 실물 화상기에 탑재하여 라이브 영상 뿐만 아니라 문서/멀티미디어 영상 파일을 하나의 디스플레이부에 출력할 수 있는 임베디드 OS를 탑재한 실물화상 시스템 및 그 시스템의 동작 방법에 관한 것이다. 임베디드 OS를 탑재한 실물화상 시스템은, 생성된 제1영상 또는 수신된 제2영상을 디스플레이 가능한 신호로 처리하여 출력하거나, 상기 제1영상 및 제2영상을 오버레이하여 디스플레이 가능한 신호로 처리하여 출력하고, 상기 제1영상 또는 그 일부를 전송하는 실물 화상수단; 및 상기 실물 화상수단과의 주기적인 통신을 통하여 상기 오버레이 정보 및 상기 제2영상을 상기 실물 화상수단으로 전송하고, 상기 캡쳐된 제1영상을 수신하는 임베디드 수단을 포함한다.
실물 화상수단, 임베디드 수단, VGA 엔진, 그래픽 엔진

Description

임베디드 OS를 탑재한 실물화상 시스템 및 그 시스템의 동작 방법{Video presenting system having embedded operationg system and there of driving method}
본 발명은 기기 제어를 목적으로 하는 임베디드(embedded) 시스템을, 광학영상 전자장비인 실물 화상기에 탑재하여, 라이브 영상 뿐만 아니라 문서/멀티미디어 파일을 하나의 디스플레이부에 출력할 수 있는 임베디드 OS를 탑재한 실물화상 시스템 및 그 시스템의 동작 방법에 관한 것이다.
일반적으로 실물 화상기는 피사체를 씨씨디 카메라(Charge Coupled Device camera)로 촬상하여 이를 모니터를 통해 디스플레이하기 위한 장치로서, 학술 및 산업용으로 널리 사용되는 장치이다. 특히 실물 화상기에서 대상 물체를 촬상하는 씨씨디 카메라에 현미경 렌즈와 같이 실물을 확대시킬 수 있는 렌즈를 결합함으로써, 미세한 피사체를 확대시킨 화상을 모니터를 통하여 디스플레이할 수 있다.
임베디드(embedded) 시스템은 다른 기기의 일부로 내장된 컴퓨팅 시스템으로써, 일반적인 컴퓨터와 달리 자신을 포함하고 있는 기기에 부과된 특정 목적의 컴퓨팅 작업만을 수행한다. 이를 위해, 임베디드 시스템은 중앙 처리장치를 구비하 고 운영체제를 필요로하며, 운영체제로 어플리케이션을 실행하여 특정 작업을 수행한다. 통상적으로, 임베디드 시스템은 군사용 기기, 산업용 기기, 통신 기기, 셋 탑 박스, 디지털 텔레비전, 디지털 카메라와 같은 가전기기 등을 제어하기 위해 내장된다. 임베디드 시스템은 특정 작업 중 GUI(graphic user interface)를 제공할 수 있다. GUI는 메뉴를 디스플레이 하는 형식의 인터페이스이다. GUI를 제공하는 임베디드 시스템은 GUI를 제공하기 위한 GUI 어플리케이션 및 아이콘이아 메뉴를 나타낼 GUI 이미지 데이터를 저장하고 있다. 그리고, 사용자가 GUI의 디스플레이를 요청할 경우, 임베디드 시스템은 운영체제로 GUI 어플리케이션을 실행하여 GUI 이미지 데이터에 해당하는 아이콘이나 메뉴 이미지를 디스플레이 한다.
일반적으로 실물 화상기 개념은 교육/회의/발표 등에서 문서나 피사체를 영사기를 통해 확대하고, USB(universal sireal bus) 등의 고속 직렬 버스를 통해 PC에 이미지를 전송하는 개념이었다. 따라서, 전자문서/멀티미디어 파일의 출력을 위해서는 반드시 PC가 필요하게 되며, 실물 화상기는 PC의 보조장치로 인식되어 사용되어 있다.
기본적으로 프리젠테이션 시스템은 (프로젝터 + PC + 실물 화상기)로 구성이 되어야 하며, 입출력 및 조작성이 불편하고, 구입 단가가 올라가는 등의 문제점이 발생되었다.
본 발명이 이루고자 하는 기술적인 과제는 임베디드 OS와 관련된 하드웨어를 실물 화상기와 통합함으로써, 라이브 영상 출력 뿐만 아니라 각종 PC 파일을 재생할 수 있고, 각기 다른 소스에서 발생하는 두 개의 영상(실물 라이브 영상 + PC 파일 영상)을 하나의 출력에 오버레이(overlay)하여 출력할 수 있도록 하는 임베디드 OS를 탑재한 실물화상 시스템 및 그 시스템의 동작 방법을 제공하는데 있다.
본 발명이 이루고자 하는 다른 기술적인 과제는 임베디드 OS와 관련된 하드웨어를 실물 화상기와 통합함으로써, 실물 화상기에서 촬영한 라이브 정지영상/동영상을 캡쳐하여 임베디드 시스템에 저장할 수 있는 임베디드 OS를 탑재한 실물화상 시스템 및 그 시스템의 동작 방법을 제공하는데 있다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제1 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템은, 생성된 제1영상 또는 수신된 제2영상을 디스플레이 가능한 신호로 처리하여 출력하거나, 상기 제1영상 및 제2영상을 오버레이하여 디스플레이 가능한 신호로 처리하여 출력하고, 캡쳐된 상기 제1영상 또는 그 일부를 전송하는 실물 화상수단; 및 상기 실물 화상수단과의 주기적인 통신을 통하여 상기 오버레이 정보 및 상기 제2영상을 상기 실물 화상수단으로 전송하고, 상기 캡쳐된 제1영상을 수신하는 임베디드 수단을 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제2 실시 예에 따 른 임베디드 OS를 탑재한 실물화상 시스템은, 영상 오버레이 시스템으로써, 라이브 영상을 생성하고, 문서/멀티미디어 영상 및 오버레이 정보를 수신하고, 상기 오버레이 정보에 따라 상기 라이브 영상 및 상기 문서/멀티미디어 영상을 오버레이하여 디스플레이 신호로 출력하는 실물 화상수단; 및 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하고, 내부 입력수단에 의해 오버레이가 요청되면, 상기 오버레이 정보를 상기 실물 화상수단으로 전송하는 임베디스 수단을 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제3 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템은, 영상 오버레이 시스템으로써, 라이브 영상을 생성하고, 문서/멀티미디어 영상을 수신하며, 내부 입력수단에 의해 오버레이가 요청되면, 오버레이 정보를 수신하여, 상기 오버레이 정보에 따라 상기 라이브 영상 및 상기 문서/멀티미디어 영상을 오버레이하여 디스플레이 신호로 출력하는 실물 화상수단; 및 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상 및 상기 오버레이 정보를 상기 실물 화상수단으로 전송하는 임베디스 수단을 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제4 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템은, 영상 촬영 및 저장 시스템으로써, 광학부를 통하여 촬영된 라이브 영상을 저장하고, 제1 저장 신호에 의해 상기 저장된 라이브 영상 중 캡쳐된 정지영상을 전송하거나, 제2 저장 신호에 의해 상기 저장된 전체 라이브 영상을 신호처리하여 전송하는 실물 화상수단; 및 상기 실물 화상수단 과 주기적으로 통신하고, 상기 제1 및 제2 저장 신호 를 상기 실물 화상 수단으로 전송하고, 상기 실물 화상수단으로부터 캡쳐된 정지영상 또는 신호처리된 라이브 영상을 수신하는 임베디드 수단을 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제1 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템의 동작 방법은, 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하여 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하는 방법으로서, (a) 상기 임베디드 수단이 상기 라이브 영상 및 문서/멀티미디어 영상의 오버레이를 상기 실물 화상수단에 요청하는 단계; (b) 상기 요청과 함께 상기 임베디드 수단이 오버레이될 영상의 크기와 위치를 포함하는 오버레이 정보를 상기 실물 화상수단으로 전송하는 단계; 및 (c) 상기 오버레이 요청 신호 및 상기 오버레이 정보를 수신한 상기 실물 화상수단은 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하여 디스플레이 하는 단계를 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제2 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템의 동작 방법은 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하여 상기 라이브 영상 및 문서/ 멀티미디어 영상을 오버레이 하는 방법으로서, (a) 상기 실물 화상수단에서 영상 오버레이가 요청되면, 오버레이될 영상의 크기와 위치를 포함하는 오버레이 정보를 상기 임베디드 수단에 요청하는 단게; 및 (b) 상기 임베디드 수단으로부터 상기 오버레이 정보가 수신되면, 상기 오버레이 정보에 따라 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하여 디스플레이 하는 단계를 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제3 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템의 동작 방법은, 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하는 시스템에서, 상기 라이브 영상을 저장하는 방법으로서, (a) 상기 실물 화상수단은 상기 라이브 영상을 순차적으로 저장하는 단계; (b) 상기 임베디드 수단의 정지영상 캡쳐 신호를 수신한 상기 실물 화상수단이 상기 순차적인 저장을 중지하는 단계; (c) 상기 실물 화상수단은 상기 정지 영상 캡쳐 신호를 수신한 시점의 라이브 영상 프레임을 상기 임베디드 수단으로 전송하는 단계; 및 (d) 상기 임베디드 수단은 수신한 상기 라이브 영상 프레임을 휴대용 저장부에 저장하거나, 네트워크를 통하여 외부로 전송하는 단계를 포함하는 것이 바람직하다.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 제4 실시 예에 따른 임베디드 OS를 탑재한 실물화상 시스템의 동작 방법은, 생성한 라이브 영상 및/ 또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하는 시스템에서, 상기 라이브 영상을 저장하는 방법으로서, (a) 상기 실물 화상수단은 상기 라이브 영상을 순차적으로 저장하는 단계; (b) 상기 임베디드 수단의 동영상 저장 신호를 수신한 상기 실물 화상수단은 상기 전체 라이브 영상을 축소 스케일링하는 단계; (c) 상기 실물 화상수단은 상기 축소 스케일링된 전체 라이브 영상을 상기 임베디드 수단으로 전송하는 단계; 및 (d) 상기 임베디드 수단은 수신한 상기 축소 스케일링된 전체 라이브 영상을 휴대용 저장부에 저장하거나, 네트워크를 통하여 외부로 전송하는 단계를 포함하는 것이 바람직하다.
상술한 바와 같이 본 발명에 따르면, PC의 범위를 넘어설 수 없는 실물화상기에 임베디드 OS와 관련된 하드웨어를 탑재하여, 라이브 영상 및/또는 전자문서/멀티미디어 영상을 출력함으로써, 실물화상 화상기와 디스플레이 수단만을 구비하여 간편하게 프리젠테이션 할 수 있는 효과를 창출한다.
또한 각기 다른 소스에서 발생하는 두 개의 영상(실물 라이브 영상 + PC 파일 영상)을 하나의 출력에 오버레이(overlay)되어 출력할 경우, 임베디드 시스템에서 CPU 내부의 프로세서를 거치지 않고, 최종 출력단에서 오버레이 기능을 구현하여 임베디드 시스템의 CPU 부하가 거의 발생하지 않음으로, 동영상 재생 등 멀티미디어 영상을 출력할때도 별다른 응용 프로그램 없이 두 개의 영상을 오버레이 하여 출력할 수 있다.
그리고, 실물 화상기에서 촬영한 라이브 정지영상/동영상을 캡쳐하여 임베디드 시스템에 저장할 수 있어, 임베디드 시스템의 CPU 부하를 줄이면서 실시간 처리 구현이 가능하게 된다.
PC 없이 문서/멀티미디어 파일을 재생함으로써, 교육 시장에서 수업 시에 실제 영상과 함께 다양한 시청각 교재를 활용하여 수업할 수 있다. 예를 들어 개미집 관찰/개구리 해부 등의 생물 수업을 진행함에 있어서, 관련 이론적 배경 등은 문서 영상으로 설명하고, 실제 준비된 개미집/개구리를 현장에서 라이브 영상으로 촬영하여 문서 영상과 함께 오버레이하여 디스플레이 함으로써, 교육효과를 극대화 할 수 있으며, 기존에 만들어진 동영상 시청각 교재를 재생함으로써 현대화된 교실이 필요료 하는 모든 자료를 사용할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.
도 1은 본 발명에 따른 임베디드 OS를 탑재한 실물화상 시스템을 보여주는 도면으로, 임베디드 수단이 탑재된 실물 화상수단(1) 및 피사체 영상(b)을 디스플레이 하는 디스플레이부(2)을 포함한다.
본 발명에서 실물 화상수단(1)은 영상 감지부(11), 조명 장치(12a, 12b), 지주(13), 잠금 버튼(14), 피사대(15), 입력수단(16)으로써의 키 입력부(16a), 마우스(16b), 리모콘(16c) 및 원격 수신 부(17) 및 피사체(18a)를 포함한다.
앞뒤 이동 및 회전이 가능한 영상 감지부(11)에는 광학계 및 광전 변환부가 구비된다. 피사체(18a)로부터의 빛을 광학적으로 처리하는 광학계는 렌즈부 및 필터부를 구비한다. CCD(charge coupled device) 또는 CMOS(complementary metal-oxide-semiconductor)의 광전 변환부는 피사체로부터 광학계를 통하여 입사되는 빛을 전기적 아날로그 신호로 변환시킨다.
사용자는 잠금 버튼(14)을 눌러서 지주(13)를 움직일 수 있다. 피사대(15)의 아래에는 또다른 조명 장치가 내장된다. 키 입력부(16a) 또는 마우스(16d)는 사용자의 조작에 의하여 영상 감지부(11) 및 조명 장치(12a, 12b) 등의 각 부의 구동을 제어하는 데에 사용된다. 한편, 사용자는, 리모콘(16c)을 조작하여 제어 신호를 원격 수신부(17)에 입력시킴으로써, 영상 감지부(11) 및 조명 장치(12a, 12b) 등의 각 부의 구동을 제어할 수 있다.
도 2는 도 1에 개시된 임베디드 OS를 탑재한 실물화상 시스템의 내부 구성도로써, 디스플레이부(2), 실물 화상수단(100) 및 임베디드 수단(200)을 포함하여, 임베디드 수단(200)을 실물 화상수단(100)과 통합함으로써, 라이브 영상 출력 뿐만 아니라 각종 PC 파일을 재생할 수 있고, 각기 다른 소스에서 발생하는 두 개의 영상(실물 라이브 영상 + PC 파일 영상)을 하나의 출력에 오버레이(overlay)되어 출력될 수 있도록 하며, 실물 화상수단(100)에서 촬영한 라이브 정지영상/동영상을 캡쳐하여 임베디드 수단(200)에 저장할 수 있도록 한다.
본 발명에서 실물 화상수단(100)은 영상 감지부(11), 입력수단(16)으로써의 키 입력부(16a) 및 리모콘(16c), DSP(digital signal processor)(101), 제1 SDRAM(synchronous dynamic random access memory)(103), FPGA(field programmable gate array)(105), VGA(video graphic array) 엔진(107) 및 마이콤(109)을 포함한다.
본 발명에서 임베디드 수단(200)은 입력수단(16)으로써의 마우스(16b), 휴대용 저장부(201), 네트워크(203), 제2 SDRAM(205), 그래픽 엔진(207), CPU 코어(core)(209) 및 스피커(211)를 포함한다.
실물 화상수단(100)의 마이콤(109)과 임베디드 수단(200)의 CPU 코어(209)는 주기적인 통신을 통하여 상호간 데이터를 송수신 하는데, CCD의 수직 동기 신호를 주기로 최대 48 바이트의 데이터를 주기적으로 교환한다.
먼저 실물 화상수단(100)을 설명하면, 영상 감지부(11)는 피사체(18a)로부터의 빛을 광학적으로 처리하여 아날로그 신호로 변환한다.
DSP(101)는 영상 감지부(11)로부터 변환된 피사체(18a)의 라이브 영상신호를 디지털 신호로 변환하고, 디스플레이를 위한 각종 신호처리를 수행한다. DSP(101)는 온도변화에 만감한 CCD 또는 CMO에서 발생하는 암 전류에 의한 블랙레벨(black level)을 제거하고, 인간 시각의 비선형성에 맞추어 정보를 부호화 하는 감마 보정을 수행한다. DSP(101)는 감마 보정된 소정 데이터의 RGRG라인 및 GBGB 라인으로 구현된 베이어 패턴을 RGB 라인으로 보간하는 CFA 보간을 수행한다. DSP(101)는 보간된 RGB 신호를 YUV 신호로 변환하고, 고 대역 필터에 의해 Y 신호를 필터링 하여 영상을 뚜렷하게 처리하는 에지 보상과, 표준 컬러 좌표계를 이용하여 U, V 신호의 컬러 값을 정정하는 컬러 정정을 수행하며, 이들의 노이즈를 제거한다.
프레임 메모리로서의 제1 SDRAM(103)에는 DSP(101)에서 신호처리된 라이브 영상을 프레임 단위로 저장한다.
FPGA(105)는 메모리 제어부로써, 제1 SDRAM(103)에 프레임 단위로 저장된 라이브 영상을 VGA 엔진(107)로 제공하는 한편, 임베디드 수단(200)의 영상 캡쳐 신호를 수신한 마이콤(109)의 제어에 따라 영상 프레임 데이터를 또는 동영상을 축소 스케일링하여 CPU 코어(209)로 전송한다.
VGA 엔진(107)은 영상 출력부로서, FPGA(105)로부터 수신한 라이브 영상을 아날로그 복합 영상 신호로 변환시켜 디스플레이부(2)로 출력한다. 또한 VGA 엔진(107)은 임베디드 수단(200)으로부터 수신한 문서/멀티이디어 파일 영상을 아날로그 복합 영상 신호로 변환시켜 디스플레이부(2)로 출력한다. 그리고, VGA 엔진(107)은 FPGA(105)로부터 수신한 프레임 영상과 임베디드 수단(200)으로부터 수신한 문서/멀티미디어 영상을 스케일링 또는 프레임 레이트를 변환시키는 신호처리를 수행한 후, 이 영상을 오버레이하고, 아날로그 복합 영상 신호로 변환시켜 디스플레이부(2)로 출력한다.
본원발명의 실물 화상 시스템에서 제1 제어부의 역할을 하는 마이콤(109)은 실물 화상수단(100) 전체의 동작을 제어하며, 임베디드 수단(200)과 주기적으로 통신한다. 특히, 마이콤(109)은 키 입력부(16a) 및 리모콘(16c)의 오버레이 요청 신호를 수신하고, 임베디드 수단(200)으로부터 수신한 오버레이 정보에 따라, FPGA(105)로부터 수신한 프레임 영상과 임베디드 수단(200)으로부터 수신한 문서/멀티미디어 영상이 오버레이 되도록 VGA 엔진(107)을 제어한다. 여기서, 오버레이 정보는 오버레이될 영상의 크기 및 위치 데이터 이다. 또한 마이콤(109)은 임베 디드 수단(200)으로부터의 정지영상 캡쳐 및 동영상 저장 신호를 수신하여 FPGA(105)를 제어하여, FPGA(105)에서 처리된 영상을 임베디드 수단(201)의 CPU 코어(209)로 전송하도록 제어한다. 또한 마이콤(109)은 예기치 못한 소프트웨어적인 오류가 발생하는 경우, 임베디드 수단(200)의 CPU 코어(209)를 리셋할 수 있다.
다음에 임베디드 수단(200)을 설명하면, 착탈가능한 휴대용 저장부(201)는 문서/멀티미디어 파일 영상을 저장하고 있다. 또한 휴대용 저장부(201)는 FPGA(105)로부터 전송된 라이브 영상에 대한 정지영상 및 동영상을 저장한다.
네트워크(203)는 외부로부터 문서/멀티미디어 파일 영상을 수신한다. 또한 네트워크(203)는 FPGA(105)로부터 전송된 라이브 영상에 대한 정지영상 및 동영상을 외부로 전송한다.
제2 SDRAM(205)은 CPU 코어(209)의 제어로 휴대용 저장부(201)의 문서/멀티미디어 파일 영상을 저장거나, 또는 네트워크(203)로부터 수신한 문서/멀티미디어 파일 영상을 저장하고, FPGA(105)로부터 수신한 라이브 영상에 대한 정지영상 또는 동영상을 저장한다.
그래픽 엔진(207)은 CPU 코어(209)의 제어로, 제2 SDRAM(205)에 저장된 문서/멀티미디어 파일 영상을 수신하여 디지털 영상으로 변환하고, 이를 VGA 엔진으로 출력한다.
본원발명의 실물 화상 시스템에서 제2 제어부의 역할을 하는 CPU 코어(209)는 임베디스 수단(200) 전체의 동작을 제어하며, 실물 화상수단(100)의 마이콤(109)과 주기적으로 통신한다.
특히, CPU 코어(209)는 마우스(16b)의 오버레이 요청 신호를 수신하고, 이를 마이콤(109)으로 전송하고, 영상 오버레이 시에, 오버레이 정보(오버레이될 영상의 크기 및 위치 데이터)를 생성하여 마이콤(109)으로 전송한다. 또한 CPU 코어(209)는 실물 화상수단(100)의 라이브 영상에 대하여, 정지영상 캡쳐 신호 및 동영상 저장신호를 마이콤(109)으로 전송하며, FPGA(105)로부터 수신한 라이브 영상에 대한 정지영상 및 동영상을 휴대용 저장부(201)에 저장하도록 제어하거나, 네트워크(203)를 통하여 외부로 전송되도록 제어한다. 또한 CPU 코어(209)는 디스플레이부(2)에 디스플레이 되는 영상의 오디오 신호를 제어하여 스피커(211)로 출력한다.
도 3은 도 2의 시스템 중 본 발명의 제1 실시 예에 따른 영상 오버레이 장치의 구성을 보이는 블록도이고, 도 4는 본 발명의 제1 실시 예에 따른 영상 오버레이 방법의 동작을 보이는 흐름도이다.
도 3 및 도 4에 도시된 영상 오버레이 장치 및 방법은 CPU 코어(209) 중심(host)의 오버레이를 설명하기 위한 것으로, CPU 코어(209) 중심이라 함은 마우스(16b) 또는 네트워크(203)의 오버레이 요청에 의해 영상 오버레이를 수행하는 경우를 의미한다.
도 3을 참조하면, CPU 코어(209) 중심의 오버레이 장치는 디스플레이부(2), 마우스(13b), VGA 엔진(107), 마이콤(109), 휴대용 저장부(201), 네트워크(203), 그래픽 엔진(207), CPU 코어(209)를 포함한다. 도 3에 개시된 구성요소의 상세한 설명은 상기에 개시되어 있으므로 생략한다.
도 4에 도시된 영상 오버레이 방법을 도 3과 연계하여 설명한다.
먼저, CPU 코어(209)는 마우스(16b) 또는 네트워크(203)의 오버레이 요청 신호를 수신한다(401단계).
이어서, CPU 코어(209)는 라이브 영상(A)과 문서/멀티미디어 영상(B)에 대해 메인영상 및 오버레이될 서브영상 선택 신호를 수신한다(403단계).
라이브 영상(A)은 영상 감지부(11), DSP(101) 및 FPGA(105)를 통하여 VGA 엔진(107)으로 입력된다. 문서/멀티미디어 영상(B)은 휴대용 저장부(201)에 저장되거나, 네트워크(203)를 통하여 수신되며, 그래픽 엔진(107)을 통하여 VGA 엔진(107)으로 입력된다. 라이브 영상(A)이 메인영상으로 선택되고, 문서/멀티미디어 영상(B)이 서브영상으로 선택될 수 있거나, 문서/멀티미디어 영상(B)이 메인영상으로 선택되고 라이브 영상(A)이 오버레이될 서브영상으로 선택될 수 있다. 본 발명에서는 설명의 편의상 문서/멀티미디어 영상(B)이 메인영상으로 선택되고 라이브 영상(A)이 오버레이될 서브영상으로 선택되었다고 가정하고 설명한다.
메인영상 및 오버레이될 서브영상 선택이 완료되면, CPU 코어(209)는 오버레이될 서브영상의 크기 및 위치 데이터를 마이콤(109)으로 전송한다(405단계).
오버레이될 서브영상의 크기 및 위치 데이터를 수신한 마이콤(109)은 VGA 엔진(107)의 영상 오버레이를 제어하고, VGA 엔진(107)은 문서/멀티미디어 영상(B) 위에 라이브 영상(A)을 오버레이 하여 디스플레이 한다.
마이콤(109)은 VGA 엔진(107)을 제어하여 오버레이될 라이브 영상의 위치 및 크기 데이터를 VGA 엔진(107)으로 전송한다. 이를 수신한 VGA 엔진(107)은 라이브 영상을 수신한 크기에 맞게 스케일링 및 버퍼링하여 디스플레이할 최종 오버레이 영상으로 신호처리한다. VGA 엔진(107)은 문서/멀티이디어 영상(B)을 아날로그 복합 영상 신호로 변환시키고, 그 위에 오버레이 신호처리된 라이브 영상(A)을 아날로그 복합 영상신호로 변환시켜 디스플레이부(2)로 출력한다.
도 5에는 디스플레이부(2)에 재생되는 오버레이 영상의 일 예를 보여주고 있다. 도 5a는 디스플레이부(2)에 디스플레이 되는 라이브 영상을 보여주고, 도 5b는 문서/멀티미디어 영상 위에 VGA 엔진(107)에서 신호처리되어 위치 및 크기가 변환된 라이브 영상이 오버레이 되어 디스플레이 됨을 보여준다.
도 6은 도 2의 시스템 중 본 발명의 제2 실시 예에 따른 영상 오버레이 장치의 구성을 보이는 블록도이고, 도 7은 본 발명의 제2 실시 예에 따른 영상 오버레이 방법의 동작을 보이는 흐름도이다.
도 6 및 도 7에 도시된 영상 오버레이 장치 및 방법은 마이콤(109) 중심(host)의 오버레이를 설명하기 위한 것으로, 마이콤(109) 중심이라 함은 키 입력부(16a) 또는 리모콘(16c)의 오버레이 요청에 의해 영상 오버레이를 수행하는 경우를 의미한다.
도 6을 참조하면, 마이콤(109) 중심의 오버레이 장치는 디스플레이부(2), 키 입력부(16a), 리모콘(16c), VGA 엔진(107), 마이콤(109), 휴대용 저장부(201), 네트워크(203), 그래픽 엔진(207), CPU 코어(209)를 포함한다. 도 6에 개시된 구성요소의 상세한 설명은 상기에 개시되어 있으므로 생략한다.
도 7에 도시된 영상 오버레이 방법을 도 6과 연계하여 설명한다.
먼저, 마이콤(109)은 키 입력부(16a) 또는 리모콘(16c)의 오버레이 요청 신 호를 수신한다(701단계).
이어서, 마이콤(109)는 라이브 영상(A)과 문서/멀티미디어 영상(B)에 대해 메인영상 및 오버레이될 서브영상 선택 신호를 수신한다(703단계).
라이브 영상(A)은 영상 감지부(11), DSP(101) 및 FPGA(105)를 통하여 VGA 엔진(107)으로 입력된다. 문서/멀티미디어 영상(B)은 휴대용 저장부(201)에 저장되거나, 네트워크(203)를 통하여 수신되며, 그래픽 엔진(107)을 통하여 VGA 엔진(107)으로 입력된다. 상기에 개시된 바와 같이 문서/멀티미디어 영상(B)이 메인영상으로 선택되고 라이브 영상(A)이 오버레이될 서브영상으로 선택되었다고 가정한다.
메인영상 및 오버레이될 서브영상 선택이 완료되면, 마이콤(109)은 CPU 코어(209)에 오버레이 명령이 요청되었음을 통보한다(705단계).
마이콤(109)과 CPU 코어(209)는 주기적인 통신을 통하여 상호간 데이터를 송수신 하는데, CCD의 수직 동기 신호를 주기로 최대 48 바이트의 데이터를 주기적으로 교환한다. 이와 같이 마이콤(109)은 CCD의 수직 동기 신호를 주기로 CPU 코어(209)에 오버레이 명령이 요청되었음을 통보한다.
마이콤(109)으로부터 오버레이 명령 요청 신호를 수신한 CPU 코어(209)는 오버레이될 서브영상의 크기 및 위치 데이터를 마이콤(109)으로 전송한다(707단계).
오버레이될 서브영상의 크기 및 위치 데이터를 수신한 마이콤(109)은 VGA 엔진(107)의 영상 오버레이를 제어하고, VGA 엔진(107)은 문서/멀티미디어 영상(B) 위에 라이브 영상(A)을 오버레이 하여 디스플레이 한다.
마이콤(109)은 VGA 엔진(107)을 제어하여 오버레이될 라이브 영상의 위치 및 크기 데이터를 VGA 엔진(107)으로 전송한다. 이를 수신한 VGA 엔진(107)은 라이브 영상을 수신한 크기에 맞게 스케일링 및 버퍼링하여 디스플레이할 최종 오버레이 영상으로 신호처리한다. VGA 엔진(107)은 문서/멀티이디어 영상(B)을 아날로그 복합 영상 신호로 변환시키고, 그 위에 오버레이 신호처리된 라이브 영상(A)을 아날로그 복합 영상신호로 변환시켜 디스플레이부(2)로 출력한다.
도 5b는 문서/멀티미디어 영상 위에 VGA 엔진(107)에서 신호처리되어 위치 및 크기가 변환된 라이브 영상이 오버레이 되어 디스플레이 됨을 보여준다.
도 3 내지 도 7에 개시된 영상 오버레이 방식의 큰 장점은 CPU 코어(209) 내부의 프로세스를 거치지 않고, 최종 출력단 즉, VGA 엔진(107)에서 영상 오버레이를 처리하기 때문에, CPU 코어(209)의 부하가 거의 발생하지 않는 점이다. 따라서, 다양한 문서 또는 멀티미디어 영상을 출력하기 위해, CPU 코어(209)가 별다른 응용 프로그램을 실행시킬 필요없이, 상기 문서/멀티미디어 영상을 VGA 엔진(107)으로만 전송하면 된다. 따라서, CPU 코어(209)의 부하가 거의 발생하지 않으면서 두 개의 영상 오버레이가 가능하게 된다.
도 8은 도 2의 시스템 중 본 발명의 제3 실시 예에 따른 영상 촬영/저장 장치의 구성을 보이는 블록도로서, 디스플레이부(2), 마우스(16b), FPGA(105), 마이콤(109), 휴대용 저장부(201), 네트워크(203), 제2 SDRAM(205), CPU 코어(209)를 포함한다. 도 8에 개시된 구성요소의 상세한 설명은 상기에 개시되어 있으므로 생략한다.
도 9는 본 발명의 제3 실시 예에 따른 정지영상 촬영/저장 방법의 동작을 보이는 흐름도로, 도 8과 연계하여 설명한다.
실물 화상수단(100)은 영상 감지부(11)를 통하여 입력되는 라이브 영상을 FPGA(105)에 저장한다(901단계).
영상 감지부(11)를 통하여 입력되는 영상은 마이콤(109)의 제어에 의해 DSP(101)에서 디스플레이를 위한 신호처리 과정을 거친 후 FPGA(105)에 구비된 프레임 버퍼(미도시)에 저장된다.
이 과정에서 CPU 코어(209)는 마이콤(109)에 영상 캡쳐신호를 전송한다(903단계).
마우스(16b)를 통하여 영상 캡쳐신호를 수신한 CPU 코어(209)는 CCD의 수직 동기 신호를 주기로 마이콤(109)에 영상 캡쳐신호를 전송한다.
영상 캡쳐신호를 수신한 마이콤(109)은 FPGA(105)의 동작을 제어하고, FPGA(105)는 캡쳐신호 수신 시점에서 프레임 버퍼에 저장된 1프레임분의 라이브 영상에 대한 입출력을 잠근다(905단계).
FPGA(105)가 캡쳐신호 수신 시점에서 프레임 버퍼의 입출력을 잠그는 이유는, 영상 감지부(11)를 통해서 라이브 영상 신호가 계속해서 입력되기 때문에, 프레임 버퍼의 입출력을 잠그지 않으면, 캡쳐신호 수신 시점의 라이브 영상 저장이 수행되지 않을 수 있기 때문이다.
이어서, CPU 코어(209)는 FPGA(105)에 접근하여 캡쳐된 영상을 제2 SDRAM(205)에 복사한다(907단계).
캡쳐신호 수신 시점에서 프레임 버퍼에 저장된 1 프레임분의 라이브 영상이 저장되면, 마이콤(109)은 CPU 코어(209)에 이를 알리고, CPU 코어(209)는 FPGA(105)에 접근하여 프레임 버퍼에 저장된 1 프레임분의 라이브 영상을 제2 SDRAM(205)에 복사한다.
이후, 제2 SDRAM(205)에 복사된 1 프레임분의 라이브 영상은 CPU 코어(209)의 제어 하에 휴대용 저장부(201)에 저장하거나, 네트워크(203)를 통하여 외부로 전송된다(909단계).
도 10은 본 발명의 제4 실시 예에 따른 동영상 촬영/저장 방법의 동작을 보이는 흐름도로, 도 8과 연계하여 설명한다.
실물 화상수단(100)은 영상 감지부(11)를 통하여 입력되는 라이브 영상을 FPGA(105)에 저장한다(1001단계).
영상 감지부(11)를 통하여 입력되는 영상은 마이콤(109)의 제어에 의해 DSP(101)에서 디스플레이를 위한 신호처리 과정을 거친 후 FPGA(105)에 구비된 프레임 버퍼(미도시)에 저장된다.
이 과정에서 CPU 코어(209)는 마이콤(109)에 동영상 저장신호를 전송한다(1003단계).
마우스(16b)를 통하여 동영상 저장신호를 수신한 CPU 코어(209)는 CCD의 수직 동기 신호를 주기로 마이콤(109)에 동영상 저장신호를 전송한다.
동영상 저장신호를 수신한 마이콤(109)은 FPGA(105)의 동작을 제어하고, FPGA(105)는 동영상 저장신호 수신 시점부터 입력되는 라이브 영상을 1/2 사이즈로 스케일링한다(1005단계). 예를 들어 FPGA(105)는 SXGA(super extended graphics array) (1280×1024)영상을 VGA(video graphic array) (640×480) 영상으로 축소 스케일링한다.
이어서, FPGA(105)는 CCD의 수직 동기 신호 주기로 축소 스케일링된 동영상을 제2 SDRAM(205)으로 전송한다(1007단계).
여기서 FPGA(105)가 축소 스케일링된 동영상을 제2 SDRAM(205)으로 전송할 때, 매 1 프레임 전송시마다 인터럽트를 통해 프레임 시작 및 프레임 끝을 통보한다.
이후, 제2 SDRAM(205)에 전송된 동영상은 CPU 코어(209) 내부에서 MPEG(moving picture experts group) 인코딩 과정을 거쳐 휴대용 저장부(201)에 저장하거나, 네트워크(203)를 통하여 외부로 전송된다(1009단계).
정지영상 또는 동영상 저장 시에 도 9 및 도 10에 개시된 방법을 사용하는 이유는 임베디드 수단(200)으로는 실시간 처리 구현이 어렵기 때문이고, 임베디드 수단(200)의 CPU 코어(209)의 사용량을 고려할 때 이 방법이 가장 부하를 적게 발생하게 하는 방법이기 때문이다.
또한 제2 SDRAM(205)에 저장된 정지영상 또는 동영상은 응용 프로그래밍을 통해 2차 가공이 가능하다. Drawing 기능을 통해 부가적인 영상을 오버랩시켜 최종 결과물을 만들어 낼 수 있으며, 문자 입력, 각종 디지털 효과 등을 부여하여 휴대용 저장부(201)에 저장하거나, 네트워크(203)를 통하여 외부로 전송할 수 있다.
도 1은 본 발명에 따른 임베디드 OS를 탑재한 실물화상 시스템을 보여주는 도면이다.
도 2는 도 1에 개시된 시스템의 내부 구성도 이다.
도 3은 도 2의 시스템 중 본 발명의 제1 실시 예에 따른 영상 오버레이 장치의 구성을 보이는 블록도 이다.
도 4는 본 발명의 제1 실시 예에 따른 영상 오버레이 방법의 동작을 보이는 흐름도 이다.
도 5는 도 3 및 도 4에 의해 디스플레이부(2)에 재생되는 오버레이 영상의 일 예를 보여주는 도면이다.
도 6은 도 2의 시스템 중 본 발명의 제2 실시 예에 따른 영상 오버레이 장치의 구성을 보이는 블록도 이다.
도 7은 본 발명의 제2 실시 예에 따른 영상 오버레이 방법의 동작을 보이는 흐름도 이다.
도 8은 도 2의 시스템 중 본 발명의 제3 실시 예에 따른 영상 촬영/저장 장치의 구성을 보이는 블록도 이다.
도 9는 본 발명의 제3 실시 예에 따른 정지영상 촬영/저장 방법의 동작을 보이는 흐름도 이다.
도 10은 본 발명의 제4 실시 예에 따른 동영상 촬영/저장 방법의 동작을 보이는 흐름도 이다.

Claims (17)

  1. 생성된 제1영상 또는 수신된 제2영상을 디스플레이 가능한 신호로 처리하여 출력하거나, 상기 제1영상 및 제2영상을 오버레이하여 디스플레이 가능한 신호로 처리하여 출력하고, 캡쳐된 상기 제1영상 또는 그 일부를 전송하는 실물 화상수단; 및
    상기 실물 화상수단과의 주기적인 통신을 통하여 상기 오버레이 정보 및 상기 제2영상을 상기 실물 화상수단으로 전송하고, 상기 캡쳐된 제1영상을 수신하는 임베디드 수단을 포함하는 실물화상 시스템.
  2. 제 1항에 있어서,
    상기 제1영상은 상기 실물 화상수단에서 생성하는 라이브 영상이고,
    상기 제2영상은 상기 임베디드 수단이 외부로부터 수신하는 문서/멀티미디어 영상인 것을 특징으로 하는 실물 화상 시스템.
  3. 제 1항에 있어서, 상기 실물 화상수단은
    상기 실물 화상 시스템의 동작 실행을 위해 입력하는 입력수단;
    상기 제1영상을 촬영하는 광학부;
    상기 임베디스 수단의 영상 저장신호에 의해 상기 제1영상 중 선택된 프레임을 상기 임베디스 수단으로 전송하거나, 상기 저장된 제1 영상을 축소 스케일링하 여 상기 임베디드 수단으로 전송하는 FPGA;
    상기 제1영상 또는 상기 제2영상을 디스플레이 가능한 신호로 처리하여 출력하거나, 상기 오버레이 정보에 따라 제1영상 및 제2영상을 오버레이 하여 디스플레이 가능한 신호로 처리하여 출력하는 VGA 엔진; 및
    상기 임베디드 수단과 주기적으로 통신하고, 상기 입력수단 또는 임베디드 수단의 요청에 의해, 제1영상 및 제2영상 각각을 또는 오버레이되도록 상기 VGA 엔진을 제어하고, 상기 임베디드 수단으로부터의 영상 저장 신호를 수신하여 상기 FPGA에서 처리된 제1영상을 상기 임베디드 수단으로 전송하는 제1제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  4. 제 1항에 있어서, 상기 임베디드 수단은
    상기 실물 화상 시스템의 동작 실행을 위해 입력하는 입력수단;
    상기 제2영상을 저장하거나, 상기 FPGA로부터 수신한 제1영상을 저장하는 휴대용 저장부;
    외부로부터 상기 제2영상 수신하거나, 상기 FPGA로부터 수신한 제1영상을 외부로 전송하는 네트워크;
    상기 제2영상을 디스플레이 가능한 신호로 처리하여 상기 VGA 엔진으로 전송하는 그래픽 엔진;및
    상기 제1제어부와 주기적으로 통신하여 상기 그래픽 엔진의 제2영상이 상기 VGA 엔진으로 전송되도록 제어하고, 상기 입력수단의 요청에 의해 오버레이될 영상 의 크기와 위치를 포함하는 상기 오버레이 정보를 상기 제1제어부로 전송하며, 상기 FPGA로부터 수신한 제1영상 신호를 상기 휴대용 저장부에 저장되도록 제어하거나 상기 네트워크를 통하여 외부로 전송하도록 제어하는 제2제어부를 포함하는 것을 특징으로 하는 실물화상 시스템.
  5. 영상 오버레이 시스템으로써,
    라이브 영상을 생성하고, 문서/멀티미디어 영상 및 오버레이 정보를 수신하고, 상기 오버레이 정보에 따라 상기 라이브 영상 및 상기 문서/멀티미디어 영상을 오버레이하여 디스플레이 신호로 출력하는 실물 화상수단; 및
    상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하고, 내부 입력수단에 의해 오버레이가 요청되면, 상기 오버레이 정보를 상기 실물 화상수단으로 전송하는 임베디스 수단을 포함하는 실물 화상 시스템.
  6. 제 5항에 있어서, 상기 실물 화상수단은
    상기 라이브 영상 및 상기 문서/멀티미디어 영상을 상기 오버레이 정보에 따라 오버레이 하는 VGA 엔진;
    상기 임베디드 수단으로부터 오버레이 요청신호를 수신하면, 상기 임베디드 수단으로부터 수신한 상기 오버레이 정보에 따라 상기 VGA 엔진의 영상 오버레이를 제어하는 제1제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  7. 제 5항에 있어서, 상기 임베디드 수단은
    상기 오버레이 요청 신호를 입력하는 입력수단;
    상기 문서/멀티미디어 영상을 저장하는 휴대용 저장부;
    외부로부터 상기 문서/멀티미디어 영상을 수신하는 네트워크;
    상기 문서/멀티미디어 영상을 디스플레이 가능한 신호로 처리하여 상기 VGA 엔진으로 전송하는 그래픽 엔진; 및
    상기 제1 제어부와의 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 전송하는 그래픽 엔진을 제어하고, 상기 입력수단의 오버레이 요청신호를 수신하여 상기 오버레이 정보를 상기 제1제어부로 전송하는 제2제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  8. 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하여 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하는 방법으로서,
    (a) 상기 임베디드 수단이 상기 라이브 영상 및 문서/멀티미디어 영상의 오버레이를 상기 실물 화상수단에 요청하는 단계;
    (b) 상기 요청과 함께 상기 임베디드 수단이 오버레이될 영상의 크기와 위치를 포함하는 오버레이 정보를 상기 실물 화상수단으로 전송하는 단계; 및
    (c) 상기 오버레이 요청 신호 및 상기 오버레이 정보를 수신한 상기 실물 화상수단은 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하여 디스플레이 하는 단계를 포함하는 실물 화상 시스템의 동작 방법.
  9. 영상 오버레이 시스템으로써,
    라이브 영상을 생성하고, 문서/멀티미디어 영상을 수신하며, 내부 입력수단에 의해 오버레이가 요청되면, 오버레이 정보를 수신하여, 상기 오버레이 정보에 따라 상기 라이브 영상 및 상기 문서/멀티미디어 영상을 오버레이하여 디스플레이 신호로 출력하는 실물 화상수단; 및
    상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상 및 상기 오버레이 정보를 상기 실물 화상수단으로 전송하는 임베디스 수단을 포함하는 실물 화상 시스템.
  10. 제 9항에 있어서, 상기 실물 화상수단은
    상기 오버레이 요청 신호를 입력하는 입력수단;
    상기 라이브 영상 및 상기 문서/멀티미디어 영상을 상기 오버레이 정보에 따라 오버레이 하는 VGA 엔진; 및
    상기 입력수단에 의해 오버레이 요청신호를 수신하면, 상기 임베디드 수단으로부터 상기 오버레이 정보를 수신하고, 상기 오버레이 정보에 따라 상기 VGA 엔진의 영상 오버레이를 제어하는 제1제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  11. 제 9항에 있어서, 상기 임베디드 수단은
    상기 문서/멀티미디어 영상을 디스플레이 가능한 신호로 처리하여 상기 VGA 엔진으로 전송하는 그래픽 엔진; 및
    상기 제1 제어부와의 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 전송하는 그래픽 엔진을 제어하고, 상기 제1제어부의 요청에 의해 상기 오버레이 정보를 상기 제1제어부로 전송하는 제2제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  12. 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하여 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하는 방법으로서,
    (a) 상기 실물 화상수단에서 영상 오버레이가 요청되면, 오버레이될 영상의 크기와 위치를 포함하는 오버레이 정보를 상기 임베디드 수단에 요청하는 단게; 및
    (b) 상기 임베디드 수단으로부터 상기 오버레이 정보가 수신되면, 상기 오버레이 정보에 따라 상기 라이브 영상 및 문서/멀티미디어 영상을 오버레이 하여 디스플레이 하는 단계를 포함하는 실물 화상 시스템의 동작 방법.
  13. 영상 촬영 및 저장 시스템으로써,
    광학부를 통하여 촬영된 라이브 영상을 저장하고, 제1 저장 신호에 의해 상기 저장된 라이브 영상 중 캡쳐된 정지영상을 전송하거나, 제2 저장 신호에 의해 상기 저장된 전체 라이브 영상을 신호처리하여 전송하는 실물 화상수단; 및
    상기 실물 화상수단과 주기적으로 통신하고, 상기 제1 및 제2 저장 신호 를 상기 실물 화상 수단으로 전송하고, 상기 실물 화상수단으로부터 캡쳐된 정지영상 또는 신호처리된 라이브 영상을 수신하는 임베디드 수단을 포함하는 실물화상 시스템.
  14. 제 13항에 있어서, 상기 실물 화상수단은
    상기 광학부를 통하여 촬영된 라이브 영상을 저장하고, 상기 저장된 라이브 영상 중 캡쳐된 정지 영상을 상기 임베디드 수단으로 전송하거나, 상기 저장된 전체 라이브 영상을 축소 스케일링하여 상기 임베디드 수단으로 전송하는 FPGA;
    상기 임베디드 수단과 주기적으로 통신하고, 상기 임베디드 수단으로부터 상기 제1 및 제2 저장 신호를 수신하여 상기 FGA를 제어하는 제1제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  15. 제 13항에 있어서, 상기 임베디드 수단은
    상기 실물 화상 시스템의 제1 및 제2 저장 신호를 입력하는 입력수단;
    상기 FPGA로부터 전송된 캡쳐된 정지 영상 또는 축소 스케일링된 전체 라이 브 영상을 저장하는 임시 저장부;
    상기 임시 저장부에 저장된 영상을 수신하는 휴대용 저장부;
    상기 임시 저장부에 저장된 영상을 외부로 전송하는 네트워크; 및
    상기 제1제어부와 주기적으로 통신하고, 상기 FPGA로부터 캡쳐된 정지영상 또는 축소 스케일링된 전체 라이브 영상이 상기 임시 저장부를 통하여 상기 휴대용 저장부에 저장되도록 제어하거나, 상기 네트워크를 통하여 외부로 전송되도록 제어하는 제2 제어부를 포함하는 것을 특징으로 하는 실물 화상 시스템.
  16. 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하는 시스템에서, 상기 라이브 영상을 저장하는 방법으로서,
    (a) 상기 실물 화상수단은 상기 라이브 영상을 순차적으로 저장하는 단계;
    (b) 상기 임베디드 수단의 정지영상 캡쳐 신호를 수신한 상기 실물 화상수단이 상기 순차적인 저장을 중지하는 단계;
    (c) 상기 실물 화상수단은 상기 정지 영상 캡쳐 신호를 수신한 시점의 라이브 영상 프레임을 상기 임베디드 수단으로 전송하는 단계; 및
    (d) 상기 임베디드 수단은 수신한 상기 라이브 영상 프레임을 휴대용 저장부에 저장하거나, 네트워크를 통하여 외부로 전송하는 단계를 포함하는 실물 화상 시스템의 동작 방법.
  17. 생성한 라이브 영상 및/또는 수신한 문서/멀티미디어 영상을 신호처리하여 디스플레하는 실물 화상수단과, 상기 실물 화상수단과 주기적인 통신을 통하여 상기 문서/멀티미디어 영상을 상기 실물 화상수단으로 전송하는 임베디드 수단을 포함하는 시스템에서, 상기 라이브 영상을 저장하는 방법으로서,
    (a) 상기 실물 화상수단은 상기 라이브 영상을 순차적으로 저장하는 단계;
    (b) 상기 임베디드 수단의 동영상 저장 신호를 수신한 상기 실물 화상수단은 상기 전체 라이브 영상을 축소 스케일링하는 단계;
    (c) 상기 실물 화상수단은 상기 축소 스케일링된 전체 라이브 영상을 상기 임베디드 수단으로 전송하는 단계; 및
    (d) 상기 임베디드 수단은 수신한 상기 축소 스케일링된 전체 라이브 영상을 휴대용 저장부에 저장하거나, 네트워크를 통하여 외부로 전송하는 단계를 포함하는 실물 화상 시스템의 동작 방법.
KR1020070089401A 2007-09-04 2007-09-04 임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법 KR101289799B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020070089401A KR101289799B1 (ko) 2007-09-04 2007-09-04 임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법
US12/214,868 US20090059094A1 (en) 2007-09-04 2008-06-23 Apparatus and method for overlaying image in video presentation system having embedded operating system
GB0812117.0A GB2452590B (en) 2007-09-04 2008-07-02 Apparatus and method for overlaying image in video presentation system having embedded operating system
CN2008101447125A CN101383142B (zh) 2007-09-04 2008-07-30 视频呈现系统中重叠图像的设备和方法
TW097129149A TWI440361B (zh) 2007-09-04 2008-08-01 在具有儲存的操作系統之錄影顯示系統中覆蓋影像的方法與裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070089401A KR101289799B1 (ko) 2007-09-04 2007-09-04 임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법

Publications (2)

Publication Number Publication Date
KR20090024402A true KR20090024402A (ko) 2009-03-09
KR101289799B1 KR101289799B1 (ko) 2013-07-26

Family

ID=40462947

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070089401A KR101289799B1 (ko) 2007-09-04 2007-09-04 임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법

Country Status (2)

Country Link
KR (1) KR101289799B1 (ko)
CN (1) CN101383142B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448100B2 (en) 2015-05-28 2019-10-15 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
CN116743971A (zh) * 2022-10-29 2023-09-12 荣耀终端有限公司 一种同源投屏方法及电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5171713B2 (ja) * 2009-03-27 2013-03-27 パナソニック株式会社 情報表示装置及び情報表示方法
EP2610736A1 (en) * 2011-12-28 2013-07-03 Samsung Electronics Co., Ltd. Display apparatus, connectable external peripheral device and method of displaying an image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000050759A (ko) * 1999-01-14 2000-08-05 이중구 실물화상기
JP4688996B2 (ja) 2000-01-31 2011-05-25 キヤノン株式会社 映像表示装置、その制御方法および記憶媒体
JP4388318B2 (ja) * 2003-06-27 2009-12-24 オリンパス株式会社 画像処理装置
KR100412038B1 (ko) 2003-07-08 2003-12-24 주식회사 썬업미디어 외부입력의 부가가 가능한 실물 화상기
CN100574399C (zh) * 2003-12-30 2009-12-23 汤姆森特许公司 用于平滑平铺式显示器中的接缝的系统和方法
KR101025774B1 (ko) * 2004-09-13 2011-04-04 삼성테크윈 주식회사 비데오 프리젠터로부터의 영상 데이터를 효율적으로처리하는 방법
CN2879245Y (zh) * 2006-03-29 2007-03-14 万钟济 具有计算机功能的投影机

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448100B2 (en) 2015-05-28 2019-10-15 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
CN116743971A (zh) * 2022-10-29 2023-09-12 荣耀终端有限公司 一种同源投屏方法及电子设备
CN116743971B (zh) * 2022-10-29 2024-04-16 荣耀终端有限公司 一种同源投屏方法及电子设备

Also Published As

Publication number Publication date
KR101289799B1 (ko) 2013-07-26
CN101383142B (zh) 2012-07-18
CN101383142A (zh) 2009-03-11

Similar Documents

Publication Publication Date Title
US20090059094A1 (en) Apparatus and method for overlaying image in video presentation system having embedded operating system
US8144230B2 (en) Camera, storage medium having stored therein camera control program, and camera control method
JP6317577B2 (ja) 映像信号処理装置及びその制御方法
US20090295945A1 (en) Photographic apparatus, setting method of photography conditions, and recording medium
EP2654286A1 (en) Method of providing panoramic image and imaging device thereof
GB2485036A (en) Preventing subject occlusion in a dual lens camera PIP display
CN104023169A (zh) 成像设备、控制该成像设备的方法和计算机程序
JP2007288354A (ja) カメラ装置、画像処理装置および画像処理方法
KR101289799B1 (ko) 임베디드 os를 탑재한 실물화상 시스템 및 그 시스템의동작 방법
CN114630053A (zh) 一种hdr图像显示方法及显示设备
US9706109B2 (en) Imaging apparatus having multiple imaging units and method of controlling the same
KR20230113786A (ko) 이미지 처리 방법, 장치 및 전자 장치
JP5094583B2 (ja) 撮像装置、データ通信システムおよびデータ通信方法
US20140184642A1 (en) Display control device
JP2010091723A (ja) ビデオ信号処理システム及びその方法
JP7190594B1 (ja) 撮像装置およびその制御方法、画像処理装置および画像処理システム
US20220247917A1 (en) Image capture apparatus, operation apparatus and control methods
CN107295247B (zh) 图像记录装置及其控制方法
KR101228319B1 (ko) 임베디드 os를 탑재한 실물화상 시스템에서 영상을오버레이하는 장치 및 방법
CN114298889A (zh) 图像处理电路和图像处理方法
US8125540B2 (en) Video presenting system having outputs for dual images
JP2018054912A (ja) 投影型表示装置及びその制御方法
KR101102388B1 (ko) 디지털 방송 수신기에서의 정지 영상 캡쳐 장치 및 방법
JP7159024B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP6889622B2 (ja) 画像処理装置およびその制御方法ならびにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160629

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190626

Year of fee payment: 7