KR20120068078A - 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법 - Google Patents

영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법 Download PDF

Info

Publication number
KR20120068078A
KR20120068078A KR1020100104842A KR20100104842A KR20120068078A KR 20120068078 A KR20120068078 A KR 20120068078A KR 1020100104842 A KR1020100104842 A KR 1020100104842A KR 20100104842 A KR20100104842 A KR 20100104842A KR 20120068078 A KR20120068078 A KR 20120068078A
Authority
KR
South Korea
Prior art keywords
audio data
processing apparatus
image processing
image
data
Prior art date
Application number
KR1020100104842A
Other languages
English (en)
Inventor
승정아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100104842A priority Critical patent/KR20120068078A/ko
Priority to US13/270,402 priority patent/US20120098946A1/en
Publication of KR20120068078A publication Critical patent/KR20120068078A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/0038System on Chip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

영상 처리 장치에 의하여 촬영된 영상 데이터의 특정 영역을 검출하고, 검출된 특정 영역에 연결할 오디오 데이터를 사용자로부터 획득하여, 획득된 오디오 데이터와 검출된 특정 영역을 연결하는 오디오 데이터 연결 정보를 생성하는 방법 및 장치가 개시된다. 영상 처리 장치는 사용자가 오디오 데이터가 연결된 특정 영역을 선택한 경우, 특정 영역에 연결된 오디오 데이터를 재생할 수 있다.

Description

영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법{Image photographing apparatus and method for connecting audio data to image data thereof}
아래의 실시 예들은 영상 처리 장치 및 영상 처리 장치에서 영상 데이터와 오디오 데이터를 연결하는 방법에 관한 것이다.
디지털 카메라와 같은 영상 처리 장치에서 사용자는 원하는 영상을 촬영하고 영상에 대한 설명을 녹음하여, 촬영된 영상 데이터와 함께 녹음된 데이터를 저장할 수 있다. 이러한 방식은 촬영된 영상 데이터 단위로 하나의 녹음된 데이터가 저장됨으로, 사용자는 영상 데이터 내의 각각의 오브젝트에 대한 설명을 하기가 어려울 수 있다.
따라서 사용자가 하나의 영상 데이터에서 다양한 음향의 상황을 연출하기 위하여, 영상 데이터 내의 각각의 오브젝트 단위로 음향을 녹음하고 재생할 필요성이 요구된다.
아래의 실시 예들은 영상 처리 장치 및 영상 처리 장치에서 영상 데이터와 오디오 데이터의 연결하는 방법에 관한 것으로서, 영상 데이터의 특정 영역을 인식하고, 인식된 특정 영역과 오디오 데이터를 연결하는 오디오 데이터 연결 정보를 생성한다.
예시적인 일 실시 예에 따르면, 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법은 상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역이 표시된 영상 데이터를 디스플레이하는 단계, 상기 인식된 특정 영역에 대응하는 오디오 데이터를 획득하는 단계, 상기 인식된 특정 영역에 상기 획득된 오디오 데이터를 연결하는 오디오 데이터 연결 정보를 생성하는 단계 및 상기 오디오 데이터가 연결된 상기 오디오 연결 정보를 저장하는 단계를 포함한다.
상기 영상 처리 장치의 촬영 대기 상태에서 인식된 특정 영역은 상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 오토 포커스로 지정된 영역일 수 있다.
상기 영상 처리 장치의 촬영 대기 상태에서 인식된 특정 영역은 상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 얼굴 영역으로 식별된 영역일 수 있다.
상기 인식된 특정 영역을 포함하는 영상 데이터를 디스플레이하는 단계는 상기 인식된 특정 영역 상에 아이콘을 표시하는 단계를 포함할 수 있다.
상기 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법은 상기 인식된 특정 영역과 구분되는 추가 영역을 선택 받는 단계, 상기 추가 영역에 대응하는 제2 오디오 데이터를 획득하는 단계, 상기 추가 영역에 상기 획득된 제2 오디오 데이터를 연결하는 제2 오디오 데이터 연결 정보를 생성하는 단계를 더 포함할 수 있다.
상기 인식된 특정 영역이 복수 개의 영역을 포함하는 경우, 상기 오디오 데이터를 획득하는 단계는 상기 복수 개의 영역 별로 상기 오디오 데이터를 획득하며, 상기 오디오 데이터 연결 정보를 생성하는 단계는 상기 복수 개의 영역 별로 상기 획득된 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성할 수 있다.
상기 오디오 데이터 연결 정보를 생성하는 단계는 상기 복수 개의 영역 별로 상기 오디오 데이터가 연결되는 순서 정보를 생성하는 단계를 포함할 수 있다.
상기 오디오 데이터를 획득하는 단계는 사용자로부터 입력 받거나 또는 오디오 데이터 목록 중 적어도 하나를 선택하는 단계를 포함할 수 있다.
상기 오디오 데이터 연결 정보는 상기 영상 데이터의 메타데이터이며 상기 오디오 데이터 연결 정보를 생성하는 단계는 상기 영상 데이터의 메타데이터(상기 메타데이터는 상기 특정 영역의 크기 및 상기 특정 영역의 위치를 포함함)에 상기 획득된 오디오 데이터가 저장된 위치 정보를 추가하는 단계를 포함할 수 있다.
상기 오디오 데이터 연결 정보를 생성하는 단계는 상기 인식된 특정 영역에 상기 오디오 데이터의 연결을 나타내는 시각적인 피드백(visual feedback)을 표시하는 단계를 포함할 수 있다.
상기 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법은 상기 인식된 특정 영역을 선택하는 선택 신호를 입력 받는 단계, 상기 오디오 데이터 연결 정보를 이용하여 상기 선택 신호가 입력된 특정 영역에 연결된 오디오 데이터를 재생하는 단계를 더 포함할 수 있다.
상기 오디오 데이터를 재생하는 단계는 상기 복수 개의 영역 별로 상기 오디오 데이터가 연결되는 순서 정보를 획득하는 단계, 상기 순서 정보를 이용하여 상기 오디오 데이터를 재생하는 단계를 포함할 수 있다.
상기 영상 데이터(image data)는 정지 영상(still image) 데이터 또는 동영상(moving image) 데이터를 포함할 수 있다.
예시적인 다른 일 실시 예에 따르면, 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법은 영상 데이터를 디스플레이 영역에 디스플레이하는 단계, 상기 디스플레이 영역 중 복수 개의 영역을 획득하는 단계, 상기 획득된 복수 개의 영역 별로 오디오 데이터를 획득하는 단계, 상기 복수 개의 영역 별로 상기 획득된 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성하는 단계, 상기 영역 별로 오디오 데이터가 연결된 상기 영역 별 오디오 연결 정보를 저장하는 단계를 포함할 수 있다.
상기 디스플레이 영역 중 복수 개 영역을 획득하는 단계는 상기 디스플레이 영역 중 사용자로부터 특정 영역을 선택 받는 단계, 상기 선택 받은 특정 영역을 상기 복수 개의 영역 중 하나의 영역으로 획득하는 단계를 포함할 수 있다.
상기 디스플레이 영역 중 복수 개 영역을 획득하는 단계는 상기 디스플레이 영역 중 미리 결정된 특징을 포함하는 특정 영역을 획득하는 단계, 상기 획득된 특정 영역을 상기 복수 개의 영역 중 하나의 영역으로 획득하는 단계를 포함할 수 있다.
예시적인 일 실시 예에 따르면, 영상 처리 장치는 영상 처리 장치의 촬영 대기 상태에서 인식된 특정 영역을 포함하는 영상 데이터를 디스플레이하는 디플레이부, 하나 이상의 프로세서, 메모리를 포함하고, 상기 프로세서는 상기 인식된 특정 영역에 대응하는 오디오 데이터를 획득하고, 상기 인식된 특정 영역에 상기 획득된 오디오 데이터를 연결하는 오디오 데이터 연결 정보를 생성하고, 상기 오디오 데이터가 연결된 상기 오디오 연결 정보를 상기 메모리에 저장한다.
상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역은 상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 오토 포커스로 지정된 영역이 될 수 있다.
상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역은 상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 얼굴 영역으로 식별된 영역이 될 수 있다.
상기 인식된 특정 영역이 복수 개의 영역을 포함하는 경우 상기 프로세서는 상기 복수 개의 영역 별로 상기 오디오 데이터를 획득하고, 상기 복수 개의 영역 별로 상기 획득된 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성할 수 있다.
상기 오디오 데이터 연결 정보는 상기 영상 데이터의 메타데이터이며 상기 프로세서는 상기 영상 데이터의 메타데이터(상기 메타데이터는 상기 특정 영역의 크기 및 상기 특정 영역의 위치를 포함함)에 상기 획득된 오디오 데이터가 저장된 위치 정보를 추가할 수 있다.
상기 프로세서는 상기 인식된 특정 영역을 선택하는 선택 신호를 입력 받고 상기 오디오 데이터 연결 정보를 이용하여 상기 선택 신호가 입력된 특정 영역에 연결된 오디오 데이터를 재생할 수 있다.
예시적인 다른 일 실시 예에 따르면, 영상 처리 장치는 영상 데이터를 디스플레이하는 디스플레이부, 하나 이상의 프로세서, 메모리를 포함하고, 상기 프로세서는 상기 디스플레이 영역 중 복수 개의 영역을 획득하고, 상기 복수 개의 영역 별로 상기 획득된 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성하고, 상기 영역 별로 오디오 데이터가 연결된 상기 영역 별 오디오 데이터 연결 정보를 포함할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 영상 처리 장치에 포함되는 프로세서의 구성을 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 오디오 데이터 연결 정보의 일 예를 나타내는 도면이다.
도 4는 본 발명의 다른 일 실시 예에 따른 오디오 데이터 연결 정보의 일 예를 나타내는 도면이다.
도 5a부터 도 5c는 본 발명의 일 실시 예에 따른 디스플레이 영역에서 적어도 하나의 특정 영역을 획득하는 일 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 영상 데이터의 특정 영역에 연결할 오디오 데이터를 녹음을 위한 아이콘을 나타내는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 영상 데이터의 특정 영역에 오디오 데이터의 녹음을 수행하는 과정을 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따라 영상 데이터의 특정 영역에 연결된 오디오 데이터를 재생을 위한 아이콘을 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 영상 데이터와 오디오 데이터의 연결 방법을 나타낸 흐름도이다.
도 10은 본 발명의 다른 일 실시 예에 따른 영상 데이터와 오디오 데이터의 연결 방법을 나타낸 흐름도이다.
이하에서, 예시적 실시 예들의 이러한 또는 다른 측면들이, 첨부된 도면을 참조하여 상세히 설명된다. 그러나, 본 발명이 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
예시적인 실시 예에 따른 영상 처리 장치는 영상 처리 장치의 촬영 대기 상태에서 디스플레이 되는 대기 영상의 특정 영역을 인식하여 촬영을 수행한다. 그리고 영상 처리 장치는 인식된 특정 영역에 대한 표시 정보를 포함하는 촬영된 영상 데이터를 디스플레이한다.
사용자는 디스플레이된 영상 데이터로부터 특정 영역을 선택하고, 동시에 선택된 특정 영역에 연결할 오디오 데이터를 녹음한다. 그리고 이때, 영상 처리 장치는 선택된 특정 영역과 녹음된 오디오 데이터를 연결할 오디오 연결 정보를 생성한다.
특정 영역에 연결된 오디오 데이터를 재생하는 경우, 사용자는 디스플레이된 영상 데이터로부터 특정 영역을 선택할 수 있다. 영상 처리 장치는 오디오 연결 정보에 포함된 특정 영역에 대응하는 오디오 데이터의 위치 정보를 참조하여 재생할 오디오 데이터를 검색할 수 있다. 검색된 오디오 데이터는 영상 처리 장치 또는 외부 기기에 의하여 재생될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치를 나타낸 블록도이다.
도 1을 참조하면 영상 처리 장치(100)는 촬상부(110), 이미지 센서(120), 입력신호 처리부(130), 디스플레이부(140), 조작부(150), DSP(160), 프로세서(170), 메모리(180), 마이크(190) 및 스피커(195)를 포함할 수 있다.
영상 처리 장치(100)는 정지 영상(still image) 또는 동영상(moving image) 등을 촬영하고 촬영된 영상 데이터(data image)의 처리를 수행하거나 또는 이미 저장되어 있는 영상 데이터(data image)를 처리하기 위한 장치로서, 예를 들면, 디지털 카메라, 카메라 폰, 개인 정보 단말기(Personal Digital assistant-PDA), 휴대용 멀티미디어 재생 장치(Portable multimedia player-PMP), 캠코더(Camcorder), 스마트 폰(Smart Phone), 랩 탑 컴퓨터, 데스크 탑 컴퓨터, 디지털 TV 등과 같이 영상 데이터를 처리할 수 있는 각종 기기를 통칭하는 것이다. 이하에서는 영상 처리 장치(100) 일 예로 촬영 기능을 가진 기기를 대상으로 설명한다.
촬상부(110)는 광학 신호를 집광하는 렌즈, 광학 신호의 광량을 조절하는 조리개, 광학 신호의 입력을 제어하는 셔터 등을 포함할 수 있다. 예를 들면, 이때 렌즈는 초점 거리(focus length)에 따라 화각이 좁아지거나 또는 넓어지도록 제어하는 줌 렌즈 및 피사체의 초점을 맞추는 포커스 렌즈 등을 포함할 수 있다. 이들 렌즈는 각각 하나의 렌즈로 구성될 수도 있지만, 복수 렌즈들의 군집으로 이루어질 수도 있다. 또한, 일 예로, 셔터는 가리개가 위아래로 움직이는 기계식 셔터를 구비할 수 있다. 또는, 다른 일 예로, 이미지센서(120)가 전기 신호의 공급을 제어하여 셔터 역할을 대신 수행할 수도 있다.
촬상부(110)는 렌즈, 조리개, 셔터를 구동하기 위한 모터를 포함할 수도 있다. 예를 들면 모터는 오토 포커스, 자동 노출 조정, 조리개 조정, 줌, 초점 변경 등의 동작을 실행하기 위하여 렌즈의 위치, 조리개의 개폐, 셔터의 동작 등을 구동할 수 있다. 여기서 모터는 프로세서(170)로부터 제어 신호를 제공 받아 렌즈, 조리개, 셔터의 구동을 제어할 수 있다.
이미지 센서(120)는 촬상부(110)로부터 입력된 광학 신호를 수광하여 전기 신호로 변환할 수 있다. 이미지 센서(120)로는 예를 들어 CCD(Charge Coupled Device) 센서, CMOS(Complementary metal oxide semiconductor) 센서 등이 포함될 수 있다.
입력 신호 처리부(130)는 이미지 센서(120)로부터 입력된 전기 신호를 디지털 변환하여 디지털 신호를 생성한다. 또한 입력 신호 처리부(130)는 이미지 센서(120)로부터 제공된 전기 신호에 대하여 게인(gain) 조정, 노이즈 저감 처리, 파형 정형화 등의 기능을 수행할 수 있다.
디스플레이부(140)는 입력 신호 처리부(130)에서 제공되는 영상 데이터를 실시 간으로 디스플레이하거나 또는 메모리에 저장된 영상 데이터를 디스플레이할 수 있다. 이외에도 디스플레이부(140)는 사용자가 입력한 정보 또는 사용자에게 제공하기 위한 정보를 아이콘, 메뉴, 텍스트 등으로 다양하게 디스플레이할 수 있다. 여기서 디스플레이부(140)는 예컨대, 액정 디스플레이(Liquid Crystal Display-LCD), 유기 전기 발광 다이오드(Organic Light Emitting Diodes-OLED), 능동형 유기 발광 다이오드(Active Matrix Organic Light Emitting Diodes-AMOLED) 등으로 이루질 수 있으며, 터치 입력을 인식할 수 있는 터치스크린을 포함할 수도 있다.
조작부(150)는 사용자가 영상 처리 장치(100)를 조작하거나 촬영 시에 각종 설정을 행하기 위한 부재를 포함할 수 있다. 예를 들어 조작부(150)는 전원 버튼, 셔터 버튼, 줌 버튼 등의 다양한 기능 버튼 등을 포함할 수 있다. 이러한 조작부(150)는 버튼, 키보드, 터치 패드, 터치스크린, 원격 제어기 등과 같이 사용자가 제어 신호를 입력할 수 있다면 어떠한 형태로도 구현될 수 있다.
메모리(180)는 영상 데이터, 음성 데이터, 입력 신호 처리부(130)로부터 입력된 데이터, 연산 처리를 위한 데이터, 디지털 카메라의 동작에 필요한 알고리즘, 설정 데이터 등을 포함할 수 있으며, 또한 처리 결과 등을 임시 저장할 수도 있다. 메모리(180)는 휘발성 메모리 또는 비 휘발성 메모리를 포함할 수 있다. 예를 들어, 휘발성 메모리는 에스램(Static Random Access Memory-SRAM), 디램(Dynamic Random Access Memory-DRAM) 등을 포함할 수 있으며, 비휘발성 메모리는 롬(Read Only Memory-ROM), 플래쉬 메모리(Flash Memory), 하드 디스크(Hard Disk), SD 카드(Secure Digital Memory Card), MMC 카드(Multi-Media Card) 등을 포함할 수 있다.
DSP(160)는 디지털 연산에 의하여 신호 처리를 할 수 있다. 예를 들어 DSP(160)는 입력된 영상 데이터에 대해 노이즈를 줄이고, 감마 보정(Gamma Correction), 색 필터 배열보간(color filter interpolation), 색 매트릭스(color matrix), 색 보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 또한, DSP(160)는 영상 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 생성된 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축 형식은 가역 형식 또는 비 가역 형식이어도 된다. 적절한 형식의 예로 JPEG(Joint Photographic Experts Group) 형식이나 JPEG 2000 형식 등이 사용될 수 있다.
DSP(160)에서는 기능적으로 불선명 처리, 색체, 처리, 블러 처리, 엣지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 할 수 있다. 영상 인식 처리로는 예를 들어 얼굴 인식, 장면 인식 처리 등이 있을 수 있으며, 이때 얼굴 인식 또는 장면 인식 처리는 공개된 다양한 인식 알고리즘을 적용하여 수행될 수 있다. 또한 DSP(160)는 디스플레이부(140)에 나타내기 위한 영상 신호 처리를 수행할 수도 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등의 생성 및 영상의 합성 처리 등을 행할 수 있다. 한편 DSP(160)는 외부 모니터와 연결되어, 외부 모니터에 디스플레이 되도록 소정의 영상 신호 처리를 수행하고, 이렇게 처리된 영상 데이터를 외부 모니터에 전송하여 외부 모니터에서 해당 영상이 디스플레이 되도록 제어할 수 있다.
DSP(160)는 오토포커스(Auto Focus) 데이터를 생성할 수도 있다. 예를 들어 DSP(160)는 휘도 신호를 각기 다른 2종류의 필터에 통과시킴으로써 각기 다른 주파수 성분을 가지는 2 종류의 오토포커스 데이터를 생성할 수 있다. 프로세서(170)는 DSP(160)에서 생성된 2 종류의 오토포커스 데이터를 이용하여 촬상부(110)의 포커스 렌즈의 동작을 제어할 수 있다.
마이크(190)는 사용자가 입력하는 음성 또는 주변의 소리를 입력을 받을 수 있다.
스피커(195)는 영상 데이터의 특정 영역에 연결되어 있는 오디오 데이터를 출력할 수 있다. 예를 들어 사용자가 영상 데이터의 특정 영역을 선택하면, 프로세서(170)는 영상 데이터의 오디오 데이터 연결 정보를 참조하여 특정 영역에 해당하는 오디오 데이터를 획득하고, 획득된 오디오 데이터를 스피커(195)로 전달할 수 있다. 스피커(195)는 획득된 오디오 데이터를 출력할 수 있으며, 이때 출력되는 소리의 크기는 사용자 또는 영상 처리 장치에 의하여 제어될 수 있다.
프로세서(170)는, 프로그램에 의하여 연산 처리 장치 및 제어 장치로서 기능하고, 영상 처리 장치(100) 내의 각 구성요소 등에 대하여 신호계의 명령을 행한다. 또한 프로세서(170)는 조작부(150) 또는 디스플레이부(140)로부터 수용된 신호에 기초하여 영상 처리 장치(100)의 각 구성요소 등에 대하여 조작계의 명령을 할 수 있다. 프로세서(170)는 하나의 CPU(Central Processing Unit)으로 구성될 수 있으나, 각각의 명령을 복수 개의 CPU에서 나누어서 수행할 수도 있으며, 또한 CPU와 DSP(Digital Signal Processor)에서 나누어서 수행할 수도 있다.
도 2는 본 발명의 일 실시 예에 따른 영상 처리 장치(100)에 포함되는 프로세서(170)의 구성을 설명하는 도면이다. 도 2에 나타난 바와 같이, 본 발명의 일 실시 예에 관한 프로세서(170)는 오토포커스 동작부(171), 영역 검출부(172), 오디오 데이터 획득부(173) 및 연결 정보 생성부(174), 오디오 데이터 재생부(175)를 포함할 수 있다.
사용자의 조작 또는 DSP(160)의 영상 인식 처리에 의하여 피사체의 인식이 수행된 경우, 오토포커스 동작부(171)는 인식된 피사체에 초점이 맞춰지도록 포커스 렌즈의 동작을 제어할 수 있다. 예를 들어, 오토포커스 동작부(170)는 DSP(160)로부터 획득한 오토포커스 데이터들을 이용하여 피사체가 가장 선명하게 나타나도록 하는 초점 위치를 계산할 수 있다. 일 예로 오토포커스 동작부(171)는 휘도 신호로부터 획득한 서로 다른 주파수 성분을 가지는 2 종류의 오토포커스 데이터들 간의 비율을 산출할 수 있다. 그리고 산출된 비율에 기초하여 촬상부(110)의 모터를 제어함으로써 포커스 렌즈의 위치를 이동시킬 수 있다.
오토포커스 동작을 수행하는 경우, 영상 처리 장치(100)는 오토 포커스 조절의 기준이 되는 피사체를 가리키는 초점 조절 윈도우를 가질 수 있다. 초점 조절 윈도우의 크기 및 위치는 사용자에 의하여 지정되거나 또는 영상 인식 처리에 의하여 자동으로 결정될 수 있으며, 필요에 따라 복수 개가 있을 수도 있다. 일 예로 DSP(160)의 영상 인식 처리에 의하여 하나의 영상 데이터로부터 복수 개의 얼굴이 인식된 경우, 초점 조절 윈도우는 인식된 얼굴의 개수와 크기로 디스플레이 영역의 복수 개의 영역 상 나타날 수 있다. 이러한 오토포커스 동작을 수행하기 위한 사용자의 지시는 주로 촬영 대기 상태에서 이루어질 수 있으며, 예컨대 조작부(150)에 포함되는 셔터 버튼의 사용자의 반 누름 조작에 의한 촬영 대기 상태에서 수행될 수 있다.
영역 검출부(172)는 영상 데이터가 디스플레이부(140) 상에 나타난 경우, 디스플레이된 영역으로부터 적어도 하나의 특정 영역을 획득할 수 있다. 일 실시 예로 영역 검출부(172)는 촬영 대기시 오토포커스로 지정된 영역을 특정 영역으로 획득할 수 있다. 오토포커스로 지정된 영역은 디스플레이 영역 상에서 초점 조절 윈도우에 의하여 표시되는 영역으로서, 상기 영역의 위치는 디스플레이 영역의 중앙에 위치하거나 또는 영상 인식 처리에 의하여 자동으로 결정될 수가 있다. 또한 복수 개의 초점 조절 윈도우가 검출된 경우, 사용자에 의하여 적어도 하나의 특정 영역이 선택될 수도 있다.
다른 일 실시 예로 영역 검출부(172)는 디스플레이된 디스플레이 영역 에서 사용자에 의하여 적어도 하나의 특정 영역을 선택 받을 수도 있다. 예컨대 디스플레이부(140)가 사용자의 터치 입력을 수용할 수 있는 터치 스크린으로 구성된 경우, 영역 검출부(172)는 터치 스크린에 디스플레이된 영역의 일부를 터치하는 사용자의 제스처를 수용하고, 터치된 위치에 기초하여 특정 영역을 획득할 수 있다. 예를 들어, 특정 영역이 사각형의 모양으로 구성된 경우, 사용자는 상기 사각형의 대각선으로 마주하는 두 개의 꼭지점을 각각 선택함으로써, 특정 영역의 위치와 크기를 영역 검출부(172)로 제공할 수 있다. 다른 예로 사용자는 디스플레이된 영역의 일부를 폐곡선의 형태로 그리고, 상기 폐곡선이 포함하는 영역을 특정 영역으로 결정할 수 있다. 또 다른 예로 사용자는 소정의 아이콘을 디스플레이된 영역의 일정 영역에 위치시키고, 소정의 아이콘이 위치한 영역을 특정 영역으로 결정할 수 있다. 또 다른 예로 사용자가 디스플레이된 영역의 소정의 지점을 손가락으로 접촉하는 경우, 상기 접촉된 면적의 가운데에 해당하는 위치를 특정 영역으로 결정할 수 있다.
또 다른 일 실시 예로 영역 검출부(172)는 DSP(160)에서 영상 인식 처리의 수행에 의하여 인식된 영역을 특정 영역으로 결정할 수도 있다. 예를 들어 DSP(160)는 메모리(180)에 저장된 영상 데이터를 대상으로 영상 인식 처리를 수행하고, 영상 인식 처리에 의하여 인식된 얼굴 또는 장면이 포함된 특정 영역에 대한 정보를 영역 검출부(172)에 제공할 수 있다. 여기서 얼굴 인식 또는 장면 인식 처리는 공개된 다양한 인식 알고리즘을 적용하여 수행될 수 있다. 예를 들어 얼굴 영역을 획득하기 위한 방식으로는 영상 데이터로부터 눈 또는 입술 등의 미리 정해진 특징 영역을 추출하고 각 특징 영역 간의 거리에 기초하여 전체 얼굴 영역을 획득할 수 있다. 한편 영역 검출부(172)는 상기 인식된 얼굴 또는 장면이 포함된 특정 영역을 사용자가 확인할 수 있도록 사각형 또는 원 등의 모양을 디스플레이된 영역 내의 특정 영역 상에 나타낼 수 있다.
영역 검출부(172)가 디스플레이 영역으로부터 적어도 하나의 특정 영역을 획득하기 위한 상술한 예들은 각각 수행될 수도 있으나, 각각의 실시 예들이 서로 결합하여 순차적으로 또는 동시에 수행될 수도 있다. 예를 들면, 영역 검출부(172)가 촬영 대기 상태에서 오토포커스로 지정된 영역을 특정 영역으로 결정한 경우, 영상 처리 장치(100)는 오토포커스로 지정된 영역과 구분되는 추가 영역을 사용자로부터 선택 받을 수 있다. 또한 영역 검출부(172)가 DSP(160)에서 영상 인식 처리에 의하여 인식된 영역을 특정 영역으로 결정한 경우, 영상 처리 장치(100)는 상기 인식된 영역과 구분되는 추가 영역을 사용자로부터 선택 받을 수 있다.
오디오 데이터 획득부(173)는 영역 검출부(172)에서 획득한 특정 영역에 연결할 오디오 데이터를 획득한다. 오디오 데이터를 획득하기 위한 일 실시 예로 오디오 데이터 획득부(173)는 마이크(190)를 통하여 오디오 데이터를 획득할 수 있다. 예를 들어 사용자가 영역 검출부(172)에서 획득된 영역을 선택하는 경우, 오디오 데이터 획득부(170)는 상기 선택된 영역을 설명하는 사용자의 음성 데이터를 마이크(190)를 통하여 입력 받을 수 있다. 음성 데이터의 예로는 사용자의 목소리 또는 마이크 주변의 소리가 될 수 있으며, 예를 들어 음성 데이터에는 특정 영역에 포함된 인물 또는 물체와 관련된 내용이 포함될 수 있다.
다른 일 실시 예로 디스플레이부(140)가 오디오 데이터 목록을 제공하고, 오디오 데이터 획득부(173)는 오디오 데이터 목록으로부터 특정 영역에 연결할 적어도 하나의 오디오 데이터를 획득할 수 있다. 오디오 데이터 목록은 영상 데이터의 획득 전에 영상 처리 장치(100)의 메모리(180)에 기 저장되어 있거나 또는 획득 전 또는 후에 상기 영상 처리 장치(100)에 연결된 유/무선 네트워크를 통하여 외부 저장 장치로부터 획득할 수도 있다. 오디오 데이터 목록은 영상 처리 장치(100)와 유/무선 네트워크를 통하여 연결된 제2의 디스플레이부를 이용하여 제공될 수도 있다. 이 경우, 사용자는 제2의 디스플레이부를 통하여 특정 영역에 연결할 오디오 데이터를 선택할 수 있으며, 오디오 데이터 획득부(173)는 선택된 오디오 데이터를 특정 영역에 연결할 오디오 데이터로 결정할 수 있다.
오디오 데이터 획득부(173)는 오디오 데이터를 획득하기 위하여, 메모리(180) 또는 외부 저장 장치로부터 오디오 데이터를 가져올 수도 있으나, 이와 달리 오디오 데이터가 저장되어 있는 위치 정보만을 가져올 수도 있다. 위치 정보는 오디오 데이터가 저장되어 있는 장소의 경로로서, 오디오 데이터의 절대(absolute) 경로 또는 상대(relative) 경로가 위치 정보로서 이용될 수 있다.
한편 오디오 데이터 획득부(173)는 영역 검출부(172)에서 복수 개의 영역이 검출된 경우, 각각의 영역에 대응하는 오디오 데이터를 모두 획득할 수도 있고, 이 중 일부의 영역에 대응하는 오디오 데이터만을 획득할 수 있을 것이다.
연결 정보 생성부(174)는 영역 검출부(172)에서 획득한 특정 영역과 오디오 데이터 획득부(173)에서 획득한 오디오 데이터를 연결하기 위한 오디오 데이터 연결 정보를 생성한다. 연결 정보 생성부(174)는 디스플레이된 영상에서 복수 개의 영역이 특정 영역으로 검출된 경우, 각 복수 개의 영역 별로 오디오 데이터가 연결된 영역 별 오디오 데이터 연결 정보를 생성할 수 있다. 이러한 오디오 데이터 연결 정보의 일 예로는 영상 데이터의 메타 데이터가 이용될 수 있다. 영상 데이터의 메타데이터는 특정 영역에 관한 정보를 포함할 수 있으며, 상기 특정 영역과 관련된 필드에는 오디오 데이터의 위치를 가리키는 오디오 데이터 연결 정보가 포함될 수 있다.
도 3은 본 발명의 일 실시 예에 따른 오디오 데이터 연결 정보의 일 예를 나타내는 도면이다.
DSP(160)에서의 영상 인식 처리의 결과로 영상 데이터의 특정 영역은 영역1(311), 영역2(312), 영역 3(313)을 포함할 수 있다. 예를 들어, 각각의 특정 영역의 모양이 사각형이라면, 각각의 특정 영역이 영상 데이터에서 위치하는 영역은 좌표(320)와 크기(330)를 이용하여 나타낼 수 있다. 예를 들어 영역1(311)의 위치는 영상 데이터의 최하위의 좌측을 좌표의 원점(0, 0)으로 하여 (40, 50)의 좌표 값으로 나타낼 수 있다. 또한 영역 1(311)의 크기는 너비 100 픽셀, 높이 120 픽셀의 크기를 가질 수 있다.
도 3의 영역1(311), 영역2(312), 영역 3(313) 각각에 대응하는 필드는 오디오 데이터 위치(340)에 관한 정보를 포함할 수 있다. 오디오 데이터의 위치는 절대(absolute) 경로 또는 상대(relative) 경로 등을 통하여 연결될 수 있다. 예를 들어 영역1에 대응되는 오디오 데이터의 위치(341)는 상대 경로로서, 현재 영상 데이터가 위치한 폴더의 한 단계 위의 경로에서 다시 하위 폴더인audio3 폴더에 포함된 audio.wav 데이터의 위치를 나타낸다. 다른 일 실시 예로 영역2에 대응되는 오디오 데이터의 위치(342)는 상기 오디오 데이터가 위치하고 있는 절대적인 경로를 나타낸다. 오디오 데이터의 위치(342)는 c: 드라이브에 audio3 폴더에 위치하며, 여기서 c: 드라이브는 메모리(180)의 논리적인 드라이브이거나 또는 영상 처리 장치(100)와 유선 또는 무선으로 연결된 외부 메모리의 논리적인 드라이브가 될 수 있다. 또 다른 일 실시 예로 영역3에 대응되는 오디오 데이터의 위치는 인터넷 주소(343)를 포함할 수 있다. 영상 처리 장치(100)는 디스플레이된 영역에서 특정 영역이 선택되는 경우, 인터넷을 통하여 오디오 데이터를 획득하고 획득된 오디오 데이터를 실시간으로 재생할 수 있다. 또는 영상 처리 장치(100)는 사용자에 의하여 특정 영역이 선택되기 전에 영상 데이터에 연결된 모든 오디오 데이터를 미리 불러와 메모리(180)에 저장해 놓을 수도 있다.
연결 정보 생성부(174)는 복수 개의 영역 각각에 대응하는 오디오 데이터가 획득되는 경우, 각각의 오디오 데이터가 연결되는 순서 정보(350)를 생성할 수도 있다. 예를 들어, 각각의 오디오 데이터가 영역1, 영역2, 영역3의 순서로 연결되었다면, 연결 정보 생성부(174)는 연결 순서에 관한 정보(350)를 복수 개의 영역에 대응하는 필드에 추가할 수 있다. 그리고 영상 처리 장치(100)가 영상 데이터에 연결된 복수 개의 오디오 데이터를 재생하는 경우, 영상 처리 장치(100)는 오디오 연결 정보 내의 순서 정보를 참조하여 각 영역에 대응하는 오디오 데이터를 순차적으로 재생할 수 있다.
영상 처리 장치(100)는 오디오 데이터 연결 정보를 영상 데이터와 함께 메모리(180) 또는 외부 저장 장치에 저장하거나, 또는 영상 데이터와 분리된 별도의 영역에 저장할 수도 있다.
도 4는 본 발명의 다른 일 실시 예에 따른 오디오 데이터 연결 정보의 일 예를 나타내는 도면이다.
도 4는 오디오 데이터 연결 정보는 영상 데이터를 압축하기 위한 포맷의 하나인 JPEG(Joint Photographic Expert Group)에서 이용된 예를 나타낸다. 상세하게 오디오 데이터 연결 정보는 JPEG을 이용하는 포맷인Exif(Exchangeable Image File Format) 포맷에 이용될 수 있다. Exif 포맷은 디지털 카메라에서 사용되는 영상 데이터의 포맷으로, 사진에 관한 여러 종류의 메타데이터를 포함할 수 있다. 예를 들어 Exif 포맷은 카메라 제조사, 카메라 모델, 카메라 회전 방향, 촬영 시의 날짜 및 시간, 초점 거리, 셔터 속도 등의 정보를 포함할 수 있다.
도 4에서 JPEG 포맷(400)은 0xFF 형식으로 시작되는 바이너리(binary) 데이터인 다수 개의 마커(Marker)(401 ~ 408) 코드에 의하여 분리되며, 각각의 마커는 각각의 마커와 관련된 정보가 포함된 데이터의 시작 위치가 될 수 있다. 예를 들어 JPEG 포맷(400)은 SOI 마커(401), APP1 마커(402), DQT 마커(403), DHT 마커(404), SOF 마커(405), SOS 마커(406), 압축된 영상 데이터(407) 및 EOI 마커(408) 등을 포함할 수 있다. 이 중 SOI 마커(401)와 EOI(408) 마커는 데이터를 가지고 있지 않는 마커이다.
보다 상세하게 SOI 마커(401)는 영상 데이터의 시작과 관련된 마커이고, APP1 마커(402)는 사용자 어플리케이션과 관련된 마커이며, DQT 마커(403)는 양자화 테이블과 관련된 마커이고, DHT 마커(404)는 허프만 테이블과 관련된 마커이고, SOF 마커(405)는 데이터는 프레임 헤더와 관련된 마커이고, SOS 마커(407)는 스캔의 헤더와 관련된 마커이고, EOI 마커(408)은 영상 데이터의 끝과 관련된 마커이다.
여기에서 APP1마커(402)와 관련된 데이터는 다수 개의 마커 코드에 의하여 구분된 APP1포맷(420)으로 구성될 수 있다. APP1 포맷(420)은 Exif 포맷과 관련된 데이터 및 다양한 속성 정보들을 포함할 수 있으며, 이 정보들은 다수 개의 마커 코드(421~433)에 의하여 분리될 수 있다. 예를 들어 APP1 포맷(420)은 APP1 마커(421), Length 마커(422), Exif 마커(423), Tiff Header 마커(424), 0th IFD 마커(425), Value of 0th IFD 마커(426), Exif IFD 마커(427), Value of Exif IFD 마커(428), GSP IFD 마커(429), Value of GSP IFD 마커(430), 1st IFD 마커(431), Value of 1st IFD 마커(432), 썸네일 데이터(433)를 포함할 수 있다.
보다 상세하게 APP1 마커(421)는 사용자 어플리케이션의 위치와 관련된 마커이고, Length 마커(422)는 상기 어플리케이션의 크기와 관련된 마커이고, Exif 마커(423)는Exif 식별자 코드와 관련된 마커이고, Tiff Header 마커(424)는 IFD의 주소를 참조하는 오프셋과 관련된 마커이고, 0th IFD 마커(425)는 주요한 영상 데이터의 속성 정보 예컨대 이미지의 크기, Exif IFD 포인터, GPS IFD의 포인터 등과 관련된 마커이며, Value 0th IFD(426) 마커는 0th IFD에 포함된 정보를 위한 데이터 값들과 관련된 마커이다. 또한 Exif IFD 마커는 Exif 포맷의 속성 정보를 포함한 마커이며, Value of Exif IFD(428) 마커는 Exif IFD에 포함된 정보를 위한 데이터 값들과 관련된 마커이다. GPS IFD 마커(429)는 영상 데이터의 GPS 정보와 관련된 마커이고, Value of GPS IFD 마커(429)는 GPS IFD에 포함된 정보를 위한 데이터 값들과 관련된 마커이며, 1st IFD 마커(431)는 영상 데이터의 썸네일 데이터의 속성 정보와 관련된 마커이며, Value of 1st IFD 마커(432)는 1st IFD에 포함된 정보를 위한 데이터 값들과 관련된 마커이다.
여기에서 Value of Exif IFD(428) 마커와 관련된 데이터 영역(440)에는 영역 검출부(172)에서 획득한 특정 영역과 관련된 마커(441, 442) 등이 포함될 수 있다. 각각의 특정 영역과 관련된 마커(441, 442)와 관련된 데이터 영역에는 상기 각각의 특정 영역의 위치 정보 및 크기 정보, 상기 각각의 특정 영역에 연결할 오디오 데이터의 정보가 포함될 수 있다. 특정의 영역의 위치 정보로는 영상 데이터 내에서 특정 영역이 위치한 좌표 값 X, Y 값이 포함될 수 있다. 또한 특정 영역의 크기 정보로는 특정 영역의 너비 및 높이 값이 포함될 수 있다. 또한 특정 영역에 연결할 오디오 데이터의 정보로는 오디오 데이터의 위치 정보 또는 오디오 데이터가 직접 포함될 수 있다. 오디오 데이터가 직접 포함되는 경우, 상기 오디오 데이터의 크기는 Value of Exif IFD(428) 마커와 관련된 데이터 영역의 크기가 JPEG 표준에서 APP1 크기를 64KB로 제한하는 것을 고려할 때 이 보다 작은 크기가 될 수 있다. 또한 오디오 데이터가 소정의 순서로 연결되는 경우, 상기 순서 정보 또한 각 특정 영역에 대응하는 데이터 영역에 포함될 수 있다.
오디오 데이터 재생부(175)는 사용자가 특정 영역을 선택하는 경우, 오디오 데이터 연결 정보를 이용하여 특정 영역에 연결된 오디오 데이터를 검색할 수 있다. 그리고 검색된 오디오 데이터를 스피커(195)를 통하여 재생할 수 있다.
영상 처리 장치(100)는 디스플레이된 영역의 특정 영역을 선택하는 신호를 입력 받기 위하여 소정의 아이콘을 특정 영역 상에 또는 디스플레이부(140)의 일 측에 제공할 수도 있다. 또한 영상 처리 장치(100)는 오디오 데이터가 재생되는 경우 디스플레이부(140)의 일 측에 진행 바(progressive bar)를 표시하고, 오디오 데이터의 재생 정도를 실시 간으로 보여줄 수도 있다.
각각의 특정 영역에 대응되는 오디오 데이터 연결 정보가 재생 순서 정보를 포함하고 있는 경우, 오디오 데이터 재생부(175)는 상기 재생 순서대로 오디오 데이터를 재생할 수 있다. 또한 오디오 데이터 재생부(175)는 현재 재생되고 있는 오디오 데이터에 대응하는 특정 영역을 사용자에게 알리기 위하여, 재생 중인 오디오 데이터와 연결된 특정 영역을 하이라이트 하거나 혹은 특정 영역을 대표하는 아이콘의 상태를 변화시킬 수 있다.
도 5부터 도 8은 본 발명의 일 실시 예에 따라 디스플레이 영역에서 적어도 하나의 특정 영역을 획득하고, 특정된 영역에 오디오 데이터를 연결한 후, 연결된 오디오 데이터를 재생하는 과정을 나타내는 도면이다.
도 5a부터 도 5c는 본 발명의 일 실시 예에 따른 디스플레이부(140)에 제공된 디스플레이 영역에서 적어도 하나의 특정 영역을 획득하는 일 예를 나타내는 도면이다.
도 5a는 촬영 대기시 오토포커스로 지정된 영역(511)을 나타낸다. 오토포커스로 지정된 영역(511)은 예컨대 초점 조절 윈도우로 표시될 수 있으며, 상기 초점 조절 윈도우의 크기 및 위치는 영상 처리 장치 또는 사용자에 의하여 사전에 설정되어 있을 수 있다. 예를 들어, 도 5a에서와 같이 상기 초점 조절 윈도우는 디스플레이된 영역의 중앙에 위치하여 사각형 모양을 나타낼 수 있다. 영상 처리 장치(100)는 오토포커스로 지정된 영역(511)을 특정 영역으로 획득하고 오디오 데이터를 연결할 수 있다.
도 5b는 DSP(160)의 영상 인식 처리에 의하여 검출된 특정 영역(521 ~ 523)을 나타낸다. 예를 들면 특정 영역은 촬영 대기시 오토포커스 영역으로 자동으로 지정된 영역이 될 수 있다. 또는 특정 영역은 저장된 영상 데이터를 대상으로 DSP(160)의 영상 인식 처리 과정에 의하여 검출된 영역일 수 있다. 도 5b에서 특정 영역(521 ~ 523)의 위치 및 크기에 대한 정보는 도 3에서 상술한 바와 같이 디스플레이 된 영상 데이터의 메타데이터의 일부에 포함될 수 있으나, 별도의 데이터로 영상 데이터와 분리된 장소에 저장되어 있을 수도 있다.
도 5c는 사용자에 의하여 지정된 특정 영역을 나타낸다. 사용자는 특정 영역을 지정하기 위하여, 예컨대 마이크 형태의 아이콘(531)을 디스플레이된 영역의 일부에 위치시킬 수 있다. 도 5c에서 사용자가 아이콘(531)을 디스플레이된 영역의 일부 영역까지 드래그하고 접촉을 떼는 경우, 최종 접촉되었던 위치에 관한 정보가 특정 영역에 대한 위치 정보가 될 수 있다. 그 밖의 실시 예로 사용자는 디스플레이된 영역의 특정 영역을 폐곡선 또는 폐곡선에 가까운 개곡선의 형태로 직접 그림으로써 특정 영역을 지정할 수 있다. 예를 들어, 특정 영역이 사각형의 형태라면 사각형의 꼭지점 또는 면에 해당하는 위치를 접촉함으로써 특정 영역을 지정할 수 있을 것이다.
도 6은 본 발명의 일 실시 예에 따라 영상 데이터의 특정 영역에 연결할 오디오 데이터의 녹음을 위한 아이콘을 나타내는 도면이다. 예를 들어, 아이콘(601 ~ 603)은 영역 검출부(172)에서 복수 개의 영역이 검출된 직후 상기 복수 개의 영역 각각에 자동으로 나타날 수 있다. 또는 도 5c에서 상술한 경우와 같이, 사용자가 특정 영역으로 아이콘 자체를 직접 드래그하고 접촉을 때는 경우, 상기 특정 영역 상에 아이콘이 나타날 수 있다.
복수 개의 영역이 검출되고, 각 영역을 대표하는 아이콘들이 디스플레이부(140) 상에 나타나는 경우, 사용자는 이 중 하나의 아이콘(603)을 선택(604)하여 해당 영역에 연결할 오디오 데이터의 녹음을 시작할 수 있다.
도 7은 본 발명의 일 실시 예에 따라 선택된 영상 데이터의 특정 영역에 오디오 데이터의 녹음을 수행하는 과정을 나타내는 도면이다. 사용자는 특정 영역을 대표하는 아이콘을 선택함으로써, 특정 영역에 연결할 오디오 데이터를 녹음할 수 있다.
예를 들어, 복수 개의 아이콘(601~603)들은 기본적으로 활성화 상태를 나타내는 시각적인 피드백을 제공할 수 있다. 이때 사용자가 이 중 하나의 아이콘(603)을 선택하면, 선택된 아이콘(603)을 제외한 나머지 아이콘들(601, 602)은 비활성화 상태를 나타내는 시각적인 피드백을 제공할 수 있다.
또 다른 예로, 복수 개의 아이콘(601~603)들은 기본적으로 비활성화 상태를 나타내는 시각적인 피드백을 제공할 수 있다. 이때, 사용자가 이 중 하나의 아이콘(603)을 선택하는 경우, 선택된 아이콘(603)만 활성화 상태를 나타내는 시각적인 피드백을 제공할 수 있다.
상술한 예들로부터, 사용자는 녹음 중인 아이콘과 그렇지 않은 아이콘을 분명하게 구분할 수 있다. 또한 특정 영역에 연결할 오디오 데이터의 녹음 시간이 이미 정해져 있는 경우, 디스플레이부(140)는 녹음 가능한 전체 시간에서 녹음이 진행된 양을 진행 바(progressive bar)(701)를 통하여 제공할 수도 있다.
도 8은 본 발명의 일 실시 예에 따라 영상 데이터의 특정 영역에 연결된 오디오 데이터의 재생을 위한 아이콘을 나타내는 도면이다. 도 7에서 영상 데이터의 특정 영역에 연결할 오디오 데이터의 녹음이 수행된 경우, 특정 영역 상에는 녹음이 완료되어 해당 오디오 데이터가 재생될 수 있음을 나타내는 아이콘(801)이 나타날 수 있다. 또는 저장되어 있는 영상 데이터를 디스플레이할 때, 상기 영상 데이터가 특정 영역을 포함하고 있고 상기 특정 영역에 오디오 데이터가 연결되어 있으면 이를 나타내는 아이콘(801)이 영상 데이터 상에 나타날 수도 있다. 상기 아이콘은 예컨대 재생할 수 있음을 의미하는 스피커 모양으로 표시될 수 있다. 사용자가 상기 아이콘(801)을 선택(802)하는 경우, 영상 처리 장치는 스피커(195)를 통하여 특정 영역에 연결된 오디오 데이터를 재생할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 영상 데이터와 오디오 데이터의 연결 방법을 나타낸 흐름도이다.
영상 처리 장치(100)는 영상 처리 장치(100)의 촬영 대기시 인식된 특정 영역이 표시된 영상 데이터를 디스플레이할 수 있다(단계 901). 촬영 대기시 인식된 특정 영역은 예를 들어 영상 처리 장치의 촬영 대기 상태에서 오토 포커스로 지정된 영역이 될 수 있다. 다른 실시 예로 특정 영역은 영상 처리 장치(100)의 영상 인식 처리의 수행에 의하여 검출된 얼굴 또는 장면이 될 수 있다. 다음으로 영상 처리 장치(100)는 인식된 특정 영역에 대응하는 오디오 데이터를 획득할 수 있다(단계902). 영상 처리 장치(100)는 오디오 데이터를 사용자로부터 입력 받거나 또는 오디오 데이터 목록으로부터 선택할 수 있다. 다음으로 영상 처리 장치(100)는 특정 영역에 오디오 데이터를 연결하는 오디오 데이터 연결 정보를 생성할 수 있다(단계 903). 예를 들어 오디오 데이터 연결 정보는 영상 데이터의 메타데이터가 될 수 있다. 영상 데이터의 메타데이터는 특정 영역의 크기 및 위치를 포함할 수 있으며, 특정 영역과 관련된 필드에는 오디오 데이터의 위치를 가리키는 정보가 포함될 수 있다. 다음으로 영상 처리 장치(100)는 오디오 데이터가 연결된 오디오 데이터 연결 정보를 저장할 수 있으며(단계 904), 이때 오디오 데이터 연결 정보는 영상 데이터와 함께 메모리 또는 외부 저장 장치에 저장되거나 별도의 파일로 영상 데이터와 분리된 영역에 저장될 수도 있다.
영상 처리 장치(100)는 촬영 대기 시에 인식된 특정 영역과 구분되는 추가 영역을 선택 받을 수도 있다(단계 905). 추가 영역은 사용자로부터 선택 받거나 또는 영상 처리 장치(100)의 영상 인식 처리에 의하여 검출된 영역이 될 수 있다. 이때, 영상 처리 장치(100)는 추가 영역에 대응하는 제2 오디오 데이터를 획득할 수 있다(906). 다음으로 영상 처리 장치(100)는 추가 영역에 제2 오디오 데이터를 연결하는 제2 오디오 데이터 연결 정보를 생성하고(단계 907), 제2 오디오 데이터 연결 정보를 영상 처리 장치(100)의 메모리(180) 또는 외부 장치의 메모리에 저장할 수 있다(단계 908).
특정 영역 또는 추가 영역이 검출된 경우, 영상 처리 장치(100)는 검출된 영역들을 표시하기 위한 하이라이트 또는 아이콘을 디스플레이부(140)를 통하여 제공할 수 있다. 또한 상기 영역 들 중 적어도 하나의 영역에 오디오 데이터가 연결된 경우, 영상 처리 장치(100)는 연결된 상황을 나타내는 시각적인 피드백을 디스플레이부(140)를 통하여 제공할 수 있다.
영상 처리 장치(100)는 특정 영역 또는 추가 영역 중 적어도 하나를 선택하는 신호를 사용자로부터 수신할 수 있다(단계 909). 그리고 영상 처리 장치(100)는 오디오 데이터 연결 정보를 이용하여 사용자가 선택한 영역에 연결된 오디오 데이터를 검색할 수 있다(단계 910). 영상 처리 장치(100)는 영상 처리 장치의 스피커(195) 또는 외부 기기의 스피커를 통하여 검색된 오디오 데이터를 재생할 수 있다(단계 911).
도 10은 본 발명의 다른 일 실시 예에 따른 영상 데이터와 오디오 데이터의 연결 방법을 나타낸 흐름도이다.
영상 처리 장치(100)는 영상 데이터를 영상 처리 장치(100)의 디스플레이 영역 상에 디스플레이 할 수 있다(단계 1001). 다음으로 영상 처리 장치는 디스플레이된 영역에서 복수 개의 영역을 획득할 수 있다(단계 1002). 복수 개의 영역은 예를 들어 촬영 대기시 오토 포커스로 지정된 영역, 영상 처리 장치(100)의 영상 인식 처리에 의하여 검출된 영역 또는 사용자에 의하여 지정된 영역이 될 수 있다. 다음으로 영상 처리 장치(100)는 복수 개의 영역 별로 오디오 데이터를 획득할 수 있다(단계 1003). 예를 들어 영상 처리 장치(100)는 오디오 데이터를 마이크를 통하여 입력 받거나 또는 오디오 데이터 목록으로부터 획득할 수 있다. 영상 처리 장치(100)는 복수 개의 영역 별로 오디오 데이터를 획득한 경우, 복수 개의 영역 별로 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성할 수 있다(단계 1004). 예를 들어 영역 별 오디오 데이터 연결 정보는 영상 데이터의 메타데이터가 될 수 있다. 영상 처리 장치(100)는 상기 영역 별 오디오 데이터 연결 정보를 영상 처리 장치의 메모리(180) 또는 외부 장치의 메모리에 저장할 수 있다(단계 1005).
영상 처리 장치(100)는 복수 개의 영역 중 적어도 하나를 선택하는 신호를 사용자로부터 수신할 수 있다(단계 1006). 영상 처리 장치(100)는 영역 별 오디오 데이터 연결 정보를 이용하여 사용자가 선택한 영역에 연결된 오디오 데이터를 검색할 수 있다(단계 1007). 영상 처리 장치(100)의 스피커(195) 또는 외부 기기의 스피커를 통하여 상기 검색된 오디오 데이터를 재생할 수 있다(단계 1008).
본 발명의 실시예들에 따른 영상 데이터와 오디오 데이터의 연결 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110 촬상부
120 이미지 센서
130 입력 신호 처리부
140 디스플레이부
150 조작부
160 DSP
170 프로세서
180 메모리
190 마이크
195 스피커

Claims (21)

  1. 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법에 있어서,
    상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역이 표시된 영상 데이터를 디스플레이하는 단계;
    상기 인식된 특정 영역에 대응하는 오디오 데이터를 획득하는 단계;
    상기 인식된 특정 영역에 상기 획득된 오디오 데이터를 연결하는 오디오 데이터 연결 정보를 생성하는 단계; 및
    상기 오디오 데이터가 연결된 상기 오디오 연결 정보를 저장하는 단계
    를 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  2. 제1항에 있어서,
    상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역은,
    상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 오토 포커스로 지정된 영역인
    영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  3. 제1항에 있어서,
    상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역은,
    상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 얼굴 영역으로 식별된 영역인 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  4. 제1항에 있어서,
    상기 인식된 특정 영역은 복수 개의 영역을 포함하고,
    상기 오디오 데이터를 획득하는 단계는,
    상기 복수 개의 영역 별로 상기 오디오 데이터를 획득하며,
    상기 오디오 데이터 연결 정보를 생성하는 단계는,
    상기 복수 개의 영역 별로 상기 획득된 오디오 데이터가 연결하는 영역 별 오디오 데이터 연결 정보를 생성하는
    영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  5. 제1항에 있어서
    상기 오디오 데이터를 획득하는 단계는,
    사용자로부터 입력 받거나 또는 오디오 데이터 목록 중 적어도 하나를 선택하는 단계
    를 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  6. 제1항에 있어서,
    상기 오디오 데이터 연결 정보는 상기 영상 데이터의 메타데이터이며,
    상기 오디오 데이터 연결 정보를 생성하는 단계는,
    상기 영상 데이터의 메타데이터 - 상기 메타데이터는 상기 특정 영역의 크기 및 상기 특정 영역의 위치를 포함함 - 에 상기 획득된 오디오 데이터가 저장된 위치 정보를 추가하는 단계
    를 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  7. 제6항에 있어서,
    상기 오디오 데이터 연결 정보를 생성하는 단계는,
    상기 복수 개의 영역 별로 상기 오디오 데이터가 연결되는 순서 정보를 생성하는 단계
    를 포함하는 영상 정보의 사운드 연결 방법.
  8. 제1항에 있어서,
    상기 오디오 데이터 연결 정보를 생성하는 단계는,
    상기 인식된 특정 영역에 상기 오디오 데이터의 연결을 나타내는 시각적인 피드백(visual feedback)을 표시하는 단계
    를 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  9. 제1항에 있어서,
    상기 인식된 특정 영역을 선택하는 선택 신호를 입력 받는 단계; 및
    상기 오디오 데이터 연결 정보를 이용하여 상기 선택 신호가 입력된 특정 영역에 연결된 오디오 데이터를 재생하는 단계
    를 더 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  10. 제9항에 있어서,
    상기 오디오 데이터를 재생하는 단계는,
    상기 복수 개의 영역 별로 상기 오디오 데이터가 연결되는 순서 정보를 획득하는 단계; 및
    상기 순서 정보를 이용하여 상기 오디오 데이터를 재생하는 단계
    를 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  11. 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법에 있어서,
    영상 데이터를 디스플레이 영역에 디스플레이하는 단계;
    상기 디스플레이 영역 내에서 복수 개의 영역을 획득하는 단계;
    상기 복수 개의 영역 각각에 대응하는 오디오 데이터를 획득하는 단계;
    상기 복수 개의 영역 각각에 상기 획득된 오디오 데이터가 대응되도록 연결하는 영역 별 오디오 데이터 연결 정보를 생성하는 단계; 및
    상기 복수 개의 영역 각각에 대응하는 오디오 데이터가 연결된 상기 영역 별 오디오 데이터 연결 정보를 저장하는 단계
    를 포함하는 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  12. 제11항에 있어서,
    상기 복수 개의 영역은,
    상기 영상 처리 장치의 촬영 대기시 상기 영상 처리 장치에 의해 오토 포커스로 지정된 영역인
    영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  13. 제11항에 있어서,
    상기 복수 개의 영역은,
    상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 얼굴 영역으로 식별된 영역인 영상 처리 장치의 영상 데이터와 오디오 데이터의 연결 방법.
  14. 영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치에 있어서,
    상기 영상 처리 장치의 촬영 대기 상태에서 인식된 특정 영역을 포함하는 영상 데이터를 디스플레이하는 디스플레이부;
    프로세서;
    메모리;
    상기 프로세서는,
    상기 인식된 특정 영역에 대응하는 오디오 데이터를 획득하고,
    상기 인식된 특정 영역에 상기 획득된 오디오 데이터를 연결하는 오디오 데이터 연결 정보를 생성하고,
    상기 오디오 데이터가 연결된 상기 오디오 연결 정보를 상기 메모리에 저장하는,
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  15. 제14항에 있어서,
    상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역은,
    상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 오토 포커스로 지정된 영역인
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  16. 제14항에 있어서,
    상기 영상 처리 장치의 촬영 대기시 인식된 특정 영역은,
    상기 영상 처리 장치의 촬영 대기 상태에서 상기 영상 처리 장치에 의해 얼굴 영역으로 식별된 영역인
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  17. 제14항에 있어서,
    상기 인식된 특정 영역이 복수 개의 영역을 포함하는 경우,
    상기 프로세서는
    상기 복수 개의 영역 별로 상기 오디오 데이터를 획득하고,,
    상기 복수 개의 영역 별로 상기 획득된 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성하는
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  18. 제14항에 있어서,
    상기 오디오 데이터 연결 정보는 상기 영상 데이터의 메타데이터이며,
    상기 프로세서는
    상기 영상 데이터의 메타데이터 - 상기 메타데이터는 상기 특정 영역의 크기 및 상기 특정 영역의 위치를 포함함 - 에 상기 획득된 오디오 데이터가 저장된 위치 정보를 추가하는
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  19. 제14항에 있어서,
    상기 프로세서는
    상기 인식된 특정 영역을 선택하는 선택 신호를 입력 받고
    상기 오디오 데이터 연결 정보를 이용하여 상기 선택 신호가 입력된 특정 영역에 연결된 오디오 데이터를 재생하는
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  20. 영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치에 있어서,
    영상 데이터를 디스플레이하는 디스플레이부;
    프로세서;
    메모리;
    상기 프로세서는,
    상기 디스플레이 영역 내에서 복수 개의 영역을 획득하고,
    상기 복수 개의 영역 각각에 대응하는 오디오 데이터를 획득하고,
    상기 복수 개의 영역 각각에 상기 획득된 오디오 데이터가 대응되도록 연결하는 영역 별 오디오 데이터 연결 정보를 생성하고,
    상기 복수 개의 영역 각각에 대응하는 오디오 데이터가 연결된 상기 영역 별 오디오 데이터 연결 정보를 저장하는,
    영상 데이터와 오디오 데이터를 연결하는 영상 처리 장치.
  21. 영상 데이터를 디스플레이 영역에 디스플레이하는 단계;
    상기 디스플레이 영역 중 복수 개의 영역을 획득하는 단계;
    상기 획득된 복수 개의 영역 별로 오디오 데이터를 획득하는 단계;
    상기 복수 개의 영역 별로 상기 획득된 오디오 데이터를 연결하는 영역 별 오디오 데이터 연결 정보를 생성하는 단계; 및
    상기 영역 별로 오디오 데이터가 연결된 상기 영역 별 오디오 데이터 연결 정보를 저장하는 단계
    를 포함하는 영상 데이터와 오디오 데이터의 연결 방법을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체.

KR1020100104842A 2010-10-26 2010-10-26 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법 KR20120068078A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100104842A KR20120068078A (ko) 2010-10-26 2010-10-26 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법
US13/270,402 US20120098946A1 (en) 2010-10-26 2011-10-11 Image processing apparatus and methods of associating audio data with image data therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100104842A KR20120068078A (ko) 2010-10-26 2010-10-26 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법

Publications (1)

Publication Number Publication Date
KR20120068078A true KR20120068078A (ko) 2012-06-27

Family

ID=45972702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100104842A KR20120068078A (ko) 2010-10-26 2010-10-26 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법

Country Status (2)

Country Link
US (1) US20120098946A1 (ko)
KR (1) KR20120068078A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150009163A (ko) * 2013-07-16 2015-01-26 삼성전자주식회사 전자 장치 및 전자 장치의 영상 정보와 오디오 정보의 연결 방법
US10684754B2 (en) 2014-08-21 2020-06-16 Samsung Electronics Co., Ltd. Method of providing visual sound image and electronic device implementing the same

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101939253B1 (ko) * 2012-05-21 2019-01-16 엘지전자 주식회사 음성 녹음 중에 탐색을 용이하게 하는 방법 및 이를 구현한 전자기기
KR20140114238A (ko) 2013-03-18 2014-09-26 삼성전자주식회사 오디오와 결합된 이미지 표시 방법
JP6102588B2 (ja) * 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2879047A3 (en) * 2013-11-28 2015-12-16 LG Electronics Inc. Mobile terminal and controlling method thereof
US11027571B2 (en) * 2014-11-14 2021-06-08 Hallmark Cards, Incorporated Recordable greeting card with user-definable touch zones
US20160139721A1 (en) * 2014-11-14 2016-05-19 Hallmark Cards, Incorporated Recordable photo frame with user-definable touch zones
US9866916B1 (en) 2016-08-17 2018-01-09 International Business Machines Corporation Audio content delivery from multi-display device ecosystem
US10872115B2 (en) * 2018-03-19 2020-12-22 Motorola Mobility Llc Automatically associating an image with an audio track
US11182424B2 (en) * 2018-05-08 2021-11-23 Spotify Ab Image based content search and recommendations
US11263493B2 (en) 2019-06-25 2022-03-01 Spotify Ab Automatic metadata detector based on images
US11323615B2 (en) 2019-08-15 2022-05-03 International Business Machines Corporation Enhancing images using environmental context

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3026472B2 (ja) * 1991-12-31 2000-03-27 インターナショナル・ビジネス・マシーンズ・コーポレイション オーディオ出力を提供する方法及び装置
GB2372658A (en) * 2001-02-23 2002-08-28 Hewlett Packard Co A method of creating moving video data from a static image
GB2401272B (en) * 2003-04-30 2007-11-21 Hewlett Packard Development Co Method and apparatus for enhancing user interest in static digital images
US7587136B2 (en) * 2005-02-25 2009-09-08 Fujifilm Corporation Image capturing apparatus, image capturing method, output apparatus, output method and program
US20080042970A1 (en) * 2006-07-24 2008-02-21 Yih-Shiuan Liang Associating a region on a surface with a sound or with another region
JP4315215B2 (ja) * 2007-05-18 2009-08-19 カシオ計算機株式会社 撮像装置、及び顔検出方法、顔検出制御プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150009163A (ko) * 2013-07-16 2015-01-26 삼성전자주식회사 전자 장치 및 전자 장치의 영상 정보와 오디오 정보의 연결 방법
US10684754B2 (en) 2014-08-21 2020-06-16 Samsung Electronics Co., Ltd. Method of providing visual sound image and electronic device implementing the same

Also Published As

Publication number Publication date
US20120098946A1 (en) 2012-04-26

Similar Documents

Publication Publication Date Title
KR20120068078A (ko) 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법
TWI554096B (zh) 包含興趣特徵之視訊摘要
US9013604B2 (en) Video summary including a particular person
US9185285B2 (en) Method and apparatus for acquiring pre-captured picture of an object to be captured and a captured position of the same
JP4877319B2 (ja) 画像生成装置、プログラム、画像表示方法、及び、撮像方法
JP2007241496A (ja) 画像処理装置、画像処理方法、およびプログラム
KR20110014451A (ko) 장면에 따른 해상도 및 화질 변경 기능을 갖는 디지털 영상 신호 처리 방법, 상기 방법을 기록한 기록 매체, 디지털 영상 처리 장치
KR20130073724A (ko) 선택 영역을 변화시키는 결과 영상을 생성 또는 저장하는 장치 및 방법
JP6400293B2 (ja) 電子装置でコンテンツを制御する装置及びその方法
JP2012191544A (ja) 再生装置、撮像装置、および、動画再生プログラム
JP2009290318A (ja) 撮像装置およびズーム調整方法
JP6355333B2 (ja) 撮像装置、画像処理装置、画像処理方法、プログラム
JP6292872B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2011119936A (ja) 撮影装置及び再生方法
JP4849330B2 (ja) 表示制御装置および方法、撮像装置、情報処理装置および方法、並びにプログラム
JP2015023317A (ja) 画像管理装置及びその制御方法、プログラム、並びに記憶媒体
JP6635093B2 (ja) 画像記録装置、画像記録方法及びプログラム
JP6249771B2 (ja) 画像処理装置、画像処理方法、プログラム
KR20110083095A (ko) 멀티미디어 컨텐츠와 연동된 이미지를 생성하고 재생할 수 있는 디지털 영상 처리 장치 및 그 제어 방법
JP4673916B2 (ja) 情報処理装置、情報処理方法及び情報処理用プログラム
KR101946574B1 (ko) 영상 재생 장치, 방법, 및 컴퓨터 판독가능 저장매체
JP2008091978A (ja) 撮像装置及び画像記憶方法
JP6643081B2 (ja) アルバム動画生成装置、アルバム動画生成方法及びプログラム
JP2016167716A (ja) 撮像装置
JP2012191503A (ja) 画像記録装置、画像再生装置、画像記録再生システム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid