KR20150009163A - Electronic Device And Method for Connecting Audio Information to Image Information Of The Same - Google Patents

Electronic Device And Method for Connecting Audio Information to Image Information Of The Same Download PDF

Info

Publication number
KR20150009163A
KR20150009163A KR20130083282A KR20130083282A KR20150009163A KR 20150009163 A KR20150009163 A KR 20150009163A KR 20130083282 A KR20130083282 A KR 20130083282A KR 20130083282 A KR20130083282 A KR 20130083282A KR 20150009163 A KR20150009163 A KR 20150009163A
Authority
KR
South Korea
Prior art keywords
information
audio
touch event
area
image
Prior art date
Application number
KR20130083282A
Other languages
Korean (ko)
Other versions
KR102124806B1 (en
Inventor
이혜미
고상혁
김진용
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130083282A priority Critical patent/KR102124806B1/en
Publication of KR20150009163A publication Critical patent/KR20150009163A/en
Application granted granted Critical
Publication of KR102124806B1 publication Critical patent/KR102124806B1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/02Analogue recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/006Arrangements for the associated working of recording or reproducing apparatus with related apparatus with video camera or receiver

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)

Abstract

A method of linking audio information and image information by an electronic device according to the present description includes obtaining image information and audio information; recognizing at least one face region from the obtained image information; extracting at least one piece of voice information from the obtained audio information; and linking the extracted voice information to the recognized face region to generate link information.

Description

전자 장치 및 전자 장치의 영상 정보와 오디오 정보의 연결 방법 { Electronic Device And Method for Connecting Audio Information to Image Information Of The Same}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device and an audio device,

본 발명은 전자 장치 및 전자 장치에서 영상 정보와 오디오 정보를 연결하는 방법에 관한 것이다.The present invention relates to a method of connecting image information and audio information in an electronic device and an electronic device.

디지털 카메라와 같은 영상 처리에 관한 전자 장치는 사용자가 원하는 영상을 촬영하고 영상에 대한 설명을 녹음하거나 촬영된 영상 정보와 함께 오디오 정보를 저장할 수 있다. 이러한 방식은 촬영된 영상 정보 단위로 하나의 녹음된 오디오 정보가 저장됨으로, 사용자는 영상 정보 내의 각각의 오브젝트에 대한 설명을 하기 어려울 수 있다.An electronic device for image processing such as a digital camera can record a desired image of a user, record a description of the image, or store audio information together with photographed image information. In this method, since one recorded audio information is stored in the captured image information unit, it is difficult for the user to explain each object in the image information.

따라서, 사용자가 하나의 영상 정보에서 다양한 음향의 상황을 연출하기 위해, 영상 정보 내의 각각의 오브젝트 단위로 녹음하고 재생할 필요성이 요구된다.Therefore, in order for a user to produce various sound situations from one image information, it is required to record and reproduce each object in the image information.

본 발명은 전자 장치에서 영상 정보와 오디오 정보를 연결하는 방법에 관한 것으로서, 영상 정보의 특정 영역을 인식하고 오디오 정보에서 특정 음향을 인식하여 인식된 특정 영역과 특정 음향을 연결한다.The present invention relates to a method of connecting image information and audio information in an electronic device, and recognizes a specific area of the image information and recognizes a specific sound in the audio information, thereby connecting the recognized specific area with a specific sound.

본 발명의 일 실시 예에 따른 전자 장치의 영상 정보와 오디오 정보의 연결 방법은 전자 장치의 영상 정보와 오디오 정보의 연결 방법에 있어서, 영상 정보 및 오디오 정보를 획득하는 동작; 상기 획득한 영상 정보에서 적어도 하나 이상의 얼굴 영역을 인식하는 동작; 상기 획득한 오디오 정보에서 적어도 하나 이상의 음성 정보를 추출하는 동작; 및 상기 인식된 얼굴 영역에 상기 추출한 음성 정보를 연결하여 연결 정보를 생성하는 동작을 포함한다.According to another aspect of the present invention, there is provided a method of connecting image information and audio information of an electronic device, the method comprising: acquiring image information and audio information; Recognizing at least one face region from the acquired image information; Extracting at least one piece of audio information from the obtained audio information; And generating connection information by connecting the extracted voice information to the recognized face area.

본 발명의 다른 실시 예에 따른 전자 장치의 영상 정보와 오디오 정보의 연결 방법은 전자 장치의 영상 정보와 오디오 정보의 연결 방법에 있어서, 영상 정보 및 오디오 정보를 획득하는 동작; 상기 획득한 오디오 정보에서 적어도 하나 이상의 음향 정보를 추출하는 동작; 상기 음향 정보를 상기 영상 정보의 특정 영역에 연결하는 터치 이벤트를 감지하는 동작; 및 상기 감지된 터치 이벤트에 따라 상기 영상 정보에서 상기 특정 영역을 선택하고 상기 특정 영역에 상기 추출한 음향 정보를 연결하여 연결 정보를 생성하는 동작을 포함한다.According to another aspect of the present invention, there is provided a method of connecting image information and audio information of an electronic device, the method comprising: acquiring image information and audio information; Extracting at least one sound information from the obtained audio information; Sensing a touch event connecting the acoustic information to a specific area of the image information; And generating connection information by selecting the specific area from the image information according to the sensed touch event and connecting the extracted sound information to the specific area.

본 발명의 실시 예에 따른 전자 장치는 영상 정보와 오디오 정보를 연결하는 전자 장치에 있어서, 영상 정보를 획득하는 카메라 모듈; 오디오 정보를 획득하고 상기 오디오 정보를 아날로그 신호화하여 출력하는 오디오 처리부; 터치 이벤트를 감지하고 상기 영상 정보를 디스플레이하는 터치스크린; 및 상기 획득한 영상 정보에서 적어도 하나 이상의 얼굴 영역을 인식하며, 획득한 오디오 정보에서 적어도 하나 이상의 음성 정보를 추출하고 상기 인식된 얼굴 영역에 상기 추출한 음성 정보를 연결하여 연결 정보를 생성하는 제어부를 포함한다.According to an embodiment of the present invention, there is provided an electronic device for connecting image information and audio information, the electronic device comprising: a camera module for acquiring image information; An audio processing unit for acquiring audio information and converting the audio information into an analog signal and outputting the analog signal; A touch screen for sensing a touch event and displaying the image information; And a controller for recognizing at least one face area in the acquired image information, extracting at least one or more pieces of voice information from the obtained audio information, and connecting the extracted voice information to the recognized face area to generate connection information do.

본 발명의 실시 예에 따르면 시선인식을 이용하여 장치 간 다양하고 신속한 무선 연결을 제공할 수 있다.According to the embodiment of the present invention, it is possible to provide diverse and quick wireless connection between devices using visual recognition.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도,
도 2a 내지 도 2b는 본 발명의 일 실시 예에 따른 터치스크린에 제공된 디스플레이 영역에서 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면,
도 3a 내지 도 3c는 본 발명의 일 실시 예에 따른 터치스크린에 제공된 디스플레이 영역에서 적어도 하나의 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면,
도 4는 본 발명의 일 실시 예에 따른 사용자에 의해 획득한 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면,
도 5는 본 발명의 일 실시 예에 따른 영상 정보에 연결된 오디오 정보의 재생을 나타내는 도면,
도 6은 본 발명의 일 실시 예에 따른 영상 정보와 오디오 정보의 연결 방법을 나타내는 흐름도,
도 7은 본 발명의 다른 실시 예에 따른 영상 정보와 오디오 정보의 연결 방법을 나타내는 흐름도,
도 8은 본 발명의 다른 실시 예에 따른 영상 정보와 오디오 정보의 연결 방법을 나타내는 흐름도이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present invention;
2A and 2B illustrate a process of acquiring a specific area in a display area provided on a touch screen according to an embodiment of the present invention and connecting audio information to a specified area,
FIGS. 3A to 3C illustrate a process of acquiring at least one specific area in a display area provided on a touch screen according to an embodiment of the present invention, and connecting audio information to a specified area;
4 is a diagram illustrating a process of acquiring a specific area acquired by a user and connecting audio information to a specified area according to an embodiment of the present invention;
5 is a diagram illustrating playback of audio information linked to video information according to an embodiment of the present invention;
6 is a flowchart illustrating a method of connecting image information and audio information according to an exemplary embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method of connecting image information and audio information according to another embodiment of the present invention. FIG.
8 is a flowchart illustrating a method of connecting image information and audio information according to another embodiment of the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order to facilitate a person skilled in the art to easily carry out the technical idea of the present invention.

도 1은 본 발명의 일 실시 예에 따른 전자 장치(100)를 나타내는 블록도이다.1 is a block diagram illustrating an electronic device 100 in accordance with an embodiment of the present invention.

도 1을 참조하면, 전자 장치(100)는 카메라 모듈(110), 터치스크린(120), 조작부(130), 저장부(140), 오디오 처리부(150), 통신부(160) 및 제어부(170)를 포함한다.1, an electronic device 100 includes a camera module 110, a touch screen 120, an operation unit 130, a storage unit 140, an audio processing unit 150, a communication unit 160, .

전자 장치(100)는 정지 영상(still image) 또는 동영상(moving image) 등을 촬영하고 촬영된 영상 정보의 처리를 수행하거나 이미 저장되어 있는 영상 정보를 처리할 수 있다.The electronic device 100 can capture a still image, a moving image, and the like, process the photographed image information, or process the already stored image information.

카메라 모듈(110)은 외부 환경을 인식할 수 있는 장치로서, 광학 장치 및 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서를 포함할 수 있다. 광학 장치는 광학 신호를 집광하는 렌즈, 광학 신호의 광량을 조절하는 조리개, 광학 신호의 입력을 제어하는 셔터 등을 포함할 수 있다. 예를 들어, 렌즈는 초점 거리(focus length)에 따라 화각이 좁아지거나 또는 넓어지도록 제어하는 줌 렌즈 및 피사체의 초점을 맞추는 포커스 렌즈 등을 포함할 수 있다. 이들 렌즈는 각각 하나의 렌즈로 구성될 수도 있지만, 복수 렌즈의 군집으로 이루어질 수도 있다. 또한, 일 예로, 셔터는 가리개가 위아래로 움직이는 기계식 셔터를 구비할 수도 있다. 또는 다른 일 예로, 이미지 센서가 전기 신호의 공급을 제어하기 위한 셔터 역할을 대신 수행할 수 있다.The camera module 110 may include an optical device and a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The optical device may include a lens for condensing the optical signal, an aperture for adjusting the light amount of the optical signal, a shutter for controlling the input of the optical signal, and the like. For example, the lens may include a zoom lens for controlling the view angle to be narrowed or widened according to the focus length, a focus lens for focusing the subject, and the like. Each of these lenses may be composed of one lens, but it may be a group of plural lenses. Also, as an example, the shutter may have a mechanical shutter in which the shield moves up and down. Alternatively, as an alternative, the image sensor may instead act as a shutter for controlling the supply of the electrical signal.

터치스크린(120)은 입력 기능과 표시 기능을 동시에 수행하는 입출력 수단으로, 표시부(121)와 터치감지부(122)를 포함할 수 있다. 터치스크린(120)은 표시부(121)를 통해 사용자 디바이스 운용에 따른 다양한 화면(예컨대, 미디어 컨텐츠 재생 화면, 통화 발신을 위한 화면, 메신저 화면, 게임 화면, 갤러리 화면 등)을 표시할 수 있다. 그리고, 터치스크린(120)은 표시부(121)를 통해 화면 표시 중에 터치감지부(122)에 의한 사용자의 터치 이벤트(touch event)가 입력되면, 터치 이벤트에 따른 입력신호를 제어부(170)에 전달할 수 있다. 그러면, 제어부(170)는 터치 이벤트를 구분하고, 터치 이벤트에 따른 동작 수행을 제어할 수 있다.The touch screen 120 is an input / output means for simultaneously performing an input function and a display function, and may include a display unit 121 and a touch sensing unit 122. The touch screen 120 can display various screens (e.g., a media content playback screen, a call origination screen, a messenger screen, a game screen, a gallery screen, and the like) according to user device operation through the display unit 121. [ When a touch event of the user is input by the touch sensing unit 122 during the screen display through the display unit 121, the touch screen 120 transmits an input signal corresponding to the touch event to the control unit 170 . Then, the control unit 170 can classify the touch event and control the operation according to the touch event.

표시부(121)는 사용자 디바이스에서 처리되는 정보를 표시(출력)할 수 있다. 예를 들어, 사용자 디바이스가 통화모드인 경우 통화와 관련된 사용자 인터페이스(UI, User Interface) 또는 그래픽 사용자 인터페이스(GUI, Graphical UI)를 표시할 수 있다. 또한, 표시부(121)는 사용자 디바이스가 화상통화 모드 또는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시할 수 있다. 표시부(121)는 사용자 디바이스의 회전 방향(또는 놓인 방향)에 따라 가로모드에 의한 화면 표시, 세로모드에 의한 화면 표시 및 가로모드와 세로모드 간의 변화에 따른 화면 전화 표시를 지원할 수 있다.The display unit 121 can display (output) information processed by the user device. For example, when the user device is in the call mode, a user interface (UI) associated with the call or a graphical user interface (GUI) can be displayed. Also, the display unit 121 can display a video communication mode, a captured or / and received video or UI, and a GUI. The display unit 121 can support screen display by the horizontal mode, screen display by the vertical mode, and screen phone display according to the change between the horizontal mode and the vertical mode according to the rotation direction (or the set direction) of the user device.

표시부(121)는 액정 디스플레이(LCD, Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(TFT LCD, Thin Film Transistor-LCD), 발광 다이오드(LED, Light Emitting Diode), 유기 발광 다이오드(OLED, Organic LED), 능동형 OLED(AMOLED, Active Matrix OLED), 플렉서블 디스플레이(flexible display), 벤디드 디스플레이(bended display), 그리고 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이는 외부를 볼 수 있도록 투명형 또는 광투명형으로 구성되는 투명 디스플레이(transparent display)로 구현될 수 있다.The display unit 121 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), a light emitting diode (LED), an organic light emitting diode (OLED) And may include at least one of an active matrix OLED (AMOLED), a flexible display, a bended display, and a 3D display. Some of these displays may be implemented as transparent displays that are transparent or optically transparent for viewing the outside.

터치감지부(122)는 표시부(121)에 안착될 수 있으며, 터치스크린(120) 표면에 접촉하는 사용자의 터치 이벤트 입력(예컨대, 터치 기반의 롱 프레스(long press) 입력, 터치 기반의 숏 프레스(short press) 입력, 싱글터치(single-touch) 기반의 입력, 멀티터치(multi-touch) 기반의 입력, 터치 기반의 제스처(예컨대, 드래그(drag) 등) 입력 등)을 감지할 수 있다. 터치감지부(122)는 터치스크린(120) 표면에 사용자의 터치 이벤트를 감지할 시 상기 터치 이벤트가 발생된 좌표를 검출하고, 검출된 좌표를 제어부(170)에게 전달할 수 있다. 제어부(170)는 터치감지부(122)에서 전달되는 신호에 의해 터치 이벤트가 발생된 영역에 해당하는 기능을 수행할 수 있다. The touch sensing unit 122 may be mounted on the display unit 121 and may include a touch event input (e.g., a touch-based long press input, a touch-based short press, based input, a touch-based gesture (e.g., a drag, etc.) input, and the like). The touch sensing unit 122 may detect the coordinates of the touch event when the touch event of the user is detected on the surface of the touch screen 120 and may transmit the detected coordinates to the controller 170. [ The control unit 170 may perform a function corresponding to a region where the touch event is generated by the signal transmitted from the touch sensing unit 122. [

터치감지부(122)는 표시부(121)의 특정 부위에 가해진 압력 또는 표시부(121)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치감지부(122)는 터치되는 위치 및 면적뿐만 아니라, 적용한 터치 방식에 따라 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치감지부(122)에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 전달될 수 있다. 터치 제어기(미도시)는 그 신호(들)를 처리한 다음 해당 데이터를 제어부(170)로 전달할 수 있다. 이로써, 제어부(170)는 터치스크린(120)의 어느 영역이 터치되었는지 여부 등을 알 수 있다.The touch sensing unit 122 may be configured to convert a change in a pressure applied to a specific portion of the display unit 121 or a capacitance generated in a specific portion of the display unit 121 into an electrical input signal. The touch sensing unit 122 may be configured to detect not only the position and area to be touched but also the pressure at the time of touch according to the applied touch method. When there is a touch input to the touch sensing unit 122, the corresponding signal (s) may be transmitted to a touch controller (not shown). The touch controller (not shown) may process the signal (s) and then forward the data to the controller 170. In this way, the controller 170 can know which area of the touch screen 120 is touched or the like.

조작부(130)는 사용자가 전자 장치(100)를 조작하거나 촬영 시에 각종 설정을 행하기 위한 부재를 포함할 수 있다. 예를 들어, 조작부(130)는 전원 버튼, 셔터 버튼, 줌 버튼 등의 다양한 기능 버튼 등을 포함할 수 있다. 이러한 조작부(150)는 버튼, 키보드, 터치 패드, 터치스크린(120), 원격 제어기 등과 같이 사용자가 제어 신호를 입력할 수 있다면 어떠한 형태로도 구현될 수 있다.The operation unit 130 may include a member for allowing the user to operate the electronic device 100 or perform various settings at the time of photographing. For example, the operation unit 130 may include various function buttons such as a power button, a shutter button, and a zoom button. The operation unit 150 may be implemented in any form as long as the user can input a control signal, such as a button, a keyboard, a touch pad, a touch screen 120, a remote controller, and the like.

저장부(140)는 전자 장치(100)의 전반적인 동작 및 특정 기능을 수행하기 위해 필요한 프로그램과 그 프로그램 수행 중에 발생되는 데이터를 저장할 수 있다. 예를 들어, 저장부(140)는 전자 장치(100)를 부팅시키는 운영체제(Operating System, OS), 전자 장치(100)의 기능 동작에 필요한 응용 프로그램 및 전자 장치(100)의 사용에 따라 발생하는 데이터를 저장할 수 있다. 특히, 저장부(140)는 전자 장치(100)가 획득한 영상 정보, 오디오 정보, 연산 처리를 위한 데이터, 전자 장치(100) 동작에 필요한 알고리즘, 설정 데이터 등을 포함할 수 있으며, 또한 처리 결과를 임시 저장할 수도 있다. 이러한 저장부(140)는 ROM(Read Only Memory)과 RAM(Random Access Memory) 등으로 구성될 수 있다.The storage unit 140 may store programs necessary for performing overall operations and specific functions of the electronic device 100 and data generated during the execution of the programs. For example, the storage unit 140 may include an operating system (OS) for booting the electronic device 100, an application program necessary for functioning of the electronic device 100, Data can be stored. In particular, the storage unit 140 may include image information obtained by the electronic device 100, audio information, data for arithmetic processing, algorithms necessary for the operation of the electronic device 100, setting data, May be temporarily stored. The storage unit 140 may include a read only memory (ROM) and a random access memory (RAM).

오디오 처리부(150)는 오디오 정보를 송수신하여 인코딩(Encoding) 및 디코딩(Decoding)을 수행하는 음향 부품으로 형성될 수 있다. 이러한 오디오 처리부(150)는 코덱(Codec) 및 오디오 앰프(Amp) 등을 포함할 수 있다. 오디오 처리부(150)는 마이크(MIC) 및 스피커(SPK)와 연결되며, 마이크(MIC)로부터 입력되는 오디오 신호를 데이터화하여 제어부(170)로 전송하고, 제어부(170)로부터 입력되는 오디오 신호를 아날로그 신호로 변환하여 스피커(SPK)를 통해 출력할 수 있다. 또한, 오디오 처리부(150)는 전자 장치(100)에서 발생하는 다양한 오디오 신호(예컨대, MP3 파일, 동영상 파일 재생에 따른 오디오 신호 등)를 스피커(SPK)를 통해 출력할 수 있다.The audio processing unit 150 may be formed of an acoustic component that transmits and receives audio information and encodes and decodes audio information. The audio processing unit 150 may include a codec and an audio amplifier Amp. The audio processing unit 150 is connected to a microphone MIC and a speaker SPK and converts the audio signal input from the microphone MIC into data and transmits the data to the control unit 170. The audio processing unit 150 converts the audio signal input from the control unit 170 into analog Signal and output it through the speaker SPK. The audio processing unit 150 may output various audio signals (for example, MP3 files, audio signals for playing back moving picture files, etc.) generated in the electronic device 100 through a speaker SPK.

특히, 본 발명의 일 실시 예에 따른 오디오 처리부(150)는 카메라 모듈(110)을 이용한 촬영이 시작되면 오디오 신호를 수집하여 데이터화하여 제어부(170)로 전송할 수 있다. 또한, 본 발명의 일 실시 예에 따른 오디오 처리부(150)는 카메라 모듈(110)의 동작을 알리는 알림음, 터치 이벤트, 터치 포인트의 개수 및 터치 제스처가 입력될 때의 효과음, 터치 이벤트, 터치 포인트의 개수 및 터치 제스처가 서로 매치되지 않을 때 오류를 통지하는 효과음 등을 출력할 수 있다.In particular, when the photographing using the camera module 110 is started, the audio processing unit 150 according to an embodiment of the present invention collects the audio signal, and converts the audio signal to the control unit 170. In addition, the audio processing unit 150 according to an embodiment of the present invention may include a notification sound that notifies the operation of the camera module 110, a touch event, a number of touch points, an effect sound when a touch gesture is input, And an effect sound for notifying an error when the touch gestures do not match with each other.

통신부(160)는 전자 장치(100)의 무선 통신 기능을 지원하며, 전자 기기가 이동 통신 기능을 지원하는 경우 이동 통신 모듈로서 구성될 수 있다. 이를 위하여, 통신부(160)는 송신되는 무선 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신부 및 수신되는 무선 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신부 등을 포함할 수 있다. 또한, 전자 기기(100)가 와이파이 통신, 블루투스 통신, 지그비(Zigbee) 통신, UWB(Ultra Wideband) 통신 및 NFC(Near Field Communication) 통신 등과 같은 근거리 무선 통신 기능을 지원하는 경우 통신부(160)는 와이파이 통신 모듈, 블루투스 통신 모듈, 지그비(Zigbee) 통신 모듈, UWB 통신 모듈, NFC 통신 모듈 등을 포함할 수 있다. 특히, 본 발명의 일 실시 예에 따른 통신부(160)는 제어부(170)의 제어 하에 오디오 정보가 연결된 통신 정보를 다른 전자 장치로 전송하거나 특정 서버로 전송할 수 있다.The communication unit 160 supports the wireless communication function of the electronic device 100 and may be configured as a mobile communication module when the electronic device supports the mobile communication function. For this purpose, the communication unit 160 may include an RF (Radio Frequency) transmitter for up-converting and amplifying the frequency of the transmitted radio signal, and an RF receiver for low-noise amplifying and down-converting the received radio signal. When the electronic device 100 supports short-range wireless communication functions such as Wi-Fi communication, Bluetooth communication, Zigbee communication, UWB (Ultra Wideband) communication and NFC (Near Field Communication) communication, A communication module, a Bluetooth communication module, a Zigbee communication module, a UWB communication module, an NFC communication module, and the like. In particular, the communication unit 160 according to an embodiment of the present invention may transmit communication information to which audio information is connected under control of the controller 170 to another electronic device or to a specific server.

제어부(170)는 영상처리부(171), 영역검출부(172), 오디오추출부(173) 및 연결 정보 생성부(174)를 포함한다.The control unit 170 includes an image processing unit 171, an area detecting unit 172, an audio extracting unit 173, and a connection information generating unit 174.

영상처리부(171)는 디지털 연사에 의하여 신호를 처리할 수 있다. 예들 들어, 영상처리부(171)는 카메라 모듈(110)로부터 획득한 영상 신호에 대해 노이즈를 줄이고, 감마 보정(gamma correction), 색 필터 배열보간(color filter interpolation), 색 매트릭스(color matric), 색 보정(color correction), 색 상향(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 또한, 영상처리부(171)는 영상 신호 처리하여 생성한 영상 정보를 압축 처리하여 영상 파일을 생성할 수 있으며, 생성된 영상 파일로부터 영상 정보를 복원할 수 있다. 영상의 압축 형식은 가역 형식 또는 비 가역 형식이어도 된다. 적절한 형식의 예로 JPEG(Joint Photographic Experts Group) 형식이나 JPEG 2000 형식 등이 사용될 수 있다.The image processor 171 can process the signal by digital convolution. For example, the image processor 171 may reduce the noise of the image signal obtained from the camera module 110 and may perform gamma correction, color filter interpolation, color matrix, It is possible to perform image signal processing for improving image quality such as color correction and color enhancement. In addition, the image processing unit 171 can compress the image information generated by the image signal processing to generate the image file, and can restore the image information from the generated image file. The compression format of the image may be reversible or non-reversible. Examples of suitable formats include Joint Photographic Experts Group (JPEG) format and JPEG 2000 format.

영상처리부(171)는 기능적으로 불선명 처리, 색채, 거리, 블러 처리, 엣지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 할 수 있다. 영상 인식 처리로는 예를 들어 얼굴 인식, 장면 인식 처리 등이 있을 수 있으며, 이때 얼굴 인식 또는 장면 인식 처리는 공개된 다양한 인식 알고리즘을 적용하여 수행될 수 있다. 또한, 영상처리부(171)는 터치스크린(120)에 나타내기 위한 영상 신호 처리를 수행할 수도 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등의 생성 및 영상의 합성 처리 등을 행할 수 있다. 한편, 영상처리부(171)는 외부 모니터와 연결되어, 외부 모니터에 디스플레이 되도록 소정의 영상 신호 처리를 수행하고, 이렇게 처리된 영상 정보를 외부 모니터에 전송하여 외부 모니터에서 해당 영상이 디스플레이 되도록 제어할 수 있다.The image processing unit 171 can functionally perform blur processing, color processing, distance processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, image effect processing, and the like. The image recognition processing may be, for example, facial recognition, scene recognition processing, etc. At this time, face recognition or scene recognition processing may be performed by applying various public recognition algorithms. In addition, the image processing unit 171 may perform image signal processing for displaying on the touch screen 120. For example, brightness level adjustment, color correction, contrast adjustment, outline enhancement adjustment, screen division processing, character image generation, and image synthesis processing can be performed. On the other hand, the image processing unit 171 is connected to an external monitor, performs predetermined image signal processing to be displayed on the external monitor, and transmits the processed image information to the external monitor so that the corresponding image is displayed on the external monitor have.

영상처리부(171)는 오토포커스(Auto Focus) 정보를 생성할 수도 있다. 예를 들어, 영상처리부(171)는 휘도 신호를 각기 다른 2종류의 필터에 통과시킴으로써 각기 다른 주파수 성분을 가지는 2종류의 오토포커스 정보를 생성할 수도 있다. 제어부(170)는 영상처리부(171)에서 생성된 2종류의 오토포커스 정보를 이용하여 카메라 모듈(110)의 동작을 제어할 수 있다.The image processing unit 171 may generate auto focus information. For example, the image processing unit 171 may generate two types of autofocus information having different frequency components by passing the luminance signal through two different types of filters. The control unit 170 can control the operation of the camera module 110 using the two types of autofocus information generated by the image processing unit 171. [

카메라 모듈(110)이 오토포커스 동작을 수행하는 경우, 전자 장치(100)는 오토포커스 조절의 기준이 되는 피사체를 가리키는 초점 조절 윈도우를 가질 수 있다. 초점 조절 윈도우의 크기 및 위치는 사용자에 의하여 지정되거나 또는 영상 인식 처리에 의하여 자동으로 결정될 수 있으며, 필요에 따라 복수 개가 있을 수도 있다. 예를 들어, 영상처리부(171)의 영상 인식 처리에 의하여 하나의 영상 정보로부터 복수 개의 얼굴이 인식된 경우, 초점 조절 윈도우는 인식된 얼굴의 개수와 크기로 디스플레이 영역의 복수 개의 영역 상 나타날 수 있다. 이러한 오토포커스 동작을 수행하기 위한 사용자의 지시는 주로 촬영 대기 상태에서 이루어질 수 있다.When the camera module 110 performs an autofocus operation, the electronic device 100 may have a focus adjustment window indicating a subject to which autofocus adjustment is based. The size and position of the focus adjustment window may be specified by the user or automatically determined by image recognition processing, and there may be a plurality of focus adjustment windows as needed. For example, when a plurality of faces are recognized from one image information by the image recognition process of the image processor 171, the focus adjustment window may appear on a plurality of regions of the display region in the number and size of the recognized faces . The user's instruction to perform such an autofocus operation can be made mainly in the photographing standby state.

영역검출부(172)는 영상 정보가 터치스크린(120) 상에 나타난 경우, 디스플레이된 영역으로부터 적어도 하나의 특정 영역을 획득할 수 있다. 일 실시 예로, 영역검출부(172)는 오토포커스로 지정된 영역을 특정 영역으로 획득할 수 있다. 오토포커스로 지정된 영역은 디스플레이 영역 상에서 초점 조절 윈도우에 의하여 표시되는 영역으로서, 영역의 위치는 디스플레이 영역의 중앙에 위치하거나 또는 영상 인식 처리에 의하여 자동으로 결정될 수 있다. 또한 복수 개의 초점 조절 윈도우가 검출된 경우, 사용자에 의하여 적어도 하나의 특정 영역이 선택될 수도 있다.The area detection unit 172 can obtain at least one specific area from the displayed area when the image information appears on the touch screen 120. [ In one embodiment, the area detecting section 172 can obtain an area specified by autofocus as a specific area. The area designated by autofocus is the area displayed by the focus adjustment window on the display area, and the position of the area can be located in the center of the display area or automatically determined by image recognition processing. Also, if a plurality of focus adjustment windows are detected, at least one specific area may be selected by the user.

다른 일 실시 예로, 영역검출부(172)는 디스플레이된 디스플레이 영역에서 사용자에 의하여 적어도 하나의 특정 영역을 선택 받을 수도 있다. 영역검출부(172)는 터치스크린(120)에 디스플레이된 영경의 일부를 터치하는 사용자의 제스처를 획득하고, 터치된 위치에 기초하여 특정 영역을 획득할 수 있다. 예를 들어, 특정 영역이 사각형의 모양으로 구성된 경우, 사용자는 사각형의 대각선으로 마주하는 두 개의 꼭지점을 각각 선택함으로써, 특정 영역의 위치와 크기를 영역검출부(172)로 제공할 수 있다. 다른 예로 사용자는 디스플레이된 영역의 일부를 폐곡선의 형태로 그리고, 폐곡선이 포함하는 영역을 특정 영역으로 결정할 수 있다. 또 다른 예로 사용자는 소정의 아이콘을 디스플레이된 영역의 일정 영역을 위치시키고, 소정의 아이콘이 위치한 영역을 특정 영역으로 결정할 수 있다. 또 다른 예로 사용자가 디스플레이된 영역의 소정의 지점을 손가락으로 접촉하는 경우, 접촉된 면적의 가운데에 해당하는 위치를 특정 영역으로 결정할 수 있다.In another embodiment, the area detecting unit 172 may select at least one specific area by the user in the displayed display area. The area detecting unit 172 may acquire a gesture of a user who touches a part of the magnitude displayed on the touch screen 120 and acquire a specific area based on the touched position. For example, when the specific area is formed in the shape of a rectangle, the user can select the two vertexes facing each other on the diagonal line of the rectangle, thereby providing the area detection unit 172 with the position and size of the specific area. As another example, the user can determine a portion of the displayed area in the form of a closed curve and an area in which the closed curve is included as a specific area. As another example, the user can position a predetermined area of the displayed area of a predetermined icon and determine the area where the predetermined icon is located as a specific area. As another example, when the user touches a predetermined point of the displayed area with a finger, the position corresponding to the center of the contacted area can be determined as the specific area.

다른 일 실시 예로, 영역검출부(172)는 영상처리부(171)에서 영상 인식 처리의 수행에 의하여 인식된 영역을 특정 영역으로 결정할 수도 있다. 예를 들어, 영상처리부(171)는 저장부(140)에 저장된 영상 정보를 대상으로 영상 인식 처리를 수행하고, 영상 인식 처리에 의하여 인식된 얼굴 또는 장면이 포함된 특정 영역에 대한 정보를 영역검출부(172)에 제공할 수 있다. 여기서, 얼굴 인식 또는 장면 인식 처리는 공개된 다양한 인식 알고리즘을 적용하여 수행될 수 있다. 예를 들어, 얼굴 영역을 획득하기 위한 방식으로는 영상 정보로부터 눈 또는 입술 등의 미리 정해진 특정 영역을 추출하고 각 특정 영역 간의 거리에 기초하여 전체 얼굴 영역을 획득할 수 있다. 한편, 영역검출부(172)는 인식된 얼굴 또는 장면이 포함된 특정 영역을 사용자가 확인할 수 있도록 사각형 또는 원 등의 모양을 디스플레이된 영역 내의 특정 영역 상에 나타낼 수 있다.In another embodiment, the area detecting unit 172 may determine the area recognized by performing the image recognition processing in the image processing unit 171 as a specific area. For example, the image processing unit 171 performs image recognition processing on the image information stored in the storage unit 140, and information on a specific area including the recognized face or scene by the image recognition processing, And the like. Here, face recognition or scene recognition processing can be performed by applying various public recognition algorithms. For example, as a method for acquiring a face region, a predetermined specific region such as an eye or a lips may be extracted from the image information, and a whole face region may be acquired based on the distance between the specific regions. On the other hand, the area detecting unit 172 can display a shape such as a rectangle or a circle on a specific area in the displayed area so that the user can confirm the specific area including the recognized face or scene.

영역검출부(172)가 디스플레이 영역으로부터 적어도 하나의 특정 영역을 획득하기 위한 상술한 예들은 각각 수행될 수도 있으나, 각각의 실시 예들이 서로 결합하여 순차적으로 또는 동시에 수행될 수도 있다. 예를 들면, 영역검출부(172)가 오토포커스로 지정된 영역을 특정 영역으로 결정한 경우, 전자 장치(100)는 오토포커스로 지정된 영역과 구분되는 추가 영역을 사용자로부터 선택 받을 수 있다. 또한, 영역검출부(172)가 영상처리부(171)에서 영상 인식 처리에 의하여 인식된 영역을 특정 영역으로 결정한 경우, 전자 장치(100)는 인식된 영역과 구분되는 추가 영역을 사용자로부터 선택 받을 수 있다.The above-described examples in which the area detecting section 172 obtains at least one specific area from the display area may be performed, respectively, but each of the embodiments may be performed sequentially or simultaneously in combination with each other. For example, when the area detecting unit 172 determines the area designated by autofocus as a specific area, the electronic device 100 can select an additional area distinguished from the area designated by autofocus. In addition, when the area detecting unit 172 determines that the area recognized by the image recognizing process in the image processing unit 171 is a specific area, the electronic device 100 can select an additional area distinguished from the recognized area from the user .

오디오추출부(173)는 영역검출부(172)에서 획득한 특정 영역에 연결할 오디오 정보를 추출한다. 오디오 정보는 오디오 처리부(150)의 마이크(MIC)를 통해 획득될 수 있다. 예를 들어, 사용자가 영역검출부(172)에서 획득된 영역을 선택하는 경우, 오디오추출부(173)는 오디오 처리부(150)에서 획득한 오디오 정보에서 특정 영역에 포함된 인물 또는 물체와 관련된 내용을 추출할 수 있다. 이때, 오디오추출부(173)가 오디오 정보에서 특정 영역에 포함된 인물에 관련된 내용을 추출하면, 오디오추출부(173)는 음성(voice) 정보를 추출한 것이다. 오디오추출부(173)가 오디오 정보에서 특정 영역에 포함된 물체와 관련된 내용을 추출하면, 오디오추출부(173)는 음향(sound) 정보를 추출한 것이다.The audio extracting unit 173 extracts audio information to be connected to the specific area acquired by the area detecting unit 172. [ The audio information may be obtained through a microphone (MIC) of the audio processing unit 150. [ For example, when the user selects the area obtained by the area detecting unit 172, the audio extracting unit 173 extracts contents related to the person or object included in the specific area from the audio information acquired by the audio processing unit 150 Can be extracted. At this time, if the audio extracting unit 173 extracts contents related to a person included in a specific area in the audio information, the audio extracting unit 173 extracts voice information. When the audio extracting unit 173 extracts contents related to an object included in a specific area in the audio information, the audio extracting unit 173 extracts sound information.

다른 실시 예로, 터치스크린(120)이 오디오 정보 목록을 제공하고, 오디오추출부(173)는 오디오 정보 목록으로부터 특정 영역에 연결할 적어도 하나의 오디오 정보를 획득할 수 있다. 오디오 정보 목록은 영상 정보의 획득 전에 전자 장치(100)의 저장부(140)에 기 저장되어 있거나 영상 정보의 획득 전후에 통신부(160)를 통해 제공받을 수 있다.In another embodiment, the touch screen 120 provides a list of audio information, and the audio extraction unit 173 may obtain at least one audio information to connect to a specific area from the audio information list. The audio information list may be stored in the storage unit 140 of the electronic device 100 before the acquisition of the image information or may be provided through the communication unit 160 before or after the acquisition of the image information.

한편, 오디오추출부(173)는 영역검출부(172)에서 복수 개의 영역이 검출된 경우, 각각의 영역에 대응하는 오디오 정보를 모두 추출할 수도 잇고, 이 중 일부의 영역에 대응하는 오디오 정보만을 획득할 수 있다.On the other hand, when a plurality of areas are detected by the area detecting unit 172, the audio extracting unit 173 may extract all the audio information corresponding to the respective areas, and only audio information corresponding to a part of the areas is acquired can do.

연결 정보 생성부(174)는 영역검출부(172)에서 획득한 특정 영역과 오디오추출부(173)에서 추출한 오디오 정보 즉, 음성 정보 또는 음향 정보를 연결하기 위한 연결 정보를 생성한다. 연결 정보 생성부(174)는 디스플레이된 영상에서 복수 개의 영역이 특정 영역으로 검출된 경우, 각 복수 개의 영역 별로 오디오 정보 즉, 음성 정보 또는 음향 정보가 연결된 영역 별 연결 정보를 생성할 수 있다. 이러한 연결 정보의 일 예로는 영상 정보의 메타 데이터가 이용될 수 있다. 영상 정보의 메타 데이터는 특정 영역에 관한 정보를 포함할 수 있으며, 특정 영역과 관련된 필드에는 오디오 정보의 위치를 가리키는 연결 정보가 포함될 수 있다.The connection information generation unit 174 generates connection information for connecting audio information extracted by the audio extraction unit 173, that is, voice information or sound information, to the specific area acquired by the area detection unit 172. [ The connection information generating unit 174 may generate connection information for each area in which audio information, that is, voice information or sound information, is connected to each of a plurality of areas when a plurality of areas are detected as a specific area in the displayed image. As an example of such connection information, metadata of image information can be used. The metadata of the video information may include information on a specific area, and the field related to the specific area may include connection information indicating the location of the audio information.

도 2 내지 도 5는 본 발명의 일 실시 예에 따라 터치스크린(120)의 디스플레이 영역에서 적어도 하나의 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결한 후, 연결된 오디오 정보를 재생하는 과정을 나타내는 도면이다.FIGS. 2 to 5 illustrate a process of acquiring at least one specific area in the display area of the touch screen 120 according to an embodiment of the present invention, connecting the audio information to the specified area, Fig.

도 2a 내지 도 2b는 본 발명의 따른 터치스크린(120)에 제공된 디스플레이 영역에서 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면이다.2A and 2B illustrate a process of acquiring a specific area in a display area provided on the touch screen 120 according to the present invention and connecting audio information to a specified area.

도 2a는 전자 장치(100)에서 영상처리부(171)의 영상 인식 처리에 의해 획득한 얼굴 영역(211)을 나타낸다. 예를 들어, 얼굴 영역은 촬영시 오토포커스 영역으로 자동으로 지정된 영역이거나 저장된 영상 정보를 대상으로 영상처리부(171)의 영상 인식 처리 과정에 의하여 획득한 영역일 수 있다. 얼굴 영역(211)은 예컨대 초점 조절 윈도우로 표시될 수 있으며, 초점 조절 윈도우의 크기 및 위치는 전자 장치(100) 또는 사용자에 의해 사전에 설정되어 있을 수 있다. 예를 들어, 도 2a에서와 같이 초점 조절 윈도우는 디스플레이된 영역에서 사각형 모양을 나타낼 수 있다. 얼굴 영역(211)에 대한 위치 및 크기에 대한 정보는 디스플레이된 영상 정보의 메타 데이터의 일부에 포함될 수 있고 별도의 데이터로 영상 데이터와 분리된 장소에 저장될 수도 있다. 전자 장치(100)가 영상 정보를 획득하는 동안, 사용자(212)가 카메라 버튼(213)을 소정 시간 누르고 있으면, 오디오 처리부(150)는 오디오 정보를 획득할 수 있다. 일 예로, 카메라 버튼(213) 대신 터치스크린(120) 상의 소정의 터치 이벤트를 발생하면, 전자 장치(100)는 획득한 터치 이벤트에 응답하여 영상 정보를 획득하는 동시에 오디오 정보를 획득할 수 있다.2A shows a face area 211 obtained by the image recognition processing of the image processing unit 171 in the electronic device 100. Fig. For example, the face area may be an area automatically designated as an autofocus area at the time of photographing, or may be an area obtained by an image recognition process of the image processor 171 with respect to stored image information. The face area 211 may be displayed, for example, with a focus adjustment window, and the size and position of the focus adjustment window may be preset by the electronic device 100 or the user. For example, as in FIG. 2A, the focus adjustment window may represent a rectangular shape in the displayed area. The information on the position and size of the face area 211 may be included in a part of the metadata of the displayed image information and may be stored in a separate place from the image data as separate data. When the user 212 holds the camera button 213 for a predetermined time while the electronic device 100 acquires the image information, the audio processing unit 150 can acquire the audio information. For example, when a predetermined touch event is generated on the touch screen 120 instead of the camera button 213, the electronic device 100 may acquire image information while acquiring audio information in response to the acquired touch event.

도 2b는 획득한 오디오 정보에서 음성 정보를 추출하는 과정을 나타낸다. 전자 장치(100)는 획득한 오디오 정보에서 인물의 음성 정보를 추출하는 과정을 디스플레이된 소정 영역(214)에 표시할 수 있다. 전자 장치(100)는 획득한 영상 정보에서 특정 영역을 얼굴 영역으로 획득하고 추출한 음성 정보를 연결할 수 있다.2B shows a process of extracting audio information from the obtained audio information. The electronic device 100 may display a process of extracting the voice information of the person from the acquired audio information in the displayed area 214. [ The electronic device 100 can acquire a specific area from the acquired image information as a face area and link the extracted voice information.

도 3a 내지 도 3c는 본 발명의 따른 터치스크린(120)에 제공된 디스플레이 영역에서 적어도 하나의 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면이다.FIGS. 3A through 3C illustrate a process of acquiring at least one specific area in a display area provided on the touch screen 120 according to the present invention, and connecting audio information to a specified area.

도 3a는 전자 장치(100)에서 영상처리부(171)의 영상 인식 처리에 의해 획득한 복수의 얼굴 영역(311, 312)을 나타낸다. 예를 들어, 복수의 얼굴 영역(311, 312)은 촬영시 오토포커스 영역으로 자동으로 지정된 영역이거나 저장된 영상 정보를 대상으로 영상처리부(171)의 영상 인식 처리 과정에 의하여 획득한 영역일 수 있다. 복수의 얼굴 영역(311, 312)은 예컨대 초점 조절 윈도우로 표시될 수 있으며, 초점 조절 윈도우의 크기 및 위치는 전자 장치(100) 또는 사용자에 의해 사전에 설정되어 있을 수 있다. 예를 들어, 도 3a에서와 같이 초점 조절 윈도우는 디스플레이된 영역에서 사각형 모양을 나타낼 수 있다. 복수의 얼굴 영역(311)에 대한 위치 및 크기에 대한 정보는 디스플레이된 영상 정보의 메타 데이터의 일부에 포함될 수 있고 별도의 데이터로 영상 데이터와 분리된 장소에 저장될 수도 있다. 전자 장치(100)가 영상 정보를 획득하는 동안, 사용자가 카메라 버튼을 소정 시간 누르고 있으면, 오디오 처리부(150)는 오디오 정보를 획득할 수 있다. 일 예로, 카메라 버튼대신 터치스크린(120) 상의 소정의 터치 이벤트를 발생하면, 전자 장치(100)는 획득한 터치 이벤트에 응답하여 영상 정보를 획득하는 동시에 오디오 정보를 획득할 수 있다.3A shows a plurality of face regions 311 and 312 obtained by the image recognition processing of the image processing section 171 in the electronic device 100. Fig. For example, the plurality of face regions 311 and 312 may be an area automatically designated as an autofocus region at the time of photographing, or may be an area obtained through image recognition processing of the image processing unit 171 with respect to stored image information. The plurality of face regions 311 and 312 may be displayed, for example, with a focus adjustment window, and the size and position of the focus adjustment window may be preset by the electronic device 100 or the user. For example, as in FIG. 3A, the focus adjustment window may show a square shape in the displayed area. Information on the position and size of the plurality of face regions 311 may be included in a part of the metadata of the displayed image information and may be stored in a separate place from the image data as separate data. While the electronic device 100 is acquiring image information, the audio processing unit 150 can acquire audio information when the user holds the camera button for a predetermined time. For example, when a predetermined touch event is generated on the touch screen 120 instead of the camera button, the electronic device 100 may acquire image information while acquiring audio information in response to the acquired touch event.

도 3b는 획득한 오디오 정보에서 음성 정보를 추출하는 과정을 나타낸다. 전자 장치(100)는 획득한 오디오 정보에서 인물에 대한 복수의 음성 정보(315, 316)를 추출하는 과정을 디스플레이된 소정 영역(317)에 표시할 수 있다.FIG. 3B shows a process of extracting audio information from the obtained audio information. The electronic device 100 may display a process of extracting a plurality of pieces of voice information 315 and 316 for a person from the obtained audio information in a predetermined area 317 displayed.

도 3c는 사용자에 의한 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면이다.3C is a diagram illustrating a process of connecting audio information to a specified area by a user.

전자 장치(100)는 추출한 복수의 음성 정보(315, 316)를 표시하고, 획득한 복수의 얼굴 영역(311, 312)을 표시할 수 있다. 사용자(313)가 복수의 음성 정보(315, 316)를 확인하고 각 음성 정보(315, 316)를 각 얼굴 영역(311, 312)에 드래그하고 접촉을 떼면, 전자 장치(100)는 획득한 영상 정보에서 특정 영역을 얼굴 영역으로 획득하고 추출한 음성 정보를 연결할 수 있다. 일 예로, 사용자(313)가 복수의 음성 정보(315, 316)를 확인하고 각 음성 정보(315, 316)를 각 얼굴 영역(311, 312)으로 터치 이벤트를 발생시키면 전자 장치(100)는 획득한 터치 이벤트에 응답하여 얼굴 영역과 음성 정보를 연결할 수 있다.The electronic device 100 can display a plurality of extracted voice information 315 and 316 and display the obtained plurality of face areas 311 and 312. [ When the user 313 confirms a plurality of pieces of voice information 315 and 316 and drags the respective voice information 315 and 316 to the respective face regions 311 and 312 and releases the contact, A specific area can be acquired as a face area from the information and the extracted voice information can be connected. For example, if the user 313 identifies a plurality of voice information 315 and 316 and generates a touch event for each voice information 315 and 316 in each of the face regions 311 and 312, The face area and the voice information can be connected in response to one touch event.

도 4는 본 발명의 일 실시 예에 따른 터치스크린(120)에 제공된 디스플레이 영역에서 특정 영역을 획득하고, 특정된 영역에 오디오 정보를 연결하는 과정을 나타내는 도면이다.4 is a diagram illustrating a process of acquiring a specific area in a display area provided on the touch screen 120 and connecting audio information to a specified area according to an embodiment of the present invention.

도 4는 전자 장치(100)에서 사용자에 의해 획득한 특정 영역(411)을 나타낸다. 사용자는 특정 영역(411)을 지정하기 위하여, 추출된 음향 정보(412)를 디스플레이된 영역 일부에 위치시킬 수 있다. 도 4에서 사용자가 터치스크린(120)의 소정 영역에 표시된 음향 정보(412)를 디스플레이된 일부 영역까지 드래그하고 접촉을 떼는 경우, 최종 접촉되었던 위치에 관한 정보가 특정 영역에 대한 위치 정보가 될 수 있다. 그 밖의 실시 예로 사용자는 디스플레이된 영역의 특정 영역(411)을 폐곡선 또는 폐곡선에 가까운 개곡선의 형태로 직접 그림으로써 특정 영역(411)을 지정할 수 있다. 일 예로, 사용자가 음향 정보(412)에서 특정 영역(411)으로 터치 이벤트를 발생시키면 전자 장치(100)는 획득한 터치 이벤트에 응답하여 특정 영역(411)과 음향 정보(412)를 연결할 수 있다.FIG. 4 shows a specific area 411 obtained by the user in the electronic device 100. FIG. The user can place the extracted sound information 412 in a part of the displayed area in order to designate the specific area 411. [ 4, when the user drags the acoustic information 412 displayed on the predetermined area of the touch screen 120 to a displayed area and releases the contact, information on the last contacted position may be position information on the specific area have. In another embodiment, the user can designate a specific area 411 by directly drawing a specific area 411 of the displayed area in the form of a closed curve or an open curve close to a closed curve. For example, when a user generates a touch event in the specific area 411 in the sound information 412, the electronic device 100 can connect the specific area 411 and the sound information 412 in response to the acquired touch event .

도 5는 본 발명의 일 실시 예에 따른 영상 정보의 특정 영역에 연결된 오디오 정보의 재생을 나타내는 도면이다. 사용자가 지정한 특정 영역 또는 영상처리부(171)가 인식한 얼굴 영역을 향해 터치 이벤트를 발생시키면 전자 장치(100)는 특정 영역 또는 얼굴 영역과 연결된 음향 정보 또는 음성 정보를 재생할 수 있다. 예를 들어, 사용자가 특정 영역 또는 얼굴 영역을 향해 핀치-줌-인(pinch zoom in, 511) 동작을 수행하면 특정 영역 또는 얼굴 영역과 연결된 음향 정보 또는 음성 정보를 재생할 수 있다. 또, 전자 장치(100)가 특정 영역 또는 얼굴 영역과 연결된 음향 정보 또는 음성 정보를 재생하는 도중, 사용자가 지정한 특정 영역 또는 영상처리부(171)가 인식한 얼굴 영역을 향해 터치 이벤트를 발생시키면 발생시키면 전자 장치(100)는 특정 영역 또는 얼굴 영역과 연결된 음향 정보 또는 음성 정보를 재생을 중단할 수 있다. 예를 들어, 사용자가 특정 영역 또는 얼굴 영역을 향해 핀치-줌-아웃(pinch zoom out, 512) 동작을 수행하면 특정 영역 또는 얼굴 영역과 연결된 음향 정보 또는 음성 정보를 재생을 중단할 수 있다.FIG. 5 is a diagram illustrating reproduction of audio information connected to a specific area of image information according to an exemplary embodiment of the present invention. Referring to FIG. When the touch event is generated toward the specific area designated by the user or the face area recognized by the image processing part 171, the electronic device 100 can reproduce the acoustic information or the voice information linked to the specific area or the face area. For example, when the user performs a pinch-zoom-in operation 511 toward a specific area or a face area, it is possible to reproduce the sound information or the voice information associated with the specific area or the face area. When the electronic device 100 generates a touch event toward a specific area designated by the user or a face area recognized by the image processing unit 171 during the reproduction of the acoustic information or the voice information associated with the specific area or the face area The electronic device 100 may stop playback of acoustic information or voice information associated with a particular area or face area. For example, when a user performs a pinch zoom out (512) operation toward a specific area or face area, playback of audio information or voice information associated with a specific area or face area may be interrupted.

도 6은 본 발명의 일 실시 예에 따른 영상 정보와 오디오 정보의 연결 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of connecting image information and audio information according to an exemplary embodiment of the present invention.

전자 장치(100)는 601 단계에서, 영상 정보 및 오디오 정보를 획득한다. 전자 장치(100)는 603 단계에서, 영상 정보에서 얼굴 영역을 인식한다. 여기서, 얼굴 영역은 전자 장치(100)의 오토포커스로 지정된 영역이 될 수 있다. 다른 실시 예로, 얼굴 영역은 전자 장치(100)의 영상 인식 처리의 수행에 의해 검출된 얼굴 영역일 수 있다. 전자 장치(100)는 605 단계에서, 획득한 오디오 정보에서 음성 정보를 추출할 수 있다. 전자 장치(100)는 607 단계에서, 추출된 음성 정보를 얼굴 영역에 연결하는 연결 정보를 생성할 수 있다. 예를 들어, 연결 정보는 영상 정보의 메타 데이터가 될 수 있다. 영상 정보의 메타 데이터는 얼굴 영역의 크기 및 위치를 포함할 수 있으며, 얼굴 영역과 관련된 필드에서는 음성 정보의 위치를 가리키는 정보가 포함될 수 있다.In step 601, the electronic device 100 acquires image information and audio information. In step 603, the electronic device 100 recognizes the face area in the image information. Here, the face area may be an area designated by the autofocus of the electronic device 100. [ In another embodiment, the face region may be the face region detected by performing the image recognition process of the electronic device 100. [ In step 605, the electronic device 100 can extract voice information from the acquired audio information. In step 607, the electronic device 100 may generate connection information for connecting the extracted voice information to the face area. For example, the connection information may be metadata of image information. The meta data of the image information may include the size and the position of the face area, and the information related to the position of the voice information may be included in the field related to the face area.

도 7은 본 발명의 다른 실시 예에 따른 영상 정보와 오디오 정보의 연결 방법을 나타내는 흐름도이다.7 is a flowchart illustrating a method of connecting image information and audio information according to another embodiment of the present invention.

전자 장치(100)는 701 단계에서, 영상 정보 및 오디오 정보를 획득한다. 전자 장치(100)는 703 단계에서, 영상 정보에서 적어도 하나 이상의 얼굴 영역을 인식한다. 여기서, 적어도 하나 이상의 얼굴 영역은 전자 장치(100)의 오토포커스로 지정된 영역이 될 수 있다. 다른 실시 예로, 적어도 하나 이상의 얼굴 영역은 전자 장치(100)의 영상 인식 처리의 수행에 의해 검출된 적어도 하나 이상의 얼굴 영역일 수 있다. 전자 장치(100)는 705 단계에서, 획득한 오디오 정보에서 적어도 하나 이상의 음성 정보를 추출할 수 있다. 전자 장치(100)는 707 단계에서, 사용자가 발생하는 터치 이벤트를 감지한다. 여기서, 터치 이벤트는 디스플레이된 각 음성 정보와 각 얼굴 영역을 연결하는 터치 이벤트로서, 즉 연결 정보 생성을 위한 터치 이벤트이다. 예컨대, 음성 정보를 얼굴 영역으로 드래그 후 떼는 터치 이벤트가 있을 수 있다. 전자 장치(100)는 709 단계에서, 추출된 각 음성 정보를 각 얼굴 영역에 연결하는 연결 정보를 생성할 수 있다. 예를 들어, 연결 정보는 영상 정보의 메타 데이터가 될 수 있다. 영상 정보의 메타 데이터는 각 얼굴 영역의 크기 및 위치를 포함할 수 있으며, 각 얼굴 영역과 관련된 필드에서는 각 음성 정보의 위치를 가리키는 정보가 포함될 수 있다.In step 701, the electronic device 100 acquires image information and audio information. In step 703, the electronic device 100 recognizes at least one face area in the image information. Here, the at least one face region may be an area designated by the autofocus of the electronic device 100. In another embodiment, the at least one face region may be at least one face region detected by performing an image recognition process of the electronic device 100. [ In step 705, the electronic device 100 may extract at least one or more pieces of audio information from the acquired audio information. In step 707, the electronic device 100 senses a touch event generated by the user. Here, the touch event is a touch event for connecting each of the displayed voice information and each face area, that is, a touch event for generating connection information. For example, there may be a touch event in which audio information is dragged to the face area and then released. In step 709, the electronic device 100 may generate connection information for connecting the extracted voice information to each face area. For example, the connection information may be metadata of image information. The meta data of the image information may include the size and position of each face region, and information indicating the position of each voice information may be included in the field related to each face region.

도 8은 본 발명의 다른 실시 예에 따른 영상 정보와 오디오 정보의 연결 방법을 나타내는 흐름도이다.8 is a flowchart illustrating a method of connecting image information and audio information according to another embodiment of the present invention.

전자 장치(100)는 801 단계에서, 영상 정보 및 오디오 정보를 획득한다. 전자 장치(100)는 803 단계에서, 획득한 오디오 정보에서 음향 정보를 추출할 수 있다. 전자 장치(100)는 805 단계에서, 사용자가 발생하는 터치 이벤트를 감지한다. 여기서, 터치 이벤트는 디스플레이된 음향 정보와 특정 영역을 연결하는 터치 이벤트로서, 예컨대, 음향 정보를 디스플레이된 특정 영역으로 드래그 후 떼는 터치 이벤트가 발생하면 특정 영역을 지정할 수 있다. 그 밖의 실시 예로 사용자는 디스플레이된 영역의 특정 영역을 폐곡선 또는 폐곡선에 가까운 개곡선의 형태로 직접 그림으로써 특정 영역을 지정할 수 있다. 전자 장치(100)는 807 단계에서, 추출된 음향 정보를 특정 영역에 연결하는 연결 정보를 생성할 수 있다. 예를 들어, 연결 정보는 영상 정보의 메타 데이터가 될 수 있다. 영상 정보의 메타 데이터는 특정 영역의 크기 및 위치를 포함할 수 있으며, 특정 영역과 관련된 필드에서는 음향 정보의 위치를 가리키는 정보가 포함될 수 있다.In step 801, the electronic device 100 acquires image information and audio information. In step 803, the electronic device 100 may extract sound information from the obtained audio information. In step 805, the electronic device 100 senses a touch event generated by the user. Here, the touch event is a touch event that connects the displayed sound information and the specific area. For example, when a touch event occurs, dragging and dropping the sound information to the displayed specific area may designate a specific area. In another embodiment, the user can designate a specific area by directly plotting a specific area of the displayed area in the form of a closed curve or an open curve close to the closed curve. In step 807, the electronic device 100 may generate connection information for connecting the extracted sound information to a specific area. For example, the connection information may be metadata of image information. The metadata of the image information may include the size and position of the specific area, and information indicating the location of the sound information may be included in the field related to the specific area.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

Claims (15)

전자 장치의 영상 정보와 오디오 정보의 연결 방법에 있어서,
영상 정보 및 오디오 정보를 획득하는 동작;
상기 획득한 영상 정보에서 적어도 하나 이상의 얼굴 영역을 인식하는 동작;
상기 획득한 오디오 정보에서 적어도 하나 이상의 음성 정보를 추출하는 동작; 및
상기 인식된 얼굴 영역에 상기 추출한 음성 정보를 연결하여 연결 정보를 생성하는 동작을 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
A method for connecting video information and audio information of an electronic device,
Acquiring image information and audio information;
Recognizing at least one face region from the acquired image information;
Extracting at least one piece of audio information from the obtained audio information; And
And connecting the extracted voice information to the recognized face area to generate connection information.
제 1항에 있어서,
상기 인식된 얼굴 영역은
상기 전자 장치의 오토포커스로 지정되거나 기 저장된 상기 영상 정보에서 얼굴 인식을 통해 인식되는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
The method according to claim 1,
The recognized face region
A method of linking video information and audio information of an electronic device, which is recognized as autofocusing of the electronic device or recognized through facial recognition in the previously stored video information.
제 1항에 있어서,
연결 정보 생성을 위한 터치 이벤트를 감지하는 동작; 및
상기 감지된 연결 정보 생성을 위한 터치 이벤트에 따라 상기 적어도 하나 이상의 얼굴 영역 별로 상기 추출된 적어도 하나 이상의 음성 정보를 각각 연결하여 연결 정보를 생성하는 동작을 더 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
The method according to claim 1,
Detecting touch events for connection information generation; And
And generating connection information by connecting the extracted at least one or more pieces of audio information to at least one or more face regions according to a touch event for generating the sensed connection information, Connection method.
제 1항에 있어서,
상기 연결 정보는
상기 영상 정보의 메타 데이터이며, 상기 메타 데이터에 포함된 얼굴 영역의 크기 정보 및 상기 얼굴 영역의 위치 정보에 상기 음성 정보가 저장된 위치 정보를 추가하는 것을 특징으로 하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
The method according to claim 1,
The connection information
Wherein the metadata is meta data of the image information and position information of the size of the face area included in the meta data and the position information of the face area is stored in the position information of the face area. Connection method.
제 1항에 있어서,
재생을 위한 터치 이벤트를 감지하는 동작;
상기 감지된 재생을 위한 터치 이벤트에 따라 상기 음성 정보를 재생하는 동작; 및
상기 감지된 재생을 위한 터치 이벤트에 따라 상기 영상 정보에서 상기 얼굴 영역을 확대하는 동작을 더 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
The method according to claim 1,
Detecting a touch event for playback;
Reproducing the audio information according to the sensed touch event for reproduction; And
And enlarging the face area in the image information according to a touch event for the sensed reproduction.
제 5항에 있어서,
재생 중단을 위한 터치 이벤트를 감지하는 동작;
상기 감지된 재생 중단을 위한 터치 이벤트에 따라 상기 음성 정보의 재생을 중단하는 동작을 더 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
6. The method of claim 5,
Detecting a touch event for stopping playback;
And stopping the reproduction of the audio information according to a touch event for stopping the detected reproduction of the audio information.
전자 장치의 영상 정보와 오디오 정보의 연결 방법에 있어서,
영상 정보 및 오디오 정보를 획득하는 동작;
상기 획득한 오디오 정보에서 적어도 하나 이상의 음향 정보를 추출하는 동작;
상기 음향 정보를 상기 영상 정보의 특정 영역에 연결하는 터치 이벤트를 감지하는 동작; 및
상기 감지된 터치 이벤트에 따라 상기 영상 정보에서 상기 특정 영역을 선택하고 상기 특정 영역에 상기 추출한 음향 정보를 연결하여 연결 정보를 생성하는 동작을 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
A method for connecting video information and audio information of an electronic device,
Acquiring image information and audio information;
Extracting at least one sound information from the obtained audio information;
Sensing a touch event connecting the acoustic information to a specific area of the image information; And
Selecting the specific area in the image information according to the sensed touch event, and connecting the extracted sound information to the specific area to generate connection information.
제 7항에 있어서,
상기 연결 정보는
상기 영상 정보의 메타 데이터이며, 상기 메타 데이터에 포함된 특정 영역의 크기 정보 및 상기 특정 영역의 위치 정보에 상기 음향 정보가 저장된 위치 정보를 추가하는 것을 특징으로 하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
8. The method of claim 7,
The connection information
And adding the size information of the specific area included in the meta data and the location information in which the sound information is stored to the location information of the specific area. Connection method.
제 7항에 있어서,
재생을 위한 터치 이벤트를 감지하는 동작;
상기 감지된 재생을 위한 터치 이벤트에 따라 상기 음향 정보를 재생하는 동작; 및
상기 감지된 재생을 위한 터치 이벤트에 따라 상기 영상 정보에서 상기 특정 영역을 확대하는 동작을 더 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
8. The method of claim 7,
Detecting a touch event for playback;
Reproducing the sound information according to a touch event for the sensed reproduction; And
And enlarging the specific area in the image information according to a touch event for the detected reproduction.
제 9항에 있어서,
재생 중단을 위한 터치 이벤트를 감지하는 동작;
상기 감지된 재생 중단을 위한 터치 이벤트에 따라 상기 음향 정보의 재생을 중단하는 동작을 더 포함하는 전자 장치의 영상 정보와 오디오 정보의 연결 방법.
10. The method of claim 9,
Detecting a touch event for stopping playback;
And stopping the reproduction of the sound information according to a touch event for stopping the detected reproduction.
영상 정보와 오디오 정보를 연결하는 전자 장치에 있어서,
영상 정보를 획득하는 카메라 모듈;
오디오 정보를 획득하고 상기 오디오 정보를 아날로그 신호화하여 출력하는 오디오 처리부;
터치 이벤트를 감지하고 상기 영상 정보를 디스플레이하는 터치스크린; 및
상기 획득한 영상 정보에서 적어도 하나 이상의 얼굴 영역을 인식하며, 획득한 오디오 정보에서 적어도 하나 이상의 음성 정보를 추출하고 상기 인식된 얼굴 영역에 상기 추출한 음성 정보를 연결하여 연결 정보를 생성하는 제어부를 포함하는 전자 장치.
An electronic device for connecting video information and audio information,
A camera module for acquiring image information;
An audio processing unit for acquiring audio information and converting the audio information into an analog signal and outputting the analog signal;
A touch screen for sensing a touch event and displaying the image information; And
And a controller for recognizing at least one face area in the acquired image information, extracting at least one voice information from the obtained audio information, and connecting the extracted voice information to the recognized face area to generate connection information Electronic device.
제 11항에 있어서,
상기 인식된 얼굴 영역은
상기 전자 장치의 오토포커스로 지정되거나 기 저장된 상기 영상 정보에서 얼굴 인식을 통해 인식되는 전자 장치.
12. The method of claim 11,
The recognized face region
Wherein the electronic device is recognized as being autofocused or recognized through facial recognition in the previously stored image information.
제 11항에 있어서,
상기 제어부는
연결 정보 생성을 위한 터치 이벤트에 따라 상기 적어도 하나 이상의 얼굴 영역 별로 상기 추출된 적어도 하나 이상의 음성 정보를 각각 연결하여 연결 정보를 생성하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The control unit
Wherein the connection information generating unit generates the connection information by connecting the extracted at least one or more pieces of voice information to the at least one face region according to a touch event for generating connection information.
제 13항에 있어서,
상기 연결 정보는
상기 영상 정보의 메타 데이터이며, 상기 메타 데이터에 포함된 얼굴 영역의 크기 정보 및 상기 얼굴 영역의 위치 정보에 상기 음성 정보가 저장된 위치 정보를 추가하는 것을 특징으로 하는 전자 장치.
14. The method of claim 13,
The connection information
Wherein the metadata is meta data of the image information, and adds the size information of the face area included in the meta data and the location information storing the voice information to the location information of the face area.
제 11항에 있어서,
상기 제어부는
음향 정보를 상기 영상 정보의 특정 영역에 연결하는 터치 이벤트에 따라 상기 영상 정보에서 상기 특정 영역을 선택하고 상기 특정 영역에 상기 추출한 음향 정보를 연결하여 연결 정보를 생성하는 전자 장치.
12. The method of claim 11,
The control unit
Selecting the specific area in the image information according to a touch event connecting the acoustic information to a specific area of the image information, and connecting the extracted acoustic information to the specific area to generate connection information.
KR1020130083282A 2013-07-16 2013-07-16 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same KR102124806B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130083282A KR102124806B1 (en) 2013-07-16 2013-07-16 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130083282A KR102124806B1 (en) 2013-07-16 2013-07-16 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same

Publications (2)

Publication Number Publication Date
KR20150009163A true KR20150009163A (en) 2015-01-26
KR102124806B1 KR102124806B1 (en) 2020-06-19

Family

ID=52572463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130083282A KR102124806B1 (en) 2013-07-16 2013-07-16 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same

Country Status (1)

Country Link
KR (1) KR102124806B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101000463B1 (en) * 2010-02-19 2010-12-14 김도영 Apparatus for leaning and method for creating learning contents for children
KR20120068078A (en) * 2010-10-26 2012-06-27 삼성전자주식회사 Image photographing apparatus and method for connecting audio data to image data thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101000463B1 (en) * 2010-02-19 2010-12-14 김도영 Apparatus for leaning and method for creating learning contents for children
KR20120068078A (en) * 2010-10-26 2012-06-27 삼성전자주식회사 Image photographing apparatus and method for connecting audio data to image data thereof

Also Published As

Publication number Publication date
KR102124806B1 (en) 2020-06-19

Similar Documents

Publication Publication Date Title
EP3076659B1 (en) Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium
US11412132B2 (en) Camera switching method for terminal, and terminal
CN114205522B (en) Method for long-focus shooting and electronic equipment
WO2016029641A1 (en) Photograph acquisition method and apparatus
US20220321797A1 (en) Photographing method in long-focus scenario and terminal
KR102036054B1 (en) Method for recoding a video in the terminal having a dual camera and device thereof
KR20170010588A (en) Image capturing apparatus and method for the same
WO2017012269A1 (en) Method and apparatus for determining spatial parameter by using image, and terminal device
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
WO2017124899A1 (en) Information processing method, apparatus and electronic device
CA2798949A1 (en) Method and apparatus for controlling camera functions using facial recognition and eye tracking
EP3259658B1 (en) Method and photographing apparatus for controlling function based on gesture of user
EP2530577A2 (en) Display apparatus and method
KR20120068078A (en) Image photographing apparatus and method for connecting audio data to image data thereof
WO2017140109A1 (en) Pressure detection method and apparatus
KR20150070870A (en) Preview method of picture taken in camera and electronic device implementing the same
US9225906B2 (en) Electronic device having efficient mechanisms for self-portrait image capturing and method for controlling the same
US20150029381A1 (en) Electronic device and method of photographing image using the same
US10950272B2 (en) Method and apparatus for obtaining audio-visual information, device, and storage medium
CN113613053B (en) Video recommendation method and device, electronic equipment and storage medium
KR102124806B1 (en) Electronic Device And Method for Connecting Audio Information to Image Information Of The Same
EP3826282B1 (en) Image capturing method and device
US11889179B2 (en) Image capturing program, information processing device, and method for changing an image capturing parameter of a camera
KR101324809B1 (en) Mobile terminal and controlling method thereof
US20240045559A1 (en) Display Method, Electronic Device, Storage Medium, and Program Product

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant