KR20160027849A - 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치 - Google Patents

전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20160027849A
KR20160027849A KR1020140116474A KR20140116474A KR20160027849A KR 20160027849 A KR20160027849 A KR 20160027849A KR 1020140116474 A KR1020140116474 A KR 1020140116474A KR 20140116474 A KR20140116474 A KR 20140116474A KR 20160027849 A KR20160027849 A KR 20160027849A
Authority
KR
South Korea
Prior art keywords
multimedia data
information
electronic device
image
processor
Prior art date
Application number
KR1020140116474A
Other languages
English (en)
Other versions
KR102279674B1 (ko
Inventor
김현경
박완제
박민선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140116474A priority Critical patent/KR102279674B1/ko
Priority to PCT/KR2015/009257 priority patent/WO2016036143A1/ko
Priority to US15/508,263 priority patent/US10691402B2/en
Priority to EP15838272.1A priority patent/EP3190527A4/en
Priority to CN201580047265.XA priority patent/CN106796651A/zh
Publication of KR20160027849A publication Critical patent/KR20160027849A/ko
Application granted granted Critical
Publication of KR102279674B1 publication Critical patent/KR102279674B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

본 발명의 다양한 실시 예는 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치에 관한 것으로, 전자 장치의 멀티미디어 데이터 처리 방법에 있어서, 상기 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하는 동작; 상기 획득된 정보와, 상기 멀티미디어 데이터를 연계하여 저장하는 동작; 및 상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어와 연계하여 오디오로 출력하는 동작을 포함할 수 있다. 또한, 본 발명의 다양한 실시 예는 상술한 실시 예와 다른 실시 예들도 포함한다.

Description

전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치{METHOD FOR PROCESSING MULTIMEDIA DATA AND ELECTRONIC APPARATUS THEREOF}
본 발명의 다양한 실시 예는, 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치에 관한 것이다.
스마트 폰(smart phone) 또는 태블릿(tablet) PC 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 예를 들어, 상기 스마트 폰 등과 같은 전자 장치는, 사진 또는 그림 등과 같은 정지영상과, 영화 또는 애니메이션 등과 같은 동영상의 다양한 멀티미디어 데이터를, 외부로부터 다운로드 받아 저장하거나 카메라로 촬영하여 저장할 수 있다.
상기 전자 장치는, 상기 다양한 멀티미디어 데이터들을 선택하여 스크린 상에 디스플레이 하거나, 외부로 전송할 수 있으며, 상기 다양한 멀티미디어 데이터들 중 어느 하나의 멀티미디어 데이터를, 사용자가 편리하게 선택할 수 있도록 하기 위하여, 사용자 인터페이스(user interface)가 가능한 리스트(list) 화면을 디스플레이 할 수 있다.
예를 들어, 상기 전자 장치는, 각각의 멀티미디어 데이터들을 대표하는 다수의 축소 영상(thumbnail picture)들을 사용자 선택이 가능한 리스트(list) 화면으로 디스플레이할 수 있으며, 사용자는 상기 리스트 화면에 디스플레이된 다수의 축소 영상들 중 임의의 한 축소 영상을 선택하여, 사용자가 원하는 멀티미디어 데이터를 간편하게 선택할 수 있다.
본 발명의 다양한 실시 예는, 예를 들어, 스마트 폰 등과 같은 전자 장치에서, 정지 영상 또는 동영상 등과 같은 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 다양한 정보를, 상기 멀티미디어 데이터의 이미지와 연계하여, 오디오로 출력할 수 있는 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치를 제공한다.
본 발명의 다양한 실시 예는, 예를 들어, 상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 다양한 정보를, 상기 멀티미디어 데이터의 이미지와 중첩하여 디스플레이할 수 있는 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치를 제공한다.
본 발명의 다양한 실시 예는, 예를 들어, 상기 멀티미디어 데이터의 이미지와 중첩하여 디스플레이된 다양한 정보 중 어느 하나 이상이 사용자에 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공할 수 있는 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치를 제공한다.
본 발명의 다양한 실시 예는, 전자 장치의 멀티미디어 데이터 처리 방법에 있어서, 상기 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하는 동작; 상기 획득된 정보와, 상기 멀티미디어 데이터를 연계하여 저장하는 동작; 및 상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어와 연계하여 오디오로 출력하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예는, 전자 장치의 멀티미디어 데이터 처리 방법에 있어서, 상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하는 동작; 및 상기 획득된 정보와, 상기 멀티미디어 데이터와 연계하여 오디오로 출력하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예는, 전자 장치에 있어서, 멀티미디어 데이터를 저장하는 메모리; 및 상기 메모리를 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를 획득하고, 상기 획득된 정보와, 상기 멀티미디어 데이터를 연계하여 저장하고, 상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어 데이터와 연계하여 오디오로 출력할 수 있다.
본 발명의 다양한 실시 예는, 전자 장치에 있어서, 멀티미디어 데이터를 저장하는 메모리; 및 상기 메모리를 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 정보를 획득하고, 상기 획득된 정보를, 상기 멀티미디어 데이터와 연계하여 오디오로 출력할 수 있다.
본 발명의 다양한 실시 예에 따르면, 스마트 폰 등과 같은 전자 장치에서, 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 다양한 정보를, 상기 멀티미디어 데이터와 연계하여, 오디오로 출력함으로써, 사용자가, 상기 멀티미디어 데이터의 영상을 시각적으로 보면서, 다양한 정보를 청각적으로 동시에 청취할 수 있기 때문에, 시각 장애인과 일반 사용자들 모두에게 편의성을 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 다양한 정보를, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이 함으로써, 사용자가 상기 멀티미디어 데이터의 영상과, 상기 다양한 정보를 시각적으로 동시에 볼 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 멀티미디어 데이터의 영상과 중첩하여 디스플레이된 다양한 정보가 사용자에 의해 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공함으로써, 사용자가, 멀티미디어 데이터의 영상을 보던 도중, 원하는 부가 서비스, 예를 들어, 통신 서비스, 일정 관리 서비스, 프로필 검색 서비스 등과 같은 다양한 부가 서비스를 간편하게 이용할 수 있다.
도 1a은 본 발명의 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한 도면이다.
도 1b는 본 발명의 다양한 실시 예에 따른 멀티미디어 인터페이스의 구성을 예시한 도면이다.
도 2는 본 발명의 다양한 실시 예에 따른 전자 장치의 블록 도면이다.
도 3은, 본 발명의 다양한 실시 예에 따른 멀티미디어 데이터 파일의 구성에 대한 예시 도면이다.
도 4는, 본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 인식 동작을 수행하는 과정을 예시한 도면이다.
도 5는, 본 발명의 다양한 실시 예에 따른 전자 장치에서 영상과 관련된 정보를 오디오 및 서브 화면으로 출력하는 예시 도면이다.
도 6은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 영상과 관련된 정보를 오디오 및 말 풍선으로 출력하는 예시 도면이다.
도 7은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 사용자가 선택한 축소 영상에 대한 영상과 관련된 정보를 오디오 및 말 풍선으로 출력하는 예시 도면이다.
도 8은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 여러 사람들이 포함된 영상과 관련된 정보를 오디오 및 말 풍선으로 출력하는 예시 도면이다.
도 9는, 본 발명의 다양한 실시 예에 따른 읽기 우선순위 설정 화면을 예시한 도면이다.
도 10은, 본 발명의 다양한 실시 예에 따른 읽기 소리 설정 화면을 예시한 도면이다.
도 11은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 일정 관리 서비스를 제공하는 과정을 예시한 도면이다.
도 12는, 본 발명의 다양한 실시 예에 따른 전자 장치에서 프로필 검색 서비스를 제공하는 과정을 예시한 도면이다.
도 13a 내지 도 13d는, 본 발명의 다양한 실시 예에 따른 전자 장치의 멀티미디어 데이터 처리 방법에 대한 일 예의 동작 흐름도이다.
도 14는, 본 발명의 다양한 실시 예에 따른 전자 장치의 멀티미디어 데이터 처리 방법에 대한 다른 예의 동작 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 설명한다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시 예 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다. 본 발명의 다양한 실시 예 가운데 “제1,”“제2,”“첫째,”또는“둘째,”등의 표현들이 본 발명의 다양한 실시 예의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들어, 전자 장치는 스마트 폰(smart phone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들어, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 본 발명의 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1a는, 본 발명의 다양한 실시 예에 따른 전자 장치 101을 포함하는 네트워크 환경 100을 도시한 도면이다. 도 1b는, 본 발명의 다양한 실시 예에 따른 멀티미디어 인터페이스 170에 대한 구성의 예시 도면이다.
도 1a을 참조하면, 상기 전자 장치 101은 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 통신 인터페이스 160, 그리고 멀티미디어 인터페이스 170 등을 포함할 수 있다.
도 1b을 참조하면, 상기 멀티미디어 인터페이스 170은, 예를 들어, 정지 영상 또는 동영상 등과 같은 다양한 유형의 멀티미디어 데이터를 기록하거나 또는 재생하기 위해 데이터를 처리하는 데이터 처리부 170a와, 상기 멀티미디어 데이터와 관련된 정보를 오디오로 출력하기 위해 텍스트(text)를 사운드(sound)로 변환하는 TTS(Text To Sound) 변환부 170b와, 상기 멀티미디어 데이터의 영상을 이미지 스캔(image scan)하여 사람 얼굴(face)을 인식하는 얼굴 인식부 170c 등을 포함할 수 있다.
상기 멀티미디어 인터페이스 170의 일부 또는 전부는, 상기 프로세서 120 내에 포함되거나, 별도의 구성으로서, 상기 프로세서 120와 연동될 수 있다.
상기 버스 110은 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다. 상기 프로세서 120은, 예를 들어, 상기 버스 110을 통해 전술한 다른 구성요소들(예: 상기 메모리 130, 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리 130은, 상기 프로세서 120 또는 다른 구성요소들(예: 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160 등)로부터 수신되거나 상기 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 130은, 예를 들어, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들어, 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 131은 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에서 상기 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 132는 상기 API 133 또는 상기 어플리케이션 134이 상기 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 132는 상기 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들어, 상기 어플리케이션 134 중 적어도 하나의 어플리케이션에 상기 전자 장치 101의 시스템 리소스(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케줄링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API 133은 상기 어플리케이션134이 상기 커널 131 또는 상기 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들어, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 어플리케이션 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션 134는 상기 전자 장치 101와 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들어, 상기 알림 전달 어플리케이션은 상기 전자 장치 101의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들어, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들어, 상기 전자 장치 101와 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 어플리케이션 134는 상기 외부 전자 장치(예: 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134는 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134는 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 어플리케이션 134는 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스 140은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들어, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160에 전달할 수 있다. 예를 들어, 상기 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서 120로 제공할 수 있다. 또한, 상기 입출력 인터페이스 140은, 예를 들어, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들어, 상기 입출력 인터페이스 140은 상기 프로세서 120을 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
상기 디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 상기 통신 인터페이스 160은 상기 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들어, 상기 통신 인터페이스 160은 무선통신 또는 유선통신을 통해서 네트워크 162에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선통신은, 예를 들어, WiFi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
본 발명의 한 실시 예에 따르면, 상기 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 상기 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 상기 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
도 2는, 본 발명의 다양한 실시 예에 따른 전자 장치 201의 블록 도면이다. 상기 전자 장치 201은, 예를 들어, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있다. 도 2를 참조하면, 상기 전자 장치 201은 하나 이상의 어플리케이션 프로세서(AP: application processor) 210, 통신 모듈 220, SIM(subscriber identification module) 카드 224, 메모리 230, 센서 모듈 240, 입력 장치 250, 디스플레이 260, 인터페이스 270, 오디오 모듈 280, 카메라 모듈 291, 전력관리 모듈 295, 배터리 296, 인디케이터 297 및 모터 298를 포함할 수 있다.
상기 AP 210은 운영체제 또는 응용 프로그램을 구동하여 상기 AP 210에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 210은, 예를 들어, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 AP 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈220(예: 상기 통신 인터페이스 160)은 상기 전자 장치 201(예: 상기 전자 장치 101)와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 상기 통신 모듈 220은 셀룰러 모듈 221, WiFi 모듈 223, BT 모듈 225, GPS 모듈 227, NFC 모듈 228 및 RF(radio frequency) 모듈 229를 포함할 수 있다.
상기 셀룰러 모듈 221은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 221은, 예를 들어, 가입자 식별 모듈(예: SIM 카드 224)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈 221은 상기 AP 210가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들어, 상기 셀룰러 모듈 221은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
본 발명의 한 실시 예에 따르면, 상기 셀룰러 모듈 221은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 221은, 예를 들어, SoC로 구현될 수 있다. 도 2에서는 상기 셀룰러 모듈 221(예: 커뮤니케이션 프로세서), 상기 메모리 230 또는 상기 전력관리 모듈 295 등의 구성요소들이 상기 AP 210와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, 상기 AP 210가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 221)를 포함하도록 구현될 수 있다.
본 발명의 한 실시 예에 따르면, 상기 AP 210 또는 상기 셀룰러 모듈 221(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 210 또는 상기 셀룰러 모듈 221은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 WiFi 모듈 223, 상기 BT 모듈 225, 상기 GPS 모듈 227 또는 상기 NFC 모듈 228 각각은, 예를 들어, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, WiFi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 221, WiFi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들어, 셀룰러 모듈 221, WiFi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 221에 대응하는 커뮤니케이션 프로세서 및 WiFi 모듈 223에 대응하는 WiFi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 229는 데이터의 송수신, 예를 들어, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 229는, 도시되지는 않았으나, 예를 들어, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 229는 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들어, 도체 또는 도선 등을 더 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, WiFi 모듈 223, BT 모듈 225, GPS 모듈 227 및 NFC 모듈 228이 하나의 RF 모듈 229을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 221, WiFi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 224는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 224는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 230(예: 상기 메모리 130)는 내장 메모리 232 또는 외장 메모리 234를 포함할 수 있다. 상기 내장 메모리 232는, 예를 들어, 휘발성 메모리(예를 들어, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들어, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 상기 내장 메모리 232는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리 234는 flash drive, 예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 234는 다양한 인터페이스를 통하여 상기 전자 장치 201과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 상기 전자 장치 201은 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 240은 물리 량을 계측하거나 전자 장치 201의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 240은, 예를 들어, 제스처 센서 240A, 자이로 센서 240B, 기압 센서 240C, 마그네틱 센서 240D, 가속도 센서 240E, 그립 센서 240F, 근접 센서 240G, color 센서 240H(예: RGB(red, green, blue) 센서), 생체 센서 240I, 온/습도 센서 240J, 조도 센서 240K 또는 UV(ultra violet) 센서 240M중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 240은, 예를 들어, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시), 지문 센서(미도시), 지자기 센서(미도시), 심박수 측정기(미도시) 등을 포함할 수 있다. 상기 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 입력 장치 250은 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256 또는 초음파(ultrasonic) 입력 장치 258를 포함할 수 있다. 상기 터치 패널 252는, 예를 들어, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 검출할 수 있다. 또한, 상기 터치 패널 252는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 검출이 가능하다. 상기 터치 패널 252는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 252는 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 254는, 예를 들어, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 검출용 시트(sheet)를 이용하여 구현될 수 있다. 상기 키 256은, 예를 들어, 물리적인 버튼, 광학식 키 또는 키 패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 258은 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 201에서 마이크(예: 마이크 288)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 검출이 가능하다. 한 실시 예에 따르면, 상기 전자 장치 201은 상기 통신 모듈 220을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 260(예: 상기 디스플레이 150)은 패널 262, 홀로그램 장치 264 또는 프로젝터 266을 포함할 수 있다. 상기 패널 262는, 예를 들어, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 262는, 예를 들어, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 262는 상기 터치 패널 252과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 264는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 266은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들어, 상기 전자 장치 201의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 상기 디스플레이 260은 상기 패널 262, 상기 홀로그램 장치 264, 또는 프로젝터 266를 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 인터페이스 270은, 예를 들어, HDMI(high-definition multimedia interface) 272, USB(universal serial bus) 274, 광 인터페이스(optical interface) 276 또는 D-sub(D-subminiature) 278를 포함할 수 있다. 상기 인터페이스 270은, 예를 들어, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 270은, 예를 들어, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 280은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 280의 적어도 일부 구성요소는, 예를 들어, 도 1에 도시된 입출력 인터페이스 140에 포함될 수 있다. 상기 오디오 모듈280은, 예를 들어, 스피커 282, 리시버 284, 이어폰 286 또는 마이크 288 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 291은, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래시(flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다. 상기 전력관리 모듈 295는 상기 전자 장치 201의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력관리 모듈 295는, 예를 들어, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들어, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들어, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들어, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들어, 상기 배터리 296의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 296은 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 201에 전원을 공급할 수 있다. 상기 배터리 296은, 예를 들어, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 297은 상기 전자 장치 201 혹은 그 일부(예: 상기 AP 210)의 특정 상태, 예를 들어, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 298은 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 201은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들어, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어 플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
이하, 본 발명의 다양한 실시 예에 따른 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치에 대해 상세히 설명한다. 본 발명의 다양한 실시 예에 따른 전자 장치는, 스마트 폰 또는 태블릿 PC 등과 같은 다양한 유형의 전자 장치일 수 있고, 도 1a와 도 1b, 그리고 도 2에 도시된 구성 요소들 중 전체 또는 일부를 포함하여 구성될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치 100은, 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하여, 상기 멀티미디어 데이터와 연계하여 저장하고, 이후, 상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어 데이터와 연계하여 오디오로 출력할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치 100은, 상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득한 후, 상기 획득된 정보를 상기 멀티미디어 데이터와 연계하여 오디오로 출력할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 멀티미디어 데이터와 관련된 정보는, 파일 타입, 날씨, 카테고리, 사람 이름, 밝기 중 적어도 하나를 포함할 수 있고, 상기 사람 이름 정보는, 사람 얼굴 인식 어플리케이션을 실행하여, 상기 멀티미디어 데이터에서 추출된 사람 얼굴 특징 정보와, 상기 전자 장치 내에 저장된 프로필 정보에서 추출된 사람 얼굴 특징 정보에 기반하여 획득될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 저장된 정보는, 상황별 우선 순위에 따라 순서가 변경된 오디오 또는 각 요소들을 조합 및 연결하여 형성된 문장의 오디오 중 적어도 어느 하나로 출력될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치 100은, 상기 멀티미디어 데이터와 관련된 정보를, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이하고, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이 된 정보가 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공할 수 있다.
도 3은, 본 발명의 다양한 실시 예에 따른 멀티미디어 데이터 파일의 구성에 대한 예시 도면이다. 도 3을 참조하면, 상기 멀티미디어 데이터 파일(Multimedia Data File) 300은, 정지 영상 또는 동영상 등과 같은 다양한 유형의 멀티미디어 데이터 301와, 상기 멀티미디어 데이터와 관련된 태그(Tag) 정보 302 등을 포함할 수 있다.
상기 태그 정보 302는, 예를 들어, 속성(attribute) 정보 302a와 부가(additional) 정보 302b 등을 포함할 수 있고, 상기 속성 정보 302a는, 예를 들어, 상기 멀티미디어 데이터의 속성을 나타내기 위한 정보로서, 파일 종류(file type) 302a-1, 밝기(brightness) 302a-2, 또는 카테고리(category) 302a-3 등이 포함될 수 있다.
상기 부가 정보 302b는, 예를 들어, 상기 멀티미디어 데이터의 영상을 부연 설명하기 위한 정보로서, 상기 멀티미디어 데이터 파일 300이 저장된 시점의 날짜(date) 302b-1, 위치(location) 302b-2, 날씨(weather) 302b-3, 또는 상기 멀티미디어 데이터의 영상 내에 포함된 사람 얼굴이 누구(who) 302b-4 인지를 나타내기 위한 사람 이름(name) 등이 포함될 수 있다.
상기 부가 정보 302b는, 예를 들어, 상기 태그 정보 302 내에 포함되거나, 또는 상기 멀티미디어 데이터와 연관된 별도의 로그(log) 정보 등으로서, 전자 장치의 내부 또는 외부에 저장될 수도 있다.
상기 부가 정보 302b는, 예를 들어, 상기 멀티미디어 데이터 파일 300을 저장하는 경우, 상기 전자 장치 100 내의 각 동작 모듈을 통해 획득된 후, 상기 태그 정보 또는 로그 정보에 저장되고, 상기 멀티미디어 데이터 파일 300을 재생하는 경우, 상기 태그 정보 또는 로그 정보에서 검색되어, 상기 멀티미디어 데이터 301의 영상과 함께 오디오(audio)로 재생될 수 있다.
상기 부가 정보 302b는, 상기 멀티미디어 데이터 301의 영상과 함께, 다양한 형태의 서브(sub) 화면 등으로 중첩 표시될 수 있다. 또한, 상기 부가 정보 302b는, 상기 속성 정보 302a와 함께 오디오로 출력되거나, 상기 서브 화면 등으로 중첩 표시될 수 있다.
상기 전자 장치 100은, 사용자가, 상기 중첩 표시된 임의의 한 속성 정보 또는 부가 정보를 선택하면, 상기 선택된 정보에 따라, 통신 서비스, 일정 관리 서비스, 또는 프로필 검색 서비스 등과 같은 다양한 부가 서비스를 제공할 수 있다.
도 4는, 본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 인식 동작을 수행하는 과정을 예시한 도면이다. 예를 들어, 상기 전자 장치 100의 프로세서 120은, 이미지 스캔(image scan) 동작을 통해 사람 얼굴을 인식할 수 있는 얼굴 인식 어플리케이션(face recognition application)을 탑재 및 실행시킬 수 있다.
상기 얼굴 인식 어플리케이션은, 멀티미디어 데이터의 영상에 대해 이미지 스캔 동작을 수행하여, 상기 영상에 포함된 사람 얼굴의 특징 정보를 추출할 수 있다.
상기 얼굴 인식 어플리케이션은, 예를 들어, 상기 전자 장치 100 내에 연락처(contact) 정보로서 저장되어 있는 여러 사람들의 프로필(profile) 정보로부터 각각의 이미지(예: 사진)들을 검색한 후, 이미지 스캔 동작을 수행하여, 상기 각각의 이미지들에 포함된 사람 얼굴의 특징 정보를 추출할 수 있다.
상기 프로세서 120은, 상기와 같이 각각 추출된 사람 얼굴의 특징 정보를 비교하여, 상기 멀티미디어 데이터의 영상에 포함된 사람과 일치 또는 유사한 사람의 이름(name)을, 상기 프로필 정보로부터 검색한 후, 상기 멀티미디어 데이터 파일의 태그 정보 등에 부가 정보로서 연계 저장할 수 있다.
도 4을 참조하면, 상기 얼굴 인식 어플리케이션이 실행되어, 상기 멀티미디어 데이터의 영상 400에 대한 이미지 스캔 동작이 수행되면, 상기 영상에 포함된 사람 얼굴, 예를 들어, 도 4의 남자 얼굴에는, 제1 인디케이터(indicator) 400a가 중첩 표시되고, 도 4의 여자 얼굴에는, 제2 인디케이터 400b가 중첩 표시될 수 있다.
그리고, 도 4의 연락처 정보 410에는, 상기 제1 인디케이터 400a가 중첩 표시된 남자의 사진과 이름(예: Tom)이 포함된 프로필 정보 410a와, 상기 제2 인디케이터 400b가 중첩 표시된 여자 사진과 이름(예: Alice)이 포함된 프로필 정보 410b 등이 리스트 형태로 포함될 수 있다.
따라서, 상기 프로세서 120은, 상기 영상 400에서 추출된 얼굴 특징 정보와, 상기 프로필 정보 410에서 추출된 얼굴 특징 정보를 비교하여, 서로 일치 또는 유사한 특정 사람의 이름(예: Tom, Alice)를 검색하고, 상기 검색된 특정 사람의 이름을 부가 정보로서 저장할 수 있다.
도 5는, 본 발명의 다양한 실시 예에 따른 전자 장치에서 영상과 관련된 정보를 오디오 및 서브 화면으로 출력하는 예시 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 상기 멀티미디어 데이터 파일 300을 재생하는 경우, 상기 멀티미디어 데이터 301의 영상을 디스플레이 함은 물론, 상기 멀티미디어 데이터 파일 300의 태그 정보 302에 포함된 속성 정보 302a와 부가 정보 302b 등을 오디오(audio)로 출력하여, 상기 멀티미디어 데이터의 영상과 함께 연계하여 소리 음으로 출력할 수 있다.
또한, 상기 프로세서 120은, 상기 속성 정보와 부가 정보 중 적어도 어느 하나 이상을 신호 처리하여, 다양한 형태의 서브(sub) 화면 등을 생성한 후, 상기 서브 화면을 상기 멀티미디어 데이터의 영상에 중첩 표시할 수 있다.
도 5을 참조하면, 상기 프로세서 120은, 상기 멀티미디어 데이터 파일 300을 재생하여, 남자 얼굴과 여자 얼굴이 포함된 영상 500을 디스플레이할 수 있고, 상기 멀티미디어 데이터 파일 300의 태그 정보 300b에서 속성 정보 302a와 부가 정보 302b를 추출하여, 오디오로 출력할 수 있다.
여기서 상기 영상 500이 디스플레이되는 화면에는, 상기 오디오가 출력되고 있음을 나타내는 스피커 형상의 아이콘 501이 중첩 표시될 수 있고, 상기 오디오는, 예를 들어, 상기 태그 정보에서 추출된 파일 종류, 사진, 날짜, 위치, 날씨, 카테고리, 사람 이름, 또는 밝기 등을, 사용자가 선택하거나 또는 사전에 정해진 순서와 억양 또는 발음 등에 맞는 목소리로 읽어주는 오디오일 수 있다.
또한, 상기 영상 500에는, 예를 들어, 파일 종류, 사진, 날짜, 위치, 날씨, 카테고리, 사람 이름, 또는 밝기 등을 시각적으로 디스플레이하기 위한 서브 화면 502이 중첩 표시될 수 있다.
여기서, 상기 서브 화면 502는, 사용자가 선택하거나 또는 사전에 정해진 밝기와 투명도 또는 색상 등으로 다양하게 디스플레이될 수 있고, 상기 오디오와 서로 연동하여 함께 출력되거나, 또는 상기 오디오와는 별개로 출력될 수도 있다.
도 6은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 영상과 관련된 정보를 오디오 및 말 풍선으로 출력하는 예시 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 상기 멀티미디어 데이터 파일 300을 재생하는 경우, 상기 멀티미디어 데이터 301의 영상을 디스플레이 함은 물론, 상기 영상에 대한 이미지 스캔 동작을 수행하여, 사람 얼굴을 인식할 수 있다.
상기 프로세서 120은, 상기 영상과 관련된 정보를 오디오 및 말 풍선 등으로 출력할 수 있다. 도 6을 참조하면, 상기 프로세서 120은, 상기 영상 600에 대한 이미지 스캔 동작을 수행하여, 상기 영상 600에 포함된 남자 얼굴과 여자 얼굴이 인식할 수 있다.
상기 프로세서 120은, 상기 남자 얼굴에 제1 인디케이터 600a을 중첩 표시하고, 상기 여자 얼굴에, 제2 인디케이터 600b을 중첩 표시할 수 있으며, 상기 영상 600에 관련된 속성 정보와 부가 정보를 오디오로 출력하여 소리 음으로 출력할 수 있다.
상기 프로세서 120은, 상기 오디오가 출력 중임을 나타내는 스피커 형상의 아이콘 601c과, 상기 남자 얼굴의 주변에 남자 이름(예: Tom)을 나타내는 말 풍선 610a과, 상기 여자 얼굴의 주변에 여자 이름(예: Alice)을 나타내는 말 풍선 610b 등을, 상기 영상 600에 중첩 표시할 수 있다.
여기서, 상기 아이콘 610c과 말 풍선 610a, 610b 등은, 사용자가 선택하거나 또는 사전에 정해진 형상, 투명도, 색상, 밝기 등으로 다양하게 중첩 표시될 수 있다.
도 7은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 사용자가 선택한 축소 영상에 대한 영상과 관련된 정보를 오디오 및 말 풍선으로 출력하는 예시 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 상기 전자 장치 100 내에 저장된 여러 사진들을 다수의 축소(thumbnail) 영상들로 디스플레이할 수 있다.
도 7을 참조하면, 상기 프로세서 120은, 사용자가 임의의 한 축소 영상 700을 선택하면, 상기 축소 영상에 해당하는 사진 이미지 710을 화면에 디스플레이하고, 상기 디스플레이된 사진 이미지와 관련된 정보 720을 검색한 후, 상기 정보를 오디오와 말 풍선 등으로 다양하게 출력할 수 있다.
상기 화면에 디스플레이되는 사진 이미지 710에는, 스피커 형상의 아이콘 710a과, 인디케이터들 710b, 710c, 그리고 사람 이름을 나타내는 말 풍선 710d 등이 중첩 표시될 수 있다.
여기서, 상기 오디오는, 예를 들어, 파일 종류, 날짜, 위치, 날씨, 카테고리, 사람 이름, 그리고 밝기 등과 같은 다양한 정보를 읽어주는 소리 음으로서, 만일 얼굴이 인식되지 않았거나, 이름을 알 수 없는 사람이 존재하는 경우, 예를 들어, “지나(Jina) 이외에 1 명이 있습니다” 등으로 읽어주는 소리 음이 출력될 수 있다.
도 8은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 여러 사람들이 포함된 영상과 관련된 정보를 오디오 및 말 풍선으로 출력하는 예시 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 여러 사람들이 포함된 사진 이미지 등과 같은 영상을 디스플레이하는 경우, 상기 여러 사람들의 이름을, 사용자가 선택하거나 또는 사전에 정해진 순서 및 방식 등으로 다양하게 읽어줄 수 있다.
도 8을 참조하면, 상기 프로세서 120은, 예를 들어, 5 명의 사람들이 포함된 사진 이미지를 영상 800으로 디스플레이하는 경우, 상기 5 명의 사람 얼굴에 각각 인디케이터들을 중첩 표시하고, 상기 5 명의 사람 이름을 말 풍선 810a~ 810e으로 중첩 표시할 수 있다.
상기 프로세서 120은, 상기 영상 800에 스피커 형상의 아이콘 801을 중첩 표시하고, 상기 영상에 관련된 정보를 오디오를 출력할 수 있다. 여기서, 상기 5 명의 사람 이름(예: Tom, Alice, Dad, Mom, John)을, 사용자가 선택하거나 또는 사전에 정해진 순서 및 방식 등으로 다양하게 읽어줄 수 있다.
예를 들어, 상기 전자 장치 100의 소유자인 사용자 본인을 기준으로, 가까운 위치에 있는 사람의 이름을 우선적으로 읽어주거나, 상기 사용자 본인을 기준으로 특정 방향(예: 시계 방향, 반시계 방향 등)에 있는 사람의 이름을 우선적으로 읽어줄 수 있다.
또한, 얼굴 크기가 가장 크게 인식된 순서대로 사람의 이름을 우선적으로 읽어주거나, 가족, 친구, 동료 등과 같은 친밀도를 기준으로 정해진 사람들의 이름을 우선적으로 읽어줄 수 있다.
도 9는, 본 발명의 다양한 실시 예에 따른 읽기 우선순위 설정 화면을 예시한 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 영상 내에 포함된 여러 사람들의 이름을 오디오로 읽어주는 경우, 사용자가 선택하거나 또는 사전에 정해진 우선순위에 따라 다양하게 읽어줄 수 있다.
도 9을 참조하면, 상기 프로세서 120은, 사용자 선택 메뉴 화면 중 하나로서, 예를 들어, 읽기 우선순위 설정(reading priority setting) 화면 900을 디스플레이할 수 있다. 상기 읽기 우선순위 설정 화면 900에는, 다양한 사용자 선택 항목들이 포함될 수 있다. 예를 들어, 본인, 가족, 친구/종료, 최근 연락 회수, 방향 기준, 거리 기준, 얼굴 크기 기준 등과 같은 다양한 선택 항목들 901a~901h 이 포함될 수 있다.
사용자는, 예를 들어, 상기 읽기 우선순위 설정 화면을 통해, 본인을 제1 순위, 가족을 제2 순위, 친구/동료를 제3 순위, 얼굴 크기 기준을 제4 순위, 그리고 방향 기준을 제5 순위로 설정할 수 있다. 이 경우, 상기 프로세서 120은, 상기 여러 사람들의 이름을, 상기 우선순위에 맞추어 오디오로 읽어줄 수 있다.
여기서, 상기 프로세서 120은, 전자 장치 내에서 저장 관리하고 있는 연락처(contact) 정보 또는 소셜 네트워크 서비스(SNS) 정보 등의 각종 프로필 정보 등을 참조하여, 상기 여러 사람들의 이름을, 본인, 가족, 친구/동료 등을 판별할 수 있다.
도 10은, 본 발명의 다양한 실시 예에 따른 읽기 소리 설정 화면을 예시한 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 영상 내에 포함된 여러 사람들의 이름을 오디오로 읽어주는 경우, 사용자가 선택하거나 또는 사전에 정해진 목소리, 억양, 속도 등을 다양하게 읽어줄 수 있다.
도 10을 참조하면, 상기 프로세서 120은, 사용자 선택 메뉴 화면 중 하나로서, 예를 들어, 읽기 사운드 설정(reading sound setting) 화면 1000을 디스플레이할 수 있다. 상기 읽기 사운드 설정 화면 1000에는, 다양한 사용자 선택 항목들이 포함될 수 있다. 예를 들어, 남자 목소리, 여자 목소리, 문어체, 구어체, 표준어, 사투리, 말 속도 등과 같은 다양한 선택 항목들 1001a~1001h 이 포함될 수 있다.
사용자는, 예를 들어, 상기 읽기 사운드 설정 화면 1000을 통해, 남자 목소리, 구어체, 표준어를 읽기 사운드로 설정할 수 있다. 이 경우, 상기 프로세서 120은, 상기 영상과 관련된 정보를, 상기 남자 목소리, 구어체, 표준어의 조건을 만족하는 소리 음으로 다양하게 읽어줄 수 있다.
도 11은, 본 발명의 다양한 실시 예에 따른 전자 장치에서 일정 관리 서비스를 제공하는 과정을 예시한 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 상기 영상 1100을 디스플레이하는 경우, 스피커 형상의 아이콘 1101과, 상기 영상과 관련된 정보를 서브 화면 1102 등으로 중첩 표시할 수 있으며, 상기 영상에 중첩 표시된 임의의 한 정보가, 사용자에 의해 선택되면, 상기 선택된 정보에 상응하는 다양한 부가 서비스를 제공할 수 있다.
도 11을 참조하면, 상기 프로세서 120은, 상기 영상 1100에 중첩 표시된 정보 중, 사용자가 날짜(date) 정보를 선택하면, 상기 선택된 날짜가 디스플레이되는 스케줄 플래너(schedule planner)를 디스플레이 하여, 사용자가 일정 관리 서비스를 보다 간편하게 이용할 수 있다.
여기서, 상기 영상에 중첩 표시되는 날짜 정보는, 예를 들어, 사용자가 터치(touch) 동작을 통해 간편하게 선택할 수 있으며, 상기 스케줄 플래너와의 연계를 위한 링크(link) 정보 등을 포함할 수 있다.
도 12는, 본 발명의 다양한 실시 예에 따른 전자 장치에서 프로필 검색 서비스를 제공하는 과정을 예시한 도면이다. 상기 전자 장치 100의 프로세서 120은, 예를 들어, 상기 영상 1200을 디스플레이하는 경우, 스피커 형상의 아이콘 1201과, 상기 영상과 관련된 정보를 서브 화면 1202 등으로 중첩 표시할 수 있으며, 상기 영상에 중첩 표시된 임의의 한 정보가, 사용자에 의해 선택되면, 상기 선택된 정보에 상응하는 다양한 부가 서비스를 제공할 수 있다.
도 12을 참조하면, 상기 프로세서 120은, 상기 영상 1200에 중첩 표시된 정보 중, 사용자가 사람 이름(date) 정보를 선택하면, 상기 선택된 이름이 디스플레이되는 연락처(contact) 1210의 프로필(profile) 정보 1210를 디스플레이 하여, 사용자가 프로필 검색 서비스를 보다 간편하게 이용할 수 있다.
여기서, 상기 영상에 중첩 표시되는 이름 정보는, 예를 들어, 사용자가 터치(touch) 동작을 통해 간편하게 선택할 수 있으며, 상기 프로필과의 연계를 위한 링크(link) 정보 등을 포함할 수 있다. 상기 사용자는, 상기 프로필에 연계된 전화 번호 등을 이용하여, 통화 서비스, 문자 메시지 서비스(SMS), 또는 소셜 네트워크 서비스(SNS) 등의 다양한 통신 서비스를 간편하게 이용할 수 있다.
도 13a 내지 도 13d는, 본 발명의 다양한 실시 예에 따른 전자 장치의 멀티미디어 데이터 처리 방법에 대한 동작 흐름도이다. 도 1a 및 도 1b을 참조로 전술한 바와 같이, 상기 멀티미디어 인터페이스 170에 포함된 데이터 처리부 170a와, 상기 TTS 변환부 170b, 그리고 상기 얼굴 인식부 170c 중 일부 또는 전부는, 상기 프로세서 120에 포함되거나, 또는 별도의 구성으로서, 상기 프로세서 120과 연동될 수 있다. 본 발명의 다양한 실시 예의 하나로서, 상기 멀티미디어 인터페이스 170가 상기 프로세서 120에 포함된 경우를 예로 들어 상세히 설명한다.
도 13a을 참조하면, 상기 프로세서 120은, 동작 1300에서, 멀티미디어 데이터를 저장하는 경우, 예를 들어, 정지 영상 또는 동영상 등의 멀티미디어 데이터를 외부로부터 다운로드 받아 저장하거나, 피사체를 카메라로 촬영하여 멀티미디어 데이터로 저장할 수 있다.
상기 프로세서 120은, 동작 1301에서, 상기 멀티미디어 데이터와 관련된 다양한 부가(additional) 정보를 획득할 수 있고, 동작 1302에서, 상기 획득된 부가 정보를 상기 멀티미디어 데이터의 속성(attribute) 정보와 연계하여 저장할 수 있다.
예를 들어, 상기 프로세서 120은, 상기 부가 정보의 획득에 장시간이 소요되면, 상기 멀티미디어 데이터를 먼저 저장하고, 이후, 상기 저장된 멀티미디어 데이터와 관련된 부가 정보가 획득되면, 상기 멀티미디어 데이터의 속성 정보와 상기 부가 정보를 연계하여 저장할 수 있다. 여기서, 상기 부가 정보를 획득하는 동작은, 상기 전자 장치가 아이들(idle) 상태가 되었을 때 수행될 수도 있다.
반면, 상기 부가 정보의 획득에 장시간이 소요되지 않으면, 상기 부가 정보를 획득하여, 상기 멀티미디어 데이터의 저장과 함께, 상기 멀티미디어 데이터의 속성 정보와 상기 부가 정보를 연계하여 저장할 수도 있다.
상기 프로세서 120은, 이후, 동작 1303에서, 상기 멀티미디어 데이터를 선택하는 경우, 동작 1304에서, 상기 멀티미디어 데이터의 속성 정보와, 상기 속성 정보에 연계 저장된 부가 정보를 검색하고, 동작 1305에서, 상기 검색된 속성 정보와 부가 정보를 오디오로 출력할 수 있다.
즉, 상기 프로세서 120은, 상기 멀티미디어 데이터를 선택하는 동안, 상기 멀티미디어 데이터의 속성 정보와 부가 정보 중 어느 하나 이상을 오디오로 함께 재생하여 출력함으로써, 사용자가, 멀티미디어 데이터의 재생 이미지 등을 보면서, 동시에 관련된 다양한 정보를 오디오로 청취할 수 있게 된다. 이하, 상기 멀티미디어 데이터와 관련된 부가 정보를 획득하는 동작 1301에 대해 상세히 설명한다.
도 13b를 참조하면, 상기 프로세서 120은, 동작 1301a에서, 상기 전자 장치 100의 스크린 상에 표시된 현재 시간(time) 정보를 획득하고, 동작 1301b에서, 상기 전자 장치 100의 현재 위치(location) 정보를 획득하고, 동작 1301c에서, 현재의 날씨(weather) 정보를 획득할 수 있다.
예를 들어, 상기 프로세서 120은, 도 2의 통신 모듈 200 내에 포함된 GPS 모듈, WiFi 모듈, BT 모듈, 또는 셀룰러 모듈 중 적어도 어느 하나 이상을 이용하여, 상기 전자 장치 100의 현재 위치 정보와 현재 날씨 정보 등을 획득할 수 있다.
상기 프로세서 120은, 동작 1301d에서, 상기 멀티미디어 데이터의 이미지에 포함된 사람의 얼굴(face)을 인식하고, 상기 인식된 얼굴에 대응되는 사람 이름(name) 정보를 획득할 수 있다. 이하, 상기 사람 이름 정보를 획득하는 동작 1301d에 대해 상세히 설명한다.
도 13c를 참조하면, 상기 프로세서 120은, 동작 1301d-1에서, 이미지 스캔(image scan) 동작을 통해, 사람 얼굴(face)을 인식하는 어플리케이션을 실행시키고, 동작 1301d-2에서, 상기 어플리케이션을 통해 멀티미디어 데이터의 이미지에서 사람 얼굴 특징 정보를 추출할 수 있다.
상기 프로세서 120은, 동작 1301d-3에서, 상기 전자 장치 내에 이미 저장된 정보, 예를 들어, 연락처(contacts)의 프로필(profile) 정보에 포함된 사진에 대한 이미지 스캔 동작을 통해, 사람 얼굴 특징 정보를 추출할 수 있다.
상기 프로세서 120은, 동작 1301d-4에서, 상기 각각 추출된 사람 얼굴 특징 정보를 비교하여 일치 또는 유사한 사람 얼굴 특징 정보가 존재하는 경우, 동작 1301d-5에서, 상기 일치 또는 유사한 사람의 이름을, 상기 프로필 정보에서 추출할 수 있다. 이하, 상기 속성 정보와 부가 정보를 오디오 출력하는 동작 1305 이후에 대해 상세히 설명한다.
도 13d를 참조하면, 상기 프로세서 120은, 동작 1306에서, 상기 속성 정보와 부가 정보 중 어느 하나 이상을 서브 화면으로 생성하여, 상기 멀티미디어 데이터의 이미지에 중첩 표시할 수 있다.
상기 프로세서 120은, 동작 1307에서, 상기 중첩 표시된 속성 정보 또는 부가 정보를 사용자가 선택하면, 동작 1308에서, 상기 선택된 정보에 연계된 부가 서비스를 제공할 수 있다,
예를 들어, 상기 프로세서 120은, 상기 중첩 표시된 정보 중, 사용자가 날짜(date) 정보를 선택하면, 상기 날짜가 포함된 스케줄 플래너를 디스플레이 하여, 사용자에게 일정 관리 서비스를 제공하고, 사용자가 이름(name) 정보를 선택하면, 상기 이름이 포함된 프로필 정보를 디스플레이 하여, 사용자에게 프로필 검색 서비스 등을 제공할 수 있다.
도 14는, 본 발명의 다양한 실시 예에 따른 전자 장치의 멀티미디어 데이터 처리 방법에 대한 다른 예의 동작 흐름도이다. 도 14을 참조하면, 상기 프로세서 120은, 동작 1400에서, 멀티미디어 데이터를 선택하는 경우, 예를 들어, 정지 영상 또는 동영상 등의 멀티미디어 데이터를 외부로부터 다운로드 받아 재생하거나, 피사체를 카메라로 촬영하여 멀티미디어 데이터를 선택할 수 있다.
상기 프로세서 120은, 동작 1401에서, 상기 멀티미디어 데이터와 관련된 다양한 부가(additional) 정보를 획득할 수 있다. 예를 들어, 상기 프로세서 120은, 도 2의 통신 모듈 200 내에 포함된 GPS 모듈, WiFi 모듈, BT 모듈, 셀룰러 모듈 중 적어도 어느 하나 이상을 이용하여, 상기 전자 장치 100의 현재 위치 정보와 현재 날씨 정보를 획득할 수 있다.
상기 프로세서 120은, 예를 들어, 상기 멀티미디어 데이터의 이미지에 포함된 사람의 얼굴(face)을 인식하고, 상기 인식된 얼굴에 대응되는 사람 이름(name) 정보를 획득할 수 있다. 상기 프로세서 120은, 동작 1402에서, 상기 획득된 부가 정보, 또는 상기 멀티미디어 데이터 파일에서 속성 정보와 부가 정보를 검색하고, 동작 1403에서, 상기 속성 정보와 부가 정보를 오디오로 출력할 수 있다.
즉, 상기 프로세서 120은, 상기 멀티미디어 데이터를 선택하는 동안, 상기 멀티미디어 데이터의 속성 정보와 부가 정보 중 어느 하나 이상을 오디오로 함께 재생하여 출력함으로써, 사용자가, 멀티미디어 데이터의 재생 이미지 등을 보면서, 동시에 관련된 다양한 정보를 오디오로 청취할 수 있게 된다.
본 발명의 다양한 실시 예의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(Implemented) 수 있다. 소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(Device) 내의 하나 이상의 프로세서 120에 의해 실행 가능하도록 구성된다(Configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 발명의 다양한 실시 예의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(Instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (Random Access Memory), 플래시(Flash) 메모리를 포함하는 비휘발성(Non-Volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(Magnetic Disc Storage Device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), DVD(Digital Video Disk) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(Magnetic Cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(Access)할 수 있는 부착 가능한(Attachable) 저장 장치(Storage Device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 발명의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 발명의 실시 예를 수행하는 장치에 접속할 수도 있다.
상술한 본 발명의 다양한 실시 예의 구체적인 실시 예들에서, 발명에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 발명의 다양한 실시 예가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편, 본 발명의 다양한 실시 예의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 다양한 실시 예의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 다양한 실시 예의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
100: 네트워크 환경 101: 전자 장치
104: 전자 장치 106: 서버
110: 버스 120: 프로세서
130: 메모리 140: 입출력 인터페이스
150: 디스플레이 160: 통신 인터페이스
162: 네트워크 170: 멀티미디어 인터페이스

Claims (21)

  1. 전자 장치의 멀티미디어 데이터 처리 방법에 있어서,
    상기 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하는 동작;
    상기 획득된 정보와, 상기 멀티미디어 데이터를 연계하여 저장하는 동작; 및
    상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어와 연계하여 오디오로 출력하는 동작을 포함하는 방법.
  2. 제1항에 있어서,
    상기 멀티미디어 데이터와 관련된 정보는, 파일 타입, 날씨, 카테고리, 사람 이름, 밝기 중 적어도 하나를 포함하고,
    상기 사람 이름은, 사람 얼굴 인식 어플리케이션을 실행하여, 상기 멀티미디어 데이터에서 추출된 사람 얼굴 특징 정보와, 상기 전자 장치 내에 저장된 프로필 정보에서 추출된 사람 얼굴 특징 정보에 기반하여 획득되는 방법.
  3. 제1항에 있어서,
    상기 저장된 정보는, 상황별 우선 순위에 따라 순서가 변경된 오디오 또는 다수의 요소들을 조합 및 연결하여 형성된 문장의 오디오 중 적어도 어느 하나로 출력되는 방법.
  4. 제1항에 있어서,
    상기 저장된 정보를, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이하는 동작을 더 포함하는 방법.
  5. 제4항에 있어서,
    상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이 된 정보가 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공하는 동작을 더 포함하는 방법.
  6. 전자 장치의 멀티미디어 데이터 처리 방법에 있어서,
    상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하는 동작; 및
    상기 획득된 정보와, 상기 멀티미디어 데이터와 연계하여 오디오로 출력하는 동작을 포함하는 방법.
  7. 제6항에 있어서,
    상기 멀티미디어 데이터와 관련된 정보는, 파일 타입, 날씨, 카테고리, 사람 이름, 밝기 중 적어도 하나를 포함하고,
    상기 사람 이름은, 사람 얼굴 인식 어플리케이션을 실행하여, 상기 멀티미디어 데이터에서 추출된 사람 얼굴 특징 정보와, 상기 전자 장치 내에 저장된 프로필 정보에서 추출된 사람 얼굴 특징 정보에 기반하여 획득되는 방법.
  8. 제7항에 있어서,
    상기 저장된 정보는, 상황별 우선 순위에 따라 순서가 변경된 오디오 또는 다수의 요소들을 조합 및 연결하여 형성된 문장의 오디오 중 적어도 어느 하나로 출력되는 방법.
  9. 제6항에 있어서,
    상기 멀티미디어 데이터와 관련된 정보를, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이하는 동작을 더 포함하는 방법.
  10. 제9항에 있어서,
    상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이 된 정보가 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공하는 동작을 더 포함하는 방법.
  11. 전자 장치에 있어서,
    멀티미디어 데이터를 저장하는 메모리; 및
    상기 메모리를 제어하는 프로세서를 포함하되,
    상기 프로세서는,
    상기 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를 획득하고,
    상기 획득된 정보와, 상기 멀티미디어 데이터를 연계하여 저장하고,
    상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어 데이터와 연계하여 오디오로 출력하는 장치.
  12. 제11항에 있어서,
    상기 멀티미디어 데이터와 관련된 정보는, 파일 타입, 날씨, 카테고리, 사람 이름, 밝기 중 적어도 하나를 포함하고,
    상기 사람 이름은, 사람 얼굴 인식 어플리케이션을 실행하여, 상기 멀티미디어 데이터에서 추출된 사람 얼굴 특징 정보와, 상기 전자 장치 내에 저장된 프로필 정보에서 추출된 사람 얼굴 특징 정보에 기반하여 획득되는 장치.
  13. 제11항에 있어서,
    상기 저장된 정보는, 상황별 우선 순위에 따라 순서가 변경된 오디오 또는 다수의 요소들을 조합 및 연결하여 형성된 문장의 오디오 중 적어도 어느 하나로 출력되는 장치.
  14. 제11항에 있어서,
    상기 프로세서는, 상기 저장된 정보를, 상기 멀티미디어 데이터의 영상과 중첩하여 디스플레이하는 장치.
  15. 제14항에 있어서,
    상기 프로세서는, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이 된 정보가 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공하는 장치.
  16. 전자 장치에 있어서,
    멀티미디어 데이터를 저장하는 메모리; 및
    상기 메모리를 제어하는 프로세서를 포함하되,
    상기 프로세서는,
    상기 멀티미디어 데이터를 선택하는 경우, 상기 멀티미디어 데이터와 관련된 정보를 획득하고,
    상기 획득된 정보를, 상기 멀티미디어 데이터와 연계하여 오디오로 출력하는 장치.
  17. 제16항에 있어서,
    상기 멀티미디어 데이터와 관련된 정보는, 파일 타입, 날씨, 카테고리, 사람 이름, 밝기 중 적어도 하나를 포함하고,
    상기 사람 이름은, 사람 얼굴 인식 어플리케이션을 실행하여, 상기 멀티미디어 데이터에서 추출된 사람 얼굴 특징 정보와, 상기 전자 장치 내에 저장된 프로필 정보에서 추출된 사람 얼굴 특징 정보에 기반하여 획득되는 장치
  18. 제16항에 있어서,
    상기 저장된 정보는, 상황별 우선 순위에 따라 순서가 변경된 오디오 또는 다수의 요소들을 조합 및 연결하여 형성된 문장의 오디오 중 적어도 어느 하나로 출력되는 방법.
  19. 제16항에 있어서,
    상기 프로세서는, 상기 멀티미디어 데이터와 관련된 정보를, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이하는 장치.
  20. 제19항에 있어서,
    상기 프로세서는, 상기 멀티미디어 데이터의 영상에 중첩하여 디스플레이 된 정보가 선택되면, 상기 선택된 정보와 관련된 부가 서비스를 제공하는 장치.
  21. 전자 장치에서, 멀티미디어 데이터를 저장하는 경우, 상기 멀티미디어 데이터와 관련된 정보를, 상기 전자 장치에서 획득하는 동작; 상기 획득된 정보와, 상기 멀티미디어 데이터를 연계하여 저장하는 동작; 및 상기 멀티미디어 데이터를 선택하는 경우, 상기 저장된 정보를, 상기 멀티미디어와 연계하여 오디오로 출력하는 동작을 포함하는 방법을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체.
KR1020140116474A 2014-09-02 2014-09-02 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치 KR102279674B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140116474A KR102279674B1 (ko) 2014-09-02 2014-09-02 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치
PCT/KR2015/009257 WO2016036143A1 (ko) 2014-09-02 2015-09-02 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치
US15/508,263 US10691402B2 (en) 2014-09-02 2015-09-02 Multimedia data processing method of electronic device and electronic device thereof
EP15838272.1A EP3190527A4 (en) 2014-09-02 2015-09-02 Multimedia data processing method of electronic device and electronic device thereof
CN201580047265.XA CN106796651A (zh) 2014-09-02 2015-09-02 电子设备的多媒体数据处理方法及其电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140116474A KR102279674B1 (ko) 2014-09-02 2014-09-02 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20160027849A true KR20160027849A (ko) 2016-03-10
KR102279674B1 KR102279674B1 (ko) 2021-07-20

Family

ID=55440103

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140116474A KR102279674B1 (ko) 2014-09-02 2014-09-02 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치

Country Status (5)

Country Link
US (1) US10691402B2 (ko)
EP (1) EP3190527A4 (ko)
KR (1) KR102279674B1 (ko)
CN (1) CN106796651A (ko)
WO (1) WO2016036143A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019146942A1 (ko) * 2018-01-26 2019-08-01 삼성전자주식회사 전자 장치 및 그의 제어방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200257596A1 (en) 2005-12-19 2020-08-13 Commvault Systems, Inc. Systems and methods of unified reconstruction in storage systems
US10540516B2 (en) 2016-10-13 2020-01-21 Commvault Systems, Inc. Data protection within an unsecured storage environment
KR102511720B1 (ko) * 2017-11-29 2023-03-20 삼성전자주식회사 360 비디오에서 화자의 음성을 시각적으로 표시하기 위한 장치 및 방법
KR102441407B1 (ko) * 2017-12-14 2022-09-07 한국전자통신연구원 스마트 글라스를 이용한 발화자 선택 장치 및 방법
CN109803050B (zh) * 2019-01-14 2020-09-25 南京点明软件科技有限公司 一种适用于盲人操作手机的全屏引导点击方法
CN110427805B (zh) * 2019-06-20 2024-03-19 平安科技(深圳)有限公司 视频显示方法、装置、计算机设备和存储介质
JP7467999B2 (ja) 2020-03-10 2024-04-16 セイコーエプソン株式会社 スキャンシステム、プログラム、およびスキャンシステムのスキャンデータ生成方法
CN111814885B (zh) * 2020-07-10 2021-06-22 云从科技集团股份有限公司 一种管理图像框的方法、系统、设备及介质
CN111882582B (zh) * 2020-07-24 2021-10-08 广州云从博衍智能科技有限公司 一种图像跟踪关联方法、系统、设备及介质
CN112347273A (zh) * 2020-11-05 2021-02-09 北京字节跳动网络技术有限公司 音频播放方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611830B2 (en) * 1998-02-12 2003-08-26 Hitachi, Ltd. Information search method and system for registering and searching for associated multimedia data using embedded information
US6629107B1 (en) * 1999-09-22 2003-09-30 Kabushiki Kaisha Toshiba Multimedia information collection control apparatus and method
KR20070019295A (ko) * 2005-08-12 2007-02-15 주식회사 인프라밸리 이동통신 가입자를 위한 립싱크 서비스 제공 방법 및 이를위한 시스템
KR20090105531A (ko) * 2008-04-03 2009-10-07 슬림디스크 주식회사 카메라센서로 찍은 문서 이미지를 시각장애인에게 음성으로알려주는 방법 및 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7194148B2 (en) 2001-09-07 2007-03-20 Yavitz Edward Q Technique for providing simulated vision
US7743347B2 (en) * 2001-11-19 2010-06-22 Ricoh Company, Ltd. Paper-based interface for specifying ranges
KR101513616B1 (ko) 2007-07-31 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 영상정보 관리방법
US20110066438A1 (en) 2009-09-15 2011-03-17 Apple Inc. Contextual voiceover
KR101598632B1 (ko) 2009-10-01 2016-02-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 이동 단말기 및 그의 태그 편집 방법
US20120039513A1 (en) * 2010-08-11 2012-02-16 Sony Corporation Leveraging social networking for media sharing
US8792684B2 (en) * 2011-08-11 2014-07-29 At&T Intellectual Property I, L.P. Method and apparatus for automated analysis and identification of a person in image and video content
KR101861698B1 (ko) * 2011-08-18 2018-05-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US20130129142A1 (en) * 2011-11-17 2013-05-23 Microsoft Corporation Automatic tag generation based on image content
US9317531B2 (en) 2012-10-18 2016-04-19 Microsoft Technology Licensing, Llc Autocaptioning of images
US9159314B2 (en) 2013-01-14 2015-10-13 Amazon Technologies, Inc. Distributed speech unit inventory for TTS systems
US9230017B2 (en) 2013-01-16 2016-01-05 Morphism Llc Systems and methods for automated media commentary
KR101431651B1 (ko) 2013-05-14 2014-08-22 중앙대학교 산학협력단 시각 장애인용 모바일 사진 촬영 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611830B2 (en) * 1998-02-12 2003-08-26 Hitachi, Ltd. Information search method and system for registering and searching for associated multimedia data using embedded information
US6629107B1 (en) * 1999-09-22 2003-09-30 Kabushiki Kaisha Toshiba Multimedia information collection control apparatus and method
KR20070019295A (ko) * 2005-08-12 2007-02-15 주식회사 인프라밸리 이동통신 가입자를 위한 립싱크 서비스 제공 방법 및 이를위한 시스템
KR20090105531A (ko) * 2008-04-03 2009-10-07 슬림디스크 주식회사 카메라센서로 찍은 문서 이미지를 시각장애인에게 음성으로알려주는 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019146942A1 (ko) * 2018-01-26 2019-08-01 삼성전자주식회사 전자 장치 및 그의 제어방법
KR20190095620A (ko) * 2018-01-26 2019-08-16 삼성전자주식회사 전자 장치 및 그의 제어방법
US11721333B2 (en) 2018-01-26 2023-08-08 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Also Published As

Publication number Publication date
EP3190527A4 (en) 2018-04-11
US20170286058A1 (en) 2017-10-05
KR102279674B1 (ko) 2021-07-20
WO2016036143A1 (ko) 2016-03-10
US10691402B2 (en) 2020-06-23
CN106796651A (zh) 2017-05-31
EP3190527A1 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
KR102279674B1 (ko) 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치
US20190318545A1 (en) Command displaying method and command displaying device
US10484673B2 (en) Wearable device and method for providing augmented reality information
KR102031874B1 (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
KR102220443B1 (ko) 깊이 정보를 활용하는 전자 장치 및 방법
EP3481049A1 (en) Apparatus and method for setting camera
KR20160055337A (ko) 텍스트 표시 방법 및 그 전자 장치
KR20160031851A (ko) 정보 제공 방법 및 그 전자 장치
KR20160026218A (ko) 컨텐츠 제공 방법 및 그 전자 장치
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR20160035753A (ko) 메시지 자동 생성 방법 및 장치
EP3608794A1 (en) Method for outputting content corresponding to object and electronic device therefor
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR20160001076A (ko) 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
KR20150137472A (ko) 전자 장치의 컨텐츠 출력 방법 및 이를 사용하는 전자 장치
KR20150141426A (ko) 전자 장치 및 전자 장치에서의 이미지 처리 방법
KR20160038563A (ko) 하나 이상의 이미지들을 추천하는 방법 및 그를 위한 전자 장치
KR20150117043A (ko) 미디어 컨텐츠를 선별하는 방법 및 이를 구현하는 전자장치
KR20160004725A (ko) 연관 정보 제공 방법 및 이를 제공하는 전자 장치
KR20160012583A (ko) 기능 제어 방법 및 그 전자 장치
KR20150125338A (ko) 텍스트 입력 제어 방법 및 그 전자 장치
KR20150115403A (ko) 인식 영역에 기반하여 콘텐트를 검출하는 전자 장치 및 방법
KR20160133154A (ko) 전자 장치 및 그의 그래픽 유저 인터페이스 제공 방법
CN107077309A (zh) 显示控制方法及其电子设备
KR20150086808A (ko) 폴더 관리 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant