KR101677622B1 - 영상 표시 방법 및 그 장치 - Google Patents

영상 표시 방법 및 그 장치 Download PDF

Info

Publication number
KR101677622B1
KR101677622B1 KR1020100022458A KR20100022458A KR101677622B1 KR 101677622 B1 KR101677622 B1 KR 101677622B1 KR 1020100022458 A KR1020100022458 A KR 1020100022458A KR 20100022458 A KR20100022458 A KR 20100022458A KR 101677622 B1 KR101677622 B1 KR 101677622B1
Authority
KR
South Korea
Prior art keywords
information
storage unit
user
stored
multimedia
Prior art date
Application number
KR1020100022458A
Other languages
English (en)
Other versions
KR20110103232A (ko
Inventor
이계철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100022458A priority Critical patent/KR101677622B1/ko
Publication of KR20110103232A publication Critical patent/KR20110103232A/ko
Application granted granted Critical
Publication of KR101677622B1 publication Critical patent/KR101677622B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 음성 정보에 대응하는 문자(대화 내용)를 저장할 때, 다양한 메타 데이터를 함께 저장하는 영상 표시 방법 및 그 장치에 관한 것이다. 이를 위하여 본 발명에 따른 영상 표시 방법은, 멀티미디어 정보에 포함된 영상 정보를 근거로 사용자를 인식하는 단계; 및 상기 멀티미디어 정보에 포함된 음성 정보, 상기 음성 정보에 대응하는 사용자 정보 및, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 저장부에 저장하는 단계를 포함하여 이루어진다.

Description

영상 표시 방법 및 그 장치{IMAGE DISPLAY METHOD AND APPARATUS THEREOF}
본 발명은 영상 표시 방법 및 그 장치에 관한 것이다.
일반적으로, 영상 표시 장치는 구비된 카메라를 통해 촬영된 영상 또는 통신 연결된 임의의 단말기로부터 전송된 영상을 표시하는 장치이다.
본 발명의 목적은, 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 영상 정보(video information/image information)에 포함된 사용자를 인식하는 영상 표시 방법 및 그 장치를 제공하는 데 있다.
본 발명의 다른 목적은, 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 음성 정보에 대응하는 문자(대화 내용)를 저장할 때, 다양한 메타 데이터(metadata)를 함께 저장하는 영상 표시 방법 및 그 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은, 다양한 검색 조건에 의해 저장된 문자와 링크된 멀티미디어 정보를 검색하고, 검색된 멀티미디어 정보를 재생하는 영상 표시 방법 및 그 장치를 제공하는 데 있다.
상기 목적들을 달성하기 위한 본 발명에 따른 영상 표시 방법은, 멀티미디어 정보에 포함된 영상 정보를 근거로 사용자를 인식하는 단계; 및 상기 멀티미디어 정보에 포함된 음성 정보, 상기 음성 정보에 대응하는 사용자 정보 및, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 저장부에 저장하는 단계를 포함하여 이루어진다.
본 발명과 관련된 일 예로서, 상기 멀티미디어 정보는, 카메라 모듈을 통해 촬영한 영상 정보, 마이크를 통해 수신된 음성 정보, 상기 카메라 모듈을 포함한 영상 표시 장치의 고유 아이디, 상기 영상 표시 장치와 연결된 적어도 하나의 단말기로부터 전송되어 수신한 영상 정보, 상기 적어도 하나의 단말기로부터 전송되어 수신한 음성 정보 및, 상기 적어도 하나의 단말기의 고유 아이디 중 적어도 하나를 포함할 수 있다.
본 발명과 관련된 일 예로서, 상기 사용자를 인식하는 단계는, 상기 멀티미디어 정보에 포함된 영상 정보로부터 객체에 대한 특징 벡터를 추출하는 과정; 상기 저장부에 기저장된 사용자 정보와 상기 추출된 특징 벡터와의 유사도를 비교하는 과정; 상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 있을 때, 상기 기설정된 임계값 이상의 유사도를 가지는 사용자 정보에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식하는 과정; 상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 없을 때, 상기 추출된 특징 벡터를 근거로 상기 기저장된 사용자 정보를 업데이트하는 과정; 및 상기 업데이트된 사용자 정보에 포함된 상기 추출된 특징 벡터에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식하는 과정을 포함하여 이루어질 수 있다.
본 발명과 관련된 일 예로서, 상기 음성 정보를 저장하는 단계는, 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하는 과정; 및 상기 변환된 문자에 상기 음성 정보를 발성한 사용자 정보와, 상기 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 포함시키는 과정을 포함하여 이루어질 수 있다.
본 발명과 관련된 일 예로서, 상기 음성 정보를 저장하는 단계는, 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하는 과정; 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 경우, 상기 음성 정보에 대응하는 사용자 정보를 확인하는 과정; 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출하는 과정; 상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치를 확인하는 과정; 및 상기 변환된 문자에 상기 사용자 정보와, 상기 촬영 시점과, 상기 저장 위치를 포함시키는 과정을 포함하여 이루어질 수 있다.
본 발명과 관련된 일 예로서, 상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하는 단계; 및 상기 확인된 저장 위치부터 상기 멀티미디어 정보를 재생하는 단계를 더 포함하여 이루어질 수 있다.
본 발명과 관련된 일 예로서, 상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 저장 위치를 근거로 상기 저장 위치부터 상기 저장된 멀티미디어 정보를 재생하는 단계를 더 포함하여 이루어질 수 있다.
본 발명과 관련된 일 예로서, 멀티미디어 정보 검색을 위한 검색 조건이 수신될 때, 상기 저장부에 저장된 상기 변환된 문자 중에서 상기 수신된 검색 조건에 대응하는 문자를 확인하는 단계; 상기 확인된 문자에 대응하는 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하는 단계; 및 상기 확인된 저장 위치부터 상기 멀티미디어 정보를 재생하는 단계를 더 포함하여 이루어질 수 있다.
상기 목적들을 달성하기 위한 본 발명에 따른 영상 표시 방법은, 표시부에 표시되는 멀티미디어 정보를 저장부에 저장하는 단계; 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하는 단계; 상기 음성 정보에 대응하는 사용자 정보를 확인하는 단계; 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출하는 단계; 상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치를 확인하는 단계; 및 상기 변환된 문자에 상기 사용자 정보와, 상기 촬영 시점과, 상기 저장 위치 중 적어도 하나를 포함시키는 단계를 포함하여 이루어진다.
상기 목적들을 달성하기 위한 본 발명에 따른 영상 표시 장치는, 멀티미디어 정보를 저장하는 저장부; 및 상기 멀티미디어 정보에 포함된 음성 정보, 상기 음성 정보에 대응하는 사용자 정보 및, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 상기 저장부에 저장하는 제어부를 포함하여 구성된다.
본 발명과 관련된 일 예로서, 상기 멀티미디어 정보는, 카메라 모듈을 통해 촬영한 영상 정보, 마이크를 통해 수신된 음성 정보, 상기 카메라 모듈을 포함한 영상 표시 장치의 고유 아이디, 상기 영상 표시 장치와 연결된 적어도 하나의 단말기로부터 전송되어 수신한 영상 정보, 상기 적어도 하나의 단말기로부터 전송되어 수신한 음성 정보 및, 상기 적어도 하나의 단말기의 고유 아이디 중 적어도 하나를 포함할 수 있다.
본 발명과 관련된 일 예로서, 상기 제어부는, 상기 멀티미디어 정보에 포함된 영상 정보로부터 객체에 대한 특징 벡터를 추출하고, 상기 저장부에 기저장된 사용자 정보와 상기 추출된 특징 벡터와의 유사도를 비교하여, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 있을 때, 상기 기설정된 임계값 이상의 유사도를 가지는 사용자 정보에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식할 수 있다.
본 발명과 관련된 일 예로서, 상기 제어부는, 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하고, 상기 변환된 문자에 상기 음성 정보를 발성한 사용자 정보와, 상기 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 포함시켜 상기 저장부에 저장할 수 있다.
본 발명과 관련된 일 예로서, 상기 제어부는, 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하고, 상기 음성 정보에 대응하는 사용자 정보를 확인하고, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출하고, 상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치를 확인하고, 상기 변환된 문자에 상기 사용자 정보와 상기 저장 위치를 포함시켜 상기 저장부에 저장할 수 있다.
본 발명과 관련된 일 예로서, 상기 제어부는, 상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하고, 상기 확인된 저장 위치부터 상기 저장부에 저장된 멀티미디어 정보를 재생할 수 있다.
본 발명과 관련된 일 예로서, 상기 제어부는, 상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 저장 위치를 근거로 상기 저장 위치부터 상기 저장부에 저장된 멀티미디어 정보를 재생할 수 있다.
본 발명과 관련된 일 예로서, 상기 제어부는, 멀티미디어 정보 검색을 위한 검색 조건이 수신될 때, 상기 저장부에 저장된 상기 변환된 문자 중에서 상기 수신된 검색 조건에 대응하는 문자를 확인하고, 상기 확인된 문자에 대응하는 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하고, 상기 확인된 저장 위치부터 상기 저장부에 저장된 멀티미디어 정보를 재생할 수 있다.
상기 목적들을 달성하기 위한 본 발명에 따른 영상 표시 장치는, 멀티미디어 정보를 저장하는 저장부; 및 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하고, 상기 변환된 문자에 하나 이상의 메타 데이터를 포함시켜 상기 저장부에 저장하는 제어부를 포함하여 구성된다.
본 발명과 관련된 일 예로서, 상기 메타 데이터는, 상기 음성 정보에 대응하는 사용자 정보, 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점, 상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치 중 적어도 하나를 포함할 수 있다.
본 발명의 실시예에 따른 영상 표시 방법 및 그 장치는, 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 영상 정보에 포함된 사용자를 인식함으로써, 통화 연결된 상대방을 쉽게 확인할 수 있다.
또한, 본 발명의 실시예에 따른 영상 표시 방법 및 그 장치는, 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 음성 정보에 대응하는 문자(대화 내용)를 저장할 때, 다양한 메타 데이터를 함께 저장함으로써, 저장되는 내용에 대한 보다 상세한 정보를 제공할 수 있다.
또한, 본 발명의 실시예에 따른 영상 표시 방법 및 그 장치는, 다양한 검색 조건에 의해 저장된 문자와 링크된 멀티미디어 정보를 검색하고, 검색된 멀티미디어 정보를 재생함으로써, 사용자가 원하는 영상을 신속하고 용이하게 검색 및 표시할 수 있다.
도 1은 본 발명의 실시예에 따른 영상 표시 장치를 설명하기 위한 영상 표시 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 영상 표시 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 표시부의 화면을 나타낸 도이다.
도 4는 본 발명의 일 실시예에 따른 저장부에 저장되는 대화 내용을 형식을 나타낸 도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 영상 표시 장치를 설명하기 위한 영상 표시 장치(100)의 구성을 나타낸 블록도이다.
상기 영상 표시 장치(100)는 다양한 형태로 구현될 수 있다. 예를 들면, 영상 표시 장치(100)는, 이동 단말기(Mobile Terminal), 텔레매틱스(Telematics) 단말기, 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 개인 정보 단말기(Personal Digital Assistants : PDA), PMP(Portable Multimedia Player) 단말기, 노트북 컴퓨터(Notebook Computer), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 디지털방송용 단말기, 텔레비전, 3D 텔레비전, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 정보 제공 센터, 콜 센터(call center), 영상 회의/영상 통화 단말기 등일 수 있다.
도 1에 도시된 바와 같이, 영상 표시 장치(100)는, 통신부(110), 입력부(120), 저장부(130), 제어부(140), 표시부(150) 및, 음성 출력부(160)를 포함하여 구성된다. 도 1에 도시된 영상 표시 장치(100)의 구성요소 모두가 필수 구성요소인 것은 아니며, 도 1에 도시된 구성요소보다 많은 구성요소에 의해 영상 표시 장치(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 영상 표시 장치(100)가 구현될 수도 있다.
상기 통신부(110)는, 유/무선 통신망을 통해 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 여기서, 무선 인터넷 기술로는, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등이 포함될 수 있다. 또한, 근거리 통신 기술로는, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), UWB(Ultra Wideband), 지그비(ZigBee) 등이 포함될 수 있다.
또한, 상기 통신부(110)는, 상기 영상 표시 장치(100)가 상기 적어도 하나의 단말기와 영상 회의(또는, 화상 회의) 또는 영상 통화(또는, 화상 통화)를 위해 연결되는 경우, 상기 제어부(140)의 제어에 의해 상기 영상 표시 장치(100)에 기설정된(또는, 랜덤하게 설정된) 고유 IP 주소를 근거로 상기 유/무선 통신망을 통해 상기 외부 단말기와 통신을 수행할 수도 있다. 이때, 상기 영상 표시 장치(100)는, 상기 적어도 하나의 단말기와 기설정된 통신 프로토콜에 의해 영상 정보, 음성 정보 및 제어 신호 등을 송수신한다.
또한, 상기 외부 단말기는, 이동 단말기, 텔레매틱스 단말기, 스마트 폰, 휴대 단말기, 개인 정보 단말기(PDA), PMP 단말기, 노트북 컴퓨터, 와이브로 단말기, IPTV 단말기, 디지털방송용 단말기, 텔레비전, 3D 텔레비전, 내비게이션 단말기, AVN 단말기, A/V 시스템, 정보 제공 센터, 콜 센터, 영상 회의/영상 통화 단말기 등을 포함할 수 있다. 또한, 상기 영상 표시 장치(100)는, 동종 또는 이종의 단말기와 상호 통신 연결될 수 있으며, 상기 동종 또는 이종의 단말기와 영상 회의 또는 영상 통화를 위해 연결될 수도 있다.
또한, 상기 영상 표시 장치(100)와 상기 적어도 하나의 단말기들은, ITU-T(ITU Telecommunication Standardization Sector)의 다자간 화상회의 권고안(H.323 등 포함), IETF(Internet Engineering Task Force)의 권고안(SIP(Session Initiation Protocol) 등 포함), ITU-T와 IETF가 공동 제안한 권고안(MEGACO(Media Gateway Control), H.248 등 포함) 또는, MGCP(Media Gateway Control Protocol)를 따르도록 설계되어, 단말기 종류에 관계없이 영상 회의/영상 통화가 가능하다.
상기 입력부(120)는, 사용자에 의한 버튼 조작을 입력받거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 명령 또는 제어 신호를 입력받는다.
또한, 상기 입력부(120)는, 사용자가 원하는 기능을 선택하거나 정보를 입력받으며, 키 패드(Key Pad), 돔 스위치 (Dome Switch), 터치 패드(정압/정전), 터치 스크린(Touch Screen), 조그 휠, 조그 스위치, 조그 셔틀(Jog Shuttle) 등의 다양한 장치가 사용될 수 있다.
또한, 상기 입력부(120)는, 오디오 신호 또는 비디오 신호를 입력받기 위한 적어도 하나 이상의 마이크(미도시)와 카메라(미도시) 등을 포함할 수 있다. 상기 마이크는, 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 상기 음성 출력부(160)를 통해 출력하거나 또는, 상기 통신부(110)를 통하여 외부 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.
또한, 상기 카메라는, 영상 통화 모드, 촬영 모드, 영상 회의 모드 등에서 이미지 센서(카메라 모듈 또는, 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 디코딩한다. 상기 처리된 화상 프레임은, 상기 제어부(140)의 제어에 의해 상기 표시부(150)에 표시될 수 있다. 일 예로, 상기 카메라는, 객체(또는, 피사체)(사용자 영상 또는 화상 회의자)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.
또한, 상기 카메라에서 처리된 화상 프레임은, 상기 저장부(130)에 저장되거나 상기 통신부(110)를 통해 외부(화상 회의 시스템에 포함된 임의의 화상 회의 단말기 포함)로 전송될 수 있다.
상기 저장부(130)는, 상기 제어부(140)의 처리 및 제어를 위한 프로그램이 저장될 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상, 음성 데이터 등)의 임시 저장을 위한 기능을 수행할 수도 있다.
또한, 상기 저장부(130)는, 상기 터치 스크린상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수도 있다.
또한, 상기 저장부(130)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 램(Random Access Memory : RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다.
또한, 상기 저장부(130)는, 상기 영상 표시 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
또한, 상기 저장부(130)는, 다양한 사용자 인터페이스(User Interface : UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface : GUI)를 저장한다.
또한, 상기 저장부(130)는, 해당 단말기의 영상 코덱 설정 정보(비디오/오디오/코덱 설정 정보 등 포함), 호(call) 규격 설정 정보(H.323, SIP, MGCP, INAP(Intelligent Network Application Protocol), ISUP(ISDN User Part), TCAP(Transmission Control Application Part), MEGACO, H.248, V.35/RS-449/RS-530 설정 정보, ISDN(International Services Digital Network), 호출 기본 설정 정보 등 포함), 네트워크 설정 정보(NAT(Network Address Translation), DNS(Domain Name Service), IP 주소, QoS 정보, 스트리밍(Streaming) 정보, SNMP(Simple Network Management Protocol : 간이 망 관리 프로토콜) 등 포함), 보안 설정 정보(방화벽(Firewall) 설정 정보 등 포함) 등을 포함하는 각종 관리 정보를 저장한다.
또한, 상기 저장부(130)는, 상기 제어부(140)의 제어에 의해 하나 이상의 영상 정보, 하나 이상의 음성 정보 및 각종 데이터를 포함하는 멀티미디어 정보를 저장한다.
또한, 상기 저장부(130)는, 상기 제어부(140)에 의해 생성된 정보(대화 내용, 회의록 등 포함)를 텍스트 파일 형태 또는 데이터베이스 형태로 저장한다. 이때, 상기 제어부(140)에 의해 생성된 정보는, 상기 저장되는 멀티미디어 정보에 포함된 음성 정보를 검출하고, 상기 검출된 음성 정보를 문자로 변환한 후, 상기 변환된 문자에 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점, 상기 음성 정보의 사용자 정보, 상기 저장부(130)에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 위치에 대응하는 상기 저장부(130)에서의 상기 멀티미디어 정보의 저장 위치, 상기 변환된 문자가 저장된 날짜 정보, 인원수 정보 등을 포함할 수 있다.
상기 제어부(140)는, 상기 영상 표시 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 상기 제어부(140)는, 음성 통화, 데이터 통신, 영상 통화, 영상 회의 등을 위한 관련된 제어 및 처리를 수행한다.
또한, 상기 제어부(140)는, 멀티미디어 정보(또는, 멀티미디어) 재생을 위한 멀티미디어 모듈(미도시)을 구비할 수도 있다. 상기 멀티미디어 모듈은, 상기 제어부(140) 내에 구현될 수도 있고, 상기 제어부(140)와 별도로 구현될 수도 있다.
또한, 상기 제어부(140)는, 터치 스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 수행할 수 있다.
또한, 상기 제어부(140)는, 유/무선 통신망을 통해 적어도 하나의 임의의 외부 단말기와의 통신 연결을 수행하고, 상기 통신 연결된 외부의 단말기와 다양한 정보를 송수신한다.
또한, 상기 제어부(140)는, 상기 영상 표시 장치(100)가 상기 외부의 단말기와 영상 회의 또는 영상 통신을 위해 연결되는 경우, 상기 외부의 단말기와의 영상 통신/영상 회의를 수행한다. 즉, 상기 제어부(140)는, 임의의 화상 회의 시스템에 포함된 적어도 하나 이상의 임의의 단말기와 영상 회의/영상 통화가 수행 중인 경우, 상기 단말기로부터 전송된 영상 정보 및/또는 음성 정보를 포함하는 멀티미디어 정보를 수신하고, 상기 수신된 멀티미디어 정보를 소정 신호 처리하여 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다.
또한, 상기 제어부(140)는, 상기 화상 회의 시스템에 포함된 적어도 하나 이상의 임의의 단말기와 영상 회의/영상 통화가 수행 중인 경우, 상기 입력부(120)를 통해 입력된 영상 정보 및/또는 음성 정보를 소정 신호 처리하여, 상기 신호 처리된 영상 정보 및/또는 음성 정보를 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력함과 함께, 상기 통신부(110)를 통해 상기 적어도 하나 이상의 임의의 단말기에 전송한다.
또한, 상기 제어부(140)는, 상기 입력부(120)를 통해 입력된 영상 정보와 상기 적어도 하나의 단말기로부터 전송된 적어도 하나의 영상 정보를 소정 신호 처리하여, 상기 복수의 영상 정보를 상기 표시부(150)의 소정 영역에 각각 표시한다. 즉, 상기 제어부(140)는, 상기 입력부(120)를 통해 입력된 영상 정보와 상기 적어도 하나의 영상 정보를 하나의 멀티미디어 정보로 통합하여, 상기 통합된 멀티미디어 정보를 상기 표시부(150)에 표시할 수 있다. 또한, 상기 멀티미디어 정보는, 상기 영상 정보뿐만 아니라, 상기 입력부(120)를 통해 수신된 음성 정보와 상기 적어도 하나의 단말기로부터 전송된 음성 정보, 상기 영상 표시 장치(100) 또는 상기 적어도 하나의 단말기의 고유 아이디(식별자 또는, 식별 정보) 등을 포함할 수 있다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보를 상기 저장부(130)에 저장한다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보 내의 영상 정보에 포함된 임의의 객체(또는, 사용자)에 대해서 상기 객체를 인식한다. 즉, 상기 제어부(140)는, 상기 영상 정보에 포함된 임의의 사용자에 대해서, 해당 사용자에 대한 사용자 정보를 확인한다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보 중에서 음성 정보가 포함된 경우, 상기 음성 정보를 문자(또는, 텍스트)로 변환한다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보 중에서 상기 음성 정보가 검출된 경우, 상기 음성 정보에 대응하는 사용자 정보를 확인한다. 즉, 상기 제어부(140)는, 상기 멀티미디어 정보 중에서 상기 음성 정보가 검출된 경우, 상기 음성 정보를 발성한 화자를 확인한다.
또한, 상기 제어부(140)는, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출한다. 이때, 상기 검출된 영상 정보의 촬영 시점은, 상기 멀티미디어 정보가 상기 저장부(130)에 처음 저장된 시점부터 얼마의 시간이 경과했는지를 나타내는 시간 정보이거나 또는, 상기 멀티미디어 정보가 상기 저장부(130)에 저장될 당시의 현재 시각 정보(예를 들어, 2010년 01월 01일 09시 01분 17초)일 수 있다.
또한, 상기 제어부(140)는, 상기 저장부(130)에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부(130)에서의 멀티미디어 정보의 저장 위치를 확인(검출)한다.
또한, 상기 제어부(140)는, 상기 변환된 문자에, 상기 음성 정보에 대응하는 사용자 정보, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점, 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부(130)에서의 멀티미디어 정보의 저장 위치, 상기 변환된 문자가 저장된 날짜 정보, 상기 인식된 인원수, 상기 인식된 사용자 정보(또는, 사용자 명단) 등을 추가하여 상기 저장부(130)에 저장한다. 즉, 상기 제어부(140)는, 상기 영상 표시 장치(100)가 상기 적어도 하나의 단말기와 영상 통화/영상 회의를 수행 중인 경우, 상기 영상 통화/영상 회의에 따른 영상 정보 및 음성 정보를 포함하는 멀티미디어 정보를 상기 저장부(130)에 저장하고, 또한, 상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환한 후, 상기 변환된 문자에 각종 메타 데이터(상기 사용자 정보, 상기 촬영 시점, 상기 저장 위치, 상기 날짜 정보, 상기 인원수, 상기 사용자 명단 등 포함)를 추가하여 상기 영상 통화/영상 회의에서 언급된 내용을 근거로 대화 내용(또는, 회의록)을 작성할 수 있다.
또한, 상기 제어부(140)는, 상기 저장부(130)에 저장된 변환된 문자 중에서 어느 특정 문자가 선택되면, 상기 저장부(130)에 저장된 복수의 멀티미디어 정보 중에서 상기 선택된 문자와 링크된 멀티미디어 정보를 검색하고, 상기 검색된 멀티미디어 정보에서 상기 선택된 문자에 포함된 영상 정보의 촬영 시점 또는 상기 저장부(130)에서의 상기 선택된 문자에 포함된 영상 정보의 저장 위치 등을 근거로 상기 촬영 시점 또는 상기 저장 위치부터 멀티미디어 정보를 재생하여 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다.
또한, 상기 제어부(140)는, 상기 저장부(130)에 저장된 변환된 문자에 대해서 다양한 검색 조건 중 어느 하나가 수신되면, 상기 수신된 검색 조건에 대응하여 링크된 멀티미디어 정보를 검색하고, 상기 검색 결과를 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다. 이때, 상기 검색 조건은, 내용별, 주제별, 시간별, 사용자별 등의 다양한 검색 조건을 포함할 수 있다.
상기 표시부(150)는, 상기 제어부(140)의 제어에 의해 상기 저장부(130)에 기저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(150)에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 여기서, 상기 표시부(150)는, 터치 스크린 방식을 이용하여, 사용자로부터의 입력을 받도록 구성될 수도 있다.
또한, 상기 표시부(150)는, 상기 제어부(140)의 제어에 의해 멀티미디어 정보에 포함된 영상 정보를 출력한다. 이때, 상기 표시부(150)는, 상기 표시부(150)의 복수의 영역 중 제1 영역에 상기 입력부(120)에 포함된 카메라를 통해 촬영한 제1 영상을 표시하고 상기 복수의 영역 중 나머지 영역에 상기 통신부(110)를 통해 수신된 상기 적어도 하나의 단말기로부터 전송된 멀티미디어 정보에 포함된 하나 이상의 영상 정보를 각각 표시할 수 있다. 즉, 상기 표시부(150)는, 상기 제어부(140)의 제어에 의해 영상 통신/영상 통화 연결된 복수의 단말기들로부터 각각 촬영되어 전송된 영상 정보를 각각 표시할 수 있다.
또한, 상기 표시부(150)는, 액정 디스플레이(Liquid Crystal Display : LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display : TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode : OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.
또한, 상기 표시부(150)는, 햅틱 모듈(Haptic Module)(미도시)을 포함할 수 있다. 상기 햅틱 모듈은, 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 상기 햅틱 모듈이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 상기 햅틱 모듈이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들면, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
또한, 상기 햅틱 모듈은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
또한, 상기 햅틱 모듈은, 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 또한, 상기 햅틱 모듈은, 상기 화상 회의 단말기(100)의 구성 형태에 따라 적어도 하나 이상이 구비될 수 있다.
상기 음성 출력부(160)는, 상기 제어부(140)에 의해 소정 신호 처리된 신호(또는, 멀티미디어 정보)에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(160)는, 스피커가 될 수도 있다.
또한, 상기 음성 출력부(160)는, 영상 회의 모드, 통화 모드, 녹음 모드, 영상 통화 모드 등에서 상기 통신부(110)로부터 수신되거나 상기 저장부(130)에 저장된 오디오 데이터를 출력한다.
또한, 상기 영상 표시 장치(100)는, 상기 영상 표시 장치(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행하는 인터페이스부(미도시)를 더 포함할 수도 있다. 예를 들면, 상기 인터페이스부는 유/무선 헤드셋 포트(Headset Port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(Memory Card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등으로 구성될 수 있다. 여기서, 식별 모듈은 화상 회의 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module : UIM), 가입자 인증 모듈(Subscriber Identify Module : SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module : USIM) 등을 포함할 수 있다. 또한, 상기 식별 모듈이 구비된 장치는, 스마트 카드(Smart Card) 형식으로 제작될 수 있다. 따라서, 상기 식별 모듈은 포트를 통하여 영상 표시 장치(100)와 연결될 수 있다. 이와 같은 인터페이스부는 외부 기기로부터 데이터를 수신하거나 전원을 수신하여 영상 표시 장치(100) 내부의 각 구성 요소에 전달하거나 영상 표시 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다.
또한, 상기 인터페이스부는, 영상 표시 장치(100)가 외부 크래들(Cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 영상 표시 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 영상 표시 장치(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 영상 표시 장치(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
이와 같이, 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 영상 정보에 포함된 사용자를 인식할 수 있다.
또한, 이와 같이, 영상 통화 또는 영상 회의 등을 위해 통신 연결된 단말기에서 음성 정보에 대응하는 문자(대화 내용)를 저장할 때, 다양한 메타 데이터를 함께 저장할 수 있다.
또한, 이와 같이, 다양한 검색 조건에 의해 저장된 문자와 링크된 멀티미디어 정보를 검색하고, 검색된 멀티미디어 정보를 재생할 수 있다.
이하에서는, 본 발명에 따른 영상 표시 방법을 도 1 내지 도 4를 참조하여 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 영상 표시 방법을 나타낸 흐름도이다.
먼저, 제어부(140)는, 멀티미디어 정보에 포함된 영상 정보를 표시부(150)에 표시하고, 상기 멀티미디어 정보에 포함된 음성 정보를 음성 출력부(160)에 출력한다. 이때, 상기 멀티미디어 정보는, 입력부(120)에 포함된 카메라(또는, 카메라 모듈)를 통해 실시간으로 촬영된 영상 정보(또는, 영상 데이터), 상기 입력부(120)에 포함된 마이크를 통해 수신된 사용자 음성 정보(또는, 음성 데이터), 영상 표시 장치(100)의 고유 아이디(또는, 식별자), 통신부(110)를 통해 연결된 임의의 적어도 하나의 단말기로부터 실시간으로 전송된 영상 정보 및/또는 음성 정보 및, 상기 적어도 하나의 단말기의 고유 아이디 중 적어도 하나를 포함한다. 또한, 상기 멀티미디어 정보는, 상기 영상 표시 장치(100)가 상기 적어도 하나의 단말기와 화상 회의 또는 화상 통화를 위해 통신 연결된 상태에서, 상기 영상 표시 장치(100)와 상기 적어도 하나의 단말기 간에 송수신되는 영상 정보 및/또는 음성 정보를 포함하는 멀티미디어 정보일 수 있다. 또한, 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력되는 멀티미디어 정보는, 저장부(130)에 저장된다.
일 예로, 상기 표시부(150)는, 도 3에 도시된 바와 같이, 상기 제어부(140)의 제어에 의해, 상기 표시부(150)의 제1 영역에 상기 영상 표시 장치(100)에 구비된 카메라를 통해 촬영된 제1 영상(311)을 표시하고, 상기 표시부(150)의 제2 영역에 상기 통신부(110)를 통해 수신된 멀티미디어 정보에 포함된 제2 영상(312)을 표시한다(S110).
이후, 상기 제어부(140)는, 상기 멀티미디어 정보에 포함된 영상 정보를 근거로 상기 멀티미디어 정보에 포함된 사용자를 인식한다. 즉, 상기 제어부(140)는, 상기 멀티미디어 정보에 포함된 영상 정보로부터 임의의 객체(또는, 사용자)에 대한 특징 벡터를 추출하고, 상기 추출된 특징 벡터와 상기 저장부(130)에 기저장된 사용자 정보와의 유사도를 비교한다. 이후, 상기 제어부(140)는, 상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 존재할 때, 상기 기설정된 임계값 이상의 유사도를 가지는 사용자 정보에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식한다. 이와 같이, 상기 멀티미디어 정보에 포함된 임의의 객체에 대한 사용자를 인식하는 기술은, 다양한 얼굴 인식 기술(주성분 분석(Principal Component Analysis : PCA), Elastic Bunch 그래프 매칭(Elastic Bunch Graph Matching), 선형 판별 분석(Linear Discrimination Analysis : LDA), 국부적 특징 분석(Local Feature Analysis : LFA) 등 포함)이 사용될 수 있다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보에 복수의 영상 정보가 포함된 경우, 상기 복수의 영상 정보에 포함된 각각의 객체를 인식할 수 있다. 즉, 상기 제어부(140)는, 상기 영상 표시 장치(100)가 상기 적어도 하나의 단말기와 화상 회의 또는 화상 통신 등을 위해 통신 연결된 상태인 경우, 상기 통신 연결된 단말기의 사용자를 인식할 수 있다.
일 예로, 상기 제어부(140)는, 상기 도 3에 도시된 바와 같이, 상기 표시부(150)의 제1 영역에 표시되는 있는 제1 영상(311)에 포함된 객체(임의의 사용자)와 제2 영역에 표시되고 있는 제2 영상(312)에 포함된 객체로부터 각각 특징 벡터를 추출하고, 상기 추출된 각각의 특징 벡터와 상기 저장부(130)에 기저장된 사용자 정보와의 유사도를 비교하여, 상기 기저장된 사용자 정보 중에서 "잭슨(jackson)"에 대한 사용자 정보가 상기 제1 영상(311)으로부터 추출된 특징 벡터와 유사하고 "톰(tom)"에 대한 사용자 정보가 상기 제2 영상(312)으로부터 추출된 특징 벡터와 유사한 경우, 상기 제1 영상(311)에 포함된 사용자를 "잭슨"으로 인식하고 상기 제2 영상(312)에 포함된 사용자를 "톰"으로 인식할 수 있다. 또한, 상기 제어부(140)는, 상기 인식된 "잭슨"(321)과 "톰"(322)을 상기 표시부(150)의 일부 영역에 각각 표시할 수도 있다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보에 포함된 영상 정보가 복수의 사용자를 포함하는 경우, 상기 복수의 사용자 각각을 인식할 수 있다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보에 포함된 영상 정보가 상기 임의의 적어도 하나의 단말기로부터 전송된 영상 정보인 경우, 상기 영상 정보를 전송한 단말기에 대응하는 고유 아이디를 근거로 상기 영상 정보를 전송한 단말기에 대응하는 사용자를 인식(또는, 확인)할 수도 있다. 즉, 상기 제어부(140)는, 상기 영상 정보를 전송한 단말기에 대응하여 기저장된 사용자를 확인하고, 상기 확인된 사용자를 상기 영상 정보에 포함된 사용자로 인식할 수도 있다.
또한, 상기 제어부(140)는, 상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 존재하지 않을 때, 상기 추출된 특징 벡터를 근거로 상기 기저장된 사용자 정보를 업데이트시키고, 또한 상기 추출된 특징 벡터에 대응하는 임의의 사용자명을 정의(예를 들어, "참가자 1, 참가자 2, 참가자 3... 등등")하여, 상기 정의된 임의의 사용자명을 해당 영상 정보에 포함된 사용자로 인식한다.
일 예로, 상기 제어부(140)는, 상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 존재하지 않는 경우, 상기 제2 영상(312)에 포함된 사용자를 "참가자 1"로 인식할 수 있고, 상기 "참가자 1"에 대한 정보를 상기 기저장된 사용자 정보에 추가하여 상기 사용자 정보의 내용을 업데이트시킬 수도 있다.
또한, 상기 제어부(140)는, 상기 인식된 사용자 정보를 근거로 상기 멀티미디어 정보에 포함된 인원수 또는, 상기 표시부(150)에 표시되는 객체(또는, 사용자)의 총 수를 확인할 수 있다. 즉, 상기 제어부(140)는, 상기 영상 표시 장치(100)가 상기 적어도 하나의 단말기와 화상 회의 또는 화상 통화를 위해 통신 연결된 상태인 경우, 상기 화상 회의 또는 화상 통화에 참여한 인원수를 확인할 수 있다.
일 예로, 상기 제어부(140)는, 상기 도 3에 도시된 바와 같이, 상기 표시부(150)의 제1 영역에 상기 인식된 상기 영상 표시 장치(100)의 사용자인 "잭슨"이 표시되고, 상기 표시부(150)의 제2 영역에 상기 인식된 "톰"이 표시되는 경우, 상기 화상 회의 또는 화상 통화에 연결된 인원수를 2명으로 확인할 수 있다(S120).
이후, 상기 제어부(140)는, 상기 멀티미디어 정보에 음성 정보가 포함된 경우, 상기 음성 정보를 문자(또는, 텍스트)로 변환한다.
일 예로, 상기 제어부(140)는, 상기 입력부(120)에 포함된 마이크를 통해 사용자 음성을 수신하거나 또는, 상기 통신부(110)를 통해 연결된 상기 적어도 하나의 단말기로부터 전송된 음성 정보를 수신한 경우, 상기 수신한 음성 정보를 문자로 변환한다(S130).
이후, 상기 제어부(140)는, 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 경우, 상기 음성 정보에 대응하는 사용자 정보를 확인한다.
일 예로, 상기 제어부(140)는, 상기 입력부(120)에 포함된 마이크를 통해 상용자 음성을 수신한 경우, 상기 멀티미디어 정보에 포함된 영상 정보를 이용하여 인식된 사용자에 대한 정보를 근거로 상기 음성 정보를 발성한 사용자를 "잭슨"으로 확인할 수 있다.
다른 일 예로, 상기 제어부(140)는, 상기 통신부(110)를 통해 연결된 단말기로부터 전송된 음성 정보를 수신한 경우, 상기 멀티미디어 정보에 포함된 영상 정보를 이용하여 인식된 사용자에 대한 정보를 근거로 상기 음성 정보를 발성한 사용자를 "톰"으로 확인할 수 있다.
또한, 상기 제어부(140)는, 상기 멀티미디어 정보에 음성 정보가 포함된 경우, 상기 음성 정보를 발성한 화자를 인식하기 위해서, 음성 인식 기술 및 상기 저장부(130)에 기저장된 화자 데이터베이스를 이용하여 임의의 음성 정보를 발성한 화자를 인식할 수 있다. 또한, 상기 멀티미디어 정보에 복수의 사용자가 있고 상기 복수의 사용자 중 어느 하나의 사용자가 음성 정보를 발성한 경우, 상기 음성 인식 기술 등을 이용하여 상기 복수의 사용자 중 음성 정보를 발성한 화자를 확인(또는, 인식)할 수 있다(S140).
이후, 상기 제어부(140)는, 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출한다. 이때, 상기 영상 정보의 촬영 시점은, 상기 저장부(130)에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 멀티미디어 정보의 저장 위치에 대응한다.
일 예로, 상기 제어부(140)는, 상기 통신부(110)를 통해 수신된 멀티미디어 정보에서 음성 정보가 검출된 경우, 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점(또는, 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 시간 정보)을 검출한다. 또한, 상기 제어부(140)는, 상기 통신부(110)를 통해 수신된 멀티미디어 정보에서 음성 정보가 검출된 경우, 상기 저장부(130)에 저장되는 하나 이상의 영상 정보와 하나 이상의 음성 정보를 포함하는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부(130)에서의 상기 멀티미디어 정보의 저장 위치를 확인한다(S150).
이후, 상기 제어부(140)는, 상기 변환된 문자(또는, 상기 검출된 음성 정보에 대응하는 문자), 상기 음성 정보에 대응하는 사용자 정보 및, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 상기 저장부(130)에 저장한다. 이때, 상기 제어부(140)는, 상기 음성 정보에 대응하는 문자를 해당 음성 정보가 검출된 멀티미디어 정보에 링크시키며, 상기 멀티미디어 정보와 상기 음성 정보에 대응하는 문자는 상기 저장부(130)의 서로 다른 영역에 각각 저장되거나 또는, 서로 다른 각각의 저장부에 각각 저장될 수 있다. 즉, 상기 저장부(130)에 저장되는 음성 정보에 대응하는 문자는, 하나의 텍스트 파일 형태로 저장될 수 있으며, 상기 텍스트 파일 형태로 저장되는 상기 문자는, 상기 저장부(130)에 저장되는 멀티미디어 파일과 상기 문자에 포함된 영상 정보의 촬영 시점을 근거로 서로 링크 관계를 형성할 수 있다. 또한, 상기 제어부(140)는, 상기 변환된 문자에 상기 저장부(130)에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 멀티미디어 정보의 저장 위치를 함께 저장할 수도 있다.
일 예로, 상기 제어부(140)는, 도 4에 도시된 바와 같이, 멀티미디어 정보에 포함된 음성 정보에 대응하여 변환된 문자(401)에 상기 음성 정보에 대응하는 사용자 정보(402) 및 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점(403)(예를 들어, 멀티미디어 정보가 상기 저장부(130)에 처음 저장된 시점부터 3분 10초가 경과한 시점이 상기 선택된 문자에 대응하는 음성 정보가 수신된 시점임)을 상기 저장부(130)에 저장한다. 또한, 상기 저장부(130)에 저장되는 변환된 문자(401)에 상기 변환된 문자(401)가 저장된 날짜 정보, 상기 확인된 인원수, 상기 인식된 사용자 명단(404) 등이 포함될 수 있다. 또한, 상기 변환된 문자(401)는, 상기 저장부(130)에 독립적으로 저장되는 멀티미디어 정보와의 링크 관계를 형성하기 위해서, 상기 변환된 문자(401)에 포함된 상기 영상 정보의 촬영 시점(403)에 해당하는 상기 저장부(130)에 저장된 멀티미디어 정보의 저장 위치와 링크 관계를 형성할 수 있다(S160).
이후, 상기 제어부(140)는, 상기 저장부(130)에 저장된 문자들(또는, 문장) 중에서 제1 문자(문장)가 사용자에 의해 선택되었는지를 판단한다.
또한, 상기 제어부(140)는, 영상 검색을 위한 검색 조건이 수신되었는지를 판단할 수도 있다. 이때, 상기 검색 조건은, 특정 문자(또는, 문장), 인원 정보, 시간 정보(촬영 시점 포함), 사용자 정보 등과 같이 내용별, 주제별, 시간별, 사용자별 등의 검색 조건을 포함할 수 있다(S170).
상기 제어부(140)는, 상기 판단 결과, 상기 저장부(140)에 저장된 문자들(문장) 중에서 제1 문자가 사용자에 의해 선택되었을 때, 상기 선택된 문자에 링크된 멀티미디어 정보를 검색하고, 상기 검색 결과를 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다.
일 예로, 상기 제어부(140)는, 상기 판단 결과, 상기 도 4에 도시된 바와 같이, 상기 저장부(140)에 저장된 문자들 중에서 상기 제1 문자(411)가 사용자에 의해 선택되었을 때, 상기 선택된 문자에 링크된 멀티미디어 정보를 검색하고, 멀티미디어 정보를 재생하기 위한 응용 프로그램을 실행하고, 상기 선택된 문자에 포함된 영상 정보의 촬영 시점을 근거로 상기 검색된 멀티미디어 정보를 상기 응용 프로그램을 통해 상기 영상 정보의 촬영 시점부터 재생하여 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다.
또한, 상기 제어부(140)는, 상기 판단 결과, 상기 영상 검색을 위한 검색 조건이 수신되었을 때, 상기 수신된 검색 조건에 대응하여 링크된 멀티미디어 정보를 검색하고, 상기 검색 결과를 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다.
일 예로, 상기 제어부(140)는, 상기 판단 결과, 상기 영상 검색을 위한 특정 문자(예를 들어, "추후 미팅 일정")가 수신될 때, 상기 저장부(130)에 저장된 변환된 문자 중에서 상기 수신된 특정 문자를 포함하는 문자를 확인하고, 상기 확인된 특정 문자를 포함하는 문자에 대응하여 링크된 멀티미디어 정보를 검색하고, 상기 검색된 멀티미디어 정보에 포함된 영상 정보 및/또는 음성 정보를 각각 상기 표시부(150) 및/또는 상기 음성 출력부(160)를 통해 출력한다(S180).
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 영상 표시 장치 110: 통신부
120: 입력부 130: 저장부
140: 제어부 150: 표시부
160: 음성 출력부

Claims (19)

  1. 멀티미디어 정보에 포함된 영상 정보를 근거로 사용자를 인식하는 단계; 및
    상기 멀티미디어 정보에 포함된 음성 정보, 상기 음성 정보에 대응하는 사용자 정보 및, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 저장부에 저장하는 단계를 포함하며,
    상기 음성 정보를 저장하는 단계는,
    상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하는 과정;
    상기 멀티미디어 정보에서 상기 음성 정보가 검출된 경우, 상기 음성 정보에 대응하는 사용자 정보를 확인하는 과정;
    상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출하는 과정;
    상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치를 확인하는 과정; 및
    상기 변환된 문자에 상기 사용자 정보와, 상기 촬영 시점과, 상기 저장 위치를 포함시키고, 상기 변환된 문자와 상기 저장 위치 간의 링크 관계를 형성하는 과정을 포함하는 것을 특징으로 하는 영상 표시 방법.
  2. 제1항에 있어서, 상기 멀티미디어 정보는,
    카메라 모듈을 통해 촬영한 영상 정보, 마이크를 통해 수신된 음성 정보, 상기 카메라 모듈을 포함한 영상 표시 장치의 고유 아이디, 상기 영상 표시 장치와 연결된 적어도 하나의 단말기로부터 전송되어 수신한 영상 정보, 상기 적어도 하나의 단말기로부터 전송되어 수신한 음성 정보 및, 상기 적어도 하나의 단말기의 고유 아이디 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 표시 방법.
  3. 제1항에 있어서, 상기 사용자를 인식하는 단계는,
    상기 멀티미디어 정보에 포함된 영상 정보로부터 객체에 대한 특징 벡터를 추출하는 과정;
    상기 저장부에 기저장된 사용자 정보와 상기 추출된 특징 벡터와의 유사도를 비교하는 과정;
    상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 있을 때, 상기 기설정된 임계값 이상의 유사도를 가지는 사용자 정보에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식하는 과정;
    상기 비교 결과, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 없을 때, 상기 추출된 특징 벡터를 근거로 상기 기저장된 사용자 정보를 업데이트하는 과정; 및
    상기 업데이트된 사용자 정보에 포함된 상기 추출된 특징 벡터에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식하는 과정을 포함하여 이루어진 것을 특징으로 하는 영상 표시 방법.
  4. 제1항에 있어서, 상기 음성 정보를 저장하는 단계는,
    상기 변환된 문자에 상기 음성 정보를 발성한 사용자 정보를 포함시키는 과정을 포함하여 이루어진 것을 특징으로 하는 영상 표시 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하는 단계; 및
    상기 확인된 저장 위치부터 상기 멀티미디어 정보를 재생하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 영상 표시 방법.
  7. 제1항에 있어서,
    상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 저장 위치를 근거로 상기 저장 위치부터 상기 저장된 멀티미디어 정보를 재생하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 영상 표시 방법.
  8. 제1항에 있어서,
    멀티미디어 정보 검색을 위한 검색 조건이 수신될 때, 상기 저장부에 저장된 상기 변환된 문자 중에서 상기 수신된 검색 조건에 대응하는 문자를 확인하는 단계;
    상기 확인된 문자에 대응하는 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하는 단계; 및
    상기 확인된 저장 위치부터 상기 멀티미디어 정보를 재생하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 영상 표시 방법.
  9. 삭제
  10. 멀티미디어 정보를 저장하는 저장부; 및
    상기 멀티미디어 정보에 포함된 음성 정보, 상기 음성 정보에 대응하는 사용자 정보 및, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 상기 저장부에 저장하는 제어부를 포함하며,
    상기 제어부는,
    상기 멀티미디어 정보에 포함된 음성 정보를 문자로 변환하고, 상기 음성 정보에 대응하는 사용자 정보를 확인하고, 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점을 검출하고, 상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치를 확인하고, 상기 변환된 문자에 상기 사용자 정보와, 상기 촬영 시점과, 상기 저장 위치를 포함시켜 상기 저장부에 저장하며, 상기 변환된 문자와 상기 저장 위치 간의 링크 관계를 형성하는 것을 특징으로 하는 영상 표시 장치.
  11. 제10항에 있어서, 상기 멀티미디어 정보는,
    카메라 모듈을 통해 촬영한 영상 정보, 마이크를 통해 수신된 음성 정보, 상기 카메라 모듈을 포함한 영상 표시 장치의 고유 아이디, 상기 영상 표시 장치와 연결된 적어도 하나의 단말기로부터 전송되어 수신한 영상 정보, 상기 적어도 하나의 단말기로부터 전송되어 수신한 음성 정보 및, 상기 적어도 하나의 단말기의 고유 아이디 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 표시 장치.
  12. 제10항에 있어서, 상기 제어부는,
    상기 멀티미디어 정보에 포함된 영상 정보로부터 객체에 대한 특징 벡터를 추출하고, 상기 저장부에 기저장된 사용자 정보와 상기 추출된 특징 벡터와의 유사도를 비교하여, 상기 기저장된 사용자 정보 중에서 기설정된 임계값 이상의 유사도를 가지는 사용자 정보가 있을 때, 상기 기설정된 임계값 이상의 유사도를 가지는 사용자 정보에 대응하는 사용자를 해당 영상 정보에 포함된 사용자로 인식하는 것을 특징으로 하는 영상 표시 장치.
  13. 제10항에 있어서, 상기 제어부는,
    상기 변환된 문자에 상기 음성 정보를 발성한 사용자 정보를 포함시켜 상기 저장부에 저장하는 것을 특징으로 하는 영상 표시 장치.
  14. 삭제
  15. 제10항에 있어서, 상기 제어부는,
    상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하고, 상기 확인된 저장 위치부터 상기 저장부에 저장된 멀티미디어 정보를 재생하는 것을 특징으로 하는 영상 표시 장치.
  16. 제10항에 있어서, 상기 제어부는,
    상기 저장부에 저장된 상기 변환된 문자가 선택될 때, 상기 영상 정보의 저장 위치를 근거로 상기 저장 위치부터 상기 저장부에 저장된 멀티미디어 정보를 재생하는 것을 특징으로 하는 영상 표시 장치.
  17. 제10항에 있어서, 상기 제어부는,
    멀티미디어 정보 검색을 위한 검색 조건이 수신될 때, 상기 저장부에 저장된 상기 변환된 문자 중에서 상기 수신된 검색 조건에 대응하는 문자를 확인하고, 상기 확인된 문자에 대응하는 영상 정보의 촬영 시점을 근거로 상기 저장부에 저장된 멀티미디어 정보 중에서 상기 촬영 시점에 대응하는 저장 위치를 확인하고, 상기 확인된 저장 위치부터 상기 저장부에 저장된 멀티미디어 정보를 재생하는 것을 특징으로 하는 영상 표시 장치.
  18. 제10항에 있어서, 상기 제어부는,
    상기 변환된 문자에 하나 이상의 메타 데이터를 포함시켜 상기 저장부에 저장하는 것을 특징으로 하는 영상 표시 장치.
  19. 제18항에 있어서, 상기 메타 데이터는,
    상기 음성 정보에 대응하는 사용자 정보, 상기 멀티미디어 정보에서 상기 음성 정보가 검출된 시점에 대응하는 영상 정보의 촬영 시점, 상기 저장부에 저장되는 멀티미디어 정보 중에서 상기 음성 정보가 검출된 시점에 대응하는 상기 저장부에서의 상기 멀티미디어 정보의 저장 위치 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 표시 장치.
KR1020100022458A 2010-03-12 2010-03-12 영상 표시 방법 및 그 장치 KR101677622B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100022458A KR101677622B1 (ko) 2010-03-12 2010-03-12 영상 표시 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100022458A KR101677622B1 (ko) 2010-03-12 2010-03-12 영상 표시 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20110103232A KR20110103232A (ko) 2011-09-20
KR101677622B1 true KR101677622B1 (ko) 2016-11-18

Family

ID=44954545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100022458A KR101677622B1 (ko) 2010-03-12 2010-03-12 영상 표시 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR101677622B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102090948B1 (ko) 2013-05-20 2020-03-19 삼성전자주식회사 대화 기록 장치 및 그 방법
KR101508092B1 (ko) * 2014-03-13 2015-04-07 재단법인 다차원 스마트 아이티 융합시스템 연구단 화상 회의를 지원하는 방법 및 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019778A (ja) * 2004-06-30 2006-01-19 Toshiba Corp マルチメディアデータ再生装置およびマルチメディアデータ再生方法
JP2008176748A (ja) * 2007-01-22 2008-07-31 Fujitsu Ltd 情報付与プログラム、情報付与装置、および情報付与方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5710591A (en) * 1995-06-27 1998-01-20 At&T Method and apparatus for recording and indexing an audio and multimedia conference
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019778A (ja) * 2004-06-30 2006-01-19 Toshiba Corp マルチメディアデータ再生装置およびマルチメディアデータ再生方法
JP2008176748A (ja) * 2007-01-22 2008-07-31 Fujitsu Ltd 情報付与プログラム、情報付与装置、および情報付与方法

Also Published As

Publication number Publication date
KR20110103232A (ko) 2011-09-20

Similar Documents

Publication Publication Date Title
CN104812092B (zh) 一种智能设备的连网方法及装置
CN101720010B (zh) 用于在移动通信终端中提供情绪表达的装置和方法
CN105120122A (zh) 报警方法及装置
JP2009521186A (ja) 顔面認識に基づきユーザプロファイリングを提供する方法および装置
CN105182784A (zh) 控制智能设备的方法、装置及终端
KR20150144547A (ko) 영상 표시 기기 및 그의 동작 방법
KR101170612B1 (ko) 사용자 영상을 이용한 음성인식 시스템 및 방법
CN106331293A (zh) 来电信息处理方法及装置
CN106101456A (zh) 一种呼叫联系人的方法及装置
CN106096009A (zh) 消息生成方法及装置
KR101274471B1 (ko) 영상통화 중 감정 전달 시스템 및 방법
KR20110125548A (ko) 카메라 제어 장치 및 그 방법
CN105791409A (zh) 远程连接建立方法及装置
KR101677622B1 (ko) 영상 표시 방법 및 그 장치
JP2006350588A (ja) 情報処理機器及び情報処理システム
KR101337229B1 (ko) 영상통화 시 사용자의 감정상태 제공 시스템, 햅틱서버 및 방법
CN105939424A (zh) 应用切换方法及装置
CN107995612A (zh) 设备寻找方法、装置及电子设备
CN108241614A (zh) 信息处理方法和装置、用于信息处理的装置
CN108377302A (zh) 屏蔽骚扰电话的方法及装置
KR20110138094A (ko) 화상 회의 시스템 및 그 방법
KR101264797B1 (ko) 휴대 단말기에서 얼굴인식을 통한 사진 검색 방법
CN103888612B (zh) 呼叫转移方法、装置及终端
KR20110026362A (ko) 햅틱 화상 통화 방법 및 시스템
KR101649641B1 (ko) 영상 통화 시스템의 통화 제어 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191014

Year of fee payment: 4