KR102325697B1 - 정보 처리 장치, 정보 처리 방법 및 프로그램 - Google Patents

정보 처리 장치, 정보 처리 방법 및 프로그램 Download PDF

Info

Publication number
KR102325697B1
KR102325697B1 KR1020167023227A KR20167023227A KR102325697B1 KR 102325697 B1 KR102325697 B1 KR 102325697B1 KR 1020167023227 A KR1020167023227 A KR 1020167023227A KR 20167023227 A KR20167023227 A KR 20167023227A KR 102325697 B1 KR102325697 B1 KR 102325697B1
Authority
KR
South Korea
Prior art keywords
response
request
function
unit
user
Prior art date
Application number
KR1020167023227A
Other languages
English (en)
Other versions
KR20160127737A (ko
Inventor
아키히로 와타나베
모토키 츠노카와
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Publication of KR20160127737A publication Critical patent/KR20160127737A/ko
Application granted granted Critical
Publication of KR102325697B1 publication Critical patent/KR102325697B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/382Information transfer, e.g. on bus using universal interface adapter
    • G06F13/385Information transfer, e.g. on bus using universal interface adapter for adaptation of a particular data processing system to different peripheral devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2805Home Audio Video Interoperability [HAVI] networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4396Processing of audio elementary streams by muting the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L2012/2847Home automation networks characterised by the type of home appliance used
    • H04L2012/2849Audio/video appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L2012/2847Home automation networks characterised by the type of home appliance used
    • H04L2012/285Generic home appliances, e.g. refrigerators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/10Arrangements in telecontrol or telemetry systems using a centralized architecture

Abstract

리퀘스트에 대한 리스펀스를 제공할 기기를 자동적으로 선택함으로써, 유저가 자연스러우면서 간단한 조작으로 기기 네트워크를 이용하는 것을 가능하게 한다. 시스템에 대한 리퀘스트를 취득하는 리퀘스트 취득부와, 상기 리퀘스트에 대한 리스펀스를 결정하는 리스펀스 결정부와, 적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기기 선택부와, 상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기기 제어부를 구비하는 정보 처리 장치가 제공된다.

Description

정보 처리 장치, 정보 처리 방법 및 프로그램 {INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM}
본 개시는 정보 처리 장치, 정보 처리 방법 및 프로그램에 관한 것이다.
최근, 정보 처리 기능이나 네트워크 통신 기능을 갖는 스마트 가전이 보급되고 있다. 스마트 가전이나, 스마트폰, 태블릿 단말기 또는 퍼스널 컴퓨터와 같은 정보 처리 단말기, NAS(Network Attached Storage) 등을 가정 내의 네트워크를 통하여 제어함으로써, 유저의 생활을 서포트하는 시스템이 구축되고 있다. 이러한 시스템에 이용되는 기술은, 예를 들어 특허문헌 1에 기재되어 있다.
일본 특허 공개 평11-311996호 공보
그러나, 상기와 같은 시스템에 있어서, 네트워크 내의 어느 기기를 이용할지는, 유저의 선택에 의해 결정되고 있다. 즉, 예를 들어 가정 내의 네트워크에 복수의 스피커가 접속되어 있는 경우, 유저는, 음악의 재생을 리퀘스트하는 것만으로는 불충분하며, 어느 스피커를 이용하여 음악을 재생할지를 지정할 필요가 있다. 이러한 경우, 선택을 위한 조작이 증가할 뿐만 아니라, 기기를 지정하기 위한 명칭이 유저에게는 친숙하지 않은 것인 경우도 있어, 시스템을 이용하기 위한 유저의 조작을 보다 자연스러우면서 간단한 것으로 하는 측면에서는 반드시 바람직한 것만은 아니었다.
따라서, 본 개시에서는, 리퀘스트에 대한 리스펀스를 제공할 기기를 자동적으로 선택함으로써, 유저가 자연스러우면서 간단한 조작으로 기기 네트워크를 이용하는 것을 가능하게 하는, 신규이면서도 개량된 정보 처리 장치, 정보 처리 방법 및 프로그램을 제안한다.
본 개시에 따르면, 시스템에 대한 리퀘스트를 취득하는 리퀘스트 취득부와, 상기 리퀘스트에 대한 리스펀스를 결정하는 리스펀스 결정부와, 적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기기 선택부와, 상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기기 제어부를 구비하는 정보 처리 장치가 제공된다.
또한, 본 개시에 따르면, 시스템에 대한 리퀘스트를 취득하는 것과, 상기 리퀘스트에 대한 리스펀스를 결정하는 것과, 적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 것과, 상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 것을 포함하는 정보 처리 방법이 제공된다.
또한, 본 개시에 따르면, 시스템에 대한 리퀘스트를 취득하는 기능과, 상기 리퀘스트에 대한 리스펀스를 결정하는 기능과, 적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기능과, 상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기능을 컴퓨터에 실현시키기 위한 프로그램이 제공된다.
이상 설명한 바와 같이 본 개시에 따르면, 리퀘스트에 대한 리스펀스를 제공할 기기를 자동적으로 선택함으로써, 유저가 자연스러우면서 간단한 조작으로 기기 네트워크를 이용할 수 있다.
또한, 상기 효과는 반드시 한정적인 것은 아니며, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서에 개시된 어느 하나의 효과, 또는 본 명세서로부터 파악될 수 있는 다른 효과가 발휘되어도 된다.
도 1은 본 개시의 일 실시 형태에 관한 시스템의 구성예를 도시하는 도면이다.
도 2는 본 개시의 일 실시 형태에 관한 전자 기기의 구성예를 도시하는 블록도이다.
도 3은 본 개시의 일 실시 형태에 관한 서버의 구성예를 도시하는 블록도이다.
도 4는 본 개시의 일 실시 형태에서의 에이전트 기능의 구성예를 도시하는 블록도이다.
도 5는 본 개시의 일 실시 형태에서의 기기 정보 DB의 예를 도시하는 도면이다.
도 6은 본 개시의 일 실시 형태의 구체적인 이용 형태의 제1 예를 도시하는 시퀀스도이다.
도 7은 본 개시의 일 실시 형태의 구체적인 이용 형태의 제2 예를 도시하는 시퀀스도이다.
도 8은 본 개시의 실시 형태에 관한 정보 처리 장치의 하드웨어 구성예를 도시하는 블록도이다.
이하에 첨부 도면을 참조하면서, 본 개시의 적합한 실시 형태에 대하여 상세하게 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 번호를 부여함으로써 중복 설명을 생략한다.
또한, 설명은 이하의 순서로 행하기로 한다.
1. 일 실시 형태의 구성예
1-1. 시스템 구성예
1-2. 각 장치의 구성예
1-3. 에이전트 기능의 구성예
1-4. 기기 정보의 예
2. 구체적인 이용 형태의 예
2-1. 제1 예
2-2. 제2 예
2-3. 그 밖의 예
3. 하드웨어 구성
4. 보충
(1. 일 실시 형태의 구성예)
(1-1. 시스템 구성예)
도 1은, 본 개시의 일 실시 형태에 관한 시스템의 구성예를 도시하는 도면이다. 도 1을 참조하면, 시스템(10)은, 전자 기기(100)와, 전자 기기(100)가 접속되는 네트워크(200)를 포함한다. 시스템(10)은, 또한 네트워크(200)에 접속되는 서버(300)를 포함해도 된다.
전자 기기(100)는, 유저에 의해 사용되는 장치이다. 시스템(10)에는, 복수의 전자 기기(100)가 포함될 수 있다. 도 1에서는, 전자 기기(100)의 예로서, 텔레비전(100a), 스피커(100b), 스피커(100c), 조명 기구(100d), 태블릿(100e), 스피커(100f), 텔레비전(100g), 스피커(100h), NAS(100i), 퍼스널 컴퓨터(100j), 조명 기구(100k) 및 스마트폰(100m)이 도시되어 있다. 전자 기기(100)의 예는 이들 장치에 한정되지는 않으며, 그 밖에도 예를 들어 미디어 플레이어, 프린터, 게임기, 공조 기기 또는 냉장고 등, 네트워크(200)에 접속 가능한 모든 기기를 포함할 수 있다. 전자 기기(100)는, 예를 들어 텔레비전(100a) 내지 퍼스널 컴퓨터(100j)와 같이 가정 내(거실, 침실, 서재 등)에 배치되어도 되고, 스마트폰(100m)과 같이 유저에 의해 휴대되어 외부로 반출되어도 된다.
네트워크(200)는, 전자 기기(100)를 서로 접속하는 무선 및/또는 유선의 네트워크이다. 네트워크(200)는, 예를 들어 가정 내에 배치된 각 기기가 접속되는 LAN(Local Area Network)을 포함한다. 또한, 네트워크(200)는, 외부로 반출된 스마트폰(100m)과 같은 기기, 및 서버(300)가 접속되는 인터넷이나 휴대 전화망 등을 포함할 수 있다.
서버(300)는, 네트워크(200)를 통하여 전자 기기(100)에 서비스를 제공한다. 서버(300)는, 예를 들어 네트워크(200)에 접속된 정보 처리 장치에 의해 실현된다. 후술하는 서버(300)의 기능은, 단일의 정보 처리 장치에 의해 실현되어도 되고, 유선 또는 무선의 네트워크를 통하여 접속된 복수의 정보 처리 장치의 협동에 의해 실현되어도 된다.
본 실시 형태에서는, 시스템(10)에 있어서, 어느 하나의 전자 기기(100)에 의해 취득된 유저의 리퀘스트에 대한 리스펀스를 제공할 기기를 자동적으로 선택하는 기능이 실현된다. 도시된 예에 있어서, 네트워크(200) 상의 전자 기기(100)는, 예를 들어 서버(300) 또는 전자 기기(100) 중 어느 하나에 의해 실현되는 에이전트 기능에 의해 제어된다. 에이전트 기능은, 예를 들어 텔레비전(100a)이 취득한 유저의 지시 입력(예를 들어 음성 입력)으로부터 유저의 리퀘스트를 추출하고, 리퀘스트에 대한 리스펀스를 결정한다.
여기서, 리스펀스가 리퀘스트를 제공한 유저 본인에게 제공된다고 해도, 리스펀스를 제공할 기기의 선택지는 하나가 아니다. 예를 들어, 거실에 있는 텔레비전(100a)에 대하여 음악의 재생이 지시된 경우, 텔레비전(100a) 자체의 스피커를 사용하여 음악을 재생해도 되고, 동일하게 거실에 있는 스피커(100b) 또는 스피커(100c)를 사용하여 음악을 재생해도 된다. 따라서, 에이전트 기능은, 어느 전자 기기(100)에 의해 리스펀스를 제공할지를 선택할 필요가 있다.
또한, 리스펀스가 리퀘스트를 제공한 유저와는 상이한 유저에게 제공되는 경우, 리스펀스를 제공할 기기의 선택지는 더 많아질 수 있다. 예를 들어, 외출한 유저가, 스마트폰(100m)에 대하여, 가정 내의 가족에게 세탁물을 걷어 들이도록 전달할 것을 의뢰한 경우, 가족이 있는 곳에 따라, 텔레비전(100a) 내지 퍼스널 컴퓨터(100j) 중 어느 장치에 의해 정보를 제공하는 것이 적절할지는 서로 다르다.
이와 같이, 시스템(10)에 있어서, 에이전트 기능이 유저의 리퀘스트에 대한 리스펀스를 제공할 기기를 선택하는 것은, 반드시 용이한 것만은 아니다. 그러나, 예를 들어 음악을 재생하는 데 있어서, 어느 스피커를 사용할지를 유저가 지정하는 것은 번잡하다. 또한, 외출한 유저는 가정 내의 가족이 있는 곳을 모르기 때문에, 정보를 제공할 기기를 지정하는 것이 곤란하다.
따라서, 본 실시 형태에서는, 에이전트 기능이, 리퀘스트에 대하여 결정된 리스펀스의 속성에 기초하여, 리스펀스를 제공하기 위해 적합한 기기를 자동적으로 선택한다. 이에 의해, 유저는, 에이전트 기능에 대하여 리퀘스트를 입력하는 데 있어서, 반드시 기기를 지정할 필요가 있는 것은 아니다. 또한, 유저는, 리스펀스를 제공하기에 적합한 기기를 모르는 경우에도, 에이전트 기능에 기기의 선택을 맡길 수 있다.
(1-2. 각 장치의 구성예)
도 2는, 본 개시의 일 실시 형태에 관한 전자 기기의 구성예를 도시하는 블록도이다. 도 2를 참조하면, 전자 기기(100)는, 화상/음성 출력부(110)와, 화상/음성 입력부(120)와, 조작부(130)와, 제어부(140)와, 통신부(150)와, 기억부(160)를 포함할 수 있다. 또한, 도시된 구성은 본 실시 형태의 설명을 위해 간략화되어 있으며, 전자 기기(100)는 도시되어 있지 않은 구성 요소를 더 포함해도 된다. 단, 도시되어 있지 않은 구성 요소는, 각 기기의 일반적인 구성 요소로서 이미 알려진 것일 수 있기 때문에, 여기서는 상세한 설명을 생략한다.
화상/음성 출력부(110)는, 예를 들어 화상을 출력하는 디스플레이와, 음성을 출력하는 스피커에 의해 실현될 수 있다. 디스플레이는, 예를 들어 LCD(Liquid Crystal Display) 또는 유기 EL(Electro-Luminescence) 디스플레이 등이며, 제어부(140)의 제어에 따라 각종 화상을 전자적으로 표시한다. 또한, 본 명세서에 있어서, 화상은 정지 화상 및 동화상을 포함한다. 스피커는, 제어부(140)의 제어에 따라 각종 음성을 출력한다. 또한, 전자 기기(100)의 종류에 따라서는, 화상/음성 출력부(110)가 화상 또는 음성 중 어느 한쪽만을 출력해도 되고, 또한 화상/음성 출력부(110)가 설치되지 않아도 된다.
화상/음성 입력부(120)는, 예를 들어 화상을 취득하는 카메라와, 음성을 취득하는 마이크로폰에 의해 실현될 수 있다. 카메라는, 예를 들어 CMOS(Complementary Metal Oxide Semiconductor) 등의 촬상 소자를 사용하여 실공간을 전자적으로 촬상하여 화상 데이터를 생성한다. 마이크로폰은, 예를 들어 유저의 발화 등의 음성을 녹음하여 음성 데이터를 생성한다. 생성된 화상 데이터 및/또는 음성 데이터는, 제어부(140)에 제공된다. 또한, 전자 기기(100)의 종류에 따라서는, 화상/음성 입력부(120)가 화상 또는 음성 중 어느 한쪽만을 취득해도 된다. 혹은, 화상/음성 입력부(120)가 설치되지 않아도 된다.
조작부(130)는, 예를 들어 유저의 조작을 취득하는 터치 패널, 키보드, 마우스, 키패드 또는 버튼 등에 의해 실현될 수 있다. 조작부(130)에 의해 취득된 유저의 조작을 나타내는 정보는, 제어부(140)에 제공된다. 전자 기기(100)에 있어서, 유저의 지시 입력은, 조작부(130)를 통하여 취득되거나, 화상/음성 입력부(120)를 통하여 음성이나 제스처 등으로서 취득될 수 있다. 따라서, 전자 기기(100)가 주로 조작부(130)에 의해 유저의 지시 입력을 취득하는 경우에는 화상/음성 입력부(120)를 설치하지 않는 것이 가능하고, 반대로 전자 기기(100)가 주로 화상/음성 입력부(120)에 의해 지시 입력을 취득하는 경우에는 조작부(130)를 설치하지 않는 것도 가능하다.
제어부(140)는, 예를 들어 CPU(Central Processing Unit) 및/또는 DSP(Digital Signal Processor) 등의 프로세서가 기억부(160)에 저장된 프로그램에 따라 동작함으로써 실현될 수 있다. 제어부(140)는, 전자 기기(100)의 각 부의 동작을 제어한다. 예를 들어, 제어부(140)는, 통신부(150)를 통하여 수신되었거나, 또는 기억부(160)로부터 판독된 화상 및/또는 음성을 출력하도록 화상/음성 출력부(110)를 제어한다. 또한, 제어부(140)는, 화상 데이터 및/또는 음성 데이터를 취득하도록 화상/음성 입력부(120)를 제어하고, 취득된 데이터를 필요에 따라 처리한 후, 통신부(150)를 통하여 송신하거나, 또는 기억부(160)에 저장한다. 제어부(140)는, 이들 제어를, 예를 들어 조작부(130) 또는 화상/음성 입력부(120)를 통하여 취득되는 유저의 지시 입력에 따라 실행할 수 있다.
통신부(150)는, 네트워크(200)를 구성하는 무선 또는 유선의 통신 방식에 대응한 통신 인터페이스이다. 통신부(150)는, 예를 들어 통신 회로 및 안테나 또는 포트 등을 포함할 수 있다. 통신부(150)를 통하여, 제어부(140)는 네트워크(200) 상의 다른 전자 기기(100) 또는 서버(300)와의 사이에서 각종 정보를 교환한다.
기억부(160)는, 예를 들어 반도체 메모리나 하드 디스크 등에 의해 실현될 수 있다. 기억부(160)는, 전자 기기(100)에서 사용되거나, 또는 전자 기기(100)에서 생성된 각종 데이터를 저장한다. 기억부(160)는, 일시적인 기억 영역을 갖고, 제어부(140)가 실행 중인 프로그램이나, 화상/음성 입력부(120)에 의해 취득된 데이터, 통신부(150)에 의해 수신된 데이터 등을 일시적으로 저장할 수 있다. 또한, 기억부(160)는, 영속적인 기억 영역을 갖고, 제어부(140)가 실행하기 위한 프로그램이나, 각종 설정 데이터, 화상/음성 출력부(110)로부터 출력되는 로컬 컨텐츠의 데이터, 화상/음성 입력부(120)에 의해 취득되어 조작부(130)에 의해 보존할 것이 지시된 데이터 등을 저장할 수 있다.
도 3은, 본 개시의 일 실시 형태에 관한 서버의 구성예를 도시하는 블록도이다. 도 3을 참조하면, 서버(300)는, 제어부(310)와, 통신부(320)와, 기억부(330)를 포함할 수 있다. 또한, 도시된 구성은 본 실시 형태의 설명을 위해 간략화되어 있으며, 서버(300)는 도시되어 있지 않은 구성 요소를 더 포함해도 된다. 단, 도시 되어 있지 않은 구성 요소는, 서버의 일반적인 구성 요소로서 이미 알려진 것일 수 있기 때문에, 여기서는 상세한 설명을 생략한다. 또한, 상술한 바와 같이, 서버(300)는, 단일의 정보 처리 장치에 의해 실현되어도 되고, 복수의 정보 처리 장치의 협동에 의해 실현되어도 된다. 따라서, 도시된 구성 요소도, 복수의 정보 처리 장치로 분산되어 실현될 수 있다.
제어부(310)는, 예를 들어 CPU 및/또는 DSP 등의 프로세서가 기억부(330)에 저장된 프로그램에 따라 동작함으로써 실현될 수 있다. 제어부(310)는, 서버(300)의 각 부의 동작을 제어한다. 예를 들어, 제어부(310)는, 필요에 따라 기억부(330)에 저장된 설정 정보 등을 참조하면서, 통신부(320)를 통하여 네트워크(200) 상의 전자 기기(100)에 정보를 송신한다. 이 정보는, 전자 기기(100)에 소정의 동작을 실행시키기 위한 커맨드를 포함할 수 있다. 또한, 제어부(310)는, 전자 기기(100)로부터 통신부(320)를 통하여 수신된 정보를 처리한 결과에 기초하여, 다른 전자 기기(100)에 커맨드를 포함할 수 있는 정보를 송신한다. 혹은, 제어부(310)는, 전자 기기(100)로부터 통신부(320)를 통하여 수신된 정보를 처리한 결과에 기초하여, 기억부(330)에 저장된 설정 정보 등을 갱신해도 된다.
통신부(320)는, 네트워크(200)를 구성하는 유선 또는 무선의 통신 방식에 대응한 통신 인터페이스이다. 통신부(320)는, 예를 들어 통신 회로, 및 포트 또는 안테나 등을 포함할 수 있다. 통신부(320)를 통하여, 제어부(310)는 네트워크(200) 상의 전자 기기(100)와의 사이에서 각종 정보를 교환한다.
기억부(330)는, 예를 들어 반도체 메모리나 하드 디스크 등에 의해 실현될 수 있다. 기억부(330)는, 서버(300)에서 사용되거나, 또는 서버(300)에서 생성된 각종 데이터를 저장한다. 기억부(330)는, 일시적인 기억 영역을 갖고, 제어부(310)가 실행 중인 프로그램이나, 통신부(320)에 의해 전자 기기(100)로부터 수신된 데이터, 제어부(310)가 생성한 데이터 등을 일시적으로 저장할 수 있다. 또한, 기억부(330)는, 영속적인 기억 영역을 갖고, 제어부(310)가 실행하기 위한 프로그램이나, 각종 설정 데이터 등을 저장할 수 있다.
(1-3. 에이전트 기능의 구성예)
도 4는, 본 개시의 일 실시 형태에서의 에이전트 기능의 구성예를 도시하는 블록도이다. 도 4를 참조하면, 에이전트 기능은, 리퀘스트 취득부(510)와, 리스펀스 결정부(520)와, 기기 선택부(550)와, 기기 제어부(580)를 포함한다. 에이전트 기능은, 또한 유저 위치 정보 취득부(540)와 기기 상태 감시부(590)를 포함해도 된다. 또한, 에이전트 기능은, 커맨드 DB(530)와, 유저 기호 DB(560)와, 기기 정보 DB(570)를 참조해도 된다. 이들 구성 요소는, 예를 들어 상기 서버(300)의 제어부(310) 및 기억부(330)에 의해 실현된다. 혹은, 상기 구성 요소는, 어느 하나의 전자 기기(100)(예를 들어 텔레비전(100a)이나 스마트폰(100m))의 제어부(140) 및 기억부(160)에 의해 실현되어도 된다. 또한, 상기 구성 요소는, 전자 기기(100)와 서버(300)로 분산되어 실현되어도 된다.
또한, 전자 기기(100)에 의해 에이전트 기능이 실현 가능한 경우, 시스템(10)은 서버(300)를 포함하지 않아도 된다. 혹은, 에이전트 기능은 서버(300)여도 전자 기기(100)여도 실현 가능하며, 서버(300)가 네트워크(200)와 통신 가능한 경우에는 서버에서, 그렇지 않은 경우에는 대체적(代替的)으로 전자 기기(100)에서, 에이전트 기능이 실현되어도 된다. 이하, 각각의 구성 요소에 대하여 더 설명한다.
(리퀘스트 취득부)
리퀘스트 취득부(510)는, 시스템(10)에 대한 유저로부터의 리퀘스트를 취득한다. 유저로부터의 리퀘스트는, 전자 기기(100) 중 어느 하나에 있어서 입력된다. 예를 들어, 유저로부터의 리퀘스트는, 전자 기기(100)의 화상/음성 입력부(120)에 포함되는 마이크로폰을 사용하여 음성 데이터로서 입력된다. 이 경우, 유저의 리퀘스트는 발화 음성을 포함할 수 있다. 혹은, 유저로부터의 리퀘스트는, 전자 기기(100)의 화상/음성 입력부(120)에 포함되는 카메라를 사용하여 화상 데이터로서 입력되어도 된다. 이 경우, 유저의 리퀘스트는, 제스처 화상을 포함할 수 있다. 또한, 유저로부터의 리퀘스트는, 전자 기기(100)의 조작부(130)를 통하여 입력되어도 된다. 에이전트 기능이 서버(300), 또는 리퀘스트가 입력된 전자 기기(100)와는 상이한 전자 기기(100)에서 실현되는 경우, 리퀘스트 취득부(510)는, 네트워크(200)를 통하여 리퀘스트를 수신한다.
(리스펀스 결정부)
리스펀스 결정부(520)는, 리퀘스트 취득부(510)에 의해 취득된 리퀘스트에 대한 리스펀스를 결정한다. 예를 들어, 리퀘스트가 발화 음성을 포함하는 음성 데이터로서 취득된 경우, 리스펀스 결정부(520)는, 음성 인식의 처리를 실행하여, 발화 음성의 내용을 예를 들어 텍스트로서 추출한다. 또한, 리스펀스 결정부(520)는, 추출된 텍스트에 기초하여 커맨드 DB(530)를 참조하여, 유저의 발화 음성에 의해 나타나는 커맨드와, 커맨드에 대한 리스펀스를 결정한다. 또한, 예를 들어 리퀘스트가 제스처 화상을 포함하는 화상 데이터로서 취득된 경우, 리스펀스 결정부(520)는, 화상 인식의 처리를 실행하여, 제스처의 내용을 추출한다. 또한, 리스펀스 결정부(520)는, 추출된 제스처의 내용에 기초하여 커맨드 DB(530)를 참조하여, 유저의 제스처에 의해 나타나는 커맨드와, 커맨드에 대한 리스펀스를 결정한다.
여기서, 리스펀스 결정부(520)에 의해 결정되는 리스펀스는, 전자 기기(100)를 단체 또는 조합으로 이용함으로써 실현 가능한 모든 기능을 포함할 수 있다. 예를 들어, 리스펀스는, 화상/음성 출력부(110)에 스피커를 포함하는 전자 기기(100)를 사용한 음성의 출력이어도 된다. 이 경우, 출력되는 음성은, 예를 들어 음악 콘텐츠여도 되고, 어떠한 정보를 제공하는 음성 메시지여도 된다. 또한, 리스펀스는, 화상/음성 출력부(110)에 디스플레이를 포함하는 전자 기기(100)를 사용한 화상의 출력이어도 된다. 이 경우, 출력되는 화상은, 예를 들어 화상 콘텐츠여도 되고, 어떠한 정보를 제공하는 통지 화상이어도 된다. 또한, 리스펀스는, 고유의 기능을 갖는 전자 기기(100), 예를 들어 조명 기구나 프린터, 공조 기기, 냉장고 등이, 각각의 기능의 온/오프 또는 조절을 실행하는 것이어도 된다. 또한, 에이전트 기능이 유저로부터의 리퀘스트에 대하여 리스펀스를 제공하는 것 자체는 이미 알려진 기술이기 때문에, 본 실시 형태에 있어서 그러한 리퀘스트 및 리스펀스의 예를 적용하는 것도 가능하다.
또한, 리스펀스 결정부(520)에 의해 결정되는 리스펀스는, 시스템(10)을 이용하는 유저 중 어느 하나를 대상으로 하여 제공되는 것이어도 된다. 예를 들어, 리스펀스가 음성의 출력이나 화상의 제공인 경우, 어느 유저에 대하여 음성 또는 화상을 제공할지가, 리스펀스 결정부(520)에 의해 결정된다. 리스펀스 결정부(520)는, 예를 들어 리퀘스트로부터 추출된 텍스트나 제스처 등의 내용으로부터, 대상의 유저를 나타내는 정보를 추출해도 된다. 혹은, 리스펀스 결정부(520)는, 리퀘스트가 입력된 전자 기기(100)에 가장 가까운 유저(유저 위치 정보 취득부(540)에 의해 특정됨)를, 리스펀스를 제공할 대상으로서 특정해도 된다.
(유저 위치 정보 취득부)
유저 위치 정보 취득부(540)는, 리스펀스 결정부(520)에 의해 결정된 리스펀스에 관련된 유저의 위치 정보를 취득한다. 예를 들어, 유저 위치 정보 취득부(540)는, 리스펀스가 제공될 대상인 유저의 위치 정보를 취득해도 된다. 혹은, 유저 위치 정보 취득부(540)는, 리퀘스트를 입력한 유저(리스펀스가 제공될 대상인 유저와 동일해도 됨)의 위치 정보를 취득해도 된다. 유저의 위치 정보는, 예를 들어 스마트폰(100m)의 GPS(Global Positioning System) 수신기 등을 이용하여 취득된다. 또한, 유저가 가정 내에 있는 경우, 가정 내의 센서 네트워크 등에 의해, 유저의 상세한 위치 정보를 취득하는 것도 가능할 수 있다. 혹은, 유저의 위치 정보는, 전자 기기(100)의 화상/음성 출력부(110)가 취득하는 화상 또는 음성의 해석이나, 전자 기기(100)를 사용한 서비스에의 로그인 상태 등에 기초하여 취득되어도 된다. 이 경우, 위치 정보는, 각각의 전자 기기(100)에 대응지어 제공될 수 있다.
(기기 선택부)
기기 선택부(550)는, 리스펀스 결정부(520)에 의해 결정된 리스펀스에 대하여, 적어도 리스펀스의 속성에 기초하여, 유저가 이용 가능한 기기군 중에서 리스펀스를 제공할 기기를 선택한다. 본 실시 형태에 있어서, 유저가 이용 가능한 기기군은, 시스템(10)에 포함되는 전자 기기(100)이다. 예를 들어, 전자 기기(100)의 적어도 일부에 소유자가 설정되어 있고, 소유자에 의해 전자 기기(100)에의 액세스가 제한되어 있는 경우, 유저가 이용 가능한 기기군은, 전자 기기(100) 중 당해 유저에게 액세스 권한이 부여된 기기이다. 기기 선택부(550)는, 전자 기기(100)의 액세스 권한에 관한 정보를, 기기 정보 DB(570)로부터 취득해도 된다.
여기서, 예를 들어 리스펀스의 속성은, 리스펀스를 제공할 대상을 포함하고, 기기 선택부(550)는, 리스펀스를 제공할 대상의 위치와, 시스템(10)에 포함되는 기기의 위치에 기초하여, 리스펀스를 제공할 기기를 선택해도 된다. 리스펀스를 제공할 대상의 유저는, 상기와 같이 리스펀스 결정부(520)에 의해 특정될 수 있다. 또한, 유저의 위치 정보는, 유저 위치 정보 취득부(540)에 의해 취득될 수 있다. 시스템(10)에 포함되는 기기의 위치 정보는, 예를 들어 기기 정보 DB(570)로부터 취득될 수 있다. 보다 구체적으로는, 기기 선택부(550)는 리스펀스 결정부(520)에 의해 결정된 리스펀스를 제공하는 것이 가능한 전자 기기(100) 중에서, 위치가 대상에 가까운 것을, 리스펀스를 제공할 기기로서 선택해도 된다.
상기 예에 있어서, 기기 선택부(550)는, 리스펀스를 제공할 대상, 대상의 위치, 또는 전자 기기(100)의 위치 중 적어도 하나가 변화한 경우, 리스펀스를 제공할 기기를 재선택해도 된다. 즉, 기기 선택부(550)는, 예를 들어 리퀘스트 취득부(510)에 의해 새롭게 취득된 리퀘스트에 의해 리스펀스를 제공할 대상이 변경되거나, 리스펀스의 제공 중에 대상의 유저 또는 리스펀스를 제공할 전자 기기(100)가 이동하거나 한 경우에, 리스펀스를 제공할 전자 기기(100)를 동적으로 변경해도 된다.
또한, 예를 들어 리스펀스의 속성은, 리스펀스에 있어서 실현될 기능을 포함하고, 기기 선택부(550)는, 리스펀스에 있어서 실현될 기능에 관한 전자 기기(100)의 성능에 기초하여, 리스펀스를 제공할 기기를 선택해도 된다. 기능에 관한 전자 기기(100)의 성능은, 예를 들어 기기 정보 DB(570)로부터 취득될 수 있다. 보다 구체적으로는, 기기 선택부(550)는, 리스펀스에 있어서 실현될 기능에 관한 성능이 가장 높은 전자 기기(100)를, 리스펀스를 제공할 기기로서 선택해도 된다. 예를 들어, 실현될 기능이 화상 또는 음성의 제공인 경우, 기기 선택부(550)는 위치 정보를 사용한 선택을 조합하여 실시하고, 대상의 유저의 위치를 기준으로 한 소정의 범위 내(예를 들어, 동일한 방안)에 있는 전자 기기(100) 중에서, 화상 또는 음성의 제공에 관한 성능이 가장 높은 전자 기기(100)를 선택한다. 혹은, 실현될 기능이, 정보의 검색이나 화상 처리와 같은, 반드시 유저의 근처에서 실행될 필요가 없는 기능인 경우, 기기 선택부(550)는 단순하게 성능이 가장 높은 전자 기기(100)를 선택해도 된다.
상기 예에 있어서, 기기 선택부(550)는, 리스펀스를 제공할 기기로서 복수의 기기를 선택해도 된다. 예를 들어, 기기 선택부(550)는, 리스펀스에 있어서 실현될 기능을, 복수의 전자 기기(100)에서 동시 병행적으로 제공시켜도 된다. 혹은, 기기 선택부(550)는, 리스펀스에 있어서 실현될 기능을, 복수의 전자 기기(100)로 분할하여 제공시켜도 된다. 보다 구체적으로는, 리스펀스에 있어서 화상 및 음성의 재생 기능이 실현되는 경우에, 기기 선택부(550)는, 화상의 재생 기능과 음성의 재생 기능을 상이한 전자 기기(100)에서 제공시켜도 된다. 예를 들어, 도 1에 도시한 시스템(10)의 예인 경우, 텔레비전(100a)이 화상을 재생하고, 스피커(100c)가 음성을 재생해도 된다. 이 경우, 텔레비전(100a)은, 화상 및 음성을 재생하면서 음성을 뮤트하도록 제어되어도 된다.
또한, 예를 들어 기기 선택부(550)는, 리스펀스를 제공할 대상의 유저의 기호에 기초하여 리스펀스를 제공할 기기를 선택해도 된다. 상기와 같이, 리스펀스를 제공할 대상의 유저는, 상기와 같이 리스펀스 결정부(520)에 의해 특정될 수 있다. 또한, 유저의 기호는, 유저 기호 DB(560)로부터 취득될 수 있다. 유저 기호 DB(560)는, 예를 들어 시스템(10)을 이용하는 각 유저에 의한 전자 기기(100)의 사용 이력이나, 각 유저가 명시적으로 입력한 정보 등에 기초하여 생성된다. 보다 구체적으로는, 기기 선택부(550)는, 리스펀스를 제공할 대상의 유저의 기호에 가장 합치하는 전자 기기(100)를, 리스펀스를 제공할 기기로서 선택해도 된다.
또한, 기기 선택부(550)는, 항상 리스펀스를 제공할 기기를 선택 가능하다고는 할 수 없다. 예를 들어, 위치, 기능 및/또는 기호 등의 조건을 적용한 결과, 선택 가능한 기기가 발견되지 않는 경우도 있을 수 있다. 또한, 리퀘스트 취득부(510)에 의해 취득된 리퀘스트에 포함되는 정보가 불완전하기 때문에, 기기를 선택하는 것이 곤란한 경우도 있을 수 있다. 이러한 경우, 기기 선택부(550)는, 기기가 선택되지 않았다는 것의 통지나, 기기를 선택하기 위한 추가 정보의 요구 등을, 기기 제어부(580)를 통하여 전자 기기(100)를 제어함으로써 출력시켜도 된다.
(기기 제어부)
기기 제어부(580)는, 기기 선택부(550)에 의해 선택된 기기에, 리스펀스 결정부(520)에 의해 결정된 리스펀스를 제공시키기 위한 제어를 실행한다. 보다 구체적으로는, 기기 제어부(580)는, 네트워크(200)를 통하여 전자 기기(100)에 제어 커맨드를 송신한다. 또한, 기기 제어부(580)는, 예를 들어 기기 선택부(550)가 리스펀스를 제공할 기기를 선택할 수 없는 경우에, 기기가 선택되지 않은 것을 통지하거나, 기기를 선택하기 위한 추가적인 정보를 요구하거나 하는 메시지를 출력하도록, 전자 기기(100)를 제어해도 된다. 이 경우, 메시지는, 리퀘스트가 입력된 전자 기기(100)로부터 출력되어도 된다. 혹은, 기기 제어부(580)는, 리퀘스트에 대응하여 리스펀스가 제공되었음을 통지하는 메시지를 출력하도록, 전자 기기(100)를 제어해도 된다. 이 경우, 리스펀스를 제공할 전자 기기(100)는 리퀘스트가 입력된 전자 기기(100)와는 상이한 기기이며, 메시지는 리퀘스트가 입력된 전자 기기(100)로부터 출력되어도 된다.
(기기 상태 감시부)
기기 상태 감시부(590)는, 시스템(10)에 포함되는 전자 기기(100)를 감시하고, 필요에 따라 기기 정보 DB(570)를 갱신한다. 예를 들어, 기기 상태 감시부(590)는, 전자 기기(100)가 이동한 경우나, 전자 기기(100)에 의한 기능의 제공이 개시/종료된 경우, 전자 기기(100)의 설정이 변경된 경우 등에, 기기 정보 DB(570)를 갱신한다.
(1-4. 기기 정보의 예)
도 5는, 본 개시의 일 실시 형태에서의 기기 정보 DB의 예를 도시하는 도면이다. 도 5를 참조하면, 기기 정보 DB(570)에는, ID(570a), 기기 종류(570b), 장소(570c), 장소 상세(570d), 소유자(570e), 기능(570f), 기능 상세(570g)의 항목이 포함된다. 또한, 도시된 예의 기기 정보 DB(570)의 내용은, 예를 들어 도 1에 도시한 시스템(10)의 예와 반드시 일치하는 것은 아니다. 이하, 각각의 항목에 대하여 더 설명한다.
ID(570a)는, 각각의 기기 정보를 식별하기 위해 사용된다. 기기 종류(570b)는, 전자 기기(100)의 종류를 나타낸다. 예를 들어, 기기 선택부(550)가 유저의 기호에 기초하여 기기를 선택하는 경우, 기기 종류(570b)가 선택에 이용될 수 있다. 보다 구체적으로는, 유저 기호 DB(560)에 있어서 「웹 브라우징을 하는 경우, 텔레비전보다 태블릿을 선호한다」와 같은 유저의 기호가 나타나 있는 경우에, 기기 종류(570b)에 기초하여, 텔레비전이 아니라 태블릿이 선택되어도 된다.
장소(570c)는, 전자 기기(100)의 개략적인 장소를 나타낸다. 도시된 예에서는, 장소(570c)로서, 가정 내의 방(거실, 서재, 침실 등)이 기록되어 있다. 장소(570c)는, 예를 들어 전자 기기(100)를 설치하였을 때 유저에 의해 입력되는 설정 정보에 기초하여 기록된다. 장소 상세(570d)는, 전자 기기(100)의 상세한 장소를 나타낸다. 도시된 예에서는, 장소 상세(570d)로서, X, Y, Z의 3축의 좌표가 기록되어 있다. 장소 상세(570d)는, 예를 들어 GPS나 가정 내의 센서 네트워크 등을 이용하여 취득된다.
또한, 장소(570c)와 장소 상세(570d)는, 경우에 따라 괴리되어 있어도 된다. 예를 들어, 거실의 태블릿이 일시적으로 침실로 이동된 경우, 설정 정보가 변경되지 않으면 장소(570c)는 「거실」그대로지만, 장소 상세(570d)는 장치의 이동에 맞추어 침실의 좌표로 변경되어도 된다. 혹은, 장소(570c)가 설정 정보가 아니라 장소 상세(570d)에 기초하여 설정되는 경우에는, 전자 기기(100)의 이동에 수반하여 장소(570c)도 변경될 수 있다.
예를 들어, 기기 선택부(550)가 전자 기기(100)의 위치 정보에 기초하여 기기를 선택하는 경우, 장소(570c) 및/또는 장소 상세(570d)가 선택에 이용될 수 있다. 보다 구체적으로는, 기기 선택부(550)는, 장소(570c) 또는 장소 상세(570d)에 의해 리스펀스를 제공할 대상의 유저의 근처에 위치하는 것으로 나타나는 전자 기기(100)를 선택한다. 전자 기기(100)가 이동됨으로써 장소(570c) 및/또는 장소 상세(570d)가 변화한 경우, 기기 선택부(550)가 선택하는 기기를 동적으로 변경함으로써, 전자 기기(100)가 새롭게 리스펀스를 제공할 기기로서 선택되거나, 리스펀스를 제공할 기기로부터 제외되거나 해도 된다.
소유자(570e)는, 전자 기기(100)의 소유자, 또는 액세스 가능한 유저를 나타낸다. 도시된 예에서는, 소유자(570e)에 「공유」 또는 「아버지」가 설정되어 있다. 「공유」는, 전자 기기(100)에 액세스의 제한이 없고, 시스템(10)을 이용하는 유저 모두(예를 들어 가족 전원)가 전자 기기(100)를 이용 가능함을 의미한다. 「아버지」는, 전자 기기(100)에의 액세스 권한이 아버지에게만 부여되어 있음을 의미한다. 물론, 액세스 권한이 부여되는 것은 아버지만으로 한정되지 않고, 어머니, 자녀 또는 그들의 조합에 대하여 액세스 권한이 부여되어도 된다.
예를 들어, 기기 선택부(550)는, 리스펀스를 제공할 기기의 선택 시, 우선 소유자(570e)에 기초하여 기기를 필터링해도 된다. 보다 구체적으로는, 리퀘스트를 입력한 유저, 및 리스펀스의 대상으로 되는 유저 모두가 전자 기기(100)를 이용 가능하지 않으면, 당해 전자 기기(100)는 선택의 대상으로부터 제외될 수 있다. 또한, 어느 한쪽의 유저만이 전자 기기(100)를 이용 가능한 경우에 당해 전자 기기(100)를 선택의 대상으로 할지 여부는, 유저에 의한 설정이나, 리스펀스에 있어서 제공될 기능의 종류 등에 따라 결정될 수 있다.
기능(570f)은, 전자 기기(100)에 의해 제공 가능한 기능의 종류를 나타낸다. 기능 상세(570g)는, 기능에 관한 전자 기기(100)의 사양을 나타낸다. 이들 항목은, 예를 들어 전자 기기(100)가 시스템(10)에 추가되었을 때 에이전트 기능에 제공되는 형번 등의 정보에 기초하여, 네트워크 상의 데이터베이스로부터 취득되어도 된다. 예를 들어, 기기 선택부(550)는, 리스펀스를 제공할 기기의 선택 시, 기능(570f)에 기초하여 필터링을 실시해도 된다. 보다 구체적으로는, 리스펀스에 있어서 제공될 기능을 실현하지 못하는 전자 기기(100)는, 선택의 대상으로부터 제외되어도 된다.
또한, 예를 들어 기기 선택부(550)가 전자 기기(100)의 성능에 기초하여 기기를 선택하는 경우, 기능 상세(570g)가 선택에 이용될 수 있다. 보다 구체적으로는, 기기 선택부(550)는, 기능 상세(570g)에 의해, 리스펀스에 있어서 실현하는 기능에 관한 성능이 가장 높은 것으로 나타나는 전자 기기(100)를, 리스펀스를 제공할 기기로서 선택해도 된다. 도시된 예에서는, 기능 상세(570g)가 영상, 음성, 마이크로폰 및 네트워크의 항목을 포함하지만, 더 많은 항목이 포함되어도 된다.
또한, 기기 선택부(550)는, 리스펀스에 있어서 복수의 기능이 실현되는 경우에, 기능마다 개별적으로, 기능 상세(570g)에 기초하여 전자 기기(100)를 선택해도 된다. 예를 들어, 리스펀스에 있어서 영상 및 음성의 재생 기능이 실현되는 경우, 기능 상세(570g)에 의해, 영상의 재생 기능에 관해서는 텔레비전의 성능이 가장 높고, 음성의 재생 기능에 관해서는 스피커의 성능이 가장 높다는 것이 나타나 있으면, 기기 선택부(550)는, 영상의 재생 기능에 관해서는 텔레비전을, 음성의 재생 기능에 관해서는 스피커를 각각 선택해도 된다.
또한, 상기 예 이외에도, 기기 정보 DB(570)는 여러가지 항목을 포함할 수 있다. 예를 들어, 기기 정보 DB(570)는, 전자 기기(100)가 제공 중인 기능을 나타내는 항목을 포함해도 된다. 또한, 기기 정보 DB(570)는, 전자 기기(100)를 이용 중인 유저를 나타내는 항목을 포함해도 된다.
이상에서 설명한 예와 같은 기기 정보 DB(570)가 구축됨으로써, 본 실시 형태에서의 에이전트 기능에서는, 기기 선택부(550)가 리스펀스를 제공할 기기를 자동적으로 선택하는 것이 가능하게 된다.
(2. 구체적인 이용 형태의 예)
(2-1. 제1 예)
도 6은, 본 개시의 일 실시 형태의 구체적인 이용 형태의 제1 예를 도시하는 시퀀스도이다. 도 6을 참조하면, 도 1에 도시한 시스템(10)에 있어서, 거실에 설치된 스피커(100c)가 음악을 재생하고 있다. 이때, 스피커(100c)는, 에이전트 기능을 실현하는 텔레비전(100a)에 대하여, 음악 콘텐츠를 재생 중임을 통지하고 있다(S101). 텔레비전(100a)에서는, 이 통지를 받아, 제어부(140)에 의해 실현되는 에이전트 기능에 있어서, 기기 상태 감시부(590)가, 기기 정보 DB(570)에, 스피커(100c)가 음악 콘텐츠를 재생 중인 것과, 재생되고 있는 음악 콘텐츠(예를 들어, NAS(100i)에 저장되어 있음)를 특정하기 위한 정보를 기록한다.
여기서, 텔레비전(100a)에 대하여, 유저가, 「계속해서 욕실에서 들려줘」라고 발화하였다고 하자(S103). 텔레비전(100a)에서는, 화상/음성 입력부(120)에 포함되는 마이크로폰이 발화 음성을 취득하고, 마이크로폰으로부터 출력된 음성 데이터가, 유저로부터의 리퀘스트로서 에이전트 기능을 실현하는 제어부(140)에 제공된다. 에이전트 기능에서는, 리퀘스트 취득부(510)가 취득한 상기 음성 데이터에 기초하여, 리스펀스 결정부(520)가 리스펀스를 결정한다. 리스펀스 결정부(520)는, 예를 들어 음성 인식이나 자연 언어 처리 등을 실행함으로써 리퀘스트를 해석하고, 그에 대한 리스펀스를 결정한다. 도시된 예에 있어서, 리스펀스는, 「유저에게 현재 제공되고 있는 음악 콘텐츠의 재생을, 욕실에 있는 기기에서 계속하는」 것이다. 또한, 텔레비전(100a)의 제어부(140)는, 음성 인식이나 자연 언어 처리를, 네트워크(200)를 통하여 서버(300)에 의뢰해도 된다.
또한, 에이전트 기능에서는, 기기 선택부(550)가, 리스펀스를 제공할 기기를 선택한다. 도시된 예에서는, 리스펀스를 제공할 장소가 욕실이며, 리스펀스에 있어서 실현될 기능이 음악 콘텐츠의 재생이라는 점에서, 스피커(100f)가 선택된다(S105). 기기 제어부(580)는, 기기 선택부(550)에 의해 선택된 기기, 즉 스피커(100f)에 리스펀스를 제공시키기 위한 제어를 실행한다. 보다 구체적으로는, 기기 제어부(580)는, 욕실의 스피커(100f)에, 그때까지 거실의 스피커(100c)에서 재생되고 있던 음악 콘텐츠를 계속해서 재생하도록 제어 커맨드를 송신한다(S107). 이때의 제어 커맨드는, 음악 콘텐츠의 소재(예를 들어 NAS(100i)) 및 재생을 개시하는 위치를 나타내는 정보를 포함해도 된다.
또한, 부가적인 처리로서, 기기 제어부(580)는, 스피커(100f)로의 제어 커맨드가 송신된 후, 또는 제어 커맨드에 대한 긍정 응답이 되돌아온 후에, 텔레비전(100a)에 리퀘스트를 입력한 유저에 대하여, 리스펀스(욕실의 스피커로의 음악 콘텐츠 재생의 이행)가 실행되었음을 통지해도 된다(S109). 통지는, 음성으로 출력되어도 되고, GUI 등을 사용하여 화상으로서 출력되어도 된다. 그 후, 예를 들어 유저가 거실로부터 이동한 것이, 센서나 카메라 등을 사용하여 검출된 경우에, 기기 제어부(580)는, 스피커(100c)에 음악 콘텐츠의 재생을 정지시키기 위한 제어 커맨드를 송신해도 된다(S111).
(2-2. 제2 예)
도 7은, 본 개시의 일 실시 형태의 구체적인 이용 형태의 제2 예를 도시하는 시퀀스도이다. 도 7을 참조하면, 도 1에 도시한 시스템(10)에 있어서, 유저(아버지)에 의해 휴대되어 외부(직장)로 반출된 스마트폰(100m)이, 정기적으로, 에이전트 기능을 실현하는 서버(300)에 위치 정보를 송신하고 있다(S201). 여기서, 집에 있는 태블릿(100e)에 대하여, 유저(어머니)가, 「귀가길에 우유를 사 오시라고 아버지께 전해줘」라고 발화하였다고 하자(S203). 태블릿(100e)에서는, 화상/음성 입력부(120)에 포함되는 마이크로폰이 발화 음성을 취득한다. 마이크로폰으로부터 출력된 음성 데이터는, 태블릿(100e)으로부터 네트워크(200)를 통하여 서버(300)로 송신된다(S205).
서버(300)에서는, 에이전트 기능의 리퀘스트 취득부(510)가 음성 데이터를 취득하고, 리스펀스 결정부(520)가 당해 음성 데이터에 기초하여 리스펀스를 결정한다. 상기 제1 예와 마찬가지로, 리스펀스 결정부(520)는, 예를 들어 음성 인식이나 자연 언어 처리 등을 실행하고, 유저의 리퀘스트에 대한 리스펀스를 결정한다. 도시된 예에 있어서, 리스펀스는, 「아버지께 우유를 사 오시라고 통지하는」 것이다. 또한, 에이전트 기능에서는, 기기 선택부(550)가 리스펀스를 제공할 기기를 선택한다. 도시된 예에서는, 리스펀스를 제공할 대상으로 되는 유저가 아버지라는 점에서, 기기 선택부(550)는, 아버지에 가장 가까운 전자 기기(100), 즉 외출 중인 아버지가 휴대하고 계신 스마트폰(100m)을, 리스펀스를 제공할 기기로서 선택한다(S207).
이를 받아, 기기 제어부(580)가, 기기 선택부(550)에 의해 선택된 스마트폰(100m)에 리스펀스를 제공시키기 위한 제어를 실행한다. 보다 구체적으로는, 기기 제어부(580)는, 스마트폰(100m)이 통지를 출력하도록 제어 커맨드를 송신한다(S209). 이때의 제어 커맨드는, 통지 내용(귀가길에 우유를 사 오시면 좋겠다는 의뢰) 및 의뢰주(태블릿(100e)에 리퀘스트를 입력한 유저, 즉 어머니)를 나타내는 정보를 포함해도 된다.
또한, 부가적인 처리로서, 기기 제어부(580)는, 스마트폰(100m)으로의 제어 커맨드가 송신된 후, 또는 제어 커맨드에 대한 긍정 응답이 되돌아온 후에, 태블릿(100e)에 리퀘스트를 입력한 유저에 대하여, 리스펀스(스마트폰(100m)을 통한 아버지께 통지)가 실행되었음을 통지해도 된다(S211, S213). 통지는, 음성으로 출력되어도 되고, GUI를 사용하여 화상으로서 출력되어도 된다.
(2-3. 그 밖의 예)
(그 밖의 예-1)
상기에서 도 6 및 도 7에 도시한 예에 한정되지 않고, 그 밖에도 다양한 예가 가능하다. 예를 들어, 유저가, 거실의 텔레비전(100a)에서 영화를 시청하려고 할 때, 텔레비전(100a)을 향하여 「텔레비전으로 영화를 재생해」라고 발화하였다고 하자. 이때, 에이전트 기능(예를 들어, 텔레비전(100a), 다른 전자 기기(100) 또는 서버(300)에서 실현되는)에서는, 리퀘스트 취득부(510)가 취득한 리퀘스트(유저의 발화 음성을 포함하는 음성 데이터)에 기초하여, 리스펀스 결정부(520)가 리스펀스를 결정한다. 이 경우의 리스펀스에서는 「영화(영상 콘텐츠)의 화상을 표시하는」 기능과, 「영화(영상 콘텐츠)의 음성을 출력하는」 기능이 실현된다.
거기서, 기기 선택부(550)는, 거실에 있는 전자 기기(100) 중에서, 화상의 표시 기능에 관한 성능이 가장 높은 기기와, 음성의 출력 기능에 관한 성능이 가장 높은 기기를 선택한다. 구체적으로는, 화상의 표시에 관해서는 텔레비전(100a)이, 음성의 출력에 관해서는 스피커(100c)가, 각각 가장 높은 성능을 갖는 기기로서 선택된다. 여기서, 또한 기기 선택부(550)는, 거실에 있어서 유저가 앉아 있는 위치를 특정하고, 당해 위치에 최적의 음성을 제공 가능한 기기로서, 스피커(100c)를 선택해도 된다. 이러한 기기 선택부(550)의 처리를 받아, 기기 제어부(580)는, 텔레비전(100a) 및 스피커(100c)에 제어 커맨드를 송신한다. 제어 커맨드는, 영상 콘텐츠의 취득 방법(예를 들어 텔레비전(100a)의 튜너를 사용하여 방송파를 수신, 또는 NAS(100i)로부터 판독 등)을 나타내는 정보를 포함해도 된다. 또한, 텔레비전(100a)에 송신되는 제어 커맨드에는, 영상 콘텐츠의 음성 출력을 뮤트하는 지시가 포함되어도 된다.
(그 밖의 예-2)
또한, 에이전트 기능은, 리퀘스트에 대하여, 보다 복잡한, 또는 시간을 두고 기동하는 리스펀스를 제공 가능해도 된다. 예를 들어, 어머니가 외출할 때, 현관의 조명 기구(100k)가 구비하는 마이크로폰에 「아들이 돌아오면, 찬장에 간식이 있다고 알려줘」라고 발화 음성에 의한 입력을 제공하였다고 하자. 이때, 에이전트 기능에서는, 리퀘스트 취득부(510)가 상기 음성 입력을 취득하고, 리스펀스 결정부(520)가 리퀘스트에 대한 리스펀스(아들에게 통지)를 결정하지만, 그 시점에서 아직 아들은 귀가하지 않았으므로, 유저 위치 정보 취득부(540)는 리스펀스의 대상인 아들의 위치 정보를 취득할 수 없다.
이러한 경우, 기기 선택부(550)는, 예를 들어 「돌아오면」이라고 하는 리퀘스트의 내용에 기초하여, 리스펀스가 시간을 두고 제공되어야 할 것이라는 것을 판단하고, 리스펀스의 제공을 대기한다. 그 후, 아들이 귀가하였을 때, 예를 들어 조명 기구(100k)가 구비하는 카메라가 취득하는 화상의 해석으로부터, 유저 위치 정보 취득부(540)가, 아들의 위치 정보를 취득한다. 이에 의해, 리스펀스가 제공 가능하게 되었음을 판단한 기기 선택부(550)는, 그 시점에서의 아들의 위치에 가장 가까운 전자 기기(100), 예를 들어 거실에 있는 스피커(100b)를 리스펀스를 제공할 기기로서 선택하고, 기기 제어부(580)가 「찬장에 간식이 있습니다」라는 통지를, 음성에 의해 스피커(100b)로부터 출력시키기 위한 제어 커맨드를 송신한다.
(그 밖의 예-3)
또한, 에이전트 기능은, 반드시 유저의 명시적인 발화, 제스처, 또는 조작 등을 리퀘스트로서 취득해야 하는 것은 아니다. 에이전트 기능은, (특히 기기의 조작을 의도하지 않은) 유저의 동작이나, 자연 현상 등으로부터 시스템(10)으로의 리퀘스트를 추출해도 된다. 예를 들어, 창 밖이 비치는 카메라를 구비하는 전자 기기(100)(도 1에는 도시되어 있지 않음)가 취득한 화상에, 내리기 시작한 비와 마른 세탁물이 비치는 경우, 리퀘스트 취득부(510) 및 리스펀스 결정부(520)는, 화상 해석에 의해 상기 사상을 인식하고, 「세탁물을 걷어 들이도록 집안의 누군가에게 통지한다」고 하는 가상적인 리퀘스트 및 그에 대한 리스펀스를 자동적으로 특정해도 된다.
이 경우, 기기 선택부(550)는, 유저 위치 정보 취득부(540)가 취득한 위치 정보에 기초하여, 집안에 있는 유저(누구인지는 특정되어 있지 않아도 됨)에 가까운 전자 기기(100)를, 리스펀스를 제공할 기기로서 선택한다. 예를 들어, 유저 위치 정보 취득부(540)가, 서재에 있는 퍼스널 컴퓨터(100j)가 구비하는 카메라가 취득하는 화상의 해석으로부터, 아버지가 서재에 계시는 것을 검출한 경우, 기기 선택부(550)는, 리스펀스(통지)를 제공할 기기로서, 퍼스널 컴퓨터(100j)를 선택한다. 이 경우, 기기 제어부(580)가, 「세탁물을 걷으세요」라고 하는 통지를 퍼스널 컴퓨터(100j)가 구비하는 스피커로부터 음성에 의해 출력시키기 위한 제어 커맨드를 송신한다.
이와 같이, 본 개시의 일 실시 형태에 있어서 제공되는 에이전트 기능은, 예를 들어 시스템(10) 내에서의 다양한 상황에 있어서, 리퀘스트에 대한 리스펀스를 제공할 기기를 자동적으로 선택함으로써, 유저가 자연스러우면서 간단한 조작으로 기기 네트워크를 이용하는 것을 가능하게 한다.
또한, 상기 실시 형태에서는, 가정 내에 설치되는 전자 기기(100)를 포함하는 시스템(10)이 예시되었지만, 본 기술은 이러한 예에 한정되지 않고 적용 가능하다. 예를 들어, 오피스 내나 차내에서도, 가정 내와 마찬가지의 시스템을 구축하는 것이 가능하다. 또한, 유저가 이용 가능한 전자 기기는, 특정한 장소에 집중되어 있는 것이 아니라, 가정이나 오피스, 차내 등, 다양한 장소에 편재되어 있어도 된다.
(3. 하드웨어 구성)
이어서, 도 8을 참조하여, 본 개시의 실시 형태에 관한 정보 처리 장치의 하드웨어 구성에 대하여 설명한다. 도 8은, 본 개시의 실시 형태에 관한 정보 처리 장치의 하드웨어 구성예를 도시하는 블록도이다. 도시된 정보 처리 장치(900)는, 예를 들어 상기 실시 형태에서의 전자 기기 또는 서버를 실현할 수 있다.
정보 처리 장치(900)는, CPU(Central Processing unit)(901), ROM(Read Only Memory)(903) 및 RAM(Random Access Memory)(905)을 포함한다. 또한, 정보 처리 장치(900)는, 호스트 버스(907), 브리지(909), 외부 버스(911), 인터페이스(913), 입력 장치(915), 출력 장치(917), 스토리지 장치(919), 드라이브(921), 접속 포트(923), 통신 장치(925)를 포함해도 된다. 또한, 정보 처리 장치(900)는, 필요에 따라 촬상 장치(933) 및 센서(935)를 포함해도 된다. 정보 처리 장치(900)는, CPU(901) 대신에, 또는 이와 함께 DSP(Digital Signal Processor) 또는 ASIC(Application Specific Integrated Circuit)이라고 불리는 처리 회로를 가져도 된다.
CPU(901)는, 연산 처리 장치 및 제어 장치로서 기능하고, ROM(903), RAM(905), 스토리지 장치(919), 또는 리무버블 기록 매체(927)에 기록된 각종 프로그램에 따라, 정보 처리 장치(900) 내의 동작 전반 또는 그 일부를 제어한다. ROM(903)은, CPU(901)가 사용하는 프로그램이나 연산 파라미터 등을 기억한다. RAM(905)은, CPU(901)의 실행에 있어서 사용하는 프로그램이나, 그 실행에 있어서 적절히 변화하는 파라미터 등을 1차 기억한다. CPU(901), ROM(903) 및 RAM(905)은, CPU 버스 등의 내부 버스에 의해 구성되는 호스트 버스(907)에 의해 서로 접속되어 있다. 또한, 호스트 버스(907)는, 브리지(909)를 통하여 PCI(Peripheral Component Interconnect/Interface) 버스 등의 외부 버스(911)에 접속되어 있다.
입력 장치(915)는, 예를 들어 마우스, 키보드, 터치 패널, 버튼, 스위치 및 레버 등, 유저에 의해 조작되는 장치이다. 입력 장치(915)는, 예를 들어 적외선이나 그 밖의 전파를 이용한 리모트 컨트롤 장치여도 되고, 정보 처리 장치(900)의 조작에 대응한 휴대 전화 등의 외부 접속 기기(929)여도 된다. 입력 장치(915)는, 유저가 입력한 정보에 기초하여 입력 신호를 생성하여 CPU(901)에 출력하는 입력 제어 회로를 포함한다. 유저는, 이 입력 장치(915)를 조작함으로써, 정보 처리 장치(900)에 대하여 각종 데이터를 입력하거나 처리 동작을 지시하거나 한다.
출력 장치(917)는, 취득한 정보를 유저에 대하여 시각적 또는 청각적으로 통지하는 것이 가능한 장치로 구성된다. 출력 장치(917)는, 예를 들어 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), 유기 EL(Electro-Luminescence) 디스플레이 등의 표시 장치, 스피커 및 헤드폰 등의 음성 출력 장치와, 프린터 장치 등일 수 있다. 출력 장치(917)는, 정보 처리 장치(900)의 처리에 의해 얻어진 결과를, 텍스트 또는 화상 등의 영상으로서 출력하거나, 음성 또는 음향 등의 음성으로서 출력하거나 한다.
스토리지 장치(919)는, 정보 처리 장치(900)의 기억부의 일례로서 구성된 데이터 저장용 장치이다. 스토리지 장치(919)는, 예를 들어 HDD(Hard Disk Drive) 등의 자기 기억부 디바이스, 반도체 기억 디바이스, 광 기억 디바이스, 또는 광자기 기억 디바이스 등에 의해 구성된다. 이 스토리지 장치(919)는, CPU(901)가 실행하는 프로그램이나 각종 데이터, 및 외부로부터 취득한 각종 데이터 등을 저장한다.
드라이브(921)는, 자기 디스크, 광 디스크, 광자기 디스크, 또는 반도체 메모리 등의 리무버블 기록 매체(927)를 위한 리더 라이터이며, 정보 처리 장치(900)에 내장 혹은 외장된다. 드라이브(921)는, 장착되어 있는 리무버블 기록 매체(927)에 기록되어 있는 정보를 판독하여, RAM(905)에 출력한다. 또한, 드라이브(921)는, 장착되어 있는 리무버블 기록 매체(927)에 기록을 기입한다.
접속 포트(923)는, 기기를 정보 처리 장치(900)에 직접 접속하기 위한 포트이다. 접속 포트(923)는, 예를 들어 USB(Universal Serial Bus) 포트, IEEE1394 포트, SCSI(Small Computer System Interface) 포트 등일 수 있다. 또한, 접속 포트(923)는, RS-232C 포트, 광 오디오 단자, HDMI(등록 상표)(High-Definition Multimedia Interface) 포트 등이어도 된다. 접속 포트(923)에 외부 접속 기기(929)를 접속함으로써, 정보 처리 장치(900)와 외부 접속 기기(929)의 사이에서 각종 데이터가 교환될 수 있다.
통신 장치(925)는, 예를 들어 통신 네트워크(931)에 접속하기 위한 통신 디바이스 등으로 구성된 통신 인터페이스이다. 통신 장치(925)는, 예를 들어 유선 또는 무선 LAN(Local Area Network), Bluetooth(등록 상표) 또는 WUSB(Wireless USB)용 통신 카드 등일 수 있다. 또한, 통신 장치(925)는, 광 통신용 라우터, ADSL(Asymmetric Digital Subscriber Line)용 라우터, 또는 각종 통신용 모뎀 등이어도 된다. 통신 장치(925)는, 예를 들어 인터넷이나 다른 통신 기기와의 사이에서, TCP/IP 등의 소정의 프로토콜을 사용하여 신호 등을 송수신한다. 또한, 통신 장치(925)에 접속되는 통신 네트워크(931)는, 유선 또는 무선에 의해 접속된 네트워크이며, 예를 들어 인터넷, 가정 내 LAN, 적외선 통신, 라디오파 통신 또는 위성 통신 등이다.
촬상 장치(933)는, 예를 들어 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor) 등의 촬상 소자, 및 촬상 소자에의 피사체상의 결상을 제어하기 위한 렌즈 등의 각종 부재를 사용하여 실공간을 촬상하고, 촬상 화상을 생성하는 장치이다. 촬상 장치(933)는, 정지 화상을 촬상하는 것이어도 되고, 또한 동화상을 촬상하는 것이어도 된다.
센서(935)는, 예를 들어 가속도 센서, 자이로 센서, 지자기 센서, 광 센서, 음 센서 등의 각종 센서이다. 센서(935)는, 예를 들어 정보 처리 장치(900)의 하우징의 자세 등, 정보 처리 장치(900) 자체의 상태에 관한 정보나, 정보 처리 장치(900)의 주변의 밝기나 소음 등, 정보 처리 장치(900)의 주변 환경에 관한 정보를 취득한다. 또한, 센서(935)는, GPS(Global Positioning System) 신호를 수신하여 장치의 위도, 경도 및 고도를 측정하는 GPS 센서를 포함해도 된다.
이상, 정보 처리 장치(900)의 하드웨어 구성의 일례를 나타내었다. 상기 각 구성 요소는, 범용적인 부재를 사용하여 구성되어도 되고, 각 구성 요소의 기능에 특화된 하드웨어에 의해 구성되어도 된다. 이러한 구성은, 실시할 때마다의 기술 레벨에 따라 적절히 변경될 수 있다.
(4. 보충)
본 개시의 실시 형태는, 예를 들어 상기에서 설명한 바와 같은 정보 처리 장치(전자 기기 또는 서버), 시스템, 정보 처리 장치 또는 시스템에서 실행되는 정보 처리 방법, 정보 처리 장치를 기능시키기 위한 프로그램, 및 프로그램이 기록된 일시적이지 않은 유형의 매체를 포함할 수 있다.
이상, 첨부 도면을 참조하면서 본 개시의 적합한 실시 형태에 대하여 상세하게 설명하였지만, 본 개시의 기술적 범위는 이러한 예에 한정되지 않는다. 본 개시의 기술 분야에서의 통상의 지식을 갖는 자이면, 청구범위에 기재된 기술적 사상의 범주 내에 있어서, 각종 변경예 또는 수정예에 상도할 수 있는 것은 명확하며, 이들에 대해서도, 당연히 본 개시의 기술적 범위에 속하는 것이라고 이해된다.
또한, 본 명세서에 기재된 효과는, 어디까지나 설명적 또는 예시적인 것이며 한정적이지 않다. 즉, 본 개시에 관한 기술은, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서의 기재로부터 당업자에게는 명확한 다른 효과를 발휘할 수 있다.
또한, 이하와 같은 구성도 본 개시의 기술적 범위에 속한다.
(1) 시스템에 대한 리퀘스트를 취득하는 리퀘스트 취득부와,
상기 리퀘스트에 대한 리스펀스를 결정하는 리스펀스 결정부와,
적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기기 선택부와,
상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기기 제어부를 구비하는 정보 처리 장치.
(2) 상기 리스펀스의 속성은, 상기 리스펀스를 제공할 대상을 포함하고,
상기 기기 선택부는, 상기 대상의 위치와, 상기 시스템에 포함되는 기기의 위치에 기초하여, 상기 리스펀스를 제공할 기기를 선택하는, 상기 (1)에 기재된 정보 처리 장치.
(3) 상기 기기 선택부는, 상기 대상의 근처에 위치하는 기기를 선택하는, 상기 (2)에 기재된 정보 처리 장치.
(4) 상기 기기 선택부는, 상기 대상, 상기 대상의 위치, 또는 상기 시스템에 포함되는 기기의 위치 중 적어도 어느 하나가 변화한 경우, 상기 리스펀스를 제공할 기기를 재선택하는, 상기 (2) 또는 (3)에 기재된 정보 처리 장치.
(5) 상기 리스펀스의 속성은, 상기 리스펀스에 의해 실현될 기능을 포함하고,
상기 기기 선택부는, 상기 시스템에 포함되는 기기의 상기 기능에 관한 성능에 기초하여, 상기 리스펀스를 제공할 기기를 선택하는, 상기 (1) 내지 (4) 중 어느 하나에 기재된 정보 처리 장치.
(6) 상기 리스펀스에 의해 실현될 기능은, 제1 기능과 제2 기능을 포함하고,
상기 기기 선택부는, 상기 제1 기능을 실현하는 제1 기기와, 상기 제2 기능을 실현하는 제2 기기를 선택하는, 상기 (1) 내지 (5) 중 어느 하나에 기재된 정보 처리 장치.
(7) 상기 리스펀스에 의해 실현될 기능은, 영상 콘텐츠의 재생을 포함하고,
상기 기기 선택부는, 상기 영상 콘텐츠의 화상을 표시하는 상기 제1 기기와, 상기 영상 콘텐츠의 음성을 출력하는 상기 제2 기기를 선택하고,
상기 기기 제어부는, 상기 제1 기기에 상기 영상 콘텐츠의 화상을 표시함과 함께 상기 영상 콘텐츠의 음성을 뮤트시키기 위한 제어를 실행하는, 상기 (6)에 기재된 정보 처리 장치.
(8) 상기 리스펀스의 속성은, 상기 리스펀스를 제공할 대상을 포함하고,
상기 기기 선택부는, 상기 대상인 유저의 기호에 기초하여 상기 리스펀스를 제공할 기기를 선택하는, 상기 (1) 내지 (7) 중 어느 하나에 기재된 정보 처리 장치.
(9) 상기 기기 제어부는, 상기 리퀘스트가 입력된 기기에, 상기 리스펀스를 제공할 기기를 선택하기 위한 추가적인 정보를 요구시키기 위한 제어를 실행하는, 상기 (1) 내지 (8) 중 어느 하나에 기재된 정보 처리 장치.
(10) 상기 기기 제어부는, 상기 리퀘스트가 입력된 기기에, 상기 선택된 기기에 의해 리스펀스가 제공되었음을 통지시키기 위한 제어를 실행하는, 상기 (1) 내지 (9) 중 어느 하나에 기재된 정보 처리 장치.
(11) 시스템에 대한 리퀘스트를 취득하는 것과,
상기 리퀘스트에 대한 리스펀스를 결정하는 것과,
적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 것과,
상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 것을 포함하는 정보 처리 방법.
(12) 시스템에 대한 리퀘스트를 취득하는 기능과,
상기 리퀘스트에 대한 리스펀스를 결정하는 기능과,
적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기능과,
상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기능을 컴퓨터에 실현시키기 위한 프로그램.
10: 시스템
100: 전자 기기
110: 화상/음성 출력부
120: 화상/음성 취득부
130: 조작부
140: 제어부
150: 통신부
160: 기억부
200: 네트워크
300: 서버
310: 제어부
320: 통신부
330: 기억부
510: 리퀘스트 취득부
520: 리스펀스 결정부
550: 기기 선택부
580: 기기 제어부

Claims (12)

  1. 시스템에 대한 리퀘스트를 취득하는 리퀘스트 취득부와,
    상기 리퀘스트에 대한 리스펀스를 결정하는 리스펀스 결정부와,
    적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기기 선택부와,
    상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기기 제어부를 구비하고,
    상기 리스펀스의 속성은, 상기 리스펀스를 제공할 대상을 포함하고,
    상기 기기 선택부는, 상기 대상의 위치와, 상기 시스템에 포함되는 기기의 위치에 기초하여, 상기 리스펀스를 제공할 기기를 선택하는, 정보 처리 장치.
  2. 제1항에 있어서, 상기 기기 선택부는, 상기 대상의 근처에 위치하는 기기를 선택하는, 정보 처리 장치.
  3. 제1항 또는 제2항에 있어서, 상기 기기 선택부는, 상기 대상, 상기 대상의 위치, 또는 상기 시스템에 포함되는 기기의 위치 중 적어도 어느 하나가 변화한 경우, 상기 리스펀스를 제공할 기기를 재선택하는, 정보 처리 장치.
  4. 제1항 또는 제2항에 있어서, 상기 리스펀스에 의해 실현될 기능은, 제1 기능과 제2 기능을 포함하고,
    상기 기기 선택부는, 상기 제1 기능을 실현하는 제1 기기와, 상기 제2 기능을 실현하는 제2 기기를 선택하는, 정보 처리 장치.
  5. 시스템에 대한 리퀘스트를 취득하는 리퀘스트 취득부와,
    상기 리퀘스트에 대한 리스펀스를 결정하는 리스펀스 결정부와,
    적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기기 선택부와,
    상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기기 제어부를 구비하고,
    상기 리스펀스에 의해 실현될 기능은, 영상 콘텐츠의 재생을 포함하고,
    상기 기기 선택부는, 상기 영상 콘텐츠의 화상을 표시하는 제1 기기와, 상기 영상 콘텐츠의 음성을 출력하는 제2 기기를 선택하고,
    상기 기기 제어부는, 상기 제1 기기에 상기 영상 콘텐츠의 화상을 표시함과 함께 상기 영상 콘텐츠의 음성을 뮤트시키기 위한 제어를 실행하는, 정보 처리 장치.
  6. 시스템에 대한 리퀘스트를 취득하는 리퀘스트 취득부와,
    상기 리퀘스트에 대한 리스펀스를 결정하는 리스펀스 결정부와,
    적어도 상기 리스펀스의 속성에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기기 선택부와,
    상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기기 제어부를 구비하고,
    상기 리스펀스의 속성은, 상기 리스펀스를 제공할 대상을 포함하고,
    상기 기기 선택부는, 상기 대상인 유저의 기호에 기초하여 상기 리스펀스를 제공할 기기를 선택하는, 정보 처리 장치.
  7. 제1항, 제2항, 제5항 및 제6항 중 어느 한 항에 있어서, 상기 기기 제어부는, 상기 리퀘스트가 입력된 기기에, 상기 리스펀스를 제공할 기기를 선택하기 위한 추가적인 정보를 요구시키기 위한 제어를 실행하는, 정보 처리 장치.
  8. 제1항, 제2항, 제5항 및 제6항 중 어느 한 항에 있어서, 상기 기기 제어부는, 상기 리퀘스트가 입력된 기기에, 상기 선택된 기기에 의해 리스펀스가 제공되었음을 통지시키기 위한 제어를 실행하는, 정보 처리 장치.
  9. 시스템에 대한 리퀘스트를 취득하는 것과,
    상기 리퀘스트에 대한 리스펀스를 결정하는 것과,
    상기 리스펀스에 의해 실현될 기능을 포함하는 상기 리스펀스의 속성과, 상기 시스템에 포함되는 기기의 상기 기능에 관한 성능에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 것과,
    상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 것을 포함하고,
    상기 리스펀스의 속성은, 상기 리스펀스를 제공할 대상을 포함하고,
    상기 대상의 위치와, 상기 시스템에 포함되는 기기의 위치에 기초하여, 상기 리스펀스를 제공할 기기를 선택하는, 정보 처리 방법.
  10. 시스템에 대한 리퀘스트를 취득하는 기능과,
    상기 리퀘스트에 대한 리스펀스를 결정하는 기능과,
    상기 리스펀스에 의해 실현될 기능을 포함하는 상기 리스펀스의 속성과, 상기 시스템에 포함되는 기기의 상기 기능에 관한 성능에 기초하여, 상기 시스템에 포함되는 기기 중에서 상기 리스펀스를 제공할 기기를 선택하는 기능과,
    상기 선택된 기기에 상기 리스펀스를 제공시키기 위한 제어를 실행하는 기능을 컴퓨터에 실현시키기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체로서,
    상기 리스펀스의 속성은, 상기 리스펀스를 제공할 대상을 포함하고,
    상기 대상의 위치와, 상기 시스템에 포함되는 기기의 위치에 기초하여, 상기 리스펀스를 제공할 기기를 선택하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체.
  11. 삭제
  12. 삭제
KR1020167023227A 2014-03-03 2014-11-27 정보 처리 장치, 정보 처리 방법 및 프로그램 KR102325697B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014040840 2014-03-03
JPJP-P-2014-040840 2014-03-03
PCT/JP2014/081430 WO2015133022A1 (ja) 2014-03-03 2014-11-27 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
KR20160127737A KR20160127737A (ko) 2016-11-04
KR102325697B1 true KR102325697B1 (ko) 2021-11-15

Family

ID=54054845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167023227A KR102325697B1 (ko) 2014-03-03 2014-11-27 정보 처리 장치, 정보 처리 방법 및 프로그램

Country Status (5)

Country Link
US (3) US9848253B2 (ko)
EP (2) EP3115905A4 (ko)
JP (1) JP6503557B2 (ko)
KR (1) KR102325697B1 (ko)
WO (1) WO2015133022A1 (ko)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10032452B1 (en) 2016-12-30 2018-07-24 Google Llc Multimodal transmission of packetized data
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10776830B2 (en) 2012-05-23 2020-09-15 Google Llc Methods and systems for identifying new computers and providing matching services
US10650066B2 (en) 2013-01-31 2020-05-12 Google Llc Enhancing sitelinks with creative content
US10735552B2 (en) 2013-01-31 2020-08-04 Google Llc Secondary transmissions of packetized data
JP2016508007A (ja) 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9916839B1 (en) * 2014-03-27 2018-03-13 Amazon Technologies, Inc. Shared audio functionality based on device grouping
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
EP3418881B1 (en) * 2016-02-18 2020-04-01 Sony Corporation Information processing device, information processing method, and program
US10743101B2 (en) * 2016-02-22 2020-08-11 Sonos, Inc. Content mixing
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10271093B1 (en) * 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10708313B2 (en) * 2016-12-30 2020-07-07 Google Llc Multimodal transmission of packetized data
US10593329B2 (en) 2016-12-30 2020-03-17 Google Llc Multimodal transmission of packetized data
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
KR101968725B1 (ko) * 2017-05-19 2019-04-12 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
EP3622385B1 (en) 2017-10-03 2023-12-06 Google LLC Display mode dependent response generation with latency considerations
US10665522B2 (en) 2017-12-22 2020-05-26 Intel IP Corporation Package including an integrated routing layer and a molded routing layer
US10425780B1 (en) * 2018-02-22 2019-09-24 Amazon Technologies, Inc. Outputting notifications using device groups
JP7088703B2 (ja) * 2018-03-20 2022-06-21 シャープ株式会社 情報処理システム
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
WO2020142681A1 (en) * 2019-01-04 2020-07-09 Apple Inc. Content playback on multiple devices
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
JP7181116B2 (ja) * 2019-02-12 2022-11-30 株式会社Nttドコモ 制御システム
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
JPWO2020195388A1 (ko) * 2019-03-26 2020-10-01
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
JP2021081875A (ja) * 2019-11-15 2021-05-27 株式会社リコー 情報処理システム、情報処理方法、情報処理装置及び出力装置
US20210185365A1 (en) * 2019-12-11 2021-06-17 Google Llc Methods, systems, and media for providing dynamic media sessions with video stream transfer features
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
KR20220014752A (ko) * 2020-07-29 2022-02-07 삼성전자주식회사 전자 장치 및 그 제어 방법
US11699444B1 (en) * 2020-10-23 2023-07-11 Amazon Technologies, Inc. Speech recognition using multiple voice-enabled devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132292A (ja) * 2000-10-26 2002-05-09 Daisuke Murakami 音声によるホームオートメーションシステム
JP2005110205A (ja) * 2003-09-10 2005-04-21 Matsushita Electric Ind Co Ltd 端末装置及び端末プログラム
JP2007318319A (ja) * 2006-05-24 2007-12-06 Seiko Epson Corp リモートコントローラ及びその制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3658896B2 (ja) * 1996-11-26 2005-06-08 ソニー株式会社 情報信号伝送システム、再生装置及び表示装置
DE69712485T2 (de) 1997-10-23 2002-12-12 Sony Int Europe Gmbh Sprachschnittstelle für ein Hausnetzwerk
EP1046097B1 (en) * 1998-09-17 2004-03-17 Koninklijke Philips Electronics N.V. Remote control device with location dependent interface
JP2000215598A (ja) * 1999-01-27 2000-08-04 Sony Corp デジタル信号伝送方法、デジタル信号伝送システム、デジタル信号伝送装置及び記録媒体
GB2378779B (en) * 2001-08-14 2005-02-02 Advanced Risc Mach Ltd Accessing memory units in a data processing apparatus
US7170422B2 (en) * 2002-06-24 2007-01-30 Matsushita Electric Industrial Co., Ltd. Personal programmable universal remote control
JP4263010B2 (ja) * 2003-03-28 2009-05-13 シャープ株式会社 機器制御システム、制御機器、および、記録媒体
JP4596236B2 (ja) * 2004-04-07 2010-12-08 ソニー株式会社 制御システム、制御装置および方法、プログラム、並びに記録媒体
JP2006324876A (ja) * 2005-04-18 2006-11-30 Sony Corp 制御装置および方法、プログラム、並びに記録媒体
JP2007235613A (ja) * 2006-03-01 2007-09-13 Murata Mach Ltd 遠隔制御装置
US7945251B2 (en) * 2006-03-27 2011-05-17 Sony Ericsson Mobile Communications Ab Locating a service device for a portable communication device
US20090027222A1 (en) * 2007-07-23 2009-01-29 Sony Ericsson Mobile Communications Ab Providing services to a mobile device in a personal network
US9509753B2 (en) * 2014-01-08 2016-11-29 Samsung Electronics Co., Ltd. Mobile apparatus and method for controlling thereof, and touch device
US10032008B2 (en) * 2014-02-23 2018-07-24 Qualcomm Incorporated Trust broker authentication method for mobile devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132292A (ja) * 2000-10-26 2002-05-09 Daisuke Murakami 音声によるホームオートメーションシステム
JP2005110205A (ja) * 2003-09-10 2005-04-21 Matsushita Electric Ind Co Ltd 端末装置及び端末プログラム
JP2007318319A (ja) * 2006-05-24 2007-12-06 Seiko Epson Corp リモートコントローラ及びその制御方法

Also Published As

Publication number Publication date
US20180109853A1 (en) 2018-04-19
US20170013331A1 (en) 2017-01-12
EP3115905A4 (en) 2017-10-25
EP3739460A1 (en) 2020-11-18
EP3115905A1 (en) 2017-01-11
US10244293B2 (en) 2019-03-26
JP6503557B2 (ja) 2019-04-24
US10623835B2 (en) 2020-04-14
US9848253B2 (en) 2017-12-19
US20190182566A1 (en) 2019-06-13
WO2015133022A1 (ja) 2015-09-11
JPWO2015133022A1 (ja) 2017-04-06
KR20160127737A (ko) 2016-11-04

Similar Documents

Publication Publication Date Title
KR102325697B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US11287880B2 (en) Privacy chat trigger using mutual eye contact
CN106209800B (zh) 设备权限共享方法和装置
KR102147329B1 (ko) 영상 표시 기기 및 그의 동작 방법
KR102533443B1 (ko) 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
US20190018635A1 (en) Controlling Visual Indicators In An Audio Responsive Electronic Device, and Capturing and Providing Audio Using an API, By Native and Non-Native Computing Devices and Services
US20150286719A1 (en) Recognizing and registering faces in video
CN108701455A (zh) 信息处理装置、信息处理方法和程序
CN105847975A (zh) 对观众做出反应的内容
US11233490B2 (en) Context based volume adaptation by voice assistant devices
US20210157542A1 (en) Context based media selection based on preferences setting for active consumer(s)
JPWO2017195440A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20180376212A1 (en) Modifying display region for people with vision impairment
US11115725B2 (en) User placement of closed captioning
US20210224066A1 (en) Information processing device and information processing method
JP6278403B2 (ja) カラオケ管理システム
US9496922B2 (en) Presentation of content on companion display device based on content presented on primary display device
CN105554563A (zh) 多媒体播放方法及装置
US11445269B2 (en) Context sensitive ads
US10805676B2 (en) Modifying display region for people with macular degeneration
US10650702B2 (en) Modifying display region for people with loss of peripheral vision
CN104519394B (zh) 节目播放方法及装置
JP2024056690A (ja) Tvユーザ対話のためのインテリジェント自動アシスタント

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant