JPWO2020175115A1 - 情報処理装置、及び情報処理方法 - Google Patents

情報処理装置、及び情報処理方法 Download PDF

Info

Publication number
JPWO2020175115A1
JPWO2020175115A1 JP2021501870A JP2021501870A JPWO2020175115A1 JP WO2020175115 A1 JPWO2020175115 A1 JP WO2020175115A1 JP 2021501870 A JP2021501870 A JP 2021501870A JP 2021501870 A JP2021501870 A JP 2021501870A JP WO2020175115 A1 JPWO2020175115 A1 JP WO2020175115A1
Authority
JP
Japan
Prior art keywords
information
output
modal
user
output modal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021501870A
Other languages
English (en)
Other versions
JP7452524B2 (ja
Inventor
典子 戸塚
浩明 小川
悠希 武田
寛 黒田
幸徳 前田
裕一郎 小山
晃 高橋
和也 立石
智恵 鎌田
衣未留 角尾
啓 福井
秀明 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020175115A1 publication Critical patent/JPWO2020175115A1/ja
Application granted granted Critical
Publication of JP7452524B2 publication Critical patent/JP7452524B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y30/00IoT infrastructure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • H04L12/2809Exchanging configuration information on appliance services in a home automation network indicating that an appliance service is present in a home automation network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • H04L12/281Exchanging configuration information on appliance services in a home automation network indicating a format for calling an appliance service function in a home automation network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、より最適な出力モーダルで情報を出力することができるようにする情報処理装置、及び情報処理方法に関する。電子機器ごとの出力モーダルに関する機器情報を取得し、取得した機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、選択した電子機器が有する出力モーダルから情報を出力する処理を行う処理部を備える情報処理装置が提供される。本技術は、例えば、情報機器、映像機器、音響機器、又は家電機器などの電子機器に適用することができる。

Description

本技術は、情報処理装置、及び情報処理方法に関し、特に、より最適な出力モーダルで情報を出力することができるようにした情報処理装置、及び情報処理方法に関する。
ユーザが電子機器を使用する際に、電子機器の出力モーダルを指定したい場合がある。
また、音声や画像から得られたユーザ情報とシステム状態に応じて、情報提供レベルと出力態様を切り替える技術が開示されている(例えば、特許文献1参照)。
特開2011-253375号公報
ところで、電子機器の出力モーダルを指定したい場合に、出力モーダルが限られている電子機器も存在し、より最適な出力モーダルで情報を出力するための技術が求められている。
本技術はこのような状況に鑑みてなされたものであり、より最適な出力モーダルで情報を出力することができるようにするものである。
本技術の一側面の情報処理装置は、電子機器ごとの出力モーダルに関する機器情報を取得し、取得した前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、選択した前記電子機器が有する出力モーダルから前記情報を出力する処理を行う処理部を備える情報処理装置である。
本技術の一側面の情報処理方法は、情報処理装置が、電子機器ごとの出力モーダルに関する機器情報を取得し、取得した前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、選択した前記電子機器が有する出力モーダルから前記情報を出力する情報処理方法である。
本技術の一側面の情報処理装置、及び情報処理方法においては、電子機器ごとの出力モーダルに関する機器情報が取得され、取得された前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器が選択され、選択された前記電子機器が有する出力モーダルから前記情報が出力される。
本技術の一側面の情報処理装置は、ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令を、ネットワークを介して受信し、受信した前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する処理を行う処理部を備える情報処理装置である。
本技術の一側面の情報処理方法は、情報処理装置が、ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令を、ネットワークを介して受信し、受信した前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する情報処理方法。
本技術の一側面の情報処理装置、及び情報処理方法においては、ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令が、ネットワークを介して受信され、受信された前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報が出力される。
なお、本技術の一側面の情報処理装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術を適用した電子機器を含むシステムの一実施の形態の構成の例を示すブロック図である。 本技術を適用した電子機器の構成の例を示すブロック図である。 自機器として動作する電子機器の機能的構成の例を示すブロック図である。 連携機器として動作する電子機器の機能的構成の例を示すブロック図である。 出力モーダル決定処理の流れを説明するフローチャートである。 ユーザ情報テーブルの例を示す図である。 連携機器情報テーブルの第1の例を示す図である。 連携機器情報テーブルの第2の例を示す図である。 音声読み上げ可能な自機器が出力するケースの例を示す図である。 音声読み上げ可能な連携機器に出力を依頼するケースの例を示す図である。 画面出力可能な自機器が出力するケースの例を示す図である。 画面出力可能な連携機器に出力を依頼するケースの例を示す図である。 連携機器選択処理の流れを説明するフローチャートである。 第2候補モーダル選択処理の流れを説明するフローチャートである。 最適出力モーダル選択処理の流れを説明するフローチャートである。 最適出力モーダル選択処理の流れを説明するフローチャートである。 ユーザ属性・出力モータル対応テーブルの例を示す図である。 ユーザ情報テーブルの他の例を示す図である。 ユーザ情報設定画面の例を示す図である。 機器連携時における連携確認情報の例を示す図である。 本技術を適用した電子機器を含むシステムの一実施の形態の他の構成の例を示すブロック図である。 本技術を適用したシステムの一実施の形態の構成の第1の例を示すブロック図である。 本技術を適用したシステムの一実施の形態の構成の第2の例を示すブロック図である。 本技術を適用したシステムの一実施の形態の構成の第3の例を示すブロック図である。 本技術を適用したシステムの一実施の形態の構成の第4の例を示すブロック図である。 本技術を適用したシステムの一実施の形態の構成の他の具体的な例の一つとして、分散型システムを示す図である。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.本技術の実施の形態
2.システムの構成
3.コンピュータの構成
<1.本技術の実施の形態>
(システムの構成)
図1は、本技術を適用した電子機器を含むシステムの一実施の形態の構成の例を示している。
図1において、電子機器10−1乃至10−N(N:2以上の整数)とルータ20は、ホームネットワーク30を介して相互に接続されている。このホームネットワーク30は、例えば、無線LAN(Local Area Network)等のネットワークから構成される。
電子機器10−1は、例えば、情報機器、映像機器、音響機器、又は家電機器などの機器として構成される。
なお、情報機器としては、例えば、スマートフォンや携帯電話機、スマートウォッチ、タブレット型端末、ゲーム機、パーソナルコンピュータ等を含む。また、映像機器としては、例えば、テレビ受像機、プロジェクタ、ディスプレイ装置等を含む。
さらに、音響機器としては、例えば、スマートスピーカ、スピーカ、ヘッドフォン等を含む。また、家電機器としては、例えば、洗濯機や冷蔵庫、電子レンジ等の白物家電を含む。なお、ここに列挙した機器は一例であって、例えば、動物型や人型の家庭用ロボットや、ロボット掃除機等のロボットなどを含めてもよい。
電子機器10−1は、最適な出力モーダルで情報を出力することができる。ここで、出力モーダルとは、電子機器10−1乃至10−Nのそれぞれが有する(情報の)表現手段である。また、電子機器10−1は、ホームネットワーク30を介して、電子機器10−2乃至10−N等の他の電子機器10との間で情報をやりとりすることができる。
電子機器10−2乃至10−Nは、電子機器10−1と同様に、情報機器等の機器としてそれぞれ構成される。電子機器10−2乃至10−Nのそれぞれは、最適な出力モーダルで情報を出力することができる。また、電子機器10−2乃至10−Nのそれぞれは、他の電子機器10との間で情報をやりとりすることができる。
また、図1において、ルータ20は、インターネット50に接続可能であり、電子機器10−1乃至10−Nのそれぞれは、インターネット50を介してサーバ40と各種の情報をやりとりすることができる。
サーバ40は、例えば1又は複数のサーバから構成され、データセンタ等に設置される。サーバ40は、ユーザや機器に関する情報等をデータベースにより管理しており、電子機器10−1乃至10−Nのいずれからの要求に応じて、インターネット50を介して各種の情報を提供することができる。
なお、以下の説明では、電子機器10−1乃至10−Nを、特に区別する必要がない場合には、単に電子機器10と記載する。
また、詳細は後述するが、電子機器10には、その動作内容に応じて、動作の主体となる自機器と、自機器と連携して動作する連携機器の2種類が存在するため、以下の説明では、自機器として動作する電子機器10を、電子機器10Aとも記載する一方で、連携機器として動作する電子機器10を、電子機器10Bとも記載して区別する。
(電子機器の構成)
図2は、図1の電子機器10の構成の例を示している。
図2において、電子機器10は、処理部100、入力部101、出力部102、センサ部103、通信部104、及び記憶部105を含んで構成される。
処理部100は、例えば、CPU(Central Processing Unit)やマイクロコントローラ等のプロセッサ、FPGA(Field Programmable Gate Array)などから構成される。処理部100は、各部の動作の制御や各種の演算処理を行う中心的な処理装置である。
入力部101は、ユーザとの間の入力インターフェースとして、例えば、マイクロフォン101−1や、ボタン101−2などを含む。
マイクロフォン101−1は、ユーザの音声や周囲の音を含む外部からの音を電気信号に変換し、その結果得られる音声情報を、処理部100に供給する。また、ボタン101−2は、物理的なボタンであり、ユーザの操作に応じた操作情報を、処理部100に供給する。
なお、ここでは、入力部101として、マイクロフォン101−1とボタン101−2を含む場合を例示したが、例えば、後述のディスプレイ102−1と組み合わせたタッチパネルや、キーボード、マウス等の他の入力手段を含めてもよい。
出力部102は、ユーザとの間の出力インターフェースとして、例えば、ディスプレイ102−1、スピーカ102−2、電子音ブザー102−3、振動素子102−4、ランプ102−5を含む。
ディスプレイ102−1は、例えば液晶ディスプレイ(LCD:liquid crystal display)やOLED(Organic Light Emitting Diode)ディスプレイ等の表示装置である。ディスプレイ102−1は、処理部100から供給される出力命令に応じた情報を表示する。
スピーカ102−2は、例えば音声や音楽等の音を再生する音声出力装置である。スピーカ102−2は、処理部100から供給される出力命令に応じた音を出力する。電子音ブザー102−3は、例えば「ピー」等の電子音を出力可能な発音装置である。電子音ブザー102−3は、処理部100から供給される出力命令に応じた電子音を出力する。
振動素子102−4は、処理部100から供給される出力命令に応じて振動することで、ユーザに対して振動刺激を与える。ランプ102−5は、例えばLED(Light Emitting Diode)等の光源を含む発光装置である。ランプ102−5は、処理部100から供給される出力命令に応じて点灯する。
なお、ここでは、出力部102として、ディスプレイ102−1やスピーカ102−2等を含む場合を例示したが、例えば、ロボットの駆動部位(例えば頭部や手等)などの他の出力手段を含めてもよい。
センサ部103は、例えば、各種のセンサデバイス等から構成される。このセンサデバイスとしては、例えば、測定センサ103−1や、画像センサ103−2などを含む。
測定センサ103−1は、例えば、磁場(磁界)の大きさや方向を検出する磁気センサ、加速度を検出する加速度センサ、角度(姿勢)や角速度、角加速度を検出するジャイロセンサ、近接するものを検出する近接センサなどを含めることができる。測定センサ103−1は、ユーザやその周辺などのセンシングを行い、その結果得られる環境情報(センシング情報を含む)を、処理部100に供給する。
画像センサ103−2は、例えばイメージセンサと信号処理部を含んで構成される。画像センサ103−2は、イメージセンサにより被写体を撮像して得られる撮像信号に対して、信号処理部により各種の信号処理を行うことで画像情報を生成し、処理部100に供給する。
なお、ここでは、センサ部103として、測定センサ103−1や画像センサ103−2等を含む場合を説明したが、例えば、温度を検出する温度センサや、湿度を検出する湿度センサ、周囲の明るさを検出する環境光センサなどの周囲の環境を測定するためのセンサや、呼吸や脈拍、指紋、虹彩などの生体情報を検出する生体センサ等の他のセンサデバイスを含めてもよい。
通信部104は、所定の規格に準拠した無線通信又は有線通信に対応した通信モジュールなどから構成される。この通信モジュールとしては、例えば無線LANや、セルラ方式の通信(例えばLTE-Advancedや5G)等の通信方式に対応したものとされる。通信部104は、処理部100からの制御に従い、各種の情報を、他の電子機器10又はサーバ40との間でやりとりする。
記憶部105は、例えば半導体メモリやHDD(Hard Disk Drive)などの記憶装置から構成される。記憶部105は、処理部100からの制御に従い、各種の情報を記憶する。
なお、図2に示した電子機器10の構成は一例であって、すべての構成要素を備える必要はなく、例えば、入力部101やセンサ部103などの一部の構成要素を除いた構成としてもよい。あるいは、図2に示した電子機器10の構成に対して、他の構成要素を加えてもよい。
(自機器の機能的構成)
図3は、自機器として動作する電子機器10Aの機能的構成の例を示している。
電子機器10Aにおいて、処理部100は、ユーザ識別部121、出力モーダル決定部122、及び環境識別部123を含む。
ユーザ識別部121は、情報の出力先となるユーザを識別する機能を有する。ユーザ識別部121は、話者識別部131、顔識別部132、及び識別結果統合部133を含む。
話者識別部131は、マイクロフォン101−1から供給される音声情報を用いた話者認識処理を行い、その識別結果を、識別結果統合部133に供給する。この話者認識処理では、例えば、音声情報から特徴量を抽出してモデル化し、それを使って個人の声の認識を行う話者認識アルゴリズムなど、公知の技術を用いることができる。
顔識別部132は、画像センサ103−2から供給される画像情報を用いた顔認識処理を行い、その識別結果を、識別結果統合部133に供給する。この顔認識処理では、例えば、画像情報から目立つ特徴を抽出して一致する特徴のある画像を検索して個人の顔の認識を行う顔認識アルゴリズムなど、公知の技術を用いることができる。
識別結果統合部133は、話者識別部131から供給される話者の識別結果と、顔識別部132から供給される顔の識別結果を統合して、情報の出力先となるユーザ(その場にいるユーザ)を識別し、そのユーザ識別結果を、出力モーダル決定部122に供給する。このユーザ識別結果としては、例えば、識別したユーザに割り当てられたユーザIDを用いることができる。
出力モーダル決定部122は、あらかじめ登録されているユーザ情報を参照して、識別結果統合部133から供給されるユーザ識別結果(ユーザID)に応じた希望出力モーダルを取得する。
また、出力モーダル決定部122は、自機器の出力モーダルとして、識別したユーザの希望出力モーダルを有している場合、情報の出力命令を、希望出力モーダルに対応した自機器の出力部102に供給する。これにより、自機器として動作する電子機器10Aにおいて、希望出力モーダルに対応した出力部102は、出力モーダル決定部122からの出力命令に応じた情報を出力する。
一方、出力モーダル決定部122は、自機器の出力モーダルとして、識別したユーザの希望出力モーダルを有していない場合、あらかじめ登録されている連携機器情報を参照(取得)して、識別したユーザの希望出力モーダルを有する連携機器を選択する。
そして、出力モーダル決定部122は、通信部104を制御して、情報の出力命令を、ホームネットワーク30を介して、希望出力モーダルに対応した出力部102を有する連携機器に送信する。これにより、連携機器として動作する電子機器10Bにおいて、希望出力モーダルに対応した出力部102は、自機器として動作する電子機器10Aから送信されてくる出力命令に応じた情報を出力する。
ここで、識別したユーザが希望出力モーダルを設定していない場合には、出力モーダル決定部122からの出力命令に応じた情報を、自機器の出力モーダル(出力部102)から出力すればよい。
また、出力モーダル決定部122は、通信部104を制御して、ユーザ情報と連携機器情報を、インターネット50を介してサーバ40から取得することができる。
すなわち、サーバ40は、ユーザ情報テーブルを記憶したユーザ情報記憶部401と、連携機器情報テーブルを記憶した連携機器情報記憶部402を有しており、電子機器10Aからの要求に応じて、ユーザ情報テーブルに格納されたユーザ情報、又は連携機器情報テーブルに格納された連携機器情報を提供することができる。換言すれば、ユーザ情報テーブルと連携機器情報テーブルは、ホームネットワーク30に接続された複数の電子機器10の間で共有されている情報であると言える。
なお、ユーザ識別部121では、話者識別及び顔識別のうち、少なくとも一方の識別が行われればよく、一方の識別のみが行われる場合には、識別結果統合部133による識別結果の統合を行う必要がなく、一方の識別結果に応じたユーザ識別結果(ユーザID)が出力モーダル決定部122に供給される。
また、電子機器10Aがユーザの識別を行うタイミングは、例えば、次の2パターンが想定される。第1に、電子機器10Aがユーザに情報を通知したいときである。このケースとしては、例えば、電話やメールの着信通知、アラームやリマインダ、エラー通知などが含まれる。
第2に、ユーザが電子機器10Aに情報を求めたときである。ここでは、例えば、ユーザによるリモートコントローラの操作や、マイクロフォンによる音声入力が行われた場合が含まれる。具体的には、例えば、ユーザが、音声AIアシスタントサービスを利用する場合における、「明日の天気を教えてほしい」、「予定を登録したい」、「情報を検索したい」などの音声発話が含まれる。
また、自機器として動作する電子機器10Aにおいて、ユーザ識別部121によるユーザの識別が困難である場合には、ホームネットワーク30を介して、連携機器として動作する電子機器10Bと連携して、電子機器10Bからユーザ識別情報を取得し、このユーザ識別情報を用いたユーザの識別が行われるようにしてもよい。
環境識別部123は、センサ部103(例えば測定センサ103−1等)又は通信部104等から供給される環境情報(センシング情報を含む)を用いた環境識別処理を行い、その識別結果を、出力モーダル決定部122に供給する。
この環境情報としては、例えば、ユーザに関する情報(例えば、ユーザの位置を示す情報)や、他の機器に関する情報(例えば、スマートウォッチの活動情報など他の機器の情報や、他の機器の使用状況を示す情報)、その周辺に関する情報など、様々な情報を含めることができる。また、この環境識別処理では、環境情報を用いた環境識別アルゴリズムが実行されることで、例えば、現在ユーザがどの部屋にいるか、ユーザの近くにある機器は何かなどの識別結果を得ることができる。
すなわち、自機器として動作する電子機器10Aに、ユーザ識別のためのデバイス(カメラやマイクロフォン)が備わっていない場合には、機器連携している他の電子機器10からの情報を用いてユーザ識別などの処理を行ってもよい。
具体的には、スマートスピーカが情報を出力するのに、同じ部屋にあるテレビ受像機に内蔵されたカメラの画像情報を使ってユーザ識別を行うケースがある。また、テレビ受像機が情報を出力するのに、ユーザが在室しているかどうかを、スマートフォンのGPS(Global Positioning System)情報を使って判断するといったケースもある。
出力モーダル決定部122は、識別したユーザの希望出力モーダルに応じた出力モーダルの決定を行うに際し、環境識別部123から供給される環境の識別結果を加味して出力モーダルを決定し、自機器の出力部102、又は連携機器に対して出力命令を通知することができる。
(連携機器の機能的構成)
図4は、連携機器として動作する電子機器10Bの機能的構成の例を示している。
電子機器10Bにおいて、処理部100は、出力命令解析部141及び出力制御部142を含む。また、電子機器10Bにおいて、通信部104は、自機器として動作する電子機器10Aから、ホームネットワーク30を介して出力命令を受信した場合、出力命令を、出力命令解析部141に供給する。
出力命令解析部141は、通信部104から供給される出力命令を解析し、その解析結果を、出力制御部142に供給する。
出力制御部142は、出力命令解析部141からの出力命令の解析結果に基づいて、希望出力モーダルに対応した出力部102に対し、制御信号を供給する。これにより、連携機器として動作する電子機器10Bにおいて、希望出力モーダルに対応した出力部102は、自機器として動作する電子機器10Aから送信されてくる出力命令に応じた情報を出力することになる。
電子機器10は、以上のように構成される。
(出力モーダル決定処理の流れ)
次に、図5のフローチャートを参照して、電子機器10A(の処理部100)により実行される出力モーダル決定処理の流れを説明する。
ステップS11において、出力モーダル決定部122は、ユーザ情報テーブルを参照して、情報の出力先は登録済みのユーザであるかどうかを判定する。
ここで、図6は、ユーザ情報テーブルの例を示している。このユーザ情報テーブルでは、ユーザIDごとに、ユーザ名、性別、年齢、及び希望出力モーダルが格納されている。
具体的には、"01"乃至"04"のユーザIDとして、"ヒロシ"、"ユキ"、"ユウタ"、"ユウゾウ"の4人のユーザが登録済みである。
ヒロシは、性別が男性で、年齢が38歳であることは登録済みであるが、希望出力モーダルは未登録である。ユキは、38歳の女性で、希望出力モーダルとして、"常に画面出力を希望"することが登録されている。
また、ユウタは、10歳の男性であることは登録済みであるが、希望出力モーダルは未登録である。ユウゾウは、75歳の男性で、希望出力モーダルとして、"音声読み上げは話速を遅く"することが登録されている。
なお、このユーザ情報の登録は、例えば電子機器10の購入時などのタイミングで行われる。例えば、スマートフォンやテレビ受像機等の電子機器10に、設定画面を表示して、ユーザが設定画面の項目に情報を入力又は選択する操作などを行うことで、ユーザ情報が、サーバ40のユーザ情報記憶部401(のユーザ情報テーブル)に登録される。
また、このユーザ情報の登録時には、ユーザごとに、希望出力モーダルを設定することができる。この設定は、ユーザのアカウントに紐付いて、すべての電子機器10により共有される。希望出力モーダルのバリエーションとしては、例えば、次の(a)乃至(f)に示すものを例示することができる。
(a)すべての通知で音声読み上げ(電子音の翻訳を含む)を設定
(b)すべての通知で画面や光での出力を設定
(c)音声読み上げする際の音量や話速の設定
(d)画面出力する際の文字の色や大きさの設定
(e)振動(バイブレーション)で通知する際の振幅や振動パターンの設定
(f)光で通知する際の色や点灯パターンの設定
図5の説明に戻り、ステップS11の判定処理で、情報の出力先は登録済みのユーザであると判定された場合、処理は、ステップS12に進められる。
ステップS12において、出力モーダル決定部122は、連携機器情報テーブルを参照して、希望の出力モーダルが登録されているかどうかを判定する。
ここで、図7は、連携機器情報テーブルの例を示している。この連携機器情報テーブルでは、電子機器10に割り当てられる機器IDごとに、機器名、及び出力モーダルの項目が設けられ、各項目に応じた情報が格納されている。
具体的には、"00"乃至"06"の機器IDとして、テレビ受像機、スマートフォンA、スマートフォンB、スマートスピーカ、ロボット掃除機、冷蔵庫、洗濯機が登録されている。なお、ここでは、出力モーダルとして、"画面"は画面出力、"音声"は音声読み上げ(例えばTTS(Text To Speech))、"電子音"は電子音出力をそれぞれ意味している。
テレビ受像機、スマートフォンA、及びスマートフォンBは、ディスプレイ102−1及びスピーカ102−2を出力部102に含むため、出力モーダルとして、"画面"及び"音声"を含む。スマートスピーカ、及びロボット掃除機は、スピーカ102−2を出力部102に含むため、出力モーダルとして、"音声"を含む。冷蔵庫及び洗濯機は、電子音ブザー102−3を出力部102に含むため、出力モーダルとして、"電子音"を含む。
なお、この連携機器情報の登録は、例えば、電子機器10の購入時などのタイミングで手動又は自動で行われる。
手動で登録する場合には、例えば、スマートフォン等の電子機器10に設定画面を表示してユーザにより設定の操作が行われる。また、自動で登録する場合には、例えば、新たな電子機器10がホームネットワーク30に接続したとき、機器ID、機器名、出力モーダルなどの情報を含む設定情報が、インターネット50を介してサーバ40に送信され、連携機器情報テーブルに格納される。
図5の説明に戻り、ステップS12の判定処理で、希望の出力モーダルが登録されていると判定された場合、処理は、ステップS13に進められる。
ステップS13において、出力モーダル決定部122は、連携機器情報テーブルを参照して、希望の出力モーダルが自機器に存在しないかどうかを判定する。
ステップS13の判定処理で、希望の出力モーダルが自機器に存在すると判定された場合、処理は、ステップS14に進められる。
ステップS14において、出力モーダル決定部122は、ユーザが希望する出力モーダルで自機器から情報を出力する。この場合、自機器として動作する電子機器10Aでは、希望出力モーダルに対応した出力部102が、出力モーダル決定部122からの出力命令に応じた情報を出力する。
また、ステップS13の判定処理で、希望の出力モーダルが自機器に存在しないと判定された場合、処理は、ステップS15に進められる。
ステップS15において、出力モーダル決定部122は、連携機器情報テーブルを参照して、希望の出力モーダルを有する連携機器が存在するかどうかを判定する。
ステップS15の判定処理で、希望の出力モーダルを有する連携機器が存在すると判定された場合、処理は、ステップS16に進められる。
ステップS16において、出力モーダル決定部122は、ユーザが希望する出力モーダルで連携機器から情報を出力する。この場合、連携機器として動作する電子機器10Bでは、希望出力モーダルに対応した出力部102が、自機器として動作する電子機器10Aから送信されてくる出力命令に応じた情報を出力する。
また、ステップS11の判定処理で、情報の出力先は登録済みのユーザではないと判定された場合、ステップS12の判定処理で、希望の出力モーダルが登録されていないと判定された場合、又はステップS15の判定処理で、希望の出力モーダルを有する連携機器が存在しないと判定された場合、処理は、ステップS17に進められる。
ステップS17において、出力モーダル決定部122は、デフォルトの出力モーダルで自機器から情報を出力する。この場合、自機器として動作する電子機器10Aでは、あらかじめ設定されたデフォルトの出力モーダルに対応した出力部102が、出力モーダル決定部122からの出力命令に応じた情報を出力する。
ステップS14,S16,又はS17の処理のいずれかが終了すると、出力モーダル決定処理は終了される。
以上、出力モーダル決定処理の流れを説明した。この出力モーダル決定処理では、ユーザ情報と連携機器情報が取得され、取得されたユーザ情報と連携機器情報に基づいて、複数の電子機器10の中から、情報を出力する出力モーダルを有する電子機器10が選択され、選択された電子機器が有する出力モーダルから情報が出力される。
(連携機器情報テーブルの他の例)
図8は、図5のステップS12,S13,S15の処理で参照される連携機器情報テーブルの他の例を示している。
図8において、連携機器情報テーブルは、機器IDごとに、機器名、画面フィードバック、音フィードバック、光フィードバック、振動、及び動作の項目が設けられ、各項目に応じた情報が格納されている。
また、画面フィードバックの項目は、動画像出力と英数字出力(例えばデジタル英数字のみ出力可能等)の項目を含み、音フィードバックの項目は、音声読み上げと電子音出力の項目を含み、光フィードバックの項目は、複数色で発光と単色で発光の項目を含んでいる。
また、図8では、図中の白丸(○)が、各項目で表された出力モーダルに対応可能であることを示している。すなわち、図8の連携機器情報テーブルは、上述した図7の連携機器情報テーブルと比べて、出力モーダルを細分化して表している。
テレビ受像機は、ディスプレイ102−1及びスピーカ102−2を含むため、出力モーダルとして、"動画像出力"及び"英数字出力"、並びに"音声読み上げ"及び"電子音出力"を含む。
スマートフォンA,Bは、ディスプレイ102−1、スピーカ102−2、電子音ブザー102−3、振動素子102−4、及びランプ102−5を含むため、出力モーダルとして、"動画像出力"及び"英数字出力"、"音声読み上げ"及び"電子音出力"、"単色で発光"、並びに"振動"をそれぞれ含む。
スマートスピーカは、スピーカ102−2、電子音ブザー102−3、及びランプ102−5を含むため、出力モーダルとして、"音声読み上げ"、"電子音出力"、及び"複数色で発光"を含む。ロボット掃除機は、電子音ブザー102−3及び駆動部位を含むため、出力モーダルとして、"電子音出力"及び"動作"を含む。つまり、ロボット掃除機は、自機器の動きで情報の出力が可能とされる。
冷蔵庫は及び洗濯機は、ディスプレイ102−1、電子音ブザー102−3、及びランプ102−5を含むため、出力モーダルとして、"英数字出力"、"電子音出力"、及び"単色で発光"をそれぞれ含む。電子レンジは、ディスプレイ102−1及び電子音ブザー102−3を含むため、出力モーダルとして、"英数字出力"及び"電子音出力"を含む。
スマートウォッチは、ディスプレイ102−1、スピーカ102−2、電子音ブザー102−3、振動素子102−4、及びランプ102−5を含むため、出力モーダルとして、"動画像出力"及び"英数字出力"、"音声読み上げ"及び"電子音出力"、"複数色で発光"、並びに"振動"をそれぞれ含む。
なお、図8の連携機器情報テーブルは一例であって、他の出力モーダルを追加したり、あるいは削除したりしてもよい。さらに、出力モーダルを細分化したものとしては、他の情報を含めてもよい。例えば、画面フィードバックを、画面サイズや解像度などの機能ごとに分類してもよい。
(出力モーダル決定の具体例)
次に、図9乃至図12を参照して、出力モーダルの選択と出力機器の決定の例を説明する。
以下の説明では、電子機器10−1乃至10−6が、スマートスピーカ、スマートフォン、テレビ受像機、洗濯機、冷蔵庫、スマートウォッチである場合を例示するため、スマートスピーカ10−1、スマートフォン10−2、テレビ受像機10−3、洗濯機10−4、冷蔵庫10−5、スマートウォッチ10−6とも記載する。
(a)音声読み上げ可能な自機器が出力するケース
図9において、スマートスピーカ10−1と、スマートフォン10−2と、テレビ受像機10−3は、出力モーダルとして"音声"を含み、情報の音声読み上げが可能な機器である。
例えば、ユーザが「今週の天気教えて」である発話を行った場合に、当該ユーザが希望出力モーダルとして、"常に音声読み上げを希望"を登録していた場合を想定する。
このとき、例えば、スマートスピーカ10A−1は、出力モーダルとして"音声"を含んでいるため、自機器として動作し、「週間天気です。月曜から水曜は晴れ、金曜と土曜は雨が降るでしょう 最高気温は、・・・」であるテキストを音声読み上げし、希望出力モーダルに対応したスピーカ102−2から出力する。
このように、音声読み上げを希望するユーザに対し、音声読み上げ可能な自機器が対応する場合には、機器連携を行わずに、自機器が音声読み上げで情報を出力することになる。なお、この例では、スマートスピーカ10A−1が音声読み上げを行う場合を例示したが、例えば環境情報等に応じてスマートフォン10−2又はテレビ受像機10−3が音声読み上げを行ってもよい。
(b)音声読み上げ可能な連携機器に出力を依頼するケース
図10において、洗濯機10−4と、冷蔵庫10−5は、出力モーダルとして"電子音"を含むが、"音声"を含んでおらず、情報の音声読み上げが可能な機器ではない。
例えば、洗濯機10−4で洗濯が終了した場合、この洗濯を行っているユーザが、希望出力モーダルとして、"常に音声読み上げを希望"を登録していた場合を想定する。
このとき、洗濯機10A−4は、自機器として動作するが、出力モーダルとして"音声"を含んでいないため、連携機器情報テーブルを参照して、出力モーダルとして"音声"を含む連携機器として、スマートスピーカ10B−1を決定する。洗濯機10A−4は、洗濯が終了した旨を出力するための出力命令を、ホームネットワーク30を介してスマートスピーカ10B−1に送信する。
これにより、スマートスピーカ10B−1は、洗濯機10A−4から送信されてくる出力命令を受信し、「洗濯が終了しました」であるテキストを音声読み上げし、希望出力モーダルに対応したスピーカ102−2から出力する。
このように、音声読み上げを希望するユーザに対し、音声読み上げができない自機器が対応する場合には、機器連携を行って、自機器から連携機器に出力を依頼することで、連携機器が音声読み上げで情報を出力することになる。
(c)画面出力可能な自機器が出力するケース
図11において、スマートフォン10−2と、テレビ受像機10−3と、スマートウォッチ10−6は、出力モーダルとして"画面"を含み、情報の画面出力が可能な機器である。
例えば、ユーザが「今週の天気教えて」である発話を行った場合に、当該ユーザが希望出力モーダルとして、"常に画面出力を希望"を登録していた場合を想定する。
このとき、例えば、テレビ受像機10A−3は、出力モーダルとして"画面"を含んでいるため、自機器として動作し、週間天気に関する情報を、出力希望モーダルに対応したディスプレイ102−1から出力する。
このように、画面出力を希望するユーザに対し、画面出力可能な自機器が対応する場合には、機器連携を行わずに、自機器が画面出力で情報を出力することになる。なお、この例では、テレビ受像機10−3が画面出力を行う場合を例示したが、例えば環境情報等に応じてスマートフォン10−2又はスマートウォッチ10−6が画面出力を行ってもよい。
(d)画面出力可能な連携機器に出力を依頼するケース
図12において、スマートスピーカ10−1は、出力モーダルとして"音声"を含むが、"画面"を含んでおらず、情報の画面出力が可能な機器ではない。
例えば、ユーザが「今週の天気教えて」である発話を行った場合に、当該ユーザが希望出力モーダルとして、"常に画面出力を希望"を登録していた場合を想定する。
このとき、スマートスピーカ10A−1は、自機器として動作するが、出力モーダルとして"画面"を含んでいないため、連携機器情報テーブルを参照して、出力モーダルとして"画面"を含む連携機器として、テレビ受像機10B−3を決定する。スマートスピーカ10A−1は、週間天気に関する情報を出力するための出力命令を、ホームネットワーク30を介してテレビ受像機10B−3に送信する。
これにより、テレビ受像機10B−3は、スマートスピーカ10A−1から送信されてくる出力命令を受信し、週間天気に関する情報を、出力希望モーダルに対応したディスプレイ102−1から出力する。
このように、画面出力を希望するユーザに対し、画面出力をできない自機器が対応する場合には、機器連携を行って、自機器から連携機器に出力を依頼することで、連携機器が画面出力で情報を出力することになる。
以上のように、本技術では、ある機器(自機器)が、他の機器(連携機器)の出力モーダルを借りることで、出力モーダルが限られた機器であっても、機器連携によって、ユーザごとに最適な出力モーダルで情報を出力することができる。
すなわち、アクセシビリティを考慮したり、最適な出力モーダルを選択したりすることは、一般的に行われているが、その機器自体に画面出力や音声読み上げなどの出力モーダルが備わっていることが前提であったため、特に家電機器などでは、出力モーダルが限られていることもあり、その場合にアクセシビリティの設定が困難であった。
特に、電子機器10を使用するユーザの中には、視覚や聴覚など身体に障がいがある人や、子供やお年寄りなど、アクセシビリティへの配慮が必要なユーザが存在する。これらのユーザにとっては、電子機器10の出力モーダルが限られていると、機器からのフィードバックを適切に受け取れない可能性がある。
例えば、視覚に障がいを持つユーザが、出力モーダルとして"画面"のみを有する機器に対し、週間天気を問い合わせた場合に、週間天気に関する情報が画面出力のみで出力されると、当該ユーザは、画面に表示された情報を確認することができない。それに対し、本技術では、出力モーダルとして"画面"のみを有する機器(自機器)であっても、他の機器(連携機器)の出力モーダルを借りて、週間天気を音声で出力できるため、アクセシビリティへの十分な配慮が可能となる。
また、例えば、聴覚に障がいを持つユーザに対し、出力モーダルとして"音声"のみを有する機器からメッセージが音声読み上げされた場合、当該ユーザは、読み上げられた音声を確認することができない。それに対し、本技術では、出力モーダルとして"音声"のみを有する機器(自機器)であっても、他の機器(連携機器)の出力モーダルを借りて、週間天気に関する情報を画面出力できる。
次に、本技術を適用した電子機器を用いた様々なユースケースの例を説明する。
(連携機器選択処理の流れ)
まず、図13のフローチャートを参照して、電子機器10A(の処理部100)により実行される連携機器選択処理の流れを説明する。
この連携機器選択処理は、図5のステップS16に対応する処理であって、ユーザが希望する出力モーダルを有する連携機器が複数存在する場合に、それらの連携機器の中から、出力先の連携機器を選択する処理である。
ここでは、ユーザが希望する出力モーダル(例えば画面出力や音声読み上げ等)を有する連携機器として、スマートフォン10B−2とテレビ受像機10B−3の2つの機器が存在する場合を例示する。
ただし、デフォルトの出力先としてテレビ受像機10B−3が設定されているため、ここでは、状況に応じてスマートフォン10B−2が出力先として選択されることになる。さらに、情報を受け取るユーザを、ユーザAと記載している。
ステップS31において、出力モーダル決定部122は、環境情報等の情報に基づいて、テレビ受像機10B−3とスマートフォン10B−2のそれぞれで、ユーザAとの距離に関する距離情報を取得する。
ここでは、テレビ受像機10B−3とユーザAとの距離情報、及びスマートフォン10B−2とユーザAとの距離情報がそれぞれ取得されるが、この距離情報は、例えば、自機器としての電子機器10Aが算出してもよいし、あるいは他の電子機器10から取得してもよい。
ステップS32において、出力モーダル決定部122は、距離情報に基づいて、テレビ受像機10B−3の所定の範囲内(例えば半径5m以内)にユーザAが存在するかどうかを判定する。なお、半径5m以内等の所定の範囲は、設計者やユーザにより適宜設定可能である。
ステップS32の判定処理で、テレビ受像機10B−3の所定の範囲内にユーザAが存在すると判定された場合、処理は、ステップS33に進められる。
ステップS33において、出力モーダル決定部122は、画像情報や環境情報等の情報に基づいて、テレビ受像機10B−3の周辺(例えば前方の位置)にはユーザAしかいないかどうかを判定する。
ステップS33の判定処理で、その周辺にはユーザAしかいないと判定された場合、処理は、ステップS34に進められる。
ステップS34において、出力モーダル決定部122は、出力先の連携機器として、テレビ受像機10B−3を選択し、ホームネットワーク30を介して出力命令を送信することで、テレビ受像機10B−3から詳細情報を出力(例えば画面出力)する。これにより、ユーザAは、例えばテレビ受像機10B−3に表示された詳細情報を見ることができる。
また、ステップS33の判定処理で、その周辺にユーザA以外の他の人がいると判定された場合、処理は、ステップS35,S36に進められる。
すなわち、出力モーダル決定部122は、出力命令を、ホームネットワーク30を介してテレビ受像機10B−3に送信することで、テレビ受像機10B−3からユーザAに対し、スマートフォン10B−2を見るように促す(S35)。また、出力モーダル決定部122は、出力命令を、ホームネットワーク30を介してスマートフォン10B−2に送信することで、ユーザAの所持するスマートフォン10B−2から詳細情報を出力(画面出力)する(S36)。
このように、他の人がいる前で、ユーザAの情報を出力(画面出力)するのを避けるために、テレビ受像機10B−3の出力は簡単な通知にとどめて、情報の詳細は、ユーザAの所持するスマートフォン10B−2から出力(画面出力)されるようにしている。
一方で、ステップS32の判定処理で、テレビ受像機10B−3の所定の範囲内にユーザAが存在しないと判定された場合、処理は、ステップS37に進められる。
ステップS37において、出力モーダル決定部122は、距離情報に基づいて、スマートフォン10B−2の所定の範囲内(例えば半径5m以内)にユーザAが存在するかどうかを判定する。なお、半径5m以内等の所定の範囲は、設計者やユーザにより適宜設定可能である。
ステップS37の判定処理で、スマートフォン10B−2の所定の範囲内にユーザAが存在すると判定された場合、処理は、ステップS36に進められる。
ステップS36において、出力モーダル決定部122は、出力命令を、ホームネットワーク30を介してスマートフォン10B−2に送信することで、ユーザAの所持するスマートフォン10B−2から詳細情報を出力(画面出力)する。
また、ステップS37の判定処理で、スマートフォン10B−2の所定の範囲内にユーザAが存在しないと判定された場合、処理は、ステップS38に進められる。
ステップS38において、出力モーダル決定部122は、出力命令を、ホームネットワーク30を介してテレビ受像機10B−3に送信することで、テレビ受像機10B−3から概要情報を出力(画面出力)する。
すなわち、この場合には、テレビ受像機10B−3とスマートフォン10B−2のどちらの機器も、ユーザAから遠い位置にあるため、デフォルトの出力先として設定されているテレビ受像機10B−3から、情報の概要のみが出力されるようにしている。
ステップS34,S35,S36,又はS38の処理が終了すると、連携機器選択処理は終了される。
以上、連携機器選択処理の流れを説明した。この連携機器選択処理では、同一の出力モーダルを有する連携機器が複数存在する場合には、ユーザの周辺の環境をセンシングして最適な連携機器を選択することができる。
ここで、複数の連携機器の中から最適な連携機器を選択するに際しては、あらかじめ何らかのルールで機器の優先順位を決めておくことができる。
例えば、上述したように、デフォルトの出力先としてテレビ受像機10B−3を設定しておくことで、ユーザが希望する出力モーダルとして、画面出力や音声読み上げが設定されている場合には、まず、テレビ受像機10B−3から情報を出力することになる。あるいは、例えば、ユーザが希望する出力モーダルを有する連携機器が複数存在する場合には、連携機器情報テーブル(図7)に格納された機器IDの若い順に機器を選択することができる。
また、複数の連携機器の中から最適な連携機器を選択するに際しては、音声情報、画像情報、環境情報等の各種の情報を用いることができる。
例えば、ユーザの近くに機器が存在するかどうかの情報を、連携機器の選択の際に加味する場合には、例えば、画像情報や環境情報(センシング情報を含む)などの情報を用い、ユーザと機器との位置関係を算出すればよい。また、例えば、機器を使用しているのが誰かの情報を加味する場合、画像情報や音声情報を用い、顔や声によるユーザ認識を行うことができる。
さらに、センシング情報に基づき、例えばユーザの顔向きや視線を示す情報を算出することで、ユーザの視界に機器が入っているか、又は機器を注目しているかなどの情報を、連携機器の選択の際に加味することができる。また、通知する情報(メッセージ)の内容を加味してもよい。例えば、個人情報を含む情報であれば、他のユーザに見られたくない又は聞かれたくない可能性があるため、それを考慮して連携機器を選択する必要がある。
また、ユーザの希望する出力モーダルを加味する場合、例えば、画面出力を希望していれば、ユーザの視界にディスプレイが入っていることが重要であり、画像情報や環境情報等の情報に基づき、ユーザの視界にある連携機器(のディスプレイ)を優先的に選択することができる。さらに、例えば、ユーザが音声読み上げを希望していれば、連携機器(のスピーカ)から出力される音声が、ユーザの耳に届く距離、音量であることが重要であり、音声情報や画像情報、環境情報等の情報に基づき、ユーザの近くにある連携機器(のスピーカ)を優先的に選択することができる。
具体的には、ユーザの自宅において、ある家電機器(自機器)が、音声読み上げ可能な連携機器として、リビングに設置されたテレビ受像機10B−3と、寝室に設置されたスマートスピーカ10B−1に対し、情報の出力を依頼できる場合を想定する。このとき、ユーザは、希望出力モーダルとして音声読み上げを設定している。
この場合において、ユーザがリビングにいるときには、テレビ受像機10B−3に内蔵された画像センサ103−2によって、その様子が撮影され、テレビ受像機10B−3が連携機器として選択される。これにより、リビング内で、ユーザは、テレビ受像機10B−3により読み上げられた音声の内容(情報)を確認することができる。
(第2候補モーダル選択処理の流れ)
次に、図14のフローチャートを参照して、電子機器10A(の処理部100)により実行される第2候補モーダル選択処理の流れを説明する。
ここでは、自機器としてのスマートスピーカ10A−1が、連携機器としてテレビ受像機10B−3を選択し、テレビ受像機10B−3から情報を出力(例えば画面出力)したいが、ユーザAがテレビ受像機10B−3の近くにいない場面を想定する。ただし、このとき、第2候補の出力モーダルとして"光"(発光パターンで通知)が設定されている。
ステップS51において、出力モーダル決定部122は、環境情報等の情報に基づいて、テレビ受像機10B−3とユーザAとの距離に関する距離情報を取得する。この距離情報は、自機器としてのスマートスピーカ10A−1が算出してもよいし、あるいはテレビ受像機10B−3等の他の電子機器10から取得してもよい。
ステップS52において、出力モーダル決定部122は、距離情報に基づいて、テレビ受像機10B−3の所定の範囲内(例えば半径5m以内)にユーザAが存在するかどうかを判定する。
ステップS52の判定処理で、テレビ受像機10B−3の所定の範囲内にユーザAが存在すると判定された場合、処理は、ステップS53に進められ、テレビ受像機10B−3から情報を出力(画面出力)する。これにより、ユーザAは、例えばテレビ受像機10B−3に表示された情報を見ることができる。
一方で、ステップS52の判定処理で、テレビ受像機10B−3の所定の範囲内にユーザAが存在しないと判定された場合、処理は、ステップS54に進められる。
ステップS54において、出力モーダル決定部122は、環境情報等の情報から得られる距離情報に基づいて、スマートスピーカ10A−1の所定の範囲内(例えば半径5m以内)にユーザAが存在するかどうかを判定する。
ここでは、"光"である第2候補の出力モーダルを有する機器として、スマートスピーカ10A−1とスマートウォッチ10−6が設定されているが、自機器としてのスマートスピーカ10−1Aが、連携機器としてのテレビ受像機10B−3を通じて情報を出力(画面出力)しようとしているため、先にスマートスピーカ10A−1のLEDで通知可能かがチェックされる。
ステップS54の判定処理で、スマートスピーカ10A−1の所定の範囲内にユーザAが存在すると判定された場合、処理は、ステップS55に進められ、ステップS55,S53の処理が行われる。
すなわち、出力モーダル決定部122は、第2候補の出力モーダルを有する機器として自機器を選択し、出力命令をランプ102−5に供給することで、スマートスピーカ10A−1のLEDを点灯して、ユーザAに対し、テレビ受像機10B−3を見るように促す(S55)。
また、出力モーダル決定部122は、出力命令を、ホームネットワーク30を介してテレビ受像機10B−3に送信することで、テレビ受像機10B−3から情報を出力(画面出力)する(S53)。これにより、ユーザAは、例えば、スマートスピーカ10A−1のLEDの点灯を確認したとき、その点灯に反応して、テレビ受像機10B−3に表示された情報を見ることができる。
また、ステップS54の判定処理で、スマートスピーカ10A−1の所定の範囲内にユーザAが存在しないと判定された場合、処理は、ステップS56に進められる。
ステップS56において、出力モーダル決定部122は、環境情報等の情報から得られる距離情報に基づいて、スマートウォッチ10−6の所定の範囲内(例えば半径5m以内)にユーザAが存在するかどうかを判定する。
ここでは、"光"である第2候補の出力モーダルを有する機器として、先にチェックされたスマートスピーカ10A−1ではLEDでの通知ができないため、続いて、スマートウォッチ10−6のLEDで通知可能かがチェックされる。
ステップS56の判定処理で、スマートウォッチ10−6の所定の範囲内にユーザAが存在すると判定された場合、処理は、ステップS57に進められ、ステップS57,S53の処理が行われる。
すなわち、出力モーダル決定部122は、第2候補の出力モーダルを有する出力先の連携機器として、スマートウォッチ10B−6を選択し、ホームネットワーク30を介して出力命令を送信することで、スマートウォッチ10B−6のLEDを点灯して、ユーザAに対し、テレビ受像機10B−3を見るように促す(S57)。
また、出力モーダル決定部122は、出力命令を、ホームネットワーク30を介してテレビ受像機10B−3に送信することで、テレビ受像機10B−3から情報を出力(画面出力)する(S53)。これにより、ユーザAは、例えば、スマートウォッチ10B−6のLEDの点灯を確認したとき、その点灯に反応して、テレビ受像機10B−3に表示された情報を見ることができる。
また、ステップS56の判定処理で、スマートウォッチ10B−6の所定の範囲内にユーザAが存在しないと判定された場合、処理は、ステップS53に進められ、テレビ受像機10B−3から情報を出力(画面出力)する。すなわち、この場合には、第2候補の出力モーダルによっても、ユーザへの通知が困難であるため、テレビ受像機10B−3による画面出力のみでの出力が行われる。
ステップS53の処理が終了すると、第2候補モーダル選択処理は終了される。
以上、第2候補モーダル選択処理の流れを説明した。この第2候補モーダル選択処理では、ユーザが希望出力モーダルを設定する際に、第2候補の出力モーダルを設定しておくことで、希望出力モーダルを有する連携機器がユーザの近くに存在しない場合でも、第2候補の出力モーダルを有する連携機器から情報を出力することができる。
上述した例では、希望出力モーダルとして"画面出力"を設定した場合に、第2候補の出力モーダルとして、"光"を設定しているが、これに限らず、例えば、希望出力モーダルとして"音声読み上げ"を設定した場合に、第2候補の出力モーダルとして、"電子音"(音の高さやパターンで通知)を設定するなど、任意の組み合わせを用いることができる。
ここで、第2候補の出力モーダルを選択するために必要な情報としては、例えば、次のような情報を含めることができる。
すなわち、画像情報や環境情報等の情報に基づき、ユーザと、当該ユーザが希望する出力モーダルを有する連携機器との位置関係を示す情報を加味することができる。さらには、ユーザと、自機器(情報を出力したい機器)との位置関係や、ユーザと、第2候補の出力モーダルを有する連携機器との位置関係を示す情報を加味することができる。
なお、通知する情報の内容としては、重要度が高い場合には、ユーザが近くに存在しなくても、当該通知に気付かせる必要がある。
また、ユーザが希望する出力モーダルを有する連携機器がどれもユーザの近くにいない場合に、第2候補の出力モーダルを設定していないときでも、例えば、次のような対応をとることができる。
すなわち、機器がユーザに対して自発的に情報を通知する場合に、ユーザがその機器の近くにいない可能性がある。この場合には、複数の機器が連携してユーザの気を引き、ユーザに対して積極的に情報を取りに行かせることができる。
例えば、画面出力を希望出力モーダルとして設定しているユーザが、スマートフォンを置いたまま、テレビ受像機が設置された部屋から出ていった状態で、機器がユーザに情報を通知しようとしている場面を想定する。つまり、この場面では、ユーザの近くに、画面出力できる機器が存在していない。
このとき、ユーザの移動先の部屋には、スマートスピーカが設置されており、このスマートスピーカが、例えばLEDを特異なパターンで点灯させることで、ユーザに対して情報の通知の存在を認識させて、リビングに戻るように促す。これにより、リビングに戻ったユーザは、スマートフォン又はテレビ受像機から出力される画面出力を確認することができる。
また、動物型や人型の家庭用ロボットや、ロボット掃除機などの自走可能な機器と連携して、上記のように、情報を通知しようとしている機器の近くにユーザがいない場合に、例えば、犬型のロボットがユーザを追いかけて情報の通知の存在を認識させる、といったことも可能である。
(最適出力モーダル選択処理の流れ)
次に、図15及び図16のフローチャートを参照して、電子機器10A(の処理部100)により実行される最適出力モーダル選択処理の流れを説明する。
なお、この最適出力モーダル選択処理は、例えば、図5の出力モーダル決定処理で、ステップS11の判定処理で、情報の出力先は登録済みのユーザではないと判定された場合(図5のS11の「No」)、又はステップS12の判定処理で、希望の出力モーダルが登録されていないと判定された場合(図5のS12の「No」)に実行される。
すなわち、図5の出力モーダル決定処理では、ユーザ登録されていない場合や、希望出力モーダルが設定されていない場合には、ステップS17の処理で、デフォルトの出力モーダルが選択されていたが、これらの場合でも、画像情報や環境情報等の情報を用いて、最適な出力モーダルが選択されるようにする。
ここでは、まず、情報の出力先が未登録ユーザである、又は登録ユーザであっても希望出力モーダルが設定されていない場合に、ユーザとその周辺の状態から最適な出力モーダルを選択する最適出力モーダル選択処理の流れを、図15のフローチャートを参照しながら説明する。
ステップS71において、環境識別部123は、環境情報としてユーザとその周辺のセンシング情報を取得する。これにより、環境識別部123では、取得したセンシング情報に基づき、ユーザとその周辺の状態を識別することができる。
ステップS72において、環境識別部123は、環境の識別結果に基づいて、ユーザが画面を見ることができるか判定する。
ステップS72の判定処理で、ユーザが画面を見ることができると判定された場合、処理は、ステップS73に進められる。
ステップS73において、出力モーダル決定部122は、出力命令を、ディスプレイ102−1に供給し、画面出力で情報を出力する。これにより、ユーザが画面を見られる状態である場合には、画面出力で情報が出力される。
なお、このとき、自機器に画面出力機能がない場合には、機器連携を行い、ホームネットワーク30を介して出力命令を連携機器に送信することで、連携機器から情報を画面出力する。
一方で、ステップS72の判定処理で、ユーザが画面を見ることができないと判定された場合、処理は、ステップS74に進められる。すなわち、例えば、ユーザが本に注目している場合には、情報を画面出力しても、気付かないことが想定されるため、ここでは、音声読み上げが選択されるようにする。
ステップS74において、環境識別部123は、環境の識別結果に基づいて、ユーザ周辺のノイズレベルが所定の閾値よりも高いかどうかを判定する。
ステップS74の判定処理で、ユーザ周辺のノイズレベルが閾値よりも高いと判定された場合、処理は、ステップS75に進められる。
ステップS75において、出力モーダル決定部122は、出力命令を、ディスプレイ102−1とスピーカ102−2にそれぞれ供給し、音声読み上げ画面出力とで情報を出力する。なお、このとき、自機器に音声読み上げと画面表示機能のうち、少なくとも一方の機能がない場合には、機器連携を行い、出力命令を連携機器に送信することで、連携機器から情報を音声読み上げ又は画面出力で出力する。
また、ステップS74の判定処理で、ユーザ周辺のノイズレベルが閾値よりも低いと判定された場合、処理は、ステップS76に進められる。
ステップS76において、出力モーダル決定部122は、出力命令を、スピーカ102−2に供給し、音声読み上げで情報を出力する。なお、このとき、自機器に音声読み上げ機能がない場合には、機器連携を行い、出力命令を連携機器に送信することで、連携機器から情報を音声読み上げで出力する。
これにより、周囲のノイズレベルが低い場合には、ユーザが音声を聞き取りやすいため、音声読み上げのみで情報を出力する(S76)。一方で、例えば、ユーザがヘッドフォンをしていて音を聞き取れなかった場合や、周囲のノイズレベルが高い場合には、音声読み上げよりも、画面出力を選択したりして、複数の出力モーダルで情報を出力することも可能とされる(S75)。
ステップS73,S75,又はS76の処理のいずれかが終了すると、最適出力モーダル選択処理は終了する。
次に、情報の出力先が未登録ユーザである、又は登録ユーザであっても希望出力モーダルが設定されていない場合に、ユーザ属性から最適な出力モーダルを選択する最適出力モーダル選択処理の流れを、図16のフローチャートを参照しながら説明する。
ステップS91において、ユーザ識別部121は、画像情報や音声情報に基づいて、ユーザの属性を推定する。このユーザの属性としては、例えば、年齢や性別などの情報を含む。
ステップS92において、出力モーダル決定部122は、ユーザ属性・出力モーダル対応テーブルを参照する。例えば、このユーザ属性・出力モーダル対応テーブルは、インターネット50を介してサーバ40により提供される。
ステップS93において、出力モーダル決定部122は、ユーザ属性・出力モーダル対応テーブルに、推定したユーザ属性に対応した出力モーダルの変更点が記載されているかどうかを判定する。
ステップS93の判定処理で、推定したユーザ属性に対応した出力モーダルの変更点が記載されていると判定された場合、処理は、ステップS94に進められる。
ステップS94において、出力モーダル決定部122は、ユーザ属性・出力モーダル対応テーブルに記載された出力モーダルの変更点を反映して情報を出力する。
ここで、図17は、ユーザ属性・出力モーダル対応テーブルの例を示している。このユーザ属性・出力モーダル対応テーブルでは、年齢や性別等のユーザ属性ごとに、出力モーダル変更点が格納されている。
具体的には、"推定年齢が70歳以上"であるユーザ属性に対し、出力モーダル変更点として、"電子音より音声読み上げで出力する"と、"このとき、音量を1.2倍にする"が登録されている。また、"推定年齢が10歳未満"であるユーザ属性に対し、出力モーダル変更点として、"画面出力する場合は、漢字ではなく、ひらがなを使う"が登録されている。
このように、例えば、未登録又は希望出力モーダルを設定していないユーザの属性が、高齢者(例えば70歳以上)である推定(認識)された場合に、音声読み上げを行うときには、その音量を通常時の1.2倍にして出力することになる。なお、音量を何倍にするかなどの設定は、例えば、設計者により決定される。
図16の説明に戻り、ステップS93の判定処理で、推定したユーザ属性に対応した出力モーダルの変更点が記載されていないと判定された場合、処理は、ステップS95に進められる。ステップS95において、出力モーダル決定部122は、デフォルトの出力モーダルで情報を出力する。
ステップS94,又はS95の処理のいずれかが終了すると、最適出力モーダル選択処理は終了する。
以上、最適出力モーダル選択処理の流れを説明した。この最適出力モーダル選択処理では、未登録又は希望出力モーダルを設定していないユーザに対し、デフォルトの出力モーダルの代わりに、より最適な出力モーダルを選択することができる。
ここで、最適な出力モーダルを選択するために必要な情報としては、例えば、次のような情報を含めることができる。すなわち、ユーザの行動履歴(例えば、視線や顔向きのトラッキング、物体認識等)に関する情報や、年齢や性別等のユーザの属性の推定結果の情報、周辺環境の認識(例えば周辺の雑音状況等)に関する情報を含めることができる。
(複数人で使用する機器の例)
例えば、リビングに設置されたテレビ受像機10−3など、複数の出力モーダルが選択可能であり、かつ、複数人(例えば家族等)で1台の電子機器10を使用する場合には、ユーザごとに優先順位をつけて、その優先順位に従った希望出力モーダルでの出力を行うことができる。
一方で、電子メールやメッセージ等の通知、明日の天気、今日の予定などの一時的な通知に関しては、連携機器の使用状況に応じて情報の出力先を振り分けることが可能である。
例えば、家族全員でテレビを見る場合の出力モーダルは、図18に示したユーザ情報テーブルを参照して選択することができる。すなわち、図18のユーザ情報テーブルでは、ユーザIDごとの項目として、優先度が追加され、ユキ、ヒロシ、ユウタ、ユウゾウの順に優先度が設定されている。
ここでは、ユーザID 02のユキ(常に画面出力を希望)の優先度が最も高く設定されているため、常時字幕モードがオンになる。なお、リビングにユキがいない場合には、その次に優先度が高いユーザID 01のヒロシの設定が優先される。
また、例えば、ユキがテレビを視聴中である場合、ユキへの情報の通知は、画面出力、例えば、画面に情報がポップアップして表示される。一方で、ユキ以外の家族がテレビを視聴している場合には、ユキへの情報の通知は、例えばユキが所持するスマートフォン10−2の画面出力で行われる。
(ユーザ情報設定画面の例)
上述したように、ユーザ情報は、電子機器10の購入時などのタイミングで登録されるが、電子機器10に、設定画面を表示させることで行われる。図19は、スマートフォン10−2のディスプレイ102−1に表示されたユーザ情報設定画面210の例を示している。
図19において、ユーザ情報設定画面210には、ユーザ情報テーブルの項目に対応して、ユーザ名、性別、年齢、希望出力モーダルの項目が表示されており、それらの項目に応じた情報を入力又は選択する操作などを行うことで、ユーザ情報が、サーバ40のユーザ情報記憶部401(のユーザ情報テーブル)に登録される。
(連携確認情報の例)
また、機器連携時において、主機器からの依頼に応じて連携機器から情報を出力する場合には、ユーザに対して、連携機器からの情報の出力であることを確認させるために、連携確認情報を通知してもよい。図20は、機器連携時における連携確認情報の例を示している。
図20において、例えば、テレビ受像機10−3は、主機器からの依頼に応じて音声読み上げで情報を出力している。このとき、テレビ受像機10−3は、連携確認情報220として、主機器からの依頼に応じて音声読み上げを行っていることを通知するための情報(例えば耳のアイコン等)を表示する。これにより、ユーザは、連携確認情報220を見て、テレビ受像機10−3が主機器からの依頼に応じて音声読み上げを実施していることを確認することができる。
(システムの他の構成)
図21は、本技術を適用した電子機器を含むシステムの一実施の形態の他の構成の例を示している。
図21において、電子機器10−1乃至10−N(N:2以上の整数)は、ホームネットワーク30を介して相互に接続されている。
電子機器10−1は、情報機器等の機器として構成されるが、ユーザ情報記憶部401及び連携機器情報記憶部402を記憶している。電子機器10−1は、電子機器10−2乃至10−Nのいずれかからの要求に応じて、ホームネットワーク30を介して、ユーザ情報又は連携機器情報を送信する。
電子機器10−2乃至10−Nでは、ホームネットワーク30を介して電子機器10−1から受信したユーザ情報及び連携機器情報に基づいて、上述した出力モーダル決定処理(図5)等の処理を行うことができる。
なお、電子機器10−1は、ユーザ情報記憶部401及び連携機器情報記憶部402に記憶されているユーザ情報及び連携機器情報を読み出して、上述した出力モーダル決定処理(図5)等の処理を行うことができる。
また、電子機器10−1は、電子機器10−2乃至10−Nの代わりに、上述した出力モーダル決定処理(図5)等の処理を実行し、その処理結果を、電子機器10−2乃至10−Nに送信してもよい。さらに、電子機器10−1は、データベースとしてのユーザ情報記憶部401及び連携機器情報記憶部402を管理するサーバとして構成されてもよい。
このように、電子機器10−1乃至10−Nのうち、所定の電子機器10をホストとして、他の電子機器10がホストに対して問い合わせることで、ユーザ情報と連携機器情報が取得され、機器連携が行われる。
なお、上述した説明では、ローカル側の電子機器10Aにおいて、処理部100が、ユーザ識別部121、出力モーダル決定部122、及び環境識別部123を有するとして説明したが、ユーザ識別部121乃至環境識別部123の機能の全部又は一部が、クラウド側のサーバ40に組み込まれてもよい。すなわち、ユーザ識別部121乃至環境識別部123のそれぞれは、ローカル側の電子機器10Aと、クラウド側のサーバ40のうち、どちらの機器に組み込まれてもよい。
また、上述した説明において、音声AIアシスタントサービスとは、ユーザの発話の意図を理解し、その内容に応じた適切な出力を提供するサービスである。さらに、スマートスピーカとは、対話型の音声操作に対応したAIアシスタント機能を有するスピーカである。スマートウォッチとは、小型のディスプレイとCPUを搭載した多機能な腕時計型のウェアラブルデバイスである。
<2.システムの構成>
以上、本技術の実施の形態について説明した。上述したように、本技術を適用した電子機器10は、処理部100と、入力部101と、出力部102とを含み、これらの構成要素は、1又は複数の情報処理装置によって実現される。以下、システムとして構成される電子機器10を実現する情報処理装置の組み合わせの例について、より具体的な例とともに説明する。
(第1の例)
図22は、本技術を適用したシステムの一実施の形態の構成の第1の例を示している。
図22において、システム1は、情報処理装置10を含む。処理部100、入力部101、及び出力部102は、いずれも情報処理装置10において実現される。情報処理装置10は、以下で説明するように端末装置又はサーバとすることができる。
この第1の例において、情報処理装置10は、本技術の実施の形態に係る機能の実現のためにネットワークを介して外部装置と通信しない、スタンドアロンの装置であってもよい。なお、情報処理装置10は、他の機能のために外部装置と通信してもよく、従って必ずしもスタンドアロンの装置でなくてもよい。
入力部101と処理部100との間のインターフェース150A、及び処理部100と出力部102との間のインターフェース160Aは、いずれも装置内のインターフェースとすることができる。
第1の例において、情報処理装置10は、例えば端末装置として構成される。この場合、入力部101は、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含めてもよい。外部サービスから情報を取得するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアからデータを取得する。
処理部100は、端末装置が備えるプロセッサ又は処理回路がメモリ又はストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部102は、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含めてもよい。外部サービスに情報を提供するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアに情報を提供可能である。
あるいは、第1の例において、情報処理装置10は、サーバであってもよい。この場合、入力部101は、外部サービスから情報を取得するソフトウェアを含めてもよい。外部サービスから情報を取得するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置10自身であってもよい)からデータを取得する。
処理部100は、端末装置が備えるプロセッサがメモリ又はストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部102は、外部サービスに情報を提供するソフトウェアなどを含めてもよい。外部サービスに情報を提供するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置10自身であってもよい)に情報を提供する。
(第2の例)
図23は、本技術を適用したシステムの一実施の形態の構成の第2の例を示している。
図23において、システム1は、情報処理装置10,11を含む。処理部100は、情報処理装置10において実現される。一方、入力部101及び出力部102は、情報処理装置11において実現される。
情報処理装置10と情報処理装置11とは、本技術の実施の形態に係る機能を実現するために、ネットワークを介して通信する。入力部101と処理部100との間のインターフェース150B、及び処理部100と出力部102との間のインターフェース160Bは、いずれも装置間の通信インターフェースとすることができる。
第2の例において、情報処理装置11は、例えば端末装置として構成される。この場合、入力部101は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含めてもよい。出力部102も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含めてもよい。
あるいは、情報処理装置11は、外部サービスとの間で情報をやりとりするためのサーバであってもよい。この場合、入力部101は、外部サービスから情報を取得するソフトウェアを含めてもよい。また、出力部102は、外部サービスに情報を提供するソフトウェアを含めてもよい。
また、第2の例において、情報処理装置10は、サーバ又は端末装置として構成される。処理部100は、情報処理装置10が備えるプロセッサ又は処理回路がメモリ又はストレージ装置に格納されたプログラムに従って動作することによって実現される。
情報処理装置10は、例えばサーバとして構成される専用の装置であってもよい。この場合、情報処理装置10は、データセンタなどに設置されてもよいし、家庭内に設置されてもよい。
あるいは、情報処理装置10は、他の機能については端末装置として利用可能であるが、本技術の実施の形態に係る機能に関しては入力部101及び出力部102を実現しない装置であってもよい。以下の例において、情報処理装置10は、上記のような意味において、サーバであってもよいし、端末装置であってもよい。
ここでは、一例として、情報処理装置11がウェアラブルデバイスであり、情報処理装置10がウェアラブルデバイスにBluetooth(登録商標)などで接続されたモバイルデバイスであるような場合を考える。
ウェアラブルデバイスがユーザによる操作入力を受け付け(入力部101)、当該操作入力に基づいて送信されたリクエストに基づいてモバイルデバイスが処理を実行し(処理部100)、処理の結果をウェアラブルデバイスから出力する(出力部102)ような場合、ウェアラブルデバイスは上記の第2の例における情報処理装置11として、モバイルデバイスは情報処理装置10として、それぞれ機能していると言える。
(第3の例)
図24は、本技術を適用したシステムの一実施の形態の構成の第3の例を示している。
図24において、システム1は、情報処理装置10,11A,11Bを含む。処理部100は、情報処理装置10において実現される。また、入力部101は、情報処理装置11Aにおいて実現される。出力部102は、情報処理装置11Bにおいて実現される。
情報処理装置10と情報処理装置11A,11Bとは、本技術の実施の形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。入力部101と処理部100との間のインターフェース150B、及び処理部100と出力部102との間のインターフェース160Bは、いずれも装置間の通信インターフェースとすることができる。
ただし、第3の例では、情報処理装置11Aと情報処理装置11Bとが別個の装置であるために、インターフェース150B,160Bは、それぞれ異なる種類のインターフェースを含めてもよい。
第3の例において、情報処理装置11A,11Bは、例えば端末装置として構成される。この場合、入力部101は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含めてもよい。出力部102も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含めてもよい。
あるいは、情報処理装置11A,11Bのうちの一方又は両方は、外部サービスからの情報の取得、及び外部サービスへの情報の提供のためのサーバであってもよい。この場合、入力部101は、外部サービスから情報を取得するソフトウェアを含めてもよい。また、出力部102は、外部サービスに情報を提供するソフトウェアを含めてもよい。
また、第3の例において、情報処理装置10は、上記の第2の例と同様に、サーバ又は端末装置として構成される。処理部100は、情報処理装置10が備えるプロセッサ又は処理回路がメモリ又はストレージ装置に格納されたプログラムに従って動作することによって実現される。
上記の第3の例では、入力部101を実現する情報処理装置11Aと、出力部102を実現する情報処理装置11Bとが別個の装置である。従って、例えば、第1のユーザが所持又は使用する端末装置である情報処理装置11Aによって取得された入力に基づく処理の結果を、第1のユーザとは異なる第2のユーザが所持又は使用する端末装置である情報処理装置11Bから出力するといったような機能が実現できる。
また、第1のユーザが所持又は使用する端末装置である情報処理装置11Aによって取得された入力に基づく処理の結果を、その時点では第1のユーザの手元にない(例えば留守中の自宅に設置されている)端末装置である情報処理装置11Bから出力するといったような機能も実現できる。
あるいは、情報処理装置11Aと情報処理装置11Bは、いずれも同じユーザによって所持又は使用される端末装置であってもよい。例えば、情報処理装置11A,11Bが、ユーザの異なる部位に装着されるウェアラブルデバイスである場合や、ウェアラブルデバイスとモバイルデバイスとの組み合わせであるような場合、これらのデバイスを連携させた機能をユーザに提供することができる。
(第4の例)
図25は、本技術を適用したシステムの一実施の形態の構成の第4の例を示している。
図25において、システム1は、情報処理装置10,11を含む。第4の例において、処理部100は、情報処理装置10及び情報処理装置11に分散して実現される。一方で、入力部101及び出力部102は、情報処理装置11において実現される。
情報処理装置10と情報処理装置11とは、本技術の実施の形態に係る機能を実現するために、ネットワークを介して通信する。
上記のように、この第4の例では、処理部100が、情報処理装置10と情報処理装置11との間で分散して実現される。より具体的には、処理部100は、情報処理装置10で実現される処理部100Bと、情報処理装置11で実現される処理部100A,100Cとを含む。
処理部100Aは、入力部101からインターフェース150Aを介して提供される情報に基づいて処理を実行し、処理の結果を処理部100Bに提供する。この意味において、処理部100Aは、前処理を実行するとも言える。
一方、処理部100Cは、処理部100Bから提供される情報に基づいて処理を実行し、処理の結果を、インターフェース160Aを介して出力部102に提供する。この意味において、処理部100Cは、後処理を実行するとも言える。
なお、図示された例では、前処理を実行する処理部100Aと後処理を実行する処理部100Cとが両方示されているが、実際にはこのうちのいずれか一方だけが存在してもよい。
つまり、情報処理装置11は、前処理を実行する処理部100Aを実現するが、後処理を実行する処理部100Cを実現せず、処理部100Bから提供される情報は、そのまま出力部102に提供されてもよい。同様に、情報処理装置11は、後処理を実行する処理部100Cを実現するが、前処理を実行する処理部100Aを実現しなくてもよい。
処理部100Aと処理部100Bとの間、及び処理部100Bと処理部100Cとの間には、それぞれインターフェース170Bが介在する。インターフェース170Bは、装置間の通信インターフェースである。
一方、情報処理装置11が処理部100Aを実現する場合、インターフェース150Aは、装置内のインターフェースである。同様に、情報処理装置11が処理部100Cを実現する場合、インターフェース160Aは、装置内のインターフェースである。
なお、上述した第4の例は、処理部100A又は処理部100Cのうちの一方又は両方が、情報処理装置11が備えるプロセッサ又は処理回路によって実現される点を除いては、上記の第2の例と同様である。つまり、情報処理装置11は、端末装置、又は外部サービスとの間で情報をやり取りするためのサーバとして構成される。また、情報処理装置10は、サーバ又は端末装置として構成される。
(分散型システムの例)
次に、システム1の他の構成例について、図26を参照して説明する。図26は、本技術を適用したシステムの一実施の形態の構成の他の具体的な例の一つとして、分散型システムを示している。
図26においては、情報処理装置10(又は、情報処理装置11A,11B)がノードであって、これらの情報処理装置10は、ネットワークを介して互いに接続している。
図26に示した分散型システムでは、装置相互間で個別に連携動作したり、データを分散管理したり、処理を分散したりすることが可能である。これにより、処理負担の軽減、リアルタイム性の向上(応答時間や処理速度の向上)、セキュリティの担保を実現することが可能となる。
また、この分散型システムでは、分散協調的に機械学習を行うことも可能であって、大量のデータを処理することができる。
また、図26に示す分散型システムでは、集中型システムにおけるサーバを必要とせず、互いにデータの監視を行ってその信憑性を確保することも可能である。具体的には、例えば、取引情報(台帳)を参加者全員(各情報処理装置10)で共有して正当性を厳密に維持することができる(いわゆるブロックチェーン)。
ブロックチェーンにおいては、参加者全員の台帳を全て改ざんすることは実質的に不可能なため、より確実に信憑性を確保可能となる。また、ブロックチェーンにおいて、過去のブロックに含まれるデータを改ざんする場合、そのブロック以降のブロックに含まれるハッシュ値を全て再計算する必要があるため、処理負荷が高く実質的に不可能であるため、より確実に信憑性を確保可能となる。
また、ブロックチェーンでは、参加者全員が取引情報を共有し(分散データベース)、かかる分散データベースへの書き込みを特定の合意形成により行うため、特定の参加者による不正を防ぎ、公平性が保たれる。
<3.コンピュータの構成>
上述した一連の処理(例えば、図5の出力モーダル決定処理等)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、各装置のコンピュータにインストールされる。図27は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
入力部1006は、マイクロフォン、キーボード、マウスなどよりなる。出力部1007は、スピーカ、ディスプレイなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されてもよいし、複数のコンピュータによって分散処理されてもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、上述したフローチャートに示した処理の各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
電子機器ごとの出力モーダルに関する機器情報を取得し、
取得した前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、
選択した前記電子機器が有する出力モーダルから前記情報を出力する
処理を行う処理部を備える
情報処理装置。
(2)
前記処理部は、
ユーザに関するユーザ情報をさらに取得し、
取得した前記ユーザ情報及び前記機器情報に基づいて、前記複数の電子機器の中から、前記ユーザ情報に対応した出力モーダルを有する電子機器を選択する
前記(1)に記載の情報処理装置。
(3)
前記ユーザ情報は、前記ユーザの希望出力モーダルを含み、
前記処理部は、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
前記(2)に記載の情報処理装置。
(4)
前記複数の電子機器は、動作の主体となる自機器と、前記自機器と連携して動作する連携機器を含む
前記(3)に記載の情報処理装置。
(5)
前記処理部は、自機器が前記希望出力モーダルに対応した出力モーダルを有していない場合、前記希望出力モーダルに対応した出力モーダルを有する連携機器を選択する
前記(4)に記載の情報処理装置。
(6)
前記処理部は、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する出力命令を、ネットワークを介して、選択した前記連携機器に送信する
前記(5)に記載の情報処理装置。
(7)
前記処理部は、
自機器が前記希望出力モーダルに対応した出力モーダルを有する場合、前記自機器を選択し、
前記出力命令を、選択した前記自機器の出力モーダルに出力する
前記(6)に記載の情報処理装置。
(8)
前記処理部は、前記希望出力モーダルに対応した出力モーダルを有する連携機器が複数選択された場合、前記ユーザの周辺をセンシングして得られるセンシング情報に基づいて、選択された複数の連携機器の中から、最適な連携機器を選択する
前記(4)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記ユーザ情報は、前記ユーザの第2候補の希望出力モーダルをさらに含み、
前記処理部は、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択できない場合に、前記第2候補の希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
前記(3)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記ユーザ情報は、ユーザごとに優先度を含み、
前記処理部は、前記優先度に応じた希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
前記(3)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記処理部は、
ユーザの属性を推定し、
推定した前記属性に応じて出力モーダルの内容を変更する
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記出力モーダルは、画面フィードバック、音フィードバック、光フィードバック、振動、及び動作のうち少なくとも1つを含む
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記出力モーダルのうち少なくとも1つは、より細分化された機能を含む
前記(12)に記載の情報処理装置。
(14)
前記処理部は、
前記ユーザの識別情報に基づいて、前記ユーザを識別し、
識別した前記ユーザの希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
前記(3)乃至(10)のいずれかに記載の情報処理装置。
(15)
前記複数の電子機器に含まれ、
前記自機器として動作する
前記(4)乃至(10)のいずれかに記載の情報処理装置。
(16)
前記機器情報及び前記ユーザ情報の少なくとも一方の情報は、インターネットを介してサーバから取得される
前記(2)乃至(10)のいずれかに記載の情報処理装置。
(17)
情報処理装置が、
電子機器ごとの出力モーダルに関する機器情報を取得し、
取得した前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、
選択した前記電子機器が有する出力モーダルから前記情報を出力する
情報処理方法。
(18)
ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令を、ネットワークを介して受信し、
受信した前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する
処理を行う処理部を備える
情報処理装置。
(19)
前記複数の電子機器に含まれ、
動作の主体となる自機器と連携する連携機器として動作し、
前記出力命令は、前記自機器から送信される
前記(18)に記載の情報処理装置。
(20)
情報処理装置が、
ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令を、ネットワークを介して受信し、
受信した前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する
情報処理方法。
10,10−1乃至10−N 電子機器, 10A 自機器, 10B 連携機器, 20 ルータ, 30 ホームネットワーク, 40 サーバ, 50 インターネット, 100 処理部, 101 入力部, 101−1 マイクロフォン, 101−2 ボタン, 102−1 ディスプレイ, 102−2 スピーカ, 102−3 電子音ブザー, 102−4 振動素子, 102−5 ランプ, 102 出力部, 103 センサ部, 104 通信部, 105 記憶部, 121 ユーザ識別部, 122 出力モーダル決定部, 123 環境識別部, 131 話者識別部, 132 顔識別部, 133 識別結果統合部, 141 出力命令解析部, 142 出力制御部, 401 ユーザ情報記憶部, 402 連携機器情報記憶部, 1001 CPU

Claims (20)

  1. 電子機器ごとの出力モーダルに関する機器情報を取得し、
    取得した前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、
    選択した前記電子機器が有する出力モーダルから前記情報を出力する
    処理を行う処理部を備える
    情報処理装置。
  2. 前記処理部は、
    ユーザに関するユーザ情報をさらに取得し、
    取得した前記ユーザ情報及び前記機器情報に基づいて、前記複数の電子機器の中から、前記ユーザ情報に対応した出力モーダルを有する電子機器を選択する
    請求項1に記載の情報処理装置。
  3. 前記ユーザ情報は、前記ユーザの希望出力モーダルを含み、
    前記処理部は、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
    請求項2に記載の情報処理装置。
  4. 前記複数の電子機器は、動作の主体となる自機器と、前記自機器と連携して動作する連携機器を含む
    請求項3に記載の情報処理装置。
  5. 前記処理部は、自機器が前記希望出力モーダルに対応した出力モーダルを有していない場合、前記希望出力モーダルに対応した出力モーダルを有する連携機器を選択する
    請求項4に記載の情報処理装置。
  6. 前記処理部は、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する出力命令を、ネットワークを介して、選択した前記連携機器に送信する
    請求項5に記載の情報処理装置。
  7. 前記処理部は、
    自機器が前記希望出力モーダルに対応した出力モーダルを有する場合、前記自機器を選択し、
    前記出力命令を、選択した前記自機器の出力モーダルに出力する
    請求項6に記載の情報処理装置。
  8. 前記処理部は、前記希望出力モーダルに対応した出力モーダルを有する連携機器が複数選択された場合、前記ユーザの周辺をセンシングして得られるセンシング情報に基づいて、選択された複数の連携機器の中から、最適な連携機器を選択する
    請求項4に記載の情報処理装置。
  9. 前記ユーザ情報は、前記ユーザの第2候補の希望出力モーダルをさらに含み、
    前記処理部は、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択できない場合に、前記第2候補の希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
    請求項3に記載の情報処理装置。
  10. 前記ユーザ情報は、ユーザごとに優先度を含み、
    前記処理部は、前記優先度に応じた希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
    請求項3に記載の情報処理装置。
  11. 前記処理部は、
    ユーザの属性を推定し、
    推定した前記属性に応じて出力モーダルの内容を変更する
    請求項1に記載の情報処理装置。
  12. 前記出力モーダルは、画面フィードバック、音フィードバック、光フィードバック、振動、及び動作のうち少なくとも1つを含む
    請求項1に記載の情報処理装置。
  13. 前記出力モーダルのうち少なくとも1つは、より細分化された機能を含む
    請求項12に記載の情報処理装置。
  14. 前記処理部は、
    前記ユーザの識別情報に基づいて、前記ユーザを識別し、
    識別した前記ユーザの希望出力モーダルに対応した出力モーダルを有する電子機器を選択する
    請求項3に記載の情報処理装置。
  15. 前記複数の電子機器に含まれ、
    前記自機器として動作する
    請求項4に記載の情報処理装置。
  16. 前記機器情報及び前記ユーザ情報の少なくとも一方の情報は、インターネットを介してサーバから取得される
    請求項2に記載の情報処理装置。
  17. 情報処理装置が、
    電子機器ごとの出力モーダルに関する機器情報を取得し、
    取得した前記機器情報に基づいて、複数の電子機器の中から、情報を出力する出力モーダルを有する電子機器を選択し、
    選択した前記電子機器が有する出力モーダルから前記情報を出力する
    情報処理方法。
  18. ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令を、ネットワークを介して受信し、
    受信した前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する
    処理を行う処理部を備える
    情報処理装置。
  19. 前記複数の電子機器に含まれ、
    動作の主体となる自機器と連携する連携機器として動作し、
    前記出力命令は、前記自機器から送信される
    請求項18に記載の情報処理装置。
  20. 情報処理装置が、
    ユーザの希望出力モーダルを含むユーザ情報、及び電子機器ごとの出力モーダルに関する機器情報に基づいて、複数の電子機器の中から、前記希望出力モーダルに対応した出力モーダルを有する電子機器を選択し、前記希望出力モーダルに対応した出力モーダルから情報を出力する出力命令を選択した前記電子機器に送信する他の情報処理装置から送信された前記出力命令を、ネットワークを介して受信し、
    受信した前記出力命令に基づいて、前記希望出力モーダルに対応した出力モーダルから前記情報を出力する
    情報処理方法。
JP2021501870A 2019-02-25 2020-02-10 情報処理装置、及び情報処理方法 Active JP7452524B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019031295 2019-02-25
JP2019031295 2019-02-25
PCT/JP2020/005026 WO2020175115A1 (ja) 2019-02-25 2020-02-10 情報処理装置、及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2020175115A1 true JPWO2020175115A1 (ja) 2021-12-23
JP7452524B2 JP7452524B2 (ja) 2024-03-19

Family

ID=72239450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501870A Active JP7452524B2 (ja) 2019-02-25 2020-02-10 情報処理装置、及び情報処理方法

Country Status (6)

Country Link
US (1) US11936718B2 (ja)
EP (1) EP3933828A1 (ja)
JP (1) JP7452524B2 (ja)
KR (1) KR20210131324A (ja)
CN (1) CN113454709A (ja)
WO (1) WO2020175115A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112835447A (zh) * 2021-01-22 2021-05-25 哈尔滨工业大学 穿戴式计算机多通道人机交互方法、装置、设备及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030073411A1 (en) * 2001-10-16 2003-04-17 Meade William K. System and method for automatically applying a user preference from a mobile computing device to an appliance
JP2011253375A (ja) 2010-06-02 2011-12-15 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP5862475B2 (ja) * 2012-06-18 2016-02-16 株式会社リコー 出力管理装置、出力管理システム、プログラム
WO2016157658A1 (ja) 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US10469892B2 (en) * 2016-09-13 2019-11-05 Dvdo, Inc. Gesture-based multimedia casting and slinging command method and system in an interoperable multiple display device environment
KR101925034B1 (ko) * 2017-03-28 2018-12-04 엘지전자 주식회사 스마트 컨트롤링 디바이스 및 그 제어 방법
KR102447381B1 (ko) * 2017-12-08 2022-09-27 삼성전자주식회사 통화 중 인공지능 서비스를 제공하기 위한 방법 및 그 전자 장치
US10616726B1 (en) * 2018-02-22 2020-04-07 Amazon Technologies, Inc. Outputing notifications using device groups
US10778786B2 (en) * 2018-10-29 2020-09-15 International Business Machines Corporation Intelligent multi-device user interaction

Also Published As

Publication number Publication date
KR20210131324A (ko) 2021-11-02
US20220141283A1 (en) 2022-05-05
US11936718B2 (en) 2024-03-19
JP7452524B2 (ja) 2024-03-19
EP3933828A1 (en) 2022-01-05
WO2020175115A1 (ja) 2020-09-03
CN113454709A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
US20210266437A1 (en) Remotely identifying a location of a wearable apparatus
CN102498725B (zh) 自动确定操作模式的移动设备
AU2016216259B2 (en) Electronic device and content providing method thereof
US8812419B1 (en) Feedback system
CN108885485A (zh) 基于存在性检测的数字助理体验
US20130145272A1 (en) System and method for providing an interactive data-bearing mirror interface
US11049344B2 (en) Dual-mode commercial messaging systems
WO2020195821A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
US10511818B2 (en) Context aware projection
US11532227B2 (en) Discovery of and connection to remote devices
WO2015198653A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN108701455A (zh) 信息处理装置、信息处理方法和程序
JP7211367B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200112838A1 (en) Mobile device that creates a communication group based on the mobile device identifying people currently located at a particular location
WO2018139036A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20130159400A1 (en) User device, server, and operating conditions setting system
JP6767322B2 (ja) 出力制御装置、出力制御方法及び出力制御プログラム
US10616343B1 (en) Center console unit and corresponding systems and methods
CN110178159A (zh) 具有集成式投影仪的音频/视频可穿戴式计算机系统
JP7452524B2 (ja) 情報処理装置、及び情報処理方法
WO2019138661A1 (ja) 情報処理装置および情報処理方法
US11460994B2 (en) Information processing apparatus and information processing method
CN111352501A (zh) 业务交互方法及装置
WO2018139050A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7151707B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R151 Written notification of patent or utility model registration

Ref document number: 7452524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151