JPWO2018047433A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JPWO2018047433A1
JPWO2018047433A1 JP2018538033A JP2018538033A JPWO2018047433A1 JP WO2018047433 A1 JPWO2018047433 A1 JP WO2018047433A1 JP 2018538033 A JP2018538033 A JP 2018538033A JP 2018538033 A JP2018538033 A JP 2018538033A JP WO2018047433 A1 JPWO2018047433 A1 JP WO2018047433A1
Authority
JP
Japan
Prior art keywords
information processing
user
information
output
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018538033A
Other languages
English (en)
Other versions
JP7074343B2 (ja
Inventor
亜由美 中川
亜由美 中川
士文 酒井
士文 酒井
知志 細川
知志 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Sony Mobile Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Mobile Communications Inc filed Critical Sony Corp
Publication of JPWO2018047433A1 publication Critical patent/JPWO2018047433A1/ja
Application granted granted Critical
Publication of JP7074343B2 publication Critical patent/JP7074343B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

【課題】ユーザによる補助器具の装着有無をより柔軟に判定する。【解決手段】ユーザによる補助器具の装着有無を判定する判定部と、前記判定部による前記補助器具の装着有無の判定に基づいて、出力モードの制御を行う出力制御部と、を備え、前記判定部は、推定された前記ユーザの行動に基づいて前記補助器具の装着有無を判定する、情報処理装置が提供される。また、ユーザの行動推定に用いられる情報を収集するセンサ部と、前記ユーザに対する情報出力を行う出力部と、を備え、前記出力部は、前記センサ部または外部サービスから収集された情報から判定される前記ユーザによる補助器具の装着有無に基づいて制御される出力モードに対応する情報出力を行う、情報処理装置が提供される。【選択図】図11

Description

本開示は、情報処理装置に関する。
近年、画像認識を行う種々の装置が開発されている。また、認識された情報に基づいて出力制御を行う装置が提案されている。例えば、特許文献1には、画像認識によりユーザが装着する眼鏡の特性を判定し、当該判定に基づき出力する文字や画像の大きさを補正する画像処理装置が開示されている。
特開2015−25859号公報
しかし、特許文献1に記載の画像処理装置は、撮像したユーザの画像に基づいて、眼鏡の装着有無や特性の判定を行っている。このため、ユーザが撮像装置の画角外に位置する場合には、上記の判定を行うことが困難である。
また、特許文献1に記載の画像処理装置は、撮像が容易な眼鏡に対しては有効である一方、コンタクトレンズや補聴器など撮像が困難な補助器具に対しては適用することが難しい。
そこで、本開示では、ユーザによる補助器具の装着有無をより柔軟に判定することが可能な、新規かつ改良された情報処理装置を提案する。
本開示によれば、ユーザによる補助器具の装着有無を判定する判定部と、前記判定部による前記補助器具の装着有無の判定に基づいて、出力モードの制御を行う出力制御部と、を備え、前記判定部は、推定された前記ユーザの行動に基づいて前記補助器具の装着有無を判定する、情報処理装置が提供される。
また、本開示によれば、ユーザの行動推定に用いられる情報を収集するセンサ部と、前記ユーザに対する情報出力を行う出力部と、を備え、前記出力部は、前記センサ部または外部サービスから収集された情報から判定される前記ユーザによる補助器具の装着有無に基づいて制御される出力モードに対応する情報出力を行う、情報処理装置が提供される。
以上説明したように本開示によれば、ユーザによる補助器具の装着有無をより柔軟に判定することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態の概要およびシステム構成例を示す図である。 同実施形態に係る情報処理端末および情報処理サーバの機能ブロック図である。 同実施形態に係る行動推定について説明するための図である。 同実施形態に係る情報処理サーバによる視覚情報に係る出力強度の制御例を示す図である。 同実施形態に係る情報処理サーバによる聴覚情報に係る出力強度の制御例を示す図である。 同実施形態に係る情報処理サーバによるモーダルの制御例を示す図である。 同実施形態に係る情報処理サーバによる外部装置への出力情報の転送について説明するための図である。 同実施形態に係る情報処理サーバによる補助器具を装着していないユーザを優先した出力制御について説明するための図である。 同実施形態に係る情報処理サーバによる出力情報の対象ユーザを優先した出力制御について説明するための図である。 同実施形態に係る情報処理サーバによる複数ユーザに対応する複数の出力モードの制御について説明するための図である。 同実施形態に係る本実施形態に係る情報処理サーバによる環境条件に基づく出力制御について説明するための図である。 同実施形態に係る情報処理サーバによる出力制御の流れを示すフローチャートである。 同実施形態に係る情報処理サーバによる学習の流れを示すフローチャートである。 同実施形態に係る情報処理サーバによるフィードバックに基づく再学習の流れを示すフローチャートである。 本開示に係るハードウェア構成例である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.はじめに
1.2.実施形態の概要およびシステム構成例
1.3.情報処理端末20の機能構成例
1.4.情報処理サーバ30の機能構成例
1.5.行動推定の詳細
1.6.補助器具10の装着有無に基づく出力制御
1.7.複数ユーザに係る出力制御
1.8.環境条件に基づく出力制御
1.9.出力制御の流れ
1.10.学習の流れ
1.11.フィードバックに基づく再学習の流れ
2.ハードウェア構成例
3.まとめ
<1.実施形態>
<<1.1.はじめに>>
近年、情報技術の発展に伴い、様々な情報端末が普及している。ユーザは、日常において多くの情報端末から種々の情報を取得し得る。一方、情報端末を扱うユーザには、眼鏡のような補助器具を装着していない場合、情報端末から出力される情報を正確に知覚できない者もいる。このため、ユーザが補助器具を装着していない場合、情報端末が、例えば、文字や画像の出力サイズを補正することで、ユーザによる情報の知覚を補助する仕組みが有効となり得る。
この際、ユーザによる補助器具の装着有無を判定する手法には、特許文献1に記載されるような画像認識を用いた処理が想定され得る。しかし、上述したように、画像認識を用いる手法では、ユーザが撮像装置の画角内に位置しない場合、補助器具の装着有無を判定することが困難である。
また、情報端末が小型のエージェントのように配置が都度変化し得る装置の場合、眼鏡を装着していないユーザが情報端末を探し出すことができない可能性もある。
さらには、画像認識を用いる手法では、コンタクトレンズや補聴器のように小型あるいは透明な補助器具の装着有無を判定することが困難である。
本開示に係る技術思想は、上記の点に着目して発想されたものであり、眼鏡のほか、コンタクトレンズや補聴器など多くの補助器具に対して適用可能である。また、本開示に係る技術思想は、ユーザが情報端末から離れている場合でも補助器具の装着有無を判定することを可能とする。このために、本実施形態に係る情報処理サーバは、収集された情報からユーザの行動を推定し、当該行動に基づいて補助器具の装着有無を判定する機能を有する。
<<1.2.実施形態の概要およびシステム構成例>>
まず、本実施形態の概要について説明する。上述したとおり、本実施形態では、ユーザの行動を推定し、当該行動に基づいて補助器具の装着有無が判定され得る。補助器具を装着するユーザは日常において様々な行動を行うが、上記のような行動には、補助器具の装着有無と強い相関を有するものが存在する。例えば、一般的に、ユーザは入浴や睡眠の際、補助器具を外す場合が多い。また、ユーザによっては、例えば、料理やあたたかい食事をする際や、運動を行う際に補助器具を外す習慣がある者もいる。本実施形態では、上記のような行動と補助器具の装着有無とを関連付けて学習することで、当該行動が推定された際、ユーザが補助器具を装着していないと判定することができる。
図1は、本実施形態の概要およびシステム構成例を示す図である。図1を参照すると、本実施形態に係る情報処理システムは、情報処理端末20、情報処理サーバ30、および外部サービス40を備える。また、情報処理端末20と情報処理サーバ30、および外部サービス40と情報処理サーバ30とは、互いに通信が行えるようにネットワーク50を介して接続される。
(補助器具10)
本実施形態に係る補助器具10は、視覚矯正器具、聴覚補助器具、移動補助器具などを含む。上記の視覚矯正器具は、例えば、眼鏡やコンタクトレンズなどを含んでよい。また、聴覚矯正器具は、例えば、補聴器や集音器などを含んでよい。また、移動補助器具は、車椅子や歩行器、松葉杖などの歩行補助杖を含んでよい。また、本実施形態に係る補助器具10は、視覚矯正機能を有する眼鏡型のウェアラブルデバイスであってもよい。
(情報処理端末20)
本実施形態に係る情報処理端末20は、ユーザに対し種々の情報を提示する情報処理装置である。本実施形態に係る情報処理端末20は、例えば、ディスプレイ装置、プロジェクタ、各種のエージェント装置やロボットなどであり得る。また、本実施形態に係る情報処理端末20は、携帯電話、スマートフォン、タブレット、PC(Personal Computer)などであってもよい。本実施形態に係る情報処理端末20は、ユーザの行動に係る情報を収集する機能と、ユーザに対し情報を出力する機能とを備える種々の装置として実現され得る。
(情報処理サーバ30)
本実施形態に係る情報処理サーバ30は、情報処理端末20や外部サービス40から取得した情報に基づいて、ユーザの行動を推定し、当該行動に基づいて補助器具10の装着有無を判定する情報処理装置である。また、本実施形態に係る情報処理サーバ30は、判定した補助器具10の装着有無に基づいて、情報処理端末20による情報出力を制御する機能を有する。
例えば、図1に示すように、情報処理サーバ30は、推定した行動からユーザが眼鏡型の補助器具10を装着していると判定した場合、補助器具10を装着している状態のユーザP1aに対して、文字情報O1を出力するよう情報処理端末20を制御することができる。
一方、情報処理サーバ30は、推定した行動からユーザが補助器具10を装着していないと判定した場合、補助器具10を装着していない状態のユーザP1bに対し、音声情報O2を出力するよう情報処理端末20を制御することができる。本実施形態に係る情報処理サーバ30が有する上記の機能によれば、補助器具10を装着していない場合でも、出力される情報を正確に知覚することが可能となる。
なお、情報処理サーバ30が推定するユーザの行動には、例えば、入浴、睡眠、運動、料理、食事など、一般的にユーザが補助器具10を外す行動や、個人によっては補助器具10を外す行動が想定される。また、本実施形態に係る情報処理サーバ30が推定するユーザの行動は上記の例に限定されず、ユーザが取り得る種々の行動であり得る。
(外部サービス40)
本実施形態に係る外部サービス40は、ユーザの行動や行動に係る情報を情報処理サーバ30に送信する種々のサービスであり得る。本実施形態に係る外部サービス40は、例えば、予定管理アプリケーション、運動管理アプリケーション、健康管理アプリケーションなどであってもよい。また、本実施形態に係る外部サービス40は、給湯器や照明器具、調理器具、時計などの家電を含んでよい。また、本実施形態に係る外部サービス40は、携帯電話、スマートフォン、タブレット、PCなどを含んでもよい。
(ネットワーク50)
ネットワーク50は、情報処理端末20と情報処理サーバ30、および外部サービス40と情報処理サーバ30を接続する機能を有する。ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク50は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク50は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
以上、本実施形態に係るシステム構成例について説明した。なお、図1を用いた上記の説明では、情報処理端末20および情報処理サーバ30が、それぞれ独立した情報処理装置として実現される場合を例に述べたが、本実施形態に係るシステム構成例は、係る例に限定されない。本実施形態に係る情報処理端末20および情報処理サーバ30は、単一の情報処理装置として実現されてもよい。
一方、本実施形態に係る情報処理端末20および情報処理サーバ30が有する各機能は、3台以上の複数の情報処理装置により実現されてもよい。本実施形態に係るシステム構成例は、扱われる情報量やシステムの仕様、運用条件などに応じて柔軟に変形され得る。
<<1.3.情報処理端末20の機能構成例>>
次に、本実施形態に係る情報処理端末20の機能構成例について説明する。図2は、本実施形態に係る情報処理端末20および情報処理サーバ30の機能ブロック図である。図2を参照すると、本実施形態に係る情報処理端末20は、センサ部210、出力部220、およびサーバ通信部230を備える。
(センサ部210)
センサ部210は、ユーザの行動推定に用いられる種々の情報を収集する機能を有する。センサ部210は、例えば、ユーザの所在やユーザとの距離、発話、体温、また設置環境に係る情報を収集してよい。このため、本実施形態に係るセンサ部210は、例えば、マイクロフォン、人感センサ、温度センサ、照度センサ、ジャイロセンサ、加速度センサ、地磁気センサ、GPS、撮像センサ、時計などを含んで構成され得る。
(出力部220)
出力部220は、情報処理サーバ30による制御に基づき、ユーザに対する情報出力を行う機能を有する。より具体的には、本実施形態に係る出力部220は、センサ部210や外部サービス40が収集した情報から判定されるユーザによる補助器具10の装着有無に基づいて制御される出力モードに対応する情報出力を行う機能を有する。
この際、出力部220は、補助器具を習慣的に装着するユーザが補助器具10を装着していないと判定されたことに基づいて変更される出力モードに対応する情報出力を行ってよい。
また、出力部220は、上記の出力モードに対応する視覚情報や音声情報を出力する機能を有する。このため、本実施形態に係る出力部220は、視覚情報を出力するディスプレイ装置や音声情報を出力するスピーカを含んで構成され得る。上記のディスプレイ装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネル、プロジェクタなどにより実現され得る。また、本実施形態に係る出力部220は、TTS(Text To Speech)などの音声合成機能を有してよい。
(サーバ通信部230)
サーバ通信部230は、情報処理サーバ30との情報通信を行う機能を有する。より具体的には、本実施形態に係るサーバ通信部230は、センサ部210が収集した種々のセンサ情報を情報処理サーバ30に送信する。また、本実施形態に係るサーバ通信部230は、推定された行動から判定される補助器具10の装着有無に基づいて決定された出力モードに対応する制御信号を情報処理サーバ30から受信する。
以上、本実施形態に係る情報処理端末20の機能構成例について説明した。なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係る情報処理端末20の機能構成は、係る例に限定されない。本実施形態に係る情報処理端末20は、情報処理サーバ30が有する各種の機能を実現する構成をさらに備えてもよい。情報処理端末20は、例えば、後述する行動推定部310、装着判定部320、出力制御部330、学習部340、学習DB350のうちの一部またはすべてを備えるように構成されてもよい。本実施形態に係る情報処理端末20の機能構成は、柔軟に変更され得る。
<<1.4.情報処理サーバ30の機能構成例>>
次に、本実施形態に係る情報処理サーバ30の機能構成例について説明する。図2を参照すると、本実施形態に係る情報処理サーバ30は、行動推定部310、装着判定部320、出力制御部330、学習部340、学習DB350、および通信部360を備える。
(行動推定部310)
行動推定部310は、情報処理端末20や外部サービス40から取得した情報に基づいてユーザの行動や状態を推定する機能を有する。具体的には、本実施形態に係る行動推定部310は、情報処理端末20のセンサ部210により収集されたユーザの発話に基づいて、ユーザの行動を推定することができる。行動推定部310は、例えば、ユーザによる、「お風呂に入ろうかな」、という発話に基づいて、ユーザの入浴に係る行動を推定してもよい。本実施形態に係る行動推定部310が有する上記の機能によれば、ユーザが撮像センサの画角内に位置しない場合でも、ユーザによる補助器具10の装着有無を判定することが可能となる。
また、本実施形態に係る行動推定部310は、外部サービス40から取得された情報に基づいて、ユーザの行動を推定することができる。行動推定部310は、例えば、給湯器が風呂にお湯はりを開始または終了したことに基づいて、ユーザの入浴に係る行動を推定してもよい。本実施形態に係る行動推定部310が有する上記の機能によれば、ユーザの行動をより高い精度で推定することが可能となる。
さらには、本実施形態に係る行動推定部310は、情報処理端末20や補助器具10から取得されたセンサ情報に基づいて、ユーザの行動を推定することができる。行動推定部310は、例えば、情報処理端末20がユーザの体温上昇を検知したことや、風呂場に設置される人感センサがユーザの所在を検知したことに基づいて、ユーザの入浴に係る行動を推定してもよい。本実施形態に係る行動推定部310が有する上記の機能によれば、ユーザの行動を多様な条件から推定することが可能となる。なお、本実施形態に係る行動推定の詳細については別途詳細に説明する。
(装着判定部320)
装着判定部320は、ユーザによる補助器具10の装着有無を判定する機能を有する。この際、本実施形態に係る装着判定部320は、行動推定部310により推定されたユーザの行動に基づいて、補助器具10の装着有無を判定することができる。本実施形態に係る装着判定部320が有する上記の機能によれば、ユーザが撮像センサの画角内に位置しない場合や、補助器具10の撮像が困難な場合においても、補助器具10の装着有無を判定することが可能となる。
また、本実施形態に係る装着判定部320は、補助器具10を装着していない状態と関連付いて学習されたユーザの行動が推定されたことに基づいて、ユーザが補助器具10を装着していないと判定してもよい。本実施形態に係る装着判定部320が有する上記の機能によれば、行動と補助器具10の装着有無との相関をユーザごとに精度高く判定することが可能となる。なお、本実施形態に係る装着判定の詳細については別途詳細に説明する。
(出力制御部330)
出力制御部330は、装着判定部320による補助器具10の装着有無の判定に基づいて、情報処理端末20による情報出力の出力モードを制御する機能を有する。より具体的には、本実施形態に係る出力制御部330は、装着判定部320により補助器具10を習慣的に装着するユーザが補助器具10を装着していないと判定されたことに基づいて、上記の出力モードを変更することができる。本実施形態に係る出力制御部330が有する上記の機能によれば、補助器具10を装着していないユーザによる出力情報の知覚を補助することが可能となる。
より具体的には、本実施形態に係る出力制御部330は、装着判定部320によりユーザが補助器具10を装着していないと判定されたことに基づいて、情報出力に係る出力強度を制御することができる。出力制御部330は、例えば、情報処理端末20が出力する文字や画像の大きさを拡大させてもよい。また、出力制御部330は、例えば、情報処理端末20が出力する音声情報の音量を上げさせてもよい。本実施形態に係る出力制御部330が有する上記の機能によれば、補助器具10を装着していないユーザが出力情報を知覚できる可能性を大きく向上させることができる。
また、本実施形態に係る出力制御部330は、装着判定部320によりユーザが補助器具10を装着していないと判定されたことに基づいて、情報処理端末20の情報出力に係るモーダルを変更してもよい。出力制御部330は、例えば、眼鏡を装着していないユーザに対しては、文字情報の出力に代えて音声情報を出力させ、補聴器を装着していないユーザに対しては、音声情報に代えて文字情報を出力させることができる。本実施形態に係る出力制御部330が有する上記の機能によれば、補助器具10を装着していない場合であっても、ユーザが出力情報を正確に知覚することが可能となる。
また、本実施形態に係る出力制御部330は、装着判定部320によりユーザが補助器具10を装着していないと判定されたことに基づいて、外部装置に出力情報を転送してもよい。出力制御部330は、例えば、装着判定部320によりユーザが眼鏡を装着していないと判定された場合、情報処理端末20が出力すべき視覚情報をユーザが所持するスマートフォンなどの外部装置に転送することができる。本実施形態に係る出力制御部330が有する上記の機能によれば、補助器具10を装着していないユーザが出力情報を知覚できる可能性をさらに向上させることができる。なお、本実施形態に係る出力制御の詳細については、別途詳細に説明する。
(学習部340)
学習部340は、行動推定部310が推定したユーザの行動とユーザによる補助器具10の装着有無とを関連付けて学習する機能を有する。この際、学習部340は、例えば、撮像センサにより撮像されたユーザの画像や、ユーザによる明示的な装着有無の入力に基づいて、ユーザの行動と補助器具10の装着有無とを関連付けて学習してもよい。学習部340は、例えば、SVM(Support Vector Machine)、ニューラルネットワーク、回帰モデルなどの機械学習手法または統計的手法により上記の学習を行うことができる。
また、学習部340は、出力情報に対するユーザのフィードバックに基づいて、行動と補助器具10の装着有無とに係る再学習を行う機能を有してよい。本実施形態に係る学習部340が有する上記の機能によれば、例えば、一般知識に基づく学習結果をユーザごとに個人化し、より精度の高い学習を行うことが可能となる。また、本実施形態に係る学習部340は、上記の学習に係るデータを学習DB350に記憶させる機能を有する。
(学習DB350)
学習DB350は、ユーザの行動と補助器具10の装着有無との相関に係る学習データを記憶する機能を有する。学習DB350には、ユーザの行動と補助器具10の装着有無との相関強度や、当該行動の推定時に用いられた各種の情報が関連付けて記憶されてよい。
(通信部360)
通信部360は、情報処理端末20や外部サービス40との情報通信を行う機能を有する。具体的には、本実施形態に係る通信部360は、情報処理端末20からユーザの発話情報やセンサ情報を受信する機能を有する。また、通信部360は、外部サービス40や補助器具10からユーザの行動推定に用いられる情報を受信する機能を有する。また、通信部360は、出力制御部330が生成する出力制御信号を情報処理端末20に送信する機能を有する。
以上、本実施形態に係る情報処理サーバ30の機能構成例について説明した。なお、上記で説明した機能構成はあくまで一例であり、本実施形態に係る情報処理サーバ30の機能構成は、係る例に限定されない。上述したとおり、本実施形態に係る情報処理サーバ30が備える各構成のすべて、または一部は、情報処理端末20の機能として実現されてもよい。また、情報処理サーバ30が備える各構成の一部は、別の装置の機能として実現することもできる。例えば、学習部340や学習DB350は、情報処理サーバ30とは異なる別の装置の機能として実現されてもよい。本実施形態に係る情報処理サーバ30の機能構成は、柔軟に変更され得る。
<<1.5.行動推定の詳細>>
次に、本実施形態に係る行動推定の詳細について説明する。上述したとおり、本実施形態に係る情報処理サーバ30は、取得された種々の情報に基づいてユーザの行動を推定する機能を有する。本実施形態に係る情報処理サーバ30は、例えば、ユーザの発話情報、外部サービス40から取得された情報、および情報処理端末20や補助器具10により取得されたセンサ情報に基づいて、ユーザの行動を推定することができる。以下、本実施形態に係る行動推定について、具体例を挙げながら詳細に説明する。
(ユーザの発話に基づく行動推定)
まず、本実施形態に係るユーザの発話に基づく行動推定について説明する。本実施形態に係る情報処理サーバ30は、情報処理端末20が収集した発話情報に基づいてユーザの行動を推定することができる。図3は、本実施形態に係る行動推定について説明するための図である。
図3には、補助器具10を装着していないユーザP1と、ユーザP1による、「お風呂入ろうかな」、という発話PO1が示されている。本実施形態に係る情報処理端末20は、図3に示すようなユーザの発話PO1を検出し、係る情報を情報処理サーバ30に送信してよい。図3に示す一例の場合、情報処理サーバ30は、受信した情報に基づいて、ユーザの入浴に係る行動を推定することが可能である。
同様に、本実施形態に係る情報処理サーバ30は、例えば、「よいお湯だった」、という発話に基づいてユーザの入浴に係る行動を推定してもよいし、「そろそろ寝ようかな」、という発話に基づいてユーザの睡眠に係る行動を推定してもよい。
また、補助器具10が補聴器や集音器などである場合、ユーザが対話を行っている際には、ユーザが補助器具10を装着していることが想定される。このため、本実施形態に係る情報処理サーバ30は、ユーザの発話そのものを行動として推定してもよい。
(外部サービス40から取得される情報に基づく行動推定)
次に、本実施形態に係る外部サービス40から取得される情報に基づく行動推定について説明する。本実施形態に係る情報処理サーバ30は、外部サービス40から取得された情報に基づいてユーザの行動を推定することができる。図3には、外部サービス40が給湯器である場合の一例が示されている。この際、情報処理サーバ30は、ネットワーク50を介して、外部サービス40からお湯はりの開始や終了に係る情報を受信してよい。情報処理サーバ30は、受信した上記の情報に基づいて、ユーザの入浴に係る行動を推定することが可能である。
また、情報処理サーバ30は、必ずしもネットワーク50を介して外部サービス40の情報を取得しなくてもよい。情報処理サーバ30は、例えば、図3に示すような外部サービス40による音声出力SO1が検出されたことに基づいてユーザの行動を推定することもできる。この際、情報処理端末20は、検出した外部サービス40による音声出力SO1の情報を情報処理サーバ30に送信してよい。
また、図3には、外部サービス40が給湯器である場合の一例が示されているが、本実施形態に係る外部サービス40は、係る例に限定されない。本実施形態に係る外部サービス40は、行動管理アプリケーションであってもよい。この場合、情報処理サーバ30は、例えば、行動管理アプリケーションから取得したユーザのスケジュール情報に基づいて、ユーザの勉強に係る行動を推定してもよい。情報処理サーバ30が有する上記の機能によれば、例えば、勉強をする際にはユーザが補助器具10を装着する傾向があることなどが学習され得る。
また、本実施形態に係る外部サービス40は、運動管理アプリケーションであってもよい。この場合、情報処理サーバ30は、運動管理アプリケーションから取得した運動スケジュール情報に基づいて、ユーザの運動に係る行動を推定してもよい。情報処理サーバ30が有する上記の機能によれば、例えば、運動をする際にユーザが補助器具10を外す傾向があることなどが学習され得る。
また、本実施形態に係る外部サービス40は、健康管理アプリケーションであってもよい。この場合、情報処理サーバ30は、健康管理アプリケーションから取得されたユーザの健康状態に基づいて、ユーザの状態を推定してもよい。情報処理サーバ30は、例えば、健康管理アプリケーションからユーザが目や耳に係る治療を受けていることを示す情報を取得することができる。情報処理サーバ30が有する上記の機能によれば、例えば、目や耳に係る治療を受けている際には、ユーザが補助器具10を外す傾向があることなどが学習され得る。
また、本実施形態に係る外部サービス40は、照明器具などの家電であってもよい。この場合、情報処理サーバ30は、照明器具の消灯に係る情報を、ネットワーク50を介して取得したことに基づいて、ユーザの睡眠に係る行動を推定することも可能である。または、情報処理サーバ30は、情報処理端末20のセンサ部210が有する照度センサにより照明器具の消灯が検知されたことに基づいて、ユーザの睡眠を推定してもよい。
また、本実施形態に係る外部サービス40は、スマートフォン、タブレット、PCなどの装置であってもよい。この場合、情報処理サーバ30は、上記のような装置から取得したユーザの検索履歴に基づいてユーザの行動を推定することができる。情報処理サーバ30は、例えば、ユーザが検索した料理のレシピの履歴から、ユーザの料理や食事に係る行動を推定することができる。情報処理サーバ30が有する上記の機能によれば、例えば、温かい食事をする際にユーザが補助器具10を外す傾向があることなどが学習され得る。
(センサ情報に基づく行動推定)
次に、本実施形態に係るセンサ情報に基づく行動推定について説明する。本実施形態に係る情報処理サーバ30は、情報処理端末20や補助器具10、または別途設置されるセンサ装置により収集されたセンサ情報に基づいて、ユーザの行動を推定することができる。
例えば、情報処理サーバ30は、情報処理端末20がユーザの体温上昇を検知したことに基づいて、ユーザの入浴に係る行動を推定することができる。また、例えば、情報処理サーバ30は、情報処理端末20が収集するセンサ情報に基づいて、ユーザが情報処理端末20に近づいてくる動作やユーザによる情報処理端末20の操作を推定してもよい。情報処理サーバ30が有する上記の機能によれば、例えば、ユーザが情報処理端末20に近づいてくる動作を行う場合や、ユーザが情報処理端末20を手探りで操作する場合などには、ユーザが補助器具10を外している状態が多いことなどが学習され得る。
また、情報処理サーバ30は、補助器具10が収集したセンサ情報に基づいて、ユーザの行動を推定してもよい。例えば、補助器具10が眼鏡型のウェアラブルデバイスである場合、情報処理サーバ30は、補助器具10から取得した加速度センサやジャイロセンサの情報に基づいて、ユーザが補助器具10を外している状態を推定することもできる。また、情報処理サーバ30は、ウェアラブルデバイスや補聴器などの補助器具10が充電中であること示すセンサ情報を充電器や補助器具10から取得したことに基づいて、上記の推定を行うことも可能である。
また、情報処理サーバ30は、別途設置されるセンサ装置により収集されたセンサ情報に基づいて、ユーザの行動を推定することができる。情報処理サーバ30は、例えば、風呂場に設置される人感センサがユーザの所在を検知したことに基づいて、ユーザの入浴に係る行動を推定してもよい。
以上、本実施形態に係る行動推定について具体例を挙げて説明した。上述したように、本実施形態に係る情報処理サーバ30は、取得した種々の情報に基づいてユーザの行動を推定することができる。本実施形態に係る情報処理サーバ30が有する上記の機能によれば、ユーザの行動と補助器具10との装着有無とを関連付けて学習することが可能となり、また学習結果に基づいてユーザの行動から補助器具10の装着有無を判定することが可能となる。
<<1.6.補助器具10の装着有無に基づく出力制御>>
次に、本実施形態に係る補助器具10の装着有無に基づく出力制御について説明する。上述したとおり、本実施形態に係る情報処理サーバ30は、推定したユーザの行動から補助器具10の装着有無を判定し、当該判定に基づいて情報処理端末20の出力モードを制御する機能を有する。
具体的には、本実施形態に係る情報処理サーバ30は、ユーザが補助器具10を装着していないと判定した場合、情報出力に係る出力強度やモーダルを変更することができる。また、本実施形態に係る情報処理サーバ30は、ユーザが補助器具10を装着していないと判定した場合、外部装置に出力情報を転送することができる。
(出力強度の制御)
まず、本実施形態に係る情報処理サーバ30による出力強度の制御について説明する。図4Aは、情報処理サーバ30による視覚情報に係る出力強度の制御例を示す図である。図4Aの上部には、眼鏡型の補助器具10を装着した状態のユーザP1aと、情報処理端末20が出力する視覚情報O1aが示されている。ここで、図4Aに示す視覚情報O1aは、設定された通常のフォントサイズで出力されてよい。すなわち、本実施形態に係る情報処理サーバ30は、ユーザが補助器具10を装着していると判定した場合、情報処理端末20に通常サイズの視覚情報を出力させる。
一方、図4Aの下部には、補助器具10を装着していない状態のユーザP1bと、情報処理端末20が出力する視覚情報O1bが示されている。ここで、視覚情報O1aと視覚情報O1bとを比較すると、視覚情報O1bは視覚情報O1aよりも大きいフォントサイズで出力されていることがわかる。このように、本実施形態に係る情報処理サーバ30は、ユーザが補助器具10を装着していないと判定した場合、情報処理端末20に通常よりも大きいサイズで視覚情報を出力させる。情報処理サーバ30は、例えば、ユーザが眼鏡を装着していない場合には、情報処理端末20が再生するサイネージや動画の字幕サイズを大きくするなどの制御を行ってもよい。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、眼鏡を装着していない場合でも、ユーザが視覚情報を知覚できる可能性を大きく向上させることができる。
また、本実施形態に係る情報処理サーバ30は、聴覚情報に係る出力強度の制御を行ってもよい。図4Bは、情報処理サーバ30による聴覚情報に係る出力強度の制御例を示す図である。図4Bの上部には、補聴器型の補助器具10を装着した状態のユーザP2aと、情報処理端末20が出力する聴覚情報O2aが示されている。ここで、図4Bに示す聴覚情報O1aは、設定された通常の音量で出力されてよい。すなわち、本実施形態に係る情報処理サーバ30は、ユーザが補助器具10を装着していると判定した場合、情報処理端末20に通常音量の聴覚情報を出力させる。
一方、図4Bの下部には、補助器具10を装着していない状態のユーザP2bと、情報処理端末20が出力する聴覚情報O2bが示されている。ここで、聴覚情報O2aと聴覚情報O2bとを比較すると、聴覚情報O2bは聴覚情報O2aよりも大きな音量で出力されていることがわかる。このように、本実施形態に係る情報処理サーバ30は、ユーザが補助器具10を装着していないと判定した場合、情報処理端末20に通常よりも大きな音量で聴覚情報を出力させる。本実施形態に係る情報処理サーバ30が有する上記の機能によれば、補聴器を装着していない場合でも、ユーザが聴覚情報を知覚できる可能性を大きく向上させることができる。
(モーダルの制御)
次に、本実施形態に係る情報処理サーバ30によるモーダルの制御について説明する。図5は、情報処理サーバ30によるモーダルの制御例を示す図である。図5の上部には、眼鏡型の補助器具10を装着していない状態のユーザP1bと、情報処理端末20が出力する聴覚情報O2が示されている。このように、本実施形態に係る情報処理サーバ30は、眼鏡を習慣的に装着するユーザが眼鏡を装着していないと状態であると判定した場合、通常モードで出力される視覚情報に代えて、聴覚情報を情報処理端末20に出力させることができる。情報処理サーバ30は、例えば、ユーザが眼鏡を装着していない場合には、情報処理端末20が再生する動画を字幕から副音声に切り替える制御を行ってもよい。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、ユーザが眼鏡を装着していない場合、音声情報による情報出力を行うことが可能となり、ユーザが出力情報を知覚できる可能性を大幅に高めることができる。
一方、図5の下部には、補聴器型の補助器具10を装着していない状態のユーザP2bと、情報処理端末20が出力する視覚情報O1が示されている。このように、本実施形態に係る情報処理サーバ30は、補聴器を習慣的に装着するユーザが補聴器を装着していないと状態であると判定した場合、通常モードで出力される聴覚情報に代えて、視覚情報を情報処理端末20に出力させることができる。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、ユーザが補聴器を装着していない場合、視覚情報による情報出力を行うことが可能となり、ユーザが出力情報を知覚できる可能性を大幅に高めることができる。
(外部装置への出力情報の転送)
次に、本実施形態に係る外部装置への出力情報の転送について説明する。図6は、情報処理サーバ30による外部装置60への出力情報の転送について説明するための図である。本実施形態に係る外部装置60は、例えば、ユーザの所持する携帯電話、スマートフォン、タブレット、PCなどであってよい。図6には、眼鏡型の補助器具10を装着していない状態のユーザP1bと、外部装置60に転送される出力情報O3が示されている。このように、本実施形態に係る情報処理サーバ30は、習慣的に眼鏡を装着するユーザが眼鏡を装着していない状態であると判定した場合、情報処理端末20に出力させる出力情報を外部装置60に転送することができる。本実施形態に係る情報処理サーバ30が有する上記の機能によれば、ユーザが手元にある外部装置60を用いて出力情報を確認することができ、出力情報を知覚できる可能性を大きく向上させることが可能となる。
なお、外部装置60への出力情報の転送は、情報処理端末20により実行されてもよい。この場合、情報処理サーバ30は、情報処理端末20に出力情報の転送を指示する制御信号を送信してよい。また、図6に示す一例では、情報処理端末20に、外部装置60へ出力情報を転送した旨のメッセージが表示されているが、外部装置60に転送される出力情報は、同時に情報処理端末20により出力されてもよい。また、図6では、情報処理サーバ30が視覚情報の転送を行う場合の例が示されているが、情報処理サーバ30は、聴覚情報を外部装置60に転送してもよい。
<<1.7.複数ユーザに係る出力制御>>
次に、本実施形態に係る複数ユーザに係る出力制御について説明する。上記では、情報処理サーバ30が単一ユーザの補助器具10の装着有無を判定し、当該判定に基づく出力制御を行う場合を例に述べた。一方、本実施形態に係る情報処理サーバ30は、複数ユーザに係る補助器具10の装着有無を判定し、当該判定に基づく出力制御を行うこともできる。以下、情報処理サーバ30による複数ユーザに係る出力制御について、具体例を挙げて説明する。
(補助器具10を装着していないユーザの優先)
まず、本実施形態に係る情報処理サーバ30による、補助器具10を装着していないユーザを優先した出力制御の例について述べる。本実施形態に係る情報処理サーバ30の出力制御部330は、装着判定部320が複数ユーザに係る補助器具10の装着有無を判定した場合、補助器具10を装着していないユーザがいると判定されたことに基づいて、出力モードを変更することができる。
図7は、情報処理サーバ30による補助器具10を装着していないユーザを優先した出力制御について説明するための図である。図7には、眼鏡型の補助器具10を装着しているユーザP1と補助器具10を装着していないユーザP2、および情報処理端末20により出力される聴覚情報O2が示されている。
このように、本実施形態に係る情報処理サーバ30は、眼鏡を装着していないユーザP2が出力情報を知覚できるように、通常モードで出力される視覚情報に代えて聴覚情報を出力させてもよい。すなわち、本実施形態に係る情報処理サーバ30は、複数ユーザに係る補助器具10の装着有無を判定し、補助器具10を装着していないユーザを優先した出力制御を行うことができる。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、補助器具10を装着しているユーザと装着していないユーザが混在する場合でも、両ユーザが出力情報を知覚できる可能性を大きく高めることができる。
なお、図7では、情報処理サーバ30が情報出力に係るモーダルを制御する場合を例に述べたが、情報処理サーバ30は、情報出力に係る出力強度を制御してもよい。
(対象ユーザの優先)
次に、本実施形態に係る情報処理サーバ30による、対象ユーザを優先した出力制御の例について述べる。本実施形態に係る情報処理サーバ30の出力制御部330は、装着判定部320が複数ユーザに係る補助器具10の装着有無を判定した場合、出力情報の対象となるユーザに係る補助器具10の装着有無に基づいて出力モードを制御することができる。
図8は、情報処理サーバ30による出力情報の対象ユーザを優先した出力制御について説明するための図である。図8には、眼鏡型の補助器具10を装着しているユーザP1と補助器具10を装着していないユーザP2、および情報処理端末20により出力される視覚情報O1が示されている。ここで、視覚情報O1は、ユーザP1を対象とした出力情報であってよい。
このように、本実施形態に係る情報処理サーバ30は、補助器具10を装着していないユーザが存在する場合でも、出力情報が当該ユーザを対象とした情報でない際には、情報処理端末20に通常モードでの出力を行わせてよい。すなわち、本実施形態に係る情報処理サーバ30は、複数ユーザに係る補助器具10の装着有無を判定した場合、出力情報の対象ユーザを優先した出力制御を行うことができる。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、出力情報を必要とするユーザが正しく出力情報を知覚できる可能性を高めることができる。
(複数ユーザに対応する複数の出力モードの制御)
次に、本実施形態に係る複数ユーザに対応する複数の出力モードの制御について説明する。本実施形態に係る情報処理サーバ30の出力制御部330は、装着判定部320が複数ユーザに係る補助器具10の装着有無を判定した場合、当該複数ユーザに対応する複数の出力モードを制御することができる。
図9は、情報処理サーバ30による複数ユーザに対応する複数の出力モードの制御について説明するための図である。図9には、眼鏡型の補助器具10を装着しているユーザP1と補助器具10を装着していないユーザP2、および情報処理端末20により出力される視覚情報O1と聴覚情報O2が示されている。
このように、本実施形態に係る情報処理サーバ30は、補助器具10を装着していないユーザと装着していないユーザが混在する場合、それぞれのユーザに対応する複数の情報出力を情報処理端末20に行わせることができる。すなわち、本実施形態に係る情報処理サーバ30は、補助器具10を装着しているユーザP1に対応する視覚情報O1と、補助器具10を装着していないユーザP2に対応する聴覚情報O2とを情報処理端末20に出力させる。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、補助器具10を装着しているユーザと装着していないユーザが混在する場合でも、それぞれのユーザに適した出力情報の提示を行うことが可能となる。
<<1.8.環境条件に基づく出力制御>>
次に、本実施形態に係る環境条件に基づく出力制御について説明する。上記の説明では、本実施形態に係る情報処理サーバ30がユーザによる補助器具10の装着有無に基づいて出力モードを変更する場合について述べた。一方、本実施形態に係る情報処理サーバ30の出力制御部330は、取得された環境条件にさらに基づいて、出力モードの制御を行ってもよい。
図10は、本実施形態に係る情報処理サーバ30による環境条件に基づく出力制御について説明するための図である。図10には、眼鏡型の補助器具10を装着していないユーザP2と第三者P3、および情報処理端末20により出力される視覚情報O1が示されている。ここで、第三者P3は、例えば、図10に示すように眠っている赤ん坊などが想定される。
この場合、本実施形態に係る情報処理サーバ30は、第三者P3の睡眠を妨害しないように、情報処理端末20に聴覚情報を出力させず、視覚情報のみを出力させてよい。すなわち、本実施形態に係る情報処理サーバ30の出力制御部330は、環境条件が静音環境の要求を示すことに基づいて視覚情報に係る出力モードを選択することができる。
本実施形態に係る情報処理サーバ30が有する上記の機能によれば、第三者の妨げにならない出力情報の提示を行うことが可能となる。
なお、本実施形態に係る環境条件は、情報処理端末20、外部サービス40、外部装置60、別途設置されるセンサ装置などから取得される種々の情報であってよい。情報処理サーバ30は、例えば、情報処理端末20が設置される部屋と隣接する部屋において、第三者の所在が検知されたことと照明器具が消灯していることが検知されたこととに基づいて、第三者の睡眠に係る行動を推定することができる。このように、本実施形態に係る環境条件には、推定された第三者の行動が含まれてよい。上記の第三者の行動には、睡眠のほか勉強や電話での会話などが想定される。
<<1.9.出力制御の流れ>>
次に、本実施形態に係る情報処理サーバ30による出力制御の流れについて説明する。図11は、情報処理サーバ30による出力制御の流れを示すフローチャートである。
図11を参照すると、まず、本実施形態に係る情報処理サーバ30の通信部360が情報処理端末20などからユーザの発話情報やセンサ情報を受信する(S1101)。
また、通信部360は、外部サービス40からサービス情報を受信する(S1102)。なお、ステップS1101における発話情報やセンサ情報の受信と、ステップS1102におけるサービス情報の受信は、図11に示すフローとは異なる順番で行われてもよいし、同時に行われてもよい。また、ステップS1101およびステップS1102における各情報の受信は、片方のみが行われてもよい。
次に、行動推定部310は、ステップS1101およびステップS1102において受信した各情報に基づいて、ユーザの行動推定を行う(S1103)。
次に、装着判定部320は、ステップS1103で推定されたユーザの行動と学習DB350に記憶される学習結果とに基づいて、補助器具10の装着有無を判定する(S1104)。
ここで、装着判定部320が、ユーザが補助器具10を装着していると判定した場合(S1104:装着)、出力制御部330は、通常の出力モードを設定する(S1105)。
一方、装着判定部320が、ユーザが補助器具10を装着していないと判定した場合(S1104:未装着)、出力制御部330は、出力モードの変更を行う(S1106)。
次に、ステップS1105またはステップS1106において出力モードが設定されると、通信部360は、当該出力モードに応じて生成される制御信号を情報処理端末20に送信し(S1107)、情報処理サーバ30は一連の処理を終了する。
<<1.10.学習の流れ>>
次に、本実施形態に係る情報処理サーバ30による学習の流れについて説明する。図12は、情報処理サーバ30による学習の流れを示すフローチャートである。
図12を参照すると、まず、本実施形態に係る情報処理サーバ30の通信部360が情報処理端末20などからユーザの発話情報やセンサ情報を受信する(S1201)。
また、通信部360は、外部サービス40からサービス情報を受信する(S1202)。なお、ステップS1201における発話情報やセンサ情報の受信と、ステップS1202におけるサービス情報の受信は、図12に示すフローとは異なる順番で行われてもよいし、同時に行われてもよい。また、ステップS1201およびステップS1202における各情報の受信は、片方のみが行われてもよい。
次に、行動推定部310は、ステップS1201およびステップS1202において受信した各情報に基づいて、ユーザの行動推定を行う(S1203)。
次に、通信部360は、情報処理端末20からユーザに係る画像情報を取得する(S1204)。
次に、装着判定部320は、ステップS1204で取得された画像情報を分析し、ユーザによる補助器具10の装着有無を判定する(S1205)。
なお、ステップS1204における画像情報の取得とステップS1205における画像分析に基づく補助器具10の装着有無判定は、必ずしも実行されなくてもよい。通信部360は、画像情報の代わりに、補助器具10の装着有無に係るユーザの明示的な入力を取得してもよい。
次に、学習部340は、ステップS1203において推定された行動とステップS1205において判定された補助器具10の装着有無とを関連付けて学習を行い、学習結果を学習DB350に記憶させる(S1206)。
<<1.11.フィードバックに基づく再学習の流れ>>
次に、本実施形態に係るフィードバックに基づく再学習の流れについて説明する。本実施形態に係る情報処理サーバ30は、出力情報に対するユーザのフィードバックに基づいて、行動と補助器具10の装着有無とに係る再学習を行うことができる。図13は、情報処理サーバ30によるフィードバックに基づく再学習の流れを示すフローチャートである。
図13を参照すると、まず、情報処理サーバ30の通信部360が情報処理端末20から出力情報に対するユーザのフィードバックを受信する(S1301)。ここで、上記のフィードバックには、ユーザによる明示的な入力情報が含まれてよい。上記の明示的な入力情報には、例えば、ユーザによる、「今は眼鏡をかけています」、という発話や補助器具10の装着有無を示す文字入力、ボタン操作などが挙げられる。
また、上記のフィードバックには、ユーザによる文字サイズや音量の変更や、「大きい」、というユーザの発話など暗示的なフィードバックが含まれてよい。また、情報処理サーバ30は、情報処理端末20に、「今は眼鏡を装着していますか」、などの質問を出力させることで、上記のフィードバックを受信する機会を増加させてもよい。
次に、学習部340は、フィードバックを受けた出力制御に係る学習データを学習DB350から取得する(S1302)。
続いて、学習部340は、ステップS1301で取得したフィードバックとステップS1302で取得した学習データとの相関を推定する(S1303)。この際、学習部340は、例えば、曜日による傾向や、ユーザによる前後の行動などから上記の相関を推定してもよい。
続いて、学習部340は、ステップS1301で取得したフィードバックとステップS1302で取得した学習データとに相関があるか否かを判定する(S1304)。すなわち、本実施形態に係る学習部340は、受信したフィードバックが例外ケースであるのか、あるいは規則性を伴うものであるのかを判定することができる。
ここで、学習部340が、ステップS1301で取得したフィードバックとステップS1302で取得した学習データとに相関がないと判定した場合(S1304:No)、情報処理サーバ30は、再学習に係る一連の処理を終了する。
一方、学習部340が、ステップS1301で取得したフィードバックとステップS1302で取得した学習データとに相関があると判定した場合(S1304:Yes)、学習部340は、受信した情報に基づく再学習を実行し、学習結果を学習DB350に記憶させる(S1305)。
<2.ハードウェア構成例>
次に、本開示に係る情報処理端末20及び情報処理サーバ30に共通するハードウェア構成例について説明する。図14は、本開示に係る情報処理端末20及び情報処理サーバ30のハードウェア構成例を示すブロック図である。
図14を参照すると、情報処理端末20及び情報処理サーバ30は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<3.まとめ>
以上説明したように、本実施形態に係る情報処理サーバ30は、センサ情報や外部サービス40から取得した情報に基づいてユーザの行動を推定し、当該行動と補助器具10の装着有無とを関連付けて学習を行う機能を有する。また、情報処理サーバ30は、推定した行動と学習結果とから、ユーザによる補助器具10の装着有無を判定し、当該判定に基づく出力制御を行うことができる。係る構成によれば、ユーザによる補助器具の装着有無をより柔軟に判定することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、補助器具10が視覚矯正器具または聴覚補助器具である場合を中心に説明したが、本技術はかかる例に限定されない。本開示に係る補助器具10は、例えば、車椅子や歩行補助杖などの移動補助器具であってもよい。本開示に係る情報処理サーバ30は、ユーザによる移動補助器具の装着有無を判定し、情報処理端末20による情報出力を制御することもできる。上記の機能によれば、ユーザが、移動が困難である場合に、例えば、出力情報の出力強度を調整することで、情報処理端末20から離れた場所に位置するユーザにも出力情報を提示することができる。
また、例えば、本開示に係る情報処理サーバ30は、補助器具10以外の装着を判定し、当該判定に基づいて出力制御を行ってもよい。本開示に係る情報処理サーバ30は、例えば、ユーザがイヤホンやヘッドホンなどを装着している場合には、視覚情報を優先して出力させるなどの制御を行うことができる。本技術によれば、ユーザの行動から種々の装置の装着有無を判定し、当該判定に基づく出力制御を行うことが可能である。
また、本明細書の情報処理サーバ30の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理サーバ30の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザによる補助器具の装着有無を判定する判定部と、
前記判定部による前記補助器具の装着有無の判定に基づいて、出力モードの制御を行う出力制御部と、
を備え、
前記判定部は、推定された前記ユーザの行動に基づいて前記補助器具の装着有無を判定する、
情報処理装置。
(2)
前記出力制御部は、前記判定部により前記補助器具を習慣的に装着する前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、出力モードを変更する、
前記(1)に記載の情報処理装置。
(3)
前記判定部は、前記補助器具を装着していない状態と関連付いて学習された前記ユーザの行動が推定されたことに基づいて、前記ユーザが前記補助器具を装着していないと判定する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記補助器具は、視力矯正器具または聴覚補助器具のうち少なくともいずれかを含む、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記判定部は、前記ユーザの発話から推定された行動に基づいて前記補助器具の装着有無を判定する、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記判定部は、外部サービスから取得された情報から推定された行動に基づいて前記補助器具の装着有無を判定する、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記判定部は、取得されたセンサ情報から推定された行動に基づいて前記補助器具の装着有無を判定する、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記出力制御部は、前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、情報出力に係る出力強度を制御する、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記出力制御部は、前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、情報出力に係るモーダルを変更する、
前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
前記出力制御部は、前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、外部装置に出力情報を転送する、
前記(1)〜(9)のいずれかに記載の情報処理装置。
(11)
前記出力制御部は、前記判定部が複数ユーザに係る前記補助器具の装着有無を判定した場合、前記補助器具を装着していないユーザがいると判定されたことに基づいて、前記出力モードを変更する、
前記(1)〜(10)のいずれかに記載の情報処理装置。
(12)
前記出力制御部は、前記判定部が複数ユーザに係る前記補助器具の装着有無を判定した場合、出力情報の対象となるユーザに係る前記補助器具の装着有無に基づいて前記出力モードを制御する、
前記(1)〜(11)のいずれかに記載の情報処理装置。
(13)
前記出力制御部は、前記判定部が複数ユーザに係る前記補助器具の装着有無を判定した場合、前記複数ユーザに対応する複数の出力モードを制御する、
前記(1)〜(12)のいずれかに記載の情報処理装置。
(14)
前記出力制御部は、取得された環境条件にさらに基づいて、前記出力モードの制御を行う、
前記(1)〜(13)のいずれかに記載の情報処理装置。
(15)
前記出力制御部は、前記環境条件が静音環境の要求を示すことに基づいて視覚情報に係る出力モードを選択する、
前記(14)に記載の情報処理装置。
(16)
前記環境条件は、推定された第三者の行動を含む、
前記(14)または(15)に記載の情報処理装置。
(17)
前記ユーザの行動を推定する推定部、
をさらに備える、
前記(1)〜(16)のいずれかに記載の情報処理装置。
(18)
ユーザの行動推定に用いられる情報を収集するセンサ部と、
前記ユーザに対する情報出力を行う出力部と、
を備え、
前記出力部は、前記センサ部または外部サービスから収集された情報から判定される前記ユーザによる補助器具の装着有無に基づいて制御される出力モードに対応する情報出力を行う、
情報処理装置。
(19)
前記出力部は、前記補助器具を習慣的に装着する前記ユーザが前記補助器具を装着していないと判定されたことに基づいて変更される出力モードに対応する情報出力を行う、
前記(18)に記載の情報処理装置。
(20)
前記出力部は、前記出力モードに対応する視覚情報もしくは音声情報のいずれか、または双方に係る情報出力を行う、
前記(18)または(19)のいずれかに記載の情報処理装置。
10 補助器具
20 情報処理端末
210 センサ部
220 出力部
230 サーバ通信部
30 情報処理サーバ
310 行動推定部
320 装着判定部
330 出力制御部
340 学習部
350 学習DB
360 通信部
40 外部サービス
50 ネットワーク
60 外部装置

Claims (20)

  1. ユーザによる補助器具の装着有無を判定する判定部と、
    前記判定部による前記補助器具の装着有無の判定に基づいて、出力モードの制御を行う出力制御部と、
    を備え、
    前記判定部は、推定された前記ユーザの行動に基づいて前記補助器具の装着有無を判定する、
    情報処理装置。
  2. 前記出力制御部は、前記判定部により前記補助器具を習慣的に装着する前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、出力モードを変更する、
    請求項1に記載の情報処理装置。
  3. 前記判定部は、前記補助器具を装着していない状態と関連付いて学習された前記ユーザの行動が推定されたことに基づいて、前記ユーザが前記補助器具を装着していないと判定する、
    請求項1に記載の情報処理装置。
  4. 前記補助器具は、視力矯正器具または聴覚補助器具のうち少なくともいずれかを含む、
    請求項1に記載の情報処理装置。
  5. 前記判定部は、前記ユーザの発話から推定された行動に基づいて前記補助器具の装着有無を判定する、
    請求項1に記載の情報処理装置。
  6. 前記判定部は、外部サービスから取得された情報から推定された行動に基づいて前記補助器具の装着有無を判定する、
    請求項1に記載の情報処理装置。
  7. 前記判定部は、取得されたセンサ情報から推定された行動に基づいて前記補助器具の装着有無を判定する、
    請求項1に記載の情報処理装置。
  8. 前記出力制御部は、前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、情報出力に係る出力強度を制御する、
    請求項1に記載の情報処理装置。
  9. 前記出力制御部は、前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、情報出力に係るモーダルを変更する、
    請求項1に記載の情報処理装置。
  10. 前記出力制御部は、前記ユーザが前記補助器具を装着していないと判定されたことに基づいて、外部装置に出力情報を転送する、
    請求項1に記載の情報処理装置。
  11. 前記出力制御部は、前記判定部が複数ユーザに係る前記補助器具の装着有無を判定した場合、前記補助器具を装着していないユーザがいると判定されたことに基づいて、前記出力モードを変更する、
    請求項1に記載の情報処理装置。
  12. 前記出力制御部は、前記判定部が複数ユーザに係る前記補助器具の装着有無を判定した場合、出力情報の対象となるユーザに係る前記補助器具の装着有無に基づいて前記出力モードを制御する、
    請求項1に記載の情報処理装置。
  13. 前記出力制御部は、前記判定部が複数ユーザに係る前記補助器具の装着有無を判定した場合、前記複数ユーザに対応する複数の出力モードを制御する、
    請求項1に記載の情報処理装置。
  14. 前記出力制御部は、取得された環境条件にさらに基づいて、前記出力モードの制御を行う、
    請求項1に記載の情報処理装置。
  15. 前記出力制御部は、前記環境条件が静音環境の要求を示すことに基づいて視覚情報に係る出力モードを選択する、
    請求項14に記載の情報処理装置。
  16. 前記環境条件は、推定された第三者の行動を含む、
    請求項14に記載の情報処理装置。
  17. 前記ユーザの行動を推定する推定部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  18. ユーザの行動推定に用いられる情報を収集するセンサ部と、
    前記ユーザに対する情報出力を行う出力部と、
    を備え、
    前記出力部は、前記センサ部または外部サービスから収集された情報から判定される前記ユーザによる補助器具の装着有無に基づいて制御される出力モードに対応する情報出力を行う、
    情報処理装置。
  19. 前記出力部は、前記補助器具を習慣的に装着する前記ユーザが前記補助器具を装着していないと判定されたことに基づいて変更される出力モードに対応する情報出力を行う、
    請求項18に記載の情報処理装置。
  20. 前記出力部は、前記出力モードに対応する視覚情報もしくは音声情報のいずれか、または双方に係る情報出力を行う、
    請求項18に記載の情報処理装置。
JP2018538033A 2016-09-08 2017-06-20 情報処理装置 Active JP7074343B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016175441 2016-09-08
JP2016175441 2016-09-08
PCT/JP2017/022707 WO2018047433A1 (ja) 2016-09-08 2017-06-20 情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2018047433A1 true JPWO2018047433A1 (ja) 2019-06-24
JP7074343B2 JP7074343B2 (ja) 2022-05-24

Family

ID=61561432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018538033A Active JP7074343B2 (ja) 2016-09-08 2017-06-20 情報処理装置

Country Status (3)

Country Link
EP (1) EP3511800A4 (ja)
JP (1) JP7074343B2 (ja)
WO (1) WO2018047433A1 (ja)

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229995A (ja) * 2001-02-05 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> マルチモーダルシームレス情報提供装置
JP2003230071A (ja) * 2002-01-31 2003-08-15 Toshiba Corp テレビ視聴システム
JP2004348429A (ja) * 2003-05-22 2004-12-09 Hitachi Information Technology Co Ltd 端末装置及び端末装置の制御プログラム
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2007532055A (ja) * 2004-04-05 2007-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ娯楽システム、装置、方法及びコンピュータプログラム
JP2008172551A (ja) * 2007-01-12 2008-07-24 Funai Electric Co Ltd Avシステムおよびスピーカシステム
JP2009294740A (ja) * 2008-06-03 2009-12-17 Mitsubishi Electric Corp データ処理装置及びプログラム
JP2010003116A (ja) * 2008-06-20 2010-01-07 Toyota Central R&D Labs Inc 対象物判定装置及びプログラム
WO2012001880A1 (ja) * 2010-06-30 2012-01-05 パナソニック株式会社 光デバイス
WO2012127837A1 (ja) * 2011-03-18 2012-09-27 パナソニック株式会社 表示装置、3d眼鏡、及び3d映像視聴システム
JP2013073378A (ja) * 2011-09-27 2013-04-22 Sony Corp 端末装置と外部装置と情報処理方法とプログラムおよび情報処理システム
US20130195295A1 (en) * 2011-12-22 2013-08-01 Sonion Nederland Bv Hearing Aid With A Sensor For Changing Power State Of The Hearing Aid
JP2013171440A (ja) * 2012-02-21 2013-09-02 Kyocera Corp 携帯端末
JP2013175923A (ja) * 2012-02-24 2013-09-05 Sharp Corp テレビ受信機の音声調整システム、及びテレビ受信機
JP2013210952A (ja) * 2012-03-30 2013-10-10 Sony Corp 情報処理装置、電子機器、情報処理方法、及びプログラム
JP2015025859A (ja) * 2013-07-24 2015-02-05 富士通株式会社 画像処理装置、電子機器、眼鏡特性判定方法および眼鏡特性判定プログラム
JP2015504616A (ja) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正
WO2015068440A1 (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法およびプログラム
JP2015152940A (ja) * 2014-02-10 2015-08-24 ソニー株式会社 提示制御装置、提示制御方法、およびプログラム
US20160029884A1 (en) * 2014-07-30 2016-02-04 Dell Products, L.P. User aware digital vision correction
JP2016057855A (ja) * 2014-09-10 2016-04-21 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理システム及びプログラム
WO2016111327A1 (ja) * 2015-01-08 2016-07-14 株式会社デンソー 顔検出装置
JP2016212793A (ja) * 2015-05-13 2016-12-15 ヤフー株式会社 予測装置、端末、予測方法及び予測プログラム
JP2016218801A (ja) * 2015-05-21 2016-12-22 株式会社東芝 行動推定装置、行動推定方法、及び行動推定プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7287056B2 (en) * 2001-09-28 2007-10-23 Microsoft Corporation Dispatching notification to a device based on the current context of a user with the device
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2009152666A (ja) * 2007-12-18 2009-07-09 Toshiba Corp 音響出力制御装置、音響再生装置および音響出力制御方法
JP5256119B2 (ja) * 2008-05-27 2013-08-07 パナソニック株式会社 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
JP2012073940A (ja) * 2010-09-29 2012-04-12 Sharp Corp 表示システム、データ処理装置、表示装置、指示方法、表示方法、コンピュータプログラム及び記録媒体
WO2013048880A1 (en) * 2011-09-30 2013-04-04 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP6330617B2 (ja) * 2014-10-21 2018-05-30 ソニー株式会社 情報処理装置、通信システム、情報処理方法およびプログラム

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229995A (ja) * 2001-02-05 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> マルチモーダルシームレス情報提供装置
JP2003230071A (ja) * 2002-01-31 2003-08-15 Toshiba Corp テレビ視聴システム
JP2004348429A (ja) * 2003-05-22 2004-12-09 Hitachi Information Technology Co Ltd 端末装置及び端末装置の制御プログラム
JP2007532055A (ja) * 2004-04-05 2007-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ娯楽システム、装置、方法及びコンピュータプログラム
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2008172551A (ja) * 2007-01-12 2008-07-24 Funai Electric Co Ltd Avシステムおよびスピーカシステム
JP2009294740A (ja) * 2008-06-03 2009-12-17 Mitsubishi Electric Corp データ処理装置及びプログラム
JP2010003116A (ja) * 2008-06-20 2010-01-07 Toyota Central R&D Labs Inc 対象物判定装置及びプログラム
WO2012001880A1 (ja) * 2010-06-30 2012-01-05 パナソニック株式会社 光デバイス
WO2012127837A1 (ja) * 2011-03-18 2012-09-27 パナソニック株式会社 表示装置、3d眼鏡、及び3d映像視聴システム
JP2015504616A (ja) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正
JP2013073378A (ja) * 2011-09-27 2013-04-22 Sony Corp 端末装置と外部装置と情報処理方法とプログラムおよび情報処理システム
US20130195295A1 (en) * 2011-12-22 2013-08-01 Sonion Nederland Bv Hearing Aid With A Sensor For Changing Power State Of The Hearing Aid
JP2013171440A (ja) * 2012-02-21 2013-09-02 Kyocera Corp 携帯端末
JP2013175923A (ja) * 2012-02-24 2013-09-05 Sharp Corp テレビ受信機の音声調整システム、及びテレビ受信機
JP2013210952A (ja) * 2012-03-30 2013-10-10 Sony Corp 情報処理装置、電子機器、情報処理方法、及びプログラム
JP2015025859A (ja) * 2013-07-24 2015-02-05 富士通株式会社 画像処理装置、電子機器、眼鏡特性判定方法および眼鏡特性判定プログラム
WO2015068440A1 (ja) * 2013-11-08 2015-05-14 ソニー株式会社 情報処理装置、制御方法およびプログラム
JP2015152940A (ja) * 2014-02-10 2015-08-24 ソニー株式会社 提示制御装置、提示制御方法、およびプログラム
US20160029884A1 (en) * 2014-07-30 2016-02-04 Dell Products, L.P. User aware digital vision correction
JP2016057855A (ja) * 2014-09-10 2016-04-21 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理システム及びプログラム
WO2016111327A1 (ja) * 2015-01-08 2016-07-14 株式会社デンソー 顔検出装置
JP2016212793A (ja) * 2015-05-13 2016-12-15 ヤフー株式会社 予測装置、端末、予測方法及び予測プログラム
JP2016218801A (ja) * 2015-05-21 2016-12-22 株式会社東芝 行動推定装置、行動推定方法、及び行動推定プログラム

Also Published As

Publication number Publication date
EP3511800A1 (en) 2019-07-17
JP7074343B2 (ja) 2022-05-24
EP3511800A4 (en) 2019-08-14
WO2018047433A1 (ja) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6760267B2 (ja) 情報処理装置、制御方法、およびプログラム
TWI754896B (zh) 發話接聽器及行動電話系統
KR102269526B1 (ko) 정보 처리 장치 및 제어 방법
US10205814B2 (en) Wireless earpiece with walkie-talkie functionality
US20230045237A1 (en) Wearable apparatus for active substitution
JP2015522841A (ja) 眼鏡用アダプタ
TW201233119A (en) Transmitter/receiver unit and receiver unit
JP2006115476A (ja) モバイル装置における多感覚応用の音声強調のための方法および装置
CN111630852A (zh) 信息处理设备、信息处理方法和程序
WO2018139036A1 (ja) 情報処理装置、情報処理方法およびプログラム
US10499315B2 (en) Information processing apparatus and information processing method
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
JP6492330B2 (ja) 電子機器、および画像の提供方法
JP7074343B2 (ja) 情報処理装置
JP2016109726A (ja) 情報処理装置、情報処理方法およびプログラム
WO2017010547A1 (ja) ロボットおよびロボットシステム
WO2017029850A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN106031135B (zh) 可穿戴设备和通信控制方法
WO2016143415A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2018061346A1 (ja) 情報処理装置
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2019187593A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018139050A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2021182172A (ja) 情報処理装置、情報処理方法およびプログラム
US11270682B2 (en) Information processing device and information processing method for presentation of word-of-mouth information

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7074343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350