JP6969554B2 - 情報処理システム、記録媒体、情報処理方法、およびプログラム - Google Patents

情報処理システム、記録媒体、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6969554B2
JP6969554B2 JP2018529763A JP2018529763A JP6969554B2 JP 6969554 B2 JP6969554 B2 JP 6969554B2 JP 2018529763 A JP2018529763 A JP 2018529763A JP 2018529763 A JP2018529763 A JP 2018529763A JP 6969554 B2 JP6969554 B2 JP 6969554B2
Authority
JP
Japan
Prior art keywords
action
context
user
determined
transmission method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018529763A
Other languages
English (en)
Other versions
JPWO2018021040A1 (ja
Inventor
育英 細田
学 城井
義樹 竹岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018021040A1 publication Critical patent/JPWO2018021040A1/ja
Application granted granted Critical
Publication of JP6969554B2 publication Critical patent/JP6969554B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本技術は、情報処理システム、記録媒体、情報処理方法、およびプログラムに関し、特に、ユーザのコンテキストに適したアクションを、ユーザにさりげなく伝えることができるようにした情報処理システム、記録媒体、情報処理方法、およびプログラムに関する。
近年、AI(Artificial Intelligence)を用いた行動支援が実現されている。AIを用いた行動支援は、例えば、インターネット上の各種情報や、支援の対象となる人の状況に応じて、意思決定のサポートとなるような情報を提供するものである。行動支援を行う機能や機器はエージェントとも呼ばれる。
特許文献1には、プレゼンテーション、会議、講習会等における参加者(発表者、受講者)の集中度を、撮影した画像に基づいて検出する技術が開示されている。例えば、集中度の低い受講者がいる場合、発表者の前にあるディスプレイに「声を大きくしてください」等のメッセージが表示され、発表者に対する指示が行われる。
特開2012−160173号公報
意思決定のサポートとなるような情報の提供の仕方が問題になることもある。
例えば、特許文献1にあるようにメッセージを表示したり、絵を表示したりすることで情報を提供する場合、支援の対象となる人が、それを見ることができる場所にいなければならない。また、音声を用いて情報を提供する場合、周りにいる人に聞かれたくないこともある。
本技術はこのような状況に鑑みてなされたものであり、ユーザのコンテキストに適したアクションを、ユーザにさりげなく伝えることができるようにするものである。
本技術の一側面の情報処理システムは、デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得する取得部と、前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する制御部と、1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部とを備え、前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
本技術の一側面においては、デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報が取得され、前記ユーザのコンテキストが前記コンテキスト情報に基づいて認識される。また、前記コンテキストに応じたアクションが決定され、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法が決定され、前記コンテキストに応じた前記アクションが、決定した前記伝達方法で前記ユーザに伝達されるまた、1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部の記憶が制御され、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかが決定され、前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかが決定され、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかが、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達される。
本技術によれば、ユーザのコンテキストに適したアクションを、ユーザにさりげなく伝えることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係るウェアラブルデバイスを用いた行動支援の様子を示す図である。 情報処理システムの構成例を示す図である。 ウェアラブルデバイスの外観の例を示す図である。 ウェアラブルデバイスの外観の例を示す図である。 ウェアラブルデバイスの外観の他の例を示す図である。 ウェアラブルデバイスの構成例を示すブロック図である。 制御サーバの構成例を示すブロック図である。 アクション情報の例を示す図である。 ウェアラブルデバイスの送信処理について説明するフローチャートである。 制御サーバの制御処理について説明するフローチャートである。 ウェアラブルデバイスのアクション伝達処理について説明するフローチャートである。 アクション情報の他の例を示す図である。 第2の実施の形態に係る制御サーバの制御処理について説明するフローチャートである。 第3の実施の形態に係る制御サーバの制御処理について説明するフローチャートである。 アクション情報の例を示す図である。 第4の実施の形態に係る制御サーバの制御処理について説明するフローチャートである。 アクション情報の例を示す図である。 ウェアラブルデバイスの構成例を示す図である。 耳掛け型のウェアラブルデバイスの外観を示す図である。 耳掛け型のウェアラブルデバイスの外観を示す図である。 耳掛け型のウェアラブルデバイスの外観を示す図である。 耳掛け型のウェアラブルデバイスの外観を示す図である。 耳掛け型のウェアラブルデバイスの装着例を示す図である。 肩乗せ型のウェアラブルデバイスの装着例を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 肩乗せ型のウェアラブルデバイスの外観を示す図である。 首掛け型のウェアラブルデバイスの外観を示す図である。 首掛け型のウェアラブルデバイスの外観を示す図である。 首掛け型のウェアラブルデバイスの外観を示す図である。 首掛け型のウェアラブルデバイスの外観を示す図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
・さりげない伝達方法
・第1の実施の形態 コンテキストに適したアクションの伝達
・第2の実施の形態 2つの対極となるアクションの伝達
・第3の実施の形態 ユーザの行動と逆のアクションの伝達
・第4の実施の形態 伝達するアクションの決定方法
・変形例
<<さりげない伝達方法>>
図1は、本技術の一実施形態に係るウェアラブルデバイスを用いた行動支援の様子を示す図である。
ユーザが耳に装着するウェアラブルデバイス1は、装着者であるユーザに対して行動支援を行うエージェント機器である。ウェアラブルデバイス1による行動支援は、ユーザのコンテキスト(context)を検出し、コンテキストに応じたアクションを、コンテキストとアクションの内容に適した方法でユーザに伝えるようにして行われる。
ここで、ユーザのコンテキストには、ウェアラブルデバイス1を装着しているユーザの周囲の環境、ユーザの感情、ユーザの状況、ユーザの周囲にいる他の人の感情、ユーザの周囲にいる他の人の状況のうちの少なくともいずれかが含まれる。ウェアラブルデバイス1は、搭載されたカメラや各種のセンサを用いて、周囲の環境等の検出に用いられる情報を生成する機能を有している。
ウェアラブルデバイス1によるアクションの伝達は、周りにいる人に気付かれないような、風を用いた方法、振動を用いた方法、音声を用いた方法で行われる。
例えば、風を用いたアクションの伝達は、伝達するアクションに応じた温度の風をユーザの顔付近などに吹き付けるようにして行われる。また、振動を用いたアクションの伝達は、伝達するアクションに応じたパターンの振動を発生するようにして行われる。音声を用いたアクションの伝達は、伝達するアクションに応じた口調の音声を、耳元付近に設けられたスピーカから小さい音量で出力するようにして行われる。
ウェアラブルデバイス1は、温度の異なる風を送る機能、異なるパターンで振動する機能、異なる口調の音声を耳元のスピーカから出力する機能をも有している。
このように、ウェアラブルデバイス1は、コンテキストに適したアクションを、さりげない方法でユーザに伝達することによって行動支援を行う。さりげない伝達方法とは、アクションの伝達を行っていることについて、周りにいる人が気付かないように伝達する方法を意味する。
例えば、メッセージを表示することでアクションを伝える場合、メッセージを見ることをユーザに意識させてしまう。状況によっては、メッセージを見ていることを周りの人に知られたくないこともある。
また、静かな空間で大きな音量の音声でアクションを伝えるとした場合、または、相手がいる状況で相手にも分かるような形でアクションを伝えるとした場合、ユーザが気まずい思いをしてしまうことがある。
周りにいる人に気付かれないように、さりげない方法でアクションを伝達することは、いわば愛のある伝え方ともいえる。
また、ウェアラブルデバイス1によるアクションの伝達は、適宜、対極となる2つのアクションを伝達するようにして行われる。
例えば、図1に示すように、ダイエットをしているユーザの目の前にケーキがある場合、「我慢する」というアクションと、「食べる」というアクションの2つのアクションが伝達される。前者のアクションは、ダイエットという目標に即したアクションであり、後者のアクションは目標に反するアクションであり、互いに対極となる内容のアクションといえるものである。
図1に示す天使のイラストは、「我慢する」というアクションを伝達することで目標の実現を後押しているイメージを表す。一方、悪魔のイラストは、「食べる」というアクションを伝達することで、目標の実現に反するアクションをそそのかしているイメージを表す。
なお、ダイエットを目標にしていることは、例えばユーザの状況としてユーザにより設定されている。また、目の前にケーキがあることは、例えば、ウェアラブルデバイス1のカメラにより撮影された画像を解析することによって特定される。
このように、ウェアラブルデバイス1は、ユーザのコンテキストに適したアクションとして、対極となる2つのアクションを伝達することができる。
例えば、一方のアクションをとることに対して意志の強いユーザであっても、それに反するアクションをとりたいという気持ちは潜在的には持っているものと考えられる。そのような潜在的な気持ちに従うアクションを提示し、背中を押してあげることは、愛のある伝え方といえる。
また、意志の強いユーザほど、意志に沿わないアクションをとりにくいため、一方のアクションをとることに対して意志の強いユーザに、それに反するアクションをとらせることは、ユーザにとって新しい発見に繋がる可能性がある。新しい発見に繋がる可能性があるアクションを選択肢として提示するという意味でも、対極となる2つのアクションを伝達することは、愛のある伝え方といえる。
このような、ユーザのコンテキストに適したアクションを愛のある伝え方で伝達する各機器の動作についてはフローチャートを参照して後述する。
<<第1の実施の形態 コンテキストに適したアクションの伝達>>
<1.情報処理システムの構成例>
図2は、情報処理システムの構成例を示す図である。
図2の情報処理システムは、ウェアラブルデバイス1と制御サーバ2が、インターネットなどのネットワーク3を介して接続されることによって構成される。
ウェアラブルデバイス1は、カメラにより撮影された画像、各種のセンサにより検出されたセンサデータを、ユーザのコンテキストの認識に用いられるコンテキスト情報として生成し、制御サーバ2に送信する。
また、ウェアラブルデバイス1は、コンテキスト情報を送信することに応じて制御サーバ2から送信されてきた制御信号を受信する。制御信号は、少なくとも、ユーザに伝達するアクションの内容と、アクションの伝達方法を表す情報である。ウェアラブルデバイス1は、制御信号に従って、制御サーバ2により決定されたアクションを、制御サーバ2により決定された方法でユーザに伝達する。
制御サーバ2は、ウェアラブルデバイス1から送信されてきたコンテキスト情報を受信し、コンテキスト情報に基づいて、ユーザのコンテキストを認識する。また、制御サーバ2は、認識したコンテキストに応じたアクションを決定するとともに、アクションの伝達方法を決定する。
制御サーバ2においては、それぞれのコンテキストに対して、アクションと伝達方法を対応付けて登録したデータベースが管理されている。制御サーバ2は、決定したアクションの内容と、コンテキストとアクションに適した伝達方法を表す制御信号をウェアラブルデバイス1に送信することによって、ユーザに対するアクションの伝達を制御する。
後述するように、本技術を適用した情報処理システムが、ウェアラブルデバイス1単体で実現されるようにすることも可能である。ネットワーク3に、ウェアラブルデバイス1と同様のウェアラブルデバイスが複数接続されるようにしてもよい。
<1−1.ウェアラブルデバイス1の構成例>
図3および図4は、ウェアラブルデバイス1の外観の例を示す図である。
ウェアラブルデバイス1の筐体は、角が緩やかに丸みを帯びた逆三角形状の耳掛け部11Aと、根元から先端に向かうに従って徐々に細幅となる矢印状のアーム部11Bが、一体的に形成されることによって構成される。
耳掛け部11Aには、その形状と略同じ形状の開口11aが形成される。ウェアラブルデバイス1の装着は、開口11aに左耳を通すようにして行われる。図3において、左側がユーザの顔の正面側に相当し、右側が後頭部側に相当する。図3に示される面が筐体の外側の面となり、裏面が筐体の内側の面となる。
開口11aの周りの縁部22は、低反発のウレタン素材などのフレキシブルな素材により構成される。縁部22は、体温によって柔らかくなり、開口11aの形状や大きさを適宜変形させることが可能になっている。縁部22が変形することにより、開口11aが広がって耳に馴染んだり、狭まって耳にフィットしたりする。
縁部22が、体温によって所定の形状に変形する形状記憶合金により構成されるようにしてもよい。耳掛け部11A全体が、低反発のウレタン素材や形状記憶合金により構成されるようにすることも可能である。
縁部22の前方寄りの位置にはスピーカ23が設けられる。ウェアラブルデバイス1の装着時、スピーカ23は耳穴近くに位置する。
アーム部11Bは、ウェアラブルデバイス1の内側に向けて緩やかにカーブして形成される。装着時、アーム部11Bの先端はユーザの左目の近くに位置する。アーム部11B先端のV字状部分の外側には、前方撮影用のカメラである前方撮影用カメラ21が設けられ(図3)、内側には、視線検出用のカメラである視線検出用カメラ24と投射部25が設けられる(図4)。
例えば、視線検出用カメラ24により撮影された画像を解析することによって視線の動きが検出される。また、検出された視線の方向に基づいて、前方撮影用カメラ21により撮影された画像のうちの、ユーザが見ている領域が特定される。
投射部25は、網膜直接投射型の表示モジュールである。投射部25は、ユーザの左目の網膜に像を照射することで情報を提示する。
図5は、ウェアラブルデバイス1の外観の他の例を示す図である。
図5の例においては、耳掛け部11Aの後方寄りの位置に取り付け部31が設けられる。取り付け部31には、小型のロボットアームが着脱可能となっている。取り付け部31に取り付けられたロボットアームは、アクションの伝達に用いられる。
すなわち、ウェアラブルデバイス1によるアクションの伝達は、ロボットアームの駆動を用いた方法によっても行われる。ロボットアームの先端は、ユーザの髪や耳の一部をつまむように取り付けられる。ウェアラブルデバイス1は、髪を引く、耳を引くなどの動作をロボットアームによって行い、ユーザにアクションを伝達する。
ロボットアームの先端を首筋や背中にまで届かせ、首筋や背中を押すことでアクションを伝達するようにしてもよい。ロボットアームについては、例えば特開2002−6924号公報に開示されている。
耳掛け部11Aの上方寄りの位置には排出口32が設けられる。排出口32から排出する風によって、上述したようにしてアクションの伝達が行われる。温度の異なる風を吹き付ける機構については、例えば特開2006−136628号公報に開示されている。伝達するアクションに応じた風量の風を用いてアクションの伝達が行われるようにしてもよい。
耳掛け部11Aの下方寄りの位置には操作部33が設けられる。操作部33は例えばタッチセンサであり、ユーザの操作を検出する。装着時、操作部33は耳たぶの近くに位置する。ユーザは、耳たぶを触るような動作によって各種の操作を行うことができる。ユーザが耳たぶを触る動作をカメラや赤外線センサなどによって検出し、それによって操作を行うことができるようにしてもよい。
図5に示す取り付け部31、排出口32、および操作部33の位置は、任意の位置に変更可能である。以下、ウェアラブルデバイス1が図5に示す構成を有するものとして説明する。取り付け部31にはロボットアームが取り付けられる。
図6は、ウェアラブルデバイス1の構成例を示すブロック図である。
ウェアラブルデバイス1は、制御部61に対して、前方撮影用カメラ21、視線検出用カメラ24、操作部33、センサ部62、記憶部63、出力部64、およびI/F部65が接続されることによって構成される。
制御部61は、CPU、ROM、RAMなどにより構成される。制御部61は、所定のプログラムをCPUにより実行し、ウェアラブルデバイス1の全体の動作を制御する。
前方撮影用カメラ21は、ウェアラブルデバイス1を装着しているユーザの前方を撮影し、撮影することによって得られた画像を制御部61に出力する。前方撮影用カメラ21が撮影する画像は、静止画であってもよいし、動画であってもよい。
視線検出用カメラ24は、ウェアラブルデバイス1を装着しているユーザの左目を含む範囲を撮影し、撮影することによって得られた画像を制御部61に出力する。
操作部33は、ユーザの操作を検出し、操作の内容を表す信号を制御部61に出力する。ユーザの耳たぶ近傍に設けられたタッチセンサだけでなく、他の位置に設けられたタッチセンサやボタンにより操作部33が構成されるようにしてもよい。
センサ部62は、加速度センサ、ジャイロセンサ、GPSセンサ、生体センサなどの各種のセンサにより構成される。センサ部62を構成する生体センサには、体温センサ、心拍数センサなどが含まれる。生体センサに、アルファ波やベータ波などの脳波を検出するセンサが含まれるようにしてもよい。生体センサにより測定された測定値から、例えばユーザの集中度などが検出される。センサ部62は、各センサにより測定された測定値を表すセンサデータを制御部61に出力する。
記憶部63は、フラッシュメモリなどにより構成される。記憶部63には各種のデータが記憶される。
出力部64は、スピーカ23、投射部25、送風部91、熱調整部92、振動部93、およびロボットアーム部94から構成される。
スピーカ23は、音声や効果音を出力する。
投射部25は、光を照射し、ユーザの目の網膜に像を投影する。
送風部91は、小型のファンなどにより構成され、排出口32から風を送る。
熱調整部92は、熱発生源となる小型のモジュール、および冷却モジュールから構成される。熱調整部92が発生する熱、および、熱調整部92が有する冷却機能により、送風部91が送り出す風の温度が調整される。
振動部93は、振動を発生する。
ロボットアーム部94は、取り付け部31に取り付けられたロボットアームである。ロボットアーム部94は、制御部61による制御に従って各種の動作を行う。
I/F部65は、Bluetooth(登録商標)、無線LANなどの近距離の無線通信のインタフェース、および、3G,4Gなどの移動通信システム(WAN)を用いた無線通信のインタフェースである。I/F部65は、制御サーバ2などの外部の機器との間で通信を行う。
以上の構成を有するウェアラブルデバイス1においては、制御部61のCPUにより所定のプログラムが実行されることによって、コンテキスト情報生成部81と伝達制御部82が実現される。
コンテキスト情報生成部81は、前方撮影用カメラ21により撮影された前方画像、視線検出用カメラ24により撮影された画像、およびセンサ部62から供給されたセンサデータを取得し、コンテキスト情報を生成する。
上述したように、コンテキストには、ウェアラブルデバイス1を装着しているユーザの周囲の環境、ユーザの感情、ユーザの状況、ユーザの周囲にいる他の人の感情、ユーザの周囲にいる他の人の状況のうちの少なくともいずれかが含まれる。
例えば、コンテキスト情報生成部81は、視線検出用カメラ24により撮影された画像を解析することによってユーザの視線を検出し、前方画像全体のうち、ユーザが見ている領域を特定する。コンテキスト情報生成部81は、前方画像、ユーザが見ている領域の情報、および、センサデータからなるコンテキスト情報を生成する。
前方画像とユーザが見ている領域の情報は、ユーザの周囲の環境、ユーザの状況、ユーザの周囲にいる他の人の感情、ユーザの周囲にいる他の人の状況の特定に用いることが可能な情報である。
例えば、前方画像を解析することにより、「ユーザが屋外にいる」などのユーザの周囲の環境を特定することが可能である。
また、前方画像に写っている人のうち、ユーザが見ている領域内の人の画像を解析することにより、「ユーザが他の人と話している」などのユーザの状況を特定することが可能である。
前方画像を解析することにより、「周囲にいる人が喜んでいる」などの他の人の感情、「周囲にいる人が走っている」などの他の人の状況を特定することが可能である。
一方、センサ部62から供給されたセンサデータは、ウェアラブルデバイス1を装着しているユーザの感情、ユーザの状況の特定に用いることが可能な情報である。
例えば、脳波から、「ユーザが怒っている」などのユーザの感情を特定することが可能である。
また、体温、心拍数、振動(加速度、角速度)から、「ユーザが歩いている」、「ユーザがジョギングをしている」などのユーザの状況を特定することが可能である。
コンテキスト情報生成部81により生成されるコンテキスト情報は、このように、ユーザの周囲の環境、ユーザの感情、ユーザの状況、ユーザの周囲にいる他の人の感情、ユーザの周囲にいる他の人の状況の認識に用いられる情報である。コンテキスト情報生成部81は、I/F部65を制御し、生成したコンテキスト情報を制御サーバ2に送信する。
伝達制御部82は、I/F部65を制御し、制御サーバ2から送信されてきた制御信号を受信する。伝達制御部82は、出力部64の各部を制御信号に従って制御し、制御サーバ2により決定されたアクションを、制御サーバ2により決定された伝達方法でユーザに伝達する。
<1−2.制御サーバ2の構成例>
図7は、制御サーバ2の構成例を示すブロック図である。
制御サーバ2は、制御部111に対して、I/F部112とアクション情報記憶部113が接続されることによって構成される。
制御部111は、CPU、ROM、RAMなどにより構成される。制御部111は、所定のプログラムをCPUにより実行し、制御サーバ2の全体の動作を制御する。
I/F部112は、無線または有線の通信を行うインタフェースである。I/F部112は、ウェアラブルデバイス1との間でネットワーク3を介して通信を行う。
アクション情報記憶部113は、HDDやSSDにより構成される。アクション情報記憶部113は、コンテキストと、コンテキストに応じたアクションと、コンテキストとアクションに適した伝達方法との対応関係を表すアクション情報を記憶する。アクション情報記憶部113により、アクション情報のデータベースが構成される。
制御サーバ2においては、制御部111のCPUにより所定のプログラムが実行されることによって、コンテキスト認識部121、アクション決定部122、および制御信号生成部123が実現される。
コンテキスト認識部121は、I/F部112を制御し、ウェアラブルデバイス1から送信されてきたコンテキスト情報を取得する。また、コンテキスト認識部121は、取得したコンテキスト情報に基づいて、ユーザのコンテキストを認識する。コンテキスト認識部121は、画像に写っている物体の認識用のデータ、センサデータのパターンを検出するためのデータなどの、コンテキストを認識するための情報を有している。
アクション決定部122は、コンテキスト認識部121により認識されたコンテキストに応じたアクションとその伝達方法を、アクション情報記憶部113により管理されているアクションデータベースを参照して決定する。
制御信号生成部123は、アクション決定部122により決定されたアクションと伝達方法を表す制御信号を生成する。制御信号生成部123は、I/F部112を制御し、制御信号をウェアラブルデバイス1に対して送信する。
図8は、アクション情報の例を示す図である。
図8の例においては、コンテキストID1,2,3の3つのコンテキストに関するアクション情報が示されている。
コンテキストID1のコンテキストは、ケーキがあることを認識したことを条件として選択されるコンテキストである。
ケーキがあることは、例えば、コンテキスト情報に含まれる前方画像のうち、ユーザが見ている領域にケーキが写っている場合に認識される。ケーキがあることは、例えばユーザの周囲の環境の認識結果である。
ケーキがあることを認識した場合、ユーザに伝達するアクションとして、「食べるのを我慢する」が決定される。また、「食べるのを我慢する」の伝達方法として、暖かい風を吹き付けるとともに、天使のように澄んだ口調の音声を用いた方法が決定される。
コンテキストID2のコンテキストは、授業中にユーザが集中していないことを認識したことを条件として選択されるコンテキストである。
授業中であることは、例えば、コンテキスト情報に含まれる前方画像を解析し、授業中であることを表す特徴が検出されたときに認識される。また、ユーザが集中していないことは、例えば、コンテキスト情報に含まれるセンサデータが、集中していないときに現れる測定値を示している場合に認識される。授業中にユーザが集中していないことは、例えばユーザの周囲の環境とユーザの状況の認識結果である。
授業中にユーザが集中していないことを認識した場合、ユーザに伝達するアクションとして、「集中する」が決定される。また、「集中する」の伝達方法として、眠気覚ましの冷たい風を吹き付ける方法が決定される。
コンテキストID3のコンテキストは、相手が強そうであることを認識したことを条件として選択されるコンテキストである。
相手がいることは、例えば、コンテキスト情報に含まれる前方画像を解析し、相手と話していることを表す特徴が検出されたときに認識される。また、相手が強そうであることは、例えば、ユーザが見ている領域に写っている人の身長の高さ、または、腕の太さなどに基づいて認識される。相手が強そうであることは、例えばユーザの周囲の環境とユーザの周囲にいる他の人の状況の認識結果である。
相手が強そうであることを認識した場合、ユーザに伝達するアクションとして、「逃げる」が決定される。また、「逃げる」の伝達方法として、ロボットアーム部94で髪の毛を引っ張る方法が決定される。
図8のアクションデータベースにおいては、1つのコンテキストに対して、1つのアクションと伝達方法が対応付けて管理される。図8の例においては3つのアクション情報が示されているが、アクションデータベースには、さらに多くのアクション情報が登録される。
<3.情報処理システムの動作>
ここで、図2の情報処理システムの動作について説明する。図8に示すように、1つのコンテキストに対して、1つのアクションと伝達方法が対応付けて管理されているものとする。
はじめに、図9のフローチャートを参照して、ウェアラブルデバイス1の送信処理について説明する。
図9の処理は、ユーザがウェアラブルデバイス1を装着しているときに行われる。ユーザは、ウェアラブルデバイス1を装着し、街中を歩いたり、学校に行ったりして、日常の生活を送っているものとする。この間、前方撮影用カメラ21、視線検出用カメラ24による撮影と、センサ部62による測定が繰り返し行われる。
ステップS1において、コンテキスト情報生成部81は、前方撮影用カメラ21により撮影された前方画像、視線検出用カメラ24により撮影された画像、およびセンサ部62から供給されたセンサデータを取得する。
ステップS2において、コンテキスト情報生成部81は、撮影された画像とセンサデータに基づいてコンテキスト情報を生成する。
ステップS3において、コンテキスト情報生成部81は、生成したコンテキスト情報を制御サーバ2に送信し、処理を終了させる。以上の処理が、所定の周期で繰り返し行われる。
次に、図10のフローチャートを参照して、制御サーバ2の制御処理について説明する。
図10の処理は、図9の処理がウェアラブルデバイス1により行われ、ウェアラブルデバイス1からコンテキスト情報が送信されてきたときに開始される。
ステップS11において、コンテキスト認識部121は、ウェアラブルデバイス1から送信されてきたコンテキスト情報を受信し、取得する。
ステップS12において、コンテキスト認識部121は、取得したコンテキスト情報に基づいて、コンテキストの認識を行う。
ステップS13において、コンテキスト認識部121は、アクションデータベースに登録されている規定のコンテキストを認識したか否かを判定する。
規定のコンテキストを認識していないとステップS13において判定された場合、ステップS11に戻り、それ以降の処理が繰り返される。一方、規定のコンテキストが認識されたとステップS13において判定された場合、処理はステップS14に進む。
ステップS14において、アクション決定部122は、アクション情報記憶部113により管理されているアクションデータベースを参照し、コンテキスト認識部121により認識されたコンテキストに応じたアクションとその伝達方法を決定する。
ステップS15において、制御信号生成部123は、アクション決定部122により決定されたアクションと伝達方法を表す制御信号を生成する。アクション決定部122により決定された伝達方法は、コンテキストと、それに応じたアクションとに適した方法として、アクションデータベースにおいて管理されている方法である。
ステップS16において、制御信号生成部123は、制御信号をウェアラブルデバイス1に送信し、処理を終了させる。
次に、図11のフローチャートを参照して、ウェアラブルデバイス1のアクション伝達処理について説明する。
図11の処理は、図10の処理が制御サーバ2により行われ、制御サーバ2から制御信号が送信されてきたときに開始される。
ステップS31において、伝達制御部82は、制御サーバ2から送信されてきた制御信号を受信し、取得する。
ステップS32において、伝達制御部82は、制御信号に従って出力部64の各部を制御し、制御サーバ2により決定されたアクションを、制御サーバ2により決定された伝達方法でユーザに伝達し、処理を終了させる。
以上の一連の処理により、ユーザのコンテキストに応じたアクションを、周りの人に気付かれることなく、さりげなく伝えることが可能になる。
例えば、「ケーキがある」のコンテキストが認識された場合、制御サーバ2においては、コンテキストに応じたアクションとして、「食べるのを我慢する」が決定される。また、「ケーキがある」のコンテキストと「食べるのを我慢する」のアクションとに適した伝達方法として、暖かい風を吹き付けるとともに、天使のように澄んだ口調の音声を用いた方法が決定される。制御サーバ2からウェアラブルデバイス1に対しては、その内容を表す制御信号が送信される。
ウェアラブルデバイス1においては、制御信号に従って、送風部91と熱調整部92が制御され、暖かい風がユーザの顔などに吹き付けられる。また、スピーカ23が制御され、天使のように澄んだ口調の、「食べちゃだめですよ」などの音声が耳元に出力される。
例えばスーパーマーケットでの買い物中に、ケーキが陳列されている棚をユーザが見つけた場合、周りの人に気付かれない形で、「食べるのを我慢する」のアクションがユーザに伝達されることになる。
仮に、「食べるのを我慢する」のアクションを伝達するために、「食べちゃだめですよ」などの音声が周りの人にも聞こえるように出力された場合、ダイエット中であることが周りの人に知られてしまい、気まずい思いをユーザがしてしまう可能性がある。このように、アクションをさりげなく伝達することにより、気まずい思いをユーザに抱かせてしまうことを防ぐことが可能になる。
このような気まずい思いを抱かせることなく、「食べるのを我慢する」のアクションを伝達することは、愛のある伝え方といえるものである。
<<第2の実施の形態 2つの対極となるアクションの伝達>>
図1を参照して説明したように、対極となる2つのアクションを伝達する場合について説明する。上述した説明と重複する説明については適宜省略する。
図12は、アクション情報の他の例を示す図である。
図12の例においては、コンテキストID1,2,3の3つのコンテキストのそれぞれに対して、2つのアクションと伝達方法が対応付けて管理されている。
ケーキがあることを認識したことを条件として選択されるコンテキストID1のコンテキストには、「食べるのを我慢する」と「食べてしまう」の2つのアクションが対応付けられる。ケーキがあることを認識した場合、ユーザに伝達するアクションとして、対極となる「食べるのを我慢する」と「食べてしまう」の2つのアクションが決定される。
また、「食べるのを我慢する」の伝達方法として、暖かい風を吹き付けるとともに、天使のように澄んだ口調の音声を用いた方法が決定される。一方、「食べてしまう」の伝達方法として、冷たい風を吹き付けるとともに、悪魔のような口調の音声を用いた方法が決定される。口調の違いは、例えば、声の周波数、リズム、滑舌の程度、話し手の性別の違い(男性/女性)などにより表現される。
授業中にユーザが集中していないことを認識したことを条件として選択されるコンテキストID2のコンテキストには、「集中する」と「寝てしまう」の2つのアクションが対応付けられる。授業中にユーザが集中していないことを認識した場合、ユーザに伝達するアクションとして、対極となる「集中する」と「寝てしまう」の2つのアクションが決定される。
また、「集中する」の伝達方法として、眠気覚ましの冷たい風を吹き付ける方法が決定される。一方、「寝てしまう」の伝達方法として、暖かい風を吹き付ける方法が決定される。
相手が強そうであることを認識したことを条件として選択されるコンテキストID3のコンテキストには、「逃げる」と「立ち向かう」の2つのアクションが対応付けられる。相手が強そうであることを認識した場合、ユーザに伝達するアクションとして、対極となる「逃げる」と「立ち向かう」の2つのアクションが決定される。
また、「逃げる」の伝達方法として、ロボットアーム部94で髪の毛を引っ張る方法が決定される。一方、「立ち向かう」の伝達方法として、ロボットアーム部94で背中を押す方法が決定される。
このように、制御サーバ2においては、1つのコンテキストに対して、2つのアクションと、それぞれのアクションが対応付けて管理される。1つのコンテキストに対して、3つ以上のアクションと、それぞれのアクションの伝達方法が対応付けて管理されるようにしてもよい。
例えば「食べるのを我慢する」の伝達方法である、暖かい風を吹き付けるとともに、天使のように澄んだ口調の音声を用いた方法は、ダイエットという目標に沿ったアクションを後押しすることを表現するものであり、アクションに適した方法である。また、「食べてしまう」の伝達方法である、冷たい風を吹き付けるとともに、悪魔のような口調の音声を用いた方法は、目標の実現に反するアクションをそそのかすことを表現するものであり、アクションに適した方法である。
それぞれのアクションはコンテキストに応じて決定されるから、アクションデータベースにおいて管理される伝達方法は、コンテキストと、コンテキストに応じたアクションとに適した方法となる。
次に、図13のフローチャートを参照して、制御サーバ2の制御処理について説明する。
図13の処理は、図9の処理がウェアラブルデバイス1により行われ、ウェアラブルデバイス1からコンテキスト情報が送信されてきたときに開始される。
ステップS51において、コンテキスト認識部121は、ウェアラブルデバイス1から送信されてきたコンテキスト情報を受信し、取得する。
ステップS52において、コンテキスト認識部121は、取得したコンテキスト情報に基づいて、コンテキストの認識を行う。
ステップS53において、コンテキスト認識部121は、アクションデータベースに登録されている規定のコンテキストを認識したか否かを判定する。規定のコンテキストが認識されたとステップS53において判定された場合、処理はステップS54に進む。
ステップS54において、アクション決定部122は、アクション情報記憶部113により管理されているアクションデータベースを参照し、コンテキスト認識部121により認識されたコンテキストに応じた1番目のアクションとその伝達方法を決定する。対極となる2つのアクションのうち、一方のアクションと伝達方法が決定される。
ステップS55において、制御信号生成部123は、アクション決定部122により決定された1番目のアクションと伝達方法を表す制御信号を生成する。
ステップS56において、制御信号生成部123は、制御信号をウェアラブルデバイス1に対して送信する。
ステップS57において、アクション決定部122は、コンテキスト認識部121により認識されたコンテキストに応じた2番目のアクションとその伝達方法を決定する。対極となる2つのアクションのうち、他方のアクションと伝達方法が決定される。
ステップS58において、制御信号生成部123は、アクション決定部122により決定された2番目のアクションと伝達方法を表す制御信号を生成する。
ステップS59において、制御信号生成部123は、制御信号をウェアラブルデバイス1に対して送信する。
ステップS56とステップS59で送信された制御信号を受信したウェアラブルデバイス1においては、それぞれのタイミングで、図11を参照して説明した処理と同様の処理が行われ、対極となる2つのアクションがそれぞれユーザに伝えられる。
これにより、対極となる2つのアクションをさりげなく伝えるといった、愛のある伝え方が実現される。
図13の例においては、2つのアクションがそれぞれ異なる制御信号を用いてウェアラブルデバイス1に通知されるものとしたが、2つのアクションが1つの制御信号でまとめて通知されるようにしてもよい。
また、1つのコンテキストに対して2つのアクションが対応付けて管理されている場合に、いずれか一方のアクションが伝達されるようにしてもよい。
<<第3の実施の形態 ユーザの行動と逆のアクションの伝達>>
1つのコンテキストに対して2つのアクションが対応付けて管理されている場合において、ユーザがとろうとしているアクションと反対のアクションが伝達されるようにしてもよい。
例えば、「ケーキがある」のコンテキストに対しては「食べるのを我慢する」と「食べてしまう」のアクションが管理されているが、ユーザがケーキを食べるのを我慢していると予測された場合には、「食べてしまう」のアクションが伝達される。
一方、ユーザがケーキを食べようとしていると予測された場合には、「食べるのを我慢する」のアクションが伝達される。アクションを伝達する前に、現在のコンテキストに対してユーザがどのような行動をとろうとしているのかがモニタリングにより予測され、モニタリング結果に応じて、伝達するアクションが決定されることになる。
これにより、潜在的な気持ちに従うアクションをさりげなく提示して背中を押してあげるといった、愛のある伝え方が可能になる。
次に、図14のフローチャートを参照して、制御サーバ2の制御処理について説明する。
ステップS71において、コンテキスト認識部121は、ウェアラブルデバイス1から送信されてきたコンテキスト情報を受信し、取得する。
ステップS72において、コンテキスト認識部121は、取得したコンテキスト情報に基づいて、コンテキストの認識を行う。
ステップS73において、コンテキスト認識部121は、アクションデータベースに登録されている規定のコンテキストを認識したか否かを判定する。規定のコンテキストが認識されたとステップS73において判定された場合、処理はステップS74に進む。
ステップS74において、コンテキスト認識部121は、ウェアラブルデバイス1から順次送信されてくるコンテキスト情報に基づいて、ユーザの行動をモニタリングにより予測する。ウェアラブルデバイス1においては、コンテキスト情報の送信が繰り返し行われる。アクションを伝達する前であるから、ユーザは、自身の意志に従って、現在のコンテキストに応じた行動をとることになる。
ステップS75において、アクション決定部122は、コンテキスト認識部121により認識されたコンテキストに応じた2つのアクションのうち、1番目のアクションをユーザがとろうとしているか否かをモニタリング結果に基づいて判定する。
1番目のアクションをとろうとしているとステップS75において判定した場合、ステップS76において、アクション決定部122は、ユーザに伝達するアクションとして、2番目のアクションを決定する。現在のコンテキストに応じたアクションとしてアクションデータベースにおいて管理されている2つのアクションのうち、ユーザがとろうとしている一方のアクションとは異なる他方のアクションが決定されることになる。また、アクション決定部122は、アクションデータベースを参照し、2番目のアクションの伝達方法を決定する。
ステップS77において、制御信号生成部123は、アクション決定部122により決定された2番目のアクションと伝達方法を表す制御信号を生成する。
ステップS78において、制御信号生成部123は、制御信号をウェアラブルデバイス1に対して送信する。
一方、ステップS75において、1番目のアクションではなく、2番目のアクションをとろうとしていると判定された場合、処理はステップS79に進む。
ステップS79において、アクション決定部122は、ユーザに伝達するアクションとして、1番目のアクションを決定する。ここでも、現在のコンテキストに応じたアクションとしてアクションデータベースにおいて管理されている2つのアクションのうち、ユーザがとろうとしている一方のアクションとは異なる他方のアクションが決定される。また、アクション決定部122は、アクションデータベースを参照し、1番目のアクションの伝達方法を決定する。
ステップS80において、制御信号生成部123は、アクション決定部122により決定された1番目のアクションと伝達方法を表す制御信号を生成する。ここで生成された制御信号は、ステップS78において、ウェアラブルデバイス1に対して送信される。
ウェアラブルデバイス1においては、図11を参照して説明した処理と同様の処理が行われ、現在のコンテキストに応じたアクションとして、ユーザがとろうとしているアクションと反対のアクションが伝えられる。
以上の処理により、ケーキがあることが認識された場合、ユーザがケーキを食べるのを我慢しているときには、「食べてしまう」のアクションが決定され、暖かい風と天使のように澄んだ口調の音声を用いて、そのアクションが伝えられる。反対に、ユーザがケーキを食べようとしているときには、「食べるのを我慢する」のアクションが決定され、冷たい風と悪魔のような口調の音声を用いて、そのアクションが伝えられる。
また、授業中にユーザが集中していないことが認識された場合、ユーザが集中しようとしているときには、「寝てしまう」のアクションが決定され、暖かい風を用いて、そのアクションが伝えられる。反対に、ユーザが寝ようとしているときには、「集中する」のアクションが決定され、冷たい風を用いて、そのアクションが伝えられる。
相手が強そうであることが認識された場合、ユーザが逃げようとしているときには、「立ち向かう」のアクションが決定され、ロボットアーム部94で背中を押すことにより、そのアクションが伝えられる。反対に、ユーザが立ち向かおうとしているときには、「逃げる」のアクションが決定され、ロボットアーム部94で髪を引くことにより、そのアクションが伝えられる。
これによっても、対極となる2つのアクションをさりげなく伝えるといった、愛のある伝え方が実現される。
<<第4の実施の形態 伝達するアクションの決定方法>>
ウェアラブルデバイス1により生成されたコンテキスト情報に基づいてアクションが決定されるものとしたが、ユーザに伝達するアクションの決定方法は他の方法であってもよい。他の方法で決定されたアクションも、上述したような各種の方法を用いてさりげなく伝達される。
図15は、アクション情報の例を示す図である。
コンテキストID4のコンテキストは、電子メールの送信者が怒っていることを、電子メールの開封前(ユーザの閲覧前)に認識したことを条件として選択されるコンテキストである。
この例においては、ウェアラブルデバイス1のユーザ宛の電子メールに含まれるメッセージから、送信者の感情や状況が認識され、認識結果に応じたアクションが決定される。送信者の感情や状況は、ユーザの周囲にいる他の人の感情、ユーザの周囲にいる他の人の状況であり、上述したコンテキストに含まれる。
ウェアラブルデバイス1のユーザ宛の電子メールが制御サーバ2により取得され、その内容が解析されることになる。制御サーバ2においては、送信者の感情や状況を表すキーワード(ネガティブワード/ポジティブワード)などの認識用の情報が管理されている。制御サーバ2は、ウェアラブルデバイス1のユーザ宛の電子メールを受信した場合、自然言語処理を行うことによってキーワードを抽出し、それらの頻度に基づいて、送信者の感情や状況の認識を行う。
電子メールの送信者が怒っていることを認識した場合、ユーザに伝達するアクションとして、「すぐに返事をする」が決定される。また、「すぐに返事をする」の伝達方法として、規定のパターンの振動を発生させるとともに、震えるような口調の音声を用いた方法が決定される。
このように、ウェアラブルデバイス1により生成されたコンテキスト情報を用いた方法と異なる方法でユーザのコンテキストを決定することも可能である。
なお、ウェアラブルデバイス1のユーザ宛てのメッセージとして、電子メールに含まれるメッセージだけでなく、SNS(Social Networking Service)のメッセージなどを用いてコンテキストの認識が行われるようにしてもよい。
次に、図16のフローチャートを参照して、制御サーバ2の制御処理について説明する。
ステップS91において、コンテキスト認識部121は、ウェアラブルデバイス1のユーザ宛ての電子メールを受信し、取得する。ウェアラブルデバイス1のユーザ宛ての電子メールは、ユーザが電子メールの送受信に普段から使用している装置から取得されるようにしてもよいし、ユーザが使用しているメールサーバから取得されるようにしてもよい。
ステップS92において、コンテキスト認識部121は、取得した電子メールの内容を解析し、コンテキストの認識を行う。
ステップS93において、コンテキスト認識部121は、電子メールの送信者が怒っているなどの、アクションデータベースに登録されている規定のコンテキストを認識したか否かを判定する。
規定のコンテキストを認識していないとステップS93において判定された場合、ステップS91に戻り、それ以降の処理が繰り返される。一方、規定のコンテキストが認識されたとステップS93において判定された場合、処理はステップS94に進む。
ステップS94において、アクション決定部122は、アクション情報記憶部113により管理されているアクションデータベースを参照し、規定のコンテキストに適したアクションとその伝達方法を決定する。「電子メールの送信者が怒っている」ことが認識された場合、「すぐに返事をする」のアクションと、振動と震えるような口調の音声を用いた伝達方法が決定される。
ステップS95において、制御信号生成部123は、アクション決定部122により決定されたアクションと伝達方法を表す制御信号を生成する。
ステップS96において、制御信号生成部123は、制御信号をウェアラブルデバイス1に対して送信する。
制御信号を受信したウェアラブルデバイス1においては、図11を参照して説明した処理と同様の処理が行われ、「すぐに返事をする」ことがユーザに伝達される。
これにより、ウェアラブルデバイス1のユーザは、電子メールの内容を確認する前に、現在のコンテキストに適したアクションとして「すぐに返事をする」必要があることを確認することができる。
<<変形例>>
<1.アクションの例>
認識可能なものとして上述したアクションは一例である。コンテキスト情報に基づいて他のアクションが認識されるようにすることも可能である。
図17は、アクション情報の例を示す図である。
図17の例においては、コンテキストID5のコンテキストに対して1つのアクションと伝達方法が対応付けて管理されている。また、コンテキストID6のコンテキストに対して2つのアクションとそれぞれのアクションの伝達方法が対応付けて管理されている。
コンテキストID5のコンテキストは、商品を見ている客に購入意欲がないことを認識したことを条件として選択されるコンテキストである。コンテキストID5のコンテキストは、例えば、ウェアラブルデバイス1のユーザが商品の販売員であり、店舗において接客を行っている場合に認識可能とされる。
客に購入意欲がないことは、コンテキスト情報に含まれる前方画像を解析することによって認識される。例えば、ウェアラブルデバイス1のユーザが見ている人を客として、その客の顔の向き、視線の動き、または表情が、購入意欲がない場合に現れる特有のパターン(特徴)を示している場合、購入意欲がないとして認識される。商品を見ている客に購入意欲がないことは、例えばユーザの周囲の環境とユーザの周囲にいる他の人の状況の認識結果である。
商品を見ている客に購入意欲がないことを認識した場合、販売員であるユーザに伝達するアクションとして、「他の客を接客する」が決定される。また、「他の客を接客する」の伝達方法として、冷静な口調の音声を用いた方法が決定される。
コンテキストID6のコンテキストは、ユーザがジョギングで疲れていることを認識したことを条件として選択されるコンテキストである。
ジョギングを行っていることは、例えば、コンテキスト情報に含まれるセンサデータにより表される振動が、ジョギング中に現れる特有のパターンを示している場合に認識される。また、ユーザが疲れていることは、例えば、コンテキスト情報に含まれるセンサデータにより表されるユーザの心拍数が、疲れている場合に現れる特有のパターンを示している場合に認識される。ユーザがジョギングで疲れていることは、例えばユーザの状況の認識結果である。
ユーザがジョギングで疲れていることを認識した場合、ユーザに伝達するアクションとして、対極となる「もう少し頑張る」と「休憩をとる」の2つのアクションが決定される。
また、「もう少し頑張る」の伝達方法として、ロボットアーム部94で背中をたたくとともに、強い口調の男性の音声を用いた方法が決定される。一方、「休憩をとる」の伝達方法として、ロボットアーム部94で背中をさするとともに、優しい口調の女性の音声を用いた方法が決定される。
このように、制御サーバ2において、各種のアクションが認識されるようにすることが可能である。
コンテキストとアクションの関係が固定ではなく、あるコンテキストが認識されたとき、複数種類のアクションの中から1つのアクションがランダムに決定され、伝達されるようにしてもよい。
この場合、ランダムに決定されたアクションをユーザが評価することができるようにしてもよい。アクションの評価は、例えば、ウェアラブルデバイス1の装着時に耳たぶの近くにある操作部33を操作して行われる。ユーザにより入力されたアクションの評価は、優先順位の変更等、次に同じコンテキストが認識されたときのアクションの決定に用いられる。
各アクションの伝達方法も、適宜変更可能である。例えば、風を用いた方法により伝達するとしたアクションを、振動を用いた方法、音声を用いた方法、または、ロボットアーム部94を用いた方法によって伝達するようにしてもよい。このように、アクションの伝達に用いる方法は変更可能であるし、その組み合わせも変更可能である。
また、臭いを用いた方法、水を用いた方法、熱を用いた方法などのように、五感に刺激を与えることが可能な各種の方法を用いてアクションの伝達を行うようにすることが可能である。映像やテキストを投射部25により投影することによって、アクションの伝達が行われるようにしてもよい。
<2.情報処理システムの他の構成例>
図18は、情報処理システムとしてのウェアラブルデバイス1の構成例を示す図である。図6、図7を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図18の例においては、制御サーバ2が有するものとして説明した各機能がウェアラブルデバイス1に搭載される。すなわち、制御部61においては、CPUにより所定のプログラムが実行されることによって、コンテキスト情報生成部81と伝達制御部82に加えて、コンテキスト認識部121、アクション決定部122、および制御信号生成部123が実現される。
制御部61のコンテキスト認識部121は、コンテキスト情報生成部81により生成されたコンテキスト情報を取得し、ユーザのコンテキストを認識する。
アクション決定部122は、コンテキスト認識部121により認識されたコンテキストに応じたアクションとその伝達方法を、記憶部63に構成されたアクション情報記憶部113により管理されているアクションデータベースを参照して決定する。
制御信号生成部123は、アクション決定部122により決定されたアクションと伝達方法を表す制御信号を生成する。制御信号生成部123により生成された制御信号は伝達制御部82に供給され、各部の駆動に用いられる。
図18の構成を有するウェアラブルデバイス1においては、制御サーバ2が行うものとして説明した、コンテキストの認識、コンテキストに応じたアクションの決定、伝達方法の決定を含む各処理が行われる。このように、制御サーバ2の機能のうちの少なくとも一部がウェアラブルデバイス1において実現されるようにすることが可能である。
<3.ウェアラブルデバイスの外観例>
・耳掛け型
図19は、ウェアラブルデバイス1の外観を示す図である。図19において、各部を示す符号は省略している。図20乃至図23においても同様である。図19のAはウェアラブルデバイス1の正面を示し、図19のBはウェアラブルデバイス1の背面を示す。
図20は、ウェアラブルデバイス1の外観を示す他の図である。図20のAはウェアラブルデバイス1の左側面を示し、図20のBはウェアラブルデバイス1の右側面を示す。
図21は、ウェアラブルデバイス1の外観を示すさらに他の図である。図21のAはウェアラブルデバイス1の平面を示し、図21のBはウェアラブルデバイス1の底面を示す。
図22は、ウェアラブルデバイス1の外観を示す斜視図である。図23は、ウェアラブルデバイス1の装着状態を示す図である。ウェアラブルデバイス1は、耳掛け部11Aの開口11aに左耳を通すようにして装着される。
ウェアラブルデバイス1は、上述した行動支援機能の他に、網膜直接投射式による情報の提示機能、音声を含む音の再生機能、前方撮影用カメラ21による前方の撮影機能、視線検出用カメラ24により撮影された画像に基づく視線検出機能などを有する。
・肩乗せ型
以上においては、ユーザの行動支援を行うウェアラブルデバイスが耳掛け型のデバイスであるものとしたが、ウェアラブルデバイスの形態は任意である。
図24は、他のウェアラブルデバイスの装着例を示す図である。
図24に示すウェアラブルデバイス201は、肩乗せ型のエージェント機器である。ウェアラブルデバイス201は、ウェアラブルデバイス1と同様にして、装着者であるユーザに対して行動支援を行う。
図25は、ウェアラブルデバイス201の外観の例を示す図である。
ウェアラブルデバイス201は、平面視略楕円形であり、扁平ドーム形状の筐体211を有している。筐体211の少なくとも一部は弾性のある素材により構成される。筐体211は可撓性を有しており、ユーザが上面から力を加えることにより、または自重により撓み、図26に示すように変形してユーザの肩上で安定する。変形可能な素材を用いた機器については特開2013−89219号に開示されており、これと同様の機構を筐体211に採用することができる。
筐体211の上面は緩やかな円弧面状を有している。筐体211の上面中央には、平面視略楕円形のディスプレイ221が形成される。
ディスプレイ221の正面側の周縁部には、3つの小円形が並べて配置される。中央の小円形はマイクロフォン224を構成し、左右の小円形はスピーカ225を構成する。
筐体211の正面には、正面視において横長楕円形の区画221Aが形成される。区画221Aの内側には、ステレオカメラを構成するカメラ222−1,222−2と、プロジェクタ223が設けられる。
図27は、ウェアラブルデバイス201の外観の他の例を示す図である。
図27の例においては、ディスプレイ221の右側面側の周縁部に取り付け部231が設けられる。取り付け部231に対しては、アクションの伝達に用いられる小型のロボットアームが着脱可能となっている。また、ディスプレイ221の正面側の周縁部には、アクションの伝達に用いられる風の排出口となる排出口232が設けられる。
図27のウェアラブルデバイス201は、ウェアラブルデバイス1と同様に、風を用いた方法、振動を用いた方法、音声を用いた方法、およびロボットアームを用いた方法を適宜組み合わせてアクションを伝達する。ウェアラブルデバイス201も、図6または図18を参照して説明した構成と同じ構成を有する。
このように、風等を用いてアクションをさりげなく伝達することを、肩乗せ型のウェアラブルデバイス201に行わせることも可能である。肩乗せ型のウェアラブルデバイス201によれば、耳や首筋に近い位置から、各種のアクションを伝達することが可能となる。
ウェアラブルデバイス201が、肩近傍で動くことができるようにしてもよい。この場合、ユーザは、磁性のある素材のパッドを肩に装着する。ウェアラブルデバイス201は、磁力を発生することによってパッドの範囲で移動し、それにより、各種のアクションを伝達する。ウェアラブルデバイス201が、飛行機能を有しているようにしてもよい。
図28は、ウェアラブルデバイス201の外観を示す図である。図28において、各部を示す符号は省略している。図29乃至図31においても同様である。図28のAはウェアラブルデバイス201の正面を示し、図28のBはウェアラブルデバイス201の背面を示す。
図29は、ウェアラブルデバイス201の外観を示す他の図である。図29のAはウェアラブルデバイス201の左側面を示し、図29のBはウェアラブルデバイス201の右側面を示す。筐体211は、側面視において、緩やかな弧状に形成されている。
図30は、ウェアラブルデバイス201の外観を示すさらに他の図である。図30のAはウェアラブルデバイス201の平面を示し、図30のBはウェアラブルデバイス201の底面を示す。
図31は、ウェアラブルデバイス201の外観を示す斜視図である。図31において、薄墨着色部分は透明部分を示している。区画211Aとディスプレイ221の部分には透明のカバーが嵌め込まれる。
ウェアラブルデバイス201は、行動支援機能の他に、ディスプレイ221やプロジェクタ223による情報の提示機能、音声を含む音の再生機能、カメラ222−1,222−2による前方の撮影機能などを有する。
・首掛け型
図32は、首掛け型のウェアラブルデバイスであるウェアラブルデバイス301の外観の構成例を示す図である。
ウェアラブルデバイス301も、ウェアラブルデバイス1と同様にして、装着者であるユーザに対して行動支援を行うエージェント機器である。
図32に示すように、ウェアラブルデバイス301は、全体的に、正面視において略C型の外観形状を有する。ウェアラブルデバイス301は、薄い板状部材を湾曲させてなるバンド部311の左右の先端寄りの内側に、それぞれ、右側ユニット312と左側ユニット313が設けられることによって構成される。
図32の左側に示す右側ユニット312は、バンド部311の厚みより正面視において太幅の筐体を有しており、バンド部311の内側の面から膨出するように形成される。
一方、右側に示す左側ユニット313は、バンド部311前方の開口を挟んで、右側ユニット312と略対称となる形状を有する。左側ユニット313は、右側ユニット312と同様に、バンド部311の厚みより正面視において太幅の筐体を有しており、バンド部311の内側の面から膨出するように形成される。
このような外観を有するウェアラブルデバイス301は、首に掛けて装着される。装着時、バンド部311の最奥部の内側がユーザの首の後ろに当たり、ウェアラブルデバイス301は前傾した姿勢になる。ユーザから見て、右側ユニット312はユーザの首元の右側に位置し、左側ユニット313はユーザの首元の左側に位置することになる。
ウェアラブルデバイス301は、上述した行動支援機能の他に、撮影機能、音楽再生機能、無線通信機能、センシング機能などを有している。
ユーザは、ウェアラブルデバイス301を装着した状態で右側ユニット312に設けられたボタンを例えば右手で操作し、左側ユニット313に設けられたボタンを例えば左手で操作することで、それらの機能を実行させることができる。また、ウェアラブルデバイス301には音声認識機能も搭載されている。ユーザは、発話によってウェアラブルデバイス301を操作することもできる。
ウェアラブルデバイス301の音楽再生機能によって右側ユニット312に設けられたスピーカから出力された音楽は主にユーザの右耳に届き、左側ユニット313に設けられたスピーカから出力された音楽は主にユーザの左耳に届く。
ユーザは、ウェアラブルデバイス301を装着し、音楽を聴きながら、ランニングをしたり自転車に乗ったりすることができる。音楽ではなく、ネットワークを介して取得されたニュースなどの各種の情報の音声が出力されるようにしてもよい。
このように、ウェアラブルデバイス301は、軽度な運動中に利用されることを想定したデバイスである。イヤホンなどを装着して耳を塞ぐわけではないから、ユーザは、スピーカから出力される音楽とともに周囲の音を聴くことができる。
右側ユニット312と左側ユニット313の先端には円弧面状となる曲面が形成される。右側ユニット312の先端には、上面前方寄りの位置から先端の曲面の上方寄りの位置にかけて略縦長長方形の開口部312Aが形成される。開口部312Aは左上隅を凹ませた形状を有しており、その凹ませた位置にはLED(Light Emitting Diode)322が設けられる。
開口部312Aには、アクリルなどよりなる透明のカバー321が嵌め込まれる。カバー321の表面は、左側ユニット313の先端の曲面と略同一の曲率の曲面を形成する。カバー321の奥には、右側ユニット312の内部に設けられたカメラモジュールのレンズ331が配置される。カメラモジュールの撮影方向は、ウェアラブルデバイス301を装着しているユーザから見て、ユーザの前方となる。
ユーザは、ウェアラブルデバイス301を装着し、上述したように音楽を聴いてランニングをしたり自転車に乗ったりしながら、前方の風景を動画や静止画として撮影することができる。また、ユーザは、そのような撮影を、音声コマンドによってハンズフリーで行うことができる。
図33および図34は、ウェアラブルデバイス301の外観を示す図である。
図33の中央に正面視のウェアラブルデバイス301の外観を示す。図33に示すように、ウェアラブルデバイス301の左側面にはスピーカ穴341が形成され、右側面にはスピーカ穴342が形成される。
図34に示すように、右側ユニット312の背面には電源ボタン351とUSB端子352が設けられる。USB端子352には例えば樹脂製のカバーが被せられる。
左側ユニット313の背面には、各種の設定を行うときに操作されるカスタムボタン353と、音量を調整するときに操作される音量ボタン354が設けられる。
また、左側ユニット313の内側の先端近傍には、図35に示すようにアシストボタン361が設けられる。アシストボタン361には、動画の撮影終了などの所定の機能が割り当てられる。
このように、行動支援を行うウェアラブルデバイスの形態は変更可能である。腕時計型のウェアラブルデバイス、指輪型のウェアラブルデバイスにより上述した行動支援が行われるようにしてもよい。また、体に装着して保有するデバイスではなく、手に携帯して保有する、携帯電話機などのデバイスにも上述した技術を適用可能である。
<4.コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図36は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<5.構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得する取得部と、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定する制御部と
を備える情報処理システム。
(2)
前記制御部は、前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する
前記(1)に記載の情報処理システム。
(3)
1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションが登録されるデータベースを記憶する記憶部をさらに備える
前記(2)に記載の情報処理システム。
(4)
前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちのいずれかを決定し、
前記コンテキストと、前記第1のアクションと前記第2のアクションのうちのいずれかと、に適した前記伝達方法を決定し、
前記第1のアクションと前記第2のアクションのうちのいずれかを、決定した前記伝達方法で前記ユーザに伝達する
前記(3)に記載の情報処理システム。
(5)
前記データベースには、1つの前記コンテキストと対応付けて、対極の内容の前記第1のアクションと前記第2のアクションが登録され、
前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
前記コンテキストに応じた前記アクションとして、前記第1のアクションと、その対極の内容の前記第2のアクションとを決定し、
前記第1のアクションと前記第2のアクションのそれぞれの前記伝達方法を決定し、
前記第1のアクションと前記第2のアクションのそれぞれを、決定したそれぞれの前記伝達方法で前記ユーザに伝達する
前記(3)に記載の情報処理システム。
(6)
前記制御部は、
前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した後に取得された前記コンテキスト情報に基づいて、前記ユーザの行動を予測し、
前記ユーザの行動の予測結果に応じて、前記コンテキストに対応付けられた前記第1のアクションと前記第2のアクションのうちのいずれかを選択し、
前記コンテキストと選択した前記アクションに適した前記伝達方法を決定する
前記(3)に記載の情報処理システム。
(7)
前記デバイスより送信された前記コンテキスト情報を受信する通信部をさらに備え、
前記制御部は、前記通信部を制御し、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する
前記(1)乃至(6)のいずれかに記載の情報処理システム。
(8)
前記制御部は、前記ユーザ宛のメッセージの内容を解析し、その解析結果に応じて、前記ユーザの前記コンテキストを認識する
前記(1)に記載の情報処理システム。
(9)
前記伝達方法は、風を用いた方法、振動を用いた方法、音声を用いた方法、前記デバイスに設けられたロボットアームの駆動を用いた方法のうちの少なくともいずれかを用いた方法である
前記(1)乃至(8)のいずれかに記載の情報処理システム。
(10)
前記風を用いた方法は、伝達する前記アクションに応じた温度の風を送ることにより伝達する方法である
前記(9)に記載の情報処理システム。
(11)
前記振動を用いた方法は、伝達する前記アクションに応じたパターンで振動することにより伝達する方法である
前記(9)に記載の情報処理システム。
(12)
前記音声を用いた方法は、伝達する前記アクションに応じた調子の音声で伝達する方法である
前記(9)に記載の情報処理システム。
(13)
前記ロボットアームの駆動を用いた方法は、前記デバイスを装着する前記ユーザの髪を引く、または、背中を押すことにより伝達する方法である
前記(9)に記載の情報処理システム。
(14)
前記デバイスは、耳に掛けることで装着される機器であり、
前記デバイスに形成される耳掛け部の少なくとも一部は、前記ユーザの体温に応じて変形する素材により構成される
前記(1)乃至(13)のうちのいずれかに記載の情報処理システム。
(15)
前記デバイスは、前記ユーザの肩に乗せることで装着される機器であり、
前記デバイスの筐体の少なくとも一部は、可撓性を有し、変形可能な素材により構成される
前記(1)乃至(13)のうちのいずれかに記載の情報処理システム。
(16)
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定する
ステップを含む処理をコンピュータに実行させるプログラムが記録された記録媒体。
(17)
デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
前記コンテキストに応じたアクションを決定し、
前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定する
ステップを含む情報処理方法。
(18)
デバイスより送信された、前記デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を受信する通信部と、
前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記通信部を制御して、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する制御部と
を備える制御サーバと、
前記コンテキスト情報を生成し、前記制御サーバに送信する生成部と、
前記制御サーバから送信されてきた前記制御信号を受信する通信部と、
前記アクションを前記ユーザに伝える出力部と、
前記制御信号に従って前記出力部を制御し、前記アクションを前記伝達方法で前記ユーザに伝達させる制御部と
を備える前記デバイスと
からなる情報処理システム。
1 ウェアラブルデバイス, 2 制御サーバ, 23 スピーカ, 25 投射部, 61 制御部, 91 送風部, 92 熱調整部, 93 振動部, 94 ロボットアーム部, 81 コンテキスト情報生成部, 82 伝達制御部, 111 制御部, 113 アクション情報記憶部, 121 コンテキスト認識部, 122 アクション決定部, 123 制御信号生成部

Claims (16)

  1. デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得する取得部と、
    前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する制御部と
    1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部と
    を備え
    前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
    前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
    前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
    前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
    情報処理システム。
  2. 前記データベースには、1つの前記コンテキストと対応付けて、対極の内容の前記第1のアクションと前記第2のアクションが登録され、
    前記制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
    前記コンテキストに応じた前記アクションとして、前記第1のアクションと、その対極の内容の前記第2のアクションとを決定し、
    前記第1のアクションと前記第2のアクションのそれぞれの前記第1の伝達方法と前記第2の伝達方法を決定し、
    前記第1のアクションと前記第2のアクションのそれぞれを、決定したそれぞれの前記第1の伝達方法と前記第2の伝達方法で前記ユーザに伝達する
    請求項に記載の情報処理システム。
  3. 前記制御部は、
    前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した後に取得された前記コンテキスト情報に基づいて、前記ユーザの行動を予測し、
    前記ユーザの行動の予測結果に応じて、前記コンテキストに対応付けられた前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを選択し、
    前記コンテキストと選択した前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定する
    請求項に記載の情報処理システム。
  4. 前記デバイスより送信された前記コンテキスト情報を受信する通信部をさらに備え、
    前記制御部は、前記通信部を制御し、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する
    請求項1乃至のいずれかに記載の情報処理システム。
  5. 前記制御部は、前記ユーザ宛のメッセージの内容を解析し、その解析結果に応じて、前記ユーザの前記コンテキストを認識する
    請求項1に記載の情報処理システム。
  6. 前記伝達方法は、風を用いた方法、振動を用いた方法、音声を用いた方法、前記デバイスに設けられたロボットアームの駆動を用いた方法のうちの少なくともいずれかを用いた方法である
    請求項1乃至のいずれかに記載の情報処理システム。
  7. 前記風を用いた方法は、伝達する前記アクションに応じた温度の風を送ることにより伝達する方法である
    請求項に記載の情報処理システム。
  8. 前記振動を用いた方法は、伝達する前記アクションに応じたパターンで振動することにより伝達する方法である
    請求項に記載の情報処理システム。
  9. 前記音声を用いた方法は、伝達する前記アクションに応じた調子の音声で伝達する方法である
    請求項に記載の情報処理システム。
  10. 前記ロボットアームの駆動を用いた方法は、前記デバイスを装着する前記ユーザの髪を引く、または、背中を押すことにより伝達する方法である
    請求項に記載の情報処理システム。
  11. 前記デバイスは、耳に掛けることで装着される機器であり、
    前記デバイスに形成される耳掛け部の少なくとも一部は、前記ユーザの体温に応じて変形する素材により構成される
    請求項1乃至10のうちのいずれかに記載の情報処理システム。
  12. 前記デバイスは、前記ユーザの肩に乗せることで装着される機器であり、
    前記デバイスの筐体の少なくとも一部は、可撓性を有し、変形可能な素材により構成される
    請求項1乃至10のうちのいずれかに記載の情報処理システム。
  13. デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
    前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
    前記コンテキストに応じたアクションを決定し、
    前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、
    前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する
    ステップを含み、
    1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部の記憶を制御し、
    前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
    前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
    前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
    前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
    ステップをさらに含む処理をコンピュータに実行させるプログラムが記録された記録媒体。
  14. デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
    前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
    前記コンテキストに応じたアクションを決定し、
    前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、
    前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達する
    ステップを含み、
    1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部の記憶を制御し、
    前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
    前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
    前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
    前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
    ステップをさらに含む情報処理方法。
  15. デバイスより送信された、前記デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を受信する第1の通信部と、
    前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、前記コンテキストに応じたアクションを決定し、前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、前記第1の通信部を制御して、前記コンテキストに応じた前記アクションを前記伝達方法で前記ユーザに伝えることを表す制御信号を前記デバイスに送信する第1の制御部と、1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶部と
    を備え
    前記第1の制御部は、前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定する
    制御サーバと、
    前記コンテキスト情報を生成し、前記制御サーバに送信する生成部と、
    前記制御サーバから送信されてきた前記制御信号を受信する第2の通信部と、
    前記アクションを前記ユーザに伝える出力部と、
    前記制御信号に従って前記出力部を制御し、前記第1のアクションと前記第2のアクションのうちの少なくともいずれか、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達させる第2の制御部と
    を備える前記デバイスと
    からなる情報処理システム。
  16. コンピュータに、
    デバイスを保有しているユーザの周囲の環境、前記ユーザの感情、前記ユーザの状況、前記ユーザの周囲にいる他の人の感情、前記他の人の状況のうちの少なくともいずれかを表すコンテキスト情報を取得し、
    前記ユーザのコンテキストを前記コンテキスト情報に基づいて認識し、
    前記コンテキストに応じたアクションを決定し、
    前記コンテキストと前記アクションに適した、前記ユーザに対する前記アクションの伝達方法を決定し、
    前記コンテキストに応じた前記アクションを、決定した前記伝達方法で前記ユーザに伝達し、
    1つの前記コンテキストと対応付けて、第1のアクションと第2のアクションを含む複数のアクションと、前記第1のアクションに対応した第1の伝達方法と前記第2のアクションに対応した第2の伝達方法を含む複数の伝達方法とが登録されるデータベースを記憶する記憶する記憶部の記憶を制御し、
    前記ユーザの前記コンテキストを前記コンテキスト情報に基づいて認識した場合、
    前記コンテキストに応じた前記アクションとして、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを決定し、
    前記コンテキストと、前記第1のアクションと前記第2のアクションのうちの少なくともいずれかと、に適した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかを決定し、
    前記第1のアクションと前記第2のアクションのうちの少なくともいずれかを、決定した前記第1の伝達方法と前記第2の伝達方法のうちの少なくともいずれかで前記ユーザに伝達する
    処理を実行させるためのプログラム。
JP2018529763A 2016-07-27 2017-07-13 情報処理システム、記録媒体、情報処理方法、およびプログラム Active JP6969554B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016147021 2016-07-27
JP2016147021 2016-07-27
PCT/JP2017/025500 WO2018021040A1 (ja) 2016-07-27 2017-07-13 情報処理システム、記録媒体、および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2018021040A1 JPWO2018021040A1 (ja) 2019-05-09
JP6969554B2 true JP6969554B2 (ja) 2021-11-24

Family

ID=61015917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018529763A Active JP6969554B2 (ja) 2016-07-27 2017-07-13 情報処理システム、記録媒体、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US10796556B2 (ja)
EP (1) EP3493031A4 (ja)
JP (1) JP6969554B2 (ja)
CN (1) CN109478100B (ja)
WO (1) WO2018021040A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105814516B (zh) * 2013-10-11 2019-07-30 交互数字专利控股公司 注视驱动的增强现实
CN109478100B (zh) * 2016-07-27 2022-06-14 索尼公司 信息处理系统、记录介质以及信息处理方法
JPWO2020111227A1 (ja) * 2018-11-30 2021-11-04 本田技研工業株式会社 電子機器
JP7263957B2 (ja) * 2019-07-19 2023-04-25 株式会社Jvcケンウッド 情報装置、自動設定方法及び自動設定プログラム
USD954969S1 (en) * 2019-12-13 2022-06-14 Sony Group Corporation Biological information measuring machine
US11501255B2 (en) 2020-05-01 2022-11-15 Monday.com Ltd. Digital processing systems and methods for virtual file-based electronic white board in collaborative work systems
WO2022014023A1 (ja) * 2020-07-16 2022-01-20 日本電信電話株式会社 機器、方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5725472A (en) 1995-12-18 1998-03-10 Weathers; Lawrence R. Psychotherapy apparatus and method for the inputting and shaping new emotional physiological and cognitive response patterns in patients
US6842877B2 (en) * 1998-12-18 2005-01-11 Tangis Corporation Contextual responses based on automated learning techniques
JP2001344352A (ja) * 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
JP2009110308A (ja) * 2007-10-30 2009-05-21 Nec Corp 緊張度解析装置、方法、プログラム及び携帯電話機
US9003447B2 (en) * 2008-12-31 2015-04-07 Google Technology Holdings LLC System and method for customizing communication in a social television framework
US9575776B2 (en) * 2010-12-30 2017-02-21 Samsung Electrônica da Amazônia Ltda. System for organizing and guiding a user in the experience of browsing different applications based on contexts
JP2012160173A (ja) 2011-01-13 2012-08-23 Nikon Corp 電子機器および電子機器の制御プログラム
US20160270717A1 (en) * 2011-06-10 2016-09-22 Aliphcom Monitoring and feedback of physiological and physical characteristics using wearable devices
US9024749B2 (en) * 2011-12-20 2015-05-05 Chris Ratajczyk Tactile and visual alert device triggered by received wireless signals
US9304621B1 (en) * 2012-05-25 2016-04-05 Amazon Technologies, Inc. Communication via pressure input
US20140129243A1 (en) * 2012-11-08 2014-05-08 Aliphcom General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
US20140247155A1 (en) * 2013-03-04 2014-09-04 Hello Inc. Methods using a mobile device to monitor an individual's activities, behaviors, habits or health parameters
KR20150037251A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 착용형 컴퓨팅 디바이스 및 사용자 인터페이스 방법
US10102769B2 (en) 2015-03-31 2018-10-16 Koninklijke Philips N.V. Device, system and method for providing feedback to a user relating to a behavior of the user
US20160363957A1 (en) * 2015-06-09 2016-12-15 Christian Stroetmann Wearable computer with electronic strap and attachment therefor
CN109478100B (zh) * 2016-07-27 2022-06-14 索尼公司 信息处理系统、记录介质以及信息处理方法

Also Published As

Publication number Publication date
US20190228639A1 (en) 2019-07-25
US10796556B2 (en) 2020-10-06
EP3493031A1 (en) 2019-06-05
JPWO2018021040A1 (ja) 2019-05-09
CN109478100A (zh) 2019-03-15
WO2018021040A1 (ja) 2018-02-01
US11308787B2 (en) 2022-04-19
US20200388142A1 (en) 2020-12-10
EP3493031A4 (en) 2019-08-14
CN109478100B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
JP6969554B2 (ja) 情報処理システム、記録媒体、情報処理方法、およびプログラム
US11785395B2 (en) Hearing aid with voice recognition
US20220021985A1 (en) Selectively conditioning audio signals based on an audioprint of an object
US20230045237A1 (en) Wearable apparatus for active substitution
CN109032384A (zh) 音乐播放控制方法、装置及存储介质和穿戴式设备
US20220312128A1 (en) Hearing aid system with differential gain
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
JP6781545B2 (ja) ロボット
TW202347096A (zh) 用於受損使用者或具備殘疾的使用者之智慧眼鏡介面
JPWO2018168247A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6667878B1 (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
US20230132041A1 (en) Response to sounds in an environment based on correlated audio and user events
KR20200092207A (ko) 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R151 Written notification of patent or utility model registration

Ref document number: 6969554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151