JPWO2017187678A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2017187678A1
JPWO2017187678A1 JP2018514113A JP2018514113A JPWO2017187678A1 JP WO2017187678 A1 JPWO2017187678 A1 JP WO2017187678A1 JP 2018514113 A JP2018514113 A JP 2018514113A JP 2018514113 A JP2018514113 A JP 2018514113A JP WO2017187678 A1 JPWO2017187678 A1 JP WO2017187678A1
Authority
JP
Japan
Prior art keywords
information
user
reading
voice
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018514113A
Other languages
English (en)
Other versions
JP6891879B2 (ja
Inventor
健吾 吉井
健吾 吉井
村田 誠
誠 村田
直樹 澁谷
直樹 澁谷
允文 加藤
允文 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017187678A1 publication Critical patent/JPWO2017187678A1/ja
Application granted granted Critical
Publication of JP6891879B2 publication Critical patent/JP6891879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

読み上げられた音声情報を確認する際の利便性を向上させることが可能な情報処理装置、情報処理方法、およびプログラムを提供する。
取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置。

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年の情報処理および情報通信技術の発展に伴い、コンピュータが広く普及し、日常生活においてもコンピュータが積極的に利用されるようになった。例えば、スマートフォン、携帯電話端末等のモバイル通信端末を用いて、外出先からネットワークに接続して情報を閲覧したり、目的地までの経路案内サービスを利用したりすること等が可能となった。
ネットワークに接続した情報処理端末からユーザが得る情報は、視覚情報と音情報の大きく2つに分けられ、特に視覚情報は高画質・高解像度であり、グラフィックス表現の進歩や映像表示技術の発達により、直感的で分かりやすい情報を提示することが可能である。しかし視覚情報の場合はユーザの視野が狭まり、移動中に表示画面を見ることは危険が伴う。一方、音情報であればユーザの視野が狭まることなく、移動中であっても情報提示を受けることができる。
このような音による情報提示手法に関し、例えば下記特許文献1では、所定条件に基づいて音情報をフィルタリングした上で定位させて出力し、ユーザにとって必要な情報を音情報として直感的に理解させる情報処理装置について記載されている。
特開2013−5021号公報
ここで、音声による情報提示であれば、日常の「ながら」動作中(歩きながら、自転車に乗りながら、家事をしながら等)でも視覚が奪われることなく提示された情報を理解することができる。しかしながら、音声情報の場合、聞き逃した情報を後から参照することや、詳細な情報を確認することは困難であった。
そこで、本開示では、読み上げられた音声情報を確認する際の利便性を向上させることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力することを含む、情報処理方法を提案する。
本開示によれば、コンピュータを、取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部として機能させる、プログラムを提案する。
以上説明したように本開示によれば、読み上げられた音声情報を確認する際の利便性を向上させることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態による情報処理装置の概要を説明する図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態による読み上げ履歴データの一例を示す図である。 本実施形態の情報処理装置1による読み上げ処理を示すフローチャートである。 本実施形態のサーバによるタイムラインUI生成処理を示すフローチャートである。 本実施形態の表示装置によるタイムラインUI表示処理を示すフローチャートである。 本実施形態の第1の実施例による画面表示例を示す図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 本実施形態の第1の実施例によるタイムラインUIの画面遷移を説明する図である。 第1の実施例の変形例によるタイムラインUIについて説明する図である。 本実施形態の第2の実施例による画面表示例を示す図である。 本実施形態の第3の実施例による画面表示例を示す図である。 本実施形態の第4の実施例による画面表示例を示す図である。 本実施形態の第5の実施例による画面表示例を示す図である。 本実施形態による他のタイムラインUIを説明する図である。 本実施形態による他のタイムラインUIを説明する図である。 本実施形態による他のタイムラインUIを説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2−1.情報処理装置1の構成
2−2.サーバ2の構成
3.動作処理
3−1.読み上げ処理
3−2.タイムラインUI生成処理
3−3.タイムラインUI表示処理
4.画面表示例
4−1.第1の実施例
4−2.第2の実施例
4−3.第3の実施例
4−4.第4の実施例
4−5.第5の実施例
4−6.その他
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
まず、本開示の一実施形態による情報処理システムの概要について、図1を参照して説明する。図1は、本実施形態による情報処理システムの概要を説明する図である。
図1に示すように、本実施形態による情報処理システムは、ユーザに装着される情報処理装置1と、サーバ2と、表示装置3を含む。情報処理装置1、サーバ2、および表示装置3は、ネットワーク4を介して互いにデータの送受信が可能である。なお表示装置3は、ユーザに携帯されるスマートフォンや携帯電話、タブレット端末、またはノートPC等のような情報処理端末であってもよい。また、このような表示装置3が情報処理装置1とペアリングして無線通信接続した場合、情報処理装置1は表示装置3を介してサーバ2とのデータ送受信を行うことが可能である。
情報処理装置1は、例えばユーザの首に掛けられるネックバンド型の情報処理端末である。ネックバンド型の情報処理装置1は、首の両側から後ろ側(背中側)にかけて半周回するような形状の装着ユニット(装着部)を有し、ユーザの首にかけられることでユーザに装着される。本明細書では、上下左右前後といった方向を示す言葉を用いるが、これらの方向はユーザの直立姿勢における、ユーザの体の中心(例えば鳩尾の位置)からみた方向を示すものとする。例えば、「右」とはユーザの右半身側の方向を示し、「左」とはユーザの左半身側の方向を示し、「上」とはユーザの頭側の方向を示し、「下」とはユーザの足側の方向を示すものとする。また、「前」とはユーザの体が向く方向を示し、「後」とはユーザの背中側の方向を示すものとする。
図1に示すように、装着ユニットは、ユーザの首に密着して装着されてもよいし、離間して装着されてもよい。なお首かけ型の装着ユニットの他の形状としては、例えば首下げ紐によりユーザに装着されるペンダント型や、頭にかけるヘッドバンドの代わりに首の後ろ側を通るネックバンドを有するヘッドセット型が考えられる。
また、装着ユニットの使用形態は、人体に直接的に装着されて使用される形態であってもよい。直接的に装着されて使用される形態とは、装着ユニットと人体との間に何らの物体も存在しない状態で使用される形態を指す。例えば、図1に示す装着ユニットがユーザの首の肌に接するように装着される場合は本形態に該当する。他にも、頭部に直接的に装着されるヘッドセット型やメガネ型等の多様な形態が考えられる。若しくは、装着ユニットの使用形態は、人体に間接的に装着されて使用される形態であってもよい。間接的に装着されて使用される形態とは、装着ユニットと人体との間に何らかの物体が存在する状態で使用される形態を指す。例えば、図1に示した装着ユニットが、シャツの襟の下に隠れるように装着される等、服の上からユーザに接するように装着される場合は、本形態に該当する。他にも、首下げ紐によりユーザに装着されるペンダント型や、衣服に留め具等で留められるブローチ型等の多様な形態が考えられる。
また、本実施形態による情報処理装置1には、複数のマイクロホン、カメラ、およびスピーカが設けられている。マイクロホンは、ユーザ音声又は周囲の環境音等の音声データを取得する。カメラは、周囲の様子を撮像し撮像データを取得する。また、スピーカは、音声データの再生を行う。これらマイクロホン、カメラ、およびスピーカの設置位置および設置数は特に限定しない。例えば、マイクロホン、カメラ、およびスピーカは、1つまたは複数(マイクアレイ等)設けられてもよい。
(背景)
ここで、ウェアラブル装置を身に付けて、情報検索サービス、エンターテインメント情報、行動支援情報の提供サービス等を日常的に享受する際、視覚情報により提示されると日常生活の多くの「ながら」中の確認ができないという問題があった。例えば、歩きながら、自転車に乗りながら、家事をしながら等の視覚情報の確認は、視覚が一時的に奪われるため危険であった。
これに対し、聴覚的な情報提示、すなわち音声による情報提示の場合は、日常の「ながら」動作中にもハンズフリー、アイズフリーで確認することが可能となる。
また、提示される情報にはプル型とプッシュ型が想定される。プル型とは、ユーザが知りたい時にリクエストして提示される情報であって、ボタン操作や画面操作、音声操作によって発動する。また、プッシュ型とは、ユーザが意識せずとも、自動で提示される情報であって、例えばメール通知、着信、アプリケーションからの呼び出し、通知、電池残量の警告等が想定される。
プッシュ型の音声通知は、自動的に情報が提示されるというメリットがある一方、詳細な情報を確認したい場合には時間がかかるというデメリットがある。また、テキストや画像など視覚的な情報を参照することができない、聞き逃した情報を後から簡単に参照することが出来ない、というデメリットもある。
そこで、本実施形態では、読み上げられた音声情報を確認する際の利便性を向上させることを可能とする。
具体的には、例えば音声情報を提示した際のユーザの位置(場所の名称等)と行動を紐付けて記録し、提示した(読み上げた)音声情報のテキストをユーザ行動や位置と共に提示するタイムラインUI(User Interface)を生成する。音声情報がどこで何をしていた時に提示されたかという記憶は残りやすいため、ユーザは、聞き逃した情報を後から確認する際、自身の行動を辿って容易に目的の情報を探すことが可能となる。また、情報の詳細を知りたい等、気になった情報があれば音声提示された際に音声操作等によりブックマークできるようにする。この場合、音声情報のタイムラインUIにおいて、ブックマーク等された情報を大きく表示したり、詳細な情報を(画像があれば画像と共に)表示したりすることで、ユーザは気になった音声情報を後から容易に確認することができる。
以上、本実施形態による情報処理装置1の概要について説明した。続いて、本実施形態による情報処理装置1の構成について図2を参照して説明する。
<<2.構成>>
<2−1.情報処理装置1の構成>
続いて、本実施形態による情報処理装置1の構成について図2を参照して説明する。図2は、本実施形態による情報処理装置1の構成の一例を示すブロック図である。図2に示すように、情報処理装置1は、制御部10、通信部11、マイクロホン12、カメラ13、9軸センサ14、スピーカ15、位置測位部16、および記憶部17を有する。
(制御部10)
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
また、本実施形態による制御部10は、図2に示すように、読み上げ情報取得部10a、読み上げ制御部10b、ユーザ状況認識部10c、操作認識部10d、および読み上げ履歴送信制御部10eとして機能する。
読み上げ情報取得部10aは、ユーザに音声提示する(読み上げる)情報を取得する。読み上げ情報は、通信部11により外部装置(例えばスマートフォン)やネットワーク上(例えばサーバ2)から受信してもよいし、記憶部17から取得してもよいし、情報処理装置1で起動するアプリケーションから取得してもよい。また、読み上げ情報取得部10aは、RSSリーダーによりWebサイト上から情報を取得してもよい。
読み上げ制御部10bは、読み上げ情報取得部10aにより取得された読み上げ情報をスピーカ15から音声出力するよう制御する。例えば読み上げ制御部10bは、読み上げ情報(テキスト情報)に基づいて音声合成を行い、読み上げ情報の音声化を行い、生成した音声情報をスピーカ15から出力し、ユーザに提示する。また、読み上げ制御部10bは、取得した読み上げ情報の一部(タイトルのみ、タイトルと要約まで、タイトルと本文の一文目まで等)を読み上げるよう(すなわち、音声出力するよう)制御し、ユーザ操作に基づいて追加読み上げが必要であると判断した場合はさらに読み上げ情報を出力制御する。
ユーザ状況認識部10cは、各種センサ情報に基づいてユーザ状況を認識する。具体的には、ユーザ状況認識部10cは、マイクロホン12により収音されたユーザ音声や周辺の環境音、カメラ13により撮像された周辺の撮像画像、9軸センサ14により検知されたセンサ値(加速度センサ値、ジャイロセンサ値、地磁気センサ値等)、若しくは位置測位部16により取得された位置情報の少なくもいずれかを用いて、ユーザの位置や行動(走っている、歩いている、自転車に乗っている等)を認識する。さらに、ユーザ状況認識部10cは、徒歩、自転車、ランニング、静止、乗り物等の行動認識(ローコンテキスト)の他、行動のハイコンテキストを認識し得る。行動のハイコンテキストとは、例えば自宅、帰宅、通勤、オフィス、外出等、行動内容をより詳細に認識した結果である。
操作認識部10dは、ユーザによる操作入力を認識する。例えば、操作認識部10dは、マイクロホン12により収音されたユーザ音声の音声認識を行い、ユーザによる音声での操作指示を受け付ける。ユーザによる音声操作は、例えば「Skip、More、Bookmark、Again、Previous」といったものが想定される。「Skip」は、次の音声情報に進む指示、「More」は、さらに詳しい情報を要求する指示、「Bookmark」は、今の音声情報に目印を付ける指示、「Again」は、今の音声情報を最初からもう一度再生する指示(繰り返し指示)、「Previous」は、前の情報に戻る指示である。
読み上げ履歴送信制御部10eは、読み上げ制御部10bにより音声出力制御された、すなわち読み上げられた読み上げ情報の履歴(以下、「読み上げ履歴」と称す)を、通信部11からサーバ2へ送信するよう制御する。読み上げ履歴には、読み上げ時の状況(時間、位置、行動(ハイコンテキスト、ローコンテキスト))、操作、読み上げ情報、読み上げ済み情報(読み上げ情報のうち実際に音声出力した部分)が含まれる。
(通信部11)
通信部11は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部11は、例えば有線LAN(Local Area Network)、無線LAN、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接、またはネットワークアクセスポイントを介して無線通信する。
(マイクロホン12)
マイクロホン12は、ユーザの音声や周囲の環境を収音し、音声データとして制御部10に出力する。
(カメラ13)
カメラ13は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。例えば、カメラ13は、情報処理装置1(装着ユニット)がユーザに装着された状態で、ユーザの前方を撮像可能に設けられる。この場合、カメラ13は、ユーザの周囲の景色や、ユーザが見ている方向の景色を撮像することが可能となる。また、カメラ13は、情報処理装置1がユーザに装着された状態で、ユーザの顔を撮像可能に設けられてもよい。この場合、情報処理装置1は、撮像画像からユーザの視線方向や表情を特定することが可能となる。また、カメラ13は、デジタル信号とされた撮像画像のデータを制御部10へ出力する。
(9軸センサ14)
9軸センサ14は、3軸ジャイロセンサ(角速度(回転速度)の検出)、3軸加速度センサ(Gセンサとも称す。移動時の加速度の検出)、および3軸地磁気センサ(コンパス、絶対方向(方位)の検出)を含む。9軸センサ14は、情報処理装置1を装着したユーザの状態または周囲の状態をセンシングする機能を有する。なお9軸センサ14は、センサ部の一例であって、本実施形態はこれに限定されず、例えば速度センサまたは振動センサ等をさらに用いてもよいし、加速度センサ、ジャイロセンサ、および地磁気センサのうち少なくともいずれかを用いてもよい。また、センサ部は、情報処理装置1(装着ユニット)とは別の装置に設けられていてもよいし、複数の装置に分散して設けられていてもよい。例えば、加速度センサ、ジャイロセンサ、および地磁気センサが頭部に装着されたデバイス(例えばイヤホン)に設けられ、速度センサや振動センサがスマートフォンに設けられてもよい。9軸センサ14は、センシング結果を示す情報(センサ情報)を制御部10へ出力する。
(スピーカ15)
スピーカ15は、制御部10の制御に従って、読み上げ制御部10bにより処理された音声信号を再生する。スピーカ15は、指向性を有していてもよい。
(位置測位部16)
位置測位部16は、外部からの取得信号に基づいて情報処理装置1の現在位置を検知する機能を有する。具体的には、例えば位置測位部16は、GPS(Global Positioning
System)測位部により実現され、GPS衛星からの電波を受信して、情報処理装置1が存在している位置を検知し、検知した位置情報を制御部10に出力する。また、情報処理装置1は、GPSの他、例えばWi−Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
(記憶部17)
記憶部17は、上述した制御部10が各機能を実行するためのプログラムやパラメータを格納する。また、本実施形態による記憶部17は、サーバ2へ送信する読み上げ履歴を蓄積してもよい。
以上、本実施形態による情報処理装置1の内部構成例について具体的に説明した。
<2−2.サーバ2の構成>
次に、本実施形態によるサーバ2の構成について図3を参照して説明する。図3は、本実施形態によるサーバ2の構成の一例を示すブロック図である。図3に示すように、サーバ2は、制御部20、通信部21、および記憶部22を有する。
(制御部20)
制御部20は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ2内の動作全般を制御する。制御部20は、例えばCPU、マイクロプロセッサ等の電子回路によって実現される。また、制御部20は、使用するプログラムや演算パラメータ等を記憶するROM、及び適宜変化するパラメータ等を一時記憶するRAMを含んでいてもよい。
また、本実施形態による制御部20は、図3に示すように、記憶制御部20a、タイムラインUI生成部20b、および送信制御部20cとして機能する。
記憶制御部20aは、情報処理装置1から送信され、通信部21により受信した読み上げ履歴を記憶部22に記憶するよう制御する。
タイムラインUI生成部20bは、記憶部22に記憶された読み上げ履歴に基づいて、ユーザが後から読み上げ情報を確認する際に提供するタイムラインUIを生成する。生成するタイムラインUIの具体例については、図8〜図22を参照して後述する。
送信制御部20cは、生成されたタイムラインUIを通信部21から表示装置3(例えばユーザのスマートフォン)に送信するよう制御する。
(通信部21)
通信部21は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部21は、ネットワーク4を介して情報処理装置1と接続し、読み上げ履歴を受信する。また、通信部21は、ネットワーク4を介して表示装置3と接続し、制御部20により生成されたタイムラインUIを送信する。
(記憶部22)
記憶部22は、上述した制御部20が各機能を実行するためのプログラムやパラメータを格納する。また、本実施形態による記憶部22は、情報処理装置1から送信された読み上げ履歴を蓄積する。ここで、図4を参照して読み上げ履歴のデータ例について説明する。
図4は、本実施形態による読み上げ履歴データの一例を示す図である。図4に示すように、読み上げ履歴データは、例えば読み上げの日時、位置(例えば緯度経度情報)、位置名称、行動のハイコンテキスト、行動のローコンテキスト、操作(ユーザによる操作入力)、読み上げ情報、読み上げ済み情報が対応付けて記憶されている。位置名称は、例えば緯度経度情報に基づいて地図データを参照して取得され得る。位置名称は、情報処理装置1のユーザ状況認識部10cにより認識されてもよいし、サーバ2側で認識されてもよい。
また、「読み上げ情報」は、読み上げ情報の取得元(例えばネットワーク上から取得した場合はそのURL)が示されている。実際に読み上げた情報は、「読み上げ済み情報」として格納される。
以上、本実施形態によるサーバ2の構成の一例について説明した。
なお、本実施形態による情報処理システムの構成は図1に示す例に限定されず、上述したサーバ2の構成をスマートフォン等の情報処理端末で実現された表示装置3に設け、情報処理装置1と表示装置3から成るシステム構成としてもよい。
続いて、本実施形態による動作処理について図5〜図7を参照して説明する。
<<3.動作処理>>
<3−1.読み上げ処理>
図5は、本実施形態の情報処理装置1による読み上げ処理を示すフローチャートである。図5に示すように、まず、情報処理装置1は、読み上げイベントが発生すると(ステップS100)、ユーザ状況認識部10cによりユーザ状況の認識を行う(ステップS103)。読み上げイベントは、予め設定された時間や、定期的、不定期的、または新着情報取得時等に発生する。例えば、1日のうち決まった時間に最新ニュースやイベント情報の読み上げイベントが発生するようにしてもよい。また、継続的にユーザ状況の認識を行い、認識結果が所定の条件を満たす場合に読み上げイベントを発生させるようにしてもよい。ユーザ状況の認識は、上述したように、マイクロホン12、カメラ13、9軸センサ14(加速度センサ、ジャイロセンサ、地磁気センサ等)、位置測位部16(GPS等)から取得した各種情報に基づいて行われ得る。例えばユーザ状況認識部10cは、ユーザの位置、行動のハイコンテキスト、ローコンテキスト等を認識する。
次に、情報処理装置1は、読み上げ情報を取得する(ステップS106)。
次いで、情報処理装置1は、情報の読み上げ制御(すなわち、スピーカ15からの音声出力制御)を行う(ステップS109)。
次に、情報の読み上げ中にユーザ操作を認識した場合(ステップS112/Yes)、情報処理装置1の読み上げ制御部10bは、追加読み上げを行うか否かを判断する(ステップS115)。情報読み上げ中のユーザ操作は、上述したように、例えば、Skip、More、Bookmark、Again、Previousといったものがある。また、「More」はさらに詳細な情報の要求指示であるため、情報処理装置1は追加読み上げを行う。
そして、情報処理装置1は、読み上げが終了すると、読み上げた日時、位置、行動のハイコンテキスト、ローコンテキスト、読み上げ中のユーザ操作(Skip、More、Bookmark、Again、Previous)、読み上げ情報、および読み上げた済み情報を含む読み上げ履歴をサーバ2へ送信する(ステップS118)。
<3−2.タイムラインUI生成処理>
図6は、本実施形態のサーバ2によるタイムラインUI生成処理を示すフローチャートである。図6に示すように、まず、サーバ2は、タイムラインUIの取得要求を外部装置(ここでは、表示装置3を用いる)から受け付けると(ステップS120)、記憶部17に記憶された対象ユーザの読み上げ履歴を取得する(ステップS123)。
次いで、サーバ2のタイムラインUI生成部20bは、読み上げ履歴に含まれる行動情報(ハイコンテキスト、ローコンテキスト)に基づいて、ユーザ負荷を判断する(ステップS126)。本明細書において、ユーザ負荷とは、ユーザが音声情報を聞きにくい(音声情報に集中しにくい)状況の程度を示すものである。例えばランニングやサイクリング中は走ることや運転に集中するためユーザ負荷が高い、すなわち音声情報が聞きにくい状況であると判断される。また、徒歩中は、ランニングやサイクリングに比べるとユーザ負荷は高くないと判断される。また、電車に乗っている時は、徒歩中よりもユーザ負荷は低い、すなわち音声情報が聞き易い状況であると判断される。
次に、タイムラインUI生成部20bは、読み上げ履歴に含まれる操作情報に基づいてユーザの音声情報に対する嗜好判断を行う(ステップS129)。例えば、「Skip」操作が行われた場合はネガティブ判断(ユーザが好まない(興味がない)情報であるとの判断)を行い、「More」、「Bookmark」、または「Again」操作が行われた場合はポジティブ判断(ユーザが好む(興味がある)情報であるとの判断)を行う。また、「Previous」操作が行われた場合や、何ら操作が行われなかった場合は、ネガポジいずれの判断も行わない。
次いで、タイムラインUI生成部20bは、ユーザ負荷や嗜好判断結果に基づいて、表示情報の粒度を算出する(ステップS132)。表示情報の粒度とは、タイムラインUIで音声情報をどこまで詳細に(タイトルのみか、本文も表示するか等)表示するかを示すものである。例えばタイムラインUI生成部20bは、ユーザ負荷が高い場合またはポジティブ判断された場合は粒度「大」、ユーザ負荷が中程度の場合または嗜好判断無しの場合は粒度「中」、ユーザ負荷が低い場合またはネガティブ判断された場合は粒度「小」と算出する。
次に、タイムラインUI生成部20bは、算出された粒度情報や読み上げ履歴に含まれる各種情報に基づいて、タイムラインUIを生成する(ステップS135)。
例えばタイムラインUI生成部20bは、読み上げ時のユーザの行動のハイコンテキストを示すアイコンや位置名称、時刻と共に、読み上げ情報を時系列に並べる。また、タイムラインUI生成部20bは、算出された粒度情報に応じて読み上げ情報をどの程度詳細に表示するかを制御する。例えば粒度「大」の場合はタイトルと本文全てを表示し、粒度「中」の場合はタイトルと本文の1文目までを表示し、粒度「小」の場合はタイトルのみ表示するようにしてもよい。図6に示す動作処理では、ユーザ負荷や嗜好判断結果、粒度情報に基づいてタイムラインUIを生成する場合の処理を説明しているが、本実施形態はこれに限定されない。例えば読み上げ済み情報を時系列で表示したり、読み上げ時に撮像した撮像画像を時系列で表示したりしてもよい。このような様々なタイムラインUIの具体例については後述する。
続いて、未処理のデータが有る場合はステップS123に戻る(ステップS138)。例えば一日の読み上げ履歴全ての処理を行うまで上記ステップS123〜S135が繰り返される。
そして、サーバ2は、タイムラインUIの取得要求元の外部装置、例えば表示装置3に、生成したタイムラインUIを送信する(ステップS141)。
<3−3.タイムラインUI表示処理>
図7は、本実施形態の表示装置3によるタイムラインUI表示処理を示すフローチャートである。図7に示すように、まず、表示装置3は、タイムラインUIの取得要求をサーバ2に対して行う(ステップS150)。
次に、表示装置3は、タイムラインUIをサーバ2から取得すると(ステップS153/Yes)、タイムラインUIを表示部に表示する(ステップS156)。
続いて、タイムラインUIに対してユーザ操作が有った場合(ステップS159/Yes)、表示装置3は、ユーザ操作に応じて表示更新を行うか否かを判断する(ステップS162)。
そして、表示更新を行う判断を行った場合(ステップS162/Yes)、表示装置3は、ステップS156に戻ってタイムラインUIの表示更新を行う。例えば表示装置3のタッチパネルディスプレイにおいてタイムラインUIと共に表示された地図上をユーザがタップ操作した場合、表示装置3は、タップされた位置で読み上げられた音声情報を表示するようタイムラインUIをスクロールさせて表示更新を行う。
<<4.画面表示例>>
続いて、本実施形態によるタイムラインUIの画面表示例について複数の実施例を用いて具体的に説明する。
<4−1.第1の実施例>
図8は、本実施形態の第1の実施例による画面表示例を示す図である。まず、本実施例によるタイムラインUIでは、ユーザ行動(ハイコンテキスト)の切り替わり毎に、1つのタイムライン地図画像(タイムライン軌跡を示す地図画像)を含む表示欄が表示される。例えば図8に示す例では、表示画面30に、「6:50-7:30 On your way home」の表示欄と、「7:45-8:30
Outside」の表示欄が、時系列順に表示されている。図8に示す例では「帰宅中」と「外出」の2つの表示欄のみが表示されているが、画面をスクロールすることで他の行動時の表示欄が表示される。
「外出」の表示欄は、時刻と行動のハイコンテキストを示す「7:45-8:30 Outside」の表示画像301と、地図画像302と、読み上げに関する情報の表示303と、読み上げ情報の表示304を含む。読み上げに関する情報の表示303および読み上げ情報の表示304に表示される読み上げ情報は、地図上のタイムライン軌跡(対応する行動時の移動経路。ここでは、「外出」時の移動経路)の各地点のうち任意にタップされた地点付近で読み上げられた情報である。タイムライン軌跡上には、情報を読み上げた地点にピンが表示されている。また、任意にタップされた地点付近の撮像画像(ユーザがその地点を移動している際に情報処理装置1のカメラ13により撮像された撮像画像)が表示される。また、ユーザがタイムライン軌跡を指でなぞってスライドした際に各地点の撮像画像が順次表示されるようにしてもよい。ユーザは撮像画像に写る情景を見ながら、この場所に居た時に聞いた情報を改めて確認したいなというように、情景を手掛かりにして容易に情報検索を行うことができる。
次いで、表示される読み上げ情報について説明する。読み上げに関する情報の表示303は、読み上げ時刻、読み上げ情報の種類(ニュース、イベント等)、行動のローコンテキスト(走っていた、歩いていた、自転車に乗っていた、電車に乗っていた等)、場所(位置名称)の表示を含む。また、読み上げ情報の表示304では、読み上げられた情報のテキストが表示されている。例えばニュース情報の場合、図8に示すように、タイトル表示305、情報提供元、および本文306が表示されている。タイトル表示305には、例えば情報提供元(例えばニュースサイト)へのリンクが貼られている。ユーザがタイトル表示305をタップすると、ニュースサイトに画面が遷移する。
また、図8に示す本文306は、読み上げられた文章(読み上げ済み情報)が小さく表示され、読み上げられてない文章が大きく表示されている。例えば読み上げ時にはタイトルと本文1文目までしか読まれなかった場合、2文目から大きく表示される。このように、読み上げられていない情報が強調して表示されている。ここでは強調表示の一例としても文字を大きくする表示態様を用いているが、本実施形態はこれに限定されず、他と異なる色にしたり、書体を変えたり、背景を変えたり、アニメーションを加えたり等することで強調表示を行ってもよい。ユーザが後から音声情報を確認するというシチュエーションは、ユーザが提示された音声情報に興味を持ってさらに詳しく知りたいと思っているということが想定されるため、音声情報を確認する際に、どこからが未聴の情報であるかが直感的に分かれば、より利便性が向上する。
「帰宅中」の表示欄も同様に表示されている。すなわち、時刻と行動のハイコンテキストを示す「7:45-8:30 Outside」の表示画像307と、地図画像308と、読み上げに関する情報の表示309と、読み上げ情報の表示310を含む。読み上げ情報の表示310も同様に、読み上げられた情報のテキストとして、例えばイベント情報の場合、図8に示すように、タイトル表示311、情報提供元、および本文312が表示されている。本文312は、読み上げられていない情報(本文の2文目以降)が強調表示(文字サイズが大きく表示)されている。
続いて、本実施例によるタイムラインUIの画面遷移について、図9〜図14を参照して説明する。図9〜図14は、本実施例によるタイムラインUIの画面遷移を説明する図である。
図9に示すように、まず、画面31に「Today's Timeline」として、今日一日のユーザ行動の各ハイコンテキストを示す項目が時系列で表示される。ユーザがいずれかの項目をタップすると、その行動時のタイムライン軌跡を示す地図画像が表示される。例えば図9に示すように、各項目のうち「7:45-8:30 pm : Outside」(外出)をタップすると、図9右側の画面32に示すように、外出時のタイムライン軌跡を示す地図画像314が表示される。
次に、図10左側の画面33に示すように、ユーザはタイムライン軌跡上の任意の地点をタップする。タイムライン軌跡上に立つピンは、情報の読み上げが行われた地点を示す。ユーザが任意の地点をタップすると、図10右側の画面34に示すように、タップした地点で読み上げられた情報(読み上げに関する情報の表示315と、読み上げ情報の表示316を含む。)が表示される。
次いで、図11左側の画面35に示すように、地図画像314のタイムライン軌跡上の他の地点をタップすると、図11右側の画面36に示すように、画面右側の音声情報提示画面が、タップした地点の情報(読み上げに関する情報の表示321と、読み上げ情報の表示322を含む。)に切り替わる。ここでは、一例として、8時25分に公園を走っていた際に読み上げられた天気予報情報が表示されている。
次に、例えば図12左側の画面37に示すように、他のハイコンテキストの項目324(「6:50-7:30 pm : On your way home」(帰宅))をタップすると、図12右側の画面38に示すように、帰宅時のタイムライン軌跡を示す地図画像325が表示される。
次いで、図13左側の画面39に示すように、地図画像325に示される帰宅時のタイムライン軌跡のうち任意の地点をタップすると、図13右側に示すように、タップした地点で読み上げられた情報(読み上げに関する情報の表示326と、読み上げ情報の表示327を含む。)が表示される。ここでは、一例として、7時10分に「2nd St」で自転車に乗っている際に読み上げられたイベント情報が表示されている。
続いて、さらに他の行動時に提示された音声情報を確認した場合、ユーザは、図14左側の画面41に示すように、画面をスクロール操作し、他のハイコンテキストの項目330(「3:30-4:05 pm : Outside」(外出))を表示させる。当該項目330をタップすると、図14右側の画面42に示すように、外出時のタイムライン軌跡を示す地図画像331が表示される。上述した場合と同様に、地図画像331のタイムライン軌跡のうち任意の地点がタップされると、当該地点で読み上げられた情報が地図画像331の右側に表示される。
以上、本実施例によるタイムラインUIの画面遷移について具体的に説明した。以下、本実施例の変形例について説明する。
(変形例)
図15を参照して、タイムライン軌跡を示す地図画像と共に音声情報のテキストを表示する場合の変形例について説明する。本変形例では、音声提示されたときの状況を再現することで、ユーザの情報検索を支援する。
具体的には、図15左側の画面43に示すように、まず地図画像上にタイムライン軌跡が示され、ユーザが任意の地点をタップすると、タップされた地点の情景(撮像画像)が表示され、さらに同地点で読み上げられた情報のテキストが表示されると共に、同地点で読み上げられた情報が再度音声出力される。また、ここで表示されるテキストは、読み上げ済みの音声情報のテキストとしてもよい。また、地図画像上には、複数のハイコンテキストのタイムライン軌跡が表示されている。また、情報が読み上げられた地点を示すピンと、読み上げられた情報の種類、時刻、行動(ローコンテキスト)が併せて地図上に表示されている。
また、ユーザがタイムライン軌跡上の地点をタップすると、図15右側の画面44に示すように、タップされた地点の情景(撮像画像)が地図画像上に表示され、さらに同地点で読み上げられた情報のテキストが表示されると共に、同地点で読み上げられた情報が再度音声出力される。
このように、タイムライン軌跡や読み上げ地点の撮像画像(情景)の他、読み上げた情報を再度音声で出力して読み上げ時の状況を再現することで、ユーザが詳しく聞きたいと思った音声情報がどれであったかを思い出すことを支援することができる。
<4−2.第2の実施例>
続いて、図16を参照して第2の実施例による画面表示例について説明する。第2の実施例では、ユーザ行動毎に、その行動時に読み上げられた音声情報を表示する。この際、音声情報の表示粒度を、読み上げ時のユーザ操作に基づくユーザ嗜好に応じて変更することで、ユーザの情報検索を支援する。
例えば図16の画面45に示すように、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目450、454が時系列で表示され、各項目の下に、その行動時に読み上げた情報が表示されている。
各読み上げ情報の横には、読み上げ時のユーザ操作を示すアイコン451、457、459が表示されている。例えば、7時45分にユーザが公園を走っている際に読み上げられたイベント情報に対し、ユーザが「Bookmark」を指示する音声操作を(「Bookmark」と発話)した場合、サーバ2のタイムラインUI生成部20bは、ポジティブフィードバックが行われたと判断する。これにより、当該イベント情報はユーザが興味を示したものであるため、情報粒度「大」で表示制御される。すなわち、読み上げ情報のタイトル452と本文全文453が表示される。なお、読み上げ時はタイトルと本文1文目までが読み上げられることを前提とする。ユーザはタイトルや本文一文目を聞いて興味が湧いた場合、「Bookmark」と発話し、後から情報を確認する際に確認し易くする。また、図16に示すように、「Bookmark」の音声操作が行われたことを示す所定のアイコン451が、イベント情報と共に表示される
また、例えばアイコン459は、「More」の音声操作が行われたことを示すものであって、この場合もPositive
Feedback操作と判断され、ニュース情報が粒度大で表示される。すなわち、例えば図16に示すように、7時10分にユーザが電車に乗っている際に読み上げられた3つ目のニュース情報に対して「More」の音声操作が行われた場合、タイトル460と本文全文461が表示される。
このように、Positive Feedback操作と判断されるユーザ操作は、例えば「More」、「Again」、「Bookmark」であって、これらの場合は粒度大で表示され得る。
一方、「Skip」の音声操作は、Negative Feedback操作と判断される。この場合、情報は粒度「小」で表示される。例えば図16に示すように、7時10分にユーザが電車に乗っている際に読み上げられた2つ目のニュース情報に対して「Skip」の音声操作が行われた場合、サーバ2のタイムラインUI生成部20bは、ネガティブフィードバックが行われたと判断し、タイトル458のみを表示する。また、「Skip」の音声操作が行われたことを示す所定のアイコン457を併せて表示する。このように、ユーザの興味が無い情報は検索対象とならないことが想定されるため、表示分量を少なくすることで、ユーザが確認したい情報の検索を支援する。
また、音声操作が何等行われなかった場合や、音声操作が「Previous」であった場合は、嗜好判断が行われず、粒度「中」で表示制御される。例えば図16に示すように、7時10分にユーザが電車に乗っている際に読み上げられた1つ目のニュース情報に対して何ら操作が行われなかった場合、タイトル455と本文1文目456までが表示される。
<4−3.第3の実施例>
次に、図17を参照して第3の実施例による画面表示例について説明する。上述した第2の実施例では、情報読み上げに対するユーザ操作に基づくユーザ嗜好に応じて情報表示の粒度を変更していたが、本実施形態はこれに限定されず、例えば情報読み上げ時のユーザ行動に基づくユーザ負荷に応じて情報表示の粒度を変更してもよい。第3の実施例では、かかるユーザ負荷に応じた情報表示の粒度変更について説明する。
図17に示すように、画面46には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目461、462、463、464が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。
ユーザ行動に応じたユーザ負荷とは、上述したように、ユーザが音声情報を聞きにくい(音声情報に集中しにくい)状況の程度を示すものであって、例えばランニングやサイクリング中はユーザ負荷が高い(すなわち音声情報が聞きにくい)と判断される。したがって、図17に示すように、例えば7時45分にユーザが走っている際(項目461)に読み上げられたイベント情報は、ユーザが聞き逃している可能性が高いため、情報粒度「大」で表示制御される。具体的には、例えばタイトルと本文全文が表示される。これにより、走っている際に情報が読み上げられたが聞き取り難かった場合に当該読み上げ情報を後から確認する際の利便性が向上する(なお本実施例においても、読み上げ済み情報は(「More」の音声操作が行われていなければ)タイトルと本文一文目までであることを前提とする)。
また、徒歩中は、ランニングやサイクリングに比べるとユーザ負荷は高くないと判断され、情報粒度「中」で読み上げ情報が表示制御される。例えば、図17に示すように、7時10分にユーザが歩いている際(項目462)に読み上げられたニュース情報は、多少は聞き取れている可能性が高いため、情報粒度「中」で表示制御される。具体的には、例えばタイトルと本文一文目までが表示される。
また、電車に乗っている時は、徒歩中よりもユーザ負荷は低いと判断され、情報粒度「小」で読み上げ情報が表示制御される。例えば、図17に示すように、7時12分にユーザが電車に乗っている際(項目463)に読み上げられたニュース情報は、しっかり聞き取れている可能性が高いため、情報粒度「小」で表示制御される。具体的には、例えばタイトルのみが表示される。電車に乗っている際に読み上げられた情報はしっかりと聞き取れているため、後から再確認される可能性は低く、かかる音声情報の表示量を少なくすることで、ユーザが他の読み上げ情報を確認する際の邪魔になってしまうことを回避することができる。
<4−4.第4の実施例>
次に、図18を参照して第4の実施例による画面表示例について説明する。上述した第2、第3の実施例では、情報読み上げ時のユーザ操作に基づく嗜好判断結果や、情報読み上げ時のユーザ行動に基づくユーザ負荷に応じて、タイムラインUIにおける表示情報の粒度を変更する場合について説明したが、本実施形態はこれに限定されず、例えば嗜好判断結果やユーザ負荷に応じて、さらに表示情報のフォントサイズを変更してもよい。
図18に示すように、画面47には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目471、474が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。
例えば、図18に示すように、7時45分にユーザが公園を走っている際(項目471)に読み上げられたイベント情報に対し、ユーザが「Bookmark」を指示する音声操作を(「Bookmark」と発話)した場合、サーバ2のタイムラインUI生成部20bは、ポジティブフィードバックが行われたと判断する。これにより、当該イベント情報はユーザが興味を示したものであるため、情報粒度「大」で表示制御すると共に、さらに、フォントサイズ「大」で表示する。すなわち、読み上げ情報のタイトルと本文全文を、後述するネガティブフィードバックされた音声情報や嗜好判断されなかった音声情報よりも大きいフォントサイズで表示する。また、「Bookmark」の音声操作が行われたことを示す所定のアイコン472も併せて表示される。これにより、ユーザが興味を持った音声情報を後から確認する際の利便性が向上する。
また、7時10分にユーザが電車に乗っている際(項目474)に読み上げられたニュース情報に対し「More」を指示する音声操作が行われた場合も同様にポジティブフィードバックが行われたと判断され、読み上げ情報のタイトルと本文全文がフォントサイズ「大」で表示される。また、「More」の音声操作が行われたことを示す所定のアイコン475も併せて表示される。これにより、ユーザが興味を持った音声情報を後から確認する際の利便性が向上する。
また、図18に示すように、7時45分にユーザが公園を走っている際(項目471)に読み上げられた2つ目のイベント情報は、何ら操作が行われず、3つ目のイベント情報は、「Skip」を指示する音声操作が行われた(アイコン473は、「Skip」操作が行われたことを意味する)場合は、いずれもフォントサイズ「小」で表示制御される。このように、ユーザが興味を持っていない音声情報は小さいサイズで表示することで、ユーザがタイムラインUIをスクロールしながら情報を探す際に邪魔になることを回避することができる。
なお、図18に図示した例では、一例としてユーザ嗜好に応じたフォントサイズの変更について説明したが、本実施例はこれに限定されず、ユーザ行動に基づくユーザ負荷に応じてフォントサイズを変更してもよい。この場合、例えばユーザ負荷が高かった場合は大きいサイズで表示し、ユーザが負荷が低かった場合は小さいサイズで表示する。
<4−5.第5の実施例>
続いて、図19を参照して第5の実施例による画面表示例について説明する。本実施例では、ユーザ行動のコンテキストに応じて読み上げ情報が中断、再開された場合に、タイムラインUIにおいて、これら中断、再開の情報も併せて表示することで、ユーザが読み上げ情報を聞いた際の状況を思い出し易くさせ、情報検索の支援を行うことができる。
図19に示すように、画面48には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目481、483、486が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。ここでは、読み上げ済みの音声情報が表示され、ユーザ行動のコンテキストに応じて読み上げを中断した場合は「paused」(表示482、表示485)、再開した場合は「continue」(表示484、表示487)と表示される。例えば情報処理装置1の読み上げ制御部10bは、ユーザ行動に基づくユーザ負荷(聞き取り易さ)を考慮して、ユーザが信号待ち等で停止している場合に情報の読み上げを行い、動き出した時は読み上げを中断して再び停止した時に再開するよう制御することが可能である。このような読み上げ制御情報(「中断」、「再開」)は、読み上げ履歴に含まれ、サーバ2へ送信される。
そして、後から音声情報を確認する際のタイムラインUIにおいて、図19の画面48に示すように、読み上げ済み音声情報のテキストが、「中断」、「再開」等の読み上げ制御情報と併せて表示される。これによりユーザは、例えば7時10分に自転車に乗って信号待ち等で止まっている際(項目481)に読み上げられたニュース情報が途中で中断されこと、およびその続きの情報が7時15分に自転車に乗って再び信号待ち等で止まっている際(項目483)に読み上げられたことが直感的に把握できる。
<4−6.その他>
以上、本実施形態によるタイムラインUIについて複数の実施例を用いて具体的に説明した。なお本実施形態によるタイムラインUIは上述した実施例に限定されず、さらに次のようなものであってもよい。
(情景ベースで構成されるタイムラインUI)
図20は、本実施形態による他のタイムラインUIを説明する図である。図20に示すように、画面49には、「Today's Timeline」として、今日一日に情報が読み上げられた地点における情景を写した撮像画像491、492、493(例えば情報処理装置1のカメラ13により情報読み上げ時に撮像した周辺の撮像画像、若しくは予め用意された各地点の撮像画像)が、時系列で表示されている。音声情報がどこに居る時に提示されたかという記憶は残りやすいため、ユーザは、聞き逃した情報等を後から確認する際に図20の画面49のような自身が見た景色を手掛かりにして容易に目的の情報を探すことが可能となる。また、画面49に表示される撮像画像上には、その場所で読み上げられた音声情報(読み上げ済み情報)のテキストや時間、情報の種類等が表示されていてもよい。
(タイムライン軌跡と読み上げ情報表示領域の同期)
図21は、本実施形態による他のタイムラインUIを説明する図である。図21の左側に示すように、画面50には、「Today's Timeline」として、地図画像501にユーザ行動のライムライン軌跡(移動経路の軌跡)が表示されている。ユーザがタイムライン軌跡上の任意の地点をタップすると、当該地点で読み上げられた情報のテキスト(または画像)が読み上げ表示領域に表示される。画面50では、例えば、タップした地点で読み上げられた天気予報情報(項目502)が読み上げ表示領域(図21に示す例では地図画像501の下方)に表示される。
次いで、ユーザがタイムライン軌跡をなぞる操作を行うと、かかる操作に同期して読み上げ表示領域に表示される読み上げ情報の項目がスクロールされ、かつ、対応する項目の中身が表示される。例えば図21の右側に示す画面51のように、タイムライン軌跡をなぞるユーザ操作に応じて読み上げ情報表示領域の画面がスクロールされ、次の項目503の中身(イベント情報)が表示される。ここでは、例えば読み上げ済みの音声情報のテキストが表示される。また、地図画像511には対応する地点の情景が表示される。
なお、地図画像511はピンチインアウトで縮尺を変えることも可能であり、読み上げ情報表示領域も同期される。
(キーワードの強調表示)
図22は、本実施形態による他のタイムラインUIを説明する図である。図22に示すように、画面52には、「Today's Timeline」として、今日一日のユーザ行動(ここでは、一例としてローコンテキスト)を示す項目521、522が時系列で表示され、各項目の下に、その行動時に読み上げられた音声情報のテキストが表示されている。
図22に示す例では、画面52に表示されるテキストは、実際に読み上げられた音声情報(読み上げ済み情報)であって、さらに読み上げ済み情報のうち所定のキーワードが強調表示(例えばフォントサイズを大きく表示)されている。所定のキーワードは、例えば固有名詞や、タイトルに使用されている名詞等、読み上げ情報を聞いたユーザの記憶に残り易い言葉が想定される。
このように、読み上げられた情報のキーワードを強調表示するタイムラインUIを提示することで、ユーザが情報を探す際に、キーワードを手掛かりにして探し易くなる。
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理装置1では、読み上げられた音声情報を確認する際の利便性を向上させることを可能とする。具体的には、情報読み上げ時の日時、位置、行動、操作、または情景に基づいた検索を可能とするUIを提供することで、ユーザが聞き逃した情報や興味を持った情報等を後から探し易くさせることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置1に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置。
(2)
前記情報粒度は、情報量であって、タイトルのみ、タイトルと本文の一部、またはタイトルと本文全部のいずれかに制御される、前記(1)に記載の情報処理装置。
(3)
前記ユーザ操作は、スキップ指示、繰り返し指示、詳細再生指示、ブックマーク指示、または前に戻る指示を示す音声入力操作である、前記(2)に記載の情報処理装置。
(4)
前記出力制御部は、さらに前記ユーザ操作に基づいて推定されるユーザ嗜好に応じて、前記音声情報のフォントサイズが変更された表示画面の情報を出力する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動に基づいて推定されるユーザ負荷に応じて、前記音声情報の情報粒度が制御される、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動の認識結果、読み上げ時の日時、場所、読み上げられた情報の種類の少なくともいずれかが前記表示画面にさらに含まれる、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記表示画面で表示される読み上げ情報は、読み上げ済み情報のテキストよりも読み上げられていない部分のテキストが強調表示される、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記読み上げ履歴に含まれる各音声情報の読み上げ時におけるユーザの位置履歴に基づく移動軌跡が前記表示画面に含まれる地図画像上に表示され、さらにユーザにより指定された前記移動軌跡の任意の地点付近で読み上げられた音声情報が表示される、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記表示画面には、さらにユーザにより指定された前記移動軌跡の任意の地点付近の情景を写した撮像画像が表示される、前記(8)に記載の情報処理装置。
(10)
プロセッサが、
取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力することを含む、情報処理方法。
(11)
コンピュータを、
取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部として機能させる、プログラム。
1 情報処理装置
10 制御部
10a 読み上げ情報取得部
10b 読み上げ制御部
10c ユーザ状況認識部
10d 操作認識部
10e 読み上げ履歴送信制御部
11 通信部
12 マイクロホン
13 カメラ
14 9軸センサ
15 スピーカ
16 位置測位部
17 記憶部
2 サーバ
20 制御部
20a 記憶制御部
20b タイムラインUI生成部
20c 送信制御部20c
21 通信部
22 記憶部
3 表示装置
4 ネットワーク

Claims (11)

  1. 取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部を備える、情報処理装置。
  2. 前記情報粒度は、情報量であって、タイトルのみ、タイトルと本文の一部、またはタイトルと本文全部のいずれかに制御される、請求項1に記載の情報処理装置。
  3. 前記ユーザ操作は、スキップ指示、繰り返し指示、詳細再生指示、ブックマーク指示、または前に戻る指示を示す音声入力操作である、請求項2に記載の情報処理装置。
  4. 前記出力制御部は、さらに前記ユーザ操作に基づいて推定されるユーザ嗜好に応じて、前記音声情報のフォントサイズが変更された表示画面の情報を出力する、請求項1に記載の情報処理装置。
  5. 前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動に基づいて推定されるユーザ負荷に応じて、前記音声情報の情報粒度が制御される、請求項1に記載の情報処理装置。
  6. 前記読み上げ履歴に含まれる音声情報の読み上げ時におけるユーザ行動の認識結果、読み上げ時の日時、場所、読み上げられた情報の種類の少なくともいずれかが前記表示画面にさらに含まれる、請求項1に記載の情報処理装置。
  7. 前記表示画面で表示される読み上げ情報は、読み上げ済み情報のテキストよりも読み上げられていない部分のテキストが強調表示される、請求項1に記載の情報処理装置。
  8. 前記読み上げ履歴に含まれる各音声情報の読み上げ時におけるユーザの位置履歴に基づく移動軌跡が前記表示画面に含まれる地図画像上に表示され、さらにユーザにより指定された前記移動軌跡の任意の地点付近で読み上げられた音声情報が表示される、請求項1に記載の情報処理装置。
  9. 前記表示画面には、さらにユーザにより指定された前記移動軌跡の任意の地点付近の情景を写した撮像画像が表示される、請求項8に記載の情報処理装置。
  10. プロセッサが、
    取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力することを含む、情報処理方法。
  11. コンピュータを、
    取得された音声情報の読み上げ履歴に含まれる当該音声情報の読み上げ時におけるユーザ操作に基づいて判断された情報粒度で、前記音声情報のテキストを時系列順に表示する表示画面の情報を出力する出力制御部として機能させる、プログラム。
JP2018514113A 2016-04-27 2017-01-24 情報処理装置、情報処理方法、およびプログラム Active JP6891879B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016089227 2016-04-27
JP2016089227 2016-04-27
PCT/JP2017/002309 WO2017187678A1 (ja) 2016-04-27 2017-01-24 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017187678A1 true JPWO2017187678A1 (ja) 2019-02-28
JP6891879B2 JP6891879B2 (ja) 2021-06-18

Family

ID=60161278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514113A Active JP6891879B2 (ja) 2016-04-27 2017-01-24 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11074034B2 (ja)
EP (1) EP3451149A4 (ja)
JP (1) JP6891879B2 (ja)
CN (1) CN109074240B (ja)
WO (1) WO2017187678A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021114004A (ja) * 2018-04-11 2021-08-05 ソニーグループ株式会社 情報処理装置及び情報処理方法
US11363953B2 (en) * 2018-09-13 2022-06-21 International Business Machines Corporation Methods and systems for managing medical anomalies

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005634A (ja) * 1999-06-24 2001-01-12 Hitachi Ltd 電子メール受信装置
JP2006023860A (ja) * 2004-07-06 2006-01-26 Sharp Corp 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム
JP2010026813A (ja) * 2008-07-18 2010-02-04 Sharp Corp コンテンツ表示装置、コンテンツ表示方法、プログラム、記録媒体、および、コンテンツ配信システム
JP2014519058A (ja) * 2011-06-03 2014-08-07 アップル インコーポレイテッド テキストデータとオーディオデータとの間のマッピングの自動作成
JP2015169768A (ja) * 2014-03-06 2015-09-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7020663B2 (en) * 2001-05-30 2006-03-28 George M. Hay System and method for the delivery of electronic books
JP5250827B2 (ja) * 2008-09-19 2013-07-31 株式会社日立製作所 行動履歴の生成方法及び行動履歴の生成システム
US8990235B2 (en) * 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
JP2012063526A (ja) * 2010-09-15 2012-03-29 Ntt Docomo Inc 端末装置、音声認識方法および音声認識プログラム
JP5821307B2 (ja) 2011-06-13 2015-11-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN102324191B (zh) * 2011-09-28 2015-01-07 Tcl集团股份有限公司 一种有声读物逐字同步显示方法及系统
KR101309794B1 (ko) * 2012-06-27 2013-09-23 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템
CN103198726A (zh) * 2013-04-23 2013-07-10 李华 英语学习设备
CN103365988A (zh) * 2013-07-05 2013-10-23 百度在线网络技术(北京)有限公司 对移动终端的图片文字朗读的方法、装置和移动终端
GB2518002B (en) * 2013-09-10 2017-03-29 Jaguar Land Rover Ltd Vehicle interface system
US20150120648A1 (en) * 2013-10-26 2015-04-30 Zoom International S.R.O Context-aware augmented media
US9794511B1 (en) * 2014-08-06 2017-10-17 Amazon Technologies, Inc. Automatically staged video conversations
CN107193841B (zh) * 2016-03-15 2022-07-26 北京三星通信技术研究有限公司 媒体文件加速播放、传输及存储的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005634A (ja) * 1999-06-24 2001-01-12 Hitachi Ltd 電子メール受信装置
JP2006023860A (ja) * 2004-07-06 2006-01-26 Sharp Corp 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム
JP2010026813A (ja) * 2008-07-18 2010-02-04 Sharp Corp コンテンツ表示装置、コンテンツ表示方法、プログラム、記録媒体、および、コンテンツ配信システム
JP2014519058A (ja) * 2011-06-03 2014-08-07 アップル インコーポレイテッド テキストデータとオーディオデータとの間のマッピングの自動作成
JP2015169768A (ja) * 2014-03-06 2015-09-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法

Also Published As

Publication number Publication date
US11074034B2 (en) 2021-07-27
JP6891879B2 (ja) 2021-06-18
WO2017187678A1 (ja) 2017-11-02
EP3451149A4 (en) 2019-04-17
EP3451149A1 (en) 2019-03-06
CN109074240A (zh) 2018-12-21
CN109074240B (zh) 2021-11-23
US20190073183A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
US9860204B2 (en) Variable notification alerts
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
CN110377365B (zh) 展示小程序的方法和装置
KR101606727B1 (ko) 휴대 단말기 및 그 동작 방법
US9134949B2 (en) Head mount display and method for controlling output of the same
CN109151044B (zh) 信息推送方法、装置、电子设备及存储介质
WO2017175432A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20160133414A (ko) 정보 처리 장치, 제어 방법 및 프로그램
CN112764608B (zh) 消息处理方法、装置、设备及存储介质
US11057728B2 (en) Information processing apparatus, information processing method, and program
EP3086221A2 (en) Electronic apparatus, image display system, control program, and method for operating electronic apparatus
JP6891879B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2016002306A1 (ja) 情報処理システム、情報処理端末、および情報処理方法
US9495017B2 (en) Computing systems for peripheral control
KR101685361B1 (ko) 휴대 단말기 및 그 동작 방법
JP2012249164A (ja) 電子カメラ、通信システム
WO2019207867A1 (ja) 電子機器及び処理システム
JP6559096B2 (ja) 情報出力システム及び情報出力方法
CN110875042B (zh) 指定人群监控方法、装置和存储介质
JP6206537B2 (ja) 携帯端末、情報処理装置、およびプログラム
KR20170025020A (ko) 이동단말기 및 그 제어방법
US20220058225A1 (en) Information display method and apparatus
CN113961371A (zh) 页面显示方法、装置、电子设备以及存储介质
CN117519854A (zh) 显示方法及电子设备
CN113064537A (zh) 媒体资源播放方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R151 Written notification of patent or utility model registration

Ref document number: 6891879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151