JP2014021565A - 電子機器及びその制御方法 - Google Patents

電子機器及びその制御方法 Download PDF

Info

Publication number
JP2014021565A
JP2014021565A JP2012156925A JP2012156925A JP2014021565A JP 2014021565 A JP2014021565 A JP 2014021565A JP 2012156925 A JP2012156925 A JP 2012156925A JP 2012156925 A JP2012156925 A JP 2012156925A JP 2014021565 A JP2014021565 A JP 2014021565A
Authority
JP
Japan
Prior art keywords
character
character position
voice output
output
visually recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012156925A
Other languages
English (en)
Other versions
JP5963584B2 (ja
JP2014021565A5 (ja
Inventor
Tomonori Tanaka
友範 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012156925A priority Critical patent/JP5963584B2/ja
Priority to US13/937,357 priority patent/US9257114B2/en
Publication of JP2014021565A publication Critical patent/JP2014021565A/ja
Publication of JP2014021565A5 publication Critical patent/JP2014021565A5/ja
Application granted granted Critical
Publication of JP5963584B2 publication Critical patent/JP5963584B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 視認文字位置に応じて音声出力文字位置を視認文字位置に応じるものの、その過度に反応せず、自然な音声再生を可能にする技術を提供する。
【解決手段】 テキストを表示画面に表示するための表示部、テキストを音声として出力する音声出力部、更には、ユーザの視線方向を検出する視線検出部を有する電気機器において、制御部は、音声出力部が音声出力している現在の文字位置を現出力文字位置、視線検出部で検出したユーザの視線方向に存在するテキストにおける文字位置を現視認文字位置としたとき、現出力文字位置と現視認文字位置との距離が予め設定された閾値以上になった場合に音声出力部の音声出力の開始位置を変更する。
【選択図】 図4

Description

本発明は、テキストの表示と、その表示されるテキストの音声出力の技術に関するものである。
従来、電子書籍コンテンツを音声出力させる技術が知られている。また、ユーザが読んでいる部分を見失いにくくするため、ユーザの視線を検出し、そのユーザが視認している電子書籍コンテンツ上での文字(視認文字)を特定し、その視認文字を強調表示する方法も知られている(例えば、特許文献1)。
特開2007―102360号公報
しかしながら、従来技術では、視認している文字に追従して音声出力する位置が変更されるので、頻繁に音声出力位置が変更され、自然な音声再生の妨げになっている。
本発明は、このような課題に鑑みてなされたものであり、視認文字位置に応じて音声出力文字位置を視認文字位置に応じるものの、その過度に反応せず、自然な音声再生を可能にする技術を提供しようとするものである。
この課題を解決するため、例えば本発明の電子機器は以下の構成を備える。すなわち、
テキストを表示画面に表示するための表示手段、及び、前記テキストを音声として出力する音声出力手段を有する電子機器であって、
ユーザの視線方向を検出する視線検出手段と、
前記音声出力手段が音声出力している現在の文字位置を現出力文字位置、前記視線検出手段で検出したユーザの視線方向に存在する前記テキストにおける文字位置を現視認文字位置としたとき、前記現出力文字位置と前記現視認文字位置との距離に応じて、前記音声出力手段の音声出力の開始位置を変更する制御手段とを有し、
該制御手段は、
前記現出力文字位置と、前記現視認文字位置との距離が、予め設定された閾値以上になったか否かを判定する判定手段と、
該判定手段で前記距離が前記閾値以上にあったと判定した場合、前記現視認文字位置を前記音声出力手段の音声出力の開始位置に設定する設定手段とを備える。
本発明によれば、視認文字位置に応じて音声出力文字位置を視認文字位置に応じるものの、その過度に反応せず、自然な音声再生が可能になる。
本発明に係る情報処理装置を示す図。 情報処理装置101の機能ブロック図。 情報処理装置101のハードウェア構成図。 情報処理装置101が行う処理のフローチャート。 タッチパネル画面102の表示例を示す図。 音声出力中文字記憶部212が管理する情報の構成例を示す図。 視認文字特定部213が管理する情報の構成例を示す図。 距離特定部204が管理する情報の構成例を示す図。 情報処理装置101が行う処理のフローチャート。 情報処理装置101が行う処理のフローチャート。 情報処理装置101が行う処理のフローチャート。 情報処理装置101が行う処理のフローチャート。 情報処理装置101が行う処理のフローチャート。 情報処理装置101が行う処理のフローチャート。 タッチパネル画面102上に設定したXY軸を示す図。 電子書籍コンテンツの領域と文字領域を示す図。 情報処理装置101が行う処理のフローチャート。 情報処理装置101が行う処理のフローチャート。
以下、図面を参照しながら本発明を実施するための形態について説明する。
[第1の実施形態]
先ず、本実施形態に係る情報処理装置の外観構成を図1を用いて説明する。図1に示した情報処理装置101は、タッチパネル画面102、スピーカ103、音声出力ボタン104、カメラ105が備わった携帯型電子機器である。なお、この装置は、図1に示した外観に限るものではなく、様々な外観が適用可能であり、例えば、タッチパネル画面102、スピーカ103、音声出力ボタン104、カメラ105のそれぞれの配置は、図1に示した配置に限るものではない。また、ボタンやスピーカやカメラなどはその用途に応じて適宜増減させても良い。
タッチパネル画面102は、画像や文字などを表示するための表示画面(例えば液晶表示器)と、その表示画面の前面に配置された透明なフィルム状の座標検出のためのタッチパネルで構成され、各種メニューや電子コンテンツの表示と、ユーザのタッチ位置検出機能を合わせ持つ。また、ユーザは、自身の指などでもって音声出力ボタン104を押下することで、音声出力指示を情報処理装置101に入力することができる。情報処理装置101はこの音声出力指示を検知すると、スピーカ103から音声(例えば、22.05KHzでサンプリングされたPCM方式のWAVEデータに基づく音声)を出力する。カメラ105は、撮像した映像情報から、視線認識(or視線検出)の技術を用いてユーザの視線方向を検出し、タッチパネル画面102上のどの位置を視認(or注視)しているかを特定する。従って、電子書籍等のコンテンツを表示している場合には、視線方向の表示画面上に存在する文字を特定することもできる。以下、この視線上にある表示文(或いは文字列)を視認文字という。本実施形態では、カメラ105から赤外線を照射することでユーザの瞳孔の中心点を検出し、該中心点を追跡することで、水平方向に対する視線方向の傾きを求める。同時に、赤外線の照射を利用してカメラ105と瞳孔との距離を算出し、該距離と該傾きから、タッチパネル画面102上での視線の差す位置(視線位置)を特定する。そして、所定期間の間における視線位置の重心の位置を視認位置とする。タッチパネル画面102に表示される各文字には、それぞれ該文字に対する文字領域が定められており、視認位置が属する文字領域の文字が視認文字として特定される。なお、視線認識の技術については公知なのでこれに係る説明は省略する。
本実施形態では、電子書籍のデータ(電子書籍コンテンツ、電子テキストコンテンツ)、該電子書籍を朗読した音声波形のデータ(音声波形データ)、は、予め情報処理装置101内にダウンロードされているものとする。しかし、これに限るものではなく、これらのデータを外部の装置に格納しておき、必要に応じて適宜ダウンロードするようにしても良い。
本実施形態における電子書籍は、W3CのXMLに準拠したマークアップ言語であるSMIL (Synchronized Multimedia Integration Language)により記述されているものとする。電子書籍中の各ページにおける各文字と、音声波形データにおいて該文字を発声している音声波形の位置(音声出力位置)と、は関連づけられている(同期がとられている)。即ち、音声波形データにおいて、電子書籍における任意のページ中の任意の文字の音声波形のデータは、一意に特定することができるようになっている。また、例えば、SMILの記述情報から、ページ番号、行数、行の先頭からの文字数等の情報も取得できるものとする。また、ページ番号、行数、行の先頭からの文字数等の情報を、SMILの記述情報と照会することにより、音声波形データ上の音声出力位置および音声出力位置が属する文章を特定できるものとする。SMILの技術については公知なのでこれに係る説明は省略する。
図2は、情報処理装置101の機能構成を示す機能ブロック図である。なお、図2に示した構成は一例であり、下記の各部のうちいくつかを統合しても良いし、以下に説明する各処理を実現可能な構成であれば、如何なる構成を採用しても良い。
情報処理装置101は、入力部201、表示部202、音声出力部203、距離特定部204、制御部205、視線認識部206を有する。また、情報処理装置101は、更に、時間特定部207、視認方向判定部208、視認文字の移動速度検出手段として機能する視線速度特定部209、スクロール操作部210、ページ遷移部211、音声出力中文字記憶部212、視認文字特定部213をも有する。
入力部201は、タッチパネル画面102に対するタッチ操作を検出したり、音声出力ボタン104の押下を検出したりする。例えば、入力部201は、タッチパネル画面102に対するユーザのフリック操作(上下左右のいずれの方向へ、タッチしたままスライドさせる操作)を特定する。
表示部202は、スクロール操作部210とページ遷移部211、から供給された映像信号に基づく映像(即ちページの画面)の信号を、該タッチパネル画面102に対して供給するものである。本実施形態では、電子書籍における各ページのうち、スクロール操作部210とページ遷移部211によって特定されたページの映像信号をタッチパネル画面102に供給する。また、視認文字特定部213が特定した視認文字に対するフィードバック情報を表示する。例えば、視認文字を強調表示する。
音声出力部203は、制御部205が決定した音声出力開始文字からの音声波形データに基づく音声信号を、順次スピーカ103に供給する。
距離特定部204は、音声出力中文字記憶部212が特定した音声出力中文字と、視認文字特定部213が特定した視認文字との距離を特定する。本実施形態における距離は、視認文字から音声出力中文字までの文字数(距離間文字数)とする。距離間文字数は、視認文字を特定するSMILの情報と、音声出力中文字を特定するSMILの情報をもとに文字数をカウントする。例えば、5ページの2行目の先頭からの文字数が3に音声出力中文字があり、5ページの2行目の先頭からの文字数が5に視認文字があると、距離間文字数は2となる。カウントの方法については自明なので省略する。
制御部205は、音声出力を開始する文字(音声出力開始文字)を、入力部201、距離特定部204、時間特定部207、視認方向判定部208、スクロール操作部210、ページ遷移部211の結果等に応じて変更する。また、視認速度特定部209の結果に応じて、音声出力する速度を変更する。
視線認識部206は、カメラ106が撮像した映像をもとにユーザの視線位置を特定する。本実施形態では、図15(a)のように、タッチパネル画面102の左下を原点とし、右方向をX軸、上方向をY軸とする。尚、タッチパネル画面102以外の平面上には、実際の平面はないが、仮想的にXY平面が広がっていると仮定する。そして、所定期間Aの間に、XY平面上を動いた視線位置の重心座標を視認位置とする。図15(b)のように、所定期間の間に描いた軌跡Cの重心の座標が視認位置となる。また、視線位置がタッチパネル画面102の電子書籍コンテンツ上にあるか否かについても判定する。本実施形態では、図16のように、電子書籍コンテンツの領域が定められており、この域に視認位置があるか否かを判定する。
時間特定部207は、距離特定部204が特定した距離が所定距離以上となったことに応じてタイマを0にリセットして時間(離脱時間)の計測を開始する。また、現在の視認文字と一つ前の視認文字(前視認文字)の順に隣り合っていない時(視認文字が文字の並び順に従って移動しなかったこと)に、タイマを0にリセットして時間(視認連続時間)の計測を開始する。
視認方向判定部208は、文字の並び順に沿って移動した視認文字の文字数(視認連続文字数)をカウントする。そして、視認連続文字数が所定視認連続文字数以上である場合には、視認文字が文字の並び順に沿って移動したと判定する。視認速度特定部209は、視認方向判定部208がカウントした視認連続文字数と時間特定部207が計測した視認連続時間から、視認文字が移動した速度(視認速度)を特定する。
スクロール操作部210は、入力部201が検出したフリック操作に基づき、タッチパネル画面102に表示する電子書籍コンテンツがスクロール移動される表示領域の特定を行う。例えば、入力部201が下方向のフリック操作を検知すると、現在タッチパネル画面102に表示している電子書籍コンテンツの下部にある表示領域をタッチパネル画面102への表示対象として特定する。そしてスクロール操作部210は、上記の電子書籍コンテンツの表示領域の映像信号を表示部202にスクロール移動順に供給する。表示領域のスクロール移動は、フリック操作の速度、ユーザ自身の指とタッチパネル画面102との接地時間などにより特定されるものとする。
ページ遷移部211は、入力部201が検出したフリック操作に基づき、タッチパネル画面102に表示するページの特定を行う。例えば、入力部201が右方向のフリック操作を検知すると、現在タッチパネル画面102に表示しているページの次のページをタッチパネル画面102への表示対象として特定する。そしてページ遷移部211は、上記の電子書籍コンテンツの各ページのうち特定したページの映像信号を表示部202に供給する。本実施形態では、1つのフリック操作で1ページ移動するものとする。
音声出力中文字記憶部212は、SMILの記述情報と照会し、音声出力中の文字(音声出力中文字)を特定する為の情報(ページ番号、行数、行の先頭からの文字数の情報)を音声出力中文字としてメモリに記憶する。例えば、5ページにある3行目の2文字目に音声出力中文字においては、ページ番号が5、行数が3、行の先頭からの文字数が2となる。
視認文字特定部213は、視線認識部206が特定した視認位置が属する視認文字を特定する。本実施形態では、文字毎に文字領域が定められており、視認位置が属する文字領域の文字を、視認文字と特定する。例えば、図16のように、「今」の文字領域が定められており、視認位置がこの領域にあれば、「今」が視認文字となる。本実施形態では、同じページ上における全ての文字領域を組み合わせると、電子書籍コンテンツの領域となる。SMILの情報と文字領域は関連付けられており、視認文字を特定する為の情報(ページ番号、行数、行の先頭からの文字数の情報)を特定する。特定された視認文字はメモリに記憶される。
図2に示した各部は何れもハードウェアで構成しても良いが、例えば、音声出力中文字記憶部212をメモリで構成し、それ以外の各部の全て、或いは一部をソフトウェア(コンピュータプログラム)で構成しても良い。このような場合に、情報処理装置101に適用可能なコンピュータのハードウェア構成例について、図3のブロック図を用いて説明する。図示におけるCPU301は、RAM302やROM303に格納されているコンピュータプログラムやデータを用いて、コンピュータ全体の動作制御を行うと共に、情報処理装置101が行うものとして上述した各処理を実行する。RAM302は、HDD(ハードディスクドライブ)等の外部メモリ304からロードされたコンピュータプログラムやデータを一時的に記憶するためのエリアや、CPU301が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM302は、各種のエリアを適宜提供することができる。ROM303には、コンピュータの設定データやブートプログラムなどが格納されている。入力部305は、上記の音声出力ボタン104や、タッチパネル画面102におけるタッチセンサに相当し、上記の通り、各種の指示をCPU301に対して入力することができる。表示部306は、上記のタッチパネル画面102に相当する。音声出力部307は、上記のスピーカ103に相当する。外部メモリ304には、OS(オペレーティングシステム)や、上記の実施形態で説明した各種の処理をCPU301に実行させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムは、図1において音声出力中文字記憶部212を除く各部に相当するコンピュータプログラムを含む。また、このデータは、電子書籍コンテンツのデータや、上記の処理で既知のものとして説明したデータを含む。外部メモリ304に保存されているコンピュータプログラムやデータは、CPU301による制御に従って適宜RAM302にロードされ、CPU301による処理対象となる。上記の各部は共通のバス308に接続されている。なお、上記の音声出力中文字記憶部212は、外部メモリ304やRAM302に相当する。また、図1に示した機能構成を有する情報処理装置は、図3に示した構成を有する1台のコンピュータで実装しても良いが、複数台の装置によってこの情報処理装置を構成するようにしても良い。なお、図1に示した各部を全部ハードウェア/ソフトウェアで構成せずに、一部をハードウェア/ソフトウェアで構成するようにしても良い。この場合であっても、このソフトウェアはメモリに格納し、このソフトウェアは、CPU301により実行される。
次に、本実施形態に係る情報処理装置101が行う処理について、同処理のフローチャートを示す図4を用いて説明する。なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つ、このNページ目のページについてはまだ音声出力を行っていないものとする。そしてこの状態においてユーザが音声出力ボタン104を押下すると、ステップS401以降の処理が開始されることになる。
ステップS401において、入力部201が音声出力ボタン104の押下を検知すると、制御部205は、音声出力開始文字をページNの先頭文字とする。これにより音声出力部203は、ページNの先頭文字以降の各文字について、該文字の音声波形データから音声信号を生成してスピーカ103に供給する。即ち本ステップでは、音声出力ボタン104の押下により音声出力指示が入力されると、該入力の時点でタッチパネル画面102が表示しているページNを音声出力ページとし、該音声出力ページ中の各文字に対応する音声を該文字の並び順に従って順次出力する。
ステップS402において、音声出力中文字記憶部212は、ページNにおいて、音声出力部203の音声出力中文字を特定する為の情報(表示中のページにおける視認文字の位置)を記憶する。即ち、本ステップでは、音声出力ページにおいて音声出力部203の音声出力中文字を特定するための情報をメモリ(音声出力中文字記憶部212)内で管理する。
ステップS403において、視線認識部206は、カメラ106が撮像した映像をもとにユーザの視線位置を認識する。ここで、ステップS403の処理を開始した時点で、視線位置の認識を開始する。そして、所定期間Aだけ視線位置の認識を行う。所定期間Aだけ経過した時点で、所定期間Aの間に動いた視線位置の重心の座標を求める。そして、この重心の座標が視認位置となる。所定期間Aの経過後、ステップS404の処理を行う。
ステップS404において、視線認識部206は、ステップS403で認識された視線位置が、タッチパネル画面102の電子書籍コンテンツ上にあるか否かを判定する。電子書籍コンテンツ上にある場合は、ステップS405の処理を行う。電子書籍コンテンツ上にない場合は、ステップS401の処理に戻る。
ステップS405に処理が進むと、視線認識部206は、ステップS403で認識された視線位置から視認位置を特定する。そして、視認文字特定部213は、視認位置から視認文字(ユーザが注視している文字)を特定し、それをメモリ(RAM)に記憶する。この時、表示部202は、判定視認文字を強調表示する。実施形態では、視認文字を太文字にするものとするが、他の文字と色を異ならせるものでも良いし、その手法は如何なるものでも良い。
ステップS406において、距離特定部204は、音声出力中文字と視認文字との距離間文字数Mを特定する。
ステップS407において、制御部205は、求めた距離間文字数Mが所定距離間文字数以上であるか否かを判定する。所定距離間文字数以上である場合は、処理をステップS408に進める。一方、所定距離間文字数以上(下回る)でない場合は、ユーザは、音声出力中文字を追って読んでいるものと見なして良いので、ステップS401の処理に戻る。
ステップS408において、音声出力部203は、音声出力を停止する。そして、ステップS409において、制御部205は、メモリに記憶されている視認文字を音声出力開始文字と特定する。そして、音声出力部203は、特定された音声出力開始文字に対応する音声波形データに基づく音声信号を文字の並び順に従ってスピーカ103に供給する。
ここで、N=5の場合の具体例を説明する。図5は、タッチパネル画面102におけるページNの表示例である。
ステップS401において、音声出力部203が、この音声出力中文字記憶部212内の情報をSMILの記述情報と照会し、「今年の電子書籍コンテンツの増加率は目覚ましいものがありました」の先頭から音声波形データを音声出力することになる。
この時、ステップS402で音声出力中文字記憶部212に登録される情報の構成例を図6(a)に示す。上記のとおり、ページ5についてはまだ音声出力は行っていないので、音声出力中文字記憶部212には、ページ番号「5」、ページ5の先頭文字の位置(行数「1」、行の先頭の文字からの文字数「1」)、が音声出力中文字として登録される。そして、この時、ユーザが「今」の文字を視認していると、ステップS403とステップS404を経て、ステップS405で視認文字特定部213は図7(a)に示す情報を登録する。また、ステップS405では距離間文字数Mは0となり、図8(a)に示す情報が特定される。音声出力が文字の並び順に従って進むと、音声出力中文字も同期して更新される。
この後、「加」の文字を音声出力されている時に、ユーザが「以」の文字を視認したと判定されたとする。この時、ステップS402では、図6(b)に示す情報に更新される。ステップS405では、図7(b)に示す情報に更新される。ステップS406では、図8(b)に示す情報に更新される。ステップS407では、距離間文字数Mが19文字なので、第1の閾値としての所定距離間文字数以上(例えば、15文字)と判定される。ステップS408では、音声出力部203が音声出力を停止させる。ステップS409では、制御部205が音声出力開始文字を視認文字である「以」に変更する。そして、音声出力部203は変更された音声出力開始文字である「以」から音声波形データを音声出力する。
以上の結果、現在視認している文字の位置(現視認文字位置)と音声出力中の文字の位置(現出力文字位置)との距離が、予め設定された第1の閾値より小さい状態が続く限りは、その間で視認文字位置が多少揺らいだとしても、それに応じて音声出力するシーケンスに影響を与えることがなくなる。そして、距離が閾値以上になった場合には、その視認位置から音声出力を再開することで、ユーザの視認位置に合せた自然な音声再生が可能になる。
[変形例1]
上記実施形態では、ステップS407で距離間文字数が第1の閾値以上となった場合に音声出力を停止していた。しかしながら、これに限らず、距離間文字数が第1の閾値以上となる前に、音声出力を停止しても良い。この変形例を、図14のフローチャートを用いて説明する。図14において、図4と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS1401とステップS1402の処理が図14のフローチャートの処理に加えられている。
ステップS1401において、制御部205は、距離間文字数Mが第2の閾値としての停止距離間文字数以上であるか否かを判定する。停止距離間文字数以上である場合は、ステップS1402の処理を行う。停止距離間文字数以上でない場合は、ステップS407の処理を行う。ここで、「第2の閾値<第1の閾値」の関係が成り立っているものとする。ステップS1402において、音声出力部203は、音声出力を停止する。
上記処理の結果、距離間文字数が第1の閾値以上となる前に、距離間文字数が第2の閾値以上となれば、音声出力を停止させることが可能となる。この結果、ユーザは、視認文字を移動させている最中は音声出力を停止させ、且つ、視認文字を定めることに集中することが可能となる。
[変形例2]
上記では、距離間文字数に応じて、音声出力開始文字を変更した。しかしながら、ユーザが集中力の低下などを起こし、視認文字が動いて距離間文字数が所定距離間文字数以上となった場合には、音声出力開始文字が変更される問題が生じる。この課題を解決する為、本変形例2では、現在の音声出力文字位置と現在の視認文字位置との距離が、設定した閾値以上の状態が、所定期間以上継続している場合に、その音声出力文字位置を変更する。以下、図9のフローチャートを用いて説明する。なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図9において、図4と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS901とステップS902の処理が図9のフローチャートの処理に加えられている。
ステップS901において、時間特定部207は、時間(離脱時間)の計測を開始する(T=0)。ステップS902において、時間特定部207は、離脱時間Tが所定離脱時間(所定時間)以上であるか否かを判定する。所定離脱時間以上である場合には、ステップS409の処理を行う。所定離脱時間以上でない場合には、ステップS401の処理を行う。ただし、所定期間A<所定離脱時間の関係が成り立っているとする。
例えば、「率」の文字を音声出力されている時に、ユーザが「降」の文字を視認したとする。この時、ステップS402では、図6(c)に示す情報に更新される。ステップS405では、図7(c)に示す情報に更新される。ステップS406では、図8(c)に示す情報に更新される。ステップS407では、距離間文字数Mが19文字なので、所定距離間文字数以上(例えば、15文字)と判定される。この時、ステップS901では、離脱時間Tの計測が開始されており、T=0(msec)となっている。続いて、音声出力が文字の並び順に従って進み、「来」の文字を音声出力されている時に、ユーザが「貢」の文字を視認したとする。この時、ステップS402では、図6(d)に示す情報に更新される。ステップS405では、図7(d)に示す情報に更新される。ステップS406では、図8(d)に示す情報に更新される。ステップS407では、距離間文字数Mが60文字なので、所定距離間文字数以上(例えば、15文字)と判定される。ただし、「来」から「貢」に視認文字が移動する際は、視認文字は、「来」から「貢」までの文字の間のいずれかの文字にあるとする。また、この間、距離間文字数Mは所定距離間文字数以上となっており、離脱時間Tの計測はリセットされないこととする。この時、ステップS902において離脱時間Tは、T=3800(msec)を計測し、所定離脱時間(例えば、4000msec)以下となる。そして、ステップS408では、音声出力部203が音声出力を停止させる。ステップS409では、制御部205が音声出力開始文字を視認文字である「貢」に変更する。そして、音声出力部203は変更された音声出力開始文字である「貢」から音声波形データを音声出力する。
上記の如く、距離間文字数が所定距離間文字数以上である離脱時間が、所定離脱時間以上続いた場合に、音声出力開始文字を変更することが可能となる。換言すれば、所定離脱時間以内であれば、音声出力開始位置が変更されず、それ以前の音声出力が継続させることができる。従って、ユーザが集中力の低下などを起こして視線が動いた場合に、音声出力開始文字が変更されることを防ぐことができる。
[変形例3]
上記実施形態では、距離間文字数と離脱時間に応じて、音声出力開始文字を変更した。しかしながら、ユーザが飛ばし読みを行った場合、その都度、音声出力開始位置が変更されることになり、音声再生が不自然になる。そこで、本変形例3では、ユーザが注視している視認文字位置が文章の文字の沿って連続して所定文字数以上移動した場合に、ユーザが目で文章を読んでいると見なし、その場合に、その読んでいる文字位置から音声出力開始位置を変更する例を説明する。
この場合の処理の一例を図10のフローチャートに示す。 なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図10において、図4、9と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS1001からステップS1009の処理が図9のフローチャートの処理に加えられている。
ステップS1001において、視認方向判定部208は、前視認文字としてページNの先頭の文字をセットする。ステップS1002において、視認方向判定部208は、視認連続文字数Lのカウントを開始する(L=0)。ステップS1003では、前視認文字を現在の視認文字位置で更新しておく。
ステップS1003において、視認方向判定部208は、前視認文字が視認文字と同じであるか否かを判定する。視認文字と同じである場合には、ステップS401の処理を行う。視認文字と同じでない場合には、ステップS1004の処理を行う。
ステップS1003において、視認方向判定部208は、前視認文字の次の文字が、ステップS405で特定された視認文字と同じであるか否かを判定する。ステップS405で特定された視認文字と同じである場合は、ステップS1005の処理を行う。ステップS405で特定された視認文字と同じでない場合は、ステップS1008の処理を行う。ステップS1005において、視認方向判定部208は、視認連続文字数Lに1を加算する(L=L+1)。これは、文章中の連続する文字を1文字ずつ順番に視認しており、その際の文字数をカウントしていることになる。ステップS1006において、視認方向判定部208は、前視認文字をステップS405で特定された視認文字とする。
ステップS1007において、視認方向判定部208は、視認連続文字数Lが所定視認連続文字数以上であるか否かを判定する。つまり、ユーザが、現在の音声出力位置から閾値以上離れた箇所を順番に読んでいると見なして良いかどうかを判定している、と言える。所定視認連続文字数以上である場合には、ステップS408の処理を行う。所定視認連続文字数以上でない場合には、ステップS401の処理を行う。
ステップS1008では、視認方向判定部208は、視認連続文字数Lをリセットする(L=0)。ステップS1001からステップS1008の処理により、視認連続文字数Lが所定視認連続文字数以上でとなれば、ユーザは、視認文字が定まって電子書籍コンテンツを読み始めたと判断される。
例えば、変形例2と同様に、図5の表示例における「率」の文字を音声出力されている時に、ユーザが「降」の文字を視認したとする。続いて、音声出力が文字の並び順に従って進み、「来」の文字を音声出力されている時に、ユーザが「貢」の文字を視認したとする。また、この間、距離間文字数Mは所定距離間文字数以上となっており、離脱時間Tの計測はリセットされないこととする。そして、「貢」の文字を視認する直前に、「発展に大きく」を文字の並び順に沿って視認していたとする。ただし、「登」の文字を視認した後に、「発」の文字から視認したとする。この場合、ステップS1003では、「発」と「登」の文字は異なるため、ステップS1004の処理を行う。ステップS1004では、「発」の前視認文字は「登」でないため、ステップS1008の処理を行う。ステップS1008で、視認連続文字数Lがリセットされることになる。よって、「発」を視認した時点では、視認連続文字数Lがリセットされた状態からカウントが開始される。ステップS1001からステップS1006とステップS1008の処理により、視認連続文字数LがL=5とカウントされる。この時、ステップS1007では、視認連続文字数Lが所定視認連続文字数(例えば、4)以上と判定される。そして、ステップS408では、音声出力部203が音声出力を停止させる。ステップS409では、制御部205が音声出力開始文字を視認文字である「貢」に変更する。そして、音声出力部203は変更された音声出力開始文字である「貢」から音声波形データを音声出力する。
上記の如く、ユーザが飛ばし読みなどにより視認文字が定まる前に、離脱時間が所定離脱時間以上となった場合に、音声出力開始文字が変更されることを防ぐことができる。ユーザの視認文字が定まって電子書籍コンテンツを読み始めた(視認文字が文字の並び順に従って移動した)と判断された場合に、音声出力開始文字を変更することが可能となる。
[変形例4]
上記実施形態では、距離間文字数と離脱時間と視認連続文字数に応じて、音声出力開始文字を変更した。しかしながら、音声出力開始文字を変更後、音声出力速度と視認速度が異なれば、視認文字に沿って音声出力がなされない。この課題を解決する為、本閉経例4では視認文字位置の移動速度を検出し、その移動速度に応じて音声出力速度を設定する。以下、図11のフローチャートを用いて説明する。なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図11において、図4、9、10と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS1101からステップS1105の処理が図9のフローチャートの処理に加えられている。
ステップS1101において、時間特定部207は、時間(視認連続時間)の計測を開始する(S=0)。
ステップS1102において、視認速度特定部209は、視認速度Aを特定する。本実施形態では、視認速度A=視認連続文字数L/視認連続時間Sの式で導出される。つまり、1msecあたりに音声出力される文字数で表わされる。音声出力開始文字が変更される直前の視認速度を求めることになる。
ステップS1103において、視認速度特定部209は、視認速度Aが所定視認速度(所定速度)の範囲内であるか否かを判定する。範囲内である場合には、ステップS1104の処理を行う。範囲内でない場合には、ステップS1105の処理を行う。
ステップS1104において、制御部205は、音声出力部203の音声出力速度を視認速度Aに変更する命令情報を音声出力部203に伝送する。そして、音声出力部203は、該命令情報に基づき音声出力速度を変更する。
ステップS1105において、時間特定部207は、視認連続時間Sをリセットする(S=0)。
例えば、変形例3と同様に、図5の画面で、「率」の文字を音声出力されている時に、ユーザが「降」の文字を視認したとする。続いて、音声出力が文字の並び順に従って進み、「来」の文字を音声出力されている時に、ユーザが「貢」の文字を視認したとする。また、この間、距離間文字数Mは所定距離間文字数以上となっており、離脱時間Tの計測はリセットされないこととする。そして、「貢」の文字を視認する直前に、「発展に大きく」を文字の並び順に沿って視認していたとする。ただし、「登」の文字を視認した後に、「発」の文字から視認している。ステップS1003では、「発」と「登」の文字は異なるため、ステップS1004の処理を行う。ステップS1004では、「発」の一つ前の文字は「登」でないため、ステップS1105の処理を行う。ステップS1105では、視認連続時間Sがリセットされる。ステップS1008で、視認連続文字数Lがリセットされることになる。よって、「発」を視認した時点では、視認連続時間Sと視認連続文字数Lがリセットされた状態から計測とカウントが開始される。ステップS1001からステップS1006とステップS1008の処理により、視認連続文字数LがL=5とカウントされる。この時、ステップS1007では、視認連続文字数Lが所定視認連続文字数(例えば、4)以上と判定される。また、ステップS1102では、視認連続時間Sは、S=1600を計測したとする。視認速度A=4/1400=0.0025となる。そして、ステップS408では、音声出力部203が音声出力を停止させる。ステップS409では、制御部205が音声出力開始文字を視認文字である「貢」に変更する。また、制御部205が音声出力する速度を0.0025に変更する。そして、音声出力部203は変更された音声出力開始文字である「貢」から音声波形データを音声出力する。
上記の結果、音声出力開始文字を変更後、音声出力速度と視認速度が異なり、視認文字に沿って音声出力がなされないことを防ぐことができる。音声出力開始文字が変更される直前の視認速度で音声出力される。また、該直前の視認速度が所定視認速度の範囲外の時は停止させることができる。例えば、ユーザが速すぎて聞き取れないような音声出力速度になる場合は、音声出力を停止させることができる。
ここで、図11のフローチャートの処理では、距離間文字数と離脱時間に応じて、音声出力開始文字を変更していた。しかしながら、これに限らず、図18のフローチャートのように、距離間文字数の増大と離脱時間の経過を待たずに、音声出力速度と音声出力開始文字を変更してもよい。なお、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図18において、図4、9、10、11と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。図18では、ステップS901とステップS902とステップS406とステップS407の処理が行われない点が、図11と異なる点である。
ただし、ステップS409において、音声出力開始文字を視認文字に変更する際は、視認文字よりも所定文字数先の文字に変更しても良いであろう。例えば、「今年の電子書籍コンテンツの増加率は目覚ましいものがありました。」の文章において、「電」が視認文字であれば、4文字先の「コ」から音声出力される。
即ち、距離間文字数の増大と離脱時間の経過を待たずに、音声出力速度と音声出力開始文字が変更される。ユーザにとっては、視認文字に合わせて、音声出力開始文字と音声出力速度がリアルタイムでなされることになる。
[変形例5]
ここで、タッチパネル画面102に対してページ遷移指示を検出した場合の変形例を、図13のフローチャートを用いて説明する。なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図13において、図4、9、10、11と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS1301からステップS1303の処理が図4、9、10、11のフローチャートの処理に加えられている。
ステップS1301において、ページ遷移部211は、入力部201の左若しくは右のフリック操作を検知した場合、タッチパネル画面102への表示対象ページを特定し、特定したページの映像信号を順に表示部202に供給する。フリック操作を検知した場合は、ステップS1302の処理を行う。フリック操作を検知しなかった場合は、ステップS902の処理を行う。
ステップS1302において、ページ遷移部211は、所定の時間の間に左若しくは右のフリック操作を検知したか否かを判定する。フリック操作を検知した場合は、タッチパネル画面102への表示対象ページを特定し、特定したページの映像信号を順に表示部202に供給する。そして、ステップS1302の処理を行う。フリック操作を検知せずにページ遷移が終了したと判定された場合は、ステップS1303の処理を行う。
ステップS1303において、制御部205は、期間変更を行う。すなわち、制御部205は所定離脱時間を変更する。例えば、所定離脱時間を3000msecから2000msecに変更する。
ページ遷移をする場合、ユーザは視認文字を変更する可能性が極めて高い。よって、スクロール操作をする場合は、離脱時間の経過を待たずに、視認連続文字数と視認連続時間に応じて音声出力開始文字を変更すればよい。即ち、図13では、ページ遷移をする場合は、所定離脱時間を下げることにより、離脱時間の経過を無視することが可能となる。
なお、ページ遷移が確定した場合のステップS1303では、遷移前のページと遷移後のページが異なる場合には、音声出力開始位置を無条件にページ先頭に設定するようにしても構わない。
[変形例6]
ここで、タッチパネル画面102に対してスクロール指示を検出した場合の変形例を、図12のフローチャートを用いて説明する。なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図12において、図4、9、10、11と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS1201からステップS1203の処理が図4、9、10、11のフローチャートの処理に加えられている。
ステップS1201において、スクロール操作部210は、入力部201の上若しくは左のフリック操作を検知した場合、タッチパネル画面102への表示対象ページを特定し、特定したページの映像信号を順に表示部202に供給する。フリック操作を検知した場合は、ステップS1202の処理を行う。フリック操作を検知しなかった場合は、ステップS902の処理を行う。
ステップS1202において、ページ遷移部211は、所定時間の間に左若しくは右のフリック操作を検知したか否かを判定する。フリック操作を検知した場合は、タッチパネル画面102への表示領域を特定し、特定した表示領域の映像信号をスクロール移動順に表示部202に供給する。そして、ステップS1202の処理を行う。フリック操作を検知せずにページ遷移が終了したと判定された場合は、ステップS1203の処理を行う。
ステップS1203において、制御部205は、所定離脱時間を変更する。例えば、所定離脱時間を3000msecから2000msecに変更する。
スクロール操作をする場合、ユーザは視認文字を変更する可能性が極めて高い。よって、スクロール操作をする場合は、離脱時間の経過を待たずに、視認連続文字数と視認連続時間に応じて音声出力開始文字を変更すればよい。即ち、図12では、スクロール操作をする場合は、所定離脱時間を下げることにより、離脱時間の経過を無視することが可能となる。
[変形例7]
以上、図4では、距離間文字数(文章としての文字列の並び順に沿った距離)に応じて、音声出力開始文字を変更していたがこれに限るものではない。音声出力中文字と視認位置との表示画面という2次元空間内での距離(2点間距離)に応じて、音声出力開始文字を変更してもよい。この為の変形例を、図17のフローチャートを用いて説明する。なお、以下の説明では、タッチパネル画面102には、電子書籍コンテンツにおいてN(N≧1)ページ目のページ(ページNと呼称する)が表示されており、且つこのNページ目のページについてはまだ音声出力を行っていない点は同じである。図17において、図4と同じ処理ステップには同じステップ番号を付しており、その説明は省略する。ステップS402、ステップS406、ステップS407の処理が、ステップS1701からステップS1703の処理に置き換わる。
ステップS1701において、音声出力中文字記憶部212は、先ず、図4のステップS402と同様の処理を行う。そして、同時に、音声出力中文字の座標(音声出力中座標)を記憶する。本実施形態では、音声出力中座標は文字領域の中心点とする。
ステップS1702において、距離特定部204は、音声出力中座標と視認位置の座標との距離(2点間距離K)の特定を行う。2点間距離の特定の方法については、公知なのでここでは省略する。
ステップS1703において、制御部205は、2点間距離Kが所定2点間距離以上であるか否かを判定する。所定2点間距離以上である場合は、ステップS408の処理を行う。所定2点間距離以上でない場合は、ステップS401の処理を行う。
ここで、本実施形態では、ステップS401では、ページの先頭から音声出力を行っていたが、これに限るものではない。タッチ操作で音声出力開始文字を指定した後に、音声出力ボタン104を押下することで、指定された音声出力開始文字から音声出力してもよい。また、電子書籍コンテンツを朗読した音声波形データを音声出力しているが、電子書籍コンテンツを音声合成の技術により音声出力してもよい。ただし、音声合成の技術を用いる場合、ステップS407において、音声出力位置制御部205は、音声出力開始文字以降に並んでいる文字の音声波形データに基づく音声信号を、スピーカ103に供給する。例えば、「今年の電子書籍コンテンツの増加率は目覚ましいものがありました。」の文章の「子」が音声出力開始文字になったとする。音声合成技術を用いた場合、「ししょせき」と読み上げられずに、「こしょせき」のように誤った読みになる場合がある。よって、音声出力開始文字の付近の文字にある、文章の先頭や文章中の区切りの良い文字から、音声合成により音声出力される。例えば、文章の先頭の「来年・・・」、もしくは、文章中の「電子・・・」や「ますます・・・」から音声出力される。音声合成技術については、公知なのでここでは省略する。
(その他の実施形態)
以上の実施形態では、テキストの音声出力制御について説明したが、テキストの代わりに、画像やアイコンを含むコンテンツに対して、音声出力制御を行ってもよい。その場合、文字と音声が対応付けられる代わりに、画像データやアイコンボタンなどに音声を対応付ければよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. テキストを表示画面に表示するための表示手段、及び、前記テキストを音声として出力する音声出力手段を有する電子機器であって、
    ユーザの視線方向を検出する視線検出手段と、
    前記音声出力手段が音声出力している現在の文字位置を現出力文字位置、前記視線検出手段で検出したユーザの視線方向に存在する前記テキストにおける文字位置を現視認文字位置としたとき、前記現出力文字位置と前記現視認文字位置との距離に応じて、前記音声出力手段の音声出力の開始位置を変更する制御手段とを有し、
    該制御手段は、
    前記現出力文字位置と、前記現視認文字位置との距離が、予め設定された閾値以上になったか否かを判定する判定手段と、
    該判定手段で前記距離が前記閾値以上にあったと判定した場合、前記現視認文字位置を前記音声出力手段の音声出力の開始位置に設定する設定手段とを備える
    ことを特徴とする電子機器。
  2. 前記閾値を第1の閾値とし、当該第1の閾値よりも小さい閾値を第2の閾値としたとき、
    前記制御手段は、前記距離が、前記第2の閾値以上であって、前記第1の閾値を下回る場合には、前記音声出力手段を制御して音声出力を停止することを特徴とする請求項1に記載の電子機器。
  3. 前記設定手段は、前記距離が前記閾値以上になっている状態が所定期間以上継続した場合に、前記視認文字位置を前記音声出力手段の音声出力の開始位置に設定することを特徴とする請求項1に記載の電子機器。
  4. 前記設定手段は、前記視線検出手段で検出した視線方向に存在する視認文字の位置が、文章の文字に沿って連続して所定文字数以上移動したことを更なる条件として、前記音声出力手段の音声出力の開始位置に設定することを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記制御手段は、前記視線検出手段で検出した視線方向に存在する視認文字位置の移動する速度を検出する速度検出手段を更に有し、
    前記設定手段は、前記音声出力手段の音声出力の開始位置に設定すると共に、前記速度検出手段が検出した速度に応じた音声出力速度を設定することを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  6. 前記制御手段は、前記表示画面に表示れるテキストに対して、ページ遷移指示もしくはスクロール指示があった場合、前記所定期間を変更する期間変更手段を有することを特徴とする請求項3に記載の電子機器。
  7. 前記判定手段の判定に用いる距離は、前記テキストにおける文字列の並びに沿った、前記現出力文字位置と前記現視認文字位置との文字数とすることを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
  8. 前記判定手段の判定に用いる距離は、前記現出力文字位置と前記現視認文字位置の前記表示画面上の2次元空間における距離とすることを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
  9. コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至8のいずれか1項に記載の電子機器として機能させるためのプログラム。
  10. 請求項9に記載のプログラムを格納したことを特徴とするコンピュータが読み込み可能な記憶媒体。
  11. テキストを表示画面に表示するための表示手段、前記テキストを音声として出力する音声出力手段、ユーザの視線方向を検出する視線検出手段とを有する電子機器の制御方法であって、
    制御手段が、前記音声出力手段が音声出力している現在の文字位置を現出力文字位置、前記視線検出手段で検出したユーザの視線方向に存在する前記テキストにおける文字位置を現視認文字位置としたとき、前記現出力文字位置と前記現視認文字位置との距離に応じて、前記音声出力手段の音声出力の開始位置を変更する制御工程を有し、
    該制御工程は、
    前記現出力文字位置と、前記現視認文字位置との距離が、予め設定された閾値以上になったか否かを判定する判定工程と、
    該判定工程で前記距離が前記閾値以上にあったと判定した場合、前記現視認文字位置を前記音声出力手段の音声出力の開始位置に設定する設定工程とを備える
    ことを特徴とする電子機器の制御方法。
JP2012156925A 2012-07-12 2012-07-12 電子機器及びその制御方法 Expired - Fee Related JP5963584B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012156925A JP5963584B2 (ja) 2012-07-12 2012-07-12 電子機器及びその制御方法
US13/937,357 US9257114B2 (en) 2012-07-12 2013-07-09 Electronic device, information processing apparatus,and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012156925A JP5963584B2 (ja) 2012-07-12 2012-07-12 電子機器及びその制御方法

Publications (3)

Publication Number Publication Date
JP2014021565A true JP2014021565A (ja) 2014-02-03
JP2014021565A5 JP2014021565A5 (ja) 2015-07-30
JP5963584B2 JP5963584B2 (ja) 2016-08-03

Family

ID=49914722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012156925A Expired - Fee Related JP5963584B2 (ja) 2012-07-12 2012-07-12 電子機器及びその制御方法

Country Status (2)

Country Link
US (1) US9257114B2 (ja)
JP (1) JP5963584B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008853A (ja) * 2018-07-04 2020-01-16 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声出力方法および装置
JP2023520345A (ja) * 2020-03-27 2023-05-17 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
US11972043B2 (en) 2014-06-19 2024-04-30 Apple Inc. User detection by a computing device

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5963584B2 (ja) * 2012-07-12 2016-08-03 キヤノン株式会社 電子機器及びその制御方法
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
WO2014134623A1 (en) 2013-03-01 2014-09-04 Tobii Technology Ab Delay warp gaze interaction
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
US9606622B1 (en) * 2014-06-26 2017-03-28 Audible, Inc. Gaze-based modification to content presentation
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
JP2016189556A (ja) * 2015-03-30 2016-11-04 株式会社リコー 面談管理システム、面談システム、面談管理方法及びプログラム
US9858943B1 (en) 2017-05-09 2018-01-02 Sony Corporation Accessibility for the hearing impaired using measurement and object based audio
US10650702B2 (en) 2017-07-10 2020-05-12 Sony Corporation Modifying display region for people with loss of peripheral vision
US10805676B2 (en) 2017-07-10 2020-10-13 Sony Corporation Modifying display region for people with macular degeneration
US10845954B2 (en) 2017-07-11 2020-11-24 Sony Corporation Presenting audio video display options as list or matrix
US10303427B2 (en) 2017-07-11 2019-05-28 Sony Corporation Moving audio from center speaker to peripheral speaker of display device for macular degeneration accessibility
US10051331B1 (en) 2017-07-11 2018-08-14 Sony Corporation Quick accessibility profiles
US10923101B2 (en) * 2017-12-26 2021-02-16 International Business Machines Corporation Pausing synthesized speech output from a voice-controlled device
US11750379B2 (en) 2020-06-11 2023-09-05 Western Digital Technologies, Inc. Secure optical communication link
US20210143982A1 (en) * 2021-01-14 2021-05-13 Netspective Communications Llc System for management of rewardable computer-controlled content blocks delivery and consumption

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333995A (ja) * 1992-05-29 1993-12-17 Nippon Steel Corp 画面制御装置
JPH10187334A (ja) * 1996-12-26 1998-07-14 Canon Inc 情報入力方法および情報入力装置と情報入力用記憶媒体
US6195640B1 (en) * 1999-01-29 2001-02-27 International Business Machines Corporation Audio reader
JP2003345335A (ja) * 2002-05-28 2003-12-03 Minolta Co Ltd 読取補助画像表示装置
JP2006107048A (ja) * 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 視線対応制御装置および視線対応制御方法
WO2006100645A2 (en) * 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
JP2007102360A (ja) * 2005-09-30 2007-04-19 Sharp Corp 電子書籍装置
JP2010112979A (ja) * 2008-11-04 2010-05-20 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2011233047A (ja) * 2010-04-28 2011-11-17 Panasonic Corp 電子書籍装置、電子書籍再生方法、及び電子書籍再生プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US20120105486A1 (en) * 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
US20110205148A1 (en) * 2010-02-24 2011-08-25 Corriveau Philip J Facial Tracking Electronic Reader
US20120001923A1 (en) * 2010-07-03 2012-01-05 Sara Weinzimmer Sound-enhanced ebook with sound events triggered by reader progress
US8893164B1 (en) * 2012-05-16 2014-11-18 Google Inc. Audio system
JP5963584B2 (ja) * 2012-07-12 2016-08-03 キヤノン株式会社 電子機器及びその制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333995A (ja) * 1992-05-29 1993-12-17 Nippon Steel Corp 画面制御装置
JPH10187334A (ja) * 1996-12-26 1998-07-14 Canon Inc 情報入力方法および情報入力装置と情報入力用記憶媒体
US6195640B1 (en) * 1999-01-29 2001-02-27 International Business Machines Corporation Audio reader
JP2003345335A (ja) * 2002-05-28 2003-12-03 Minolta Co Ltd 読取補助画像表示装置
JP2006107048A (ja) * 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 視線対応制御装置および視線対応制御方法
WO2006100645A2 (en) * 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
JP2007102360A (ja) * 2005-09-30 2007-04-19 Sharp Corp 電子書籍装置
JP2010112979A (ja) * 2008-11-04 2010-05-20 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2011233047A (ja) * 2010-04-28 2011-11-17 Panasonic Corp 電子書籍装置、電子書籍再生方法、及び電子書籍再生プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11972043B2 (en) 2014-06-19 2024-04-30 Apple Inc. User detection by a computing device
JP2020008853A (ja) * 2018-07-04 2020-01-16 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声出力方法および装置
JP2023520345A (ja) * 2020-03-27 2023-05-17 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
JP7389270B2 (ja) 2020-03-27 2023-11-29 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース

Also Published As

Publication number Publication date
JP5963584B2 (ja) 2016-08-03
US9257114B2 (en) 2016-02-09
US20140019136A1 (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP5963584B2 (ja) 電子機器及びその制御方法
DK180640B1 (en) Devices and methods of measurement using augmented reality
US10733466B2 (en) Method and device for reproducing content
CN109254720B (zh) 用于再现内容的方法和装置
US10592095B2 (en) Instantaneous speaking of content on touch devices
JP5893032B2 (ja) モバイルデバイスの画面上の領域選択方法及び装置
EP3139261A1 (en) User terminal apparatus, system, and method for controlling the same
ES2958183T3 (es) Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo
WO2016103988A1 (ja) 情報処理装置、情報処理方法およびプログラム
US10089061B2 (en) Electronic device and method
JP2014186361A (ja) 情報処理装置、操作制御方法及びプログラム
US10770077B2 (en) Electronic device and method
US20130346085A1 (en) Mouth click sound based computer-human interaction method, system and apparatus
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
KR102347068B1 (ko) 컨텐트를 재생하는 방법 및 이를 위한 디바이스
KR20160133305A (ko) 제스쳐 인식 방법, 컴퓨팅 장치 및 제어 장치
KR20180103547A (ko) 휴대 장치 및 휴대 장치의 화면 제어방법
CN109582203B (zh) 用于再现内容的方法和装置
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP6039990B2 (ja) 情報処理装置及びその制御方法
JP6103970B2 (ja) 情報処理装置、情報処理方法
Bacher Enhancing the Man-Machine-Interface of Accelerator Control Applications with Modern Consumer Market Technologies

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160628

R151 Written notification of patent or utility model registration

Ref document number: 5963584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees