JP2011164681A - 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 - Google Patents
文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP2011164681A JP2011164681A JP2010023228A JP2010023228A JP2011164681A JP 2011164681 A JP2011164681 A JP 2011164681A JP 2010023228 A JP2010023228 A JP 2010023228A JP 2010023228 A JP2010023228 A JP 2010023228A JP 2011164681 A JP2011164681 A JP 2011164681A
- Authority
- JP
- Japan
- Prior art keywords
- video
- user
- character
- information
- character input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】映像に対するユーザの感想をより簡単に利用可能にする文字入力装置を提供する。
【解決手段】本発明に係る文字入力装置1は、ディスプレイ2に映像を表示する映像出力部5と、映像の表示中にディスプレイ2の前方に存在するユーザの顔面を捉えた顔動画を取得するカメラ15と、取得された顔動画を解析して、ユーザの口の動きに対応する文字情報を生成する解析部11と、生成された文字情報を映像情報に対して関連付けるつぶやき処理部13とを備えている。これによって、上記映像情報に関連付けられた文字情報を、上記映像に対するユーザの感想として簡易に利用することができる。
【選択図】図1
【解決手段】本発明に係る文字入力装置1は、ディスプレイ2に映像を表示する映像出力部5と、映像の表示中にディスプレイ2の前方に存在するユーザの顔面を捉えた顔動画を取得するカメラ15と、取得された顔動画を解析して、ユーザの口の動きに対応する文字情報を生成する解析部11と、生成された文字情報を映像情報に対して関連付けるつぶやき処理部13とを備えている。これによって、上記映像情報に関連付けられた文字情報を、上記映像に対するユーザの感想として簡易に利用することができる。
【選択図】図1
Description
本発明は、文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体に関する。
従来、情報端末への文字入力手段の一つとして、ユーザの声をマイクロフォンで採取し、これを解析してテキストに変換する技術が存在する。また最近では、外部から採取した音声以外を解析対象にする新たな手法が開発されている。
例えば、特許文献1には、非可聴つぶやき音の肉伝導の振動音を採取して、音声認識の対象とする技術が開示されている。特許文献1に開示された技術では、ユーザの体表に聴診器型のマイクロフォンを装着させ、生体の規則振動を用いない発話行動に伴って調音される非可聴つぶやき音の肉伝導の振動音を採取している。
また、近年では、ユーザの口の動きからその発話内容を解析する技術(リップリーディング)が開発されている(例えば、非特許文献1参照)。
ところで、近年、インターネットの普及に伴い、放送番組やコンテンツ等に対する評価や感想を他の視聴者と共有する様々なコミュニケーションサービスサイトが提供されている。例えば、複数のユーザが意見を交換するチャットや、個々のユーザが感想等を記録するブログ、また、個々のユーザが「つぶやき」を投稿するTwitter等のソーシャルネットワーキングサービス(SNS)などが存在する。
Sarah Hilder、他2名、「Comparison of human and machine-based lip-reading」、Proceedings of the International Conference on Auditory-Visual Speech Processing(AVSP 2009)、(米国)、2009年9月10日、p.86−89
上述のようなコミュニケーションサービスサイトの充実化に伴い、映像に対するユーザの感想をテキスト化して利用する機会が増えている。また、テレビやパーソナルコンピュータ(PC)等、映像を表示する装置の高機能化している現状、映像に対するユーザの感想のテキスト化は、有用性が高いと考えられる。しかしながら、現状、映像に対するユーザの感想をテキスト化するためには、ユーザが映像表示装置で映像を視聴した後、リモコンやキーボード等によって情報端末に文字列を入力するという手間が必要となる。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、映像に対するユーザの感想をより簡単に利用可能にする文字入力装置を提供することにある。
本発明者らは上記課題を解決するために鋭意検討を行った。その結果、本発明者らは、上記課題を解決するために、映像視聴中におけるユーザの発話内容を解析することによって、当該映像に対するユーザの感想をテキスト化する方法を着想した。そこで、本発明者らは、映像視聴中のユーザの発話内容を解析するための手段を検討した。
例えば、マイクロフォンで採取した音声を解析する手段を用いた場合、テレビ等の文字入力装置から出力される音声が反射して混入してしまい、ユーザの声のみを採取することが困難であることが判明した。また、ユーザの声がある程度の音量を有していないと、マイクロフォンで声を採取することができないことが分かった。
また、特許文献1に開示された技術を用いた場合では、肉伝導の振動音を採取するための特別な機器を、ユーザが装着する必要があり、ユーザに対する負担となってしまう。
そこで、本発明者らは、映像視聴中のユーザの発話内容を解析するための手段として、ユーザの口の動きからその発話内容を解析する技術に注目した。
すなわち、本発明に係る文字入力装置は、上記の課題を解決するために、画面に映像を表示する表示手段と、上記映像の表示中に上記画面の前方に存在するユーザの顔面を捉えた顔動画を取得するカメラと、取得された上記顔動画を解析して、上記ユーザの口の動きに対応する文字情報を生成する解析手段と、生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得したときに表示中であった上記映像の映像情報に対して関連付ける関連付け手段とを備えることを特徴としている。
上記構成において、本発明に係る文字入力装置は、映像を表示し、当該映像を視聴しているユーザの口の動きに基づいて当該口の動きに対応した文字情報を生成し、さらに生成された文字情報を表示中であった映像の映像情報に関連付ける。したがって、本発明に係る文字入力装置によれば、ユーザによる文字入力操作を必要とせず、上記映像情報に関連付けられた文字情報を、上記映像に対するユーザの感想として簡易に利用することができる。さらに、本発明に係る文字入力装置は、上記映像情報に関連付けられた文字情報を用いることによって、上記映像に対する様々な処理を行うことができる。
また、上記構成によれば、映像視聴中のユーザの口の動きに基づいて処理が行われるため、ユーザが無意識に発した言葉等、生の感想を取得することができる。
また、上記構成によれば、ユーザの口の動きに基づいて文字情報を生成しているため、マイクを必要としない。したがって、通常の映像に付随する音声の反射やユーザ以外の声など、マイクを利用した場合に生じる雑音に関する問題を回避することができる。また、ユーザが、つぶやき程度の不可聴の声で発話した場合であっても、その内容を文字情報として生成することができる。
また、本発明に係る文字入力装置は、上記画面の前方に存在するユーザを感知する人感センサをさらに備えており、上記カメラは、上記人感センサがユーザを感知した場合に、上記顔動画の取得を開始することが好ましい。
上記構成によれば、人感センサとカメラとを連動させることによって、カメラの誤作動を防ぐことができ、さらに省エネを実現することができる。
さらに、本発明に係る文字入力装置において、上記人感センサは、上記画面の前方におけるユーザの存在する範囲を特定する機能を有しており、上記解析手段は、取得された上記顔動画のうち、上記人感センサにより特定された範囲を解析することが好ましい。
上記構成によれば、画像解析の範囲を減らすことができるため、解析速度を向上することができる。
また、本発明に係る文字入力装置は、上記映像情報に関連付けられた上記文字情報に基づいて、当該映像のお勧め度を算出するお勧め度算出手段をさらに備えていることが好ましい。
上記構成によれば、上記お勧め度を映像の評価パラメータとして利用することができる。例えば、放送番組の番組情報に文字情報が関連付けられている場合、定期的に(例えば毎週)放映されている放送番組であれば、過去の視聴時に生成された文字情報に基づいてお勧め度を算出し、次回放映時の放送番組をお勧めすることができる。
また、本発明に係る文字入力装置において、上記映像は、時間軸を有するコンテンツの映像であって、上記関連付け手段は、生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得した時点における上記コンテンツの再生時間に対してさらに関連付けることが好ましい。
上記構成によれば、映像情報に文字情報と再生時間とが関連付けられているため、ユーザは、文字情報に基づいて映像の場面検索を行うことができる。例えば映像が映画コンテンツである場合、ユーザは、興奮したり印象的だったりする場面で感想を発することにより、それらの場面を後から検索することができる。
また、本発明に係る文字入力装置は、上記再生時間まで再生された時点の上記コンテンツの画像をサムネイルとして表示するサムネイル表示手段をさらに備えていることが好ましい。
上記構成によれば、ユーザが感想を発した時点の映像場面がサムネイルとして表示される。これによって、ユーザにお勧めの映像場面を提示することができる。
また、本発明に係る文字入力装置は、上記映像情報に関連付けられた上記文字情報を、上記映像と共に表示する文字情報表示手段をさらに備えていることが好ましい。
上記構成によれば、映像を視聴するユーザの間で、当該映像に対する感想を手軽に共有することができる。
また、本発明に係る文字入力装置は、表示される上記映像の上記映像情報に基づいて、外部サーバにおける、当該映像に関するコメントを入力可能なサイトに接続する通信手段と、上記通信手段を介して、上記映像情報に関連付けられた上記文字情報を上記ウェブサイトに入力する入力手段とを、さらに備えることが好ましい。
上記構成によれば、上記ウェブサイトに対するコメントの入力について、煩雑なユーザ操作を必要とせず自動で行うことができる。
また本発明に係る文字入力方法は、画面に映像を表示する表示工程と、上記映像の表示中に上記画面の前方に存在するユーザの顔を捉えた顔動画を取得する動画取得工程と、取得された上記顔動画を解析して、上記ユーザの口の動きに対応する文字情報を生成する解析工程と、生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得したときに表示中であった上記映像の映像情報に対して関連付ける関連付け工程とを備えることを特徴としている。
上記構成によれば、本発明に係る文字入力装置と同様の効果を奏する。
また、上記文字入力装置は、コンピュータによって実現してもよい。この場合、コンピュータを上記各手段として動作させることにより上記文字入力装置をコンピュータにおいて実現する文字入力プログラム、およびその文字入力プログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は、画面に映像を表示する表示手段と、上記映像の表示中に上記画面の前方に存在するユーザの顔面を捉えた顔動画を取得するカメラと、取得された上記顔動画を解析して、上記ユーザの口の動きに対応する文字情報を生成する解析手段と、生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得したときに表示中であった上記映像の映像情報に対して関連付ける関連付け手段とを備えるため、映像に対するユーザの感想をより簡単に利用可能にするという効果を奏する。
本発明の一実施形態について図1から図7に基づいて説明すれば、以下のとおりである。
(文字入力装置1の構成)
本実施形態に係る文字入力装置1は、例えば放送番組または動画コンテンツ等の映像を表示し、映像表示中におけるユーザの口の動きを撮影し、撮影した動画を解析してユーザの口の動きに対応する文字情報を生成し、当該文字情報と映像情報とを関連付ける処理を行うものである。
本実施形態に係る文字入力装置1は、例えば放送番組または動画コンテンツ等の映像を表示し、映像表示中におけるユーザの口の動きを撮影し、撮影した動画を解析してユーザの口の動きに対応する文字情報を生成し、当該文字情報と映像情報とを関連付ける処理を行うものである。
また、本実施形態に係る文字入力装置1は、例えば、テレビ、PC(Personal Computer)、またはPC内蔵テレビ等として構成することができる。
本実施の形態に係る文字入力装置1について、図1を参照して説明する。図1は本実施形態に係る文字入力装置1の要部構成を示すブロック図である。
図1に示すように、文字入力装置1は、制御部4、映像出力部(表示手段)5、表示制御部(サムネイル表示手段、文字情報表示手段)6、音声出力部7、コンテンツ取得部8、コンテンツ処理部9、通信部(通信手段)10、解析部(解析手段)11、ユーザ入力部12、つぶやき処理部(関連付け手段、お勧め度算出手段、入力手段)13、記憶部14、カメラ15、および人感センサ16を備えている。また、文字入力装置1には、ディスプレイ2、スピーカ3、およびリモコン20がそれぞれ接続されている。なお、ディスプレイ2、スピーカ3、およびリモコン20は、それぞれ文字入力装置1と一体的に構成されていてもよい。
制御部4は、文字入力装置1を構成する各ブロックを統括制御する。
映像出力部5は、コンテンツ処理部9から送られた映像信号をディスプレイ2に出力する。
表示制御部6は、文字情報をコンテンツ処理部9から出力される映像信号に重ね合わせる重畳処理を行ったり、コンテンツのサムネイル表示を行ったりする。
音声出力部7は、コンテンツ処理部9から送られた音声信号をスピーカ3に出力する。
コンテンツ取得部8は、以下に記載する少なくともいずれか1つの方法でコンテンツまたは放送番組を取得し、コンテンツ処理部9に出力する。
例えば、コンテンツ取得部8は、アンテナ17やケーブルテレビ放送網(図示しない)を通じて放送波を受信してもよいし、インターネット18を通じてIP放送データ(IP放送波)を受信してもよい。また、コンテンツ取得部8は、HDMIケーブルまたはビデオケーブルなどを介して録画再生機器(図示しない)から入力される外部入力映像を取得してもよい。また、コンテンツ取得部8は、記録ディスク19からコンテンツを取得してもよいし、インターネット18を介してサーバ装置あるいはクライアント装置からコンテンツを取得してもよい。
ここで、コンテンツとは、コンピュータによって処理され再生可能なコンテンツのことである。コンテンツの種類としては、映画等の動画コンテンツや、スライドショー表示される画像コンテンツなどを好適に利用することができる。
コンテンツ処理部9は、コンテンツ取得部8から入力されたコンテンツまたは放送番組を再生可能なように処理(例えばデコード)して、映像出力部5や音声出力部7に出力する。
通信部10は、インターネット18を介して外部のサーバ装置と通信を行うインターフェースである。
解析部11は、カメラ15によって撮影された動画を解析することによって、ユーザの口の動きを検出し、この口の動きに対応する文字情報を生成する。解析部11については、例えば、ユーザの口の動きからその発話内容を解析する解析ソフトウェアを用いて実現することができる。
ユーザ入力部12は、ユーザによる入力操作に応じてリモコン20が出力した指示を受け付ける。
つぶやき処理部13は、解析部11により生成された文字情報を、当該文字情報の基となる動画を取得したときに映像が表示されていた映像(コンテンツまたは番組)の情報と関連付ける。
記憶部14は、コンテンツ情報や番組情報などの映像情報および文字情報を記憶する。なお、これらの情報をユーザ毎に区分して記憶してもよい。
カメラ15は、ユーザの顔面を捉えた動画(顔動画)を撮影し、その動画データを解析部11に出力する。
人感センサ16は、ディスプレイ2の前方におけるユーザの存在を感知する。人感センサ16としては、赤外線センサなどを用いることができる。
(放送番組に対する文字入力処理)
文字入力装置1における文字入力処理の一例について、図2を参照して以下に説明する。図2は、文字入力装置1における文字入力処理の流れを示すフローチャートである。
文字入力装置1における文字入力処理の一例について、図2を参照して以下に説明する。図2は、文字入力装置1における文字入力処理の流れを示すフローチャートである。
なお、以下の説明は、文字入力装置1が放送番組を表示する場合を例として用いているが、これに限定されない。
まず、ユーザが、リモコン20を操作して、所望の放送番組を表示させる指示を入力すると、リモコン20が、入力された指示をユーザ入力部12に出力する。これに応じて、文字入力装置1は、ディスプレイ2にユーザ所望の放送番組の表示を開始させる(ステップS11)。具体的には、コンテンツ取得部8がユーザ所望の放送番組の放送波を受信し、コンテンツ処理部9に出力する。コンテンツ処理部9は入力された放送波を処理して放送番組を生成し、映像信号を映像出力部5に、また音声信号を音声出力部7にそれぞれ出力する。映像出力部5は入力された映像をディスプレイ2に出力し、音声出力部7は入力された音声信号をスピーカ3に出力する。
また、コンテンツ取得部8は、放送番組の受信と同時に、当該放送番組に関する番組情報を取得している。ここで、番組情報とは、番組のタイトルや出演者、放送時間等を含む情報である。
ディスプレイ2に番組が表示されると、人感センサ16が、ディスプレイ2の前方に存在するユーザの検出を開始する(ステップS12)。人感センサ16がユーザの存在を検出すると、これに応じてカメラ15は、ユーザの顔を捉えた動画の取得を開始する(ステップS13)。
次いで、解析部11は、カメラ15により取得された動画を解析し、ユーザの顔の認識を開始する(ステップS14)。このとき、解析部11は、動画中に認識した顔と、例えば予め記憶部14に登録されたユーザの顔情報と照合することによって、ユーザを識別することが好ましい。
また、解析部11は、認識した顔をトレースしてユーザの口の動きを検出し、検出した口の動きを解析して、ユーザの発話内容に対応する文字情報を生成する(ステップS15)。
次いで、つぶやき処理部13は、ステップS15で生成された文字情報を、ステップS11で取得された番組情報に関連付けて記憶部14に格納する(ステップS16)。以下、説明のために、生成された文字情報をつぶやき情報と称する場合がある。
なお、制御部4が、ユーザが放送番組を視聴していると判断する間は、ステップS15およびステップS16が繰り返されることが好ましい(ステップS17)。例えば、ユーザ所望の放送番組の表示、人感センサ16によるユーザの検出、カメラ15による映像データ取得、及び顔認識が続いている間は、ステップS15およびステップS16が繰り返されることが好ましい。
以上の処理によれば、番組視聴中にユーザが発話した(つぶやいた)内容を、当該番組に対するユーザの感想として簡易にテキスト化することができる。また、上記処理では、ユーザがつぶやき程度の不可聴の声で発話した場合であっても、その内容を文字情報として生成することができる。
(文字入力処理の変形例)
なお、ステップS13において、カメラ15の電源がOFFになっている場合には、人感センサ16によるユーザの存在の検出に応じて、制御部4がカメラ15の電源をONにすることが好ましい。このように人感センサ16とカメラ15とを連動させることによって、カメラ15の誤作動を防ぐことができ、さらに省エネを実現することができる。
なお、ステップS13において、カメラ15の電源がOFFになっている場合には、人感センサ16によるユーザの存在の検出に応じて、制御部4がカメラ15の電源をONにすることが好ましい。このように人感センサ16とカメラ15とを連動させることによって、カメラ15の誤作動を防ぐことができ、さらに省エネを実現することができる。
また、ステップS12において、人感センサ16は、ディスプレイ2に対してユーザが存在する範囲をある程度に特定することが好ましい。この場合、ステップS14において、解析部11は、入力された動画のうち、人感センサ16によって特定された範囲のみを解析することによって、ユーザの顔を認識し、その口の動きを検出することができる。これによって、解析部11による画像解析の範囲が減るため、その計算速度を向上させることができる。
また、ステップS12は必須の工程ではなく省略されてもよい。例えば、ステップS13では、ディスプレイ2に番組が表示されると、これに応じてカメラ15は、ユーザの顔を捉えた動画を取得してもよい。
また、ステップS15における口の動き検出の際、解析部11は、ユーザの視線がディスプレイ2に向いているか否かについて判定し、ユーザの視線がディスプレイ2に向いていると判定された時の口の動きのみを検出することが好ましい。このようなフィルターをかけることによって、表示されている番組以外に関して発話された内容が解析される可能性が減少し、文字入力処理の精度を向上することができる。
(お勧め番組の提示)
文字入力装置1は、上述の文字入力処理後、記憶されたつぶやき情報を利用して、ユーザにお勧め番組を提示することができる。お勧め番組提示を行う処理の一例について図3を参照して以下に説明する。図3は、文字入力装置1におけるお勧め番組提示処理の流れを示すフローチャートである。
文字入力装置1は、上述の文字入力処理後、記憶されたつぶやき情報を利用して、ユーザにお勧め番組を提示することができる。お勧め番組提示を行う処理の一例について図3を参照して以下に説明する。図3は、文字入力装置1におけるお勧め番組提示処理の流れを示すフローチャートである。
まず、文字入力装置1では、ユーザの指示により、コンテンツ取得部8がアンテナ17を介して番組欄のデータを取得し、表示制御部6が、取得された番組欄をディスプレイ2に表示させる(ステップS21)。
ここで、ユーザがリモコン20を操作してお勧め番組を表示させる指示を入力すると、リモコン20が、入力されたお勧め番組表示指示をユーザ入力部12に出力する。これに応じて、カメラ15は、ディスプレイ2の前方に存在するユーザの顔の動画を取得する(ステップS22)。
次いで、解析部11が、カメラ15により取得された動画を解析することによって、ユーザの顔を認識し、そのユーザを識別する(ステップS23)。
次いで、つぶやき処理部13は、番組欄に含まれる番組の番組情報と、記憶部14に記憶されている番組情報とを照合する(ステップS24)。その結果、番組欄に含まれる番組の番組情報のいずれかが、ステップS23にて識別されたユーザのつぶやき情報に関連付けられた番組情報と合致していれば、その番組のお勧め度を算出する(ステップS25)。
次いで、つぶやき処理部13は、番組欄に含まれる番組の番組情報と、記憶部14に記憶されている番組情報とを照合する(ステップS24)。その結果、番組欄に含まれる番組の番組情報のいずれかが、ステップS23にて識別されたユーザのつぶやき情報に関連付けられた番組情報と合致していれば、その番組のお勧め度を算出する(ステップS25)。
お勧め度の算出方法としては、ある番組情報に対して、例えば「すごい」、「おもしろい」、または笑い声など、ポジティブな意味合いを有する文字情報が1つ関連付けられている毎にポイントを加算し、一方、「つまらない」等のネガティブな意味合いを有する文字情報が1つ関連付けられている毎にポイントを減算する。このようなポイントの総合点を当該番組のお勧め度とする。なお、どのような文字情報についてポイントを加算または減算するかについては、予め記憶部14に登録されていてもよい。
次いで、つぶやき処理部13は、算出したお勧め度に基づいて、番組欄に含まれる番組のうちお勧め度の高い番組を優先して抽出する(ステップS26)。抽出すべき番組のお勧め度の最低ラインを予め設定しておいてもよいし、お勧め度の高い番組から順に、予め設定された一定数の番組を抽出してもよい。
次いで、表示制御部6は、抽出されたお勧め番組をディスプレイ2に表示させる。
以上の処理によれば、ユーザのつぶやき情報を放送番組のパラメータとして利用することができる。例えば毎週など定期的に同じ番組の放送がある場合、前回放送時におけるユーザの評価パラメータが高い番組をユーザにお勧めすることができる。
なお、上述のお勧め番組提示処理では、利用ユーザの識別を行い、当該ユーザのつぶやき情報のみを利用した処理を行っているが、本発明はこれに限定されない。例えば、上述のステップS14におけるユーザの識別を省略した場合には、ユーザの区別を行わずにお勧め番組を提示してもよい。また、利用ユーザとは異なるユーザのつぶやき情報を利用して、他のユーザによる評価が高い番組をお勧めしたり、複数のユーザによる総合的な評価が高い番組をお勧めしたりしてもよい。
また、上述のお勧め番組提示処理は、放送番組を用いた例に限定されない。すなわち、後述するスライドショーや動画コンテンツ等、他の映像を表示して文字入力処理を行った後に、その映像に関連付けられたつぶやき情報を利用して、当該映像のお勧め度を算出してもよい。これによって、例えば他のユーザのお勧め度が高いスライドショーや動画コンテンツ等を、ユーザに提示することができる。
(スライドショーに対する文字入力処理)
文字入力装置1における文字入力処理の他の一例について、図4を参照して以下に説明する。図4は、文字入力装置1における文字入力処理の他の一例の流れを示すフローチャートである。
文字入力装置1における文字入力処理の他の一例について、図4を参照して以下に説明する。図4は、文字入力装置1における文字入力処理の他の一例の流れを示すフローチャートである。
なお、以下の説明は、文字入力装置1が複数の画像コンテンツからなるスライドショーを表示する場合を例として用いているが、これに限定されない。また、上述した文字入力処理の変形例は、すべて本例にも等しく適用される。
まず、ユーザがリモコン20を操作して、スライドショーの開始指示を入力すると、リモコン20が、入力された指示をユーザ入力部12に出力する。これに応じて、コンテンツ処理部9がスライドショーのデータ処理を行い、映像出力部5はディスプレイ2にスライドショーの表示を開始させる(ステップS31)。また、必要があれば、スライドショー表示と共に、音声出力部7がスピーカ3から音声を出力する。なお、スライドショーに含まれる画像コンテンツは、コンテンツ取得部8が取得したものであってもよいし、記憶部14に記憶されているものであってもよい。
ディスプレイ2にスライドショーが表示されると、人感センサ16は、ディスプレイ2の前方に存在するユーザの検出を開始する(ステップS32)。人感センサ16がユーザの存在を検出すると、これに応じてカメラ15は、ユーザの顔を捉えた動画の取得を開始する(ステップS33)。
次いで、解析部11は、カメラ15により取得された動画を解析し、ユーザの顔の認識を開始する(ステップS34)。このとき、解析部11は、動画中に認識した顔と、例えば予め記憶部14に登録されたユーザの顔情報と照合することによって、ユーザを識別することが好ましい。また、解析部11は、認識した顔をトレースしてユーザの口の動きを検出し、検出した口の動きを解析して、ユーザの発話内容に対応する文字情報を生成する(ステップS35)。
次いで、つぶやき処理部13が、ステップS35で生成された文字情報を、当該文字情報の基となる動画が取得された時点に表示されていた画像コンテンツに関連付ける。また、表示制御部6が、関連付けられた文字情報の文字列を、スライドショー表示されている上記画像コンテンツと共にディスプレイ2に表示する(ステップS36)。このとき、表示制御部6は、つぶやき情報のみでなく、つぶやき情報の元となる発話行動を行ったユーザ名を共に表示してもよい。また、つぶやき処理部13は、画像コンテンツに関連付けられた文字情報を記憶部14に格納する(ステップS37)。
なお、制御部4が、ユーザがスライドショーを視聴していると判断する間は、ステップS35からステップS37が繰り返されることが好ましい(ステップS38)。例えば、スライドショーの表示、人感センサ16によるユーザの検出、カメラ15による映像データ取得、及び顔認識が続いている間は、ステップS35からステップS37が繰り返されることが好ましい。
以上の処理により、スライドショー表示される画像コンテンツにはユーザのつぶやき情報が関連付けられる。このため、つぶやき情報が付加された画像コンテンツが次回スライドショー表示される際、表示制御部6は、当該つぶやき情報の文字列を当該画像コンテンツと共に表示させることができる。これによって、他のユーザと当該スライドショーへの感想を共有することができる。
なお、上述の説明のうち、表示制御部6がつぶやき情報の文字列をディスプレイに表示させる処理は、スライドショーに限られず、前述する放送番組や後述するコンテンツを表示する際に文字入力処理を行う場合にも適用することができる。
(動画コンテンツに対する文字入力処理)
文字入力装置1における文字入力処理のさらに他の一例について、図5を参照して以下に説明する。図5は、文字入力装置1における文字入力処理のさらに他の一例の流れを示すフローチャートである。
文字入力装置1における文字入力処理のさらに他の一例について、図5を参照して以下に説明する。図5は、文字入力装置1における文字入力処理のさらに他の一例の流れを示すフローチャートである。
なお、以下の説明は、文字入力装置1が、映画など再生可能な動画コンテンツ(以下、単にコンテンツという)を表示する場合を例として用いているが、これに限定されない。また、上述した文字入力処理の変形例は、すべて本例にも等しく適用される。
まず、ユーザがリモコン20を操作して、コンテンツの再生指示を入力すると、リモコン20が、入力された指示をユーザ入力部12に出力する。これに応じて、コンテンツ処理部9がコンテンツのデータ処理を行い、映像出力部5がディスプレイ2にコンテンツの表示を開始させる。また、音声出力部7がスピーカ3から音声を出力してもよい(ステップS41)。
なお、コンテンツのデータは、コンテンツ取得部8が取得したものであってもよいし、記憶部14に記憶されているものであってもよい。ここで、コンテンツのデータは、コンテンツ名等のコンテンツ情報を含むとする。
ディスプレイ2にコンテンツが表示されると、人感センサ16は、ディスプレイ2の前方に存在するユーザの検出を開始する(ステップS42)。人感センサ16がユーザの存在を検出すると、これに応じてカメラ15は、ユーザの顔を捉えた動画の取得を開始する(ステップS43)。
次いで、解析部11は、カメラ15により取得された動画を解析し、ユーザの顔の認識を開始する(ステップS44)。このとき、解析部11は、動画中に認識した顔と、例えば予め記憶部14に登録されたユーザの顔情報と照合することによって、ユーザを識別することが好ましい。
次いで、解析部11は、認識した顔をトレースしてユーザの口の動きを検出し、検出した口の動きを解析して、ユーザの発話内容に対応する文字情報を生成する(ステップS45)。
次いで、つぶやき処理部13は、ステップS45で生成された文字情報を、当該文字情報の基となる動画が取得された時点におけるコンテンツの再生時間と、コンテンツ名とに関連付け、これらの情報を記憶部14に格納する(ステップS46)。
なお、制御部4が、ユーザがコンテンツを視聴していると判断する間は、ステップS45およびステップS46が繰り返されることが好ましい(ステップS47)。例えば、コンテンツの再生、人感センサ16によるユーザの検出、カメラ15による映像データ取得、及び顔認識が続いている間は、ステップS45およびステップS46が繰り返されることが好ましい。
以上の処理によれば、コンテンツ視聴中にユーザが発話した(つぶやいた)内容を、当該コンテンツに対するユーザの感想として簡易にテキスト化することができる。
また以上の処理によれば、コンテンツ再生中、ユーザが興奮する場面や印象的な場面で発話すると、その場面がマークされることになる。このため、文字入力装置1が検索手段を備えることにより、ユーザは、つぶやき情報の文字列をキーワードとして、上記場面を後から検索することができる。
(お勧め場面の提示)
文字入力装置1は、上述のコンテンツに対する文字入力処理の後、記憶されたつぶやき情報を利用して、ユーザにお勧め場面を提示することができる。お勧め場面提示を行う処理の一例について図6を参照して以下に説明する。図6は、文字入力装置1におけるお勧め場面提示処理の流れを示すフローチャートである。
文字入力装置1は、上述のコンテンツに対する文字入力処理の後、記憶されたつぶやき情報を利用して、ユーザにお勧め場面を提示することができる。お勧め場面提示を行う処理の一例について図6を参照して以下に説明する。図6は、文字入力装置1におけるお勧め場面提示処理の流れを示すフローチャートである。
まず、ユーザがリモコン20を操作して、お勧め場面を提示させるコンテンツを選択すると、ユーザ入力部12がユーザによるコンテンツ選択情報を受け付ける(ステップS51)。これに応じて、カメラ15は、ディスプレイ2の前方に存在するユーザの顔を捉えた動画の取得を開始する(ステップS52)。
次いで、解析部11が、カメラ15により取得された動画を解析することによって、ユーザの顔を認識し、そのユーザを識別する(ステップS53)。
次いで、つぶやき処理部13は、ユーザにより選択されたコンテンツのコンテンツ名を、記憶部14に記憶されているコンテンツ名と照合する(ステップS24)。その結果、ユーザにより選択されたコンテンツ名が、ステップS53にて識別されたユーザのつぶやき情報が関連付けられたコンテンツ名と合致していれば、つぶやき処理部13は、当該コンテンツ名に関連付けられたつぶやき情報および再生時間を抽出する(ステップS55)。
次いで、表示制御部6は、抽出された再生時間におけるコンテンツの映像をサムネイルとしてディスプレイ2に表示させる(ステップS56)。このとき、表示制御部6は、抽出されたつぶやき情報もサムネイルと合わせて表示させることが好ましい。
以上の処理によれば、ユーザのつぶやき情報を利用して、前回視聴時にユーザが興奮や感動した可能性の高い場面をユーザにお勧めすることができる。
なお、上述のお勧め場面提示処理では、利用ユーザの識別を行い、当該ユーザのつぶやき情報のみを利用した処理を行っているが、本発明はこれに限定されない。例えば、他のユーザのつぶやき情報を利用して、お勧め場面を提示してもよい。
(外部サーバと接続する場合の文字入力処理)
文字入力装置1における文字入力処理の他の一例について、図7を参照して以下に説明する。図7は、文字入力装置1における文字入力処理の他の一例の流れを示すフローチャートである。
文字入力装置1における文字入力処理の他の一例について、図7を参照して以下に説明する。図7は、文字入力装置1における文字入力処理の他の一例の流れを示すフローチャートである。
なお、以下の説明は、文字入力装置1が放送番組を表示する場合を例として用いているが、本発明はこれに限定されず、コンテンツを表示する場合にも適用することができる。また、上述した文字入力処理の変形例は、すべて本例にも等しく適用される。
まず、ステップS61からステップS64までは、上述したステップS11からステップS14までと同様の処理を行う。
次いで、通信部10が、表示されるコンテンツのコンテンツ情報に基づいて、外部サーバにおける、当該コンテンツに関するコメントを入力可能なウェブサイトに接続する。このとき、表示制御部6は、映像出力部5を介して、上記ウェブサイトの画面を子画面として、ディスプレイ2に表示させる。次いで、通信部10は、ステップS64において識別したユーザ名を用いて、上記ウェブサイトにログインする(ステップS65)。
なお、上記ウェブサイトとしては、放送番組やコンテンツ等に対する評価や感想等を他の視聴者と共有する様々なコミュニケーションサービスサイトを利用することができる。例えば、複数のユーザが意見を交換するチャットや、個々のユーザが感想等を記録するブログ、また、個々のユーザが「つぶやき」を投稿するTwitter等のソーシャルネットワーキングサービス(SNS)などが挙げられる。また、ウェブサイトを表示する際には、ブラウザなどのアプリケーションを利用することができる。
また、解析部11は、認識した顔をトレースしてユーザの口の動きを検出し、検出した口の動きを解析して、ユーザの発話内容に対応する文字情報を生成する(ステップS66)。
次いで、つぶやき処理部13は、ステップS67で生成された文字情報を、ステップS61で取得された番組情報に関連付け、当該文字情報を用いてアップ用の文章を作成する(ステップS67)。具体的には、まず、つぶやき処理部13は、生成された文字情報のうち固有名詞を有する文字情報を無効にする、または、固有名詞部分を黒い四角等の記号に変更する。また、ログインするサイトによっては、番組名に文字情報を加えた文章を自動で作成してもよい。
次いで、表示制御部6は、映像出力部5を介して、ステップS67にて作成されたアップ用文章を、ディスプレイ2の子画面に表示させる。(ステップS68)。これによって、アップデート前に、ユーザがアップ用文章を確認することができる。
ユーザがリモコン20を操作して、子画面に表示されたアップ用文章に了承する旨を入力すると、リモコン20はその旨をユーザ入力部12に出力する。これに応じて、つぶやき処理部13は、作成したアップ用文章を、通信部10を介して上記ウェブサイトにアップデートする(ステップS69)。
なお、制御部4が、ユーザがコンテンツを視聴していると判断する間は、ステップS66からステップS69が繰り返されることが好ましい(ステップS70)。例えば、ユーザ所望の放送番組の表示、人感センサ16によるユーザの検出、カメラ15による映像データ取得、及び顔認識が続いている間は、ステップS66からステップS69が繰り返されることが好ましい。
以上の処理によれば、番組視聴中にユーザが発話した(つぶやいた)内容を、簡易にテキスト化し、さらにチャットやSNS等に自動で更新することができる。これによって、ユーザは番組視聴中に他の視聴者と手軽に感想を共有することができる。
(付記事項)
最後に、文字入力装置1に含まれている各ブロックは、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
最後に、文字入力装置1に含まれている各ブロックは、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
すなわち文字入力装置1は、各機能を実現する制御プログラムの命令を実行するCPU、この制御プログラムを格納したROM(Read Only Memory)、上記制御プログラムを実行可能な形式に展開するRAM(Random Access Memory)、および、上記制御プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。
この構成により、本発明の目的は、所定の記録媒体によっても達成できる。この記録媒体は、上述した機能を実現するソフトウェアである文字入力装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録していればよい。文字入力装置1にこの記録媒体を供給する。これにより、コンピュータとしての文字入力装置1(またはCPUやMPU)が、供給された記録媒体に記録されているプログラムコードを読み出し、実行すればよい。
プログラムコードを文字入力装置1に供給する記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。
また文字入力装置1は、通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して文字入力装置1に供給する。この通信ネットワークは、文字入力装置1にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。
この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえば、IEEE1394、USB(Universal Serial Bus)、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、例えばテレビ、PC、PC内蔵テレビ等の映像表示可能な情報入力装置として好適に利用することができる。
1 文字入力装置
2 ディスプレイ
3 スピーカ
4 制御部
5 映像出力部(表示手段)
6 表示制御部(サムネイル表示手段、文字情報表示手段)
7 音声出力部
8 コンテンツ取得部
9 コンテンツ処理部
10 通信部(通信手段)
11 解析部(解析手段)
12 ユーザ入力部
13 つぶやき処理部(関連付け手段、お勧め度算出手段、入力手段)
14 記憶部
15 カメラ
16 人感センサ
2 ディスプレイ
3 スピーカ
4 制御部
5 映像出力部(表示手段)
6 表示制御部(サムネイル表示手段、文字情報表示手段)
7 音声出力部
8 コンテンツ取得部
9 コンテンツ処理部
10 通信部(通信手段)
11 解析部(解析手段)
12 ユーザ入力部
13 つぶやき処理部(関連付け手段、お勧め度算出手段、入力手段)
14 記憶部
15 カメラ
16 人感センサ
Claims (11)
- 画面に映像を表示する表示手段と、
上記映像の表示中に上記画面の前方に存在するユーザの顔面を捉えた顔動画を取得するカメラと、
取得された上記顔動画を解析して、上記ユーザの口の動きに対応する文字情報を生成する解析手段と、
生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得したときに表示中であった上記映像の映像情報に対して関連付ける関連付け手段とを備えることを特徴とする文字入力装置。 - 上記画面の前方に存在するユーザを感知する人感センサをさらに備えており、
上記カメラは、上記人感センサがユーザを感知した場合に、上記顔動画の取得を開始することを特徴とする請求項1に記載の文字入力装置。 - 上記人感センサは、上記画面の前方におけるユーザの存在する範囲を特定する機能を有しており、
上記解析手段は、取得された上記顔動画のうち、上記人感センサにより特定された範囲を解析することを特徴とする請求項2に記載の文字入力装置。 - 上記映像情報に関連付けられた上記文字情報に基づいて、当該映像のお勧め度を算出するお勧め度算出手段をさらに備えていることを特徴とする請求項1から3のいずれか1項に記載の文字入力装置。
- 上記映像は、再生可能なコンテンツの映像であって、
上記関連付け手段は、生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得した時点における上記コンテンツの再生時間に対してさらに関連付けることを特徴とする請求項1から4のいずれか1項に記載の文字入力装置。 - 上記再生時間まで再生された時点の上記コンテンツの画像をサムネイルとして表示するサムネイル表示手段をさらに備えていることを特徴とする請求項5に記載の文字入力装置。
- 上記映像情報に関連付けられた上記文字情報を、上記映像と共に表示する文字情報表示手段をさらに備えていることを特徴とする請求項1から5のいずれか1項に記載の文字入力装置。
- 表示される上記映像の上記映像情報に基づいて、外部サーバにおける、当該映像に関するコメントを入力可能なウェブサイトに接続する通信手段と、
上記通信手段を介して、上記映像情報に関連付けられた上記文字情報を上記ウェブサイトに入力する入力手段とを、さらに備えることを特徴とする請求項1から7のいずれか1項に記載の文字入力装置。 - 画面に映像を表示する表示工程と、
上記映像の表示中に上記画面の前方に存在するユーザの顔を捉えた顔動画を取得する動画取得工程と、
取得された上記顔動画を解析して、上記ユーザの口の動きに対応する文字情報を生成する解析工程と、
生成された上記文字情報を、当該文字情報の基となる上記顔動画を取得したときに表示中であった上記映像の映像情報に対して関連付ける関連付け工程とを備えることを特徴とする文字入力方法。 - 請求項1から8のいずれか1項に記載の文字入力装置としてコンピュータを機能させるための文字入力プログラムであって、コンピュータを上記各手段として機能させるための文字入力プログラム。
- 請求項10に記載の文字入力プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023228A JP2011164681A (ja) | 2010-02-04 | 2010-02-04 | 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023228A JP2011164681A (ja) | 2010-02-04 | 2010-02-04 | 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011164681A true JP2011164681A (ja) | 2011-08-25 |
Family
ID=44595338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010023228A Pending JP2011164681A (ja) | 2010-02-04 | 2010-02-04 | 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011164681A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014021676A (ja) * | 2012-07-17 | 2014-02-03 | Nikon Corp | 電子機器 |
JP2014142851A (ja) * | 2013-01-25 | 2014-08-07 | Kyocera Corp | 電子機器、視線入力プログラムおよび視線入力方法 |
JP2015536005A (ja) * | 2012-10-05 | 2015-12-17 | ライ ラディオテレヴィズィオーネ イタリアーナ エッセ.ピー.アー. | マルチメディアプラットフォームを介して複数のマルチメディアコンテンツを推奨する方法およびシステム |
CN107870713A (zh) * | 2016-09-27 | 2018-04-03 | 洪晓勤 | 具有兼容性的图文一体化的图片处理方法 |
WO2018083737A1 (ja) * | 2016-11-01 | 2018-05-11 | マクセル株式会社 | 表示装置及び遠隔操作制御装置 |
JP2020038432A (ja) * | 2018-09-03 | 2020-03-12 | Zホールディングス株式会社 | 画像解析装置、画像解析方法、およびプログラム |
EP3867735A4 (en) * | 2018-12-14 | 2022-04-20 | Samsung Electronics Co., Ltd. | METHOD OF PERFORMING A FUNCTION OF AN ELECTRONIC DEVICE AND ELECTRONIC DEVICE THEREOF |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006311111A (ja) * | 2005-04-27 | 2006-11-09 | Daikin Ind Ltd | 位置検知システムおよび位置検知方法 |
JP2007129531A (ja) * | 2005-11-04 | 2007-05-24 | National Institute Of Information & Communication Technology | 番組提示システム |
JP2009010520A (ja) * | 2007-06-26 | 2009-01-15 | Aiphone Co Ltd | センサカメラ及びインターホンシステム |
-
2010
- 2010-02-04 JP JP2010023228A patent/JP2011164681A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006311111A (ja) * | 2005-04-27 | 2006-11-09 | Daikin Ind Ltd | 位置検知システムおよび位置検知方法 |
JP2007129531A (ja) * | 2005-11-04 | 2007-05-24 | National Institute Of Information & Communication Technology | 番組提示システム |
JP2009010520A (ja) * | 2007-06-26 | 2009-01-15 | Aiphone Co Ltd | センサカメラ及びインターホンシステム |
Non-Patent Citations (2)
Title |
---|
CSNJ200710050138; '口唇の動き特徴を用いた非接触型コマンド入力インタフェースに関する検討' 第69回(平成19年)全国大会講演論文集(2) 人工知能と認知科学 , 20070306 * |
JPN6012067515; '口唇の動き特徴を用いた非接触型コマンド入力インタフェースに関する検討' 第69回(平成19年)全国大会講演論文集(2) 人工知能と認知科学 , 20070306 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014021676A (ja) * | 2012-07-17 | 2014-02-03 | Nikon Corp | 電子機器 |
JP2015536005A (ja) * | 2012-10-05 | 2015-12-17 | ライ ラディオテレヴィズィオーネ イタリアーナ エッセ.ピー.アー. | マルチメディアプラットフォームを介して複数のマルチメディアコンテンツを推奨する方法およびシステム |
JP2014142851A (ja) * | 2013-01-25 | 2014-08-07 | Kyocera Corp | 電子機器、視線入力プログラムおよび視線入力方法 |
CN107870713A (zh) * | 2016-09-27 | 2018-04-03 | 洪晓勤 | 具有兼容性的图文一体化的图片处理方法 |
CN107870713B (zh) * | 2016-09-27 | 2020-10-16 | 洪晓勤 | 具有兼容性的图文一体化的图片处理方法 |
WO2018083737A1 (ja) * | 2016-11-01 | 2018-05-11 | マクセル株式会社 | 表示装置及び遠隔操作制御装置 |
JP2020038432A (ja) * | 2018-09-03 | 2020-03-12 | Zホールディングス株式会社 | 画像解析装置、画像解析方法、およびプログラム |
EP3867735A4 (en) * | 2018-12-14 | 2022-04-20 | Samsung Electronics Co., Ltd. | METHOD OF PERFORMING A FUNCTION OF AN ELECTRONIC DEVICE AND ELECTRONIC DEVICE THEREOF |
US11551682B2 (en) | 2018-12-14 | 2023-01-10 | Samsung Electronics Co., Ltd. | Method of performing function of electronic device and electronic device using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7485866B2 (ja) | 埋め込まれた情報カードコンテンツを認識および解釈するための機械学習 | |
TWI581128B (zh) | 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體 | |
US9560411B2 (en) | Method and apparatus for generating meta data of content | |
US20190364336A1 (en) | Method and apparatus for augmenting media content | |
US9208227B2 (en) | Electronic apparatus, reproduction control system, reproduction control method, and program therefor | |
US9706235B2 (en) | Time varying evaluation of multimedia content | |
KR101829782B1 (ko) | 소셜 네트워킹을 통한 텔레비전 및 비디오 프로그래밍 공유 | |
CN112602077A (zh) | 交互式视频内容分发 | |
JP2021144250A (ja) | 自動発話認識を使用して生成された入力を発話に基づいて訂正する方法およびシステム | |
US20120072936A1 (en) | Automatic Customized Advertisement Generation System | |
US20150020086A1 (en) | Systems and methods for obtaining user feedback to media content | |
US20120304206A1 (en) | Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User | |
JP2009140010A (ja) | 情報処理装置、情報処理端末、情報処理方法、およびプログラム | |
US20160182955A1 (en) | Methods and systems for recommending media assets | |
JP2011164681A (ja) | 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 | |
KR101895846B1 (ko) | 소셜 네트워킹 툴들과의 텔레비전 기반 상호작용의 용이화 | |
US9805766B1 (en) | Video processing and playing method and video processing apparatus thereof | |
JP2011239141A (ja) | 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム | |
JP2015115892A (ja) | コメント作成装置およびその制御方法 | |
US20140331246A1 (en) | Interactive content and player | |
US20140012792A1 (en) | Systems and methods for building a virtual social network | |
US10242252B2 (en) | Expression recognition tag | |
JP6367748B2 (ja) | 認識装置、映像コンテンツ提示システム | |
CN113170228A (zh) | 用于从视听内容中提取可变长度不相交片段的音频处理 | |
WO2023120263A1 (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121225 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130521 |