JP2022184596A - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP2022184596A JP2022184596A JP2021092540A JP2021092540A JP2022184596A JP 2022184596 A JP2022184596 A JP 2022184596A JP 2021092540 A JP2021092540 A JP 2021092540A JP 2021092540 A JP2021092540 A JP 2021092540A JP 2022184596 A JP2022184596 A JP 2022184596A
- Authority
- JP
- Japan
- Prior art keywords
- time
- input
- action
- user
- specific information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】映像データの頭出し位置を適切に設定する。
【解決手段】情報処理装置は、ユーザによる映像データに含まれるアクションを特定する特定情報の入力を受け付ける入力部と、入力部に入力された特定情報と、特定情報が入力された時刻である特定時刻T2とを取得する特定情報取得部と、ユーザが前記特定情報の入力に要した時間を示す入力時間t2を取得する入力時間取得部と、特定情報で特定されたアクションに基づいて、アクションが開始してからユーザが特定情報を入力するまでの時間を示すアクション時間t1を取得するアクション時間取得部と、特定時刻T2から、入力時間t2及びアクション時間t1の合計分を遡った時刻を、映像データにおける前記アクションの再生開始時刻T0として設定するタグ設定部とを備える。
【選択図】図3
【解決手段】情報処理装置は、ユーザによる映像データに含まれるアクションを特定する特定情報の入力を受け付ける入力部と、入力部に入力された特定情報と、特定情報が入力された時刻である特定時刻T2とを取得する特定情報取得部と、ユーザが前記特定情報の入力に要した時間を示す入力時間t2を取得する入力時間取得部と、特定情報で特定されたアクションに基づいて、アクションが開始してからユーザが特定情報を入力するまでの時間を示すアクション時間t1を取得するアクション時間取得部と、特定時刻T2から、入力時間t2及びアクション時間t1の合計分を遡った時刻を、映像データにおける前記アクションの再生開始時刻T0として設定するタグ設定部とを備える。
【選択図】図3
Description
本発明は情報処理装置、情報処理方法及びプログラムに関する。
従来、スポーツ競技などのイベントが撮影されている最中に、映像データにおけるアクション(例えばヒットなど)の頭出し位置(タグ)を、ユーザ(操作者)がリアルタイムで設定する場合、操作者は、アクションを見た後にタグの入力操作をする。また、放送コンテンツを情報処理端末で録画して再生する際、ユーザ操作により所望の投稿情報が選択されると当該投稿情報の投稿時刻よりも所定の時間遡及した時刻から録画コンテンツが再生されるものが知られている(例えば、特許文献1参照)。
しかし、操作者がタグを入力する場合には、アクションの発生後にタグを入力するため、タグ入力によって設定された頭出し位置の時刻とアクションが実際に発生した時刻にタイムラグが生じるおそれがある。また、特許文献1の場合でも、マークを付した時刻から再生開始時刻まで遡及する時間が一定であるため、アクションの内容やユーザによっては、タイムラグが発生するおそれがある。従って、頭出し位置を適切に設定することが求められている。
本発明は、上記に鑑みてなされたものであり、映像データの頭出し位置を適切に設定することが可能な情報処理装置、情報処理法及びプログラムを提供することを目的とする。
本発明にかかる情報処理装置は、ユーザによって入力された、映像データに含まれるアクションを特定する特定情報と、前記特定情報が入力された時刻である特定時刻とを取得する特定情報取得部と、前記ユーザが前記特定情報の入力に要した時間を示す入力時間を取得する入力時間取得部と、前記特定情報で特定されたアクションに基づいて、前記アクションに対応する時間を示すアクション時間を取得するアクション時間取得部と、前記特定時刻から、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記映像データにおける前記アクションの再生開始時刻として設定するタグ設定部と、を備える。
本発明にかかる情報処理方法は、ユーザによる映像データに含まれるアクションを特定する特定情報の入力を受け付けるステップと、入力された前記特定情報と、前記特定情報が入力された時刻である特定時刻とを取得するステップと、前記ユーザが前記特定情報の入力に要した時間を示す入力時間を取得するステップと、前記特定情報で特定されたアクションに基づいて、前記アクションが開始してから前記ユーザが前記特定情報を入力するまでの時間を示すアクション時間を取得するステップと、前記特定時刻から、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記映像データにおける前記アクションの再生開始時刻として設定するステップと、を含む。
本発明にかかるプログラムは、ユーザによる映像データに含まれるアクションを特定する特定情報の入力を受け付けるステップと、入力された前記特定情報と、前記特定情報が入力された時刻である特定時刻とを取得するステップと、前記ユーザが前記特定情報の入力に要した時間を示す入力時間を取得するステップと、前記特定情報で特定されたアクションに基づいて、前記アクションが開始してから前記ユーザが前記特定情報を入力するまでの時間を示すアクション時間を取得するステップと、前記特定時刻から、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記映像データにおける前記アクションの再生開始時刻として設定するステップと、をコンピュータに実行させる。
本発明によれば、映像データの頭出し位置を適切に設定することができる。
以下、本開示にかかる情報処理装置、情報処理法及びプログラムの実施形態を図面に基づいて説明する。なお、本実施形態によりこの発明が限定されるものではない。また、本実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
(第1実施形態)
図1は、第1実施形態にかかる情報処理システムの一例を示す図である。第1実施形態に係る情報処理システム1は、情報処理装置100と撮像部200とを含む。撮像部200は、イベントの内容を撮影して撮影データ(映像データ)を生成する。撮像部200は、生成した撮影データを情報処理装置100に送信する。撮像部200は、例えばカメラが用いられる。
図1は、第1実施形態にかかる情報処理システムの一例を示す図である。第1実施形態に係る情報処理システム1は、情報処理装置100と撮像部200とを含む。撮像部200は、イベントの内容を撮影して撮影データ(映像データ)を生成する。撮像部200は、生成した撮影データを情報処理装置100に送信する。撮像部200は、例えばカメラが用いられる。
イベントとは、時系列に沿って複数のアクションが起こりつつ進行する事象を指す。アクションは、イベント内で起こった出来事を指す。例えば、イベントは、スポーツの試合(例えば野球)であり、アクションは、試合におけるプレイヤーのプレイ内容(例えば野球におけるホームラン)であり、投手の投球を起点とした一連の出来事であるともいえる。
ただし、イベントは、それに限られず、例えばダンス大会、音楽コンクール、カラオケ大会、プレゼンテーション、製造業の作業工程の説明等、スポーツ試合以外であってもよい。以降、イベントとして野球試合を例に挙げて説明する。
(情報処理装置)
情報処理装置100は、入力部110と視線検出部120を備える。入力部110は、ユーザの入力を受け付けるユーザインターフェースであり、例えばタッチパネルであってよい。入力部110には、ユーザによって特定情報が入力される。特定情報とは、イベント中のアクションの内容を特定する情報である。入力部110には、アクションの内容が入力されるアクション内容入力ボタン、及びアクションの内容を修正する修正ボタンが設けられているが、入力部110の構成は、これに限定されない。
情報処理装置100は、入力部110と視線検出部120を備える。入力部110は、ユーザの入力を受け付けるユーザインターフェースであり、例えばタッチパネルであってよい。入力部110には、ユーザによって特定情報が入力される。特定情報とは、イベント中のアクションの内容を特定する情報である。入力部110には、アクションの内容が入力されるアクション内容入力ボタン、及びアクションの内容を修正する修正ボタンが設けられているが、入力部110の構成は、これに限定されない。
(特定情報)
特定情報としては、例えばスコアデータが挙げられる。スコアデータは、野球のスコアブックに記載されるスコアを構成するデータであり、投手の投球を起点として発生するアクションを構成する個々の出来事を示すデータである。スコアは、スコアデータの集合である。投手が1球投げるごとに複数のスコアデータが作成され、これにより1つのスコアが作成される。特定情報としてスコアデータが入力されることで、アクションが特定できる。例えば、1塁に出塁している状態での打撃結果がライトフライアウトになって1塁走者もタッチアウトになった場合、打者がアウトというスコアデータと、ライトフライというスコアデータと、1塁走者がアウトというスコアデータが作成され、これらのスコアデータから1つのスコアが構成されることになり、ライトフライアウトであるというアクションが特定される。スコアには、上記に例示したスコアデータの他にも、打者のアクション、野手のアクション、カウントの確定、既に出塁している走者がいる場合はその走者の進塁状況、その他、打者や野手のその他の行動などのスコアデータが含まれ得る。具体的には、スコアには、ストライク、ボール、ファウル、打撃結果、打球の種類、捕球野手、進塁結果などのスコアデータが含まれ得る。打撃結果は、アウト、1塁打、2塁打、3塁打、本塁打などの情報である。打球の種類は、ゴロ、ライナー、フライ、バントなどの情報であり、さらに細かく分類してもよい。捕球野手は、実際に打球を捕球した野手または野手の守備位置を特定するための情報である。進塁結果は、たとえば「1塁から2塁」など、出塁していた走者の進塁に関する情報であり、その他に打者や野手のその他の行動などを含めることができる。
特定情報としては、例えばスコアデータが挙げられる。スコアデータは、野球のスコアブックに記載されるスコアを構成するデータであり、投手の投球を起点として発生するアクションを構成する個々の出来事を示すデータである。スコアは、スコアデータの集合である。投手が1球投げるごとに複数のスコアデータが作成され、これにより1つのスコアが作成される。特定情報としてスコアデータが入力されることで、アクションが特定できる。例えば、1塁に出塁している状態での打撃結果がライトフライアウトになって1塁走者もタッチアウトになった場合、打者がアウトというスコアデータと、ライトフライというスコアデータと、1塁走者がアウトというスコアデータが作成され、これらのスコアデータから1つのスコアが構成されることになり、ライトフライアウトであるというアクションが特定される。スコアには、上記に例示したスコアデータの他にも、打者のアクション、野手のアクション、カウントの確定、既に出塁している走者がいる場合はその走者の進塁状況、その他、打者や野手のその他の行動などのスコアデータが含まれ得る。具体的には、スコアには、ストライク、ボール、ファウル、打撃結果、打球の種類、捕球野手、進塁結果などのスコアデータが含まれ得る。打撃結果は、アウト、1塁打、2塁打、3塁打、本塁打などの情報である。打球の種類は、ゴロ、ライナー、フライ、バントなどの情報であり、さらに細かく分類してもよい。捕球野手は、実際に打球を捕球した野手または野手の守備位置を特定するための情報である。進塁結果は、たとえば「1塁から2塁」など、出塁していた走者の進塁に関する情報であり、その他に打者や野手のその他の行動などを含めることができる。
(視線検出部)
視線検出部120は、ユーザの視線を検出するセンサであり、ユーザが入力部110を注視したことを検出することができる。視線検出部120は、例えば情報処理装置100に搭載されるインカメラであるが、ユーザの目線の方向(視線)が検出可能なセンサであれば任意のセンサであってよい。
視線検出部120は、ユーザの視線を検出するセンサであり、ユーザが入力部110を注視したことを検出することができる。視線検出部120は、例えば情報処理装置100に搭載されるインカメラであるが、ユーザの目線の方向(視線)が検出可能なセンサであれば任意のセンサであってよい。
図2は、第1実施形態にかかる情報処理装置の一例を示す機能ブロック図である。情報処理装置100は、撮像部200と通信可能なコンピュータであり、本実施形態では、例えばタブレット端末である。図2に示すように、情報処理装置100は、入力部110と、視線検出部120と、処理部130と、記憶部140と、出力部150と、通信部160を有する。
(記憶部)
記憶部140は、処理部130の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つを含む。記憶部140が記憶する処理部130用のプログラムは、情報処理装置100が読み取り可能な記録媒体に記憶されていてもよい。また、通信部160が撮像部200から受信した映像データを記憶する。
記憶部140は、処理部130の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つを含む。記憶部140が記憶する処理部130用のプログラムは、情報処理装置100が読み取り可能な記録媒体に記憶されていてもよい。また、通信部160が撮像部200から受信した映像データを記憶する。
(出力部)
出力部150は、処理部130の演算結果やプログラムに基づいてイベントの状況を表示するディスプレイである。本実施形態では、出力部150は、タッチパネルディスプレイであり、特定情報の入力を受け付ける入力部110と、イベントの状況とを、1画面で表示する。ただし、入力部110と出力部150とは別の装置であってもよい。また、情報処理装置100は、イベントの状況を表示する外部ディスプレイに、イベントの状況を示す情報を出力(送信)してもよい。
出力部150は、処理部130の演算結果やプログラムに基づいてイベントの状況を表示するディスプレイである。本実施形態では、出力部150は、タッチパネルディスプレイであり、特定情報の入力を受け付ける入力部110と、イベントの状況とを、1画面で表示する。ただし、入力部110と出力部150とは別の装置であってもよい。また、情報処理装置100は、イベントの状況を表示する外部ディスプレイに、イベントの状況を示す情報を出力(送信)してもよい。
(通信部)
通信部160は、有線又は無線によって外部機器との間で情報の通信を行う。通信部160は、撮像部200から撮影データを受信する。
通信部160は、有線又は無線によって外部機器との間で情報の通信を行う。通信部160は、撮像部200から撮影データを受信する。
(処理部)
処理部130は、演算装置であり、例えばCPU(Central Processing Unit)などの演算回路を含み、後述するように、映像データにおけるアクションの再生開始時刻を決定する。処理部130は、特定情報取得部131と、視線情報取得部132と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135とを有する。処理部130は、記憶部140からプログラム(ソフトウェア)を読み出して実行することで、特定情報取得部131と、視線情報取得部132と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135を実現して、それらの処理を実行する。なお、処理部130は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、特定情報取得部131と、視線情報取得部132と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135との処理の少なくとも一部を、ハードウェア回路で実現してもよい。
処理部130は、演算装置であり、例えばCPU(Central Processing Unit)などの演算回路を含み、後述するように、映像データにおけるアクションの再生開始時刻を決定する。処理部130は、特定情報取得部131と、視線情報取得部132と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135とを有する。処理部130は、記憶部140からプログラム(ソフトウェア)を読み出して実行することで、特定情報取得部131と、視線情報取得部132と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135を実現して、それらの処理を実行する。なお、処理部130は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、特定情報取得部131と、視線情報取得部132と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135との処理の少なくとも一部を、ハードウェア回路で実現してもよい。
図3は、アクションの再生開始時刻の設定の一例を示す図である。以下、図3を用いて、処理部130によるアクションの再生開始時刻の設定について説明する。
図3に示すように、イベントにおいては、アクションが開始し(例えばピッチャーの投球が開始し)、アクションが終了したら(例えばライトフライアウトになったら)、イベントを観戦しているユーザは、アクションの内容を特定し、入力部110に視線を移して、特定情報の入力を開始して、特定情報の入力を完了する。ユーザは、この作業をアクション毎に繰り返す。
(特定情報取得部)
特定情報取得部131は、ユーザによって入力部110に入力された特定情報と、特定情報に関連付けられた特定時刻T2(図3参照)とを取得する。特定情報取得部131は、入力部110にユーザの入力内容を検出させ、その検出結果を特定情報として取得する。特定時刻T2とは、ユーザによって入力部110に特定情報が入力された時刻であり、本実施形態では、入力部110への特定情報の入力が完了した時刻を指す。すなわち、特定情報取得部131は、入力部110への特定情報の入力が完了した時刻を、特定時刻T2として取得する。特定時刻T2の取得方法は任意であるが、例えば、ユーザが、特定情報の入力を終了したことを示す情報を入力部110に入力した時刻を、特定時刻T2として取得してよい。
特定情報取得部131は、ユーザによって入力部110に入力された特定情報と、特定情報に関連付けられた特定時刻T2(図3参照)とを取得する。特定情報取得部131は、入力部110にユーザの入力内容を検出させ、その検出結果を特定情報として取得する。特定時刻T2とは、ユーザによって入力部110に特定情報が入力された時刻であり、本実施形態では、入力部110への特定情報の入力が完了した時刻を指す。すなわち、特定情報取得部131は、入力部110への特定情報の入力が完了した時刻を、特定時刻T2として取得する。特定時刻T2の取得方法は任意であるが、例えば、ユーザが、特定情報の入力を終了したことを示す情報を入力部110に入力した時刻を、特定時刻T2として取得してよい。
(視覚情報取得部)
視線情報取得部132は、視線検出部120を制御して、視線検出部120にユーザの視線を検出させて、ユーザの視線の検出結果を取得する。視線情報取得部132は、ユーザの視線が入力部110に重なる時刻である注視時刻を取得する。すなわち、視線情報取得部132は、視線検出部120にユーザの視線を逐次検出させておき、ユーザの視線が、入力部110に重なっていない状態(ユーザの視線が入力部110から外れている状態)から、入力部110に重なっている状態(ユーザが入力部110を注視した状態)に切り替わった時刻を、注視時刻として取得する。イベントを観戦しているユーザは、アクションの内容が特定されたら、入力部110に視線を移し、特定情報の入力を開始する。従って、注視時刻とは、特定情報の入力が開始された入力開始時刻T1に対応するといえる。
視線情報取得部132は、視線検出部120を制御して、視線検出部120にユーザの視線を検出させて、ユーザの視線の検出結果を取得する。視線情報取得部132は、ユーザの視線が入力部110に重なる時刻である注視時刻を取得する。すなわち、視線情報取得部132は、視線検出部120にユーザの視線を逐次検出させておき、ユーザの視線が、入力部110に重なっていない状態(ユーザの視線が入力部110から外れている状態)から、入力部110に重なっている状態(ユーザが入力部110を注視した状態)に切り替わった時刻を、注視時刻として取得する。イベントを観戦しているユーザは、アクションの内容が特定されたら、入力部110に視線を移し、特定情報の入力を開始する。従って、注視時刻とは、特定情報の入力が開始された入力開始時刻T1に対応するといえる。
(入力時間取得部)
入力時間取得部133は、入力時間t2を取得する。入力時間t2とは、ユーザが入力部110を用いた特定情報の入力に要する時間の長さを指し、より詳しくは、イベントを見ているユーザがアクションの内容を特定して入力部110に特定情報の入力を開始してから、特定情報の入力が完了するまでの時間を指すともいえる。入力時間取得部133は、任意の方法で入力時間t2を取得してもよいが、例えば、固定値として予め設定されていた時間長さを、入力時間t2として取得してよい。また例えば、入力時間取得部133は、過去に発生したアクションにおける注視時刻から、そのアクションについての特定情報が入力された特定時刻T2までの時間に基づき、入力時間t2を設定してよい。この場合例えば、過去の複数回のアクションにおける、注視時刻から特定時刻T2までの時間の平均値を、入力時間t2として設定してよい。
入力時間取得部133は、入力時間t2を取得する。入力時間t2とは、ユーザが入力部110を用いた特定情報の入力に要する時間の長さを指し、より詳しくは、イベントを見ているユーザがアクションの内容を特定して入力部110に特定情報の入力を開始してから、特定情報の入力が完了するまでの時間を指すともいえる。入力時間取得部133は、任意の方法で入力時間t2を取得してもよいが、例えば、固定値として予め設定されていた時間長さを、入力時間t2として取得してよい。また例えば、入力時間取得部133は、過去に発生したアクションにおける注視時刻から、そのアクションについての特定情報が入力された特定時刻T2までの時間に基づき、入力時間t2を設定してよい。この場合例えば、過去の複数回のアクションにおける、注視時刻から特定時刻T2までの時間の平均値を、入力時間t2として設定してよい。
(アクション情報取得部)
アクション時間取得部134は、特定情報取得部131で取得された特定情報に基づいて、アクション時間t1を取得する。アクション時間t1とは、アクションに対応する時間の長さを指す。より詳しくは、アクション時間t1は、アクションが開始したと想定されるタイミング(例えばピッチャーの投球が開始されたと想定されるタイミング)から、アクションが終了したと想定されるタイミング(例えばライトフライアウトになったと想定されるタイミング)までの時間を指し、言い換えれば、試合の選手などイベントの参加者がアクションを行っている間の時間を指す。本実施形態では、アクション時間t1は、アクションの種類毎に予め設定されている。アクション時間取得部134は、特定情報で特定されたアクションに対して設定されているアクション時間を、今回のアクションのアクション時間t1として設定する。例えば、アクション時間取得部134は、記憶部140から、アクションとアクション時間との対応関係を読み出して、今回のアクションのアクション時間t1を設定してよい。また、アクション時間t1は、アクションを実行した選手ごとに設定されたものであってもよい。この場合、アクション時間取得部134は、特定情報で特定されたアクションを実行した選手に対応付けられたアクション時間を、今回のアクションのアクション時間t1として設定する。
アクション時間取得部134は、特定情報取得部131で取得された特定情報に基づいて、アクション時間t1を取得する。アクション時間t1とは、アクションに対応する時間の長さを指す。より詳しくは、アクション時間t1は、アクションが開始したと想定されるタイミング(例えばピッチャーの投球が開始されたと想定されるタイミング)から、アクションが終了したと想定されるタイミング(例えばライトフライアウトになったと想定されるタイミング)までの時間を指し、言い換えれば、試合の選手などイベントの参加者がアクションを行っている間の時間を指す。本実施形態では、アクション時間t1は、アクションの種類毎に予め設定されている。アクション時間取得部134は、特定情報で特定されたアクションに対して設定されているアクション時間を、今回のアクションのアクション時間t1として設定する。例えば、アクション時間取得部134は、記憶部140から、アクションとアクション時間との対応関係を読み出して、今回のアクションのアクション時間t1を設定してよい。また、アクション時間t1は、アクションを実行した選手ごとに設定されたものであってもよい。この場合、アクション時間取得部134は、特定情報で特定されたアクションを実行した選手に対応付けられたアクション時間を、今回のアクションのアクション時間t1として設定する。
(タグ設定部)
タグ設定部135は、映像データにおけるアクションの再生開始時刻T0を取得し、映像データにタグを設定する。再生開始時刻T0とは、映像データにおいて、アクションが開始されたと想定される時刻を指す。タグ設定部135は、今回のアクションにおいてユーザの視線が適切に検出されなかった場合とされた場合とで、異なる方法で、再生開始時刻T0を設定する。以下、それぞれのケースでの再生開始時刻T0の設定方法を説明する。なお、ユーザの視線が検出されなかった場合とは、今回のアクションにおいて、ユーザの視線が入力部110に重なる注視時刻が検出されないことを指し、言い換えれば、直前のアクションについての特定情報が入力されたタイミング(直前のアクションについての特定時刻T2)から、今回のアクションについての特定情報が入力された特定時刻T2までの時間において、ユーザの視線が入力部110に重なったことが検出されなかったことを指す。そして、ユーザの視線が検出された場合とは、今回のアクションにおいて特定時刻が検出されたことを指し、言い換えれば、直前のアクションについての特定情報が入力されたタイミングから、今回のアクションについての特定情報が入力された特定時刻T2までの時間において、ユーザの視線が入力部に重なったことが検出されたことを指す。
タグ設定部135は、映像データにおけるアクションの再生開始時刻T0を取得し、映像データにタグを設定する。再生開始時刻T0とは、映像データにおいて、アクションが開始されたと想定される時刻を指す。タグ設定部135は、今回のアクションにおいてユーザの視線が適切に検出されなかった場合とされた場合とで、異なる方法で、再生開始時刻T0を設定する。以下、それぞれのケースでの再生開始時刻T0の設定方法を説明する。なお、ユーザの視線が検出されなかった場合とは、今回のアクションにおいて、ユーザの視線が入力部110に重なる注視時刻が検出されないことを指し、言い換えれば、直前のアクションについての特定情報が入力されたタイミング(直前のアクションについての特定時刻T2)から、今回のアクションについての特定情報が入力された特定時刻T2までの時間において、ユーザの視線が入力部110に重なったことが検出されなかったことを指す。そして、ユーザの視線が検出された場合とは、今回のアクションにおいて特定時刻が検出されたことを指し、言い換えれば、直前のアクションについての特定情報が入力されたタイミングから、今回のアクションについての特定情報が入力された特定時刻T2までの時間において、ユーザの視線が入力部に重なったことが検出されたことを指す。
ユーザの視線が検出された場合、すなわち今回のアクションの注視時刻が取得された状態で特定情報が入力された場合、タグ設定部135は、ユーザの視線が入力部110に重なった注視時刻を、入力開始時刻T1として設定する。入力開始時刻T1とは、ユーザが入力部110に特定情報の入力を開始したと想定される時刻である。タグ設定部135は、入力開始時刻T1(ここでは注視時刻)から、アクション時間t1だけ遡及した時刻を、再生開始時刻T0として設定する。
一方、ユーザの視線が検出されない場合、すなわち、今回のアクションの注視時刻が取得されない状態で特定情報が入力された場合、視線に基づいて特定情報の入力を開始した時刻を検出できないため、タグ設定部135は、入力時間取得部133により取得された入力時間t2と特定時刻T2とを用いて、入力開始時刻T1を推定する。タグ設定部135は、特定時刻T2から入力時間t2だけ遡及した時刻を入力開始時刻T1とし、その入力開始時刻T1からアクション時間t1だけ遡及した時刻を、入力開始時刻T1として設定する。
図4は、第1実施形態における映像データに設定されるタグの一例を示す図である。図4に示すように、本実施形態において、タグ設定部135は、特定情報で特定されたアクションと、入力開始時刻T1と、映像データとを関連付け、設定したタグ141を記憶部140に格納する。すなわち、タグ141は、映像データにおいて、アクションの頭出し位置(アクションを再生した場合に、再生が開始される映像データ上での時刻)を示すデータといえる。
図5は、第1実施形態における情報処理装置の動作の一例を示すフローチャートである。図5ではイベントの録画中にタグ141の設定を行う場合を例にする。視線情報取得部132により、視線検出部120を制御して、視線検出部120にユーザの視線を常時検出させて、ユーザの視線の検出結果を取得する(ステップS110)。
ユーザによる特定情報の入力が完了する前に、ユーザの視線が入力部110に重なったことが視線検出部120によって検出された場合(ステップS120;YES)、情報処理装置100は、視線情報取得部132により、ユーザの視線が入力部110に重なる時刻を注視時刻として取得し(ステップS130)、特定情報取得部131により、アクションを特定する特定情報を取得し(ステップS131)、アクション時間取得部134により、特定情報に基づきアクション時間t1を取得する(ステップS132)。そして、情報処理装置100は、注視時刻からアクション時間t1遡った時刻を、再生開始時刻T0として設定し(ステップS133)、アクションと再生開始時刻T0と映像データとを関連付けたタグ141を設定する(ステップS150)。
一方、ユーザによる特定情報の入力が完了する前に、ユーザの視線が入力部110に重なったことが視線検出部120によって検出されない場合(ステップS120;NO)、情報処理装置100は、特定情報取得部131により、特定情報及び特定時刻T2を取得し(ステップS140)、入力時間取得部133により、入力時間t2を取得し(ステップS141)、アクション時間取得部134により、特定情報に基づきアクション時間t1を取得する(ステップS142)。そして、情報処理装置100は、特定時刻T2から入力時間t2及びアクション時間t1の合計分遡った時刻を、再生開始時刻T0として設定し(ステップS143)、アクションと入力開始時刻T1と映像データとを関連付けたタグ141を設定する(ステップS150)。
なお、本実施形態では、情報処理装置100は、ユーザに操作される端末であり、入力部110、視線検出部120及び出力部150が備えられるが、入力部110、視線検出部120及び出力部の少なくとも一部は、情報処理装置100とは別の装置に搭載されていてもよい。すなわち、入力部110、視線検出部120及び出力部150の少なくとも一部が設けられてユーザに操作される端末が、サーバとしての情報処理装置100とは別に設けられていてもよい。この場合、情報処理装置100は、端末と通信することにより、特定情報やユーザの視線の情報などを取得してよい。
(効果)
以上説明したように、本実施形態に係る情報処理装置100は、特定情報取得部131と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135とを備える。特定情報取得部131は、ユーザによって入力された、映像データに含まれるアクションを特定する特定情報と、特定情報が入力された時刻である特定時刻T2とを取得する。入力時間取得部133は、ユーザが特定情報の入力に要した時間を示す入力時間t2を取得する。アクション時間取得部134は、特定情報で特定されたアクションに基づいて、アクションに対応する時間を示すアクション時間t1を取得する。タグ設定部135は、特定時刻T2から、入力時間t2及びアクション時間t1の合計分を遡った時刻を、映像データにおけるアクションの再生開始時刻T0として設定する。
以上説明したように、本実施形態に係る情報処理装置100は、特定情報取得部131と、入力時間取得部133と、アクション時間取得部134と、タグ設定部135とを備える。特定情報取得部131は、ユーザによって入力された、映像データに含まれるアクションを特定する特定情報と、特定情報が入力された時刻である特定時刻T2とを取得する。入力時間取得部133は、ユーザが特定情報の入力に要した時間を示す入力時間t2を取得する。アクション時間取得部134は、特定情報で特定されたアクションに基づいて、アクションに対応する時間を示すアクション時間t1を取得する。タグ設定部135は、特定時刻T2から、入力時間t2及びアクション時間t1の合計分を遡った時刻を、映像データにおけるアクションの再生開始時刻T0として設定する。
イベントにおけるアクションの開始時刻をユーザが設定する場合には、ユーザは、アクションの発生後にタグ141を入力するため、開始時刻とアクションが実際に発生した時刻にタイムラグが生じるおそれがある。それに対し、本実施形態にかかる情報処理装置100によると、ユーザの操作に要した入力時間t2と、アクションに要したアクション時間t1とを見積もり、特定時刻T2と入力時間t2とアクション時間t1とに基づき、再生開始時刻T0を設定する。そのため、本実施形態によると、映像データの頭出し位置のタイムラグを小さくして、映像データの頭出し位置を適切に設定することができる。
情報処理装置100は、視線情報取得部132を更に含む。視線情報取得部132はユーザの視線の検出結果を取得する。タグ設定部135は、ユーザの視線が検出されない場合に、入力時間t2及びアクション時間t1の合計分を遡った時刻を、アクションの再生開始時刻T0として設定する。タグ設定部135は、ユーザの視線が検出された場合であって、ユーザの視線が、特定情報が入力される入力部110に重なる場合には、ユーザの視線が入力部110に重なった注視時刻から、アクション時間t1を遡った時刻を、アクションの再生開始時刻T0として設定する。
本実施形態にかかる情報処理装置100によると、視線が検出された場合には、注視時刻においてアクションが終了したとして、注視時刻からアクション時間t1遡った時刻を再生開始時刻T0として設定する。従って、本実施形態によると、映像データの頭出し位置を適切に設定することができる。一方、視線が検出できなかった場合には、特定時刻T2と入力時間t2とアクション時間t1とに基づき、再生開始時刻T0を設定する。従って、視線が検出できなかった場合においても、映像データの頭出し位置を適切に設定することができる。
入力時間取得部133は、過去における注視時刻から特定時刻T2までの時間に基づき、入力時間t2を設定する。
本実施形態にかかる情報処理装置100によると、視線が検出できなかった場合の入力時間t2は、過去における注視時刻から特定時刻T2までの時間に基づいて設定する。よって、本実施形態によると、ユーザの過去の操作に応じて入力時間を見積もることで、映像データの頭出し位置を適切に設定することができる。
(第1実施形態の変形例)
第1実施形態の変形例について説明する。本変形例は、撮像部200Bが映像データとタグ141とを記憶するとともに映像データを再生し、情報処理部100Bが設定したタグ141を撮像部200Bへ送信する点で第1実施形態と異なる。
第1実施形態の変形例について説明する。本変形例は、撮像部200Bが映像データとタグ141とを記憶するとともに映像データを再生し、情報処理部100Bが設定したタグ141を撮像部200Bへ送信する点で第1実施形態と異なる。
図6は、第1実施形態の変形例にかかる情報処理システムの一例を示す機能ブロック図である。本変形例において、情報処理システム1Bはその撮像部200Bに、記憶部210と、通信部220と、再生部230とを備える。記憶部210は、撮像部200Bが撮影した映像データを記憶する。通信部220は、情報処理装置100Bからタグ141を受信し、受信したタグ141を記憶部210に記憶する。再生部230は、記憶部210に記憶した映像データを再生する。情報処理装置100Bは、タグ設定部135が設定したタグ141を撮像部200Bへ送信する。
ユーザが撮像部200Bに対してタグ141を指定した場合、撮像部200Bはタグ141が示す頭出し位置から映像データを再生する。ユーザは、例えば撮像部200Bの表示部に表示されたタグを見て、再生したいアクションを指定し、撮像部200Bは、指定されたアクションのタグが示す頭出し位置から映像データを表示部に再生する。このような構成にすることによって、撮像部200Bにおいてタグに基づく再生や一時停止などの操作をすることができ、また情報処理装置100Bにおいても映像データを受信したり記憶したりしなくてよいので、第1実施形態よりも小さい処理負荷で映像データの頭出し位置を適切に設定することができる。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態においては、操作しているユーザを特定する点で、第1実施形態とは異なる。第2実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
次に、第2実施形態について説明する。第2実施形態においては、操作しているユーザを特定する点で、第1実施形態とは異なる。第2実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
図7は、第2実施形態にかかる情報処理システムの一例を示す機能ブロック図である。図7に示すように、第2実施形態に係る情報処理システム1Aは、情報処理装置100Aの処理部130Aに、ユーザ特定部136と、表示態様設定部137とを備える。
(ユーザ特定部)
ユーザ特定部136は、特定情報を入力するユーザを特定する。ユーザ特定部136は、インカメラである視線検出部120を制御して、視線検出部120にユーザの顔を撮像させて、ユーザを特定する。本実施形態では、ユーザ特定部136は、ユーザの顔情報とユーザ情報とが関連付けられているテーブルを記憶部140から取得し、視線検出部120が撮像したユーザの顔に対して、共通する特徴量が所定値以上となるユーザの顔情報を、テーブルから抽出する。そして、ユーザ特定部136は、抽出したユーザの顔情報に対応するユーザ情報を、今回のユーザのユーザ情報として取得する。ユーザ情報とは、ユーザに関する情報であり、例えば、ユーザの熟練度を示す情報であってよい。ユーザ情報は、任意に設定されてよいが、例えば、過去における、注視時刻から特定時刻T2までの時間に基づき設定されてよい。この場合例えば、過去における注視時刻から特定時刻T2までの時間が短いほど、そのユーザの熟練度を高く設定する。なお、ユーザの特定方法や、ユーザ情報の取得方法は、上記に限られず任意の方法を用いてよい。例えば、ユーザを特定するIDをユーザに入力させて、そのIDに関連付けられているユーザ情報を、そのユーザのユーザ情報として取得してもよい。
ユーザ特定部136は、特定情報を入力するユーザを特定する。ユーザ特定部136は、インカメラである視線検出部120を制御して、視線検出部120にユーザの顔を撮像させて、ユーザを特定する。本実施形態では、ユーザ特定部136は、ユーザの顔情報とユーザ情報とが関連付けられているテーブルを記憶部140から取得し、視線検出部120が撮像したユーザの顔に対して、共通する特徴量が所定値以上となるユーザの顔情報を、テーブルから抽出する。そして、ユーザ特定部136は、抽出したユーザの顔情報に対応するユーザ情報を、今回のユーザのユーザ情報として取得する。ユーザ情報とは、ユーザに関する情報であり、例えば、ユーザの熟練度を示す情報であってよい。ユーザ情報は、任意に設定されてよいが、例えば、過去における、注視時刻から特定時刻T2までの時間に基づき設定されてよい。この場合例えば、過去における注視時刻から特定時刻T2までの時間が短いほど、そのユーザの熟練度を高く設定する。なお、ユーザの特定方法や、ユーザ情報の取得方法は、上記に限られず任意の方法を用いてよい。例えば、ユーザを特定するIDをユーザに入力させて、そのIDに関連付けられているユーザ情報を、そのユーザのユーザ情報として取得してもよい。
(表示態様設定部)
表示態様設定部137は、ユーザ情報に基づいて、入力部110の表示態様を設定する。例えば、表示態様設定部137は、ユーザ情報においてそのユーザの熟練度が所定の条件を満たす場合には、入力部110を用いた特定情報の入力をより短時間で行うことが可能な表示態様に変化させる。この場合、例えば、表示態様設定部137は、入力部110に、特定情報の入力に用いるボタンのショートカットを表示させる。一方で、表示態様設定部137は、ユーザ情報においてそのユーザの熟練度が所定の条件を満たさない場合には、入力部110を用いた特定情報の入力が短時間で理解しやすくなるような表示態様に変化させる。この場合、例えば、表示態様設定部137は、入力部110に、特定情報の入力に用いるボタンの操作方法を示すガイドラインを表示させる。なお、ここでの所定の条件は、任意に設定されてよいが、例えば、熟練度が所定値以上であることとしてもよい。すなわち例えば、過去における注視時刻から特定時刻T2までの時間の平均値が所定値以下である場合に、所定の条件を満たすとしてもよい。
表示態様設定部137は、ユーザ情報に基づいて、入力部110の表示態様を設定する。例えば、表示態様設定部137は、ユーザ情報においてそのユーザの熟練度が所定の条件を満たす場合には、入力部110を用いた特定情報の入力をより短時間で行うことが可能な表示態様に変化させる。この場合、例えば、表示態様設定部137は、入力部110に、特定情報の入力に用いるボタンのショートカットを表示させる。一方で、表示態様設定部137は、ユーザ情報においてそのユーザの熟練度が所定の条件を満たさない場合には、入力部110を用いた特定情報の入力が短時間で理解しやすくなるような表示態様に変化させる。この場合、例えば、表示態様設定部137は、入力部110に、特定情報の入力に用いるボタンの操作方法を示すガイドラインを表示させる。なお、ここでの所定の条件は、任意に設定されてよいが、例えば、熟練度が所定値以上であることとしてもよい。すなわち例えば、過去における注視時刻から特定時刻T2までの時間の平均値が所定値以下である場合に、所定の条件を満たすとしてもよい。
図8は、第2実施形態における情報処理装置の動作の一例を示すフローチャートである。図8では、顔認識によってユーザを特定し、その習熟度に応じて入力部110の設定を変更する場合を例にする。情報処理装置100Aは、ユーザ特定部136により、視線検出部120を制御してユーザの顔を撮像させて、ユーザを特定する(ステップS210)。(ステップS220)。
ユーザ特定部136は、表示態様設定部137は、ユーザ情報に基づいて、入力部110の表示態様を設定する。ユーザ情報においてそのユーザの熟練度が所定の条件を満たす場合(ステップS220;YES)、表示態様設定部137は、入力部110を用いた特定情報の入力をより短時間で行うことが可能な表示態様に変化させ、入力部110にショートカットを表示させる(ステップS230)。一方で、ユーザ情報においてそのユーザの熟練度が所定の条件を満たさない場合(ステップS220;NO)、表示態様設定部137は、入力部110を用いた特定情報の入力が短時間で理解しやすくなるような表示態様に変化させ、入力部110にガイドラインを表示させる(ステップS240)。
本実施形態では、ユーザ情報を表示態様の設定に用いたが、ユーザ情報を、入力時間t2の設定に用いてもよい。すなわち、情報処理装置100Aは、ユーザ情報に基づき、ユーザが特定情報の入力に要した時間を示す入力時間t2を設定してよい。この場合例えば、情報処理装置100Aは、ユーザ情報においてユーザの熟練度が高いほど、入力時間t2を短く設定してもよい。
(効果)
第2実施形態にかかる情報処理装置100Aは、ユーザ特定部136と、表示態様設定部137とをさらに含む。ユーザ特定部136はユーザを特定する。表示態様設定部137は、ユーザ特定部136の特定結果に応じて、特定情報が入力される入力部110の表示態様を設定する。
第2実施形態にかかる情報処理装置100Aは、ユーザ特定部136と、表示態様設定部137とをさらに含む。ユーザ特定部136はユーザを特定する。表示態様設定部137は、ユーザ特定部136の特定結果に応じて、特定情報が入力される入力部110の表示態様を設定する。
第2実施形態にかかる情報処理装置100Aによると、ユーザを特定し、ユーザの入力時間t2に応じて入力部110の表示態様を変化させ、特定情報の入力をスムーズにすることで、特定情報の入力が次のアクションまでに間に合わなくなることを防ぐことができる。これにより、映像データの頭出し位置を適切に設定することができる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更することができる。例えば、上記第1実施形態において特定情報をユーザが入力する場合を例に挙げて説明したが、これに限定されない。特定情報の入力においては、映像データから自動で特定情報の判定を行ってもよい。この場合、例えば、ユーザが候補となるアクションを入力部110で選択することで特定時刻T2の計測が行われる。
1,1A…情報処理システム、100,100A…情報処理装置、110…入力部、120…視線検出部、130,130A…処理部、131…特定情報取得部、132…視線情報取得部、133…入力情報取得部、134…アクション時間取得部、135…タグ設定部、136…ユーザ特定部、137…表示態様設定部、140…記憶部、141…タグ、150…出力部、200,200B…撮像部、t1,t2…時間、T0…再生開始時刻、T1…入力開始時刻、T2…特定時刻
Claims (6)
- ユーザによって入力された、映像データに含まれるアクションを特定する特定情報と、前記特定情報が入力された時刻である特定時刻とを取得する特定情報取得部と、
前記ユーザが前記特定情報の入力に要した時間を示す入力時間を取得する入力時間取得部と、
前記特定情報で特定されたアクションに基づいて、前記アクションに対応する時間を示すアクション時間を取得するアクション時間取得部と、
前記特定時刻から、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記映像データにおける前記アクションの再生開始時刻として設定するタグ設定部と、
を備える情報処理装置。 - 前記ユーザの視線の検出結果を取得する視線情報取得部と、
を更に含み、
前記タグ設定部は、
前記ユーザの視線が検出されない場合に、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記アクションの再生開始時刻として設定し、
前記ユーザの視線が検出された場合であって、前記ユーザの視線が、前記特定情報が入力される入力部に重なる場合には、前記ユーザの視線が前記入力部に重なった注視時刻から、前記アクション時間を遡った時刻を、前記アクションの再生開始時刻として設定する、請求項1に記載の情報処理装置。 - 前記入力時間取得部は、過去における前記注視時刻から前記特定時刻までの時間に基づき、前記入力時間を設定する、請求項2に記載の情報処理装置。
- 前記ユーザを特定するユーザ特定部と、前記ユーザ特定部の特定結果に応じて、前記特定情報が入力される入力部の表示態様を設定する表示態様設定部と、をさらに含む、請求項1から請求項3のいずれか1項に記載の情報処理装置。
- ユーザによる映像データに含まれるアクションを特定する特定情報の入力を受け付けるステップと、
入力された前記特定情報と、前記特定情報が入力された時刻である特定時刻とを取得するステップと、
前記ユーザが前記特定情報の入力に要した時間を示す入力時間を取得するステップと、
前記特定情報で特定されたアクションに基づいて、前記アクションが開始してから前記ユーザが前記特定情報を入力するまでの時間を示すアクション時間を取得するステップと、
前記特定時刻から、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記映像データにおける前記アクションの再生開始時刻として設定するステップと、
を含む、情報処理方法。 - ユーザによる映像データに含まれるアクションを特定する特定情報の入力を受け付けるステップと、
入力された前記特定情報と、前記特定情報が入力された時刻である特定時刻とを取得するステップと、
前記ユーザが前記特定情報の入力に要した時間を示す入力時間を取得するステップと、
前記特定情報で特定されたアクションに基づいて、前記アクションが開始してから前記ユーザが前記特定情報を入力するまでの時間を示すアクション時間を取得するステップと、
前記特定時刻から、前記入力時間及び前記アクション時間の合計分を遡った時刻を、前記映像データにおける前記アクションの再生開始時刻として設定するステップと、
をコンピュータに実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021092540A JP2022184596A (ja) | 2021-06-01 | 2021-06-01 | 情報処理装置、情報処理方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021092540A JP2022184596A (ja) | 2021-06-01 | 2021-06-01 | 情報処理装置、情報処理方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022184596A true JP2022184596A (ja) | 2022-12-13 |
Family
ID=84437425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021092540A Pending JP2022184596A (ja) | 2021-06-01 | 2021-06-01 | 情報処理装置、情報処理方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022184596A (ja) |
-
2021
- 2021-06-01 JP JP2021092540A patent/JP2022184596A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6017223B2 (ja) | ゲームシステム、ゲーム装置、及びプログラム | |
US9919197B2 (en) | Playbook processor | |
US20160365121A1 (en) | Game Video Processing Systems and Methods | |
WO2018069985A1 (ja) | 採点支援プログラム、採点支援装置および採点支援方法 | |
JP6790407B2 (ja) | 表示装置、表示方法及び表示プログラム | |
US20160172005A1 (en) | Extraction method and device | |
US9934821B2 (en) | Non-transitory computer-readable storage medium, playback control method, and playback control device | |
US10284901B2 (en) | Non-transitory computer-readable storage medium, and display control device | |
US10115021B2 (en) | Scorebook creating apparatus, scorebook creating system, scorebook creating method, program, imaging device, and reproducing method | |
TWI579026B (zh) | 資訊處理方法及裝置 | |
KR20220073699A (ko) | 컴퓨터 시스템 및 게임 시스템 | |
US11917218B2 (en) | Server, and advertisement setting method | |
JP2022184596A (ja) | 情報処理装置、情報処理方法、プログラム | |
US10476991B2 (en) | Chatting terminal, chatting system, chatting display method, and recording medium | |
JP6919342B2 (ja) | チャット端末装置、チャットシステム、チャット表示方法、及びチャット表示プログラム | |
JP6864833B2 (ja) | チャット端末装置、チャットシステム、チャット表示方法、及びチャット表示プログラム | |
US11724187B2 (en) | Ghost comparison mode | |
US20170278479A1 (en) | Display device, display method, and non-transitory storage medium | |
JP2022007548A (ja) | 評価システム、および評価方法 | |
US20160354691A1 (en) | Information processing device, information processing method, program, information storing medium, information processing system, and management device | |
US20170274266A1 (en) | Non-transitory computer-readable storage medium, display control device, and display control method | |
WO2024057965A1 (ja) | 情報処理装置、情報処理方法、情報解析システム | |
JP7063363B2 (ja) | 表示装置、表示方法及び表示プログラム | |
JP7234883B2 (ja) | チャットシステム、チャット表示方法及びチャットデータ処理プログラム | |
JP7503768B2 (ja) | 解析情報修正装置、解析情報修正方法、及び、コンピュータプログラム |