JP2004297448A - Device for superimposing and displaying information - Google Patents

Device for superimposing and displaying information Download PDF

Info

Publication number
JP2004297448A
JP2004297448A JP2003087134A JP2003087134A JP2004297448A JP 2004297448 A JP2004297448 A JP 2004297448A JP 2003087134 A JP2003087134 A JP 2003087134A JP 2003087134 A JP2003087134 A JP 2003087134A JP 2004297448 A JP2004297448 A JP 2004297448A
Authority
JP
Japan
Prior art keywords
information
screen
display
video
pointed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003087134A
Other languages
Japanese (ja)
Other versions
JP4103652B2 (en
Inventor
Kazuo Kunieda
和雄 國枝
Masaru Kusui
大 久寿居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003087134A priority Critical patent/JP4103652B2/en
Publication of JP2004297448A publication Critical patent/JP2004297448A/en
Application granted granted Critical
Publication of JP4103652B2 publication Critical patent/JP4103652B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce excess and deficiency in information displayed for viewers by reducing a man-hour to optimize information displayed by a program provider. <P>SOLUTION: A receiving part 12 receives data broadcasting program information, gives image information to a display information determining part 15, and gives information related to an object in an image to a related information holding part 13. A pointing recognizing part 14 recognizes which one of objects displayed in the image is pointed by a user, and gives the recognition result to the display information determining part 15. The part 15 determines the degree of minuteness concerning the related information at each object based on image information, related information with the minuteness degree of each object recorded in the related information holding part 13, and the recognition result given from the pointing recognizing part 14. The display information determining part 15 gives the image information and the related information determined at each object to a display part 16. The display part 16 superimposes the image information on the related information so as to display the resultant information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、情報重畳表示装置に関し、特に、データ放送番組の映像中に含まれるオブジェクトに関連した情報の重畳表示装置に関する。
【0002】
【従来の技術】
データ放送番組では、映像情報と同時に映像中のオブジェクトに関連した情報が送信され、受信機側で映像の進行に合わせて関連情報を表示する。
【0003】
たとえば、番組と当該番組を補足する情報である補助情報とを有する情報受信する番組受信部と、補助情報を表示する・しないを示すフラグである表示フラグを管理する表示フラグ管理部と、前記番組受信部で受信した番組と補助情報を分離する分離部と、前記分離部で分離された番組を表示する番組表示部と、前記分離部で分離された補助情報を表示する補助情報表示部と、前記表示フラグ管理部の表示フラグを読み取り、表示フラグがオンである場合に補助情報を表示する旨を前記補助情報表示部に指示する補助情報表示制御部とを備える技術がある。(特許文献1)
【特許文献1】
特開2001−245234号公報
【0004】
【発明が解決しようとする課題】
上述の技術の問題点は、視聴者がより詳しく知りたい関連情報がわずかしか表示されなかったり、逆に余分な関連情報が多く表示されたりしてしまうことである。
【0005】
また、番組提供者側は視聴者が望む情報をなるべく過不足なく提供するためには、表示する情報の量や時間、他の情報との優先順位などをあらかじめ最適化する必要があり、そのための工数が膨大であるという付随的な問題点がある。
【0006】
本発明の目的は、映像中のオブジェクトに関連する情報を詳細度別に複数準備しておき、視聴者の状態や操作履歴からシステムが表示する情報の詳細度を決定することにより、番組提供者が表示する情報を最適化するための工数を削減し、視聴者に表示される情報の過不足を少なくすることである。
【0007】
【課題を解決するための手段】
本発明の第1の情報重畳表示装置は、映像情報、オブジェクトの詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクトの詳細度付き関連情報を出力する受信部と、前記受信部からの詳細度付き関連情報を保持する関連情報保持部と、ユーザに指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、前記ポインティング認識部からのポインティング位置情報、前記受信部からの映像情報、前記関連情報保持部からのオブジェクトの詳細度付き関連情報に基づいて、映像情報に含まれるオブジェクトごとの重要度を算出し、算出した重要度に基づいてオブジェクトごとの詳細度を算出し、算出した詳細度に基づいてオブジェクトの詳細度付き関連情報からオブジェクト対応の表示する関連情報を決定し、映像情報、オブジェクト対応の表示する関連情報を出力する表示情報判定部と、前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、を有することを特徴とする。
【0008】
本発明の第2の情報重畳表示装置は、映像情報、オブジェクトの詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクトの詳細度付き関連情報を出力する受信部と、前記受信部からの詳細度付き関連情報を保持する関連情報保持部と、ユーザに指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、顔方向情報、前記ポインティング認識部からのポインティング位置情報、前記受信部からの映像情報、前記関連情報保持部からのオブジェクトの詳細度付き関連情報に基づいて、映像情報に含まれるオブジェクトごとの重要度を算出し、算出した重要度に基づいてオブジェクトごとの詳細度を算出し、算出した詳細度に基づいてオブジェクトの詳細度付き関連情報からオブジェクト対応の表示する関連情報を決定し、映像情報、オブジェクト対応の表示する関連情報を出力する表示情報判定部と、前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、使用者の顔が前記表示部を向いているかどうかを示す顔方向情報を作成し、前記表示情報判定部に出力する顔画像認識部と、を有することを特徴とする。
【0009】
本発明の第3の情報重畳表示装置は、前記第1の情報重畳表示装置であって、最重要オブジェクトを、(a)使用者がポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)使用者がポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して、決定し、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により算出する前記表示情報決定部を有することを特徴とする。
【0010】
本発明の第4の情報重畳表示装置は、前記第3の情報重畳表示装置であって、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせてオブジェクトのスコアを算出する前記表示情報決定部を有することを特徴とする。
【0011】
本発明の第5の情報重畳表示装置は、前記第4の情報重畳表示装置であって、(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、(b)オブジェクトのスコアに応じて、重要度を増加させ、(c)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、(d)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(e)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、(f)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する前記表示情報決定部を有することを特徴とする。
【0012】
本発明の第6の情報重畳表示装置は、前記第5の情報重畳表示装置であって、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により、オブジェクトの重要度を算出する前記表示情報決定部を有することを特徴とする。
【0013】
本発明の第7の情報重畳表示装置は、前記第2の情報重畳表示装置であって、最重要オブジェクトを、(a)使用者がポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)使用者がポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して、決定し、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により算出する前記表示情報決定部を有することを特徴とする。
【0014】
本発明の第8の情報重畳表示装置は、前記第7の情報重畳表示装置であって、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせてオブジェクトのスコアを算出する前記表示情報決定部を有することを特徴とする。
【0015】
本発明の第9の情報重畳表示装置は、前記第8の情報重畳表示装置であって、(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、(b)オブジェクトのスコアに応じて、重要度を増加させ、(c)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、(d)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(e)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、(f)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する前記表示情報決定部を有することを特徴とする。
【0016】
本発明の第10の情報重畳表示装置は、前記第9の情報重畳表示装置であって、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)により、オブジェクトの重要度を算出する前記表示情報決定部を有することを特徴とする。
【0017】
【発明の実施の形態】
本発明の第1の実施の形態について、図面を参照して詳細に説明する。
【0018】
図1は、本発明の第1の実施の形態の構成を示すブロック図である。
【0019】
図1を参照すると、本発明の第1の実施の形態は、データ放送番組情報を受信する受信部12と、データ放送番組情報に含まれるオブジェクトの詳細度付き関連情報を保持する関連情報保持部13と、ユーザがどのオブジェクトを指しているかを認識するポインティング認識部14と、ユーザの操作やその履歴から表示する関連情報の詳細度を決定する表示情報判定部15と、データ放送番組の映像と映像中に含まれるオブジェクトの関連情報を重畳して表示する表示部16とを備える。
【0020】
また、システムのプログラムを記録したプログラム記録媒体11を備える。プログラム記録媒体11から読み込まれたプログラムが、システムの動作を制御する。
【0021】
次に、本発明の第1の実施の形態について図面を参照して説明する。
【0022】
受信部12はデータ放送番組情報を受信し、データ放送番組情報に含まれる映像情報を表示情報判定部15に渡す(図1S205)と同時に、データ放送番組情報に含まれるオブジェクトの詳細度付き関連情報を関連情報保持部13に渡す(図1S203)。
【0023】
図2は、詳細度付き関連情報の内容の一例を示す説明図である。
【0024】
詳細度付き関連情報は、ある時点での映像においてどの位置にどれくらいの大きさでどのオブジェクトが表示されているかがわかり、それらのオブジェクトの関連情報が何段階かの詳細度に応じてわかるようになっていればよい。
【0025】
図2を参照すると、関連情報保持部13は、詳細度付き関連情報をオブジェクト情報と関連情報とに分けて保持する。
【0026】
オブジェクト情報は、例えば、映像情報のフレーム番号、そのフレームで表示されているオブジェクトのID、そのオブジェクトの位置、大きさを持つ。
【0027】
例えば、あるフレームにおいて二つ以上のオブジェクトが表示されていれば、図2のように同じフレーム番号で異なるオブジェクトIDのデータが存在する。
【0028】
オブジェクトの位置と大きさは、例えばオブジェクトの形を長方形とし、オブジェクトの左上の頂点の座標を位置として大きさを幅と高さで表現してもよいし、オブジェクトの左上の頂点と右下の頂点の座標で表現してもよいし、また例えば、オブジェクトの形を多角形としてある頂点から時計回り、または反時計回りの頂点の座標を並べて表現してもよい。
【0029】
関連情報は、オブジェクトごとに、詳細度を指定したときに表示する関連情報が決定できればよい。例えば図2のように各オブジェクトに対して詳細度ごとに分けて管理される。また、詳細度を指定したときにその詳細度以下の情報を全て表示すると決めておいてもよい。
【0030】
表示情報判定部15は、受信部12から渡された映像情報を表示部16に渡し(図1S506)、表示部16は映像情報を表示する。
【0031】
ユーザは、表示部16にて表示された映像情報を見て、映像中に含まれる関心のあるオブジェクトをポインティング認識部14を使って指定する。ポインティング認識部14は、例えば、ユーザがレーザポインタを使って画面上のオブジェクトを指定し、レーザポインタの指している位置を認識するというものでもよいし、ユーザがマウスを使ってマウスカーソルをオブジェクト上に動かし、マウスをクリックすることで位置を指定するというものでもよい。またカメラを使った画像認識によりユーザが画面を指差している位置を認識するというものでもよい。
【0032】
ポインティング認識部14を通じてユーザが画面上で指定した位置は表示情報判定部15に渡される(図1S405)。
【0033】
ポインティング認識部14から表示情報判定部15には一定時間ごとに情報が渡されるようになっており、表示情報判定部15では、ポインティング認識部14から渡された情報を蓄積する。また、ポインティングされていないときには、情報を送らないようにしてもよいし、ポインティングされていないという情報を渡すようにしてもよい。この蓄積された情報を利用して、表示情報判定部15は連続してポインティングされているかどうかを判定する。
【0034】
例えば、ポインティング認識部14から表示情報判定部15に映像のフレームと同期したタイミングである1/30秒間隔で情報が渡される場合には、30回連続してポインティングされている情報が渡されれば、30フレーム数(1秒)の間、連続してポインティングされていると判定される。また、例えば、1/10秒間隔で情報が渡される場合には、10回連続してポインティングされている情報が渡されれば、30フレーム数(1秒)の間、連続してポインティングされていると判定される。
【0035】
表示情報判定部15は、映像情報の現在のフレーム番号をキーにして、関連情報保持部13から現在のフレームで表示されているオブジェクトのIDと、その位置と大きさを受け取る(図1S305)。
【0036】
また、表示情報判定部15はポインティング認識部14から渡されたユーザの指定位置や、関連情報保持部13から渡される現在のフレームで表示されているオブジェクトのIDとその位置と大きさの履歴を保持する。
【0037】
表示情報判定部15は、ユーザが画面をポインティングしている位置と、オブジェクトの位置と大きさの情報から、オブジェクトごとに表示する関連情報を決定し、映像情報とともに表示部16に渡し(図1S506)、表示部16では映像情報にオブジェクトの関連情報を重畳して表示する。
【0038】
表示情報判定部15における、オブジェクトごとの表示する関連情報の決定の仕方は、まず現在の映像情報に含まれるオブジェクトの中から最重要なオブジェクトを決定し、次に最重要なオブジェクト以外のオブジェクトの重要度を決定する。オブジェクトの重要度に応じて、オブジェクトの関連情報の詳細度を決定する。
【0039】
最重要オブジェクトの決定の仕方は次のように行う。
【0040】
(1)ユーザがポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとする。
【0041】
(2)ユーザがポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとする。
【0042】
オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して計算する。例えば次のように行う。
【0043】
(1)オブジェクトの位置と大きさからオブジェクトの重心と面積を求める。簡単にするために、例えばオブジェクトに外接する長方形を決定し、その長方形の重心と面積で代用してもよい。
【0044】
(2)オブジェクトの画面中央への近さの指標は、例えば、オブジェクトの重心から画面中央への距離の逆数とする。
【0045】
(3)連続して表示されていた割合は、例えば、最近1分間の映像に連続して何フレーム表示されていたかの割合とする。
【0046】
(4)オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせて、オブジェクトのスコアとする。
【0047】
オブジェクトのスコアの計算時に重みを0としてもよい。
【0048】
つまり、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合、のいずれかだけからスコアを決定してもよいし、全てでなくいくつかの組み合わせだけからスコアを決定してもよい。
【0049】
また、オブジェクトごとの重要度は、オブジェクトが最重要オブジェクトか、オブジェクトのスコア、そのオブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、を考慮して決定する。例えば、次のようにして決定する。
【0050】
(1)オブジェクトが最重要オブジェクトなら重要度を増加させる。
【0051】
(2)オブジェクトのスコアに応じて、重要度を増加させる。
【0052】
(3)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させる。
【0053】
(4)連続して画面のどこかがポインティングされていれば、重要度を増加する。例えば、閾値と変化率を定めておき、連続してポインティングされている秒数またはフレーム数が閾値を超えない場合は変化率に応じて重要度を徐々に増加させ、閾値を超えた場合には重要度を一定量だけ増加させる。
【0054】
(5)映像中に含まれるオブジェクトの数に応じて、重要度を増減させる。例えば、オブジェクトの数が少なければ相対的に各オブジェクトの重要度を増加され、オブジェクトの数が多ければオブジェクトの重要度を減少させる。
【0055】
(6)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する。
【0056】
オブジェクトの重要度の計算時に重みを0としてもよい。
【0057】
つまり、そのオブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、のいずれかだけからスコアを決定してもよいし、全てでなくいくつかの組み合わせだけからスコアを決定してもよい。
【0058】
オブジェクトの重要度の計算は、例えば以下のようになる。
【0059】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)
例えば、表示情報判定部15における各オブジェクトの詳細度の決定は以下のように行われる。
【0060】
ある時点でユーザが画面上をポインティングしたとする。
【0061】
ユーザがポインティングした位置はポインティング認識部14を通じて表示情報判定部15に渡される(図1S405)。例えばポインティング位置は(600,600)だったとする。
【0062】
表示情報判定部15は、映像情報の現在のフレーム番号をキーにして、関連情報保持部13から現在のフレームで表示されているオブジェクトのIDと、その位置と大きさを受け取る(図1S305)。関連情報保持部13では、図2のようなデータが保持されていたとし、現在の映像情報のフレーム番号が1000だったとする。関連情報保持部13はフレーム番号が1000のデータを検索する。
【0063】
関連情報保持部13から表示情報判定部15へは、オブジェクト1の位置が(80,80)で大きさが(100,200)、オブジェクト2の位置が(300,400)で大きさが(200,100)であるというデータが渡される(図1S305)。
【0064】
表示情報判定部15は、まず最重要オブジェクトを決定する。
【0065】
オブジェクト1の位置が(80,80)で大きさが(100,200)、オブジェクト2の位置が(300,400)で大きさが(200,100)なので、ユーザがポインティングしている位置(600,600)はどのオブジェクトも指しておらず、まだ最重要オブジェクトは決定されない。
【0066】
最重要オブジェクトが決定されていないので、次にオブジェクトごとのスコアを計算する。
【0067】
例えば、画面の大きさを(1000,800)であるとする。
【0068】
オブジェクト1に関しては、オブジェクト1の重心は(130,180)、面積は20000となる。
【0069】
画面中央は(500,400)なので、重心から画面中央への距離は、√((500−130)^2+(400−180)^2)=430.5となり、画面中央への近さはその逆数となる。
【0070】
また、映像は秒30フレームで表示されているとして1分間では1800フレームとなる。オブジェクト1は最近1分間の映像に連続して360フレーム表示されていたとすると、その割合は0.2となる。
【0071】
オブジェクト2に関しては、オブジェクト2の重心は(400,450)、面積は20000となる。
【0072】
画面中央は(500,400)なので、重心から画面中央への距離は、√((500−400)^2+(400−450)^2)=111.8となり、画面中央への近さはその逆数となる。
【0073】
また、オブジェクト2は最近1分間の映像に連続して360フレーム表示されていたとすると、その割合は0.2となる。
【0074】
オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合、のそれぞれの重みを、0.0001、500、1とすると、
スコアの計算は(スコア)=0.0001*(オブジェクトの表示面積の大きさ)+500/(画面中央への近さ)+1*(連続して表示されていた割合)となる。
【0075】
オブジェクト1のスコアは、0.0001*20000+500/430.5+1*0.2=3.36となり、オブジェクト2のスコアは、0.0001*20000+500/111.8+1*0.2=6.67となるので、オブジェクト2が最重要オブジェクトと決定される。
【0076】
次にオブジェクトごとの重要度を決定する。
【0077】
オブジェクトがポインティングされているときの重要度の増加分を1とし、ポインティングされていないときは増加分を0とする。
【0078】
連続して画面のどこかがポインティングされているときのフレーム数の閾値を900、変化率を0.002とする。現時点でユーザが600フレーム連続して画面上のどこかをポインティングしていたとする。映像中に含まれるオブジェクトの数に応じた重要度の増減分は、例えば、映像中に含まれるオブジェクトの数をN個として、−1/(11−N)とする。ただしNが10以上のときはNを10として計算するものとする。また、足し合わせるときの重みは、オブジェクトのスコアに対するものを0.2とし、その他を全て1とする。
【0079】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)なので、オブジェクトの重要度の計算は、(オブジェクトの重要度)=1*(オブジェクトが最重要オブジェクトのときの増加分)+0.2*(オブジェクトのスコア)+1*(ポインティングされているときの増加分)+0.002*(連続して画面をポインティングしているフレーム数)−1/(11−映像中に含まれるオブジェクトの数)となる。
【0080】
このとき、オブジェクト1の重要度は、オブジェクト1は最重要オブジェクトでなく、オブジェクトのスコアが3.36であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個なので、0+0.2*3.36+0+600*0.002−1/(11−2)=1.76となる。
【0081】
また、オブジェクト2の重要度は、オブジェクト2は最重要オブジェクトであり、オブジェクトのスコアが6.67であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個なので、1+0.2*6.67+0+600*0.002−1/(11−2)=3.42となる。
【0082】
オブジェクトの関連情報の詳細度は、オブジェクトの重要度の小数点以下を切り捨てたものとすると、オブジェクト1の関連情報の詳細度は1、オブジェクト2の関連情報の詳細度は3となる。
【0083】
表示情報判定部15は、関連情報保持部13からオブジェクトごとに詳細度に合わせて関連情報を受け取る(図1S305)。
【0084】
オブジェクト1の関連情報の詳細度は1なので関連情報は「携帯電話」、オブジェクト2の関連情報の詳細度は3なので関連情報は「PDA、ポケットギア、3万円」を受け取る。
【0085】
表示情報判定部15は、オブジェクトごとに決定された関連情報を映像情報とともに表示部16に渡し(図1S506)、表示部16では映像情報にオブジェクトの関連情報を重畳して表示する。
【0086】
図3は、映像情報に重畳される関連情報の一例を示す説明図である。
【0087】
図3を参照すると、オブジェクトの下部に関連情報が表示されている。
【0088】
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。
【0089】
図4は、本発明の第2の実施の形態の構成を示す説明図である。
【0090】
図4を参照すると、本発明の第2の実施の形態は、第1の実施の形態の構成要素に付加して、ユーザが表示部16に顔を向けているかどうかを認識する顔画像認識部17を備える。ポインティング認識部14からの認識結果が表示情報判定部15に渡されるときに、顔画像認識部17から表示情報判定部15にユーザが表示部16に顔を向けているかどうかの認識結果も同時に渡され、オブジェクトごとにどれくらい詳細な関連情報を表示するかを決定することに利用される。
【0091】
顔画像認識部17から表示情報判定部15には一定時間ごとに情報が渡されるようになっており、表示情報判定部15では、顔画像認識部17から渡された情報を蓄積する。また、ユーザが表示部16に顔を向けていないときには、情報を送らないようにしてもよいし、ユーザが表示部16に顔を向けていないという情報を渡すようにしてもよい。この蓄積された情報を利用して、表示情報判定部15は連続してユーザが表示部16に顔を向けているかどうかを判定する。
【0092】
例えば、顔画像認識部17から表示情報判定部15に映像のフレームと同期したタイミングである1/30秒間隔で情報が渡される場合には、30回連続してユーザが表示部16に顔を向けているという情報が渡されれば、30フレーム数(1秒)の間、連続してユーザが表示部16に顔を向けていると判定される。また、例えば1/10秒間隔で情報が渡される場合には、10回連続してユーザが表示部16に顔を向けているという情報が渡されれば、30フレーム数(1秒)の間、連続してユーザが表示部16に顔を向けていると判定される。
【0093】
本発明の第2の実施の形態においても、本発明の第1の実施の形態と同様に処理が行われる。本発明の第2の第2の実施の形態においては、オブジェクトごとの重要度の決定の仕方が、本発明の第2の第1の実施の形態とは異なる。
【0094】
本発明の第2の実施の形態では、オブジェクトごとの重要度は、オブジェクトが最重要オブジェクトか、オブジェクトのスコア、そのオブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、に加えて、顔画像の認識結果を考慮して決定する。例えば、次のようにして決定する。
【0095】
(1)連続してユーザの顔の向きが画面方向を向いていれば、オブジェクトの重要度を増加させる。
【0096】
(2)連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長ければ、関連情報よりも番組の内容に集中しているとみなし、オブジェクトの重要度を減少させる。
【0097】
(3)第1の実施例と同様に、オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、に加えて、顔が画面方向を向いているか、また画面をポインティングしていない時間から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する。
【0098】
オブジェクトの重要度の計算時に重みを0としてもよい。つまり、そのオブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、顔が画面方向を向いているか、画面をポインティングしていない時間、のいずれかだけからスコアを決定してもよいし、全てでなくいくつかの組み合わせだけからスコアを決定してもよい。
【0099】
オブジェクトの重要度は、例えば以下のようにして計算される。
【0100】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)。
【0101】
例えば、受信部12はデータ放送番組情報を受信し、データ放送番組情報に含まれる映像情報を表示情報判定部15に渡す(図4S205)と同時に、データ放送番組情報に含まれるオブジェクトの詳細度付き関連情報を関連情報保持部13に渡す(図4S203)。表示情報判定部15は、受信部12から渡された映像情報を表示部16に渡し(図4S506)、表示部16は映像情報を表示する。顔画像認識部17から表示情報判定部15に、ユーザの顔の向きの認識結果が伝えられる(図4S705)。
【0102】
また、ユーザは表示部16にて表示された映像情報を見て、映像中に含まれる関心のあるオブジェクトをポインティング認識部14を使って指定し、ポインティング認識部14を通じてユーザが画面上で指定した位置が表示情報判定部15に渡される(図4S405)。
【0103】
また、例えば、表示情報判定部15における各オブジェクトの詳細度の決定は以下のように行われる。
【0104】
ある時点でユーザが画面上をポインティングしたとする。ユーザがポインティングした位置はポインティング認識部14を通じて表示情報判定部15に渡される(図4S405)。
【0105】
例えばポインティング位置は(600,600)だったとする。
【0106】
表示情報判定部15は、映像情報の現在のフレーム番号をキーにして、関連情報保持部13から現在のフレームで表示されているオブジェクトのIDと、その位置と大きさを受け取る(図4S305)。関連情報保持部13では、図2のようなデータが保持されていたとし、現在の映像情報のフレーム番号が1000だったとする。関連情報保持部13はフレーム番号が1000のデータを検索する。関連情報保持部13から表示情報判定部15へは、オブジェクト1の位置が(80,80)で大きさが(100,200)、オブジェクト2の位置が(300,400)で大きさが(200,100)であるというデータが渡される(図4S305)。
【0107】
本発明の第1の実施の形態と同様に、オブジェクト2が最重要オブジェクトと決定される。
【0108】
次にオブジェクトごとの重要度を決定する。
【0109】
オブジェクトがポインティングされているときの重要度の増加分を1とする。連続して画面のどこかがポインティングされているときのフレーム数の閾値を900、変化率を0.002とする。現時点でユーザが600フレーム連続して画面上のどこかをポインティングしていたとする。映像中に含まれるオブジェクトの数に応じた重要度の増減分は、例えば、映像中に含まれるオブジェクトの数をN個として、−1/(11−N)とする。ただしNが10以上のときはNを10として計算するものとする。
【0110】
連続してユーザの顔の向きが画面方向を向いているときのフレーム数の閾値を900、変化率を0.001とする。連続してユーザの顔の向きが画面方向を向いていて画面をポインティングしていないときのフレーム数の閾値を900、変化率を0.001とする。現時点でユーザが900フレーム以上連続して顔を画面方向に向けていたとする。
【0111】
また、足し合わせるときの重みは、オブジェクトのスコアに対するものを0.2とし、その他を全て1とする。
【0112】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)なので、オブジェクトの重要度の計算は、(オブジェクトの重要度)=1*(オブジェクトが最重要オブジェクトのときの増加分)+0.2*(オブジェクトのスコア)+1*(ポインティングされているときの増加分)+0.002*(連続して画面をポインティングしているフレーム数)−1/(11−映像中に含まれるオブジェクトの数)+1*(連続してユーザの顔の向きが画面方向を向いているときのフレーム数*変化率)−1*(連続してユーザの顔の向きが画面方向を向いていて画面をポインティングしていないときのフレーム数*変化率)となる。
【0113】
このとき、オブジェクト1の重要度は、オブジェクト1は最重要オブジェクトでなく、オブジェクトのスコアが3.36であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、0+0.2*3.36+0+600*0.002−1/(11−2)+900*0.001−0=2.66となる。
【0114】
また、オブジェクト2の重要度は、オブジェクト2は最重要オブジェクトであり、オブジェクトのスコアが6.67であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、1+0.2*6.67+0+600*0.002−1/(11−2)+900*0.001−0=4.32となる。
【0115】
オブジェクトの関連情報の詳細度は、オブジェクトの重要度の小数点以下を切り捨てたものとすると、オブジェクト1の関連情報の詳細度は2、オブジェクト2の関連情報の詳細度は4となる。
ここで、顔を画面に向けたまま、画面のポインティングをやめて900フレームすぎたとする。映像中のオブジェクトの数は2個のままとする。
【0116】
このとき、オブジェクト1の重要度は、オブジェクト1は最重要オブジェクトでなく、オブジェクトのスコアが3.36であり、オブジェクトがポインティングされておらず、ユーザは画面上のどこかをポインティングしておらず、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、0+0.2*3.36+0+0−1/(11−2)+900*0.001−900*0.001=0.56となる。
【0117】
また、オブジェクト2の重要度は、オブジェクト2は最重要オブジェクトであり、オブジェクトのスコアが6.67であり、オブジェクトがポインティングされておらず、ユーザは画面上のどこかをポインティングしておらず、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、1+0.2*6.67+0+0−1/(11−2)+900*0.001−900*0.001=2.22となる。
【0118】
オブジェクトの関連情報の詳細度は、オブジェクトの重要度の小数点以下を切り捨てたものとすると、オブジェクト1の関連情報の詳細度は0、オブジェクト2の関連情報の詳細度は2となる。
【0119】
表示情報判定部15は、関連情報保持部13からオブジェクトごとに詳細度に合わせて関連情報を受け取る(図4S305)。表示情報判定部15は、オブジェクトごとに決定された関連情報を映像情報とともに表示部16に渡し(図4S506)、表示部16では映像情報にオブジェクトの関連情報を重畳して表示する。
【0120】
このようにして、視聴者に提示するオブジェクトの関連情報を自動的に調節することができるようになる。
【0121】
【発明の効果】
本発明の効果は、番組提供者が表示する情報を最適化するための工数を削減し、視聴者に表示される情報の過不足を少なくすることができることである。
【0122】
その理由は、映像中のオブジェクトに関連する情報を詳細度別に複数準備しておき、視聴者の状態や操作履歴からシステムが表示する情報の詳細度を決定するからである。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示すブロック図である。
【図2】オブジェクト情報および関連情報の一例を示す説明図である。
【図3】オブジェクトに関連情報が重畳表示された表示状態を示す説明図である。
【図4】本発明の第2の実施の形態の構成を示すブロック図である。
【符号の説明】
11 プログラム記録媒体
12 受信部
13 関連情報保持部
14 ポインティング認識部
15 表示情報判定部
16 表示部
17 顔画像認識部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information superimposed display device, and particularly to an information superimposed display device for information related to an object included in a video of a data broadcast program.
[0002]
[Prior art]
In a data broadcast program, information related to an object in a video is transmitted at the same time as the video information, and the receiver displays the relevant information according to the progress of the video.
[0003]
For example, a program receiving unit that receives information including a program and auxiliary information that is information supplementing the program, a display flag management unit that manages a display flag that is a flag indicating whether or not to display the auxiliary information; A separating unit that separates the program and the auxiliary information received by the receiving unit, a program display unit that displays the program separated by the separating unit, and an auxiliary information display unit that displays the auxiliary information separated by the separating unit. There is a technology including an auxiliary information display control unit that reads a display flag of the display flag management unit and instructs the auxiliary information display unit to display auxiliary information when the display flag is on. (Patent Document 1)
[Patent Document 1]
JP 2001-245234 A
[0004]
[Problems to be solved by the invention]
The problem with the above technique is that only a small amount of related information that the viewer wants to know in detail is displayed, or conversely, a large amount of extra related information is displayed.
[0005]
Also, in order to provide as much or as little information as desired by the viewer, the program provider needs to optimize the amount and time of information to be displayed and the priority order with other information in advance. There is an additional problem that the man-hour is enormous.
[0006]
An object of the present invention is to prepare a plurality of pieces of information related to objects in a video for each level of detail, and determine the level of detail of information displayed by the system from the state of the viewer and the operation history, so that the program provider can It is an object of the present invention to reduce the number of steps for optimizing the information to be displayed and to reduce the excess or deficiency of information displayed to a viewer.
[0007]
[Means for Solving the Problems]
A first information superimposing display device of the present invention, which receives video information, data broadcast program information including related information with an object detail level, and outputs video information and related information with an object detail level; A related information holding unit for holding related information with a degree of detail from a receiving unit, a pointing recognition unit for recognizing a pointing position on a screen designated by a user and outputting pointing position information, and a pointing from the pointing recognition unit Based on the position information, the video information from the receiving unit, and the related information with the degree of detail of the object from the related information holding unit, the importance of each object included in the video information is calculated, and based on the calculated importance. The degree of detail for each object is calculated, and the object is determined from the related information with the degree of detail of the object based on the calculated degree of detail. A display information determining unit that determines relevant information to be displayed corresponding to the object, and outputs video information and related information to be displayed corresponding to the object; and a video information from the display information determining unit, and an object corresponding to the object information from the display information determining unit. And a display unit that superimposes and displays the related information displayed by the display unit.
[0008]
A second information superimposed display device of the present invention, which receives video information, data broadcast program information including related information with an object detail level, and outputs video information and related information with an object detail level; A related information holding unit that holds related information with a degree of detail from a receiving unit, a pointing recognition unit that recognizes a pointing position on a screen designated by a user, and outputs pointing position information, a face direction information, and the pointing recognition. The importance calculated for each object included in the video information is calculated based on the pointing position information from the unit, the video information from the reception unit, and the related information with the degree of detail of the object from the related information holding unit. Calculates the level of detail for each object based on the level of detail, and based on the calculated level of detail, the association with the level of detail of the object The display information determining unit that determines the relevant information to be displayed corresponding to the object from the information, and outputs the video information, the relevant information to be displayed corresponding to the object, and the video information from the display information determining unit. A display unit for superimposing and displaying related information to be displayed corresponding to an object; and face image recognition for creating face direction information indicating whether a user's face faces the display unit and outputting the face direction information to the display information determination unit And a part.
[0009]
The third information superimposed display device of the present invention is the first information superimposed display device, wherein (a) if there is an object at a position where the user is pointing, the object is the most important object. (B) If there is no object at the position where the user is pointing, a score is calculated for each object, the one with the highest score is made the most important object, and (c) the score for each object is Is determined in consideration of the size of the display area, the proximity to the center of the screen, and the ratio of continuous display, and (object importance) = (weight of the increase when the object is the most important object) ) * (Increase when the object is the most important object) + (weight of object score) * (object score + (Weight of increase when object is pointed) * (increase when object is pointed) + (weight of number of frames in which screen is continuously pointed) * (continuous screen) The display information determination unit is calculated by the following formula: (the number of frames pointing to) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) And
[0010]
A fourth information superimposed display device according to the present invention is the third information superimposed display device, wherein the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display are weighted. And a display information determining unit that calculates the score of the object by adding them together.
[0011]
The fifth information superimposed display device of the present invention is the fourth information superimposed display device, wherein (a) the importance is increased if the object is the most important object, and (b) the importance is increased according to the score of the object. (C) If the object is pointed, the importance is increased by a certain amount. (D) If somewhere on the screen is pointed continuously, the importance is increased. ) The importance is increased or decreased according to the number of objects included in the video. (F) Whether the object is the most important object, the score of the object, whether the object is pointed, and how continuously the screen is pointed , And the value to be increased or decreased from the number of objects included in the video, weighted and added, It characterized by having the display information determination unit which determines the.
[0012]
A sixth information superimposed display device of the present invention is the fifth information superimposed display device, wherein (importance of the object) = (weight of increase when the object is the most important object) * (object is the most important) (Increase in important object) + (weight of object score) * (score of object) + (weight of increase when object is pointed) * (increase when object is pointed) + (Weight of the number of frames that continuously point the screen) * (number of frames that continuously point the screen) + (weight of the number of objects included in the video) * (included in the video) The display information determining unit that calculates the importance of the object by a numerical value determined from the number of objects). That.
[0013]
The seventh information superimposed display device of the present invention is the second information superimposed display device, wherein (a) if the object is located at the position where the user is pointing, the object is the most important object. (B) If there is no object at the position where the user is pointing, a score is calculated for each object, the one with the highest score is made the most important object, and (c) the score for each object is Is determined in consideration of the size of the display area, the proximity to the center of the screen, and the ratio of continuous display, and (object importance) = (weight of the increase when the object is the most important object) ) * (Increase when the object is the most important object) + (weight of object score) * (object score + (Weight of increase when object is pointed) * (increase when object is pointed) + (weight of number of frames in which screen is continuously pointed) * (continuous screen) The display information determination unit is calculated by the following formula: (the number of frames pointing to) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) And
[0014]
An eighth information superimposed display device according to the present invention is the seventh information superimposed display device, wherein the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display are weighted. And a display information determining unit that calculates the score of the object by adding them together.
[0015]
A ninth information superimposed display device according to the present invention is the eighth information superimposed display device, wherein (a) the importance is increased if the object is the most important object, and (b) the importance is increased according to the score of the object. (C) If the object is pointed, the importance is increased by a certain amount. (D) If somewhere on the screen is pointed continuously, the importance is increased. ) The importance is increased or decreased according to the number of objects included in the video. (F) Whether the object is the most important object, the score of the object, whether the object is pointed, and how continuously the screen is pointed , And the value to be increased or decreased from the number of objects included in the video, weighted and added, It characterized by having the display information determination unit which determines the.
[0016]
A tenth information superimposed display device according to the present invention is the ninth information superimposed display device, wherein (object importance) = (weight of increase when the object is the most important object) * (object is the most important) (Increase in important object) + (weight of object score) * (score of object) + (weight of increase when object is pointed) * (increase when object is pointed) + (Weight of the number of frames that continuously point the screen) * (number of frames that continuously point the screen) + (weight of the number of objects included in the video) * (included in the video) Numerical value determined from the number of objects) + (weight of increase when the user's face direction is continuously facing the screen direction) * ( Continued increase when the user's face orientation points to the screen direction) + (When the user's face orientation continues to face the screen direction but the screen is not pointed for a long time, The display information for calculating the importance of the object based on the weight of the decrease) * (the decrease when the screen is not pointed to for a long time even if the user's face is facing the screen continuously) It has a decision part.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
A first embodiment of the present invention will be described in detail with reference to the drawings.
[0018]
FIG. 1 is a block diagram showing a configuration of the first exemplary embodiment of the present invention.
[0019]
Referring to FIG. 1, a first embodiment of the present invention includes a receiving unit 12 for receiving data broadcast program information, and a related information holding unit for holding related information with details of objects included in the data broadcast program information. 13, a pointing recognizing unit 14 for recognizing which object the user is pointing to, a display information determining unit 15 for determining the level of detail of related information to be displayed from the user's operation and its history, and a video of the data broadcast program. A display unit 16 for superimposing and displaying related information of objects included in the video.
[0020]
In addition, a program recording medium 11 that records a system program is provided. The program read from the program recording medium 11 controls the operation of the system.
[0021]
Next, a first embodiment of the present invention will be described with reference to the drawings.
[0022]
The receiving unit 12 receives the data broadcast program information, and passes the video information included in the data broadcast program information to the display information determination unit 15 (S205 in FIG. 1), and at the same time, the related information with the detail level of the object included in the data broadcast program information. Is passed to the related information holding unit 13 (S203 in FIG. 1).
[0023]
FIG. 2 is an explanatory diagram illustrating an example of the content of the related information with detail level.
[0024]
The related information with the degree of detail enables the user to know which object is displayed at which position and in what size in the video at a certain point in time, and to find the related information of those objects according to several levels of detail. It just needs to be.
[0025]
Referring to FIG. 2, the related information holding unit 13 holds the related information with detail level separately into object information and related information.
[0026]
The object information includes, for example, a frame number of video information, an ID of an object displayed in the frame, a position and a size of the object.
[0027]
For example, if two or more objects are displayed in a certain frame, data of the same frame number and different object IDs exist as shown in FIG.
[0028]
The position and size of the object may be expressed as a width and height, for example, with the shape of the object being a rectangle, the coordinates of the upper left vertex of the object as the position, or the upper left vertex and lower right of the object. The coordinates of the vertices may be used, or, for example, the shape of the object may be expressed as a polygon and the coordinates of vertices clockwise or counterclockwise from a certain vertex may be arranged.
[0029]
The related information only needs to be able to determine the related information to be displayed when the level of detail is designated for each object. For example, as shown in FIG. 2, each object is managed separately for each level of detail. Alternatively, it may be determined that when the level of detail is designated, all information below the level of detail is displayed.
[0030]
The display information determining unit 15 passes the video information passed from the receiving unit 12 to the display unit 16 (S506 in FIG. 1), and the display unit 16 displays the video information.
[0031]
The user looks at the video information displayed on the display unit 16 and specifies an object of interest included in the video using the pointing recognition unit 14. The pointing recognition unit 14 may be, for example, that the user specifies an object on the screen using a laser pointer and recognizes the position pointed by the laser pointer, or the user moves the mouse cursor over the object using a mouse. , And click the mouse to specify the position. Alternatively, the position where the user points at the screen may be recognized by image recognition using a camera.
[0032]
The position specified by the user on the screen through the pointing recognition unit 14 is passed to the display information determination unit 15 (S405 in FIG. 1).
[0033]
Information is passed from the pointing recognition unit 14 to the display information determination unit 15 at regular intervals, and the display information determination unit 15 accumulates the information passed from the pointing recognition unit 14. When no pointing is performed, information may not be sent, or information indicating that no pointing may be passed. Using the accumulated information, the display information determination unit 15 determines whether or not pointing is performed continuously.
[0034]
For example, when information is passed from the pointing recognizing unit 14 to the display information determining unit 15 at intervals of 1/30 second, which is the timing synchronized with the video frame, information that is pointed 30 times continuously is passed. For example, it is determined that pointing has been performed continuously for 30 frames (1 second). Also, for example, when information is passed at 1/10 second intervals, if information pointed continuously 10 times is passed, pointing is performed continuously for 30 frames (1 second). It is determined that there is.
[0035]
Using the current frame number of the video information as a key, the display information determination unit 15 receives the ID of the object displayed in the current frame, and the position and size of the object from the related information holding unit 13 (S305 in FIG. 1).
[0036]
The display information determination unit 15 also stores the user's designated position passed from the pointing recognition unit 14 and the ID of the object displayed in the current frame passed from the related information holding unit 13 and the history of the position and size. Hold.
[0037]
The display information determination unit 15 determines the relevant information to be displayed for each object from the position where the user is pointing the screen and the information on the position and size of the object, and transfers the relevant information to the display unit 16 together with the video information (S506 in FIG. 1). ), The display section 16 displays the related information of the object superimposed on the video information.
[0038]
The display information determining unit 15 determines the related information to be displayed for each object by first determining the most important object from the objects included in the current video information, and then determining the object other than the most important object. Determine importance. The detail of the related information of the object is determined according to the importance of the object.
[0039]
The most important object is determined in the following manner.
[0040]
(1) If there is an object at the position where the user points, the object is set as the most important object.
[0041]
(2) If there is no object at the position where the user is pointing, a score is calculated for each object, and the object with the highest score is determined as the most important object.
[0042]
The score for each object is calculated in consideration of the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display. For example, the following is performed.
[0043]
(1) Find the center of gravity and area of the object from the position and size of the object. For simplicity, for example, a rectangle circumscribing the object may be determined and substituted by the center of gravity and area of the rectangle.
[0044]
(2) The index of the proximity of the object to the center of the screen is, for example, the reciprocal of the distance from the center of gravity of the object to the center of the screen.
[0045]
(3) The rate of continuous display is, for example, the rate of how many frames have been displayed continuously in the video of the last minute.
[0046]
(4) The weight of the display area of the object, the proximity to the center of the screen, and the ratio of continuously displayed objects are weighted and added to obtain an object score.
[0047]
The weight may be set to 0 when calculating the score of the object.
[0048]
In other words, the score may be determined based on only one of the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display, or the score may be determined based on only some combinations but not all. May be determined.
[0049]
In addition, the importance of each object takes into account whether the object is the most important object, the score of the object, whether the object is pointed, how long the screen is pointed continuously, and the number of objects included in the video. To decide. For example, it is determined as follows.
[0050]
(1) If the object is the most important object, increase the importance.
[0051]
(2) The importance is increased according to the score of the object.
[0052]
(3) If the object is pointed, the importance is increased by a certain amount.
[0053]
(4) If any part of the screen is continuously pointed, the importance is increased. For example, a threshold and a change rate are defined, and if the number of seconds or frames that are continuously pointed does not exceed the threshold, the importance is gradually increased according to the change rate. Increase importance by a certain amount.
[0054]
(5) The importance is increased or decreased according to the number of objects included in the video. For example, if the number of objects is small, the importance of each object is relatively increased, and if the number of objects is large, the importance of each object is decreased.
[0055]
(6) Determine a value to be increased or decreased based on whether the object is the most important object, the score of the object, whether the object is pointed, how much the screen is continuously pointed, and the number of objects included in the video. And add them together to determine the importance of each object.
[0056]
The weight may be set to 0 when calculating the importance of the object.
[0057]
That is, the score is determined from only the most important object, the score of the object, whether the object is pointed, how much the screen is pointed continuously, or the number of objects included in the video. Alternatively, the score may be determined from only some combinations but not all.
[0058]
The calculation of the importance of the object is, for example, as follows.
[0059]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) Number of frames in the video) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video)
For example, the display information determination unit 15 determines the detail level of each object as follows.
[0060]
It is assumed that the user points at a certain point on the screen.
[0061]
The position pointed by the user is passed to the display information determination unit 15 through the pointing recognition unit 14 (S405 in FIG. 1). For example, it is assumed that the pointing position is (600, 600).
[0062]
Using the current frame number of the video information as a key, the display information determination unit 15 receives the ID of the object displayed in the current frame, and the position and size of the object from the related information holding unit 13 (S305 in FIG. 1). It is assumed that the related information holding unit 13 holds data as shown in FIG. 2 and that the current frame number of the video information is 1000. The related information holding unit 13 searches for data whose frame number is 1000.
[0063]
From the related information holding unit 13 to the display information determining unit 15, the position of the object 1 is (80, 80) and the size is (100, 200), the position of the object 2 is (300, 400), and the size is (200). , 100) is passed (S305 in FIG. 1).
[0064]
The display information determination unit 15 first determines the most important object.
[0065]
Since the position of the object 1 is (80, 80) and the size is (100, 200), and the position of the object 2 is (300, 400) and the size is (200, 100), the position (600) where the user is pointing , 600) do not point to any objects and the most important object has not yet been determined.
[0066]
Since the most important object has not been determined, the score for each object is calculated next.
[0067]
For example, assume that the size of the screen is (1000, 800).
[0068]
Regarding the object 1, the center of gravity of the object 1 is (130, 180) and the area is 20,000.
[0069]
Since the center of the screen is (500, 400), the distance from the center of gravity to the center of the screen is √ ((500−130) ^ 2 + (400−180) ^ 2) = 430.5, and the proximity to the center of the screen is It is the reciprocal.
[0070]
Also, assuming that the video is displayed at 30 frames per second, 1800 frames will be displayed in one minute. Assuming that the object 1 has been continuously displayed for 360 frames in the video of the last minute, the ratio is 0.2.
[0071]
Regarding the object 2, the center of gravity of the object 2 is (400,450) and the area is 20,000.
[0072]
Since the center of the screen is (500, 400), the distance from the center of gravity to the center of the screen is √ ((500−400) ^ 2 + (400−450) ^ 2) = 111.8, and the proximity to the center of the screen is It is the reciprocal.
[0073]
If the object 2 has been displayed for 360 frames consecutively to the video of the last minute, the ratio is 0.2.
[0074]
Assuming that the weight of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display are 0.0001, 500, and 1,
The calculation of the score is (score) = 0.0001 * (the size of the display area of the object) + 500 / (closeness to the center of the screen) + 1 * (the ratio of continuously displayed images).
[0075]
The score of object 1 is 0.0001 * 20000 + 500 / 430.5 + 1 * 0.2 = 3.36, and the score of object 2 is 0.0001 * 20000 + 500 / 111.8 + 1 * 0.2 = 6.67. Therefore, the object 2 is determined as the most important object.
[0076]
Next, the importance of each object is determined.
[0077]
The increment of the importance when the object is pointed is set to 1, and the increment is 0 when the object is not pointed.
[0078]
The threshold value of the number of frames when any part of the screen is continuously pointed is 900, and the change rate is 0.002. At this point, it is assumed that the user has pointed somewhere on the screen continuously for 600 frames. The amount of increase or decrease in importance according to the number of objects included in the video is, for example, -1 / (11-N), where N is the number of objects included in the video. However, when N is 10 or more, it is assumed that N is set to 10. Also, the weights for the addition are 0.2 for the object score and 1 for all others.
[0079]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) The number of frames in the video) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) ) = 1 * (increase when the object is the most important object) + 0.2 * (object A) + 1 * to become (the number of increments) + 0.002 * (objects contained in successive number of frames that are pointing the screen) -1 / (11-image when it is pointing).
[0080]
At this time, the importance of the object 1 is that the object 1 is not the most important object, the score of the object is 3.36, the object is not pointed, and the user points at some point on the screen for 600 consecutive frames. Since the number of objects included in the video is two, 0 + 0.2 * 3.36 + 0 + 600 * 0.002-1 / (11-2) = 1.76.
[0081]
The importance of the object 2 is that the object 2 is the most important object, the score of the object is 6.67, the object is not pointed, and the user points at some point on the screen for 600 consecutive frames. Since the number of objects included in the video is two, 1 + 0.2 * 6.67 + 0 + 600 * 0.002-1 / (11-2) = 3.42.
[0082]
Assuming that the degree of detail of the related information of the object is obtained by cutting off the decimal part of the importance of the object, the degree of detail of the related information of the object 1 is 1 and the degree of detail of the related information of the object 2 is 3.
[0083]
The display information determination unit 15 receives the related information from the related information holding unit 13 according to the level of detail for each object (S305 in FIG. 1).
[0084]
Since the detail of the related information of the object 1 is 1, the related information is “mobile phone”, and the detail of the related information of the object 2 is 3, so the related information is “PDA, pocket gear, 30,000 yen”.
[0085]
The display information determination unit 15 passes the related information determined for each object together with the video information to the display unit 16 (S506 in FIG. 1), and the display unit 16 superimposes and displays the relevant information of the object on the video information.
[0086]
FIG. 3 is an explanatory diagram illustrating an example of related information superimposed on video information.
[0087]
Referring to FIG. 3, related information is displayed below the object.
[0088]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.
[0089]
FIG. 4 is an explanatory diagram showing the configuration of the second exemplary embodiment of the present invention.
[0090]
Referring to FIG. 4, a second embodiment of the present invention, in addition to the components of the first embodiment, includes a face image recognition unit that recognizes whether or not the user faces the display unit 16. 17 is provided. When the recognition result from the pointing recognition unit 14 is passed to the display information determination unit 15, the recognition result as to whether the user faces the display unit 16 is also passed from the face image recognition unit 17 to the display information determination unit 15. It is used to determine how detailed related information is displayed for each object.
[0091]
Information is passed from the face image recognition unit 17 to the display information determination unit 15 at regular intervals, and the display information determination unit 15 stores the information passed from the face image recognition unit 17. When the user does not face the display unit 16, the information may not be sent, or information indicating that the user does not face the display unit 16 may be passed. Using the stored information, the display information determination unit 15 determines whether the user continuously faces his / her face to the display unit 16.
[0092]
For example, when information is passed from the face image recognition unit 17 to the display information determination unit 15 at intervals of 1/30 seconds, which is the timing synchronized with the video frame, the user displays the face on the display unit 16 continuously 30 times. If the information indicating that the user is pointing is passed, it is determined that the user continuously faces the display unit 16 for 30 frames (1 second). Further, for example, when information is passed at 1/10 second intervals, if information indicating that the user turns his / her face to the display unit 16 is passed ten times in succession, the number of frames is 30 frames (1 second). It is determined that the user continuously faces his / her face to the display unit 16.
[0093]
In the second embodiment of the present invention, processing is performed in the same manner as in the first embodiment of the present invention. In the second and second embodiments of the present invention, the method of determining the importance for each object is different from that of the second and first embodiments of the present invention.
[0094]
In the second embodiment of the present invention, the degree of importance of each object is determined based on whether the object is the most important object, the score of the object, whether the object is pointed, how much the screen is continuously pointed, or Is determined in consideration of the number of objects included in the image and the recognition result of the face image. For example, it is determined as follows.
[0095]
(1) If the direction of the user's face is continuously facing the screen direction, the importance of the object is increased.
[0096]
(2) Even if the user's face is facing the screen direction continuously, if the time during which the screen is not pointed is long, it is considered that the user concentrates on the contents of the program rather than the related information, and the importance of the object Decrease.
[0097]
(3) As in the first embodiment, whether the object is the most important object, the score of the object, whether the object is pointed, how long the screen is continuously pointed, the number of objects included in the video, In addition to the above, the face is facing the screen direction, and a value to be increased or decreased from the time when the screen is not pointed is determined, and the weight is added to determine the importance of each object.
[0098]
The weight may be set to 0 when calculating the importance of the object. In other words, whether the object is the most important object, the score of the object, whether the object is pointed, how much continuous screen pointing, the number of objects included in the video, whether the face is facing the screen, The score may be determined from only one of the times when the screen is not pointed, or the score may be determined from only some combinations but not all.
[0099]
The importance of an object is calculated, for example, as follows.
[0100]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) Number of frames being performed) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) + (the direction of the user's face continuously faces the screen direction) Weight when the user is facing) * (increase when the user's face is facing the screen direction) + (continuously) Even if the user's face is facing the screen direction, the weight of the decrease when the screen is not pointed for a long time) * (even if the user's face is facing the screen continuously, Decrease when the screen is not pointed at for a long time).
[0101]
For example, the receiving unit 12 receives the data broadcast program information, passes the video information included in the data broadcast program information to the display information determination unit 15 (S205 in FIG. 4), and adds the level of detail of the object included in the data broadcast program information. The related information is passed to the related information holding unit 13 (S203 in FIG. 4). The display information determining unit 15 passes the video information passed from the receiving unit 12 to the display unit 16 (S506 in FIG. 4), and the display unit 16 displays the video information. The recognition result of the face direction of the user is transmitted from the face image recognition unit 17 to the display information determination unit 15 (S705 in FIG. 4).
[0102]
In addition, the user looks at the video information displayed on the display unit 16, specifies the object of interest included in the video using the pointing recognition unit 14, and specifies the object on the screen through the pointing recognition unit 14. The position is passed to the display information determination unit 15 (S405 in FIG. 4).
[0103]
Further, for example, the determination of the detail level of each object in the display information determination unit 15 is performed as follows.
[0104]
It is assumed that the user points at a certain point on the screen. The position pointed by the user is passed to the display information determination unit 15 through the pointing recognition unit 14 (S405 in FIG. 4).
[0105]
For example, it is assumed that the pointing position is (600, 600).
[0106]
Using the current frame number of the video information as a key, the display information determination unit 15 receives the ID of the object displayed in the current frame and the position and size of the object from the related information holding unit 13 (S305 in FIG. 4). It is assumed that the related information holding unit 13 holds data as shown in FIG. 2 and that the current frame number of the video information is 1000. The related information holding unit 13 searches for data whose frame number is 1000. The position of the object 1 is (80, 80) and the size is (100, 200), the position of the object 2 is (300, 400) and the size is (200) from the related information holding unit 13 to the display information determination unit 15. , 100) (S305 in FIG. 4).
[0107]
As in the first embodiment of the present invention, the object 2 is determined as the most important object.
[0108]
Next, the importance of each object is determined.
[0109]
Assume that the increment of the importance when the object is pointed is 1. The threshold value of the number of frames when any part of the screen is continuously pointed is 900, and the change rate is 0.002. At this point, it is assumed that the user has pointed somewhere on the screen continuously for 600 frames. The amount of increase or decrease in importance according to the number of objects included in the video is, for example, -1 / (11-N), where N is the number of objects included in the video. However, when N is 10 or more, it is assumed that N is set to 10.
[0110]
The threshold value of the number of frames when the direction of the user's face is continuously pointing to the screen direction is 900, and the change rate is 0.001. When the face direction of the user is continuously facing the screen direction and the screen is not pointed, the threshold value of the number of frames is 900 and the change rate is 0.001. At this point, it is assumed that the user has turned the face toward the screen continuously for 900 frames or more.
[0111]
Also, the weights for the addition are 0.2 for the object score and 1 for all others.
[0112]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) Number of frames being performed) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) + (the direction of the user's face continuously faces the screen direction) Weight when the user is facing) * (increase when the user's face is facing the screen direction) + (continuously) Even if the user's face is facing the screen direction, the weight of the decrease when the user is not pointing at the screen for a long time) * (even if the user's face is facing the screen direction continuously, Since the amount of decrease when the screen is not pointed at for a long time), the importance of the object is calculated as (the importance of the object) = 1 * (the increase when the object is the most important object) + 0.2 * ( (Score of object) + 1 * (increase when pointing) + 0.002 * (number of frames in which screen is continuously pointed) -1 / (11-number of objects included in video) + 1 * (Number of frames when the face direction of the user is continuously facing the screen direction * change rate) -1 * (points in the screen when the face direction of the user is continuously facing the screen direction) The number of frames * rate of change) and made of when not in Ingu.
[0113]
At this time, the importance of the object 1 is that the object 1 is not the most important object, the score of the object is 3.36, the object is not pointed, and the user points at some point on the screen for 600 consecutive frames. Since the number of objects included in the video is two and the face is facing the screen direction, 0 + 0.2 * 3.36 + 0 + 600 * 0.002-1 / (11-2) + 900 * 0.001 −0 = 2.66.
[0114]
The importance of the object 2 is that the object 2 is the most important object, the score of the object is 6.67, the object is not pointed, and the user points at some point on the screen for 600 consecutive frames. Since the number of objects included in the video is two and the face is facing the screen direction, 1 + 0.2 * 6.67 + 0 + 600 * 0.002-1 / (11-2) + 900 * 0.001- 0 = 4.32.
[0115]
Assuming that the degree of detail of the related information of the object is obtained by cutting off the decimal part of the importance of the object, the degree of detail of the related information of the object 1 is 2 and the degree of detail of the related information of the object 2 is 4.
Here, it is assumed that the pointing of the screen is stopped with the face facing the screen and 900 frames are passed. The number of objects in the video remains two.
[0116]
At this time, the importance of the object 1 is such that the object 1 is not the most important object, the score of the object is 3.36, the object is not pointed, and the user does not point anywhere on the screen. Since the number of objects included in the video image is two and the face faces the screen direction, 0 + 0.2 * 3.36 + 0 + 0-1 / (11-2) + 900 * 0.001-900 * 0.001 = 0.56.
[0117]
The importance of the object 2 is as follows. The object 2 is the most important object, the score of the object is 6.67, the object is not pointed, and the user is not pointing anywhere on the screen. Since the number of objects included in the video is two and the face is facing the screen direction, 1 + 0.2 * 6.67 + 0 + 0-1 / (11-2) + 900 * 0.001-900 * 0.001 = 2 .22.
[0118]
Assuming that the degree of detail of the related information of the object is obtained by truncating the decimal part of the importance of the object, the degree of detail of the related information of the object 1 is 0, and the degree of detail of the related information of the object 2 is 2.
[0119]
The display information determination unit 15 receives the related information from the related information holding unit 13 according to the level of detail for each object (S305 in FIG. 4). The display information determination unit 15 passes the relevant information determined for each object together with the video information to the display unit 16 (S506 in FIG. 4), and the display unit 16 superimposes and displays the relevant information of the object on the video information.
[0120]
In this way, it becomes possible to automatically adjust the related information of the object presented to the viewer.
[0121]
【The invention's effect】
An advantage of the present invention is that the number of steps for optimizing information displayed by a program provider can be reduced, and the amount of information displayed to a viewer can be reduced.
[0122]
The reason is that a plurality of pieces of information related to the objects in the video are prepared for each level of detail, and the level of detail of the information displayed by the system is determined from the state of the viewer and the operation history.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of object information and related information.
FIG. 3 is an explanatory diagram showing a display state in which related information is superimposed on an object.
FIG. 4 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
[Explanation of symbols]
11 Program recording medium
12 Receiver
13 Related information storage
14. Pointing Recognition Unit
15 Display information judgment unit
16 Display
17 Face image recognition unit

Claims (10)

映像情報、オブジェクトの詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクトの詳細度付き関連情報を出力する受信部と、
前記受信部からの詳細度付き関連情報を保持する関連情報保持部と、
ユーザに指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、
前記ポインティング認識部からのポインティング位置情報、前記受信部からの映像情報、前記関連情報保持部からのオブジェクトの詳細度付き関連情報に基づいて、映像情報に含まれるオブジェクトごとの重要度を算出し、算出した重要度に基づいてオブジェクトごとの詳細度を算出し、算出した詳細度に基づいてオブジェクトの詳細度付き関連情報からオブジェクト対応の表示する関連情報を決定し、映像情報、オブジェクト対応の表示する関連情報を出力する表示情報判定部と、
前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、
を有することを特徴とする情報重畳表示装置。
A receiving unit that receives video information, data broadcast program information including related information with an object detail level, and outputs video information and related information with an object detail level;
A related information holding unit that holds related information with a degree of detail from the receiving unit,
A pointing recognition unit that recognizes a pointing position on the screen specified by the user and outputs pointing position information;
Pointing position information from the pointing recognition unit, video information from the receiving unit, based on the related information with the degree of detail of the object from the related information holding unit, to calculate the importance of each object included in the video information, The degree of detail for each object is calculated based on the calculated importance, the related information to be displayed corresponding to the object is determined from the related information with the degree of detail of the object based on the calculated degree of detail, and the video information and the corresponding object are displayed. A display information determining unit that outputs related information;
A display unit that superimposes and displays relevant information corresponding to the object corresponding to the object from the display information determination unit on the video information from the display information determination unit;
An information superimposing display device comprising:
映像情報、オブジェクトの詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクトの詳細度付き関連情報を出力する受信部と、
前記受信部からの詳細度付き関連情報を保持する関連情報保持部と、
ユーザに指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、
顔方向情報、前記ポインティング認識部からのポインティング位置情報、前記受信部からの映像情報、前記関連情報保持部からのオブジェクトの詳細度付き関連情報に基づいて、映像情報に含まれるオブジェクトごとの重要度を算出し、算出した重要度に基づいてオブジェクトごとの詳細度を算出し、算出した詳細度に基づいてオブジェクトの詳細度付き関連情報からオブジェクト対応の表示する関連情報を決定し、映像情報、オブジェクト対応の表示する関連情報を出力する表示情報判定部と、
前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、
使用者の顔が前記表示部を向いているかどうかを示す顔方向情報を作成し、前記表示情報判定部に出力する顔画像認識部と、
を有することを特徴とする情報重畳表示装置。
A receiving unit that receives video information, data broadcast program information including related information with an object detail level, and outputs video information and related information with an object detail level;
A related information holding unit that holds related information with a degree of detail from the receiving unit,
A pointing recognition unit that recognizes a pointing position on the screen specified by the user and outputs pointing position information;
Importance of each object included in video information based on face direction information, pointing position information from the pointing recognition unit, video information from the reception unit, and related information with detail of the object from the relevant information holding unit Is calculated, the detail level of each object is calculated based on the calculated importance level, the related information to be displayed corresponding to the object is determined from the related information with the detail level of the object based on the calculated detail level, and the video information, the object A display information determining unit that outputs relevant information to be displayed,
A display unit that superimposes and displays relevant information corresponding to the object corresponding to the object from the display information determination unit on the video information from the display information determination unit;
A face image recognition unit that creates face direction information indicating whether the user's face is facing the display unit, and outputs the information to the display information determination unit;
An information superimposing display device comprising:
最重要オブジェクトを、
(a)使用者がポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、
(b)使用者がポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、
(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して、
決定し、
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により算出する前記表示情報決定部を有することを特徴とする請求項1記載の情報重畳表示装置。
The most important objects,
(A) If there is an object at the position where the user points, the object is regarded as the most important object,
(B) If there is no object at the position where the user is pointing, a score is calculated for each object, and the object with the highest score is determined as the most important object,
(C) The score for each object is calculated in consideration of the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display.
Decide,
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) The display information determination unit is calculated by: (the number of frames being performed) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) The information superimposed display device according to claim 1.
オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせてオブジェクトのスコアを算出する前記表示情報決定部を有することを特徴とする請求項3記載の情報重畳表示装置。The display information determining unit is configured to calculate the score of the object by adding a weight to the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display. The information superimposed display device according to claim 3. (a)オブジェクトが最重要オブジェクトなら重要度を増加させ、
(b)オブジェクトのスコアに応じて、重要度を増加させ、
(c)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、
(d)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(e)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、
(f)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する前記表示情報決定部を有することを特徴とする請求項4記載の情報重畳表示装置。
(A) If the object is the most important object, increase the importance,
(B) increasing the importance according to the score of the object,
(C) If the object is pointed, the importance is increased by a certain amount,
(D) If somewhere on the screen is continuously pointed, the importance is increased, (e) the importance is increased or decreased according to the number of objects included in the video,
(F) Determine whether the object is the most important object, the score of the object, whether the object is pointed, how much the screen is continuously pointed, and a value to be increased or decreased from the number of objects included in the video, 5. The information superimposed display device according to claim 4, further comprising the display information determining unit that determines the importance of each object by adding weights.
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により、オブジェクトの重要度を算出する前記表示情報決定部を有することを特徴とする請求項5記載の情報重畳表示装置。(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) The display information determination unit that calculates the importance of an object by (the number of frames being performed) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) 6. The information superimposed display device according to claim 5, comprising: 最重要オブジェクトを、
(a)使用者がポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、
(b)使用者がポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、
(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して、
決定し、
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により算出する前記表示情報決定部を有することを特徴とする請求項2記載の情報重畳表示装置。
The most important objects,
(A) If there is an object at the position where the user points, the object is regarded as the most important object,
(B) If there is no object at the position where the user is pointing, a score is calculated for each object, and the object with the highest score is determined as the most important object,
(C) The score for each object is calculated in consideration of the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display.
Decide,
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) The display information determination unit is calculated by: (the number of frames being performed) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) The information superimposed display device according to claim 2.
オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせてオブジェクトのスコアを算出する前記表示情報決定部を有することを特徴とする請求項7記載の情報重畳表示装置。The display information determining unit is configured to calculate the score of the object by adding a weight to the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display. The information superimposed display device according to claim 7. (a)オブジェクトが最重要オブジェクトなら重要度を増加させ、
(b)オブジェクトのスコアに応じて、重要度を増加させ、
(c)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、
(d)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(e)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、
(f)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する前記表示情報決定部を有することを特徴とする請求項8記載の情報重畳表示装置。
(A) If the object is the most important object, increase the importance,
(B) increasing the importance according to the score of the object,
(C) If the object is pointed, the importance is increased by a certain amount,
(D) If somewhere on the screen is continuously pointed, the importance is increased, (e) the importance is increased or decreased according to the number of objects included in the video,
(F) Determine whether the object is the most important object, the score of the object, whether the object is pointed, how much the screen is continuously pointed, and a value to be increased or decreased from the number of objects included in the video, 9. The information superimposed display device according to claim 8, further comprising the display information determination unit that determines the importance of each object by adding weights.
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)により、オブジェクトの重要度を算出する前記表示情報決定部を有することを特徴とする請求項9記載の情報重畳表示装置。(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (increase when the object is pointed) + (weight of the number of frames in which the screen is continuously pointed) * (pointing of the screen continuously) Number of frames being performed) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) + (the direction of the user's face continuously faces the screen direction) Weight when the face is facing the screen direction) + (continuously when the user's face is facing the screen direction) + (continuously) Even if the user's face is facing the screen, the weight of the decrease when the screen is not pointed at for a long time) * (even if the user's face is continuously facing the screen, 10. The information superimposed display device according to claim 9, further comprising the display information determination unit that calculates the importance of the object based on a decrease when the screen is not pointed at for a long time.
JP2003087134A 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program Expired - Fee Related JP4103652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003087134A JP4103652B2 (en) 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003087134A JP4103652B2 (en) 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program

Publications (2)

Publication Number Publication Date
JP2004297448A true JP2004297448A (en) 2004-10-21
JP4103652B2 JP4103652B2 (en) 2008-06-18

Family

ID=33401578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003087134A Expired - Fee Related JP4103652B2 (en) 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program

Country Status (1)

Country Link
JP (1) JP4103652B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011234343A (en) * 2010-04-06 2011-11-17 Canon Inc Video processing apparatus and video processing method
WO2012046432A1 (en) * 2010-10-04 2012-04-12 Sony Corporation Information processing apparatus, information processing system and information processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180025754A (en) * 2016-09-01 2018-03-09 삼성전자주식회사 Display apparatus and control method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011234343A (en) * 2010-04-06 2011-11-17 Canon Inc Video processing apparatus and video processing method
WO2012046432A1 (en) * 2010-10-04 2012-04-12 Sony Corporation Information processing apparatus, information processing system and information processing method
US9013535B2 (en) 2010-10-04 2015-04-21 Sony Corporation Information processing apparatus, information processing system and information processing method
US9860484B2 (en) 2010-10-04 2018-01-02 Saturn Licensing Llc Information processing apparatus, information processing system and information processing method

Also Published As

Publication number Publication date
JP4103652B2 (en) 2008-06-18

Similar Documents

Publication Publication Date Title
US20220132036A1 (en) Display Control Apparatus, Display Control Method, And Program
US20210273991A1 (en) Sharing digital media assets for presentation within an online social network
EP2577611B1 (en) Method and apparatus for providing a localized virtual reality environment
US8175340B2 (en) Map information display apparatus, map information display method, and program
US8327279B2 (en) Information presentation device and information presentation method
US8769437B2 (en) Method, apparatus and computer program product for displaying virtual media items in a visual media
US11412293B2 (en) Modifying digital video content
JP5111627B2 (en) Video processing apparatus and video processing method
US20110191611A1 (en) Mobile communication terminal and method for displaying icons on display of mobile communication terminal
EP3913924B1 (en) 360-degree panoramic video playing method, apparatus, and system
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
KR20140088903A (en) Hands-free augmented reality for wireless communication devices
EP2811748A1 (en) Content delivery system with augmented reality mechanism and method of operation thereof
EP2816564A1 (en) Method and apparatus for smart video rendering
KR20220062664A (en) content item module arrays
JP2013183218A (en) Moving image reproduction apparatus and moving image reproduction program
KR20180025754A (en) Display apparatus and control method thereof
WO2016167160A1 (en) Data generation device and reproduction device
KR20050061856A (en) Automatic guide service system using virtual reality and service method thereof
JP2004297448A (en) Device for superimposing and displaying information
US20140285526A1 (en) Apparatus and method for managing level of detail contents
JP2007087023A (en) Information processor
KR101323460B1 (en) System and method for indicating object informations real time corresponding image object
KR101988311B1 (en) Digital device and the method for controlling the same
JP2006195567A (en) Information notifying device and method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060216

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees