JP4103652B2 - Information superimposed display device, information superimposed display method, and information superimposed display program - Google Patents

Information superimposed display device, information superimposed display method, and information superimposed display program Download PDF

Info

Publication number
JP4103652B2
JP4103652B2 JP2003087134A JP2003087134A JP4103652B2 JP 4103652 B2 JP4103652 B2 JP 4103652B2 JP 2003087134 A JP2003087134 A JP 2003087134A JP 2003087134 A JP2003087134 A JP 2003087134A JP 4103652 B2 JP4103652 B2 JP 4103652B2
Authority
JP
Japan
Prior art keywords
information
pointing
display
weight
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003087134A
Other languages
Japanese (ja)
Other versions
JP2004297448A (en
Inventor
和雄 國枝
大 久寿居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003087134A priority Critical patent/JP4103652B2/en
Publication of JP2004297448A publication Critical patent/JP2004297448A/en
Application granted granted Critical
Publication of JP4103652B2 publication Critical patent/JP4103652B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、情報重畳表示装置に関し、特に、データ放送番組の映像中に含まれるオブジェクトに関連した情報の重畳表示装置に関する。
【0002】
【従来の技術】
データ放送番組では、映像情報と同時に映像中のオブジェクトに関連した情報が送信され、受信機側で映像の進行に合わせて関連情報を表示する。
【0003】
たとえば、番組と当該番組を補足する情報である補助情報とを有する情報受信する番組受信部と、補助情報を表示する・しないを示すフラグである表示フラグを管理する表示フラグ管理部と、前記番組受信部で受信した番組と補助情報を分離する分離部と、前記分離部で分離された番組を表示する番組表示部と、前記分離部で分離された補助情報を表示する補助情報表示部と、前記表示フラグ管理部の表示フラグを読み取り、表示フラグがオンである場合に補助情報を表示する旨を前記補助情報表示部に指示する補助情報表示制御部とを備える技術がある。(特許文献1)
【特許文献1】
特開2001−245234号公報
【0004】
【発明が解決しようとする課題】
上述の技術の問題点は、視聴者がより詳しく知りたい関連情報がわずかしか表示されなかったり、逆に余分な関連情報が多く表示されたりしてしまうことである。
【0005】
また、番組提供者側は視聴者が望む情報をなるべく過不足なく提供するためには、表示する情報の量や時間、他の情報との優先順位などをあらかじめ最適化する必要があり、そのための工数が膨大であるという付随的な問題点がある。
【0006】
本発明の目的は、映像中のオブジェクトに関連する情報を詳細度別に複数準備しておき、視聴者の状態や操作履歴からシステムが表示する情報の詳細度を決定することにより、番組提供者が表示する情報を最適化するための工数を削減し、視聴者に表示される情報の過不足を少なくすることである。
【0007】
【課題を解決するための手段】
本発明の第1の情報重畳表示装置は、映像情報、オブジェクトの詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクトの詳細度付き関連情報を出力する受信部と、前記受信部からの詳細度付き関連情報を保持する関連情報保持部と、ユーザに指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、前記ポインティング認識部からのポインティング位置情報、前記受信部からの映像情報、前記関連情報保持部からのオブジェクトの詳細度付き関連情報に基づいて、映像情報に含まれるオブジェクトごとの重要度を算出し、算出した重要度に基づいてオブジェクトごとの詳細度を算出し、算出した詳細度に基づいてオブジェクトの詳細度付き関連情報からオブジェクト対応の表示する関連情報を決定し、映像情報、オブジェクト対応の表示する関連情報を出力する表示情報判定部と、前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、を有することを特徴とする。
【0008】
本発明の第2の情報重畳表示装置は、映像情報、オブジェクトの詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクトの詳細度付き関連情報を出力する受信部と、前記受信部からの詳細度付き関連情報を保持する関連情報保持部と、ユーザに指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、顔方向情報、前記ポインティング認識部からのポインティング位置情報、前記受信部からの映像情報、前記関連情報保持部からのオブジェクトの詳細度付き関連情報に基づいて、映像情報に含まれるオブジェクトごとの重要度を算出し、算出した重要度に基づいてオブジェクトごとの詳細度を算出し、算出した詳細度に基づいてオブジェクトの詳細度付き関連情報からオブジェクト対応の表示する関連情報を決定し、映像情報、オブジェクト対応の表示する関連情報を出力する表示情報判定部と、前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、使用者の顔が前記表示部を向いているかどうかを示す顔方向情報を作成し、前記表示情報判定部に出力する顔画像認識部と、を有することを特徴とする。
【0009】
本発明の第3の情報重畳表示装置は、前記第1の情報重畳表示装置であって、最重要オブジェクトを、(a)使用者がポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)使用者がポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して、決定し、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により算出する前記表示情報決定部を有することを特徴とする。
【0010】
本発明の第4の情報重畳表示装置は、前記第3の情報重畳表示装置であって、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせてオブジェクトのスコアを算出する前記表示情報決定部を有することを特徴とする。
【0011】
本発明の第5の情報重畳表示装置は、前記第4の情報重畳表示装置であって、
(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、(b)オブジェクトのスコアに応じて、重要度を増加させ、(c)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、(d)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(e)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、(f)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する前記表示情報決定部を有することを特徴とする。
【0012】
本発明の第6の情報重畳表示装置は、前記第5の情報重畳表示装置であって、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により、オブジェクトの重要度を算出する前記表示情報決定部を有することを特徴とする。
【0013】
本発明の第7の情報重畳表示装置は、前記第2の情報重畳表示装置であって、最重要オブジェクトを、(a)使用者がポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)使用者がポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して、決定し、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)により算出する前記表示情報決定部を有することを特徴とする。
【0014】
本発明の第8の情報重畳表示装置は、前記第7の情報重畳表示装置であって、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせてオブジェクトのスコアを算出する前記表示情報決定部を有することを特徴とする。
【0015】
本発明の第9の情報重畳表示装置は、前記第8の情報重畳表示装置であって、(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、(b)オブジェクトのスコアに応じて、重要度を増加させ、(c)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、(d)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(e)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、(f)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する前記表示情報決定部を有することを特徴とする。
【0016】
本発明の第10の情報重畳表示装置は、前記第9の情報重畳表示装置であって、(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)により、オブジェクトの重要度を算出する前記表示情報決定部を有することを特徴とする。
【0017】
【発明の実施の形態】
本発明の第1の実施の形態について、図面を参照して詳細に説明する。
【0018】
図1は、本発明の第1の実施の形態の構成を示すブロック図である。
【0019】
図1を参照すると、本発明の第1の実施の形態は、データ放送番組情報を受信する受信部12と、データ放送番組情報に含まれるオブジェクトの詳細度付き関連情報を保持する関連情報保持部13と、ユーザがどのオブジェクトを指しているかを認識するポインティング認識部14と、ユーザの操作やその履歴から表示する関連情報の詳細度を決定する表示情報判定部15と、データ放送番組の映像と映像中に含まれるオブジェクトの関連情報を重畳して表示する表示部16とを備える。
【0020】
また、システムのプログラムを記録したプログラム記録媒体11を備える。プログラム記録媒体11から読み込まれたプログラムが、システムの動作を制御する。
【0021】
次に、本発明の第1の実施の形態について図面を参照して説明する。
【0022】
受信部12はデータ放送番組情報を受信し、データ放送番組情報に含まれる映像情報を表示情報判定部15に渡す(図1S205)と同時に、データ放送番組情報に含まれるオブジェクトの詳細度付き関連情報を関連情報保持部13に渡す(図1S203)。
【0023】
図2は、詳細度付き関連情報の内容の一例を示す説明図である。
【0024】
詳細度付き関連情報は、ある時点での映像においてどの位置にどれくらいの大きさでどのオブジェクトが表示されているかがわかり、それらのオブジェクトの関連情報が何段階かの詳細度に応じてわかるようになっていればよい。
【0025】
図2を参照すると、関連情報保持部13は、詳細度付き関連情報をオブジェクト情報と関連情報とに分けて保持する。
【0026】
オブジェクト情報は、例えば、映像情報のフレーム番号、そのフレームで表示されているオブジェクトのID、そのオブジェクトの位置、大きさを持つ。
【0027】
例えば、あるフレームにおいて二つ以上のオブジェクトが表示されていれば、図2のように同じフレーム番号で異なるオブジェクトIDのデータが存在する。
【0028】
オブジェクトの位置と大きさは、例えばオブジェクトの形を長方形とし、オブジェクトの左上の頂点の座標を位置として大きさを幅と高さで表現してもよいし、オブジェクトの左上の頂点と右下の頂点の座標で表現してもよいし、また例えば、オブジェクトの形を多角形としてある頂点から時計回り、または反時計回りの頂点の座標を並べて表現してもよい。
【0029】
関連情報は、オブジェクトごとに、詳細度を指定したときに表示する関連情報が決定できればよい。例えば図2のように各オブジェクトに対して詳細度ごとに分けて管理される。また、詳細度を指定したときにその詳細度以下の情報を全て表示すると決めておいてもよい。
【0030】
表示情報判定部15は、受信部12から渡された映像情報を表示部16に渡し(図1S506)、表示部16は映像情報を表示する。
【0031】
ユーザは、表示部16にて表示された映像情報を見て、映像中に含まれる関心のあるオブジェクトをポインティング認識部14を使って指定する。ポインティング認識部14は、例えば、ユーザがレーザポインタを使って画面上のオブジェクトを指定し、レーザポインタの指している位置を認識するというものでもよいし、ユーザがマウスを使ってマウスカーソルをオブジェクト上に動かし、マウスをクリックすることで位置を指定するというものでもよい。またカメラを使った画像認識によりユーザが画面を指差している位置を認識するというものでもよい。
【0032】
ポインティング認識部14を通じてユーザが画面上で指定した位置は表示情報判定部15に渡される(図1S405)。
【0033】
ポインティング認識部14から表示情報判定部15には一定時間ごとに情報が渡されるようになっており、表示情報判定部15では、ポインティング認識部14から渡された情報を蓄積する。また、ポインティングされていないときには、情報を送らないようにしてもよいし、ポインティングされていないという情報を渡すようにしてもよい。この蓄積された情報を利用して、表示情報判定部15は連続してポインティングされているかどうかを判定する。
【0034】
例えば、ポインティング認識部14から表示情報判定部15に映像のフレームと同期したタイミングである1/30秒間隔で情報が渡される場合には、30回連続してポインティングされている情報が渡されれば、30フレーム数(1秒)の間、連続してポインティングされていると判定される。また、例えば、1/10秒間隔で情報が渡される場合には、10回連続してポインティングされている情報が渡されれば、30フレーム数(1秒)の間、連続してポインティングされていると判定される。
【0035】
表示情報判定部15は、映像情報の現在のフレーム番号をキーにして、関連情報保持部13から現在のフレームで表示されているオブジェクトのIDと、その位置と大きさを受け取る(図1S305)。
【0036】
また、表示情報判定部15はポインティング認識部14から渡されたユーザの指定位置や、関連情報保持部13から渡される現在のフレームで表示されているオブジェクトのIDとその位置と大きさの履歴を保持する。
【0037】
表示情報判定部15は、ユーザが画面をポインティングしている位置と、オブジェクトの位置と大きさの情報から、オブジェクトごとに表示する関連情報を決定し、映像情報とともに表示部16に渡し(図1S506)、表示部16では映像情報にオブジェクトの関連情報を重畳して表示する。
【0038】
表示情報判定部15における、オブジェクトごとの表示する関連情報の決定の仕方は、まず現在の映像情報に含まれるオブジェクトの中から最重要なオブジェクトを決定し、次に最重要なオブジェクト以外のオブジェクトの重要度を決定する。オブジェクトの重要度に応じて、オブジェクトの関連情報の詳細度を決定する。
【0039】
最重要オブジェクトの決定の仕方は次のように行う。
【0040】
(1)ユーザがポインティングしている位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとする。
【0041】
(2)ユーザがポインティングしている位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとする。
【0042】
オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合を考慮して計算する。例えば次のように行う。
【0043】
(1)オブジェクトの位置と大きさからオブジェクトの重心と面積を求める。簡単にするために、例えばオブジェクトに外接する長方形を決定し、その長方形の重心と面積で代用してもよい。
【0044】
(2)オブジェクトの画面中央への近さの指標は、例えば、オブジェクトの重心から画面中央への距離の逆数とする。
【0045】
(3)連続して表示されていた割合は、例えば、最近1分間の映像に連続して何フレーム表示されていたかの割合とする。
【0046】
(4)オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせて、オブジェクトのスコアとする。
【0047】
オブジェクトのスコアの計算時に重みを0としてもよい。
【0048】
つまり、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合、のいずれかだけからスコアを決定してもよいし、全てでなくいくつかの組み合わせだけからスコアを決定してもよい。
【0049】
また、オブジェクトごとの重要度は、オブジェクトが最重要オブジェクトか、オブジェクトのスコア、そのオブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、を考慮して決定する。例えば、次のようにして決定する。
【0050】
(1)オブジェクトが最重要オブジェクトなら重要度を増加させる。
【0051】
(2)オブジェクトのスコアに応じて、重要度を増加させる。
【0052】
(3)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させる。
【0053】
(4)連続して画面のどこかがポインティングされていれば、重要度を増加する。例えば、閾値と変化率を定めておき、連続してポインティングされている秒数またはフレーム数が閾値を超えない場合は変化率に応じて重要度を徐々に増加させ、閾値を超えた場合には重要度を一定量だけ増加させる。
【0054】
(5)映像中に含まれるオブジェクトの数に応じて、重要度を増減させる。例えば、オブジェクトの数が少なければ相対的に各オブジェクトの重要度を増加され、オブジェクトの数が多ければオブジェクトの重要度を減少させる。
【0055】
(6)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する。
【0056】
オブジェクトの重要度の計算時に重みを0としてもよい。
【0057】
つまり、そのオブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、のいずれかだけからスコアを決定してもよいし、全てでなくいくつかの組み合わせだけからスコアを決定してもよい。
【0058】
オブジェクトの重要度の計算は、例えば以下のようになる。
【0059】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)
例えば、表示情報判定部15における各オブジェクトの詳細度の決定は以下のように行われる。
【0060】
ある時点でユーザが画面上をポインティングしたとする。
【0061】
ユーザがポインティングした位置はポインティング認識部14を通じて表示情報判定部15に渡される(図1S405)。例えばポインティング位置は(600,600)だったとする。
【0062】
表示情報判定部15は、映像情報の現在のフレーム番号をキーにして、関連情報保持部13から現在のフレームで表示されているオブジェクトのIDと、その位置と大きさを受け取る(図1S305)。関連情報保持部13では、図2のようなデータが保持されていたとし、現在の映像情報のフレーム番号が1000だったとする。関連情報保持部13はフレーム番号が1000のデータを検索する。
【0063】
関連情報保持部13から表示情報判定部15へは、オブジェクト1の位置が(80,80)で大きさが(100,200)、オブジェクト2の位置が(300,400)で大きさが(200,100)であるというデータが渡される(図1S305)。
【0064】
表示情報判定部15は、まず最重要オブジェクトを決定する。
【0065】
オブジェクト1の位置が(80,80)で大きさが(100,200)、オブジェクト2の位置が(300,400)で大きさが(200,100)なので、ユーザがポインティングしている位置(600,600)はどのオブジェクトも指しておらず、まだ最重要オブジェクトは決定されない。
【0066】
最重要オブジェクトが決定されていないので、次にオブジェクトごとのスコアを計算する。
【0067】
例えば、画面の大きさを(1000,800)であるとする。
【0068】
オブジェクト1に関しては、オブジェクト1の重心は(130,180)、面積は20000となる。
【0069】
画面中央は(500,400)なので、重心から画面中央への距離は、√((500−130)^2+(400−180)^2)=430.5となり、画面中央への近さはその逆数となる。
【0070】
また、映像は秒30フレームで表示されているとして1分間では1800フレームとなる。オブジェクト1は最近1分間の映像に連続して360フレーム表示されていたとすると、その割合は0.2となる。
【0071】
オブジェクト2に関しては、オブジェクト2の重心は(400,450)、面積は20000となる。
【0072】
画面中央は(500,400)なので、重心から画面中央への距離は、√((500−400)^2+(400−450)^2)=111.8となり、画面中央への近さはその逆数となる。
【0073】
また、オブジェクト2は最近1分間の映像に連続して360フレーム表示されていたとすると、その割合は0.2となる。
【0074】
オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合、のそれぞれの重みを、0.0001、500、1とすると、
スコアの計算は(スコア)=0.0001*(オブジェクトの表示面積の大きさ)+500/(画面中央への近さ)+1*(連続して表示されていた割合)となる。
【0075】
オブジェクト1のスコアは、0.0001*20000+500/430.5+1*0.2=3.36となり、オブジェクト2のスコアは、0.0001*20000+500/111.8+1*0.2=6.67となるので、オブジェクト2が最重要オブジェクトと決定される。
【0076】
次にオブジェクトごとの重要度を決定する。
【0077】
オブジェクトがポインティングされているときの重要度の増加分を1とし、ポインティングされていないときは増加分を0とする。
【0078】
連続して画面のどこかがポインティングされているときのフレーム数の閾値を900、変化率を0.002とする。現時点でユーザが600フレーム連続して画面上のどこかをポインティングしていたとする。映像中に含まれるオブジェクトの数に応じた重要度の増減分は、例えば、映像中に含まれるオブジェクトの数をN個として、−1/(11−N)とする。ただしNが10以上のときはNを10として計算するものとする。また、足し合わせるときの重みは、オブジェクトのスコアに対するものを0.2とし、その他を全て1とする。
【0079】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)なので、オブジェクトの重要度の計算は、(オブジェクトの重要度)=1*(オブジェクトが最重要オブジェクトのときの増加分)+0.2*(オブジェクトのスコア)+1*(ポインティングされているときの増加分)+0.002*(連続して画面をポインティングしているフレーム数)−1/(11−映像中に含まれるオブジェクトの数)となる。
【0080】
このとき、オブジェクト1の重要度は、オブジェクト1は最重要オブジェクトでなく、オブジェクトのスコアが3.36であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個なので、0+0.2*3.36+0+600*0.002−1/(11−2)=1.76となる。
【0081】
また、オブジェクト2の重要度は、オブジェクト2は最重要オブジェクトであり、オブジェクトのスコアが6.67であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個なので、1+0.2*6.67+0+600*0.002−1/(11−2)=3.42となる。
【0082】
オブジェクトの関連情報の詳細度は、オブジェクトの重要度の小数点以下を切り捨てたものとすると、オブジェクト1の関連情報の詳細度は1、オブジェクト2の関連情報の詳細度は3となる。
【0083】
表示情報判定部15は、関連情報保持部13からオブジェクトごとに詳細度に合わせて関連情報を受け取る(図1S305)。
【0084】
オブジェクト1の関連情報の詳細度は1なので関連情報は「携帯電話」、オブジェクト2の関連情報の詳細度は3なので関連情報は「PDA、ポケットギア、3万円」を受け取る。
【0085】
表示情報判定部15は、オブジェクトごとに決定された関連情報を映像情報とともに表示部16に渡し(図1S506)、表示部16では映像情報にオブジェクトの関連情報を重畳して表示する。
【0086】
図3は、映像情報に重畳される関連情報の一例を示す説明図である。
【0087】
図3を参照すると、オブジェクトの下部に関連情報が表示されている。
【0088】
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。
【0089】
図4は、本発明の第2の実施の形態の構成を示す説明図である。
【0090】
図4を参照すると、本発明の第2の実施の形態は、第1の実施の形態の構成要素に付加して、ユーザが表示部16に顔を向けているかどうかを認識する顔画像認識部17を備える。ポインティング認識部14からの認識結果が表示情報判定部15に渡されるときに、顔画像認識部17から表示情報判定部15にユーザが表示部16に顔を向けているかどうかの認識結果も同時に渡され、オブジェクトごとにどれくらい詳細な関連情報を表示するかを決定することに利用される。
【0091】
顔画像認識部17から表示情報判定部15には一定時間ごとに情報が渡されるようになっており、表示情報判定部15では、顔画像認識部17から渡された情報を蓄積する。また、ユーザが表示部16に顔を向けていないときには、情報を送らないようにしてもよいし、ユーザが表示部16に顔を向けていないという情報を渡すようにしてもよい。この蓄積された情報を利用して、表示情報判定部15は連続してユーザが表示部16に顔を向けているかどうかを判定する。
【0092】
例えば、顔画像認識部17から表示情報判定部15に映像のフレームと同期したタイミングである1/30秒間隔で情報が渡される場合には、30回連続してユーザが表示部16に顔を向けているという情報が渡されれば、30フレーム数(1秒)の間、連続してユーザが表示部16に顔を向けていると判定される。また、例えば1/10秒間隔で情報が渡される場合には、10回連続してユーザが表示部16に顔を向けているという情報が渡されれば、30フレーム数(1秒)の間、連続してユーザが表示部16に顔を向けていると判定される。
【0093】
本発明の第2の実施の形態においても、本発明の第1の実施の形態と同様に処理が行われる。本発明の第2の第2の実施の形態においては、オブジェクトごとの重要度の決定の仕方が、本発明の第2の第1の実施の形態とは異なる。
【0094】
本発明の第2の実施の形態では、オブジェクトごとの重要度は、オブジェクトが最重要オブジェクトか、オブジェクトのスコア、そのオブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、に加えて、顔画像の認識結果を考慮して決定する。例えば、次のようにして決定する。
【0095】
(1)連続してユーザの顔の向きが画面方向を向いていれば、オブジェクトの重要度を増加させる。
【0096】
(2)連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長ければ、関連情報よりも番組の内容に集中しているとみなし、オブジェクトの重要度を減少させる。
【0097】
(3)第1の実施例と同様に、オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、に加えて、顔が画面方向を向いているか、また画面をポインティングしていない時間から増減させる値を決定し、重みをつけて足し合わせて各オブジェクトの重要度を決定する。
【0098】
オブジェクトの重要度の計算時に重みを0としてもよい。つまり、そのオブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、映像中に含まれるオブジェクトの数、顔が画面方向を向いているか、画面をポインティングしていない時間、のいずれかだけからスコアを決定してもよいし、全てでなくいくつかの組み合わせだけからスコアを決定してもよい。
【0099】
オブジェクトの重要度は、例えば以下のようにして計算される。
【0100】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)。
【0101】
例えば、受信部12はデータ放送番組情報を受信し、データ放送番組情報に含まれる映像情報を表示情報判定部15に渡す(図4S205)と同時に、データ放送番組情報に含まれるオブジェクトの詳細度付き関連情報を関連情報保持部13に渡す(図4S203)。表示情報判定部15は、受信部12から渡された映像情報を表示部16に渡し(図4S506)、表示部16は映像情報を表示する。顔画像認識部17から表示情報判定部15に、ユーザの顔の向きの認識結果が伝えられる(図4S705)。
【0102】
また、ユーザは表示部16にて表示された映像情報を見て、映像中に含まれる関心のあるオブジェクトをポインティング認識部14を使って指定し、ポインティング認識部14を通じてユーザが画面上で指定した位置が表示情報判定部15に渡される(図4S405)。
【0103】
また、例えば、表示情報判定部15における各オブジェクトの詳細度の決定は以下のように行われる。
【0104】
ある時点でユーザが画面上をポインティングしたとする。ユーザがポインティングした位置はポインティング認識部14を通じて表示情報判定部15に渡される(図4S405)。
【0105】
例えばポインティング位置は(600,600)だったとする。
【0106】
表示情報判定部15は、映像情報の現在のフレーム番号をキーにして、関連情報保持部13から現在のフレームで表示されているオブジェクトのIDと、その位置と大きさを受け取る(図4S305)。関連情報保持部13では、図2のようなデータが保持されていたとし、現在の映像情報のフレーム番号が1000だったとする。関連情報保持部13はフレーム番号が1000のデータを検索する。関連情報保持部13から表示情報判定部15へは、オブジェクト1の位置が(80,80)で大きさが(100,200)、オブジェクト2の位置が(300,400)で大きさが(200,100)であるというデータが渡される(図4S305)。
【0107】
本発明の第1の実施の形態と同様に、オブジェクト2が最重要オブジェクトと決定される。
【0108】
次にオブジェクトごとの重要度を決定する。
【0109】
オブジェクトがポインティングされているときの重要度の増加分を1とする。連続して画面のどこかがポインティングされているときのフレーム数の閾値を900、変化率を0.002とする。現時点でユーザが600フレーム連続して画面上のどこかをポインティングしていたとする。映像中に含まれるオブジェクトの数に応じた重要度の増減分は、例えば、映像中に含まれるオブジェクトの数をN個として、−1/(11−N)とする。ただしNが10以上のときはNを10として計算するものとする。
【0110】
連続してユーザの顔の向きが画面方向を向いているときのフレーム数の閾値を900、変化率を0.001とする。連続してユーザの顔の向きが画面方向を向いていて画面をポインティングしていないときのフレーム数の閾値を900、変化率を0.001とする。現時点でユーザが900フレーム以上連続して顔を画面方向に向けていたとする。
【0111】
また、足し合わせるときの重みは、オブジェクトのスコアに対するものを0.2とし、その他を全て1とする。
【0112】
(オブジェクトの重要度)=(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)+(連続してユーザの顔の向きが画面方向を向いているときの増加分の重み)*(連続してユーザの顔の向きが画面方向を向いているときの増加分)+(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分の重み)*(連続してユーザの顔の向きが画面方向を向いていても、画面をポインティングしていない時間が長いときの減少分)なので、オブジェクトの重要度の計算は、(オブジェクトの重要度)=1*(オブジェクトが最重要オブジェクトのときの増加分)+0.2*(オブジェクトのスコア)+1*(ポインティングされているときの増加分)+0.002*(連続して画面をポインティングしているフレーム数)−1/(11−映像中に含まれるオブジェクトの数)+1*(連続してユーザの顔の向きが画面方向を向いているときのフレーム数*変化率)−1*(連続してユーザの顔の向きが画面方向を向いていて画面をポインティングしていないときのフレーム数*変化率)となる。
【0113】
このとき、オブジェクト1の重要度は、オブジェクト1は最重要オブジェクトでなく、オブジェクトのスコアが3.36であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、0+0.2*3.36+0+600*0.002−1/(11−2)+900*0.001−0=2.66となる。
【0114】
また、オブジェクト2の重要度は、オブジェクト2は最重要オブジェクトであり、オブジェクトのスコアが6.67であり、オブジェクトがポインティングされておらず、ユーザは600フレーム連続で画面上のどこかをポインティングしており、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、1+0.2*6.67+0+600*0.002−1/(11−2)+900*0.001−0=4.32となる。
【0115】
オブジェクトの関連情報の詳細度は、オブジェクトの重要度の小数点以下を切り捨てたものとすると、オブジェクト1の関連情報の詳細度は2、オブジェクト2の関連情報の詳細度は4となる。
ここで、顔を画面に向けたまま、画面のポインティングをやめて900フレームすぎたとする。映像中のオブジェクトの数は2個のままとする。
【0116】
このとき、オブジェクト1の重要度は、オブジェクト1は最重要オブジェクトでなく、オブジェクトのスコアが3.36であり、オブジェクトがポインティングされておらず、ユーザは画面上のどこかをポインティングしておらず、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、0+0.2*3.36+0+0−1/(11−2)+900*0.001−900*0.001=0.56となる。
【0117】
また、オブジェクト2の重要度は、オブジェクト2は最重要オブジェクトであり、オブジェクトのスコアが6.67であり、オブジェクトがポインティングされておらず、ユーザは画面上のどこかをポインティングしておらず、映像中に含まれるオブジェクトの数は2個、顔が画面方向を向いているので、1+0.2*6.67+0+0−1/(11−2)+900*0.001−900*0.001=2.22となる。
【0118】
オブジェクトの関連情報の詳細度は、オブジェクトの重要度の小数点以下を切り捨てたものとすると、オブジェクト1の関連情報の詳細度は0、オブジェクト2の関連情報の詳細度は2となる。
【0119】
表示情報判定部15は、関連情報保持部13からオブジェクトごとに詳細度に合わせて関連情報を受け取る(図4S305)。表示情報判定部15は、オブジェクトごとに決定された関連情報を映像情報とともに表示部16に渡し(図4S506)、表示部16では映像情報にオブジェクトの関連情報を重畳して表示する。
【0120】
このようにして、視聴者に提示するオブジェクトの関連情報を自動的に調節することができるようになる。
【0121】
【発明の効果】
本発明の効果は、番組提供者が表示する情報を最適化するための工数を削減し、視聴者に表示される情報の過不足を少なくすることができることである。
【0122】
その理由は、映像中のオブジェクトに関連する情報を詳細度別に複数準備しておき、視聴者の状態や操作履歴からシステムが表示する情報の詳細度を決定するからである。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示すブロック図である。
【図2】オブジェクト情報および関連情報の一例を示す説明図である。
【図3】オブジェクトに関連情報が重畳表示された表示状態を示す説明図である。
【図4】本発明の第2の実施の形態の構成を示すブロック図である。
【符号の説明】
11 プログラム記録媒体
12 受信部
13 関連情報保持部
14 ポインティング認識部
15 表示情報判定部
16 表示部
17 顔画像認識部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information superimposed display device, and more particularly to a superimposed display device for information related to an object included in a video of a data broadcast program.
[0002]
[Prior art]
In the data broadcasting program, information related to the object in the video is transmitted simultaneously with the video information, and the related information is displayed on the receiver side as the video progresses.
[0003]
For example, a program receiving unit that receives information including a program and auxiliary information that supplements the program, a display flag management unit that manages a display flag that is a flag indicating whether or not auxiliary information is displayed, and the program A separation unit that separates the program and auxiliary information received by the reception unit, a program display unit that displays the program separated by the separation unit, an auxiliary information display unit that displays the auxiliary information separated by the separation unit, There is a technique including an auxiliary information display control unit that reads a display flag of the display flag management unit and instructs the auxiliary information display unit to display auxiliary information when the display flag is on. (Patent Document 1)
[Patent Document 1]
JP 2001-245234 A
[0004]
[Problems to be solved by the invention]
The problem with the above-described technique is that only a small amount of related information that the viewer wants to know in detail is displayed, or conversely, a lot of extra related information is displayed.
[0005]
In addition, in order to provide as much information as possible as desired by the viewer, the program provider needs to optimize the amount and time of information to be displayed, the priority with other information in advance, and so on. There is an accompanying problem that man-hours are enormous.
[0006]
It is an object of the present invention to prepare a plurality of pieces of information related to objects in a video for each degree of detail, and to determine the degree of detail of information displayed by the system from the viewer's state and operation history, so that the program provider can This is to reduce the man-hours for optimizing the information to be displayed and to reduce the excess or deficiency of the information displayed to the viewer.
[0007]
[Means for Solving the Problems]
The first information superimposing display device of the present invention receives video broadcast program information including video information and related information with details of objects, and outputs video information and related information with details of objects, A related information holding unit that holds related information with a detail level from the receiving unit, a pointing recognition unit that recognizes a pointing position on a screen specified by a user, and outputs pointing position information, and a pointing from the pointing recognition unit Based on the positional information, the video information from the receiving unit, and the related information with the detail level of the object from the related information holding unit, the importance for each object included in the video information is calculated, and based on the calculated importance The level of detail for each object is calculated, and based on the calculated level of detail, A display information determination unit that determines related information to be displayed corresponding to the object, and outputs video information and related information to be displayed corresponding to the object, and the video information from the display information determination unit corresponds to the object corresponding from the display information determination unit. And a display unit that superimposes and displays related information to be displayed.
[0008]
The second information superimposing display device of the present invention receives the data broadcast program information including the video information and the related information with the detail level of the object, and outputs the video information and the related information with the detail level of the object, A related information holding unit for holding related information with a degree of detail from the receiving unit, a pointing recognition unit for recognizing a pointing position on a screen designated by the user, and outputting pointing position information, face direction information, and the pointing recognition The importance calculated for each object included in the video information is calculated based on the pointing position information from the unit, the video information from the receiving unit, and the related information with the detail level of the object from the related information holding unit. The level of detail for each object is calculated based on the degree of detail, and the relationship with the level of detail of the object is calculated based on the calculated level of detail. The display information determination unit for determining the related information to be displayed corresponding to the object from the report, and outputting the video information and the related information to be displayed for the object, and the video information from the display information determination unit. Face image recognition that creates a display unit that superimposes related information to be displayed corresponding to an object and displays face direction information that indicates whether a user's face is facing the display unit, and outputs the information to the display information determination unit And a portion.
[0009]
A third information superimposing display device of the present invention is the first information superimposing display device, wherein the most important object is (a) if there is an object at the position where the user is pointing, the object is the highest. (B) If there is no object at the position where the user is pointing, the score is calculated for each object, the object with the highest score is the most important object, and (c) the score for each object is the object Determined by taking into account the display area size, proximity to the center of the screen, and the rate of continuous display, (object importance) = (weight of increase when the object is the most important object) ) * (Increment when the object is the most important object) + (Object score weight) * (Object score) + (Weight increase when the object is pointing) * (weight increase when the object is pointed) + (weight of the number of frames pointing the screen continuously) * (screen continuously The display information determination unit is calculated by: (the number of frames pointing to) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) And
[0010]
A fourth information superimposing display device of the present invention is the third information superimposing display device, wherein a weight is given to the size of the display area of the object, the proximity to the center of the screen, and the ratio displayed continuously. The display information determination unit calculates the score of the object by adding and adding.
[0011]
A fifth information superimposed display device of the present invention is the fourth information superimposed display device,
(A) Increase the importance if the object is the most important object, (b) Increase the importance according to the score of the object, (c) If the object is pointed, increase the importance by a certain amount (D) If any part of the screen is continuously pointed, increase the importance, (e) increase or decrease the importance according to the number of objects included in the video, and (f) Determine the most important object, the object score, whether the object is pointed, how long the screen is pointing, and the value to be increased or decreased from the number of objects included in the video, and add the weight. In addition, the display information determining unit that determines the importance of each object is provided.
[0012]
The sixth information superimposing display device of the present invention is the fifth information superimposing display device, wherein (the importance of the object) = (the weight of the increment when the object is the most important object) * (the object is the most important). Increment when important object) + (Object score weight) * (Object score) + (Increment weight when object is pointing) * (Increment when object is pointing) + (Weight of the number of frames that point to the screen continuously) * (number of frames that point to the screen continuously) + (weight of the number of objects included in the video) * (included in the video) The display information determination unit for calculating the importance of the object by a numerical value determined from the number of objects), That.
[0013]
The seventh information superimposed display device of the present invention is the second information superimposed display device, wherein the most important object is (a) if there is an object at the position where the user is pointing, that object is (B) If there is no object at the position where the user is pointing, the score is calculated for each object, the object with the highest score is the most important object, and (c) the score for each object is the object Determined by taking into account the display area size, proximity to the center of the screen, and the rate of continuous display, (object importance) = (weight of increase when the object is the most important object) ) * (Increment when the object is the most important object) + (Object score weight) * (Object score) + (Weight increase when the object is pointing) * (weight increase when the object is pointed) + (weight of the number of frames pointing the screen continuously) * (screen continuously The display information determination unit is calculated by: (the number of frames pointing to) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) And
[0014]
The eighth information superimposing display device of the present invention is the seventh information superimposing display device, wherein the weight of the display area size of the object, the proximity to the center of the screen, and the ratio displayed continuously are weighted. The display information determination unit calculates the score of the object by adding and adding.
[0015]
The ninth information superimposed display device of the present invention is the eighth information superimposed display device, wherein (a) the importance is increased if the object is the most important object, and (b) the importance is increased according to the score of the object. (C) If the object is pointed, the importance is increased by a certain amount. (D) If any part of the screen is continuously pointed, the importance is increased. ) Increase or decrease the importance according to the number of objects included in the video, and (f) How the object is the most important object, the object score, whether the object is pointed, and how long it is pointing to the screen Determine the value to be increased / decreased from the number of objects included in the video, and add the weights to add importance It characterized by having the display information determination unit which determines the.
[0016]
The tenth information superimposing display device of the present invention is the ninth information superimposing display device, wherein (the importance of the object) = (the weight of the increment when the object is the most important object) * (the object is the most important) Increment when important object) + (Object score weight) * (Object score) + (Increment weight when object is pointing) * (Increment when object is pointing) + (Weight of the number of frames that point to the screen continuously) * (number of frames that point to the screen continuously) + (weight of the number of objects included in the video) * (included in the video) (Numerical value determined from the number of objects) + (weight of the increment when the user's face is continuously facing the screen) * ( (Increment when the user's face is facing the screen direction) + (When the time when the screen is not pointing is long even if the user's face is facing the screen direction continuously) The display information for calculating the importance of the object based on the weight of the decrease) * (the decrease when the time during which the user's face is continuously pointing to the screen is not pointing on the screen) It has a determination part.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
A first embodiment of the present invention will be described in detail with reference to the drawings.
[0018]
FIG. 1 is a block diagram showing the configuration of the first exemplary embodiment of the present invention.
[0019]
Referring to FIG. 1, in the first embodiment of the present invention, a receiving unit 12 that receives data broadcast program information, and a related information holding unit that holds related information with details of objects included in the data broadcast program information. 13, a pointing recognition unit 14 for recognizing which object the user is pointing to, a display information determination unit 15 for determining the level of detail of related information to be displayed based on the user's operation and its history, and a video of a data broadcast program And a display unit 16 that superimposes and displays related information of objects included in the video.
[0020]
Also provided is a program recording medium 11 on which a system program is recorded. A program read from the program recording medium 11 controls the operation of the system.
[0021]
Next, a first embodiment of the present invention will be described with reference to the drawings.
[0022]
The receiving unit 12 receives the data broadcast program information and passes the video information included in the data broadcast program information to the display information determination unit 15 (S205 in FIG. 1), and at the same time, the related information with the detail level of the object included in the data broadcast program information Is transferred to the related information holding unit 13 (S203 in FIG. 1).
[0023]
FIG. 2 is an explanatory diagram illustrating an example of the content of related information with a degree of detail.
[0024]
As for the related information with detail level, it is possible to know which object is displayed at what position and in what position in the video at a certain point of time, and related information of those objects can be understood according to the level of detail. It only has to be.
[0025]
Referring to FIG. 2, the related information holding unit 13 holds related information with a detail level separately for object information and related information.
[0026]
The object information includes, for example, the frame number of the video information, the ID of the object displayed in the frame, and the position and size of the object.
[0027]
For example, if two or more objects are displayed in a certain frame, data of different object IDs exist with the same frame number as shown in FIG.
[0028]
The position and size of the object may be expressed by, for example, a rectangle with the shape of the object, the coordinates of the top left vertex of the object as a position, the width and height, or the top left vertex and the bottom right corner of the object. For example, the coordinates of the vertices may be expressed by arranging the coordinates of the vertices clockwise or counterclockwise from a certain vertex as a polygon.
[0029]
The related information only needs to be able to determine the related information to be displayed when the detail level is designated for each object. For example, as shown in FIG. 2, each object is managed separately for each degree of detail. Further, when the level of detail is specified, it may be determined that all information below the level of detail is displayed.
[0030]
The display information determination unit 15 passes the video information passed from the reception unit 12 to the display unit 16 (S506 in FIG. 1), and the display unit 16 displays the video information.
[0031]
The user views the video information displayed on the display unit 16 and designates an object of interest contained in the video using the pointing recognition unit 14. For example, the pointing recognition unit 14 may be such that the user designates an object on the screen using a laser pointer and recognizes the position pointed to by the laser pointer, or the user moves the mouse cursor over the object using a mouse. You can also move to and click the mouse to specify the position. Alternatively, the position where the user is pointing at the screen may be recognized by image recognition using a camera.
[0032]
The position designated on the screen by the user through the pointing recognition unit 14 is passed to the display information determination unit 15 (S405 in FIG. 1).
[0033]
Information is passed from the pointing recognition unit 14 to the display information determination unit 15 at regular intervals, and the display information determination unit 15 accumulates information passed from the pointing recognition unit 14. Further, when not pointing, information may not be sent, or information indicating that pointing is not performed may be passed. Using this accumulated information, the display information determination unit 15 determines whether or not the pointing is continuously performed.
[0034]
For example, when information is passed from the pointing recognition unit 14 to the display information determination unit 15 at 1/30 second intervals that are synchronized with the video frame, the information pointed 30 times continuously is passed. For example, it is determined that the pointing is continued for 30 frames (1 second). Also, for example, when information is passed at intervals of 1/10 second, if information pointed 10 times continuously is passed, it is continuously pointed for 30 frames (1 second). It is determined that
[0035]
The display information determination unit 15 receives the ID, the position and the size of the object displayed in the current frame from the related information holding unit 13 using the current frame number of the video information as a key (S305 in FIG. 1).
[0036]
In addition, the display information determination unit 15 stores the user's designated position passed from the pointing recognition unit 14, the ID of the object displayed in the current frame passed from the related information holding unit 13, and the history of the position and size. Hold.
[0037]
The display information determination unit 15 determines related information to be displayed for each object from the position where the user is pointing on the screen and the information on the position and size of the object, and passes them to the display unit 16 together with the video information (S506 in FIG. 1). The display unit 16 superimposes and displays the object related information on the video information.
[0038]
The display information determination unit 15 determines the related information to be displayed for each object by first determining the most important object from the objects included in the current video information, and then determining the object other than the most important object. Determine the importance. The degree of detail of the related information of the object is determined according to the importance of the object.
[0039]
The most important object is determined as follows.
[0040]
(1) If there is an object at the position where the user is pointing, that object is made the most important object.
[0041]
(2) If there is no object at the position where the user is pointing, the score is calculated for each object, and the object with the highest score is set as the most important object.
[0042]
The score for each object is calculated in consideration of the size of the display area of the object, the closeness to the center of the screen, and the rate of continuous display. For example, this is performed as follows.
[0043]
(1) The center of gravity and area of the object are obtained from the position and size of the object. For simplicity, for example, a rectangle circumscribing the object may be determined, and the center of gravity and area of the rectangle may be substituted.
[0044]
(2) The index of the proximity of the object to the screen center is, for example, the reciprocal of the distance from the center of gravity of the object to the screen center.
[0045]
(3) The ratio of continuously displayed is, for example, the ratio of how many frames have been continuously displayed in the video for the last minute.
[0046]
(4) A weight is added to the size of the display area of the object, the proximity to the center of the screen, and the ratio of continuous display to obtain the object score.
[0047]
The weight may be set to 0 when calculating the score of the object.
[0048]
In other words, the score may be determined based on only the size of the display area of the object, the proximity to the center of the screen, the ratio of being displayed continuously, or the score based on only some combinations instead of all. May be determined.
[0049]
In addition, the importance of each object takes into account whether the object is the most important object, the score of the object, how much the object is pointing, how long the object is pointing to the screen, and the number of objects included in the video. And decide. For example, it is determined as follows.
[0050]
(1) If the object is the most important object, increase the importance.
[0051]
(2) Increase the importance according to the score of the object.
[0052]
(3) If the object is pointed, increase the importance by a certain amount.
[0053]
(4) If the point is continuously pointed on the screen, the importance is increased. For example, if a threshold value and a change rate are set, and the number of seconds or frames that are continuously pointed to does not exceed the threshold value, the importance is gradually increased according to the change rate, and if the threshold value is exceeded, Increase importance by a certain amount.
[0054]
(5) Increase or decrease the importance according to the number of objects included in the video. For example, if the number of objects is small, the importance of each object is relatively increased, and if the number of objects is large, the importance of the object is decreased.
[0055]
(6) Determine the value to be increased or decreased from whether the object is the most important object, the object score, whether the object is pointed, how long the object is pointing to the screen, or the number of objects included in the video, and the weight And add together to determine the importance of each object.
[0056]
The weight may be set to 0 when calculating the importance of the object.
[0057]
In other words, the score is determined based only on whether the object is the most important object, the object score, whether the object is pointed, how long the object is pointing to the screen, or the number of objects included in the video. Alternatively, the score may be determined only from some combinations instead of all.
[0058]
For example, the importance of the object is calculated as follows.
[0059]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (Increment when the object is pointed) + (Weight of the number of frames pointing the screen continuously) * (Pointing the screen continuously Number of frames) + (weight of the number of objects included in the video) * (number determined from the number of objects included in the video)
For example, the level of detail of each object in the display information determination unit 15 is determined as follows.
[0060]
Assume that the user points on the screen at a certain point in time.
[0061]
The position pointed by the user is passed to the display information determination unit 15 through the pointing recognition unit 14 (S405 in FIG. 1). For example, assume that the pointing position is (600, 600).
[0062]
The display information determination unit 15 receives the ID, the position and the size of the object displayed in the current frame from the related information holding unit 13 using the current frame number of the video information as a key (S305 in FIG. 1). Assume that the related information holding unit 13 holds data as shown in FIG. 2 and the frame number of the current video information is 1000. The related information holding unit 13 searches for data having a frame number of 1000.
[0063]
From the related information holding unit 13 to the display information determination unit 15, the position of the object 1 is (80, 80) and the size is (100, 200), the position of the object 2 is (300, 400), and the size is (200 , 100) (S305 in FIG. 1).
[0064]
The display information determination unit 15 first determines the most important object.
[0065]
Since the position of the object 1 is (80, 80) and the size is (100, 200), the position of the object 2 is (300, 400) and the size is (200, 100), the position where the user is pointing (600 , 600) does not refer to any object, and the most important object has not yet been determined.
[0066]
Since the most important object has not been determined, the score for each object is calculated next.
[0067]
For example, assume that the screen size is (1000, 800).
[0068]
For object 1, the center of gravity of object 1 is (130, 180) and the area is 20000.
[0069]
Since the center of the screen is (500,400), the distance from the center of gravity to the center of the screen is √ ((500−130) ^ 2 + (400−180) ^ 2) = 430.5, and the proximity to the center of the screen is Reciprocal.
[0070]
Also, assuming that the video is displayed at 30 frames per second, the video is 1800 frames per minute. If object 1 has been displayed continuously for 360 frames in the last minute, the ratio is 0.2.
[0071]
For object 2, the center of gravity of object 2 is (400, 450) and the area is 20000.
[0072]
Since the center of the screen is (500, 400), the distance from the center of gravity to the center of the screen is √ ((500−400) ^ 2 + (400−450) ^ 2) = 111.8, and the proximity to the center of the screen is Reciprocal.
[0073]
Further, if the object 2 has been displayed continuously for 360 frames in the video for the last minute, the ratio is 0.2.
[0074]
Assuming that the weights of the display area size of the object, the proximity to the center of the screen, and the ratio of continuously displayed are 0.0001, 500, and 1, respectively,
The score is calculated as (score) = 0.0001 * (size of the display area of the object) + 500 / (closeness to the center of the screen) + 1 * (ratio continuously displayed).
[0075]
The score of object 1 is 0.0001 * 20000 + 500 / 430.5 + 1 * 0.2 = 3.36, and the score of object 2 is 0.0001 * 20000 + 500 / 111.8 + 1 * 0.2 = 6.67. Therefore, the object 2 is determined as the most important object.
[0076]
Next, the importance for each object is determined.
[0077]
The increment of importance when the object is pointed is set to 1, and the increment is set to 0 when the object is not pointed.
[0078]
The threshold for the number of frames when a point is continuously pointed on the screen is 900, and the rate of change is 0.002. Assume that the user is pointing somewhere on the screen continuously for 600 frames at this time. The increase / decrease amount of importance according to the number of objects included in the video is, for example, -1 / (11-N), where N is the number of objects included in the video. However, when N is 10 or more, N is calculated as 10. In addition, the weights for addition are 0.2 for the object score and 1 for all others.
[0079]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (Increment when the object is pointed) + (Weight of the number of frames pointing the screen continuously) * (Pointing the screen continuously Number of frames in the video) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video). ) = 1 * (increment when the object is the most important object) + 0.2 * (object scan) A) + 1 * to become (the number of increments) + 0.002 * (objects contained in successive number of frames that are pointing the screen) -1 / (11-image when it is pointing).
[0080]
At this time, the importance of the object 1 is that the object 1 is not the most important object, the score of the object is 3.36, the object is not pointing, and the user points somewhere on the screen for 600 consecutive frames. Since the number of objects included in the video is two, 0 + 0.2 * 3.36 + 0 + 600 * 0.002-1 / (11-2) = 1.76.
[0081]
The importance of the object 2 is that the object 2 is the most important object, the score of the object is 6.67, the object is not pointing, and the user points somewhere on the screen for 600 consecutive frames. Since the number of objects included in the video is two, 1 + 0.2 * 6.67 + 0 + 600 * 0.002-1 / (11-2) = 3.42.
[0082]
Assuming that the degree of detail of the related information of the object is obtained by rounding down the decimal point of the importance of the object, the degree of detail of the related information of the object 1 is 1, and the degree of detail of the related information of the object 2 is 3.
[0083]
The display information determination unit 15 receives related information according to the degree of detail for each object from the related information holding unit 13 (S305 in FIG. 1).
[0084]
Since the detail level of the related information of the object 1 is 1, the related information is “mobile phone”, and the detail level of the related information of the object 2 is 3, so the related information receives “PDA, pocket gear, 30,000 yen”.
[0085]
The display information determination unit 15 passes the related information determined for each object together with the video information to the display unit 16 (S506 in FIG. 1), and the display unit 16 displays the related information of the object superimposed on the video information.
[0086]
FIG. 3 is an explanatory diagram illustrating an example of related information superimposed on video information.
[0087]
Referring to FIG. 3, related information is displayed below the object.
[0088]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.
[0089]
FIG. 4 is an explanatory diagram showing the configuration of the second exemplary embodiment of the present invention.
[0090]
Referring to FIG. 4, the second embodiment of the present invention is a face image recognition unit for recognizing whether or not the user is turning his / her face toward the display unit 16 in addition to the components of the first embodiment. 17. When the recognition result from the pointing recognition unit 14 is passed to the display information determination unit 15, the recognition result as to whether or not the user faces the display unit 16 is also passed from the face image recognition unit 17 to the display information determination unit 15 at the same time. And used to determine how detailed relevant information is displayed for each object.
[0091]
Information is passed from the face image recognition unit 17 to the display information determination unit 15 at regular intervals, and the display information determination unit 15 accumulates information passed from the face image recognition unit 17. Further, when the user does not face the display unit 16, information may not be sent, or information that the user does not face the display unit 16 may be passed. Using this accumulated information, the display information determination unit 15 determines whether or not the user is continuously facing the display unit 16.
[0092]
For example, when information is passed from the face image recognition unit 17 to the display information determination unit 15 at 1/30 second intervals, which is a timing synchronized with the video frame, the user places the face on the display unit 16 continuously 30 times. If the information indicating that the user is facing is passed, it is determined that the user is continuously facing the display unit 16 for 30 frames (1 second). Also, for example, when information is passed at intervals of 1/10 second, if information that the user is facing the display unit 16 is passed 10 times in succession, the number of frames is 30 frames (1 second). It is determined that the user is continuously facing the display unit 16.
[0093]
In the second embodiment of the present invention, processing is performed in the same manner as in the first embodiment of the present invention. In the second and second embodiments of the present invention, the method of determining the importance for each object is different from that of the second and first embodiments of the present invention.
[0094]
In the second embodiment of the present invention, the importance for each object is determined based on whether the object is the most important object, the score of the object, whether the object is pointed, how long the object is pointing on the screen, In addition to the number of objects included in the image, it is determined in consideration of the recognition result of the face image. For example, it is determined as follows.
[0095]
(1) If the orientation of the user's face is continuously directed toward the screen, the importance of the object is increased.
[0096]
(2) Even if the user's face is continuously facing the screen direction, if the time during which the screen is not pointing is long, it is considered that the user's face is more concentrated than the related information, and the importance of the object Decrease.
[0097]
(3) Similar to the first embodiment, whether the object is the most important object, the score of the object, whether the object is pointed, how long the object is pointing to the screen, the number of objects included in the video, In addition to this, a value to be increased / decreased from a time when the face is directed to the screen or from a time when the screen is not pointing is determined, and the importance of each object is determined by adding weights.
[0098]
The weight may be set to 0 when calculating the importance of the object. In other words, whether the object is the most important object, the object score, whether the object is pointing, how long the object is pointing to the screen, the number of objects included in the video, whether the face is facing the screen, The score may be determined only from any of the times when the screen is not pointing, or the score may be determined from only some combinations instead of all of them.
[0099]
The importance of an object is calculated as follows, for example.
[0100]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (Increment when the object is pointed) + (Weight of the number of frames pointing the screen continuously) * (Pointing the screen continuously Number of frames in the video) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) + (the user's face is continuously directed toward the screen) The weight when the user's face is continuously facing the screen) + (the continuous weight) -Even if the face of the user is facing the screen, the weight of the decrease when the screen is not pointing for a long time) * (Even if the user's face is continuously facing the screen, Decrease when the screen is not pointing for a long time).
[0101]
For example, the receiving unit 12 receives the data broadcast program information and passes the video information included in the data broadcast program information to the display information determination unit 15 (S205 in FIG. 4). At the same time, the detail level of the object included in the data broadcast program information is attached. The related information is transferred to the related information holding unit 13 (S203 in FIG. 4). The display information determination unit 15 passes the video information passed from the reception unit 12 to the display unit 16 (S506 in FIG. 4), and the display unit 16 displays the video information. The recognition result of the user's face orientation is transmitted from the face image recognition unit 17 to the display information determination unit 15 (S705 in FIG. 4).
[0102]
In addition, the user looks at the video information displayed on the display unit 16 and designates an object of interest contained in the video using the pointing recognition unit 14, and the user designates on the screen through the pointing recognition unit 14. The position is passed to the display information determination unit 15 (S405 in FIG. 4).
[0103]
For example, the display information determination unit 15 determines the detail level of each object as follows.
[0104]
Assume that the user points on the screen at a certain point in time. The position pointed by the user is passed to the display information determination unit 15 through the pointing recognition unit 14 (S405 in FIG. 4).
[0105]
For example, assume that the pointing position is (600, 600).
[0106]
The display information determination unit 15 receives the ID of the object displayed in the current frame, its position and size from the related information holding unit 13 using the current frame number of the video information as a key (S305 in FIG. 4). Assume that the related information holding unit 13 holds data as shown in FIG. 2 and the frame number of the current video information is 1000. The related information holding unit 13 searches for data having a frame number of 1000. From the related information holding unit 13 to the display information determination unit 15, the position of the object 1 is (80, 80) and the size is (100, 200), the position of the object 2 is (300, 400), and the size is (200 , 100) (S305 in FIG. 4).
[0107]
Similar to the first embodiment of the present invention, the object 2 is determined as the most important object.
[0108]
Next, the importance for each object is determined.
[0109]
The increment of importance when the object is pointing is set to 1. The threshold for the number of frames when a point is continuously pointed on the screen is 900, and the rate of change is 0.002. Assume that the user is pointing somewhere on the screen continuously for 600 frames at this time. The increase / decrease amount of importance according to the number of objects included in the video is, for example, -1 / (11-N), where N is the number of objects included in the video. However, when N is 10 or more, N is calculated as 10.
[0110]
The threshold value for the number of frames when the user's face is continuously facing the screen is 900, and the rate of change is 0.001. It is assumed that the threshold of the number of frames is 900 and the rate of change is 0.001 when the user's face is continuously facing the screen and the screen is not pointing. It is assumed that the user has continuously faced the face in the screen direction for 900 frames or more at this time.
[0111]
In addition, the weights for addition are 0.2 for the object score and 1 for all others.
[0112]
(Object importance) = (weight of increase when object is the most important object) * (increase when object is the most important object) + (weight of object score) * (object score) + ( Weight of the increment when the object is pointed) * (Increment when the object is pointed) + (Weight of the number of frames pointing the screen continuously) * (Pointing the screen continuously Number of frames in the video) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video) + (the user's face is continuously directed toward the screen) The weight when the user's face is continuously facing the screen) + (the continuous weight) -Even if the face of the user is facing the screen, the weight of the decrease when the screen is not pointing for a long time) * (Even if the user's face is continuously facing the screen, Therefore, the importance of the object is calculated as (importance of the object) = 1 * (increase when the object is the most important object) + 0.2 * ( Object score) + 1 * (increase when pointing) + 0.002 * (number of frames pointing the screen continuously) −1 / (11−number of objects included in video) + 1 * (Number of frames when the user's face is continuously facing the screen direction * rate of change)-1 * (the user's face is continuously facing the screen direction and the screen is pointed The number of frames * rate of change) and made of when not in Ingu.
[0113]
At this time, the importance of the object 1 is that the object 1 is not the most important object, the score of the object is 3.36, the object is not pointing, and the user points somewhere on the screen for 600 consecutive frames. Since the number of objects included in the video is two and the face faces the screen direction, 0 + 0.2 * 3.36 + 0 + 600 * 0.002-1 / (11-2) + 900 * 0.001 −0 = 2.66.
[0114]
The importance of the object 2 is that the object 2 is the most important object, the score of the object is 6.67, the object is not pointing, and the user points somewhere on the screen for 600 consecutive frames. Since the number of objects included in the video is two and the face faces the screen direction, 1 + 0.2 * 6.67 + 0 + 600 * 0.002-1 / (11-2) + 900 * 0.001- 0 = 4.32.
[0115]
Assuming that the degree of detail of the related information of the object is obtained by rounding down the decimal point of the importance of the object, the degree of detail of the related information of the object 1 is 2, and the degree of detail of the related information of the object 2 is 4.
Here, it is assumed that the screen is no longer pointing and the frame is over 900 frames with the face facing the screen. The number of objects in the video remains two.
[0116]
At this time, the importance of the object 1 is that the object 1 is not the most important object, the score of the object is 3.36, the object is not pointing, and the user is not pointing anywhere on the screen. Since the number of objects included in the video is two and the face faces the screen direction, 0 + 0.2 * 3.36 + 0 + 0-1 / (11-2) + 900 * 0.001-900 * 0.001 = 0.56.
[0117]
The importance of the object 2 is that the object 2 is the most important object, the object score is 6.67, the object is not pointed, and the user is not pointing anywhere on the screen, Since the number of objects included in the video is two and the face is facing the screen direction, 1 + 0.2 * 6.67 + 0 + 0-1 / (11-2) + 900 * 0.001-900 * 0.001 = 2 .22.
[0118]
Assuming that the degree of detail of the related information of the object is obtained by rounding down the decimal point of the importance of the object, the degree of detail of the related information of the object 1 is 0, and the degree of detail of the related information of the object 2 is 2.
[0119]
The display information determination unit 15 receives the related information according to the degree of detail for each object from the related information holding unit 13 (S305 in FIG. 4). The display information determination unit 15 passes the related information determined for each object together with the video information to the display unit 16 (S506 in FIG. 4), and the display unit 16 displays the related information of the object superimposed on the video information.
[0120]
In this way, it becomes possible to automatically adjust the related information of the object presented to the viewer.
[0121]
【The invention's effect】
The effect of the present invention is that man-hours for optimizing the information displayed by the program provider can be reduced, and the excess or deficiency of information displayed to the viewer can be reduced.
[0122]
The reason is that a plurality of pieces of information related to objects in the video are prepared for each degree of detail, and the degree of detail of information displayed by the system is determined from the viewer's state and operation history.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.
FIG. 2 is an explanatory diagram illustrating an example of object information and related information.
FIG. 3 is an explanatory diagram illustrating a display state in which related information is superimposed on an object.
FIG. 4 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
[Explanation of symbols]
11 Program recording medium
12 Receiver
13 Related information holding section
14 Pointing recognition unit
15 Display information determination unit
16 Display section
17 Face image recognition unit

Claims (10)

映像情報と、「フレームに存在するオブジェクトの位置、大きさを含むオブジェクト情報」および「オブジェクトごとに詳細度と対応する関連情報」を含む詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクト情報、および、関連情報を出力する受信部と、
前記受信部からのオブジェクト情報、関連情報を保持する関連情報保持部と、
使用者に指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力するポインティング認識部と、
前記受信部からの映像情報、前記関連情報保持部からのオブジェクト情報、関連情報、および、前記ポインティング認識部からのポインティング位置情報を入力し、
(a)ポインティング位置情報で示されるポインティング位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)ポインティング位置情報で示されるポインティング位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせたものとし、
オブジェクトのスコアに応じて、重要度を増加させ、
オブジェクトの重要度を(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)として算出し、算出したオブジェクトの重要度の小数点以下を切り捨てた値をオブジェクトの詳細度とし、関連情報に算出したオブジェクトの詳細度を当てはめ、オブジェクト対応の関連情報を決定し、映像情報、および、オブジェクト対応の関連情報を出力する表示情報判定部と、
前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する表示部と、
を有することを特徴とする情報重畳表示装置。
Receiving data broadcast program information including video information and related information with details including object information including position and size of objects present in the frame” and “ related information corresponding to details for each object ; A receiver that outputs video information, object information, and related information;
Object information from the receiving unit, a related information holding unit for holding related information,
Recognizing the pointing position on the screen designated by the user, the pointing recognition unit which outputs the pointing position information,
Input video information from the receiving unit, object information from the related information holding unit, related information, and pointing position information from the pointing recognition unit,
(A) If there is an object at the pointing position indicated by the pointing position information, that object is regarded as the most important object. (B) If there is no object at the pointing position indicated by the pointing position information, a score is calculated for each object. The object with the highest score is regarded as the most important object. (C) The score for each object is obtained by adding a weight to the size of the display area of the object, the closeness to the center of the screen, and the ratio of continuous display. And combined
Depending on the object's score, increase the importance,
Calculate the importance of the object as (weight of increase when the object is the most important object) * (increase when the object is the most important object) + (weight of the object score) * (score of the object) The value of the calculated importance of the object rounded down is used as the object detail, and the calculated object detail is applied to the related information to determine the object-related related information, and the video information and object- related A display information determination unit that outputs continuous information;
A display unit that superimposes and displays related information to be displayed corresponding to the object from the display information determination unit on the video information from the display information determination unit;
An information superimposing display device comprising:
使用者の顔が前記表示部を向いているかどうかを示す顔方向情報を作成し、前記表示情報判定部に出力する顔画像認識部を備え、
前記顔画像認識部からの顔方向情報を参照し、
オブジェクトの重要度を(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分の重み)*(顔方向情報による一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分)として算出する前記表示情報判定部を、
を有することを特徴とする請求項1記載の情報重畳表示装置。
A face image recognition unit that generates face direction information indicating whether a user's face is facing the display unit and outputs the information to the display information determination unit;
Refer to the face direction information from the face image recognition unit,
The importance of an object is expressed as (weight increase when the object is the most important object) * (increase weight when the object is the most important object) + (object score weight) * (object score) + (predetermined time) Increased weight when the user's face is continuously facing the display unit) * (when the user's face is continuously facing the display unit for a certain period of time based on face direction information) The display information determination unit to calculate as
The information superimposing display device according to claim 1, further comprising :
(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、
(b)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、
(c)連続して画面のどこかがポインティングされていれば、重要度を増加させ、
(d)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、
(e)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、
オブジェクトの重要度を、(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングし ているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)として算出する前記表示情報決定部を有することを特徴とする請求項1記載の情報重畳表示装置。
(A) If the object is the most important object, increase the importance,
(B) If the object is pointing, increase the importance by a certain amount,
(C) If somewhere on the screen is pointing continuously, increase the importance,
(D) Increase or decrease the importance according to the number of objects included in the video,
(E) Determine whether the object is the most important object, the score of the object, whether the object is pointed, how long the screen is pointing, and the value to be increased or decreased from the number of objects included in the video,
The importance of an object is expressed by (object score weight) * (object score) + (increase weight when the object is the most important object) * (increase amount when the object is the most important object) + (object Weight when the object is pointing) * (increment when the object is pointing) + (weight of the number of frames that are continuously pointing to the screen) * (pointing the screen continuously) The display information determining unit is calculated as (number of frames included) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video). Item 1. The information superimposing display device according to Item 1.
(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、
(b)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、
(c)連続して画面のどこかがポインティングされていれば、重要度を増加させ、
(d)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、
(e)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、
オブジェクトの重要度を、(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分の重み)*(顔方向情報による一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分)+(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)として算出する前記表示情報決定部を有することを特徴とする請求項2記載の情報重畳表示装置。
(A) If the object is the most important object, increase the importance,
(B) If the object is pointing, increase the importance by a certain amount,
(C) If somewhere on the screen is pointing continuously, increase the importance,
(D) Increase or decrease the importance according to the number of objects included in the video,
(E) Determine whether the object is the most important object, the score of the object, whether the object is pointed, how long the screen is pointing, and the value to be increased or decreased from the number of objects included in the video,
The importance of an object is expressed as (weight of object score) * (object score) + (weight of increase when the user's face is facing the display unit for a certain period of time) * (face According to the direction information, the increment when the user's face is facing the display unit continuously for a certain period of time) + (the weight of the increment when the object is the most important object) * (the object is the most important object) Increment) + (weight of increment when object is pointing) * (increment when object is pointing) + (weight of the number of frames pointing to the screen continuously) * (The number of frames that point to the screen continuously) + (weight of the number of objects included in the video) * (the number of objects included in the video) The display information determination unit information superimposing display device according to claim 2, wherein a calculating as a numerical value) determined.
受信部、関連情報保持部、ポインティング認識部、表示情報判定部、および、表示部を備える情報重畳表示装置における情報重畳表示方法であって、An information superimposed display method in an information superimposed display device comprising a receiving unit, a related information holding unit, a pointing recognition unit, a display information determination unit, and a display unit,
前記受信部が、映像情報、「フレームに存在するオブジェクトの位置、大きさを含むオブジェクト情報」および「オブジェクトごとに詳細度と対応する関連情報」を含む詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクト情報、および、関連情報を出力する手順と、Data broadcast program information in which the receiving unit includes video information, “object information including the position and size of an object present in a frame”, and “related information with a level of detail for each object” Receiving video and outputting video information, object information, and related information;
前記関連情報保持部が、前記受信部からのオブジェクト情報、関連情報を保持する手順と、The related information holding unit holds object information and related information from the receiving unit, and
前記ポインティング認識部が、使用者に指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力する手順と、A procedure for the pointing recognition unit to recognize a pointing position on a screen designated by a user and to output pointing position information;
前記表示情報判定部が、前記受信部からの映像情報、前記関連情報保持部からのオブジェクト情報、関連情報、および、前記ポインティング認識部からのポインティング位置情報を入力する手順と、The display information determination unit inputs video information from the reception unit, object information from the related information holding unit, related information, and pointing position information from the pointing recognition unit;
(a)ポインティング位置情報で示されるポインティング位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)ポインティング位置情報で示されるポインティング位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせたものとする手順と、(A) If there is an object at the pointing position indicated by the pointing position information, that object is regarded as the most important object. (B) If there is no object at the pointing position indicated by the pointing position information, a score is calculated for each object. The object with the highest score is regarded as the most important object. (C) The score for each object is obtained by adding a weight to the size of the display area of the object, the closeness to the center of the screen, and the ratio of continuous display. The combined procedure,
オブジェクトのスコアに応じて、重要度を増加させ、Depending on the object's score, increase the importance,
オブジェクトの重要度を(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)として算出し、算出したオブジェクトの重要度の小数点以下を切り捨てた値をオブジェクトの詳細度とし、関連情報に算出したオブジェクトの詳細度を当てはめ、オブジェクト対応の関連情報を決定する手順と、Calculate the importance of the object as (weight of increase when the object is the most important object) * (increase when the object is the most important object) + (weight of the object score) * (score of the object) The value of the calculated importance of the object is rounded down to the object detail level, the calculated object detail level is applied to the related information, and the object-related related information is determined.
映像情報、および、オブジェクト対応の関連情報を出力する手順と、A procedure for outputting video information and object-related information;
前記表示部が、The display unit is
前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表A table corresponding to the object from the display information determination unit is added to the video information from the display information determination unit. 示する関連情報を重畳して表示する手順と、To superimpose related information to be displayed,
を含むことを特徴とする情報重畳表示方法。An information superimposing display method comprising:
顔画像認識部を備える前記情報重畳表示装置における情報重畳表示方法であって、An information superimposed display method in the information superimposed display device including a face image recognition unit,
前記顔画像認識部が、使用者の顔が前記表示部を向いているかどうかを示す顔方向情報を作成し、前記表示情報判定部に出力する手順と、A procedure in which the face image recognition unit creates face direction information indicating whether a user's face is facing the display unit and outputs the information to the display information determination unit;
前記表示情報判定部が、前記顔画像認識部からの顔方向情報を参照し、The display information determination unit refers to face direction information from the face image recognition unit,
オブジェクトの重要度を(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分の重み)*(顔方向情報による一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分)として算出する手順と、The importance of an object is expressed as (weight increase when the object is the most important object) * (increase weight when the object is the most important object) + (object score weight) * (object score) + (predetermined time) Increased weight when the user's face is continuously facing the display unit) * (when the user's face is continuously facing the display unit for a certain period of time based on face direction information) As an increase in
を含むことを特徴とする請求項5記載の情報重畳表示方法。The information superimposed display method according to claim 5, further comprising:
前記表示情報決定部が、(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、The display information determination unit (a) increases the importance if the object is the most important object,
(b)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、(B) If the object is pointing, increase the importance by a certain amount,
(c)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(C) If somewhere on the screen is pointing continuously, increase the importance,
(d)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、(D) Increase or decrease the importance according to the number of objects included in the video,
(e)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、(E) Determine whether the object is the most important object, the score of the object, whether the object is pointed, how long the screen is pointing, and the value to be increased or decreased from the number of objects included in the video,
オブジェクトの重要度を、(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)として算出する手順を含むことを特徴とする請求項5記載の情報重畳表示方法。The importance of an object is expressed by (object score weight) * (object score) + (increase weight when the object is the most important object) * (increase amount when the object is the most important object) + (object Weight when the object is pointing) * (increment when the object is pointing) + (weight of the number of frames that are continuously pointing to the screen) * (pointing the screen continuously) 6. The method according to claim 5, further comprising a procedure of calculating: (number of frames included) + (weight of the number of objects included in the video) * (numerical value determined from the number of objects included in the video). Information superposition display method.
前記表示情報決定部が、(a)オブジェクトが最重要オブジェクトなら重要度を増加させ、The display information determination unit (a) increases the importance if the object is the most important object,
(b)オブジェクトがポインティングされていれば、重要度を一定量だけ増加させ、(B) If the object is pointing, increase the importance by a certain amount,
(c)連続して画面のどこかがポインティングされていれば、重要度を増加させ、(C) If somewhere on the screen is pointing continuously, increase the importance,
(d)映像中に含まれるオブジェクトの数に応じて、重要度を増減させ、(D) Increase or decrease the importance according to the number of objects included in the video,
(e)オブジェクトが最重要オブジェクトか、オブジェクトのスコア、オブジェクトがポインティングされているか、どのくらい連続して画面をポインティングしているか、および、映像中に含まれるオブジェクトの数から増減させる値を決定し、(E) Determine whether the object is the most important object, the score of the object, whether the object is pointed, how long the screen is pointing, and the value to be increased or decreased from the number of objects included in the video,
オブジェクトの重要度を、(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分の重み)*(顔方向情報による一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分)+(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトがポインティングされているときの増加分の重み)*(オブジェクトがポインティングされているときの増加分)+(連続して画面をポインティングしているフレーム数の重み)*(連続して画面をポインティングしているフレーム数)+(映像中に含まれるオブジェクトの数の重み)*(映像中に含まれるオブジェクトの数から決定される数値)として算出する手順を含むことを特徴とする請求項6記載の情報重畳表示方法。The importance of an object is expressed as (weight of object score) * (object score) + (weight of increase when the user's face is facing the display unit for a certain period of time) * (face According to the direction information, the increment when the user's face is facing the display unit continuously for a certain period of time) + (the weight of the increment when the object is the most important object) * (the object is the most important object) Increment) + (weight of increment when object is pointing) * (increment when object is pointing) + (weight of the number of frames pointing to the screen continuously) * (The number of frames that point to the screen continuously) + (weight of the number of objects included in the video) * (the number of objects included in the video) Information superimposing display method according to claim 6, characterized in that it comprises the steps of calculating a numerical value) determined.
受信部、関連情報保持部、ポインティング認識部、表示情報判定部、および、表示部を備える情報重畳表示装置における情報重畳表示プログラムであって、An information superimposed display program in an information superimposed display device comprising a receiving unit, a related information holding unit, a pointing recognition unit, a display information determination unit, and a display unit,
前記受信部に、映像情報、「フレームに存在するオブジェクトの位置、大きさを含むオブジェクト情報」および「オブジェクトごとに詳細度と対応する関連情報」を含む詳細度付き関連情報を含むデータ放送番組情報を受信し、映像情報、オブジェクト情報、および、関連情報を出力する手順を実行させ、Data broadcasting program information including video information, “object information including the position and size of an object existing in a frame”, and “related information with a detail level for each object” in the receiving unit And execute a procedure for outputting video information, object information, and related information,
前記関連情報保持部に、前記受信部からのオブジェクト情報、関連情報を保持する手順を実行させ、Causing the related information holding unit to execute a procedure for holding object information and related information from the receiving unit;
前記ポインティング認識部に、使用者に指定された画面上のポインティング位置を認識し、ポインティング位置情報を出力する手順と、Recognizing the pointing position on the screen designated by the user in the pointing recognition unit, and outputting the pointing position information;
前記表示情報判定部が、前記受信部からの映像情報、前記関連情報保持部からのオブジェクト情報、関連情報、および、前記ポインティング認識部からのポインティング位置情報を入力する手順と、The display information determination unit inputs video information from the reception unit, object information from the related information holding unit, related information, and pointing position information from the pointing recognition unit;
(a)ポインティング位置情報で示されるポインティング位置にオブジェクトがあれば、そのオブジェクトを最重要オブジェクトとし、(b)ポインティング位置情報で示されるポインティング位置にオブジェクトがなければ、オブジェクトごとにスコアを計算し、最もスコアの大きいものを最重要オブジェクトとし、(c)オブジェクトごとのスコアは、オブジェクトの表示面積の大きさ、画面中央への近さ、連続して表示されていた割合に、重みをつけて足し合わせたものとする手順と、(A) If there is an object at the pointing position indicated by the pointing position information, that object is regarded as the most important object. (B) If there is no object at the pointing position indicated by the pointing position information, a score is calculated for each object. The object with the highest score is regarded as the most important object. (C) The score for each object is obtained by adding a weight to the size of the display area of the object, the closeness to the center of the screen, and the ratio of continuous display. The combined procedure,
オブジェクトのスコアに応じて、重要度を増加させ、Depending on the object's score, increase the importance,
オブジェクトの重要度を(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)として算出し、算出したオブジェクトの重要度の小数点以下を切り捨てた値をオブジェクトの詳細度とし、関連情報に算出したオブジェクトの詳細度を当てはめ、オブジェクト対応の関連情報を決定する手順と、Calculate the importance of the object as (weight of increase when the object is the most important object) * (increase when the object is the most important object) + (weight of the object score) * (score of the object) The value of the calculated importance of the object is rounded down to the object detail level, the calculated object detail level is applied to the related information, and the object-related related information is determined.
映像情報、および、オブジェクト対応の関連情報を出力する手順とを実行させ、And a procedure for outputting video information and related information corresponding to the object,
前記表示部に、In the display section,
前記表示情報判定部からの映像情報に、前記表示情報判定部からのオブジェクト対応の表示する関連情報を重畳して表示する手順を実行させる、Causing video information from the display information determination unit to superimpose and display related information to be displayed corresponding to the object from the display information determination unit;
ことを特徴とする情報重畳表示プログラム。An information superimposing display program characterized by that.
顔画像認識部を備える前記情報重畳表示装置における情報重畳表示プログラムであって、An information superimposed display program in the information superimposed display device comprising a face image recognition unit,
前記顔画像認識部に、使用者の顔が前記表示部を向いているかどうかを示す顔方向情報を作成し、前記表示情報判定部に出力する手順を実行させ、Causing the face image recognition unit to create face direction information indicating whether a user's face is facing the display unit, and to execute a procedure of outputting to the display information determination unit;
前記表示情報判定部が、前記顔画像認識部からの顔方向情報を参照し、The display information determination unit refers to face direction information from the face image recognition unit,
オブジェクトの重要度を(オブジェクトが最重要オブジェクトのときの増加分の重み)*(オブジェクトが最重要オブジェクトのときの増加分)+(オブジェクトのスコアの重み)*(オブジェクトのスコア)+(一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分の重み)*(顔方向情報による一定時間連続して使用者の顔の向きが前記表示部を向いている時の増加分)として算出する手順を実行させる、The importance of an object is expressed as (weight increase when the object is the most important object) * (increase weight when the object is the most important object) + (object score weight) * (object score) + (predetermined time) Increased weight when the user's face is continuously facing the display unit) * (when the user's face is continuously facing the display unit for a certain period of time based on face direction information) To calculate as
ことを特徴とする請求項9記載の情報重畳表示プログラム。The information superimposition display program according to claim 9.
JP2003087134A 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program Expired - Fee Related JP4103652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003087134A JP4103652B2 (en) 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003087134A JP4103652B2 (en) 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program

Publications (2)

Publication Number Publication Date
JP2004297448A JP2004297448A (en) 2004-10-21
JP4103652B2 true JP4103652B2 (en) 2008-06-18

Family

ID=33401578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003087134A Expired - Fee Related JP4103652B2 (en) 2003-03-27 2003-03-27 Information superimposed display device, information superimposed display method, and information superimposed display program

Country Status (1)

Country Link
JP (1) JP4103652B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043923A1 (en) * 2016-09-01 2018-03-08 삼성전자(주) Display device and control method therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5111627B2 (en) * 2010-04-06 2013-01-09 キヤノン株式会社 Video processing apparatus and video processing method
JP5598232B2 (en) 2010-10-04 2014-10-01 ソニー株式会社 Information processing apparatus, information processing system, and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043923A1 (en) * 2016-09-01 2018-03-08 삼성전자(주) Display device and control method therefor

Also Published As

Publication number Publication date
JP2004297448A (en) 2004-10-21

Similar Documents

Publication Publication Date Title
US20220132036A1 (en) Display Control Apparatus, Display Control Method, And Program
EP3134829B1 (en) Selecting time-distributed panoramic images for display
US20180343442A1 (en) Video display method and video display device
JP5111627B2 (en) Video processing apparatus and video processing method
US20110191611A1 (en) Mobile communication terminal and method for displaying icons on display of mobile communication terminal
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
WO2016002130A1 (en) Image pickup method, image pickup system, terminal device and server
US20100097483A1 (en) Data processing apparatus and method, and recording medium
EP3040850A1 (en) Methods and apparatuses for directional view in panoramic content
US10110817B2 (en) Image processing device and method, and program for correcting an imaging direction
JP2012212343A (en) Display control device, display control method, and program
US20140147021A1 (en) Method and apparatus for facilitating interaction with an object viewable via a display
JP6090173B2 (en) Information processing apparatus, information processing method, and program
KR101968977B1 (en) Cartoon providing system, cartoon providing device and cartoon providing method
EP2816564A1 (en) Method and apparatus for smart video rendering
US20140133837A1 (en) Video remixing system
CN102955664A (en) Method and system for electronic book display adjustment
US9529510B2 (en) Determination of share video information
CN108024073B (en) Video editing method and device and intelligent mobile terminal
US9851870B2 (en) Multi-dimensional video navigation system and method using interactive map paths
JP7427747B2 (en) Video display device and video display method
JP4103652B2 (en) Information superimposed display device, information superimposed display method, and information superimposed display program
KR20150047694A (en) Electronic device and method for providing advertisement data in electronic device
US20180101938A1 (en) Method, device, and recording medium for processing image
KR20180095324A (en) Glass type mobile device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060216

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees