JP5127981B2 - オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 - Google Patents
オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 Download PDFInfo
- Publication number
- JP5127981B2 JP5127981B2 JP2011500370A JP2011500370A JP5127981B2 JP 5127981 B2 JP5127981 B2 JP 5127981B2 JP 2011500370 A JP2011500370 A JP 2011500370A JP 2011500370 A JP2011500370 A JP 2011500370A JP 5127981 B2 JP5127981 B2 JP 5127981B2
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- determination
- unit
- predicted
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000010187 selection method Methods 0.000 title claims description 10
- 238000004458 analytical method Methods 0.000 claims description 97
- 238000000034 method Methods 0.000 claims description 76
- 238000012545 processing Methods 0.000 claims description 58
- 230000008569 process Effects 0.000 claims description 37
- 230000033001 locomotion Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 7
- 230000003466 anti-cipated effect Effects 0.000 abstract 3
- 238000010586 diagram Methods 0.000 description 36
- 238000012986 modification Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003252 repetitive effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Analytical Chemistry (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】
本発明は、ポインティングデバイス等を用いて、ユーザに映像中のオブジェクトを選択させる機能を備えるオブジェクト選択装置に関し、より特定的には、移動するオブジェクトの選択を容易にするための技術に関する。
【背景技術】
【0002】
近年、デジタルテレビなどの放送された映像を表示する機器において、画面上に表示された映像中のオブジェクトを、タッチパネルやマウスなどのポインティングデバイスを用いてユーザに選択させ、選択されたオブジェクトに関連する情報をデータベースから検索し、検索された情報を表示する等の利便性の高い機能が注目されている。
【0003】
このような機能を備える従来の装置が、特許文献1に開示されている。特許文献1においては、情報閲覧装置103は、TV放送の映像を表示し、ユーザがマウス等により映像上の所望の位置や範囲を指定すると、指定された位置と範囲から、画面位置、及び画面範囲の情報を得、またTVチューナからチャンネル番号、及び放送時刻等の情報を得、これらの情報を情報検索装置109へ送信する。一方情報検索装置109は、情報閲覧装置103から受け取ったこれらの情報に基づき、データベース111から関連情報を検索して、情報閲覧装置103に送信する。情報閲覧装置103は、受け取った関連情報を表示する。
【0004】
ここで、選択対象のオブジェクトがすばやく移動するような場合には、ユーザがそのオブジェクトの動きに追随できず、所望するオブジェクトを選択することが難しくなるという問題がある。
【0005】
このような問題に対処する従来の装置が、特許文献2に開示されている。特許文献2においては、ユーザがオブジェクトを選択しようとタッチパネルを操作した時刻よりも、少し過去の範囲も検索対象にするので、ユーザがオブジェクトの動きに対して遅れて操作しても、ユーザはオブジェクトを選択することができる。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】
特開2002−334092号公報
【特許文献2】
特開2005−94788号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、前記特許文献2の選択方法では、ユーザが、オブジェクトの動きにわざと追随せずに、オブジェクトが移動した後の何もない位置を意図的に選択しなければオブジェクトを選択することができないため、このような特殊な選択方法を憶えなければ使えないという制約がある。また、この選択方法には時間的なズレがあるため、ユーザに違和感を与えてしまうので、違和感無く感覚的に使うことができないという問題がある。
【0008】
それ故に、本発明の目的は、画面に表示された映像中のオブジェクトをユーザに選択させるオブジェクト選択装置において、選択対象のオブジェクトが移動する場合に、ユーザが違和感無く感覚的に、所望するオブジェクトを選択することができるオブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法を提供することである。
【課題を解決するための手段】
【0009】
本発明は、オブジェクト選択装置に向けられている。そして上記課題を解決するために、本発明のオブジェクト選択装置は、動画中のオブジェクトをユーザに選択させるオブジェクト選択装置であって、外部の表示装置に動画を表示させる映像処理部と、映像処理部によって表示させた動画のデータを記憶する記憶部と、前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力部と、入力部によって入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析部と、記憶部によって記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析部と、オブジェクト別に、入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、当該所定時間以後にユーザが予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析部によって生成された位置情報により示される操作位置とが近接する場合に、当該オブジェクトを、ユーザにより選択されたものと判定する判定部とを備える。
【0010】
好ましくは、前記判定部は、オブジェクト別に、前記一定期間における軌道情報に基づく各オブジェクトの軌道を直線近似して近似直線を生成し、当該近似直線を当該オブジェクトの移動方向に伸延し、伸延した部分を前記予測軌道とする。
【0011】
好ましくは、前記判定部は、オブジェクト別に、前記近似直線と、当該軌道履歴における個々の位置との距離が所定の限度値を越えるか否かを判定し、当該限度値を越えない場合に限り、当該近似直線に基づいて前記予測軌道を推定する。
【0012】
好ましくは、前記判定部は、オブジェクト別に、前記限度値を越える場合には、前記一定期間における軌道情報に基づいて、当該オブジェクトの近似曲線を算出し、当該近似曲線を当該オブジェクトの移動方向に伸延し、伸延した部分を前記予測軌道とする。
【0013】
好ましくは、前記判定部は、オブジェクト別に、前記限度値を越える場合には、前記一定期間における軌道情報に基づいて、当該オブジェクトの近似曲線を算出し、当該近似曲線を当該オブジェクトの移動方向に、当該近似曲線と同等の曲がり具合で伸延し、伸延した部分を前記予測軌道とする。
【0014】
好ましくは、前記判定部は、オブジェクト別に、前記限度値を越える場合には、前記一定期間における軌道情報に基づいて、当該オブジェクトの移動パターンを検出し、当該移動パターンに基づいて、前記所定時間以後の当該オブジェクトの軌道を予想し、予測した軌道を前記予測軌道とする。
【0015】
好ましくは、前記判定部は、オブジェクト別に、前記一定期間における軌道情報に基づいて、当該オブジェクトの移動速度を算出し、当該オブジェクトを前記所定時間前の時点の位置から、当該移動速度に基づいて速度を一定に保ちながら、当該所定時間分だけ移動させた位置を、前記予測位置とする。
【0016】
好ましくは、前記判定部は、オブジェクト別に、前記一定期間における軌道情報に基づいて、当該オブジェクトの速度の変化率を算出し、当該オブジェクトを前記所定時間前の時点の位置から、当該速度の変化率に基づいて速度を変化させながら、当該所定時間分だけ移動させた位置を、前記予測位置とする。
【0017】
好ましくは、当該オブジェクト選択装置は、さらに、前記判定部により、1つ、又は複数のオブジェクトが、ユーザにより指示されたものと判定された場合に、選択候補のオブジェクトを提示して、当該ユーザに、当該1つ、又は複数のオブジェクトの選択を即す提示部と、提示部によって提示された1つ、又は複数のオブジェクトの中から、ユーザによるオブジェクトの選択を受け付ける選択受付部と、選択受付部によって選択が受け付けられたオブジェクトに関する所定の処理を実行し、当該処理の結果を、前記外部の表示装置に表示させる実行部とを供える。
【0018】
本発明は、オブジェクト選択装置におけるプログラムに向けられている。そして上記課題を解決するために、本発明のオブジェクト選択装置におけるプログラムは、動画中のオブジェクトをユーザに選択させるオブジェクト選択装置により実行されるプログラムであって、前記オブジェクト選択装置に、外部の表示装置に動画を表示させる映像処理ステップと、映像処理ステップにより表示させた動画のデータを記憶する記憶ステップと、前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力ステップと、入力ステップにより入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析ステップと、記憶ステップにより記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析ステップと、オブジェクト別に、入力解析ステップにより出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、当該所定時間以後にユーザが予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析ステップにより生成された位置情報により示される操作位置とが近接する場合に、当該オブジェクトを、ユーザにより選択されたものと判定する判定ステップとを実行させる。
【0019】
本発明は、オブジェクト選択装置に用いられる集積回路に向けられている。そして上記課題を解決するために、本発明のオブジェクト選択装置に用いられる集積回路は、動画中のオブジェクトをユーザに選択させるオブジェクト選択装置に用いられる集積回路であって、外部の表示装置に動画を表示させる映像処理部と、映像処理部によって表示させた動画のデータを記憶する記憶部、前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力部、入力部によって入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析部、記憶部によって記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析部、及び、オブジェクト別に、入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、当該所定時間以後にユーザが予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析部によって生成された位置情報により示される操作位置とが近接する場合に、当該オブジェクトを、ユーザにより選択されたものと判定する判定部として機能する回路を集積する。
【0020】
本発明は、オブジェクト選択方法に向けられている。そして上記課題を解決するために、本発明のオブジェクト選択方法は、動画中のオブジェクトをユーザに選択させるオブジェクト選択装置におけるオブジェクト選択方法であって、前記オブジェクト選択装置に、外部の表示装置に動画を表示させる映像処理ステップと、映像処理ステップにより表示させた動画のデータを記憶する記憶ステップと、前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力ステップと、入力ステップにより入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析ステップと、記憶ステップにより記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析ステップと、オブジェクト別に、入力解析ステップにより出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、当該所定時間以後にユーザが予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析ステップにより生成された位置情報により示される操作位置とが近接する場合に、当該オブジェクトを、ユーザにより選択されたものと判定する判定ステップとを含む。
【発明の効果】
【0021】
以上のように、本発明においては、画面に表示された映像中のオブジェクトをユーザに選択させるオブジェクト選択装置において、選択対象のオブジェクトが画面内を移動する場合に、ユーザの入力操作を受け付け、受付時刻の所定時間前の時点からさらに過去にさかのぼった一定期間における軌道情報に基づいて各オブジェクトの予測軌道を推定し、予測軌道上の受付時刻に対応する予測位置と操作位置とが近接する場合に、該当するオブジェクトを、ユーザにより指示されたものと判定することができる。よって、オブジェクトの過去の軌跡を見たユーザが予測するであろうオブジェクトの位置を推測して、ユーザによる入力操作時の実際のオブジェクトの位置に関係なく、ユーザが選択したかったオブジェクトを正しく選択することが可能となる。
【図面の簡単な説明】
【0022】
【図1】第1の実施形態に係るオブジェクト選択実行システム1の概略を示す図
【図2】入力解析部15により生成され管理される入力位置情報と入力時刻情報との組の例を示す図
【図3】映像解析部16により生成されるオブジェクト軌跡情報の一例を示す図
【図4】(a)は図3に一例として示した「車A」のオブジェクトの軌跡の概略を示す図であり、(b)は図3に一例として示した「車B」のオブジェクトの軌跡の概略を示す図
【図5】本実施形態のオブジェクト選択実行システム1におけるオブジェクト選択処理の動作手順を示す図
【図6】判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図
【図7】オブジェクトの軌跡を直線近似する際の概略を説明するための図
【図8】オブジェクトの軌跡を直線近似する際の概略を説明するための図
【図9】オブジェクトの軌跡を直線近似する際の概略を説明するための図
【図10】オブジェクトの軌跡を直線近似する際の概略を説明するための図
【図11】判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図の前半
【図12】判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図の後半
【図13】オブジェクトの軌跡を曲線近似する際の概略を説明するための図
【図14】オブジェクトの軌跡を曲線近似する際の概略を説明するための図
【図15】オブジェクトの軌跡を曲線近似する際の概略を説明するための図
【図16】オブジェクトの軌跡を曲線近似する際の概略を説明するための図
【図17】判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図の前半
【図18】判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図の後半
【図19】オブジェクト軌跡から移動パターンを検出する際の概略を説明するための図
【図20】第2の実施形態に係るオブジェクト選択実行システム2の概略を示す図
【図21】本実施形態のオブジェクト選択実行システム2におけるオブジェクト選択処理の動作手順を示す図
【図22】ユーザが車Aの動作を予測してタッチパネルを触ったときの様子を示す図
【発明を実施するための形態】
【0023】
[第1の実施形態]
<概要>
本実施形態は、画面に表示された映像中のオブジェクトをユーザに選択させ、選択されたオブジェクトに関する情報を検索して表示する等の所定の処理を実行するシステムにおいて、選択対象のオブジェクトが画面内を移動する場合に、ユーザが画面内の任意の位置を、マウスでクリックする等して指示すると、入力以前の所定期間のオブジェクトの軌道に基づいて、入力時にユーザが過去の軌跡から予測するであろうオブジェクトの存在位置を推定し、ユーザが指示した位置と推定した存在位置とが一致するオブジェクトを選択する。これにより、ユーザは、違和感無く感覚的に、所望するオブジェクトを選択することができる。
【0024】
<構成>
図1は、第1の実施形態に係るオブジェクト選択実行システム1の概略を示す図である。
図1に示すオブジェクト選択実行システム1は、オブジェクト選択装置10、及び表示装置19から構成される。
図1に示すように、オブジェクト選択装置10は、表示装置19の画面上に表示された映像中のオブジェクトをユーザに選択させ、選択されたオブジェクトに関する所定の処理を実行する装置であり、映像入手部11、映像処理部12、映像記憶部13、操作入力部14、入力解析部15、映像解析部16、判定部17、実行部18、及び表示装置19と接続するためのインタフェース(不図示)を備えている。
【0025】
ここで、オブジェクト選択装置10は、本実施形態の機能のみを備える専用機器であってもよいし、例えば、携帯電話や携帯情報端末等の通信機能を備えるモバイル機器、デジタルカメラやビデオカメラなどの撮影機器、放送波を受像して再生表示するテレビ受像機、及びパーソナルコンピュータ等の情報機器等の他の機器が備える機能を合わせ持つ複合機器であってもよい。
表示装置19は、液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ等の表示デバイスであり、インタフェースによりオブジェクト選択装置10と接続されて、動画を表示したり、ポインティングデバイスのポインタ等を表示する。
【0026】
映像入手部11は、放送波によって受信したり、DVDなどのパッケージメディアから読み出された映像コンテンツを入手する。
映像処理部12は、映像入手部11によって入手された映像コンテンツを必要に応じてデコードし、表示装置19が表示できるフォーマットである映像データに変換し、これを表示装置19へ出力して、表示装置19に動画を表示させる。また、映像処理部12は、表示装置19へ出力した映像データを、映像記憶部13へ出力して記憶させる。
表示装置19に表示される動画は、テレビなどの放送される番組の画像、ビデオやDVDなどのパッケージメディアの再生画像、ネットワークを通じでダウンロードされるデータの再生画像、あるいはプログラムで制御される画像などであり、オブジェクトが画面上を移動するような画像であれば何であってもよい。なお、表示装置19に表示される動画はビデオカメラ等からのリアルタイム入力に基づく生映像であってもよい。
【0027】
ここで映像入手部11により入手される映像コンテンツには、当該映像コンテンツにより得られる画像中のオブジェクトの位置情報と、画像の再生時の時刻とが対応付けられているメタ情報が付加されている。なお、メタ情報は、必ずしも映像コンテンツに直接付加しなくてもよいので、例えば映像コンテンツのパッケージに映像コンテンツとは別に組み込むこともできるし、別途ネットワークからダウンロードすることもできる。
映像記憶部13は、映像処理部12から出力された映像データを一時的に記憶し、映像処理部12が表示装置19に映像データを映像として表示した後も、少なくとも映像解析部16により使用される可能性がある所定時間分の映像データを保持する。
【0028】
操作入力部14は、タッチパネルやマウスなどのポインティングデバイスを接続する接続インタフェースを備え、接続されたポインティングデバイスを用いて、表示装置19に表示されている動画内の任意の1つのオブジェクトの表示位置をユーザが指示しようと試みる入力操作を受け付けて、当該入力操作に係る操作情報と座標を示す入力位置情報とを入力解析部15に通知する。具体的には、例えば、ユーザがタッチパネルに触れた時、あるいはマウスのボタンを押した時に、入力開始を示す操作情報「プッシュ(Push)」とその操作時刻を通知し、ユーザがタッチパネルから指を離した時、あるいはマウスのボタンを離した時に、入力終了を示す操作情報「リリース(Release)」を通知し、また少なくともユーザがタッチパネルに触れている間、あるいはマウスのボタンを押している間に、ユーザが触れている座標を示す入力位置情報、あるいはポインタが表示されている座標を示す入力位置情報を逐次通知する。
【0029】
入力解析部15は、操作入力部14から操作情報と入力位置情報とを受け取り、操作情報「プッシュ」を受け取ってから、操作情報「リリース」を受け取るまでの間に、所定のサンプリング間隔で、受け取った入力位置情報と受け取った時の時刻を示す入力時刻情報との組を生成し、管理する。本実施形態ではサンプリング間隔を0.1秒とする。また、入力解析部15は、生成した組が複数ある場合に、各々の入力位置情報が所定の比較的狭い範囲以内であるか否かを判定し、当該範囲以内である場合に略同一位置がユーザに指示されたものと判断して、代表的な1つの組(例えば入力時刻情報が最も早い時刻を示す組)を選択する、あるいは複数の組の入力位置情報と入力時刻情報とを平均する等の方法により1つの組に統合する。また、生成した組が複数あり、かつ当該範囲以内でない場合には、略同一位置ではないと判断して1つの組には統合しない。
【0030】
図2(a)〜(c)は、入力解析部15により生成され管理される入力位置情報と入力時刻情報との組の例を示す図である。ここで、「時刻」の欄の記載は、左から各2個の数字がそれぞれ、時、分、秒、1/100秒に対応し、表示中の映像の再生開始時刻を基準とする相対的な時刻を示す。例えば「00:01:06:10」は0時1分6秒10に対応する。なお「時刻」の欄に記載した入力時刻情報には、システムで一意の時刻を用いてもよい。
また「x」の欄の記載は画像の左端をゼロとし、右端を1280としたときの左右方向の座標値を示し、「y」の欄の記載は画像の下端をゼロとし上端を960としたときの上下方向の座標値を示す。
【0031】
図2(a)に示すように、例えば、ユーザがマウスで素早く1回クリックしたり、タッチパネルでタップしたことにより、組が1つだけ生成された場合には、この組がそのまま利用される。図2(b)は、例えば、ユーザがマウスでゆっくり1回クリックしたり、タッチパネルで一箇所に触れ一定時間後に手を離したことにより、組が複数生成され、かつ各々の入力位置情報が所定の比較的狭い範囲以内の場合であり、ここでは、「x」及び「y」の座標値のばらつきが、両方とも所定の比較的狭い範囲である「50」以内に入っているので略同一位置であると判断されて、図2(a)に示すような1つの組に統合される。図2(c)は、例えば、ユーザがマウスでドラッグしたり、タッチパネルでスライド操作を行い一定時間後に手を離したことにより、組が複数生成され、かつ各々の入力位置情報が所定の比較的狭い範囲以内でない場合であり、ここでは、「x」及び「y」の座標値のばらつきが、所定の比較的狭い範囲である「50」以内に入っていないので、略同一位置でないと判断されて1つの組には統合されないで、これら組がそのまま利用される。
【0032】
入力解析部15によって生成された1つ、又は複数の入力位置情報と入力時刻情報との組は、判定部17へと渡される。また、入力解析部15は、有効な入力が得られた後に、映像解析部16へ処理開始を指示する。なお、この指示を行う際に、映像解析部16における処理を必要とする時間的な範囲を正確に特定にするために、ここで生成した入力時刻情報を添付してもよい。また、映像解析部16への処理開始の指示は、入力解析部15ではなく、操作入力部14や判定部17等の他の構成要素が与えることとしてもよい。
【0033】
映像解析部16は、処理開始の指示を契機として、既に表示された過去の所定時間分の映像データを映像記憶部13から読み出し、この映像データからユーザが選択可能なオブジェクトを1つ又は複数個抽出し、抽出した各オブジェクトの軌跡を示すオブジェクト軌跡情報を生成する。ここで、オブジェクト軌跡情報とは、時系列に各オブジェクトの位置を示す時系列データであり、具体的には、オブジェクト毎の、所定のサンプリング間隔毎の時刻情報であるオブジェクト時刻情報と、各々の時刻にオブジェクトが表示されている位置を示すオブジェクト位置情報との組の集まりである。
【0034】
より詳細には、映像解析部16は、まず映像データの解析を行い、映像コンテンツに付加されているメタ情報から、映像データ中の各オブジェクトを抽出し、抽出したオブジェクト毎のオブジェクト位置情報とオブジェクト時間情報とを取得する。また、映像解析部16は、例えば、認識対象となるオブジェクトの情報を予め保持しておき、画像認識処理により画像からパターンマッチングするなどして、画像中のオブジェクトを抽出することもできる。
【0035】
図3(a)〜(c)は、映像解析部16により生成されるオブジェクト軌跡情報の一例を示す図である。
図3(a)において、オブジェクトが「車A」と「車B」の二つあり、各オブジェクトに対応してそれぞれ図3(b)及び図3(c)のテーブルアドレスが保持され、当該各テーブルアドレスにより示される記憶領域にオブジェクト軌跡情報が保持されている。またここで、「時刻」の欄、「x」の欄、及び「y」の欄の記載の意味は、図2と同様である。
図4(a)は図3に一例として示した「車A」のオブジェクトの軌跡の概略を示す図であり、図4(b)は図3に一例として示した「車B」のオブジェクトの軌跡の概略を示す図である。
映像解析部16により生成されたオブジェクト軌跡情報は、判定部17に渡される。またオブジェクト軌跡情報が生成できない等により存在しない場合には、判定部17にその旨が通知される。
【0036】
判定部17は、入力解析部15から渡された1つ、又は複数の入力位置情報と入力時刻情報との組と、映像解析部16から渡されたオブジェクト軌跡情報とに基づいて、いくつかの判定アルゴリズムを単独、あるいは組合せで用いて、予測軌跡判定を行い、ユーザが選択しようとしたオブジェクトを特定し、判定結果を実行部18に渡す。
例えば一つの判定アルゴリズムは、オブジェクト別に、映像解析部16から渡されたオブジェクト軌跡情報に基づいて、オブジェクトが実際に動いた過去の軌跡と、入力解析部15から渡された入力位置情報とを比較し、それらの距離が所定以内である近接するオブジェクトを、ユーザにより指示されたものであると特定する。
【0037】
例えば別の一つの判定アルゴリズムは、オブジェクト別に、映像解析部16から渡されたオブジェクト軌跡情報中の、入力解析部15から渡された入力時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間におけるオブジェクト軌跡情報に基づいて、ユーザが当該受付時刻近辺において表示されていると予測するであろう各オブジェクトの予測軌道を推定する。そして、この予測軌道と、入力解析部15から渡された入力位置情報とを比較し、それらの距離が所定以内である近接するオブジェクトを、ユーザにより指示されたものであると特定する。
予測軌道を推定する方法については別途以下に詳細に記載する。
【0038】
ここで複数のオブジェクトが選択対象の条件を満たすと判定された場合には、予め各オブジェクトに優先度を付けておき、優先度が一番高いオブジェクトを1つ選択してもよいし、優先度が高い順に3つなど、複数選択してもよい。また、選択対象の条件を満たすオブジェクトの全てを実行部18に渡してもよい。また、ここで、優先度ではなく、選択対象の条件に基づいて一致度を計算し、より一致度が高いオブジェクトを1つないし複数選択してもよい。
【0039】
実行部18は、判定結果を受け取ると、判定部17によってユーザが選択しようとしたと判定されたオブジェクトに関する処理を実行する。例えば実行部18は、当該オブジェクトの色を変更する、当該オブジェクトを点滅させる、当該オブジェクトのサイズを変更するなど、オブジェクトに視覚的な変更を行うことを映像処理部12に指示する。また、例えば実行部18は、当該オブジェクトに予め関連付けられたアドレス情報を用いて、ネットワークにアクセスして、外部から当該オブジェクトに関連する関連情報の取得を行い、さらに当該関連情報を表示装置19に表示させることを外部の機器や映像処理部12に指示する。また、例えば実行部18は、選択されたオブジェクトに関連付けられたプログラムを実行する。また、表示装置19に表示させる情報は、オブジェクトの情報を文字データで直接記載した物でもよいし、オブジェクトの詳細情報が得られるURLであってもよい。ユーザは、表示装置19に表示されたURLが示す情報にアクセスすることで、オブジェクトに関するより詳細な情報を得ることができる。なお、実行部18は外部の別の装置であってもよい。
【0040】
<動作>
図5は、本実施形態のオブジェクト選択実行システム1におけるオブジェクト選択処理の動作手順を示す図である。
(1)ユーザからの視聴指示の操作等の、動画の表示を指示するイベントが発生するまで待つ(ステップS1)。
(2)動画の表示を指示するイベントが発生すると(ステップS1:Yes)、映像処理部12が、生成した映像データを表示装置19に出力して、表示装置19に動画を表示させる(ステップS2)。
(3)表示装置19による動画の表示が終了したか否かを判断する(ステップS3)。表示装置19による動画の表示が終了している場合には、動画の表示を指示するイベントの発生待ち(ステップS1)に戻る。
【0041】
(4)表示装置19による動画の表示が終了していない場合には(ステップS3:No)、入力解析部15が、操作入力部14から入力操作情報「プッシュ(Push)」を受け取るまで待つ(ステップS4)。
(5)入力解析部15が、操作入力部14から操作情報「プッシュ(Push)」を受け取ると(ステップS4:Yes)、続いて操作入力部14から入力位置情報を受け取り、入力時刻情報を付加して記憶する(ステップS5)。
(6)入力解析部15が、操作入力部14から操作情報「リリース(Release)」を受け取るまで待つ(ステップS6)。
【0042】
(7)操作情報「リリース(Release)」を受け取っていない場合は(ステップS6:No)、サンプリング間隔が経過したか否かを判断する(ステップS7)。
(8)操作情報「リリース(Release)」を受け取らないまま、サンプリング間隔が経過すると(ステップS7:Yes)、入力解析部15が、操作入力部14から入力位置情報を受け取り、入力時刻情報を付加して記憶する(ステップS8)。
(9)タイムアウトしたか否かを判定する(ステップS9)。本実施形態ではタイムアウトの時間を2秒とする。なお、ここでタイムアウトを判定せずに、生成した組の個数をカウントして、所定の個数が得られたか否かを判定してもよい。ここでは所定の個数を20個とする。またタイムアウトの判定も個数の判定も設けない構成であってもよい。
【0043】
(10)操作情報「リリース(Release)」を受け取るか(ステップS6:Yes)、タイムアウトした場合に(ステップS9:Yes)、入力解析部15が、生成した組が複数あるか否かを判断する(ステップS10)。
(11)生成した組が複数ある場合には(ステップS10:Yes)、入力解析部15が、各々の入力位置情報が所定の比較的狭い範囲以内であるか否かを判定する(ステップS11)。本実施形態では座標値がxy方向とも「50」以内に入っているか否かを判定する。
(12)各々の入力位置情報が所定の比較的狭い範囲以内である場合には(ステップS11:Yes)、入力解析部15が、1つの組に統合する(ステップS12)。本実施形態で時間的に最も早い組のみを残し、他の組を削除する。
【0044】
(13)入力解析部15が、生成した1つ、又は複数の入力位置情報と入力時刻情報との組を判定部17へと渡し、映像解析部16へ処理開始を指示する(ステップS13)。なお、映像解析部16への処理開始の指示には、ここで生成した入力時刻情報が添付されているものとする。
(14)映像解析部16が処理開始の指示を受けると、表示済の動画に対応する映像データを映像記憶部13から取得して解析を開始する。より詳細には、映像解析部16が、指示に添付された入力時刻情報が示す時刻の所定時間前の時点から、さらに過去へさかのぼった一定期間における各オブジェクトの軌道を示すオブジェクト軌跡情報を、映像入手部11により入手された映像コンテンツに付加されているメタ情報から取得して判定部17に渡す。またオブジェクト軌跡情報が存在しない場合には、判定部17にその旨を通知する(ステップS14)。本実施形態では、入力時刻情報が示す時刻の0.5秒前の時点から、さらに過去へ1秒さかのぼった1秒間における各オブジェクト毎のオブジェクト軌跡情報を取得して判定部17に渡す。
【0045】
(15)判定部17が、入力解析部15から渡された1つ、又は複数の入力位置情報と入力時刻情報との組と、映像解析部16から渡されたオブジェクト軌跡情報とに基づいて、いくつかの判定アルゴリズムを単独、あるいは組合せて用いて、予測軌跡判定を行い、ユーザが選択しようとしたオブジェクトを特定し、判定結果を実行部18に渡す(ステップS15)。ここで、映像解析部16からオブジェクト軌跡情報が存在しない旨の通知を受けた場合には、ここでは何もしない。
(16)ユーザが選択しようとしたオブジェクトが1つでも決定されているか否かを判断する(ステップS16)。
(17)オブジェクトが1つでも特定されている場合(ステップS16:Yes)には、実行部18が、判定部17によって決定されたオブジェクトに関する処理を実行する(ステップS17)。
(18)オブジェクトが1つも特定されていない場合には(ステップS16:No)、エラーメッセージ等を表示して、オブジェクトの特定に失敗した旨の表示を行う(ステップS18)。
【0046】
<予測軌道を推定する方法1の詳細な説明>
以下に、判定部17における予測軌道を推定する方法1について説明する。
予測軌道を推定する方法1では、過去のオブジェクト軌跡情報から近似直線を算出し、この近似直線をオブジェクトの移動方向に伸張し、伸張した部分を予測軌道とする。
図6は、判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図であり、図5に示したオブジェクト選択処理の動作手順におけるステップS15のサブルーチンに相当する。
【0047】
(1)未処理のオブジェクトがあるか否かを判定する(ステップS21)。
(2)未処理のオブジェクトがある場合には、判定部17が、未処理のオブジェクトのうちの1つを処理対象とする(ステップS22)。
(3)過去のオブジェクト軌跡情報から近似直線を算出する(ステップS23)。
ここでは、入力時刻情報により示される受付時刻よりも少し前の時点からさらに過去にさかのぼった一定期間を対象に、近似直線を算出する。本実施形態では、受付時刻よりも0.5秒前の時点からさらに1秒さかのぼった、1.5秒前から0.5秒前までの1秒間を対象に近似直線を算出する。なお、この1秒間におけるオブジェクトの動きが大きすぎるときにはうまく直線近似ができない可能性が高いので、X方向、およびY方向のいずれか一方の移動量が例えば座標値「500」を越える場合には、この座標値「500」の範囲内を対象に、近似直線を算出してもよい。
【0048】
図7〜10は、オブジェクトの軌跡を直線近似する際の概略を説明するための図である。
図7に示すように、算出対象の期間におけるオブジェクト軌跡情報が、点「P0,P1, ... ,Pn」により構成されているものとする。そこで、これらの座標値「(x0,y0),(x1,y1), ... ,(xn,yn)」から最小2乗法を用いて近似直線「y=ax+b」を求める。ここでa,bは定数である。
ここで最小2乗法とは、個々の近似値と測定値との誤差の2乗の総和が最小になるような近似直線を求めるものである。
従って、近似直線を「y=ax+b」とすると、近似直線「y=ax+b」は、
【0049】
【数1】
【0050】
が最小となるときのa、bの値を求めることにより算出される。
ここで(式1)はa,bを変数とする多変数関数である。
多変数関数には、その全ての偏微分係数が同時に0になる時に最小値をとるという性質があり、この性質を利用してこれを解くことができる。まず、a、bによる偏微分を行い、これらに測定値を代入することにより、近似直線の係数を求める連立方程式を作成する。そして、この連立方程式を行列計算などを用いて解けば、a、bを求めることができ、図8に示すような近似直線「y=ax+b」が得られる。
(4)図9に示すように、各構成の点から、近似直線「y=ax+b」上に垂線を下ろし、各構成の点を近似直線上の点「P’0(x’0,y’0),P’1(x’1,y’1), ... ,P’n(x’n,y’n)」に置き換え、近似直線の有効範囲(P’0〜P’n)を特定し、近似直線上のオブジェクトの速度を算出する(ステップS24)。例えば、平均速度を算出するのであれば、受付時刻よりも0.5秒前の点に相当する座標値(x’10、y’10)と、受付時刻よりも1.5秒前の点に相当する座標値(x’0、y’0)との差分をとり(x’10−x’0、y’10−y’0)、これをx、y成分について二乗平均して経過時間(ここでは1,5秒−0.5秒=1秒)で割ると秒速が得られる(以下の式2)。
√{(x’10−x’0)2+(y’10−y’0)2}/1 [ドット/秒(dot/s)]
・・・(式2)
【0051】
(5)図10に示すように、上で求めた近似直線の有効範囲(P’0〜P’n)から、オブジェクトの移動方向にまっすぐ伸張した部分を予測軌道(図中太線)とし、上で求めた速度を用いて、受付時刻に対応する予測軌道上の座標値(X、Y)を算出する(ステップS25)。例えば、受付時刻よりも0.5秒前の点に相当する予測軌道上の点と受付時刻の点に相当する予測軌道上の点との距離は、上記差分(x’10−x’0、y’10−y’0)の丁度半分に相当するので、受付時刻に対応する予測軌道上の座標値は以下の(式3)により算出される。
(x’10+(x’10−x’0)/2、y’10+(y’10−y’0)/2)
・・・(式3)
なお、ステップS24においてオブジェクトの速度を算出する際に、近似直線の有効範囲を複数の区間に分割して、それぞれの区間について速度を計算し、計算したそれぞれの速度から速度の変化率を算出し、ステップS25において受付時刻に対応する座標値を算出する際に、ステップS24において算出した速度の変化率を用いて、速度を変化させながら所定時間分だけ移動させた位置を予測位置としてもよい。
【0052】
(6)算出した受付時刻の点に相当する予測軌道上の座標値と、入力解析部15から渡された入力位置情報とを比較し、これらの距離が所定以内であるか否かを判定して、これらが近接するか否かを判断する(ステップS26)。例えば、これらの直線距離が1つでも座標値で50以内であれば所定以内であると判断する。
(7)所定以内である場合には(ステップS26:Yes)、処理対象のオブジェクトをユーザにより指示されたものの候補とし、次のオブジェクトに対する処理(ステップS21)へ行く(ステップS27)。
【0053】
所定以内でない場合には(ステップS26:No)、何もせずに次のオブジェクトに対する処理(ステップS21)へ行く。
(8)全てのオブジェクトに対する処理が終了すると(ステップS21:No)、ユーザにより指示されたものの候補のオブジェクトの情報が判定結果として実行部18に渡され、実行部18が、候補のオブジェクトに関する処理を実行する(ステップS28)。ここで、候補とされたオブジェクトが1つの場合には、そのままその1つのオブジェクトに関する処理を実行する。候補とされたオブジェクトが複数ある場合には、その複数の全てのオブジェクトに関する処理を実行してもよいし、また入力位置により近いものから順にオブジェクトの画像と共に表示するなどして、ユーザに選択させてもよい。
【0054】
なお、本実施形態では、算出した近似直線が、どの程度実際のオブジェクトの軌跡と近似しているかを評価することなく、常に算出した近似直線を用いて予測軌道を推定しているが、算出した近似直線と実際のオブジェクトの軌跡との類似度を評価して、評価結果がある程度より良い場合にのみ予測軌道の推定を行うようにしてもよい。例えば、算出した近似直線と、過去のオブジェクト軌跡情報における個々のオブジェクトの位置との距離が所定の限度値を越えるか否かを判定し、1つも限度値を越えない場合、あるいは平均値が限度値を越えない場合等に限り、近似直線に基づいて予測軌道を推定するようにしてもよい。
【0055】
[第1の変形例]
本変形例は、第1の実施形態の判定部17における予測軌道の推定、及び、当該予測軌道の推定を含む判定アルゴリズムの他の例である。
<予測軌道を推定する方法2の詳細な説明>
以下に、判定部17における予測軌道を推定する方法2について説明する。
予測軌道を推定する方法2では、過去のオブジェクト軌跡情報から近似直線を算出し、この近似直線の有効性を評価して、有効と判断された場合にのみ、上記第1の実施形態における方法1と同様に、この近似直線をオブジェクトの移動方向にまっすぐそのまま延長し、延長した部分を予測軌道とする。また有効と判断されなかった場合には、過去のオブジェクト軌跡情報から近似曲線を算出し、この近似曲線をオブジェクトの移動方向に延長し、延長した部分を予測軌道とする。
【0056】
また、第1の変形例では、上記判定アルゴリズムにおいて、予測軌道判定を行う前に、過去のオブジェクトの軌跡による過去軌跡判定を行い、該当するオブジェクトが見つからない場合に、近似直線による予測軌道判定を行い、さらに、近似曲線による予測軌道判定を行う。
図11、12は、判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図であり、図5に示したオブジェクト選択処理の動作手順におけるステップS15のサブルーチンに相当する。なお、第1の実施形態の図6と同様の処理を行うステップには同一番号を付し、その詳細な説明を省略する。
【0057】
(1)〜(2)図6の(1)〜(2)と同様の処理を行う(ステップS21〜ステップS22)。
(3)過去のオブジェクト軌跡情報と、入力解析部15から渡された入力位置情報とを比較し、過去のオブジェクトの軌跡と入力位置との距離から、当該オブジェクトの近似度を示す点数を算出する(ステップS31)。例えば、複数の過去のオブジェクトの位置と、1つ又は複数の入力位置とを総当りで各距離を算出し、オブジェクトaについて、最も近い距離をZaとするとき、このときの近似度Paを、
Pa=100/(Za+1) ・・・(式4)
で表す。
(式4)によれば、近似度を示す点数は、過去のオブジェクトの位置と入力位置とが遠いほど0点に近づき、近いほど100点に近づく。
【0058】
あるいは、(式4)に、さらに時間的要素を追加することもできる。
例えば、入力時刻情報により示される時刻をT0、オブジェクトaが最も近い距離Zaであるときの時刻をTaとするとき、このときの近似度Paを、
Pa=(100/(Za+1))/(|Ta−T0|+1) ・・・(式5)
で表す。
(式5)によれば、近似度を示す点数は、過去のオブジェクトの位置及び時刻と入力位置及び時刻とが遠いほど0点に近づき、近いほど100点に近づく。
【0059】
(4)算出した近似度と上位閾値とを比較して、当該オブジェクトの過去の軌跡と入力位置とが近接するか否かを判断する(ステップS32)。例えば、上記近似度を示す点数が70点以上であれば近接すると判断する。
(5)近接する場合には(ステップS32:Yes)、処理対象のオブジェクトをユーザにより指示されたものの候補とし、次のオブジェクトに対する処理(ステップS21)へ行く(ステップS33)。
(6)近接しない場合には(ステップS32:No)、図6の(3)と同様の処理を行う(ステップS23)。
【0060】
【0060】
(7)算出した近似直線と実際のオブジェクトの軌跡とが類似しているか否かを判断する(ステップS34)。例えば、算出した近似直線と、過去のオブジェクト軌跡情報における個々のオブジェクトの位置との距離が所定の限度値を越えるか否かを判定し、1つも限度値を越えない、あるいは平均値が限度値を越えない場合に、算出した近似直線が実際のオブジェクトの軌跡と類似していると判断する。
類似していない場合には(ステップS34:No)、近似曲線による予測軌道判定(ステップS38)へ行く。
【0061】
(8)〜(9)類似している場合には(ステップS34:Yes)、図6の(4)〜(5)と同様の処理を行う(ステップS24〜ステップS25)。
(10)算出した受付時刻に対応する予測軌道上の座標値と、入力解析部15から渡された入力位置情報とを比較し、予測軌道上の座標値と入力位置との距離から、当該オブジェクトの近似度を示す点数を算出する(ステップS35)。近似度を示す点数の算出方法は、ステップS31において説明したものと同様である。
(11)算出した近似度と上位閾値とを比較して、これらが近接するか否かを判断する(ステップS36)。例えば、上記近似度を示す点数が60点以上であれば近接すると判断する。
【0062】
(12)近接する場合には(ステップS36:Yes)、処理対象のオブジェクトをユーザにより指示されたものの候補とし、次のオブジェクトに対する処理(ステップS21)へ行く(ステップS37)。
(13)近接しない場合には(ステップS36:No)、過去のオブジェクト軌跡情報から近似曲線を算出する(ステップS38)。
ここでは、入力時刻情報により示される受付時刻よりも少し前の時点からさらに過去にさかのぼった一定期間を対象に、近似曲線を算出する。本変形例では、受付時刻よりも0.5秒前の時点からさらに1秒さかのぼった、1.5秒前から0.5秒前までの1秒間を対象に近似曲線を算出する。なお、この1秒間におけるオブジェクトの動きが大きすぎるときにはうまく曲線近似ができない可能性が高いので、X方向、およびY方向のいずれか一方の移動量が例えば座標値「500」を越える場合には、この座標値「500」の範囲内を対象に、近似曲線を算出してもよい。
【0063】
図13〜16は、オブジェクトの軌跡を曲線近似する際の概略を説明するための図である。
図13に示すように、算出対象の期間におけるオブジェクト軌跡情報が、点「P0,P1, ... ,Pn」により構成されているものとする。そこで、図14に示すように、これらの座標値「(x0,y0),(x1,y1), ... ,(xn,yn)」からベジエ曲線を求める。
【0064】
ここでベジエ曲線(ベジェ曲線とも言う)とは、N個の制御点から得られるN−1次曲線であり、制御点を「P0,P1, ... ,Pn」とすると、ベジエ曲線は、
P’(t)=Σ{i=0,n}PiJni(t)
で表せる。
ここで、0≦t≦1
また、P’(t)は近似曲線上の点を示す。
またJni(t)は、
Jni(t)=nCiti(1−t)n-1
nCi=n!/i!(n−1)!
なお、ここでベジエ曲線を求める代わりに、スプライン曲線等の補間曲線や、その他の近似曲線を求めてもよい。
【0065】
(14)算出した近似曲線と実際のオブジェクトの軌跡と類似しているか否かを判断する(ステップS39)。例えば、算出した近似曲線と、過去のオブジェクト軌跡情報における個々のオブジェクトの位置との距離が所定の限度値を越えるか否かを判定し、1つも限度値を越えない、あるいは平均値が限度値を越えない場合に、算出した近似曲線が実際のオブジェクトの軌跡と類似していると判断する。
類似していない場合には、総合判定(ステップS46)へ行く。
(15)予測軌道を求める。詳細には、近似曲線を当該オブジェクトの移動方向に、近似曲線と同等の曲がり具合で伸延し、伸延した部分を予測軌道とする(ステップS40)。
まず、Pnにおける近似曲線の傾きを求める。ベジエ曲線では、Pnにおける近似曲線の傾き「a」はPnとP[n−1]を結ぶ直線の傾きと一致するので、Pnにおける近似曲線の傾きaは、
a=(xn−x[n−1])/(yn−y[n−1] )
で表せる。
【0066】
次に、図15に示すように、Pnを通り近似曲線に垂直な直線Aを求める。
ここで直線Aは、
y=−1/a(x−xn)+yn
で表せる。
それから、図16に示すように、直線Aを軸にして、ベジエ曲線Bと線対象となる曲線B’を求め、これを予測軌道(図中太線)とする。
なお、ステップS37において一定の曲率を持つ近似曲線を算出し、ステップS38において、近似曲線を当該オブジェクトの移動方向に、曲率を維持したままで伸延し、伸延した部分を予測軌道としてもよい。
【0067】
(16)近似曲線上のオブジェクトの速度を算出する(ステップS41)。
ここでベジエ曲線BのP0からPtまでの長さL(t)は、
L(t)=∫{0〜t}√((dx/dt)2+(dy/dt)2)dt
で表せる。
L(t)を経過時間(ここでは1,5秒−0.5秒=1秒)で割ると秒速が得られる。
(17)上で求めた速度を用いて、受付時刻に対応する予測軌道上の座標値(X、Y)を算出する(ステップS42)。
【0068】
(18)算出した受付時刻に対応する予測軌道上の座標値(X、Y)と、入力解析部15から渡された入力位置情報とを比較し、予測軌道上の座標値と入力位置との距離から、当該オブジェクトの近似度を示す点数を算出する(ステップS43)。近似度を示す点数の算出方法は、ステップS31において説明したものと同様である。
(19)算出した近似度と上位閾値とを比較して、これらが近接するか否かを判断する(ステップS44)。例えば、上記近似度を示す点数が60点以上であれば近接すると判断する。
(20)近接する場合には(ステップS44:Yes)、処理対象のオブジェクトをユーザにより指示されたものの候補とし、次のオブジェクトに対する処理(ステップS21)へ行く(ステップS45)。
【0069】
(21)近接しない場合には(ステップS44:No)、過去軌跡判定(ステップS31)、近似直線による予測軌道判定(ステップS35)、及び近似曲線による予測軌道判定(ステップS43)の際の類似度を比較し、最も高い点数の類似度を選択する(ステップS46)。
(22)選択した類似度と下位閾値とを比較して、これらが近接するか否かを判断する(ステップS47)。例えば、上記近似度を示す点数が50点以上であれば近接すると判断する。
近接しない場合には(ステップS47:No)、何もせずに次のオブジェクトに対する処理(ステップS21)へ行く。
(23)近接する場合には(ステップS47:Yes)、処理対象のオブジェクトをユーザにより指示されたものの候補とし、次のオブジェクトに対する処理(ステップS21)へ行く(ステップS48)。
(24)図6の(8)と同様の処理を行う(ステップS28)。
【0070】
[第2の変形例]
本変形例は、予測軌道を推定する方法、及び第1の実施形態における判定部17における予測軌道の推定を含む判定アルゴリズムの他の例である。
<予測軌道を推定する方法3の詳細な説明>
以下に、判定部17における予測軌道を推定する方法3について説明する。
予測軌道を推定する方法3では、過去のオブジェクト軌跡情報から近似直線を算出し、この近似直線の有効性を評価して、有効と判断された場合にのみ、上記第1の実施形態における方法1と同様に、この近似直線をオブジェクトの移動方向にまっすぐそのまま延長し、延長した部分を予測軌道とする。また有効と判断されなかった場合には、過去のオブジェクト軌跡情報から繰り返しパターンを検出し、この繰り返しパターンに基づいて、移動方向に延長した部分を予測軌道とする。
【0071】
また、第2の変形例では、第1の変形例と同様に、上記判定アルゴリズムにおいて、予測軌道による判定を行う前に、過去のオブジェクトの軌跡による判定を行い、該当するオブジェクトが見つからない場合に、予測軌道判定を行い、さらに、繰り返しパターン判定を行う。
図17、18は、判定部17における予測軌道の推定を含む判定アルゴリズムの手順を示す図であり、図5に示したオブジェクト選択処理の動作手順におけるステップS15のサブルーチンに相当する。なお、第1の実施形態の図6、及び第1の変形例の図11、12と同様の処理を行うステップには同一番号を付し、その詳細な説明を省略する。
【0072】
(1)〜(12)図11の(1)〜(12)と同様の処理を行う(ステップS21〜ステップS22、ステップS31〜ステップS33、ステップS23、ステップS34、ステップS24〜ステップS25、ステップS35〜ステップS37)。
(13)近接しない場合には(ステップS36:No)、過去のオブジェクト軌跡情報から当該オブジェクトの移動パターンを検出する(ステップS51)。
ここでは、入力時刻情報により示される受付時刻よりも少し前の時点からさらに過去にさかのぼった一定期間を対象に、移動パターンを検出する。本変形例では、受付時刻よりも0.5秒前の時点からさらに数十秒さかのぼった期間を対象に移動パターンを検出する。
【0073】
図19は、オブジェクト軌跡から移動パターンを検出する際の概略を説明するための図である。
まず、受付時刻よりも0.5秒前の時点から順にさかのぼっていき、同様のパターンの繰り返しを検出する。
図19に示すように、例えば自動車のコンテンツがサーキット上を走っているような場合等には、ほぼ同じタイミングで、同じコースをコンテンツが周回する繰り返しパターンが検出される。
(14)移動パターンが検出されたか否かを判断する(ステップS52)。
移動パターンが検出されなかった場合は、何もせずに総合判定(ステップS55)へ行く。
【0074】
(15)移動パターンが検出された場合(ステップS52:Yes)は、予測軌道を求める(ステップS53)。
ここでは検出された移動パターンに基づいて、所定時間以後の当該オブジェクトの軌道を予想し、これを予測軌道とする。
(16)受付時刻に対応する予測軌道上の座標値を算出する(ステップS54)。
(17)〜(19)図11、12の(18)〜(20)と同様の処理を行う(ステップS43〜ステップS45)
【0075】
(20)近接しない場合には(ステップS44:No)、過去軌跡判定(ステップS31)、近似直線による予測軌道判定(ステップS35)、及び繰り返しパターンによる予測軌道判定(ステップS43)の際の類似度を比較し、最も高い点数の類似度を選択する(ステップS55)。
(21)〜(23)図11、12の(22)〜(24)と同様の処理を行う(ステップS47〜ステップS48、ステップS28)。
【0076】
なお、判定部17における判定アルゴリズムは、第1の実施形態、及び各変形例における個々の予測軌道の推定処理を、それぞれ単独で用いてもよいし、あるいは複数を適宜組み合わせてもよい。例えば、第1の変形例における曲線近似を用いた予測軌道の推定処理や、第2の変形例における繰り返しパターンによる予測軌道の推定処理を単独で用いてもよいし、これらの推定処理を適宜組み合わせてもよい。また例えば、第1の実施形態における直線近似を用いた予測軌道の推定処理、第1の変形例における曲線近似を用いた予測軌道の推定処理、及び繰り返しパターンによる予測軌道の推定処理の全てを組み合わせて、各々の推定処理において検出されたオブジェクトを全て、ユーザにより指示されたものと判定してもよいし、あるいは近似による誤差等を指標にして、その時々で最も確からしいと思われる予測軌道を用いた推定処理のみを用いてオブジェクトを検出してもよい。
【0077】
<まとめ>
以上説明したように、本実施形態の構成によれば、オブジェクトが画面内を移動する場合に、オブジェクトの過去の軌跡を見たユーザが予測するであろうオブジェクトの位置を推測して、ユーザによる入力操作時の実際のオブジェクトの位置に関係なく、ユーザが選択したかったオブジェクトを正しく選択することが可能となる。
【0078】
[第2の実施形態]
<概要>
本実施形態は、第1の実施形態のオブジェクト選択実行システム1に、さらに選択候補のオブジェクトを提示してユーザに選択させる構成を加えたものである。
<構成>
図20は、第2の実施形態に係るオブジェクト選択実行システム2の概略を示す図である。ここで、第1の実施形態の図1に記載されたオブジェクト選択実行システム1と同様の処理を行う構成には同一番号を付し、その詳細な説明を省略する。
図20に示すオブジェクト選択実行システム2は、オブジェクト選択装置20、表示装置19から構成される。
【0079】
図20に示すように、オブジェクト選択装置20は、第1の実施形態のオブジェクト選択装置10と同様に、表示装置19の画面上に表示された映像中のオブジェクトをユーザに選択させ、選択されたオブジェクトに関する所定の処理を実行する装置であり、映像入手部11、映像処理部12、映像記憶部13、操作入力部14、入力解析部15、映像解析部16、判定部17、実行部18、及び表示装置19と接続するためのインタフェース(不図示)を備え、さらに提示部21、及び選択受付部22を備えている。
【0080】
提示部21は、判定部17により、1つ、又は複数のオブジェクトが、ユーザにより指示されたものと判定された場合に、選択候補のオブジェクトの画像や概要等を表示装置19へ提示させて、ユーザに、1つ、又は複数のオブジェクトの選択を即す。
選択受付部22は、提示部21によって提示された1つ、又は複数のオブジェクトの中から、ユーザにより選択されたオブジェクトを受け付ける。
実行部18は、選択受付部22によって選択が受け付けられたオブジェクトに関する所定の処理を実行し、処理の結果を、表示装置19に表示させる。
【0081】
<動作>
図21は、本実施形態のオブジェクト選択実行システム2におけるオブジェクト選択処理の動作手順を示す図である。
ここで、第1の実施形態の図5と同様の処理を行うステップには同一番号を付し、その詳細な説明を省略する。
(1)〜(14)図5の(1)〜(14)と同様の処理を行う(ステップS1〜ステップS14)。
【0082】
(15)判定部17が、入力解析部15から渡された1つ、又は複数の入力位置情報と入力時刻情報と組と、映像解析部16から渡されたオブジェクト軌跡情報とに基づいて、いくつかの判定アルゴリズムを単独、あるいは組合せで用いて、ユーザが選択しようとしたオブジェクトの候補を判定し、判定結果を提示部21に渡す(ステップS61)。ここで、映像解析部16からオブジェクト軌跡情報が存在しない旨の通知を受けた場合には、ここでは何もしない。
(16)図5の(16)と同様の処理を行う(ステップS16)。
(17)オブジェクトが1つでも特定されている場合には、提示部21が、選択候補のオブジェクトの画像や概要等を表示装置19へ提示させて、ユーザに、1つ、又は複数のオブジェクトの選択を即す(ステップS62)。
【0083】
(18)選択受付部22が、提示部21によって提示された1つ、又は複数のオブジェクトの中から、ユーザにより選択されたオブジェクトを受け付ける(ステップS63)。ユーザがオブジェクトを1つも選択せずにキャンセルした場合にはここでは何もしない。
(19)実行部18が、選択受付部22によって選択が受け付けられたオブジェクトに関する処理を実行する(ステップS64)。
(20)図5の(18)と同様の処理を行う(ステップS18)。
【0084】
なお、ユーザごとに選択操作の特徴を抽出して学習し、次回以降の判定処理にフィードバックすることもできる。詳細には、あるユーザはオブジェクトの動きに対して比較的遅れて選択することが多いであるとか、あるいは、先の動作を予測して選択することが多いなどの個々のユーザの特徴を抽出して、ユーザ別に、判定のアルゴリズムを変更、あるいはアルゴリズムの重要度を変更してもよい。例えば、先の動作を予測して選択することが多いユーザの場合には、オブジェクトの軌跡の動き予測をするアルゴリズムのみによって判定する。また、判定部17において、オブジェクトの軌跡を予測するアルゴリズムや、時間を少しずつずらして軌跡の形が似ている度合いを判定するアルゴリズムなどの複数のアルゴリズムを組み合わせて判定することもできる。より詳細には、これら複数のアルゴリズムから判定結果を数値で算出し、それぞれの判定結果に調整のための係数を掛け算し、それらを足し合わせて最終判定結果としてもよい。例えば、先の動作を予測して選択することが多いユーザの場合には、オブジェクトの軌跡の動きを予測するアルゴリズムの係数を他の係数に比べて高くすることにより、判定の精度を上げることができる。
【0085】
図22は、ユーザが車Aの動作を予測してタッチパネルを触ったときの様子を示す図である。図22において、車Aが画面左上から画面右下方向へ画面中央部辺りまで進んでいるので、ユーザは、車Aの進行方向及び速度から車Aの移動先を予測し(図中点線)、タッチパネルの画面右下に触れ車Aを選択しようとした。しかしながら、実際の映像では、ユーザの予測に反して、車Aは進行方向を変え、画面の中央から下方に進んでしまった。このような場合に、従来の装置では車Aが選択されることはなかったが、本発明のオブジェクト選択装置によれば、ユーザと同様の立場で車Aの移動先を予測することによって、ユーザの選択しようとした車Aを対象オブジェクトとして選択することができる。
【0086】
<まとめ>
以上説明したように、本実施形態の構成によれば、上記第1の実施形態と同様の効果を備え、さらに、選択候補をユーザに提示しユーザに選択させるので、ユーザが選択したかったオブジェクトを確実に選択することが可能となる。
なお、上述の実施形態は、記憶装置(ROM、RAM、ハードディスク等)に格納された上述の処理手順をCPUに実行させることができるプログラムを、CPUに実行させることによっても実現できる。この場合、当該プログラムは、記録媒体を介して記憶装置内に格納された上で実行されてもよいし、記録媒体上から直接実行されてもよい。ここでの記録媒体は、ROM、RAM、フラッシュメモリ等の半導体メモリ、フレキシブルディスクやハードディスク等の磁気ディスクメモリ、CD−ROMやDVD、BD等の光ディスク、メモリカード等の記録媒体をいう。また、記録媒体は、電話回線や搬送路等の通信媒体も含む概念である。
【0087】
以上、本発明の実施の形態を示したが、映像処理部12、映像記憶部13、入力解析部15、映像解析部16、及び判定部17は集積回路であるLSIとして実現される。また、これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。例えば、映像に関与する部分(映像処理部12、映像記憶部13)、と入力及び解析に関与する部分(入力解析部15、映像解析部16、判定部17)とを、それぞれ個別のLSIとしてチップ化されても良い。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
【0088】
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array )や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
【0089】
本願の発明を含む通信システムは、Ethernet(登録商標)インタフェース、IEEE1394インタフェース、USBインタフェース等の信号インタフェースを電力線通信のインタフェースに変換するアダプタの形態を取ることによって、各種のインタフェースを有するパーソナルコンピュータ、DVDレコーダ、デジタルテレビ、及びホームサーバシステム等のマルチメディア機器に接続することができる。これによって、電力線を媒体としたマルチメディアデータ等のデジタルデータを高速伝送するネットワークシステムを構築することが可能となる。この結果、従来の有線LANのようにネットワークケーブルを新たに敷設することなく、家庭、オフィス等に既に設置されている電力線をそのままネットワーク回線として利用できるので、コスト面、設置の容易性からその利便性は大きい。
【0090】
また、将来的にはパーソナルコンピュータ、DVDレコーダ、デジタルテレビ、及びホームサーバシステム等のマルチメディア機器が本発明を含む機能を内蔵することにより、マルチメディア機器の電源コードを介して機器間のデータ伝送が可能になる。この場合、アダプタやEthernet(登録商標)ケーブル、IEEE1394ケーブル、USBケーブルなどが不要になり、配線が簡略化される。また、ルータを介してインターネットへの接続や、無線LANや従来の有線ケーブルのLANにハブ等を用いて接続することができるので、本発明の高速電力線伝送システムを用いたLANシステムの拡張に何らの問題も生じない。
【0091】
また、電力線伝送方式では、通信データが電力線を介して流されるため、無線LANのように電波が傍受されてデータが漏洩するという問題が生じない。よって、電力線伝送方式は、セキュリティの面からのデータ保護にも効果を有する。もちろん、電力線を流れるデータは、例えばIPプロトコルにおけるIPsec、コンテンツ自身の暗号化、その他のDRM(Digital Rights Management)方式等で保護される。
【0092】
このように、コンテンツの暗号化による著作権保護機能や本発明の効果(スループットの向上、再送増加やトラフィック変動に柔軟に対応した帯域割り当て)を含めたQoS(Quality of Service)機能を実装することによって、電力線を用いた高品質なAVコンテンツの伝送が可能となる。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。従って、本発明の範囲を逸脱することなく種々の改良や変形を行うことができる。
【産業上の利用可能性】
【0093】
本発明のオブジェクト選択装置は、画像を表示させるあらゆる装置に適用可能であり、DVDレコーダ、ブルーレイレコーダ、HDDレコーダ等の各種録画再生装置や、デジタルテレビ等の表示装置、あるいはパーソナルコンピュータ等の拡張機能として利用可能である。また、本発明のオブジェクト選択装置によれば、ユーザが違和感無く感覚的に所望するオブジェクトを選択することができるので、その産業的利用価値は極めて高い。
【符号の説明】
【0094】
1 オブジェクト選択実行システム
2 オブジェクト選択実行システム
10 オブジェクト選択装置
11 映像入手部
12 映像処理部
13 映像記憶部
14 操作入力部
15 入力解析部
16 映像解析部
17 判定部
18 実行部
19 表示装置
20 オブジェクト選択装置
21 提示部
22 選択受付部
Claims (16)
- 動画中のオブジェクトをユーザに選択させるオブジェクト選択装置であって、
外部の表示装置に動画を表示させる映像処理部と、
映像処理部によって表示させた動画のデータを記憶する記憶部と、
前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力部と、
入力部によって入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析部と、
記憶部によって記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析部と、
オブジェクト別に、前記入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった、前記受付時刻を含まない一定期間における軌道情報に基づいて、ユーザが当該受付時刻近辺において表示されていると予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析部によって生成された位置情報とを比較し、当該予測位置と当該位置情報との距離が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する予測軌道判定を行う判定部とを備えることを特徴とする、オブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記一定期間における軌道情報に基づく各オブジェクトの軌道を直線近似して近似直線を生成し、当該近似直線を当該オブジェクトの移動方向に伸延し、伸延した部分を前記予測軌道とすることを特徴とする、請求項1に記載のオブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記近似直線と、当該軌道履歴における個々の位置との距離が所定の限度値を越えるか否かを判定し、当該限度値を越えない場合に限り、当該近似直線に基づいて前記予測軌道を推定することを特徴とする、請求項2に記載のオブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記限度値を越える場合には、前記一定期間における軌道情報に基づいて、当該オブジェクトの近似曲線を算出し、当該近似曲線を当該オブジェクトの移動方向に伸延し、伸延した部分を前記予測軌道とすることを特徴とする、請求項3に記載のオブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記限度値を越える場合には、前記一定期間における軌道情報に基づいて、当該オブジェクトの近似曲線を算出し、当該近似曲線を当該オブジェクトの移動方向に、当該近似曲線と同等の曲がり具合で伸延し、伸延した部分を前記予測軌道とすることを特徴とする、請求項3に記載のオブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記限度値を越える場合には、前記一定期間における軌道情報に基づいて、当該オブジェクトの移動パターンを検出し、当該移動パターンに基づいて、前記所定時間以後の当該オブジェクトの軌道を予想し、予測した軌道を前記予測軌道とすることを特徴とする、請求項3に記載のオブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記一定期間における軌道情報に基づいて、当該オブジェクトの移動速度を算出し、当該オブジェクトを前記所定時間前の時点の位置から、当該移動速度に基づいて速度を一定に保ちながら、当該所定時間分だけ移動させた位置を、前記予測位置とすることを特徴とする、請求項1に記載のオブジェクト選択装置。 - 前記判定部は、
オブジェクト別に、前記一定期間における軌道情報に基づいて、当該オブジェクトの速度の変化率を算出し、当該オブジェクトを前記所定時間前の時点の位置から、当該速度の変化率に基づいて速度を変化させながら、当該所定時間分だけ移動させた位置を、前記予測位置とすることを特徴とする、請求項1に記載のオブジェクト選択装置。 - 当該オブジェクト選択装置は、さらに、
前記判定部により、1つ、又は複数のオブジェクトが、ユーザにより指示されたものと判定された場合に、選択候補のオブジェクトを提示して、当該ユーザに、当該1つ、又は複数のオブジェクトの選択を即す提示部と、
提示部によって提示された1つ、又は複数のオブジェクトの中から、ユーザによるオブジェクトの選択を受け付ける選択受付部と、
選択受付部によって選択が受け付けられたオブジェクトに関する所定の処理を実行し、当該処理の結果を、前記外部の表示装置に表示させる実行部とを供えることを特徴とする、請求項1記載のオブジェクト選択装置。 - 動画中のオブジェクトをユーザに選択させるオブジェクト選択装置により実行されるプログラムであって、
前記オブジェクト選択装置に、
外部の表示装置に動画を表示させる映像処理ステップと、
映像処理ステップにより表示させた動画のデータを記憶する記憶ステップと、
前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力ステップと、
入力ステップにより入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析ステップと、
記憶ステップにより記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析ステップと、
オブジェクト別に、前記入力解析ステップにより出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった、前記受付時刻を含まない一定期間における軌道情報に基づいて、ユーザが当該受付時刻近辺において表示されていると予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析ステップにより生成された位置情報とを比較し、当該予測位置と当該位置情報との距離が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する予測軌道判定を行う判定ステップとを実行させることを特徴とする、オブジェクト選択プログラム。 - 動画中のオブジェクトをユーザに選択させるオブジェクト選択装置に用いられる集積回路であって、
外部の表示装置に動画を表示させる映像処理部、
映像処理部によって表示させた動画のデータを記憶する記憶部、
前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力部、
入力部によって入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析部、
記憶部によって記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析部、及び、
オブジェクト別に、前記入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった、前記受付時刻を含まない一定期間における軌道情報に基づいて、ユーザが当該受付時刻近辺において表示されていると予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析部によって生成された位置情報とを比較し、当該予測位置と当該位置情報との距離が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する予測軌道判定を行う判定部として機能する回路を集積する。 - 動画中のオブジェクトをユーザに選択させるオブジェクト選択装置におけるオブジェクト選択方法であって、
前記オブジェクト選択装置に、
外部の表示装置に動画を表示させる映像処理ステップと、
映像処理ステップにより表示させた動画のデータを記憶する記憶ステップと、
前記表示装置に表示されている動画内の、任意の1つのオブジェクトの表示位置を、ユーザが指示しようと試みる入力操作を受け付ける入力ステップと、
入力ステップにより入力操作を受け付けたときの受付時刻を示す時刻情報と、当該操作された動画内の操作位置を示す位置情報とを、生成する入力解析ステップと、
記憶ステップにより記憶された動画のデータに基づいて、当該動画内の1つ又は複数のオブジェクトを抽出し、それぞれのオブジェクトの軌跡を解析して、オブジェクト別に、個々のオブジェクトの軌道履歴を示す軌道情報を生成する映像解析ステップと、
オブジェクト別に、前記入力解析ステップにより出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった、前記受付時刻を含まない一定期間における軌道情報に基づいて、ユーザが当該受付時刻近辺において表示されていると予測するであろう各オブジェクトの予測軌道を推定し、当該予測軌道上の前記受付時刻に対応する予測位置と、入力解析ステップにより生成された位置情報とを比較し、当該予測位置と当該位置情報との距離が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する予測軌道判定を行う判定ステップとを含むことを特徴とする、オブジェクト選択方法。 - 前記判定部は、
前記予測軌道判定を行う前に、オブジェクト別に、前記入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、各オブジェクトが実際に動いた過去の軌跡と、入力解析部によって生成された位置情報とを比較し、当該過去の軌跡と当該位置情報との距離
が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する過去軌跡判定を行い、
前記過去軌跡判定において近接オブジェクトが存在しない場合に、前記予測軌道判定を行うことを特徴とする、請求項1に記載のオブジェクト選択装置。 - 前記判定ステップは、
前記予測軌道判定を行う前に、オブジェクト別に、前記入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、各オブジェクトが実際に動いた過去の軌跡と、入力解析部によって生成された位置情報とを比較し、当該過去の軌跡と当該位置情報との距離が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する過去軌跡判定を行い、
前記過去軌跡判定において近接オブジェクトが存在しない場合に、前記予測軌道判定を行うことを特徴とする、請求項10に記載のオブジェクト選択プログラム。 - 前記判定部は、
前記予測軌道判定を行う前に、オブジェクト別に、前記入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、各オブジェクトが実際に動いた過去の軌跡と、入力解析部によって生成された位置情報とを比較し、当該過去の軌跡と当該位置情報との距離
が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する過去軌跡判定を行い、
前記過去軌跡判定において近接オブジェクトが存在しない場合に、前記予測軌道判定を行うことを特徴とする、請求項11に記載のオブジェクト選択装置に用いられる集積回路。 - 前記判定ステップは、
前記予測軌道判定を行う前に、オブジェクト別に、前記入力解析部によって出力される時刻情報により示される受付時刻の所定時間前の時点から、さらに過去にさかのぼった一定期間における軌道情報に基づいて、各オブジェクトが実際に動いた過去の軌跡と、入力解析部によって生成された位置情報とを比較し、当該過去の軌跡と当該位置情報との距離が所定以内である近接オブジェクトを、ユーザにより選択されたものと判定する過去軌跡判定を行い、
前記過去軌跡判定において近接オブジェクトが存在しない場合に、前記予測軌道判定を行うことを特徴とする、請求項12に記載のオブジェクト選択方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011500370A JP5127981B2 (ja) | 2009-02-17 | 2009-11-13 | オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009033350 | 2009-02-17 | ||
JP2009033350 | 2009-02-17 | ||
JP2011500370A JP5127981B2 (ja) | 2009-02-17 | 2009-11-13 | オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 |
PCT/JP2009/006076 WO2010095195A1 (ja) | 2009-02-17 | 2009-11-13 | オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010095195A1 JPWO2010095195A1 (ja) | 2012-08-16 |
JP5127981B2 true JP5127981B2 (ja) | 2013-01-23 |
Family
ID=42633497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011500370A Expired - Fee Related JP5127981B2 (ja) | 2009-02-17 | 2009-11-13 | オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8429531B2 (ja) |
JP (1) | JP5127981B2 (ja) |
CN (1) | CN102057350A (ja) |
WO (1) | WO2010095195A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103425418A (zh) * | 2012-05-23 | 2013-12-04 | 宏碁股份有限公司 | 触碰控制方法与移动装置 |
US9383885B2 (en) * | 2012-06-13 | 2016-07-05 | Microsoft Technology Licensing, Llc | Hit testing curve-based shapes using polygons |
PT2735956E (pt) * | 2012-11-23 | 2015-10-20 | Ericsson Telefon Ab L M | Entrada adaptável |
CN104978392B (zh) | 2014-04-03 | 2018-12-28 | 卡西欧计算机株式会社 | 输出内容的内容输出装置 |
JP6515787B2 (ja) * | 2015-11-02 | 2019-05-22 | 富士通株式会社 | 仮想デスクトッププログラム、仮想デスクトップ処理方法、および仮想デスクトップシステム |
CN105677299B (zh) * | 2016-01-05 | 2018-03-06 | 天脉聚源(北京)传媒科技有限公司 | 一种用于标识选择的方法及装置 |
JP6269727B2 (ja) * | 2016-05-20 | 2018-01-31 | カシオ計算機株式会社 | 画像処理装置及びプログラム |
JP6860368B2 (ja) * | 2017-02-06 | 2021-04-14 | キヤノン株式会社 | 電子機器、その制御方法、プログラム及び記憶媒体 |
WO2021059747A1 (ja) * | 2019-09-26 | 2021-04-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、プログラム及び情報処理装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006333189A (ja) * | 2005-05-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | 映像要約生成装置 |
JP2007019769A (ja) * | 2005-07-06 | 2007-01-25 | Sony Corp | タグ情報表示制御装置、情報処理装置、表示装置、タグ情報表示制御方法及びプログラム |
JP2007207191A (ja) * | 2006-02-06 | 2007-08-16 | Asv:Kk | 映像再生システムにおける遅延クリック方式ならびに該方式に用いられるプレイヤ装置およびサーバ装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002334092A (ja) | 2001-05-11 | 2002-11-22 | Hitachi Ltd | 情報関連付け方法、情報閲覧装置、情報登録装置、情報検索装置、課金方法、およびプログラム |
JP2004054435A (ja) * | 2002-07-17 | 2004-02-19 | Toshiba Corp | ハイパーメディア情報提示方法、ハイパーメディア情報提示プログラムおよびハイパーメディア情報提示装置 |
JP4044550B2 (ja) | 2004-10-22 | 2008-02-06 | 株式会社デジタルプラネット衛星放送 | 商品情報配信方法および商品情報取得装置 |
JP2008250654A (ja) | 2007-03-30 | 2008-10-16 | Alpine Electronics Inc | ビデオプレイヤ及びビデオ再生制御方法 |
-
2009
- 2009-11-13 JP JP2011500370A patent/JP5127981B2/ja not_active Expired - Fee Related
- 2009-11-13 CN CN2009801214857A patent/CN102057350A/zh active Pending
- 2009-11-13 US US12/997,119 patent/US8429531B2/en not_active Expired - Fee Related
- 2009-11-13 WO PCT/JP2009/006076 patent/WO2010095195A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006333189A (ja) * | 2005-05-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | 映像要約生成装置 |
JP2007019769A (ja) * | 2005-07-06 | 2007-01-25 | Sony Corp | タグ情報表示制御装置、情報処理装置、表示装置、タグ情報表示制御方法及びプログラム |
JP2007207191A (ja) * | 2006-02-06 | 2007-08-16 | Asv:Kk | 映像再生システムにおける遅延クリック方式ならびに該方式に用いられるプレイヤ装置およびサーバ装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2010095195A1 (ja) | 2012-08-16 |
US20110296307A1 (en) | 2011-12-01 |
US8429531B2 (en) | 2013-04-23 |
WO2010095195A1 (ja) | 2010-08-26 |
CN102057350A (zh) | 2011-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5127981B2 (ja) | オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法 | |
WO2021052085A1 (zh) | 视频推荐方法、装置、电子设备及计算机可读介质 | |
CN106462630B (zh) | 用于搜索视频内容的方法、系统和介质 | |
US20110197116A1 (en) | Method and apparatus for selecting hyperlinks | |
JP5150799B1 (ja) | 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体 | |
US11825177B2 (en) | Methods, systems, and media for presenting interactive elements within video content | |
JP2007525757A (ja) | リアルタイムの漸進的ズームの方法 | |
US20150186426A1 (en) | Searching information using smart glasses | |
Lam et al. | M2a: A framework for visualizing information from mobile web to mobile augmented reality | |
JP6781233B2 (ja) | 統合インフォメーションの生成方法、統合インフォメーションのプッシュ方法及びその装置、端末、サーバ、媒体 | |
JP4396262B2 (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
WO2020221121A1 (zh) | 视频查询方法、装置、设备及存储介质 | |
TWI798912B (zh) | 搜索方法、電子裝置及非暫時性電腦可讀記錄媒體 | |
JP7082075B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7124281B2 (ja) | プログラム、情報処理装置、画像処理システム | |
JP2009238087A (ja) | サーバ装置、クライアント装置、サーバベースコンピューティングシステムおよびプログラム | |
JP2013206317A (ja) | 外部表示プログラム及び外部表示のための装置 | |
WO2020078054A1 (zh) | 网页处理方法、装置、电子设备及存储介质 | |
JP2010244126A (ja) | 小型情報端末向け注目語推定方式および検索方式 | |
CN111027495A (zh) | 用于检测人体关键点的方法和装置 | |
US10073889B2 (en) | Information processing apparatus and information processing method | |
JP2021179807A (ja) | サーバの制御方法、サーバ、およびサーバの制御プログラム | |
US20140337700A1 (en) | Terminal device, web server, and method | |
WO2024149014A1 (zh) | 一种信息展示方法、装置、电子设备、计算机可读介质 | |
US20170147065A1 (en) | Wearable content navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121010 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5127981 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |