JP2009239721A - テレビジョン受像装置及びテレビジョン受像方法 - Google Patents
テレビジョン受像装置及びテレビジョン受像方法 Download PDFInfo
- Publication number
- JP2009239721A JP2009239721A JP2008084416A JP2008084416A JP2009239721A JP 2009239721 A JP2009239721 A JP 2009239721A JP 2008084416 A JP2008084416 A JP 2008084416A JP 2008084416 A JP2008084416 A JP 2008084416A JP 2009239721 A JP2009239721 A JP 2009239721A
- Authority
- JP
- Japan
- Prior art keywords
- person
- movement information
- movement vector
- movement
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】 現行の放送波を用いて人物等の移動情報の生成を実現する技術を提供する。
【解決手段】 外部からの放送波による映像内の人物の移動情報を抽出する抽出手段と、外部から指定された視点からの前記移動情報を表現した映像を映写する移動情報表現手段とを備えたことを特徴とするテレビジョン受像装置。また外部からの放送波による映像内の人物の移動情報を抽出し、外部から指定された視点からの前記移動情報を表現した映像を映写することを特徴とするテレビジョン受像方法。
【選択図】 図4
【解決手段】 外部からの放送波による映像内の人物の移動情報を抽出する抽出手段と、外部から指定された視点からの前記移動情報を表現した映像を映写する移動情報表現手段とを備えたことを特徴とするテレビジョン受像装置。また外部からの放送波による映像内の人物の移動情報を抽出し、外部から指定された視点からの前記移動情報を表現した映像を映写することを特徴とするテレビジョン受像方法。
【選択図】 図4
Description
本発明は、テレビジョン受像装置及びテレビジョン受像方法に係わり、特に3D View TVに関する。
近年、3次元CG(コンピュータグラフィックス)を用いた映像作成、あるいは人物の顔画像を用いたHI(ヒューマンインターフェイス)など、画像生成、画像処理、画像認識といった画像に関わる計算機処理のニーズが、急速に拡大している。これらの処理においては、対象とする物体の幾何形状、表面属性、そして、必要に応じて動きのデータを計算機において数値化して扱うことが必要である。
また、取分け、近年において、ゲームやVR(バーチャルリアリティ)の分野では、2次元ではなく、3次元CG(コンピュータグラフィクス)を用いた映像を使う状況が急速に増えている。
例えば、ユーザーが任意の視点で鑑賞できる3次元CGを用いた映像という需要がある。関連して特許文献1に記載のものは、同時に多角から撮影された複数映像から、ユーザーは任意の視点で鑑賞できるという内容のものである。しかしながら複数の角度からの映像が必要という点で、現行の放送波では実現できないという問題点がある。
また特許文献2に記載のものは、移動情報や3Dオブジェクトを外部から受信して映像を作り出すという内容のものであるが、外部で移動情報の生成が必要という点で、やはり現行の放送波では実現できないという問題点がある。
特開平5−130528号公報
特開2001−28765号公報
本発明は、現行の放送波を用いて人物等の移動情報の生成を実現する技術を提供することを目的とする。
上記課題を解決するために、本発明のテレビジョン受像装置は、外部からの放送波による映像内の人物の移動情報を抽出する抽出手段と、外部から指定された視点からの前記移動情報を表現した映像を映写する移動情報表現手段とを備えたことを特徴とする。
本発明によれば、現行の放送波を用いて人物等の移動情報の生成を実現する技術が得られる。
以下、本発明の実施形態を説明する。
本発明による実施形態1を図1乃至図10を参照して説明する。
(1) ブロック構成図
図1は本発明の1実施形態として3D View TV1の概略構成を示す図である。映像生成部16とは現行放送から抽出した選手やボールの移動情報から、それらをユーザーに見せるための映像を生成する部分であるが、以下の実施例では、抽出した移動情報に選手の3Dオブジェクトを配置して3DCG空間としてユーザーに見せるという一例で説明する。3Dオブジェクトを取得する方法は何でも良いが、図2はデータ放送に出場選手の情報を追加してそれを下にweb上で用意された選手のオブジェクトを取得する例である。図3はフレームの画像解析から出場選手を判断して記憶装置に持っている選手のオブジェクトを呼び出す構成例である。以下では図2の構成例を下に説明する。
(1) ブロック構成図
図1は本発明の1実施形態として3D View TV1の概略構成を示す図である。映像生成部16とは現行放送から抽出した選手やボールの移動情報から、それらをユーザーに見せるための映像を生成する部分であるが、以下の実施例では、抽出した移動情報に選手の3Dオブジェクトを配置して3DCG空間としてユーザーに見せるという一例で説明する。3Dオブジェクトを取得する方法は何でも良いが、図2はデータ放送に出場選手の情報を追加してそれを下にweb上で用意された選手のオブジェクトを取得する例である。図3はフレームの画像解析から出場選手を判断して記憶装置に持っている選手のオブジェクトを呼び出す構成例である。以下では図2の構成例を下に説明する。
このテレビは放送波受信部21、記憶装置22及びディスプレイ17を備えており、さらに移動ベクトル抽出部13、認識不能人物推定部14、移動ベクトル補間部15、及び3Dオブジェクト配置部26で構成される。各部はそれぞれ以下の処理をつかさどる。
・放送波受信部21、記憶装置22
現行放送を受信して、その情報を記憶装置へと保存する。また、その試合に参加している選手やフィールド情報がデータ放送に付与して送られてくる場合は、そのデータを抽出し必要な3Dオブジェクトをweb上からの取得する際に利用する。
現行放送を受信して、その情報を記憶装置へと保存する。また、その試合に参加している選手やフィールド情報がデータ放送に付与して送られてくる場合は、そのデータを抽出し必要な3Dオブジェクトをweb上からの取得する際に利用する。
・ディスプレイ17
作成した3DCG空間を任意の視点から見た映像を表示する。
・移動ベクトル抽出部13(詳細は(3))
記憶装置から呼び出したフレームが競技しているコート(以下フィールドと呼ぶ)のどの位置であるかを判別し、そこに写る選手やボールがフィールドのどの位置にいるのかを認識する機能を持つ。さらに、その選手が誰であるかの認識も行う(以下、人物認識と呼ぶ)。詳細は後述するが、さらに一つ前のフレームと比較することで選手やボールの移動情報を移動ベクトルという形で取得する。
作成した3DCG空間を任意の視点から見た映像を表示する。
・移動ベクトル抽出部13(詳細は(3))
記憶装置から呼び出したフレームが競技しているコート(以下フィールドと呼ぶ)のどの位置であるかを判別し、そこに写る選手やボールがフィールドのどの位置にいるのかを認識する機能を持つ。さらに、その選手が誰であるかの認識も行う(以下、人物認識と呼ぶ)。詳細は後述するが、さらに一つ前のフレームと比較することで選手やボールの移動情報を移動ベクトルという形で取得する。
また、3DCGを作成する際に必要なオブジェクトの判断を画像認識によって行う場合は、この部分で可能である。
・認識不能人物推定部14(詳細は(5))
移動ベクトル抽出部で人物認識に失敗した選手が誰であるのかを推定する部位である。詳細は後述する。
・移動ベクトル補間部15(詳細は(6))
移動ベクトル抽出部と認識不能人物推定部によって得られる、人物認識が出来ている移動ベクトルの内で、移動情報のない期間をAIを用いて補間することで、時間的に連続した一つの移動ベクトルへと繋ぎ合わせる機能を持つ。
・認識不能人物推定部14(詳細は(5))
移動ベクトル抽出部で人物認識に失敗した選手が誰であるのかを推定する部位である。詳細は後述する。
・移動ベクトル補間部15(詳細は(6))
移動ベクトル抽出部と認識不能人物推定部によって得られる、人物認識が出来ている移動ベクトルの内で、移動情報のない期間をAIを用いて補間することで、時間的に連続した一つの移動ベクトルへと繋ぎ合わせる機能を持つ。
・3Dオブジェクト配置部26
Web上から取得する選手・ボール・フィールドの3Dオブジェクトを移動ベクトル情報どおりに配置する。作成された3DCG空間はディスプレイによって任意の視点で鑑賞できる。
Web上から取得する選手・ボール・フィールドの3Dオブジェクトを移動ベクトル情報どおりに配置する。作成された3DCG空間はディスプレイによって任意の視点で鑑賞できる。
(2) 全体フローチャート
図4は本発明を実施する際の全体フローチャートの一例である。大まかな流れをここで示し、両端に線がついているブロックに関しては詳細なフローチャートを後述する。
図4は本発明を実施する際の全体フローチャートの一例である。大まかな流れをここで示し、両端に線がついているブロックに関しては詳細なフローチャートを後述する。
1.放送波録画(ステップS11)
現行放送を録画したものを用意する。
2.ユーザーによる3D作成範囲の指定(ステップS12)
ユーザーは録画された映像の範囲内で、任意の視点で見たいシーンを選択する。以降ではここで選択されたシーンの3DCG空間を生成し、ユーザーはその3DCG空間を好みの視点から鑑賞する。
現行放送を録画したものを用意する。
2.ユーザーによる3D作成範囲の指定(ステップS12)
ユーザーは録画された映像の範囲内で、任意の視点で見たいシーンを選択する。以降ではここで選択されたシーンの3DCG空間を生成し、ユーザーはその3DCG空間を好みの視点から鑑賞する。
3.全フレームを解析し移動ベクトル抽出(ステップS13)−詳細は(3)に記載
全フレームを解析することで、写っていた選手やボールの移動情報を抽出する。
なおこの時点で取得できる移動ベクトルは、その時間にフレームに写っていた選手とボールだけであり、初めと終わりしかフレームに写らない選手がいれば、真ん中の時間はその選手の移動ベクトルが存在しないことになる。
全フレームを解析することで、写っていた選手やボールの移動情報を抽出する。
なおこの時点で取得できる移動ベクトルは、その時間にフレームに写っていた選手とボールだけであり、初めと終わりしかフレームに写らない選手がいれば、真ん中の時間はその選手の移動ベクトルが存在しないことになる。
4.認識不能人物の推定(ステップS14)−詳細は(5)に記載
抽出できた移動ベクトルの中で、人物認識が出来なかったものが誰であるか推定する。
この部分でも人物認識できなかった移動ベクトルに関しては人物を特定しない3Dオブジェクトを配置する、もしくは人物認識が出来ない程度しか写っていなかったという判断で削除する。
抽出できた移動ベクトルの中で、人物認識が出来なかったものが誰であるか推定する。
この部分でも人物認識できなかった移動ベクトルに関しては人物を特定しない3Dオブジェクトを配置する、もしくは人物認識が出来ない程度しか写っていなかったという判断で削除する。
5.移動ベクトル補間(ステップS15)−詳細は(6)に記載
今までのフローで抽出できた認識人物の移動ベクトルは、写っていない時間がある選手に関しては移動情報のない時間が存在する。この移動情報のない時間を補間することで、ユーザー指定範囲の間で認識人物の移動ベクトルが定まる。
今までのフローで抽出できた認識人物の移動ベクトルは、写っていない時間がある選手に関しては移動情報のない時間が存在する。この移動情報のない時間を補間することで、ユーザー指定範囲の間で認識人物の移動ベクトルが定まる。
6.3Dオブジェクト取得(ステップS16)
必要な3Dオブジェクトをweb上から取得する。
7.3Dオブジェクト配置(ステップS17)
取得した3Dオブジェクトを移動ベクトルどおりに配置することで、3DCG空間が出来上がる。
(3) 移動ベクトルの抽出を実現する一例のフローチャート
図5は(2)フロー3(ステップS13)の現行放送から選手の移動ベクトルの抽出を実現する一例のフローチャートであり、以下に説明する。
1.記憶装置から取得(ステップS31)したフレームがフィールドのどの位置なのかを認識する(以下これをフレーム位置と呼ぶ)。一例としてはコートのラインを用いてこれを判断する画像認識技術などがあるが、手法に関しては何でも良い。フレーム位置の認識が出来なかったフレームに関しては処理を行わずに、次フレームの処理に移る(ステップS32のNO)。
必要な3Dオブジェクトをweb上から取得する。
7.3Dオブジェクト配置(ステップS17)
取得した3Dオブジェクトを移動ベクトルどおりに配置することで、3DCG空間が出来上がる。
(3) 移動ベクトルの抽出を実現する一例のフローチャート
図5は(2)フロー3(ステップS13)の現行放送から選手の移動ベクトルの抽出を実現する一例のフローチャートであり、以下に説明する。
1.記憶装置から取得(ステップS31)したフレームがフィールドのどの位置なのかを認識する(以下これをフレーム位置と呼ぶ)。一例としてはコートのラインを用いてこれを判断する画像認識技術などがあるが、手法に関しては何でも良い。フレーム位置の認識が出来なかったフレームに関しては処理を行わずに、次フレームの処理に移る(ステップS32のNO)。
2.フレームに写る人物とボールの位置情報を一般的な画像認識技術によって抽出する(ステップS33)。フレーム位置は分かっているので、その時間にフレームに写っている選手とボールのフィールドでの位置が分かる。
3.写っている選手に関して画像解析によって、その選手が誰であるかの認識にトライする(ステップS34)。この時点で認識できなくても問題はない。
4.選手やボールの位置情報を前のフレームと比較することで移動ベクトルを決定する。しかし、カメラアングルの切り替えがあった場合は前フレームとの比較が出来ないので、この位置情報だけ記憶しておいて、次のフレームの処理にうつる。アングル切り替え有無の判断(ステップS35)はフレーム位置が急激に移動したがどうかで判断する。
4.選手やボールの位置情報を前のフレームと比較することで移動ベクトルを決定する。しかし、カメラアングルの切り替えがあった場合は前フレームとの比較が出来ないので、この位置情報だけ記憶しておいて、次のフレームの処理にうつる。アングル切り替え有無の判断(ステップS35)はフレーム位置が急激に移動したがどうかで判断する。
5.アングルの切り替えがなかった場合は、前フレームとの比較で移動ベクトルを決定するが(ステップS36)、その詳しいフローチャートは図6に示すものである。詳細は(4)に記載
6.ユーザーが指定する範囲のフレームに関して全て行う
(4) 移動ベクトル決定プロセスのフローチャート
図6は(3)フロー5の移動ベクトル決定プロセス(ステップS36)のフローチャートである。以下に説明する。
1.前フレームで抽出した位置情報を読み出し(ステップS61)、前フレームに写る一人に注目し(ステップS62)、今フレームの位置情報と比較する。
2.同一人物がいれば(ステップS63のYES)その人物の移動情報は決まる。同一人物がいない場合は、前のフレームに対して今のフレームに位置が近い選手が一人しかいなければ(ステップS64のYES)、それを同一人物と判断し移動ベクトルを決定する。前フレームに対して今のフレームに位置が近い選手がいない、もしくは二人以上いる場合は移動ベクトルの終点として(ステップS65)、一旦移動ベクトルを切ってしまう
(4) 移動ベクトル決定プロセスのフローチャート
図6は(3)フロー5の移動ベクトル決定プロセス(ステップS36)のフローチャートである。以下に説明する。
1.前フレームで抽出した位置情報を読み出し(ステップS61)、前フレームに写る一人に注目し(ステップS62)、今フレームの位置情報と比較する。
2.同一人物がいれば(ステップS63のYES)その人物の移動情報は決まる。同一人物がいない場合は、前のフレームに対して今のフレームに位置が近い選手が一人しかいなければ(ステップS64のYES)、それを同一人物と判断し移動ベクトルを決定する。前フレームに対して今のフレームに位置が近い選手がいない、もしくは二人以上いる場合は移動ベクトルの終点として(ステップS65)、一旦移動ベクトルを切ってしまう
3.1〜2の処理を前フレームに存在する位置情報全てに行う
上記フローは2の今フレームに近い位置が一人だけいるとは、前フレームと今フレームが同一人物と扱う処理の信頼性が高い状況を意味している。つまりそれ以外の、人が重なったり、位置の抽出に失敗するなど、移動ベクトルの抽出が困難な状況になった時は移動ベクトルを終了させてしまい、再び信頼性が高い状況になったら移動ベクトルをとりはじめる。このように処理しても抽出が困難な状況は長期間にはならないはずなので、後段の移動ベクトル補間のフローで切れた移動ベクトルを繋ぐことが出来る。
上記フローは2の今フレームに近い位置が一人だけいるとは、前フレームと今フレームが同一人物と扱う処理の信頼性が高い状況を意味している。つまりそれ以外の、人が重なったり、位置の抽出に失敗するなど、移動ベクトルの抽出が困難な状況になった時は移動ベクトルを終了させてしまい、再び信頼性が高い状況になったら移動ベクトルをとりはじめる。このように処理しても抽出が困難な状況は長期間にはならないはずなので、後段の移動ベクトル補間のフローで切れた移動ベクトルを繋ぐことが出来る。
また、今フローで新しく現れた人物に関しては前フローに存在しないので移動ベクトルは抽出されないが、(3)フロー2で新しい人物の位置は抽出しているので、その次のフレーム処理に移ったときに移動ベクトルが抽出され始めることになる。
(5) 認識不能人物の推定を実現するための一例のフローチャート
図7は(2)フロー4(ステップS14)の認識不能人物の推定を実現するための一例のフローチャートである。この例ではフレームに写る人間の位置抽出の信頼性が高い事を前提としている。また、補間の一例としてAIを用い、詳細は(6)に記載する。まずおおまかな流れを説明する。
図7は(2)フロー4(ステップS14)の認識不能人物の推定を実現するための一例のフローチャートである。この例ではフレームに写る人間の位置抽出の信頼性が高い事を前提としている。また、補間の一例としてAIを用い、詳細は(6)に記載する。まずおおまかな流れを説明する。
抽出した移動ベクトルが存在しない期間をAIによって繋げることで、認識人物の移動ベクトルを生成する。次にそれと比較することで、認識不能人物移動ベクトルが誰のものであるかを推定する。
ここで注意点がある。このフローで生成する認識人物の移動ベクトルはあくまで認識不能人物ベクトルを推定用するためのものであり、最終的な移動ベクトルには関係がないという事である。その理由を以下に示す。
移動ベクトルが存在しない期間というのは人が重なるなどして移動ベクトルの抽出に失敗するなどの場合を除けば、基本的にはフレームに写っていない期間である。AIによる移動ベクトル補間を行う際はこれを考慮して、フレームが写っているフィールド位置に補間による移動ベクトルが入らないようにする必要がある。しかし、このフローでこれを行ってしまうとフレームに写っている認識不能人物の推定は出来ないので、ひとまずフレーム位置を考慮せずにAI補間を行い、それと比較して認識不能人物の推定を行う。そして最終的に推定によって得られた認識人物の移動ベクトルも追加して、フレーム位置を考慮したAI補間を行うことで移動ベクトルが完成する。
図7が人物認識できなかった移動ベクトルの人物を推定するフローチャートであり、以下で説明する。
1.先ほど述べたフレーム位置を考慮しないAIによる移動ベクトル補間を行う(ステップS41)。詳細は(6)(7)に記載
2.一つの認識不能人物移動ベクトルに注目し(ステップS42)、それが存在する期間が全てAI補間によって生成されている認識人物の移動ベクトルを抽出する(ステップS43〜S45)。
1.先ほど述べたフレーム位置を考慮しないAIによる移動ベクトル補間を行う(ステップS41)。詳細は(6)(7)に記載
2.一つの認識不能人物移動ベクトルに注目し(ステップS42)、それが存在する期間が全てAI補間によって生成されている認識人物の移動ベクトルを抽出する(ステップS43〜S45)。
3.抽出した認識人物の移動ベクトルの中に認識不能人物移動ベクトルに近いものがあれば(ステップS46)、それを同一人物と判断する(ステップS47)。なければ人物認識は失敗となる(ステップS48)。
図10は認識不能人物移動ベクトル推定をサッカーの場合どのようになるか示したイメージ図である。左の図は推定する対象の認識不能人物の移動ベクトルであり、t7〜t8の期間存在している。真ん中の図は人物認識できている移動ベクトルのうちでt7〜t8の期間が全てAIによって補間されているものを抽出したものである。右の図は近い移動ベクトルが存在したので、これを同一人物と推定したことを表している。
(6) 移動ベクトル補間のフローチャート
図8は移動ベクトル補間のフローチャートである。補間手段の一例としてはAIによる補間があり、例えばベクトルが途切れた終点と次に現れる始点を単位時間当たりの移動ベクトルの変化量が平均になるようにつなぐ手法などがある。実施例ではAIを利用した補間で説明する。本実施例では移動ベクトル補間を二回行う。一回目は認識不能人物推定用の移動ベクトル生成のため、フレーム位置を考慮しないAIで補間を行う((5)のフロー1)。二回目は最終的な移動ベクトルを生成するための補間であり、フレーム位置を考慮して行う((2)のフロー5)。フローチャートはどちらも同じで、違いはAIがフレーム位置を考慮するかしないかの違いだけである。以下にフローを説明する。
図8は移動ベクトル補間のフローチャートである。補間手段の一例としてはAIによる補間があり、例えばベクトルが途切れた終点と次に現れる始点を単位時間当たりの移動ベクトルの変化量が平均になるようにつなぐ手法などがある。実施例ではAIを利用した補間で説明する。本実施例では移動ベクトル補間を二回行う。一回目は認識不能人物推定用の移動ベクトル生成のため、フレーム位置を考慮しないAIで補間を行う((5)のフロー1)。二回目は最終的な移動ベクトルを生成するための補間であり、フレーム位置を考慮して行う((2)のフロー5)。フローチャートはどちらも同じで、違いはAIがフレーム位置を考慮するかしないかの違いだけである。以下にフローを説明する。
1.まず特定の一人の人物認識できた移動ベクトルに関して注目する(ステップS51)。
2.移動ベクトルが途絶えた場合(ステップS52のYES)、再びその人物の移動ベクトルが現れるかどうかを判定する。
3.現れれば(ステップS53のYES)、途絶えた終点から再出現する始点までをAIによって補間する(ステップS54)。現れなければ(ステップS53のNO)、ユーザーが指定した期間の終わりまで、AIによって移動ベクトルを生成する(ステップS55)。
2.移動ベクトルが途絶えた場合(ステップS52のYES)、再びその人物の移動ベクトルが現れるかどうかを判定する。
3.現れれば(ステップS53のYES)、途絶えた終点から再出現する始点までをAIによって補間する(ステップS54)。現れなければ(ステップS53のNO)、ユーザーが指定した期間の終わりまで、AIによって移動ベクトルを生成する(ステップS55)。
4.1〜3の処理を人物認識できた人数分繰り返す(ステップS56)。
(7)移動ベクトル補間をサッカーで行った場合のイメージ図
図9はAIによる移動ベクトル補間をサッカーで行った場合のイメージ図である。左側が(3)(4)での抽出により人物認識ができた移動ベクトルのうち、特定の一人に関するものである。t1,t2,t3・・・はタイムスタンプを表しており、数字が大きくなるほど時刻が遅いことを意味する。この例ではt1〜t2、t3〜t4、t5〜t6はフレームに写っていたため移動ベクトルがあり、t2〜t3、t4〜t5は移動ベクトルが存在しない。よってこの期間の移動ベクトルをAIによって補間した結果が右の図である。点線がAI補間によって生成した部分を表している。
(7)移動ベクトル補間をサッカーで行った場合のイメージ図
図9はAIによる移動ベクトル補間をサッカーで行った場合のイメージ図である。左側が(3)(4)での抽出により人物認識ができた移動ベクトルのうち、特定の一人に関するものである。t1,t2,t3・・・はタイムスタンプを表しており、数字が大きくなるほど時刻が遅いことを意味する。この例ではt1〜t2、t3〜t4、t5〜t6はフレームに写っていたため移動ベクトルがあり、t2〜t3、t4〜t5は移動ベクトルが存在しない。よってこの期間の移動ベクトルをAIによって補間した結果が右の図である。点線がAI補間によって生成した部分を表している。
上記のような実施形態により、以下の効果を得る。
(1)一つの視点映像から選手やボールの移動情報を抽出・推定し、さらに3DCG空間によって選手の位置情報を再現するという手段によって、現行の放送波から複数人物による競技における各選手の移動情報を好きな視点で鑑賞できるようになった。
(1)一つの視点映像から選手やボールの移動情報を抽出・推定し、さらに3DCG空間によって選手の位置情報を再現するという手段によって、現行の放送波から複数人物による競技における各選手の移動情報を好きな視点で鑑賞できるようになった。
(2)3DCG空間の生成をテレビの中で実現することにより、ユーザーは手軽に複数人物による競技における各選手の移動情報を自由な視点で鑑賞できるようになった。
(3)一つの視点映像から選手の移動情報を抽出する手法を用いたので、外部から取得するのは3Dオブジェクトのみになり、既存の放送インフラはほぼ変更することなく位置関係を再現する3DCG空間の作成が可能になった。
(4)認識不能人物の推定を行うので、選手の移動情報の正確さが向上した。
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。例えばサッカーコートにおける人物(主に審判等を除いた選手)を取り上げたが、テニスコートにおける人物やボールを対象とするものでもよい。また、コートという場所に限らず、陸上のトラック競技のトラック近辺や、フィールド競技の競技場所近辺における人物等を捉えて同様のことを行えばよい。
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。例えばサッカーコートにおける人物(主に審判等を除いた選手)を取り上げたが、テニスコートにおける人物やボールを対象とするものでもよい。また、コートという場所に限らず、陸上のトラック競技のトラック近辺や、フィールド競技の競技場所近辺における人物等を捉えて同様のことを行えばよい。
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係る構成要素を適宜組み合わせても良いものである。
1,2,3…3Dview-TV、11,21…放送波受信部、12,22,32…メモリ、13,33…移動ベクトル抽出部、14…認識不能人物推定部、15…移動ベクトル補間部、16…ディスプレイ鑑賞用映像生成部、17…ディスプレイ、26…3Dオブジェクト配置部。
Claims (5)
- 外部からの放送波による映像内の人物の移動情報を抽出し、
外部から指定された視点からの前記移動情報を表現した映像を映写する
ことを特徴とするテレビジョン受像方法。 - 外部からの放送波による映像を録画し、
この録画された映像から人物の移動情報を抽出し、
外部から指定された視点からの前記移動情報を表現した映像を映写する
ことを特徴とするテレビジョン受像方法。 - 前記人物の時間的に離散な移動情報の欠落した部分を補間することにより、時間連続な移動情報にすることを特徴とする請求項1に記載のテレビジョン受像方法。
- 前記人物が認識できなかった移動情報が誰の移動情報であるのかを推測し、この人物の移動情報の生成に利用することを特徴とする請求項1に記載のテレビジョン受像方法。
- 外部からの放送波による映像内の人物の移動情報を抽出する抽出手段と、
外部から指定された視点からの前記移動情報を表現した映像を映写する移動情報表現手段とを
備えたことを特徴とするテレビジョン受像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008084416A JP2009239721A (ja) | 2008-03-27 | 2008-03-27 | テレビジョン受像装置及びテレビジョン受像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008084416A JP2009239721A (ja) | 2008-03-27 | 2008-03-27 | テレビジョン受像装置及びテレビジョン受像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009239721A true JP2009239721A (ja) | 2009-10-15 |
Family
ID=41253121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008084416A Pending JP2009239721A (ja) | 2008-03-27 | 2008-03-27 | テレビジョン受像装置及びテレビジョン受像方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009239721A (ja) |
-
2008
- 2008-03-27 JP JP2008084416A patent/JP2009239721A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10721439B1 (en) | Systems and methods for directing content generation using a first-person point-of-view device | |
US20190287302A1 (en) | System and method of controlling a virtual camera | |
JP6702329B2 (ja) | 映像処理装置、映像処理方法、及び、プログラム | |
WO2021249414A1 (zh) | 数据处理方法、系统、相关设备和存储介质 | |
CN103797783B (zh) | 评论信息生成装置及评论信息生成方法 | |
JP6894962B2 (ja) | 自由視点映像用画像データのキャプチャ方法及び装置、プログラム | |
US8805007B2 (en) | Integrated background and foreground tracking | |
JP5724283B2 (ja) | 情報処理装置、同期方法およびプログラム | |
JP6794545B2 (ja) | 仮想カメラを構成する方法、システム及び装置 | |
JPWO2006025272A1 (ja) | 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム | |
KR101612199B1 (ko) | 가상 이미지 상에 자동적으로 표정을 재생하는 방법 및 장치 | |
JP2009505553A (ja) | ビデオストリームへの視覚効果の挿入を管理するためのシステムおよび方法 | |
Yu et al. | Current and emerging topics in sports video processing | |
KR20100103776A (ko) | 화상 처리 장치, 동화상 재생 장치, 이것들에 있어서의 처리 방법 및 프로그램 | |
JP2019101892A (ja) | オブジェクト追跡装置及びそのプログラム | |
Kilner et al. | 3D action matching with key-pose detection | |
JP2008135923A (ja) | リアルタイムに相互作用する映像の制作方法、映像の制作装置、および映像の制作システム | |
JP6602726B2 (ja) | 仮想環境生成装置、仮想環境生成方法、プログラム | |
JP3929811B2 (ja) | 画像合成装置及び画像合成方法 | |
WO2020017354A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
TW200803501A (en) | Searching method of searching highlight in film of tennis game | |
JP2009239721A (ja) | テレビジョン受像装置及びテレビジョン受像方法 | |
CN115175005A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
JP6450305B2 (ja) | 情報取得装置、情報取得方法及び情報取得プログラム | |
WO2021100516A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム |