JP2022501748A - 立体ストライクゾーンの表示方法及び装置 - Google Patents

立体ストライクゾーンの表示方法及び装置 Download PDF

Info

Publication number
JP2022501748A
JP2022501748A JP2021526630A JP2021526630A JP2022501748A JP 2022501748 A JP2022501748 A JP 2022501748A JP 2021526630 A JP2021526630 A JP 2021526630A JP 2021526630 A JP2021526630 A JP 2021526630A JP 2022501748 A JP2022501748 A JP 2022501748A
Authority
JP
Japan
Prior art keywords
dimensional
strike zone
batter
coordinate values
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021526630A
Other languages
English (en)
Inventor
サンユン イ
ウンキ キム
Original Assignee
4ディーリプレー コリア,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 4ディーリプレー コリア,インコーポレイテッド filed Critical 4ディーリプレー コリア,インコーポレイテッド
Publication of JP2022501748A publication Critical patent/JP2022501748A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Abstract

一実施形態による立体ストライクゾーンの表示方法は、多チャネル映像でのストライクゾーンを表示するか、またはストライクゾーンを立体的に表現することにより、投手の投げたボールが多様な角度でのストライクゾーンを通るか否かを判断することができる。

Description

本発明は、立体ストライクゾーンの表示方法及び装置に関する。
近年、大衆は、モバイルを利用した動画の再生を好む。かかる好みに歩調を合わせて、企業は、放送プラットホーム、例えば、V−app、AfreecaTV、Youtube Liveをサービスしている。かかるプラットホームを視聴する大衆は、一つの視点、すなわち、一つのカメラで撮影した映像を視聴している。しかし、近年、視聴者は、所望の空間で撮影された映像を視聴することを所望する。
現在、複数のカメラで一つの被写体を多様なチャネルで撮影して獲得した複数の映像を幾何学的に校正及び合成し、多チャネルの映像をユーザに提供する映像サービスが公開されている。当該多チャネル映像は、高画質の概念を打ち破るリアリティのある映像を提供し、それにより、ユーザはメディアに没頭感をさらに感じることになり、広告、教育、医療、国防、娯楽などの分野で映像情報伝達効果を大きく向上させることができる。
従来の多チャネル映像においては、チャネル/時間のスイッチングが、多チャネル映像の制作時に予め決まった併合方式により単純に再生される程度である。すなわち、従来には、複数台のカメラで複数個のフレームを獲得し、獲得したフレームのうち一部を選別した後、それらのフレームを併合して、一つのチャネルスイッチング映像を制作した。当該チャネルスイッチング映像は、映像の制作時に制作者が予め決めたチャネルのフレームを単純に併合したものであるので、当該映像ファイルを再生すれば、併合されたフレームが単一のチャネル移動効果を表すチャネルスイッチング効果を表すものであった。かかる従来技術の多チャネル映像によれば、ユーザは、予め制作されたチャネルスイッチング効果を単純に視聴するに過ぎず、視聴者が視覚スイッチングまたはチャネルスイッチングを手動で操作して、再生を所望する時点でチャネルを回しつつ映像を視聴することはできなかった。
一方、野球中継時に、投手の投げたボールがストライクであるかボールであるかを、野球中継画面の二次元平面上で表示するか、またはボールがストライクゾーンを通るか否かを表示する技術が一般化されていた。しかし、前述した多チャネル映像におけるストライクゾーンを表示するか、またはストライクゾーンを立体的に表現するのには、多くの技術的困難さが存在している。
本実施形態は、立体ストライクゾーンの表示方法及び装置を提供することを目的とする。
一実施形態による立体ストライクゾーンの表示方法は、ホームプレートを含むバッターボックスの少なくとも4個の基準点座標に基づいて、三次元座標系を設定するステップと、前記設定された三次元座標系に相応するように、前記立体ストライクゾーンの座標値を設定するステップと、多チャネル映像を生成するための複数のカメラそれぞれに投影された二次元映像平面での前記バッターボックスの二次元座標値を獲得するステップと、前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、回転(rotation)情報及び移動(translation)情報を推定するステップと、前記回転情報及び移動情報に基づいて、前記複数のカメラそれぞれに投影された二次元映像平面に、前記立体ストライクゾーンを表示するステップと、を含む。
前記回転情報及び移動情報は、前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、Levenberg-Marquardt optimization、Perspective-Three-Point、または最小自乗法により推定されることを特徴とする。
前記方法は、前記立体ストライクゾーンの座標値は10個であり、前記10個のうち2個の値h1及びh2は、現在の打席に登場するバッターの身長によって可変する座標値であることを特徴とする。
前記バッターの身長は、任意のデータベースから抽出するか、または前記バッターの映像検出により抽出することを特徴とする。
前記方法は、投手の投げたボールの軌跡を検出及び追跡するステップをさらに含み、前記表示された立体ストライクゾーンを前記ボールが通るか否かを検出することにより、ストライクであるか否かを判断することを特徴とする。
他の実施形態による立体ストライクゾーンの表示装置は、ホームプレートを含むバッターボックスの少なくとも4個の基準点座標に基づいて、三次元座標系を設定し、前記設定された三次元座標系に相応するように、前記立体ストライクゾーンの座標値を設定する三次元座標設定部と、多チャネル映像を生成するための複数のカメラそれぞれに投影された二次元映像平面での前記バッターボックスの二次元座標値を獲得し、前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、回転(rotation)情報及び移動(translation)情報を推定する立体ストライクゾーン生成部と、前記回転情報及び移動情報に基づいて、前記複数のカメラそれぞれに投影された二次元映像平面に、前記立体ストライクゾーンを表示する映像処理部と、を含む。
前記回転情報及び移動情報は、前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、Levenberg-Marquardt optimization、Perspective-Three-Point、または最小自乗法により推定されることを特徴とする。
前記装置は、前記立体ストライクゾーンの座標値は10個であり、前記10個のうち2個の値h1及びh2は、現在の打席に登場するバッターの身長によって可変する座標値であることを特徴とする。
前記バッターの身長は、任意のデータベースから抽出するか、または前記バッターの映像検出により抽出することを特徴とする。
前記装置は、投手の投げたボールの軌跡を検出及び追跡する軌跡追跡部をさらに含み、前記表示された立体ストライクゾーンを前記ボールが通るか否かを検出することにより、ストライクであるか否かを判断することを特徴とする。
さらに他の実施形態による、前記方法をコンピュータで実行させるための方法を記録した記録媒体を含む。
本実施形態による立体ストライクゾーンの表示方法及び装置によれば、多チャネル映像でのストライクゾーンを表示するか、またはストライクゾーンを立体的に表現することにより、投手の投げたボールが多様な角度でのストライクゾーンを通るか否かを判断することができる。
一実施形態による多チャネル映像のための伝送システム100の概略図である。 多チャネル映像を生成する例示図である。 一実施形態による立体ストライクゾーン300を表示する概略図である。 図1に示した映像処理装置130の概略図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。 他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。
本実施形態において使われる用語は、本実施形態における機能を考慮しつつ、できる限り現在広く使われている一般的な用語を選択したが、それは、当業者の意図または判例、新たな技術の出現などによって変わりうる。また、特定の場合は、任意に選定された用語もあり、その場合、該当する実施形態の説明の部分で詳細にその意味を記載する。したがって、本実施形態において使われる用語は、単純な用語の名称ではなく、その用語が有する意味と、本実施形態の全般にわたった内容とに基づいて定義されなければならない。
本実施形態についての説明において、ある部分が他の部分と連結されているとするとき、それは、直接連結されている場合だけでなく、その間に他の構成要素を挟んで電気的に連結されている場合も含む。また、ある部分がある構成要素を含むとするとき、それは、特に逆になる記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいということを意味する。また、本実施形態に記載された“…部”の用語は、少なくとも一つの機能や動作を処理する単位を意味し、それは、ハードウェアまたはソフトウェアにより具現されてもよく、ハードウェアとソフトウェアとの結合により具現されてもよい。
本実施形態において使われる“構成される”または“含む”などの用語は、明細書上に記載された色々な構成要素、または色々なステップを必ずしも全て含むものと解釈されるものではなく、そのうち一部の構成要素または一部のステップは含まれず、追加的な構成要素またはステップをさらに含んでもよいものと解釈されなければならない。
下記の実施形態についての説明は、権利範囲を制限するものと解釈されるものではなく、当該技術分野の当業者が容易に類推可能なものは、本実施形態の権利範囲に属するものと解釈されなければならない。以下、添付された図面を参照して、例示だけのための実施形態を詳細に説明する。
図1は、一実施形態による多チャネル映像のための伝送システム100の概略図である。
図1を参照すれば、伝送システム100は、複数のカメラ111ないし113と、複数のカメラ111ないし113を制御し、複数のカメラ111ないし113から撮影された多チャネル映像を処理及び伝送するカメラ制御部110と、カメラ制御部110から伝送された多チャネル映像を処理及び保存する映像サーバ200とを含む。映像サーバ200は、ユーザ端末150から、多チャネル映像についての要請、スイッチング映像についての要請、及び特定のイベントについての要請を受信し、保存された多チャネル映像をユーザ端末150へ伝送する。映像サーバ200は、映像処理装置130及び映像保存部140を含む。
図2に示したように、特定の被写体を撮影するために、複数のカメラ1ないしNが配置されてもよい。被写体の周囲にアレイに配列された複数のカメラで被写体を多角度で撮影した複数の映像を受信する。複数のカメラの配列方法は、例えば、任意のカメラを基準として、N台のカメラを実質的に同じ平面上に一列に配置するものであってもよい。その場合、被写体を基準として、一定の距離ほど離隔された円周上にN台のカメラを順次に配置することもでき、中央に配置されたカメラを基準として、両側に配置された二台のカメラと被写体との距離を一致させ、残りのカメラは被写体との距離を異ならせることもできる。また、被写体は、固定された被写体であってもよく、動く被写体であってもよい。
複数のカメラ1ないしN、及びカメラ制御部110は、有線または無線で通信可能であり、複数のカメラ1ないしNを制御するための複数のカメラ制御部を備えることも可能である。
カメラ制御部110は、複数のカメラ1ないしNを同期化する同期化信号により、複数のカメラ1ないしNを制御する。カメラ制御部110は、複数のカメラ1ないしNから撮影された映像を臨時保存し、コーデック変更により、撮影された映像の大きさを減らし、かつ速い伝送を可能にする。
映像サーバ200は、カメラ制御部110から伝送された多チャネル映像のうち、少なくとも一つの映像についての立体ストライクゾーンを生成して表示する。
映像サーバ200は、多チャネル映像を、ユーザ端末の要請によって通信網を介して伝送する。また、映像サーバ200は、立体ストライクゾーンを含む多チャネル映像を、時間別、チャネル別、時間及びチャネルを混合した少なくとも一つの基準でグルーピングして保存し、ユーザ端末の要請によって、グルーピングされた映像を、通信網を介してユーザ端末150へ伝送する。
図3は、一実施形態による立体ストライクゾーン300を表示する概略図である。
図3を参照すれば、一実施形態による多チャネル映像伝送システムにより、特定のカメラ、例えば、図2に示したカメラ1で撮影された野球中継画面上に、立体ストライクゾーン300が共に表示されている。ここで、全てのカメラ2ないしNで撮影された野球中継画面上にも、同じ立体ストライクゾーンが共に表示される。ここで、投手の投げたボールが立体ストライクゾーン300を通るか否かによって、ボールまたはストライクの判定が可能であり、投手の投げたボールの軌跡を検出及び追跡しつつ、立体ストライクゾーン300を通るか否かを表示することもできる。したがって、ユーザが所望の角度(または、カメラ)で撮影された画面をスイッチングしつつ、野球中継画面を見るとき、仮想の立体ストライクゾーン300を生成して、画面に共に表示することができる。
多チャネル映像伝送システムは、各カメラの映像から、ストライクゾーンの座標情報を推定し、実際のバッターボックスの規格と、映像内でのバッターボックスの座標情報とを利用して、それぞれのカメラで撮影された映像平面での回転情報及び移動情報を獲得し、それらを利用して、ストライクゾーンを構成する10個の座標を推定して、それぞれの映像に投影させる。ここで、五角形のストライクゾーンの形状によって、10個の座標を推定しているが、その数に限定されるものではない。詳細な立体ストライクゾーンの生成及び表示の方法は、図5ないし図9を参照して説明する。
図4は、図1に示した映像処理装置130の概略図である。
図4を参照すれば、映像処理装置130は、立体ストライクゾーン生成部131と、映像処理部132と、映像変換部133と、伝送部134とを含む。一実施形態による映像処理装置130は、野球中継ストリーミングサービスのための映像処理のためのものであり、立体ストライクゾーンを生成及び表示する処理を行う。
立体ストライクゾーン生成部131は、ホームプレートを含むバッターボックスの少なくとも4個の基準点座標に基づいて、三次元座標系を設定し、設定された三次元座標系に相応するように、立体ストライクゾーンの座標値を設定する。また、多チャネル映像を生成するための複数のカメラそれぞれに投影された二次元映像平面でのバッターボックスの二次元座標値を獲得し、三次元座標系と二次元座標値との対応する座標値に基づいて、回転情報及び移動情報を推定する。
図5ないし図9は、他の実施形態による立体ストライクゾーンを生成及び表示することを説明するための例示図である。
図5を参照すれば、実際の野球場に設けられたバッターボックスの規格が示されている。バッターボックスのうち、ホームプレートは五角形であり、横及び縦の長さが43.18cmであり、五角形の頂点を形成するために、21.59cmを基準として分けられる。左右打席に打者が位置した打席の横長は317.5cmであり、縦長は182.88cmである。
図6を参照すれば、図5に示したバッターボックスの実際の規格を参照して、四角の座標を三次元座標系に設定する。図6に示したように、P1(0,0,0)、P2(317.5,0,0)、P3(0,182.88,0)及びP4(317.5,182.88,0)に設定する。ここで、4個の座標P1ないしP4、またはバッターボックスの四角を基準としているが、それに限定されず、多様な基準座標を設定可能であることはいうまでもない。
図7を参照すれば、図6に示した三次元座標に相応するように、ホームプレートの大きさに基づいて、立体ストライクゾーンの座標K1ないしK10を設定する。ここで、h1及びh2は、打者の体形または身長によって高低が変わるストライクゾーンの特性によって可変的に適用可能な媒介変数である。例えば、打者の身長が高い場合には、h1及びh2の値が大きいものの、打者の身長が低い場合には、h1及びh2の値が小さい。そのような打者の身長は、別途のデータベース、例えば、野球選手の詳細情報を記録したデータベースから情報を抽出することもでき、または野球中継映像中から打者の映像を検出して、身長を測定した後、その測定結果を反映して、h1及びh2を決めることもできる。
図7に示したように、底のホームプレートを基準として、立体ストライクゾーンの下面の5個の座標K1ないしK5、及び上面の5個の座標K6ないしK10は、次の通りである。
立体ストライクゾーンを構成する10個の座標は、K1(137.16,69.81,h1)、K2(180.34,69.81,h1)、K3(180.34,91.44,h1)、K4(158.75,113.03,h1)、K5(137.34、91.44,h1)、K6(137.16,69.81,h2)、K7(180.34,69.81,h2)、K8(180.34,91.44,h2)、K9(158.75,113.03,h2)、K10(137.34,91.44,h2)を含む。一実施形態で記載されたバッターボックスまたは立体ストライクゾーンの座標値は、例示的なものであり、正確に数値が一致する必要はなく、割合のみが対応しても具現可能であることはいうまでもない。ここで、h1及びh2は、前述したように、打者の身長によって可変できる数値である。
図8を参照すれば、特定のカメラ、例えば、図2に示した複数のカメラのうちいずれか一つのカメラで撮影された映像平面に結ばれた二次元座標と、対応するバッターボックス及びホームプレートの三次元座標とを利用する。ここで、対応する点により、Levenberg-Marquardt optimization、Perspective-Three-Point、最小自乗法などを利用できる。そのような方法により、特定のカメラで撮影された映像に、立体ストライクゾーンを合成するための、回転情報及び移動情報を推定する。すなわち、三次元座標系と、投影されたそれぞれの二次元座標系との対応する3個以上の座標が分かれば、それぞれの二次元座標系に投影された回転情報及び移動情報の推定が可能である。ここで、Levenberg-Marquardt optimization、Perspective-Three-Point、最小自乗法などを利用するものと説明したが、それらに限定されず、他の方法を使用可能であることはいうまでもない。
Perspective-n-Pointを参照して、回転情報及び移動情報を利用した3D−2Dイメージ投影について詳細に説明する。特定の3D空間の座標と、特定のイメージ平面とのそれぞれ対応する4個以上の点が分かれば、当該空間間の回転情報及び移動情報を獲得することができる。もちろん、使用するアルゴリズムによって、3個の点でもポーズ推定が可能である。すなわち、Perspective-n-Pointを利用して獲得した回転情報及び移動情報があれば、3D空間の特定の座標をイメージ平面に対応させることができる。
回転情報R及び移動情報Tを、下記の数式1及び数式2のように定義することができる。
Figure 2022501748
Figure 2022501748
そして、3D座標をPw=(Xw,Yw,Zw)と、投影される2D座標をPc(Xc,Yc,Zc)と仮定すれば、下記の数式3のように定義することができる。
Figure 2022501748
ここで、イメージ平面のサイズに合うように投影するために、Pcに内部のカメラモデル情報Mを乗ずれば、下記の数式4の通りである。
Figure 2022501748
そのとき、x、yが実際のイメージ平面のx、yであり、式を整理すれば、下記の数式5の通りである。
Figure 2022501748
前記数式1ないし数式5を参照して、3D座標系のPw1、Pw2、Pw3、Pw4を下記のように設定する。Pw1=(0,20.183,0)、Pw2=(100,20.183,0)、Pw3=(100,79.816,0)、Pw4=(0,79.815,0)であり、回転情報及び移動情報は、下記の通りである。
Figure 2022501748
次いで、立体ストライクゾーンの座標値kないしk10は、下記の通りである。
=(44,43,−12)、k=(56,43,−12)、k=(56,50,−12)、k=(50,57,−12)、k=(44,50,−12)、k=(44,43,−30)、k=(56,50,−30)、k=(56,50,−30)、k=(50,57,−30)、k10=(44,50,−30)である場合、イメージ平面でのkないしk10のx、y値は、下記の数式6ないし数式15の通りである。
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
Figure 2022501748
前述した方法により、各カメラにおけるイメージ平面での立体ストライクゾーンの座標値を計算することができる。
一実施形態において、3D空間の座標とマッチングされるイメージ平面の座標を利用して、回転情報R及び移動情報Tを推定する。次いで、Levenberg-Marquardt optimizationなどの方法により、R及びTの値を代入させて計算し、実際の結果値と計算された結果値との誤差が閾値よりも小さくなるまで、改善されたR及びTの値を修正して再び計算する。そのような過程を繰り返せば、実際の値に近接することになり、最も近接したR及びTを選択することができる。ここで、R、T、Mを下記のように定義する。
Figure 2022501748
ここで、R及びTを計算して評価するための評価関数をFとすれば、Fは、下記の数式16のように定義することができる。
Figure 2022501748
評価関数の目標値はF(s)であり、それは、実際のイメージ平面の座標値に該当する。次いで、入力ベクトルC(k=0)を初期化する。ここで、Cは、入力ベクトルR及びTを意味する。
入力ベクトルについて、前記数式16を利用して、関数F(C)を計算する。
誤差関数F(k)=F(s)−F(C)を計算する。ここで、誤差関数は、実際のイメージ平面の値と、入力ベクトルR及びTとを代入して出てきた比較値を意味する。
また、入力ベクトルの改善のために、下記の数式17を利用する。
Figure 2022501748
ここで、J(k)は、C(k)に対するF(k)の微分であり、入力ベクトルを収斂する方向に改善するための関数である。ここで、kは、反復回数であり、Cは、入力ベクトルR、Tである。
また、下記の数式18を満足すれば終了し、そうでなければ、入力ベクトルについての関数F(C)を再び計算して繰り返す。
Figure 2022501748
ここで、δは、収斂されたか否かを評価するための閾値である。
図9Aに示したように、ホームプレートを含むバッターボックスの少なくとも4個の基準点座標に基づいて、三次元座標系を設定する。また、三次元座標系に相応するように、立体ストライクゾーンの座標値を設定する。
図9Bに示したように、多チャネル映像を生成するための複数のカメラそれぞれに投影された二次元映像平面でのバッターボックスの二次元座標値を獲得する。ここで、前記数式1ないし数式18を参照して説明したように、三次元座標系と二次元座標値との対応する座標値に基づいて、回転情報及び移動情報を推定する。それぞれのカメラ(図2に示したカメラ1ないしN)におけるイメージ平面での座標値に基づいて、回転情報及び移動情報を推定する。
図9Cに示したように、回転情報及び移動情報に基づいて、複数のカメラそれぞれに投影された二次元映像平面に、立体ストライクゾーンを表示する。
一実施形態において、映像処理部132は、立体ストライクゾーン生成部131で推定された回転情報及び移動情報に基づいて、複数のカメラ(図2に示したカメラ1ないしN)それぞれに投影された二次元映像平面に、立体ストライクゾーンを表示する。
映像処理部132は、伝送された多チャネル映像、すなわち、複数のカメラで撮影された映像について、映像補正を行う。例えば、複数のカメラで撮影された映像が、焦点が合ってもいないので、カメラ間の焦点が同じであるように、映像処理を行う。映像処理部132は、伝送された多チャネル映像を補正する。N台のカメラ配列の幾何学的誤差は、多チャネル映像を再生する過程において、視覚的な揺れにより表されるので、それを取り除くために、各映像の大きさまたはサイズ、勾配または中心位置のうち少なくとも一つを補正する。
映像変換部133は、多チャネル映像を、時間別、チャネル別、時間及びチャネルを混合した少なくとも一つの基準でグルーピングする。映像変換部133は、複数の空間を一つにしてグルーピングする。グルーピングする方法は、多様な基準によって遂行される。一実施形態による伝送システムは、ユーザ端末150へ効果的な多チャネル映像ないしスイッチング映像を伝送するために、全ての映像データを伝送してデータを無駄にすることなく、グルーピングされた映像を伝送することにより、ユーザに必要なデータのみを伝送可能にする。映像変換部133は、t時間のイベントを中心として、±y(yは、自然数)時間別のチャネル映像をまとめてグルーピングすることもできる。例えば、チャネル1で、t3でイベントが発生した場合である。ここで、イベントは、予め決まった場合、例えば、野球競技でホームラン場面またはアウト場面であってもよく、ユーザの要請によるイベント、ユーザが所望する場合であってもよい。
映像変換部133は、多チャネル映像を、時間別、チャネル別、または時間及びチャネルを混合した基準でグルーピングして、映像保存部140に保存する。ユーザ端末150の要請がある場合、映像処理装置130が映像保存部140に保存された映像を抽出して、伝送部134を介してユーザ端末150へ伝送する。ここで、伝送部134は、ストリーミング装置であり、映像サーバ130内に含まれているものと説明するが、映像サーバ130と分離され、別途の装置として具現可能であることはいうまでもない。
伝送部133は、処理された映像、または保存された映像をリアルタイムで伝送する。例えば、リアルタイム・ストリーミングのための装置でもある。伝送部133は、ユーザ端末と、セッション管理、プロトコル管理を行うメッセージハンドラと、映像をユーザ端末へ伝送し、ユーザ端末へ伝送する映像の集合であるストリーマと、ユーザ端末の信号を受け、映像をGOP単位でスケジューリングした後、ストリーマに伝達するチャネルマネージャとを含む。
一実施形態は、コンピュータにより実行されるプログラムモジュールのような、コンピュータにより実行可能な命令語を含む記録媒体の形態でも具現可能である。コンピュータで読み取り可能な媒体は、コンピュータによりアクセスされる任意の可用媒体であってもよく、揮発性及び不揮発性の媒体、並びに分離型及び非分離型の媒体をいずれも含む。また、コンピュータで読み取り可能な媒体は、コンピュータ記録媒体及び通信媒体をいずれも含む。コンピュータ記録媒体は、コンピュータで読み取り可能な命令語、データ構造、プログラムモジュールまたはその他のデータのような情報の保存のための任意の方法または技術により具現された揮発性及び不揮発性、並びに分離型及び非分離型の媒体をいずれも含む。通信媒体は、典型的にコンピュータで読み取り可能な命令語、データ構造、プログラムモジュール、搬送波のような変調されたデータ信号のその他のデータ、またはその他の伝送メカニズムを含み、任意の情報伝達媒体を含む。
前述した説明は、例示のためのものであり、本発明の属する技術分野における通常の知識を持つ者は、本発明の技術的思想や必須的な特徴を変更することなく、他の具体的な形態に容易に変形可能であるということを理解できるであろう。したがって、前述した実施形態は、全ての面で例示的なものであり、限定的ではないものと理解しなければならない。例えば、単一型と述べられている各構成要素は、分散されて実施されてもよく、同様に、分散されたものと述べられている構成要素も、結合された形態に実施されてもよい。
本発明の範囲は、前述した詳細な説明よりは、後述する特許請求の範囲により表され、特許請求の範囲の意味及び範囲、並びにその均等概念から導出される全ての変更または変形された形態が、本発明の範囲に含まれるものと解釈されなければならない。

Claims (11)

  1. 立体ストライクゾーンの表示方法であって、
    ホームプレートを含むバッターボックスの少なくとも4個の基準点座標に基づいて、三次元座標系を設定するステップと、
    前記設定された三次元座標系に相応するように、前記立体ストライクゾーンの座標値を設定するステップと、
    多チャネル映像を生成するための複数のカメラそれぞれに投影された二次元映像平面での前記バッターボックスの二次元座標値を獲得するステップと、
    前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、回転(rotation)情報及び移動(translation)情報を推定するステップと、
    前記回転情報及び移動情報に基づいて、前記複数のカメラそれぞれに投影された二次元映像平面に、前記立体ストライクゾーンを表示するステップと、を含む立体ストライクゾーンの表示方法。
  2. 前記回転情報及び移動情報は、
    前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、Levenberg-Marquardt optimization、Perspective-Three-Point、または最小自乗法により推定されることを特徴とする請求項1に記載の立体ストライクゾーンの表示方法。
  3. 前記立体ストライクゾーンの座標値は10個であり、前記10個のうち2個の値h1及びh2は、現在の打席に登場するバッターの身長によって可変する座標値であることを特徴とする請求項1に記載の立体ストライクゾーンの表示方法。
  4. 前記バッターの身長は、
    任意のデータベースから抽出するか、または前記バッターの映像検出により抽出することを特徴とする請求項3に記載の立体ストライクゾーンの表示方法。
  5. 投手の投げたボールの軌跡を検出及び追跡するステップをさらに含み、
    前記表示された立体ストライクゾーンを前記ボールが通るか否かを検出することにより、ストライクであるか否かを判断することを特徴とする請求項1に記載の立体ストライクゾーンの表示方法。
  6. 立体ストライクゾーンの表示装置であって、
    ホームプレートを含むバッターボックスの少なくとも4個の基準点座標に基づいて、三次元座標系を設定し、前記設定された三次元座標系に相応するように、前記立体ストライクゾーンの座標値を設定する三次元座標設定部と、
    多チャネル映像を生成するための複数のカメラそれぞれに投影された二次元映像平面での前記バッターボックスの二次元座標値を獲得し、前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、回転(rotation)情報及び移動(translation)情報を推定する立体ストライクゾーン生成部と、
    前記回転情報及び移動情報に基づいて、前記複数のカメラそれぞれに投影された二次元映像平面に、前記立体ストライクゾーンを表示する映像処理部と、を含む立体ストライクゾーンの表示装置。
  7. 前記回転情報及び移動情報は、
    前記三次元座標系と前記二次元座標値との対応する座標値に基づいて、Levenberg-Marquardt optimization、Perspective-Three-Point、または最小自乗法により推定されることを特徴とする請求項6に記載の立体ストライクゾーンの表示装置。
  8. 前記立体ストライクゾーンの座標値は10個であり、前記10個のうち2個の値h1及びh2は、現在の打席に登場するバッターの身長によって可変する座標値であることを特徴とする請求項6に記載の立体ストライクゾーンの表示装置。
  9. 前記バッターの身長は、
    任意のデータベースから抽出するか、または前記バッターの映像検出により抽出することを特徴とする請求項8に記載の立体ストライクゾーンの表示装置。
  10. 投手の投げたボールの軌跡を検出及び追跡する軌跡追跡部をさらに含み、
    前記表示された立体ストライクゾーンを前記ボールが通るか否かを検出することにより、ストライクであるか否かを判断することを特徴とする請求項6に記載の立体ストライクゾーンの表示装置。
  11. 請求項1ないし5のいずれか一項に記載の方法をコンピュータで実行させるためのプログラムを記録した記録媒体。
JP2021526630A 2018-11-16 2018-11-22 立体ストライクゾーンの表示方法及び装置 Pending JP2022501748A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180141963A KR102149003B1 (ko) 2018-11-16 2018-11-16 입체 스트라이크 존 표시 방법 및 장치
KR10-2018-0141963 2018-11-16
PCT/KR2018/014434 WO2020101094A1 (ko) 2018-11-16 2018-11-22 입체 스트라이크 존 표시 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2022501748A true JP2022501748A (ja) 2022-01-06

Family

ID=70731459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526630A Pending JP2022501748A (ja) 2018-11-16 2018-11-22 立体ストライクゾーンの表示方法及び装置

Country Status (4)

Country Link
US (1) US20210319618A1 (ja)
JP (1) JP2022501748A (ja)
KR (1) KR102149003B1 (ja)
WO (1) WO2020101094A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900678B2 (en) * 2021-06-08 2024-02-13 Patricia Hall System for tracking, locating and calculating the position of an object in a game involving moving objects
US11707663B1 (en) * 2021-06-08 2023-07-25 Matthew Hall System for tracking, locating and predicting the position of a ball in a game of baseball or similar
JP2024528822A (ja) * 2021-08-04 2024-08-01 トラックマン・アクティーゼルスカブ スポーツのボールデータを評価するためのシステムおよび方法
TWI822380B (zh) * 2022-10-06 2023-11-11 財團法人資訊工業策進會 球體追蹤系統及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030171169A1 (en) * 2002-01-09 2003-09-11 Cavallaro Richard H. Virtual strike zone
JP2010532465A (ja) * 2007-05-22 2010-10-07 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 拡張リアリティイメージのためのカメラポーズ推定装置および方法
JP2013092407A (ja) * 2011-10-25 2013-05-16 Kddi Corp 3次元座標取得装置、カメラ姿勢推定装置、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101835818B1 (ko) * 2011-12-19 2018-03-07 주식회사 엔씨소프트 방송 객체의 3d 모델링 데이터를 이용한 방송 시청 시점 다각화 시스템 및 그 방법
KR20140118062A (ko) * 2013-03-28 2014-10-08 인텔렉추얼디스커버리 주식회사 다시점 영상의 무기준점 편위수정 방법
JP6106803B2 (ja) * 2013-04-12 2017-04-05 アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi ve Ticaret Anonim Sirketi 基準マーカーとカメラの位置/方向を最適化するためのシステム及び方法
KR101845612B1 (ko) * 2016-07-27 2018-04-06 한양대학교 산학협력단 투구 연습을 통한 3차원 정보 획득 시스템 및 카메라 파라미터 산출 방법
KR101703317B1 (ko) * 2016-08-05 2017-02-06 주식회사 엠비씨플러스 야구경기 중계방송에서의 실시간 표출시스템
US10911694B2 (en) * 2017-03-15 2021-02-02 Gvbb Holdings S.A.R.L. System and method for creating metadata model to improve multi-camera production
WO2019083068A1 (ko) * 2017-10-27 2019-05-02 한양대학교 산학협력단 투구 연습을 통한 3차원 정보 획득 시스템 및 카메라 파라미터 산출 방법
US10645364B2 (en) * 2017-11-14 2020-05-05 Intel Corporation Dynamic calibration of multi-camera systems using multiple multi-view image frames

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030171169A1 (en) * 2002-01-09 2003-09-11 Cavallaro Richard H. Virtual strike zone
JP2010532465A (ja) * 2007-05-22 2010-10-07 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 拡張リアリティイメージのためのカメラポーズ推定装置および方法
JP2013092407A (ja) * 2011-10-25 2013-05-16 Kddi Corp 3次元座標取得装置、カメラ姿勢推定装置、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
森 享宏: "ストライクゾーン視覚化システム「3Dストライクゾーン」の開発", 放送技術, vol. 第67巻、第8号, JPN6021043988, August 2014 (2014-08-01), JP, pages 86 - 91, ISSN: 0004813429 *

Also Published As

Publication number Publication date
WO2020101094A1 (ko) 2020-05-22
KR20200057484A (ko) 2020-05-26
US20210319618A1 (en) 2021-10-14
KR102149003B1 (ko) 2020-08-28

Similar Documents

Publication Publication Date Title
US11436803B2 (en) Insertion of VR spectator in live video of a live event
US10582182B2 (en) Video capture and rendering system control using multiple virtual cameras
US10827167B2 (en) Systems and methods for dynamically adjusting a synthetic view of a scene for showing the scene from a virtual camera perspective
CN109889914B (zh) 视频画面推送方法、装置、计算机设备及存储介质
US9751015B2 (en) Augmented reality videogame broadcast programming
US9236032B2 (en) Apparatus and method for providing content experience service
RU2161871C2 (ru) Способ и система для создания видеопрограмм
US10121284B2 (en) Virtual camera control using motion control systems for augmented three dimensional reality
JP2022501748A (ja) 立体ストライクゾーンの表示方法及び装置
CN103257840B (zh) 模拟声音源的方法
US20030227453A1 (en) Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
US8885022B2 (en) Virtual camera control using motion control systems for augmented reality
US9736462B2 (en) Three-dimensional video production system
US20210125349A1 (en) Systems and methods for visualizing ball trajectory in real-time
US20240303947A1 (en) Information processing device, information processing terminal, information processing method, and program
CN117793324A (zh) 虚拟转播重建系统、实时生成系统和预生成系统
Mikami et al. Immersive Previous Experience in VR for Sports Performance Enhancement
WO2020166352A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Kanamori et al. Practical Course for Creating Stereoscopic VTuber
CN118466760A (zh) 一种利用空中成像设备与三维全息图像互动的方法
IL289178A (en) An advanced multimedia system for accurate analysis and simulation of live events
Feng et al. Shooting Recognition and Simulation in VR Shooting Theaters
WO2016032427A1 (en) Three-dimensional video production system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210517

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207