JP7395855B2 - 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム - Google Patents

360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム Download PDF

Info

Publication number
JP7395855B2
JP7395855B2 JP2019116240A JP2019116240A JP7395855B2 JP 7395855 B2 JP7395855 B2 JP 7395855B2 JP 2019116240 A JP2019116240 A JP 2019116240A JP 2019116240 A JP2019116240 A JP 2019116240A JP 7395855 B2 JP7395855 B2 JP 7395855B2
Authority
JP
Japan
Prior art keywords
video
inset
candidate
identified
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019116240A
Other languages
English (en)
Other versions
JP2020010327A (ja
Inventor
ユリアス チアヒヤデ
ジー キンバー ドナルド
リュウ チョン
ドゥヌ ローラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2020010327A publication Critical patent/JP2020010327A/ja
Application granted granted Critical
Publication of JP7395855B2 publication Critical patent/JP7395855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

開示された実施形態は、一般に拡張ビデオシステム、方法及びプログラムに関し、より詳細には、360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラムに関する。
没入型ビデオ又は球形ビデオとも呼ばれる360度ビデオは、全方位カメラ又は異なる方向を向いた複数のカメラの集まりを使用して取得した、あらゆる方向のビューが同時に記録されるビデオ録画である。従来の平面表示装置上で360度ビデオを再生する間、視聴者はパノラマのように視聴方向の制御を提供されてもよい。360度ビデオはまた、円筒形又は球形の一部に配置された表示装置又はプロジェクタでも再生できる。上述した360度ビデオは、視聴できるものに対する完全な制御を遠隔視聴者に提供できるため、会議またはトレードショー、美術館、及びアート展覧会などの他のグループの集まりに、遠隔から参加することを著しく改善することができる。
しかしながら、このテクノロジの欠点の1つは、360度ビデオでは、画面に投影されたプレゼンテーションスライドまたはホワイトボードなど、高密度の情報が含まれている一部の領域を適切に画像化できないことである。多くの場合、グレア及び関心領域への距離により、視聴者が表示された情報を読むことが不可能になる。
したがって、従来の360度ビデオ技術の上記及び他の欠点を考慮して、高解像度デジタルビデオストリームを自動的に検出して360度ビデオに挿入して、ユーザが読めるようにする新規かつ改良されたシステム及び方法が必要である。
Baudisch Patrick, Nathaniel Good, and Paul Stewart, "Focus plus context screens: combining display technology with visualization techniques", Proceedings of the 14th annual ACM symposium on User interface software and technology. ACM, 2001 Liu Qiong, et al. "FLYSPEC; A multi-user video camera system with hybrid human and automatic control.", Proceedings of the tenth ACM international conference on Multimedia. ACM, 2002 Foote, Jonathan, et al. "Reach-through-the-screen: A mew metaphor for remote collaboration.", Pacific-Rim Conference on Multimedia. Springer, Berlin, Heidelberg, 2004 Erol, Berna, Jonathan J. Hull, and Dar-Shyang Lee, Linking multimedia presentations with their symbolic source documents; algorithm and applications,", Proceeding of the eleventh ACM international conference on Multimedia. ACM, 2003 He Kaiming, et al, "Mask r-cnn.", Computer Vision (ICCV), 2017 IEEE international Conference on. IEEE, 2017
本開示の技術は、360度ビデオ内に媒体を挿入するシステム、方法およびプログラムを提供する。
本明細書に記載の実施形態の一態様によれば、環境の360度ビデオを取得するための少なくとも1つのカメラと、取得された360度ビデオ内の少なくとも1つのインセット候補(inset candidate)を識別し、識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットとを備えるシステムが提供される。
1つ又は複数の実施形態では、インセット候補は360度ビデオ内の領域である。
1つ又は複数の実施形態では、360度ビデオ内の領域は表面である。
1つ又は複数の実施形態では、360度ビデオ内の領域は表示画面である。
1つ又は複数の実施形態では、360度ビデオ内の領域はホワイトボードである。
1つ又は複数の実施形態では、媒体は画像である。
1つ又は複数の実施形態では、媒体はビデオストリームである。
1つ又は複数の実施形態では、媒体の解像度は360度ビデオの解像度よりも高い。
1つ又は複数の実施形態では、インセット候補は、インセット候補の検出されたオクルージョンに基づいて切り取られる。
1つ又は複数の実施形態において、インセット候補はマスクを用いて切り取られる。
1つ又は複数の実施形態では、インセット候補は、360度ビデオのコンテンツを使用して識別される。
1つ又は複数の実施形態では、インセット候補は、インセット候補の位置に対する少なくとも1つのカメラの位置に基づいて識別される。
1つ又は複数の実施形態では、識別された少なくとも1つのインセット候補に挿入される媒体は、識別された少なくとも1つのインセット候補の近傍に位置する360度ビデオ内の人物の顔認識に基づいて選択される。
1つ又は複数の実施形態では、インセット候補は、360度ビデオ内の物体認識を用いて識別される。
1つ又は複数の実施形態では、インセット候補はさらに、ユーザの入力に基づいて識別される。
1つ又は複数の実施形態では、識別された少なくとも1つのインセット候補に挿入される媒体は、360度ビデオ内の識別された少なくとも1つのインセット候補の位置に基づいて選択される。
本明細書に記載の実施形態の別の態様によれば、環境の360度ビデオを取得するための少なくとも1つのカメラを使用することと、取得された360度ビデオ内の少なくとも1つのインセット候補を識別し、識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することとを含む方法が提供される。
本明細書に記載の実施形態のさらに別の態様によれば、環境の360度ビデオを取得するための少なくとも1つのカメラを使用することと、取得された360度ビデオ内の少なくとも1つのインセット候補を識別し、識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することとを含む方法を実施する一組の命令を具体化するコンピュータプログラムが提供される。
本発明に関連するさらなる態様は、以下の説明に一部が記載され、一部はその説明から明らかになるか、又は本発明の実施によって習得され得る。本発明の態様は、以下の詳細な説明及び添付の特許請求の範囲で特に指摘される様々な要素及び態様の要素及び組み合わせによって実現及び達成され得る。
上記及び下記の説明は、例示的及び説明的なものに過ぎず、特許請求の範囲に記載の発明又はその応用をいかなる形でも限定するものではないことを理解されたい。
添付の図面は、本明細書に組み込まれ、本明細書の一部を構成し、本発明の実施形態を例示し、説明と共に、本発明の技術の原理を説明し示す役割を果たす。
360度ビデオの例示的な設定を示す図である。 本明細書に記載の360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステムの実施形態の例示的な動作シーケンスを示す図である。 カメラから直接見えない360度ビデオ内の特定の例示的領域(ラップトップのLCD画面など)を示す図である。 本明細書に記載の技術を実施するために使用することができるコンピュータシステム400の例示的な実施形態を示す図である。
以下の詳細な説明では、同一の機能要素が同様の番号で示されている添付図面を参照する。前述の添付図面は、本発明の原理に従った特定の実施形態及び実施態様を示すものであって、限定としてではなく、例示として示す。これらの実施態様は、当業者が本発明を実施することができるように十分に詳細に記載されており、他の実施態様を利用してもよく、本発明の範囲及び趣旨から逸脱することなく様々な要素の構造変化及び/又は代用が行われてもよいことを理解されたい。したがって、以下の詳細な説明は、限定された意味で解釈されるべきではない。さらに、説明した本発明の様々な実施形態は、汎用コンピュータ上で実行されるソフトウェアの形で、特殊なハードウェアの形で、又はソフトウェアとハードウェアの組み合わせの形で実施することができる。
本明細書に記載の実施形態の一態様によれば、360ビデオへのデジタルストリームの自動検出及び挿入のためのシステム及び方法が提供される。このようなユーザの関心領域の様々な例には、限定するものではないが、様々な電子表示装置上に表示される又は電子ペーパ(電子インク)に書かれるコンテンツ、電子プロジェクタを使用して様々な表面に投影されるコンテンツ、360度ビデオ内に現れる紙文書のコンテンツ及び/又は360度ビデオの内側のホワイトボード(黒板)に書かれたコンテンツが含まれる。当業者には理解されるように、ユーザの関心のあるこれらの領域のうちのますます多くが、コンピュータが表示装置を駆動していることを意味する「デジタルボーン(digital born)」である。ホワイトボード、紙文書、美術館の絵画など、コンテンツによっては、参加者(又は管理人)が地域の写真を撮影したものもあり、どこかに再びデジタル形式で保存され、ダウンロードできる。
1つ又は複数の実施形態では、ユーザにとって関心のあるコンテンツを有するこれらのデジタルストリームが取得され、次いで生の360度ビデオフィードから生成された360度ビュー上に挿入され、ユーザにそれらをネイティブの高解像度で見る能力を与える。この記述は360度の視野の画像に焦点を当てているが、本明細書に記載の方法は、全360度未満のパノラマの視野を有する他のビューに適用することができることに留意されたい。
1つ又は複数の実施形態では、これを達成するために、記載のシステムは、各デジタルストリームを360度ビデオ上のどこに挿入すべきかを半自動的に決定する。現実的なインセットを提供するために、システムの実施形態は、360度カメラと関心領域との間を移動する可能性がある人々などのオブジェクトのマスクを防ぐために、デジタルストリームをさらにマスクする(例えばプレゼンターは投影コンテンツの前を移動する)。
様々な実施形態は、領域を見つけてインセットを配置する場所を決定するために2つの方法、すなわち画像に基づくものと、幾何学に基づくものとを使用する。画像に基づく方法を使用すると、カメラ又は領域の実際の配置に関する情報は必要なく、それらは、単純に360度カメラからの画像内の位置によって決定及び操作される。あるいは、幾何学に基づく方法は、画像内のそれらの対応する位置を決定するために、世界内の領域の位置と共にカメラの姿勢を使用する。画像に基づく方法はより簡単で、常設の360度カメラ及び会議室内の電子(LCD、LED、プラズマ)表示装置など、カメラと関心領域が固定されている状況に適することができる。
別の代替の実施形態では、カメラが移動する、領域が移動する、又は他のカメラもしくはセンサなどの補助ツールが関心領域又は遮蔽体の位置を決定するために使用される場合、幾何学に基づく方法が必要とされ得る。会議室のシナリオに特に向けられている前述の画像に基づく方法が最初に説明され、次に幾何学に基づく方法についての議論が提供される。
1つ又は複数の実施形態では、図1に示されるように、第1のステップは、360度ビデオフィードから、候補面及び物体(「関心領域」と総称される)の組を抽出する。これらは3つの表面101、102及び103と、5つの顔104、105、106、107及び108と、顔の1つに関連付けられた1つのラップトップ109とを含む。様々な実施形態において、前述の自動検出は、顔及び人物の検出ならびに検出された点滅画面を使用して、ビデオ内のそれらの対応する位置を決定することができる。
図2は、本明細書に記載の360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステムの実施形態の例示的な動作シーケンス200を示す。まず、ステップ201で、1つ又は複数のカメラを使用して360度ビデオが作成される。ステップ202で、360度ビデオ内の領域が検出される。
ステップ203で、候補領域が識別される。様々な実施形態では、ステップ203で、ユーザ(エンドユーザ又は「部屋管理人」)が前述の関心領域の位置を手動で調整できるようにすることができる。ほとんどの部屋では、プロジェクタ画面又はホワイトボードが広範囲に移動されることはほぼあり得ないため、上記の表面をさらに調整する必要はないことに留意されたい。ステップ205で、システムの実施形態は次に、システムに利用可能にされた一組のデジタルストリームを集める。デジタルストリームは、演壇コンピュータ(podium computer)から実行されるVNCビデオストリーム(ビデオ+オーディオ、HTML5ソリューション)、ホワイトボードを画像化しているモバイル装置からの画像又はライブビデオ、会議の間に共有されている画面のWebRTC(ウェブ・リアルタイム・コミュニケーション)ストリーム、ならびに、会議の参加者名又は当技術分野で周知のフォーマットの他の任意のビデオストリームを含むが、これらに限定されない。
様々な実施形態において、ステップ204に示すように、画像マッチングを使用して、システムはデジタルストリームを以前に識別された関心領域に関連付け、その結果、ストリーム/領域対206が得られる。この場合も、アプリケーションのエンドユーザ又はシステム管理者は、自動的に生成されたデフォルトのマッピングを変更できる。例えば、図1では、ホワイトボードのデジタル画像をマッピングすべきホワイトボードを区別するのが難しい場合がある。
関心領域の位置を見つけ、デジタルストリームにマッピングされると、デジタルストリームは、360度ビデオフィードの3Dレンダリング上に追加される。しかしながら、部屋の人々が時々関心領域を遮る可能性があるので(例えば、投影されたコンテンツの前で移動するプレゼンター)、システムの実施形態は、ステップ207を参照し、最終レンダリングに挿入する前にデジタルストリームのマスクを計算するオクルージョン検出器を含む。様々な実施形態において、マスキングは以下の方法で行われてもよい。
1.修正された関心領域とその関連ストリームを直接比較し、大きな差がある領域をマスクする(例えば図1、ホワイトボード)。
2.デジタルストリームの前の遮蔽形状を検出するために、He,Kaimingらの「Mask r-cnn」Computer Vision(ICCV)、2017 IEEE International Conference、IEEE、2017年」に記載されているMask R-CNN方法を使用する。この方法を図3に示す。図3において、ラップトップとして検出された関心領域にラップトップのストリームがレンダリングされるが、会議中にユーザがラップトップの前に移動する場合、ラップトップが消える可能性がある。1つ又は複数の代替実施形態では、前述のMask R-CNN方法に代えて、他の方法を使用することができる。例えば立っている人がいるか否かを判断することができる任意の物体検出器、姿勢情報を取得するために使用できる任意の人間の姿勢推定器、又はGoogleから入手可能なDeepLabなどの他の任意のセマンティックセグメンテーションネットワークを含むが、これらに限定されるものではない。最後に、ステップ208で、最終インセットレンダリングが実行される。
参加者による会議中にWebRTC上で共有されるラップトップ画面など、一部の領域はカメラから見えない場合があり、図3に示すように、360カメラはラップトップ要素301の背面のみを見て、画像差分を用いてマスクを計算することを不可能にすることに留意されたい。代わりに、一実施形態では、記載されたシステムは、人が特定の領域の前に立っていることを検出するために、人物検出器及び切り出し(例えば、Mask R-CNN)に依存する。
1つ又は複数の実施形態では、顔検出器がまた顔認識を有する場合、システムは、認識された顔に最も近いラップトップを介して360度ビデオ上に共有画面を挿入することができる。顔を容易に認識できない場合、一実施形態では、例えば360度ビデオフィードにおいて自分の顔をクリックすることにより、参加者は自分自身を手動で領域に割り当てることができる。
拡張ビデオのための幾何学に基づく方法をここで詳細に説明する。インセットを配置すべき領域を決定するもう1つの方法は、360度カメラ及び関心領域のワールドポジション(world position)及び配置を決定することである。次に、長方形の頂点など、領域を定義する世界座標を画像座標に投影できる。これは、シーン内のカメラ又は物体が移動している状況、又はマスキングのための情報を提供するために他の位置情報源が使用されている場合に必要になることがある。例えば、骨格追跡装置を備えた、当技術分野において周知であり広く市販されているKinectシステムは、発表者が表示装置の前に立っているか否かを判定することができる。Kinectが360度カメラのすぐ近くに配置されている場合は、画像に基づく方法で十分であるが、Kinectsが他の場所にある場合は、追跡されたプレゼンターのワールドポジション(world position)は、オクルージョンがあるか判断するために、360度画像座標に投影されなければならない。これはまた、ラップトップなどの装置の位置を決定するために構造化コード化光などの幾つかの追跡技術を使用する場合、使用することができる。
カメラが移動している場合、カメラ位置は、当技術分野で周知の載置されたQRコード(登録商標)上、又は登録画像上のランドマーク点などの、世界における基準点の位置を識別することによって決定され得る。これはリアルタイムで行うことができる。美術館の仮想記録ツアーのなどの幾つかの用途では、カメラ姿勢は、リアルタイムでは実行されない、当技術分野で周知のOpenSFMで提供されるような動き方法からの構造によって決定され得る。
コンピュータシステムの例示的な実施形態
図4は、本明細書に記載の技術を実現するために使用することができるコンピュータシステム400の例示的な実施形態を示す。1つ又は複数の実施形態では、コンピュータ400は、当業者には周知のモバイルコンピューティング装置のフォームファクタ内で実現することができる。代替の実施形態では、コンピュータ400はラップトップ又はノートパソコンに基づいて実現されてもよい。さらに別の実施形態では、コンピュータ400は特殊なコンピューティングシステムとすることができる。
コンピュータ400は、コンピュータ400の様々なハードウェア構成要素間で情報を通信するためのデータバス404又は他の相互接続又は通信機構と、情報を処理し、その他の計算及び制御タスクを実行するためにデータバス404に結合された中央処理装置(CPU又は単にプロセッサ)401とを含み得る。コンピュータ400はまた、様々な情報ならびプロセッサ401によって実行される命令を格納するためにデータバス404に結合されたランダムアクセスメモリ(RAM)又は他の動的記憶装置などのメモリ412を含む。メモリ412はまた、磁気ディスク、光ディスク、固体フラッシュメモリ装置、又は他の不揮発性固体記憶装置などの永続的記憶装置を含み得る。
1つ又は複数の実施形態では、メモリ412は、プロセッサ401による命令の実行中に、一時的な変数又は他の中間情報を格納するためにも使用され得る。任意選択で、コンピュータ400は、読み出し専用メモリ(ROM又はEPROM)402、又はコンピュータ400の動作に必要なファームウェア、基本入出力システム(BIOS)、ならびにコンピュータ400の様々な構成パラメータなどの、プロセッサ401の静的情報及び命令を格納するためにデータバス404に結合された他の静的記憶装置をさらに含み得る。
1つ又は複数の実施形態では、コンピュータ400は、360度ビデオを生成するために2つ以上のカメラ409及び410をさらに組み込んでもよい。さらに、コンピュータ400は、取り込まれた360度ビデオに関連する音声を拾うための複数のマイクロフォン411を組み込んでもよい。
1つ又は複数の実施形態では、コンピュータ400は、データバス404に結合されたネットワークインタフェース405などの通信インタフェースをさらに含んでもよい。ネットワークインタフェース405は、WIFIインタフェース407及びセルラネットワーク(GSM(登録商標)又はCDMA)アダプタ408のうちの少なくとも1つを使用して、コンピュータ400とインターネット424との間の接続を確立するように構成され得る。ネットワークインタフェース405は、コンピュータ400とインターネット424との間に双方向データ通信を提供するように構成されてもよい。WIFIインタフェース407は、802.11a、802.11b、802.11g、及び/又は802.11nプロトコル、ならびに当業者には周知のブルートゥース(登録商標)プロトコルに従って動作することができる。例示的な実装形態では、WIFIインタフェース407及びセルラネットワーク(GSM(登録商標)又はCDMA)アダプタ408は、様々な種類の情報を表すデジタルデータストリームを搬送する電気信号又は電磁信号を送受信する。
1つ又は複数の実施形態では、インターネット424は典型的に、1つ又は複数のサブネットワークを介して他のネットワークリソースへデータ通信を提供する。したがって、コンピュータ400は、遠隔媒体サーバ、ウェブサーバ、他のコンテンツサーバ、ならびに他のネットワークデータ記憶リソースなど、インターネット424上の任意の場所にある様々なネットワークリソースにアクセスすることができる。1つ又は複数の実施形態では、コンピュータ400は、ネットワークインタフェース405によって、インターネット424を含む様々なネットワークを介して、メッセージ、媒体、及びアプリケーションプログラムコードを含む他のデータを送受信するように構成される。インターネットの例では、コンピュータ400がネットワーククライアントとして機能する場合、コンピュータ400で実行されるアプリケーションプログラムのためのコード又はデータを要求することができる。同様に、様々なデータやコンピュータコードを他のネットワークリソースに送信することができる。
1つ又は複数の実施形態では、本明細書に記載の機能は、メモリ412に含まれる1つ又は複数の命令の1つ又は複数のシーケンスを実行するプロセッサ401に応答してコンピュータ400によって実施される。そのような命令は、他のコンピュータ可読媒体からメモリ412に読み込まれてもよい。メモリ412に含まれる命令シーケンスの実行は、本明細書に記載されている様々なプロセスステップをプロセッサ401に実行させる。代替の実施形態では、本発明の実施形態を実施するために、ソフトウェア命令の代わりに又はソフトウェア命令と組み合わせて、ハードワイヤード回路を使用することができる。したがって、本発明の実施形態は、ハードウェア回路とソフトウェアとの特定の組み合わせに限定されない。
本明細書で使用される「コンピュータ可読媒体」という用語は、実行のためにプロセッサ401に命令を提供することに関与する任意の媒体を指す。コンピュータ可読媒体は機械可読媒体のほんの一例であり、本明細書で説明される方法及び/又は技術のいずれかを実施するための命令を搬送することができる。そのような媒体は多くの形態であり得、不揮発性媒体及び揮発性媒体を含むがこれらに限定されるものではない。
一般的な形態の非一時的コンピュータ可読媒体は、例えば、フロッピーディスク(登録商標)、フレキシブルディスク、ハードディスク、磁気テープ、又は他の任意の磁気媒体、CD-ROM、任意の他の光学媒体、パンチカード、紙テープ、穴のパターンを有する他の任意の物理的媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、他の任意のメモリチップ又はカートリッジ、あるいはコンピュータが読み取ることができる他の任意の媒体を含む。様々な形態のコンピュータ可読媒体は、実行のために1つ又は複数の命令の1つ又は複数のシーケンスをプロセッサ401に搬送することに関係することができる。例えば、命令は最初に遠隔コンピュータから磁気ディスク上に運ばれてもよい。あるいは、遠隔コンピュータは命令をその動的メモリにロードし、インターネット424を介して命令を送信することができる。具体的には、コンピュータ命令は、当技術分野で周知の様々なネットワークデータ通信プロトコルを使用して、インターネット424を介して前述の遠隔コンピュータからコンピュータ400のメモリ412にダウンロードすることができる。
1つ又は複数の実施形態では、コンピュータ400のメモリ412は、以下のソフトウェアプログラム、アプリケーション、及び/又はモジュールのうちのいずれかを格納することができる。
1.オペレーティングシステム(OS)413は、基本的なシステムサービスを実施し、コンピュータ400の様々なハードウェア構成要素を管理するためのモバイルオペレーティングシステムであり得る。オペレーティングシステム413の例示的な実施形態は、当業者には周知であり、現在知られている、又は今後開発される任意のモバイルオペレーティングシステムを含み得る。ネットワークインタフェース405を使用してネットワーク通信を可能にするためのネットワーク通信モジュール414をさらに提供することができる。
2.ソフトウェアモジュール415は、例えば、コンピュータ400のプロセッサ401によって実行される一組のソフトウェアモジュールを含むことができ、これは、コンピュータ400に、カメラ409及び410を使用して360度ビデオを記録するなどの所定の機能を実行させ(モジュール416)、またデジタルストリームの360度ビデオへの自動検出及び挿入を実行させる(モジュール417)。
3.データ記憶装置418は、例えば、様々なパラメータ及びしきい値419を格納するために使用され得る。
最後に、本明細書で説明されるプロセス及び技術は、本質的に特定の装置に関連しておらず、成分の任意の適切な組み合わせによって実施され得ることを理解されたい。さらに、本明細書に記載の教示に従って、様々なタイプの汎用装置を使用することができる。また、本明細書に記載の方法を実行するための特殊化された装置を構築することが有利であってもよい。本発明を特定の実施例に関連して説明してきたが、これらはあらゆる点で限定的ではなく例示的であることが意図されている。当業者は、ハードウェア、ソフトウェア、及びファームウェアの多くの異なる組み合わせが本発明を実施するのに適していることを理解するであろう。例えば、本明細書で説明されたソフトウェアは、アセンブラ、C/C++、Objective-C、パール、シェル、PHP、ジャバ、ならびに現在知られている又は今後開発されるプログラミング言語又はスクリプト言語などの多種多様なプログラミング言語又はスクリプト言語で実施され得る。
さらに、本明細書の考察及び本明細書に開示された本発明の実施から当業者には本発明の他の実施態様が明らかであろう。記載された実施形態の様々な態様及び/又は構成要素は、デジタルストリームの360度ビデオへの自動検出及び挿入のためのシステム及び方法において、単独で又は任意の組み合わせで使用され得る。本明細書及び実施例は、例示的なものとして考えられることが意図され、本発明の真の範囲及び趣旨は、添付の特許請求の範囲によって示される。

Claims (26)

  1. a.環境のビデオを取得するための少なくとも1つのカメラと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットと
    を備え、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、前記インセット候補の位置に対する前記少なくとも1つのカメラの位置に基づいて識別される、システム。
  2. a.環境のビデオを取得するための少なくとも1つのカメラと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットと
    を備え、
    前記識別された少なくとも1つのインセット候補に挿入される前記媒体は、前記識別された少なくとも1つのインセット候補の近傍に位置するビデオ内の人物の顔認識に基づいて選択される、システム。
  3. a.環境のビデオを取得するための少なくとも1つのカメラと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットと
    を備え、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、前記ビデオ内の物体認識を用いて識別される、システム。
  4. a.環境のビデオを取得するための少なくとも1つのカメラと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットと
    を備え、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、ユーザの入力に基づいてさらに識別される、システム。
  5. 前記インセット候補は、前記ビデオ内の領域である、請求項1から4のいずれか1項に記載のシステム。
  6. 前記ビデオ内の前記領域は表面である、請求項5に記載のシステム。
  7. 前記ビデオ内の前記領域は表示画面である、請求項5に記載のシステム。
  8. 前記ビデオ内の前記領域はホワイトボードである、請求項5に記載のシステム。
  9. 前記媒体は画像である、請求項1から8のいずれか1項に記載のシステム。
  10. 前記媒体はビデオストリームである、請求項1から8のいずれか1項に記載のシステム。
  11. 前記媒体の解像度は、前記ビデオの解像度よりも高い、請求項1から10のいずれか1項に記載のシステム。
  12. 前記インセット候補は、前記ビデオのコンテンツを使用して識別される、請求項1から11のいずれか1項に記載のシステム。
  13. 前記識別された少なくとも1つのインセット候補に挿入される前記媒体は、前記ビデオ内の前記識別された少なくとも1つのインセット候補の位置に基づいて選択される、請求項1から12のいずれか1項に記載のシステム。
  14. a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、前記インセット候補の位置に対する前記少なくとも1つのカメラの位置に基づいて識別される、方法。
  15. a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記識別された少なくとも1つのインセット候補に挿入される前記媒体は、前記識別された少なくとも1つのインセット候補の近傍に位置するビデオ内の人物の顔認識に基づいて選択される、方法。
  16. a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、前記ビデオ内の物体認識を用いて識別される、方法。
  17. a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、ユーザの入力に基づいてさらに識別される、方法。
  18. 前記インセット候補は、前記ビデオ内の領域である、請求項14から17のいずれか1項に記載の方法。
  19. 前記ビデオ内の前記領域は表面である、請求項18に記載の方法。
  20. コンピュータプログラムであって、
    a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、前記インセット候補の位置に対する前記少なくとも1つのカメラの位置に基づいて識別される方法をコンピュータに実行させるプログラム。
  21. コンピュータプログラムであって、
    a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記識別された少なくとも1つのインセット候補に挿入される前記媒体は、前記識別された少なくとも1つのインセット候補の近傍に位置するビデオ内の人物の顔認識に基づいて選択される方法をコンピュータに実行させるプログラム。
  22. コンピュータプログラムであって、
    a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、前記ビデオ内の物体認識を用いて識別される方法をコンピュータに実行させるプログラム。
  23. コンピュータプログラムであって、
    a.環境のビデオを取得するための少なくとも1つのカメラを使用することと、
    b.前記取得されたビデオ内の少なくとも1つのインセット候補を識別し、前記識別された少なくとも1つのインセット候補に媒体を挿入するための処理ユニットを使用することと
    を含み、
    前記ビデオは360度ビデオであり、
    前記インセット候補は、ユーザの入力に基づいてさらに識別される方法をコンピュータに実行させるプログラム。
  24. 前記ビデオは360度ビデオである、請求項に記載のシステム。
  25. 前記ビデオは360度ビデオである、請求項15に記載の方法。
  26. 前記ビデオは360度ビデオである、請求項21に記載のプログラム。
JP2019116240A 2018-07-10 2019-06-24 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム Active JP7395855B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/031,068 US10873709B2 (en) 2018-07-10 2018-07-10 Systems and methods for automatic detection and insetting of digital streams into a 360-degree video
US16/031,068 2018-07-10

Publications (2)

Publication Number Publication Date
JP2020010327A JP2020010327A (ja) 2020-01-16
JP7395855B2 true JP7395855B2 (ja) 2023-12-12

Family

ID=69138288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116240A Active JP7395855B2 (ja) 2018-07-10 2019-06-24 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム

Country Status (3)

Country Link
US (2) US10873709B2 (ja)
JP (1) JP7395855B2 (ja)
CN (1) CN110708502A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114584824A (zh) * 2020-12-01 2022-06-03 阿里巴巴集团控股有限公司 数据处理方法、系统、电子设备、服务端及客户端设备
US11979244B2 (en) * 2021-09-30 2024-05-07 Snap Inc. Configuring 360-degree video within a virtual conferencing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268158A (ja) 2009-05-13 2010-11-25 Fujifilm Corp 画像処理システム、画像処理方法およびプログラム
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
WO2016017121A1 (ja) 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
JP2016119567A (ja) 2014-12-19 2016-06-30 シャープ株式会社 画像処理装置、画像処理方法、電子機器、及び画像処理プログラム
JP2017037434A (ja) 2015-08-07 2017-02-16 シャープ株式会社 マーク処理装置、プログラム
WO2018101227A1 (ja) 2016-11-29 2018-06-07 シャープ株式会社 表示制御装置、ヘッドマウントディスプレイ、表示制御装置の制御方法、および制御プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6738073B2 (en) * 1999-05-12 2004-05-18 Imove, Inc. Camera system with both a wide angle view and a high resolution view
US7116833B2 (en) * 2002-12-23 2006-10-03 Eastman Kodak Company Method of transmitting selected regions of interest of digital video data at selected resolutions
US20090113278A1 (en) * 2007-10-25 2009-04-30 Fuji Xerox Co., Ltd. System and methods for generating automatic and user-controllable movies of presentations on small devices
US9619123B1 (en) * 2012-02-16 2017-04-11 Google Inc. Acquiring and sharing content extracted from media content
US10706889B2 (en) * 2016-07-07 2020-07-07 Oath Inc. Selective content insertion into areas of media objects
AU2017387754A1 (en) * 2016-12-28 2019-07-18 Sony Corporation Generation device, identification information generation method, reproduction device, and image generation method
US11102425B2 (en) * 2017-03-08 2021-08-24 Sony Corporation Image processing apparatus and image processing method
US10681271B2 (en) * 2017-03-15 2020-06-09 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium
US10701263B2 (en) * 2017-07-18 2020-06-30 Ricoh Company, Ltd. Browsing system, image distribution apparatus, and image distribution method
CN107909022B (zh) * 2017-11-10 2020-06-16 广州视睿电子科技有限公司 一种视频处理方法、装置、终端设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268158A (ja) 2009-05-13 2010-11-25 Fujifilm Corp 画像処理システム、画像処理方法およびプログラム
WO2012042974A1 (ja) 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
WO2016017121A1 (ja) 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
JP2016119567A (ja) 2014-12-19 2016-06-30 シャープ株式会社 画像処理装置、画像処理方法、電子機器、及び画像処理プログラム
JP2017037434A (ja) 2015-08-07 2017-02-16 シャープ株式会社 マーク処理装置、プログラム
WO2018101227A1 (ja) 2016-11-29 2018-06-07 シャープ株式会社 表示制御装置、ヘッドマウントディスプレイ、表示制御装置の制御方法、および制御プログラム

Also Published As

Publication number Publication date
US20210112209A1 (en) 2021-04-15
US20200021750A1 (en) 2020-01-16
JP2020010327A (ja) 2020-01-16
US10873709B2 (en) 2020-12-22
US11272125B2 (en) 2022-03-08
CN110708502A (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
US11100664B2 (en) Depth-aware photo editing
US20240196096A1 (en) Merging webcam signals from multiple cameras
US11272165B2 (en) Image processing method and device
US11089266B2 (en) Communication processing method, terminal, and storage medium
CN112243583B (zh) 多端点混合现实会议
US9412000B1 (en) Relative positioning of a mobile computing device in a network
US20130057642A1 (en) Video conferencing system, method, and computer program storage device
JP7395855B2 (ja) 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム
JP4539015B2 (ja) 画像通信装置、および画像通信方法、並びにコンピュータ・プログラム
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
Pece et al. Panoinserts: mobile spatial teleconferencing
US10282633B2 (en) Cross-asset media analysis and processing
KR20220082382A (ko) 실사 기반 복원 3d 아바타 기반 실감형 화상회의 시스템 및 그 방법
Ban et al. Pixel of matter: new ways of seeing with an active volumetric filmmaking system
Kim et al. Relocalization using virtual keyframes for online environment map construction
Yacoub Quality evaluation for stitched panoramic videos
CN113038262A (zh) 一种全景直播方法和装置
CN115914501A (zh) 图像背景确定方法及装置、计算机可读存储介质
Zhou et al. SRec: An Automatic Slide Capturing and Sharing System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7395855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150