JP2021524187A - ビデオ会議のための補足コンテンツを用いたビデオストリームの修正 - Google Patents

ビデオ会議のための補足コンテンツを用いたビデオストリームの修正 Download PDF

Info

Publication number
JP2021524187A
JP2021524187A JP2020562621A JP2020562621A JP2021524187A JP 2021524187 A JP2021524187 A JP 2021524187A JP 2020562621 A JP2020562621 A JP 2020562621A JP 2020562621 A JP2020562621 A JP 2020562621A JP 2021524187 A JP2021524187 A JP 2021524187A
Authority
JP
Japan
Prior art keywords
video stream
supplementary content
content
outgoing
outgoing video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020562621A
Other languages
English (en)
Other versions
JP7133650B2 (ja
Inventor
クリストファー エム. ガリド,
クリストファー エム. ガリド,
エリク エル. チェン,
エリク エル. チェン,
オースティン ダブリュー. シュウ,
オースティン ダブリュー. シュウ,
ミン ジン,
ミン ジン,
ヤン ヤン,
ヤン ヤン,
イアン ジェイ. ベアード,
イアン ジェイ. ベアード,
ジョー エス. アブアン,
ジョー エス. アブアン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021524187A publication Critical patent/JP2021524187A/ja
Priority to JP2022136171A priority Critical patent/JP2022172232A/ja
Application granted granted Critical
Publication of JP7133650B2 publication Critical patent/JP7133650B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1818Conference organisation arrangements, e.g. handling schedules, setting up parameters needed by nodes to attend a conference, booking network resources, notifying involved parties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/043Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

主題の技術は、ライブ着信又は発信ビデオストリームを、ビデオ会議アプリケーション内から、ステッカー、アニメーションなどの補足コンテンツによって補足することができる、ビデオ会議アプリケーションを提供する。このようにして、リモートユーザとのビデオ会議セッションに参加するユーザは、編集前にビデオクリップをローカルにキャッシュする/保存する必要なしに、かつ、ビデオ編集アプリケーションにアクセスするためにビデオ会議セッション(又はビデオ会議アプリケーション)を離れる必要なしに、ユーザのデバイスによってキャプチャされている発信ビデオストリームに、又はリモートユーザのデバイスからの着信ビデオストリームに、ステッカー、アニメーション、及び/若しくは適応型コンテンツを追加することができる。【選択図】図1

Description

(関連出願の相互参照)
本出願は、2018年5月7日に出願された「Modifying Video Streams with Supplemental Content for Video Conferencing」と題する米国仮特許出願第62/668,126号の利益を主張する。同出願はその全体が全ての目的のために参照によって本明細書に組み込まれる。
本発明の説明は、概して、ビデオストリームを修正することに関し、より具体的には、ビデオ会議のために補足コンテンツを用いて画像を修正することに関する。
ビデオ会議は、遠隔地間でライブビデオストリームを交換することによって、遠隔地にいる人々がまるで対面で会議しているかのように対話することを可能にする。例えば、シカゴの会議室のカメラを使用して、シカゴ会議室のビデオをキャプチャして直ちに送信し、ニューヨーク市のリモート会議室で表示する。ニューヨーク市会議室のテレビは、シカゴ会議室の着信ビデオを表示するので、ニューヨーク市会議室の人々は、シカゴ会議室の人々の現在の行動を見ることができる。同様に、ニューヨーク市会議室のカメラを使用して、ニューヨーク市会議室のビデオをキャプチャして直ちに送信し、シカゴ会議室のテレビで表示するので、シカゴ会議室の人々は、ニューヨーク市会議室の人々の現在の行動を見ることができる。このようにして、2つのリモート会議室は、実質的に1つの会議室に結合される。
歴史的に、ビデオ会議は、それぞれの会議室内の専用カメラ及び専用テレビによってビデオ会議が促進されてきたが、発信又は着信するビデオ配信の制御については、カメラの位置、ズーム、及び焦点の調整に限定されていた。しかしながら、いまや、カメラ及び関連するディスプレイは、一般に、スマートフォン、タブレット、ラップトップコンピュータ、又はデスクトップコンピュータなどの単一のデバイスにおいて提供されており、これには、過去の会議室構成よりもはるかに大きな処理能力が備わっている。
これらのデバイスには、ビデオ会議アプリケーションを備え、それによって、デバイスのカメラから発信ビデオを送信し、その同じデバイスのディスプレイ上にリモートデバイスのカメラからの着信ビデオを表示することができる。これらのアプリケーションは、より安価かつより効率的な会議システムを容易化することができ、いまや、ユーザのオフィス、自宅などの任意の場所から、又はユーザがスマートフォン若しくはタブレットを携帯して場所から場所へ移動しながらであっても、ビデオ会議を行うことを可能としている。
主題の技術の一定の特徴を、添付の特許請求の範囲に示す。しかしながら、説明の目的のため、主題の技術のいくつかの実施形態を、以下の図に示す。
1つ以上の実装形態に係る、ビデオ会議のための補足コンテンツを用いたビデオストリームの修正が実施され得る例示的なネットワーク環境を示す。
1つ以上の実装形態に係る、ビデオ会議のために補足コンテンツを用いてビデオストリームが修正される例示的なユーザインタフェースビューを示す概略図を示す。
1つ以上の実装形態に係る、ビデオ会議のために補足コンテンツを用いてビデオストリームを修正する例示的なプロセスのフロー図を示す。
1つ以上の実装形態に係る、送信のためのビデオストリームに補足コンテンツを統合するための例示的なデータフローを示す概略図を示す。
1つ以上の実装形態に係る、送信のためのビデオストリームに付随する補足コンテンツメタデータをパッケージ化する例示的なデータフローを示す概略図を示す。
1つ以上の実装形態に係る、ビデオストリームが補足コンテンツを用いてマルチパーティビデオ会議のために修正される例示的なユーザインタフェースビューを示す概略図を示す。
1つ以上の実装形態に係る、補足コンテンツを用いて画像を修正するマルチパーティビデオ会議の例示的なプロセスのフロー図を示す。
1つ以上の実装形態に係る、補足コンテンツを用いて着信ビデオストリームを修正する間の例示的なユーザインタフェースビューを示す概略図を示す。
1つ以上の実装形態に係る、補足コンテンツを用いて着信ビデオストリームを修正する例示的なプロセスのフロー図を示す。
1つ以上の実装形態に係る、発信ビデオストリーム及び着信ビデオストリームを共に示し、補足コンテンツモードオプションを有する例示的なユーザインタフェースを示す。
1つ以上の実装形態に係る、補足コンテンツオプションを有する発信ビデオストリームの例示的なユーザインタフェースを示す。
1つ以上の実装形態に係る、補足コンテンツを有する発信ビデオストリームの例示的なユーザインタフェースを示す。
1つ以上の実装形態に係る、発信ビデオストリーム内のユーザの顔が検出された動作に応じて移動する適応型補足コンテンツ(adaptive supplemental content)の例示的なユーザインタフェースを示す。
1つ以上の実装形態に係る、補足コンテンツを有する発信ビデオストリームを示すビデオストリームビューのサイズ縮小の例示的なユーザインタフェースを示す。
1つ以上の実装形態に係る、補足コンテンツを含む着信ビデオストリームの例示的なユーザインタフェースを示す。
主題技術の1つ以上の実装形態を実施することができる電子システムを示す。
以下に述べる詳細な説明は、主題の技術の様々な構成の説明として意図されており、主題の技術を実践できる唯一の構成を表すことを意図するものではない。添付の図面は、本明細書に組み込まれ、詳細な説明の一部を構成する。詳細な説明は、主題の技術の完全な理解を提供するために特定の詳細を含む。しかしながら、主題の技術は、本明細書で示された特定の詳細には限定されず、1つ以上の他の実装形態を使用して実施することができる。1つ以上の実装形態では、主題の技術の概念を不明瞭にすることを避けるために、構造及び構成要素がブロック図形式で示されている。
電子デバイス用のビデオ会議アプリケーションによって、ユーザが、自身のデバイス上でリモートデバイスのカメラからのビデオ配信を見ることが可能になる。配信を見るユーザのデバイスはまた、それ自体のカメラからリモートユーザにビデオストリームを送信することもできる。多くの場合、それぞれのユーザは自身のデバイス上のカメラを使用して、そのユーザの顔及び/又はそのデバイスに限定された若しくは近辺にいる他ユーザの顔のビデオ画像を取得し、発信ビデオストリームにおいて、1人以上のリモートユーザに送信する。このようにして、隔地間のユーザが、他のユーザ又はユーザの顔の着信ビデオストリームを見ながらリアルタイムでの会話を行い、直接対面式での会話又は会議を模することができる。発信及び着信ビデオストリームは、セルラー通信ネットワーク、無線若しくは有線のローカル通信チャネル(例えば、Bluetooth若しくは他の直接的なピアツーピア通信、又はローカルエリアネットワークを介した通信)、又はインターネットなどのより広域のネットワーク上で交換することができる。
特にモバイルデバイスでは、ビデオ会議セッション中に発信ビデオストリーム以外の情報をリモートユーザと共有することが困難な場合がある。例えば、第2のユーザとのビデオ会議セッションに参加する第1のユーザは、画像又はアニメーションを第2のユーザに送信することを望む場合がある。しかしながら、第1のユーザは多くの場合、ビデオ会議アプリケーションの外部で画像又は動画にアクセスして、メッセージングアプリケーション又は電子メールアプリケーションを介するなど別のチャネルを介して画像又は動画を送信するために、ビデオ会議アプリケーションを一時停止することによって、発信ビデオストリームを中断しなければならない。このプロセスは、時間がかかり、非効率的であり、ビデオ会議に混乱を生じさせる可能性があり、その結果、ビデオ会議アプリケーション中の補足コンテンツの使用を抑制し、電子デバイスをあまり効果的でないコミュニケーション手段とする可能性がある。
いくつかの実施形態は、ビデオ会議アプリケーションを実行するように構成されたカメラ及び処理回路を備えた電子デバイスを提供し、これにより、(例えば、ビデオストリームのローカルストレージを必要とせず、かつビデオ会議アプリケーションを終了したり、又は他のアプリケーションにアクセスしたりすることなく)ビデオ会議アプリケーション内から発信ビデオストリームに補足コンテンツを直接追加することができる能力をユーザに提供する。
補足コンテンツは、以下を含み得る。発信ビデオストリームの一部分の上に配置することができるステッカーアイコンなどの静的コンテンツ(例えば、位置、サイズ、及び向きがビデオストリームのコンテンツ又は時間の経過に無関係である、発信ビデオストリームの複数の画像フレーム内の静止画素位置に表示される、変化せずアニメーションしないない画像)、発信ビデオストリームの一部の上に配置することができるアニメーションキャラクタなどのアニメーションコンテンツ(例えば、位置、サイズ、及び向きがビデオストリームのコンテンツに無関係である、発信ビデオストリームの複数の画像フレーム内の静止画素位置に表示される、変化する画像若しくは複数の画像)、又は、発信ビデオストリームの一部分の上に配置することができ、発信ビデオストリームのコンテンツの変化に基づいて適応的に(例えば、位置、サイズ、向き、又はコンテンツなどが)変化する適応型コンテンツ。
したがって、様々な実施形態は、例えば、上述の既存のビデオ会議アプリケーションを有するデバイスと比較して、ユーザがより効率的かつより効果的にビデオ会議セッションに参加することを可能にする。
図1は、1つ以上の実装形態に係る、ビデオ会議のために補足コンテンツを用いてビデオストリームを修正することが実施され得る例示的なネットワーク環境100を示す。しかしながら、描写された構成要素の全てが全ての実装形態において使用され得るわけではなく、1つ以上の実装形態は、図に示されたものに追加の又は異なる構成要素を含むことができる。本明細書で示された特許請求の範囲の趣旨又は範囲から逸脱することなく、構成要素の構成及びタイプの変形を行うことができる。追加の構成要素、異なる構成要素、又はより少ない構成要素が提供されてもよい。
ネットワーク環境100は、電子デバイス110、電子デバイス115、及びサーバ120を含む。ネットワーク106は、電子デバイス110及び/若しくはサーバ120、電子デバイス115及び/若しくはサーバ120、並びに/又は電子デバイス110及び/若しくは電子デバイス115を(直接的又は間接的に)通信可能に接続することができる。1つ以上の実装形態では、ネットワーク106は、インターネットを含むか、又はインターネットに通信可能に接続されている、相互接続されたデバイスのネットワークであってもよい。説明のために、ネットワーク環境100は、電子デバイス110、電子デバイス115、及びサーバ120を含むものとして図1に示されている。しかしながら、ネットワーク環境100は、任意の数の電子デバイス及び任意の数のサーバを含むことができる。
電子デバイス110は、例えば、デスクトップコンピュータ、ラップトップコンピュータ、スマートフォンなどのポータブルコンピューティングデバイス、周辺デバイス(例えば、デジタルカメラ、ヘッドホン)、タブレットデバイス、独立型ビデオ会議ハードウェア、携帯時計、バンドなどのウェアラブルデバイス又は、例えば、WLAN無線通信、セルラー無線通信、Bluetooth無線通信、Zigbee無線通信、近距離通信(near field communication、NFC)無線通信、及び/若しくは他の無線通信などの、1つ以上の無線インタフェースを含む任意の他の適切なデバイス、であってもよい。図1では、例として、電子デバイス110がデスクトップコンピュータとして描写されている。電子デバイス110は、図16に関して以下で説明する電子システムであってもよく、かつ/又はその全て若しくは一部を含んでもよい。1つ以上の実装形態では、電子デバイス110は、カメラを含んでもよく、ネットワーク106上で電子デバイス115を用いてビデオストリームを交換かつ/又は修正するためのビデオ会議アプリケーションを提供することができる。
電子デバイス115は、タッチスクリーンを含んでもよく、例えば、タッチスクリーンを含むラップトップコンピュータなどのポータブルコンピューティングデバイス、タッチスクリーンを含むスマートフォン、タッチスクリーンを含む周辺デバイス(例えば、デジタルカメラ、ヘッドホン)、タッチスクリーンを含むタブレットデバイス、タッチスクリーンを含むウェアラブルデバイス、例えば、携帯時計、バンドなど、及び、例えばタッチスクリーンを含む任意の他の適切なデバイス、又はタッチパッドを有する任意の電子デバイスなどであってもよい。1つ以上の実装形態では、電子デバイス115は、タッチスクリーンを含まなくてもよいが、仮想現実環境又は拡張現実環境内などの、タッチスクリーンのようなジェスチャをサポートしてもよい。図1では、例として、電子デバイス115が、タッチスクリーンを有するタブレットデバイスとして描写されている。1つ以上の実装形態では、電子デバイス115は、図16に関して以下で説明する電子システムに関して以下で説明する電子デバイスであってもよく、かつ/又はその全て若しくは一部を含んでもよい。1つ以上の実装形態では、電子デバイス115はまた、カメラを含んでもよく、ネットワーク106上で電子デバイス110と共にビデオストリームを交換かつ/又は修正するビデオ会議アプリケーションを提供することができる。
1つ以上の実装形態では、サーバ120は、電子デバイス110と115との間のビデオストリームの安全な交換を管理する。1つ以上の実装形態では、サーバ120は、ビデオストリームに含むためのコンテンツを記憶してもよい。例えば、サーバは、リモートデバイスへ送信する前の発信ビデオストリームに、又は、リモートデバイスから受信した後の着信ビデオストリームに追加することができる補足コンテンツを記憶してもよい。しかしながら、発信又は着信ビデオストリームを修正するための補足コンテンツは、送信前又は受信後のビデオストリームの修正のために、電子デバイス110及び/又は電子デバイス115によってローカルに記憶されてもよいことを理解されたい。発信ビデオストリームの修正は、修正を実行しているローカルデバイス上のカメラによってキャプチャされているビデオストリームのビデオ会議アプリケーション(又は他のアプリケーション若しくはオペレーティングシステムのプロセス)による、修正を含んでもよい。着信ビデオストリームの修正(例えば、リモートデバイスによって生成され、ローカルデバイスに送信されるビデオストリーム)は、ローカルデバイス上でローカルユーザによって提供された修正命令に基づいて実行されてもよく、又は、着信ビデオストリームを提供するリモートユーザによって行われた修正をレンダリングするために(例えば、着信ビデオストリームを修正するための及び/若しくは修正された着信ビデオストリームをレンダリングするための命令を含むメタデータに基づいて)実行されてもよい。
補足コンテンツを用いて発信ビデオストリームを修正する例を、図2に示す。補足コンテンツを用いて発信ビデオストリームを修正するための例示的なプロセスを、図3に関して以下で更に説明する。複数のリモートデバイスのために補足コンテンツを用いて発信ビデオストリームを修正する例を、図6に示す。複数のリモートデバイスのために補足コンテンツを用いて発信ビデオストリームを修正するための例示的なプロセスを、図7に関して以下で更に説明する。補足コンテンツを用いて着信ビデオストリームを修正する例を、図8に示す。補足コンテンツを用いて着信ビデオストリームを修正するための例示的なプロセスを、図9に関して以下で更に説明する。
図2は、ビデオ会議アプリケーションの動作中の電子デバイス115の様々なユーザインタフェースビューを示す。図2に示すように、ビデオ会議アプリケーションは、プライマリビデオストリームビュー220、及びピクチャインピクチャのビデオストリームビューなどのセカンダリビデオストリームビュー212を含むことができる。電子デバイス115は、図2に示すように、電子デバイス115のユーザ(例えば、ユーザ「A」)による視聴のため及び/又はリモートユーザ(例えば、ユーザ「B」)への送信のために、ビデオ会議アプリケーションに提供される画像フレームの連続ストリームを取得するカメラ201を含む。
図2の例では、カメラ201からのビデオストリーム221は、電子デバイス115からリモートユーザ「B」の電子デバイス(例えば、電子デバイス110)に送信され、セカンダリビデオストリームビュー212でユーザAのために表示されている発信ビデオストリームである。図2の例では、ユーザ「B」からの着信ビデオストリーム223が、プライマリビデオストリームビュー220におけるユーザ「A」による視聴のために表示される。図2の例では、プライマリビデオストリームビュー220は、電子デバイス115のディスプレイ全体を概ね覆っており、一部はセカンダリビデオストリームビュー212によって覆われている。しかしながら、これは単なる例示に過ぎず、プライマリ及びセカンダリビデオストリームビュー220及び212の他の構成を提供することができる(例えば、2つの同じサイズの並列又は上下のビデオストリームビュー)。
図2に示すように、ビデオ会議アプリケーションはまた、実行時に、カメラ選択オプション210(例えば、背面カメラ又は他のカメラに切り替えて、発信ビデオストリーム221を提供するための)及び補足コンテンツモードオプション208などの入力オプションも提供する。ビデオ会議アプリケーションにおける補足コンテンツモードオプション208が選択されると、ビデオ会議アプリケーションは、表示されているビデオストリーム(例えば、発信ビデオストリーム221及び/又は着信ビデオストリーム223)と共に1つ以上の補足コンテンツオプション222を表示する。
図2の例では、補足コンテンツモードオプション208の選択によって、ビデオ会議アプリケーションは、カメラ201からの発信ビデオストリーム221の位置と、ユーザ「B」からの着信ビデオストリーム223の位置を入れ替え、補足コンテンツオプション222を用いる修正のために発信ビデオストリーム221がプライマリビデオストリームビュー220に示され、着信ビデオストリーム223はセカンダリビデオストリームビュー212に示される。しかしながら、発信ビデオストリーム221と着信ビデオストリーム223の位置を入れ替えることなく、補足コンテンツオプション222が提供されてもよいことも理解されたい。例えば、カメラ201からの発信ビデオストリーム221及び着信ビデオストリーム223の位置並びにサイズは、同じままであってもよく、又は補足コンテンツモードオプション208の場合、(例えば、矢印245によって示されるように、セカンダリビデオストリームビュー212のサイズを増加させることによって)他の方法で移動及び/若しくはサイズ変更されてもよい。発信ビデオストリーム及び1つ以上の着信ビデオストリームの相対的なサイズ並びに位置は、デバイスの1人以上のユーザによる入力などの他の入力に基づいて、又は音声入力に基づいて(例えば、現在話しているユーザからのビデオストリームのサイズを大きくすることによって)決定することができる。
以下で更に詳細に説明するようないくつかのシナリオでは、補足コンテンツを用いる修正のために、補足コンテンツオプション222は、着信ビデオストリーム223と共にプライマリビデオストリームビュー220内で提供されてもよいことを理解されたい。
図2の例に戻ると、補足コンテンツオプション222は選択されると、電子デバイス115のプロセッサに、(例えば、選択された補足コンテンツオプション222に対応する補足コンテンツである)対応する補足コンテンツ229を、プライマリビデオストリームビュー220に表示されているビデオストリームに結合させる。補足コンテンツ229は、カメラ201によって取得され、プライマリビデオストリームビュー220に表示される発信ビデオストリーム221の上に若しくは発信ビデオストリーム221と共に表示される静的補足コンテンツ、発信ビデオストリーム221の上に若しくは発信ビデオストリーム221と共に表示されるアニメーション補足コンテンツ、又は、発信ビデオストリーム221の上に若しくは発信ビデオストリーム221と共に表示される適応型補足コンテンツであってもよい。
静的補足コンテンツ229は、デジタルステッカー、ワードアート、ユーザが描画したコンテンツ(例えば、ユーザの指若しくはスタイラスデバイスによるデバイスのタッチスクリーンへの入力を使用して描画されるコンテンツ)、又はビデオストリームの1つ以上のフレームの一部分をオーバーレイするか若しくは置き換えることができる他の静的コンテンツを含んでもよい。静的補足コンテンツは、発信ビデオストリーム221の一部の上に又はその一部と共に表示される時、ビデオストリームがローカル電子デバイス115に表示されている間、及び静的補足コンテンツを用いて修正されたビデオストリームが送信されている間、移動、サイズ変更、回転、又は他の方法で編集することができる。所望であれば、送信されるビデオストリームのサイズを縮小するために、静的コンテンツによって覆われるであろうビデオストリームの部分のサイズをゼロにするか、又はその他縮小し、その結果、サイズを縮小したビデオストリーム(例えば、覆われる部分をゼロ化し、圧縮し、解像度を低減し、又は送信から除去して)を送信することができる。
アニメーション補足コンテンツ229は、アニメーション化されたデジタル画像、ダウンロード若しくはクラウドアクセス可能な動画、又は電子デバイス115若しくはサーバ120によって以前より記憶されているユーザ生成動画などの、以前に記憶された動画を含んでもよい。動画化された補足コンテンツは、発信ビデオストリーム221の一部の上に表示される場合、ビデオストリームがローカル電子デバイス115で表示されている間、および静的補足コンテンツで修正されたビデオストリームが送信されている間に、移動、サイズ変更、回転、またはその他の編集が可能である。アニメーション化された静的コンテンツは時間の経過と共に変化し得るが、アニメーション化されたコンテンツの変化は、修正されているビデオストリームのコンテンツの変化に無関係である。
対照的に、発信ビデオストリーム221に追加される適応型補足コンテンツ229は、発信ビデオストリーム221内のコンテンツに基づいて変化することができる(例えば、電子デバイス115のプロセッサによって修正され得る)。例えば、適応型補足コンテンツは、発信ビデオストリーム221の画像フレーム内の顔を修正するための顔修正コンテンツを含んでもよい。顔修正コンテンツのための補足コンテンツオプション222がビデオ会議アプリケーション内から選択されると、デバイスのプロセッサは、カメラ201からの発信ビデオストリーム221において顔を検出し、検出された顔に顔修正コンテンツを適用し、検出された顔の変化(例えば、ビデオストリーム内の検出された変化)に基づいて、顔修正コンテンツを能動的に修正することができる。
例えば、顔修正コンテンツは、ビデオストリーム221内のユーザの顔を置き換えるか又はオーバーレイし、ビデオストリーム内のユーザの顔の表情に追随し、表情を強調、誇張し、若しくはその他の方法で表情に応答する表情を含む、動物(例えば、キツネ、象、犬、若しくはネズミなど)の頭部の1つ以上の特徴又は動物の頭部全体を含み得る。顔修正コンテンツはまた、(例えば、ユーザの頭部の位置及び/若しくは方向の変化、並びに/又はユーザの頭部とデバイスとの間の距離の変化による)ビデオストリーム内のユーザの頭部のサイズ、位置及び/又は向きに連係して、サイズ、位置、及び/又は向きを変更することができる。
ビデオ会議アプリケーションは、ビデオストリームと、静的、アニメーション、または適応型補足コンテンツとをプライマリビデオストリームビュー220に表示し、並行してビデオストリームと、静的、アニメ−ション、または適応型補足コンテンツとをリモートデバイスに送信することにより、2つのリモートデバイスのユーザが同じ修正されたビデオストリームを実質的に同時に見ることができるようにする。
いくつかのシナリオでは、発信ビデオストリームと共に提供される補足コンテンツは、受信デバイスによって編集可能であることも理解されたい(例えば、補足コンテンツを有する受信されたビデオストリームが、画像の層と補足コンテンツとをマージするなど、送信デバイスが画像画素値を直接修正することによる画素値自体への統合が行われず、代わりに補足コンテンツが受信電子デバイスでレンダリングされる場合)。このようなシナリオでは、電子デバイス110のプロセッサは、着信ビデオストリームとして電子デバイス115から発信ビデオストリーム221を受信することができ、着信ビデオストリームは、ビデオストリーム221及び補足コンテンツ229を含む。電子デバイス110のビデオ会議アプリケーションは、ビデオストリーム221及び補足コンテンツ229を表示し、ビデオストリームを(例えば、補足コンテンツ229を異なる補足コンテンツで置き換えることによって、及び/又は補足コンテンツ229を削除することによって)更に修正するための補足コンテンツオプションを電子デバイス110で提供する。
補足コンテンツをビデオストリームと統合することにより、記載された補足コンテンツ機能は、補足ビデオストリームをレンダリングするための機能を有しないリモートデバイス(例えば、まだアップデートされていないソフトウェアや古いデバイス上のソフトウェアに起因する)と後方互換性を持つことが可能となり、また、記載された補足コンテンツ機能は、記載された補足コンテンツ機能をリモートデバイスが有するかどうかを、送信デバイスが判定できない第三者ソフトウェア及び/又はデバイスと、互換性を持つことが可能となる。場合によっては、電子デバイス115のユーザは、統合又は非統合補足コンテンツをビデオストリームと共に提供するかどうかを選択する能力を提供され得る。場合によっては、電子デバイス115は、統合又は非統合補足コンテンツをビデオストリームと共に提供するかどうかを(例えば、利用可能な送信帯域幅、受信デバイスの利用可能な機能性、又は受信デバイスの機能性に関する情報の欠如に基づいて)自動的に決定してもよい。いくつかのシナリオでは、電子デバイス115のビデオ会議アプリケーションは、リモートデバイスが、受信されたビデオストリームで補足コンテンツをレンダリングすることができるかどうか、及び/又は補足コンテンツが、リモートデバイスで利用可能かどうか、若しくはビデオストリームと共に(例えば、補足コンテンツのメタデータに含めて)リモートデバイスに提供されるべきかどうかを判定するために、リモートデバイスとの事前会議(例えば、ハンドシェイク)動作を実行してもよい。
一実施例では、補足コンテンツ229は、発信ビデオストリーム221内のユーザ「A」との顔と共に移動し、かつそれに適応する適応型漫画(adaptive cartoon)のキツネの頭部であり、更なる補足コンテンツが、ユーザ「B」によって、例えば、サングラス又は帽子をキツネの頭部に追加することによって、ユーザ「A」のビデオストリームに追加されてもよい。図2の例では、ユーザ「B」は、電子デバイス115から提供された修正されたビデオストリームにリモート補足コンテンツ230(例えばサングラス)を追加しており、電子デバイス115はまた、プライマリビデオストリームビュー220に示される、表示された発信ビデオストリームにリモート補足コンテンツ230を(例えば、リモートデバイスから受信した命令に基づいて)追加している。
リモート補足コンテンツは、電子デバイス115のプロセッサによってレンダリングするために、リモートデバイスによって電子デバイス115に送信されてもよく、又はリモートデバイスからの命令に基づいて電子デバイス115によって取得されてもよい。電子デバイス115が電子デバイス115のローカルストレージから又はサーバ120から更なる補足コンテンツを取得するための命令を受信するシナリオでは、電子デバイス115のプロセッサは、受信した命令に基づいて、ローカルストレージ又はクラウドベースのストレージから更なる補足コンテンツを取得し、カメラ201からの発信ビデオストリーム221、リモート補足コンテンツ230、及び/又は電子デバイス115のユーザによって追加された元の補足コンテンツ229を、(例えば、元の補足コンテンツが受信デバイスで削除されなかった場合)プライマリビデオストリームビュー220に表示する。
図3は、1つ以上の実装形態に係る、ビデオ会議のために補足コンテンツ229などの補足コンテンツを用いて発信ビデオストリーム221などの発信ビデオストリームを修正するための例示的なプロセス300のフロー図を示す。説明のために、プロセス300を、本明細書では主として、図1及び図2の電子デバイス115の1つ以上のプロセッサによって実行され得る、図1及び図2の構成要素を参照しながら(特に電子デバイス115に関して)記載する。しかしながら、プロセス300は電子デバイス115に限定されず、プロセス300の1つ以上のブロック(又は動作)は、1つ以上の電子デバイス110又はサーバ120などの、他の好適なデバイスの1つ以上の他の構成要素によって実行されてもよい。更に、説明のために、プロセス300のブロックは、本明細書では逐次的に又は直線的に発生するものとして説明している。しかしながら、プロセス300の複数のブロックは、並行して発生してもよい。加えて、プロセス300のブロックは、図示された順序で実行される必要はなく、並びに/又は、プロセス300の1つ以上のブロックは、実行される必要はなく、及び/若しくは他の動作によって置き換えることができる。
ブロック302において、電子デバイス115のプロセッサは、電子デバイス115と電子デバイス110などのリモート電子デバイスとの間の会議セッションを確立する。会議セッションは、リモート電子デバイス110から着信ビデオストリーム223を受信すること、又は電子デバイス115のカメラ201などのカメラからリモートデバイスに発信ビデオストリーム221を送信することの少なくとも1つを含む。例えば、いくつかのシナリオでは、電子デバイス115及び110の両方が、ビデオストリームを送受信する。カメラ(及び/又は関連するセンサ)は、深度感知能力を有し、深度情報(例えば、拡張現実メタデータなどのメタデータとして)をローカルビデオ会議アプリケーション及び/又は受信機に送信することができる。ローカルビデオ会議アプリケーション及び/又は受信機は、カメラ(及び/又は他のセンサ)から深度情報を取得し、(例えば、基礎となる画像フレーム内の顔などのオブジェクトに対して補足コンテンツを位置付ける、サイズ変更する、方向付ける、及び/又は適応させるために)その深度情報を使用して補足コンテンツオーバーレイを描写する。他のシナリオでは、電子デバイス115若しくは電子デバイス110のビデオ性能が一時的に利用不可能、又は電子デバイス115若しくは電子デバイス110のうちの1つが限られた帯域幅を有し、ビデオを受信して表示しているが、音声は送信のみ行なっている場合がある。
ブロック304において、電子デバイス115のプロセッサは(例えば、補足コンテンツモードオプション208の選択に応じて)、表示のために、補足コンテンツオプション222と、着信ビデオストリーム223又は発信ビデオストリーム221の少なくとも1つとを提供する。
ブロック306において、電子デバイス115のプロセッサは、補足コンテンツオプション222の選択物を受信する。例えば、ユーザ「A」は、タッチスクリーンデバイス上でそのオプションをタップすることによって、表示されたオプションの位置で若しくはその近くの物理的なボタンを押すことによって、音声コマンドを提供することによって、及び/又は任意の他の選択メカニズムによって、1つ又は1つ以上の補足コンテンツオプション222を選択することができる。
ブロック308において、電子デバイス115のプロセッサは、選択に応じて、選択された補足コンテンツオプション222に関連付けられた補足コンテンツを用いて、着信ビデオストリーム223又は発信ビデオストリーム221の少なくとも1つを修正する。次いで、修正された発信ビデオストリームは、1つ以上のリモートデバイスに送信され得る。いくつかのシナリオでは、電子デバイス115のプロセッサは、リモートデバイスからの発信ビデオストリームのための更なる補足コンテンツ(例えば、リモート補足コンテンツ230)を受信する。これらのシナリオでは、電子デバイス115のプロセッサは、リモート補足コンテンツ230を用いて発信ビデオストリーム221を更に修正し、更に修正された発信ビデオストリームをリモート電子デバイスに送信することができる。
いくつかのシナリオでは、発信ビデオストリームを修正し、修正された発信ビデオストリームを送信することは、発信ビデオストリームに補足コンテンツを統合して、統合された修正発信ビデオストリームを形成すること、及び、統合された修正出力ビデオストリームをリモートデバイスに送信することを含むことができる。例えば、補足コンテンツの層(複数可)と発信ビデオストリームの層(複数可)とを単一の層にマージすることによって、補足コンテンツを発信ビデオストリームに統合することができる。
図4は、電子デバイス115が、送信のための統合された修正出力ビデオストリームを生成する例を示す。図4の例に示すように、電子デバイス115は、カメラから一連の画像フレームを含むビデオデータを受信するコンテンツマージエンジン(content merging engine)406(例えば、ビデオ会議アプリケーション411のハードウェアコンポーネント又はコンテンツマージ部分)を含むことができる。コンテンツマージエンジン406はまた、デバイスのユーザによって選択された静的補足コンテンツ400、アニメーション補足コンテンツ402、及び/又は適応型補足コンテンツ404などの補足コンテンツ229を受信してもよい。
所望であれば、別個の拡張現実メタデータがコンテンツマージエンジンに提供されてもよい。拡張現実(AR)メタデータは、人、顔の特徴、動物、木、低木、花、道路、道路標識、家具、又はビデオデータ画像フレーム内に表される他の物理オブジェクトなどの物理的オブジェクトを記述する情報を含むことができる。例えば、ARメタデータは、深度情報、サイズ情報、画素位置情報、動き情報、向き情報、又は物理的オブジェクトに関する他の情報を含むことができる。コンテンツマージエンジン406は、ARメタデータを使用して、カメラからビデオストリームに追加される補足コンテンツを、時間の経過と共に、位置付ける、方向付ける、サイズ変更する、及び/又は適応させることができる。例えば、アニメーション化された動物の顔を含む適応型補足コンテンツが、ユーザのスマートフォンの前面カメラによってキャプチャされたユーザの顔の画像をオーバーレイするように選択される場合、ARメタデータは、ユーザの顔の境界、位置、サイズ、奥行き、及び特徴(例えば、目、耳、口などの位置)を示すことができ、それを使用して、これを使用して、アニメーション化された動物の顔の顔表現のサイズ、位置、向き、および決定することができ、ユーザの顔が画像化される奥行き、画像化された顔の向き若しくは位置、及び/又はユーザの表情の変化に対応するように、アニメーション化された動物の顔をアニメーションすることができる。
図4の例では、カメラからのビデオストリームの画像フレームは、画像フレームの画素値の一部若しくは全てに補足コンテンツ値を追加することによって、及び/又は画像フレームの画素値の一部若しくは全てを補足コンテンツ値で置き換えることによって、静的補足コンテンツ400、アニメーション補足コンテンツ402、及び/又は適応型補足コンテンツ404の追加によって修正される。このようにして、補足コンテンツは、修正に関する情報を記憶することなく、画像フレーム自体の画素値に統合されて、統合された補足ビデオストリームを形成する。統合された補足ビデオストリームは、リモートデバイス(例えば、電子デバイス110)のデコーダ413に送信するために(例えば、デバイスの通信回路及び/又はネットワークインタフェースを介して、並びにネットワーク106を介して)、コンテンツマージエンジン406から、電子デバイス115の、ビデオエンコーダなどのエンコーダ410に提供されてもよい。図3に示す例では、ビデオデータと補足コンテンツとの統合は、コンテンツマージエンジン406によって実行される。しかしながら、他のシナリオでは、エンコーダ410は、ビデオデータと補足コンテンツとの統合の一部又は全てを実行してもよい。これらの統合された送信例では、統合された補足ビデオストリームは、カメラからのビデオストリームとは別個の補足コンテンツを記述する補足コンテンツメタデータなしで、及び深度情報のようなARメタデータなしで送られる。
リモートデバイスのデコーダ413は、リモートデバイスでの表示のために(例えば、リモートデバイス上で実行されているビデオ会議アプリケーション内で)、符号化された統合補足ビデオストリームを復号することができる。補足ビデオストリームは送信前に統合されたので、リモートデバイスで修正することなく、リモートデバイスは受信した補足ビデオストリームを表示する。
これらの統合送信シナリオでは、リモート補足コンテンツ230は、ビデオ会議アプリケーション414によって統合された補足ビデオストリームに、受信デバイスにおいて又は送信デバイスにおいて(例えば、リモート補足コンテンツを追加するための命令が、受信デバイスから送信デバイスに提供される場合)追加することができる。しかしながら、リモートデバイスは、リモート補足コンテンツの追加のために(例えば、統合された補足ビデオストリームはこの情報を含まないので)、画像フレーム内の物理的オブジェクト及び/又は補足コンテンツを検出する画像解析動作を実行する場合があり、送信デバイスにおいて以前に追加された補足コンテンツは、元の画像フレームを得るために受信デバイスにおいて修正又は除去することはできない。リモート補足コンテンツ230は、電子デバイス115におけるプレビューストリームに含めるために、又は他のリモートデバイスに送信するために、(例えば、ネットワーク106及び/若しくはサーバ120を介して)電子デバイス115に(例えば、コンテンツマージエンジン406に)提供されてもよい。所望であれば、送信デバイスにおいて、送信デバイスで補足コンテンツへの修正を可能にするために、補足コンテンツが編集可能な形式(例えば、プレビューデータは、カメラ画像フレーム及び補足コンテンツを別々に含むことができる)で発信ビデオストリームと共に表示され得るように、プレビューデータがプライマリビデオストリームビュー220に提供される。図4の例では、プライマリビデオストリームビュー220は、ビデオ会議アプリケーション411の一部として示されているが、ビデオ会議アプリケーション411が、電子デバイス115のディスプレイ上に表示するためのプライマリビデオストリームビューコンテンツを生成することを理解されたい。
上記のとおり、いくつかのシナリオでは、カメラからの未修正の画像フレームに補足コンテンツのためのメタデータを追加することによって、補足コンテンツを有する修正されたビデオストリームを提供することが望ましい場合があり、メタデータは、受信デバイスにおいて補足コンテンツを用いて画像フレームを修正するための命令を含む。このようにして、受信ユーザに、行われた修正を特定し、修正を元に戻し、及び/又は受信デバイスを用いてビデオストリームを更に修正する能力を提供することができる。このようにして、転送されるデータ量も削減することができる(例えば、補足コンテンツが両方のデバイスに記憶され、受信デバイスでレンダリングされる場合、未修正のビデオストリーム画像フレームを有するメタデータ内で受信された命令に基づいて、そのデバイスに記憶された補足コンテンツを使用する)。
したがって、いくつかのシナリオでは、発信ビデオストリームを修正し、修正された発信ビデオストリームを送信することは、発信ビデオストリーム、補足コンテンツ、並びに、発信ビデオストリーム及び補足コンテンツをリモートデバイスにレンダリングするための命令を送信することを含み得る。いくつかのシナリオでは、発信ビデオストリームを修正し、修正された発信ビデオストリームを送信することは、発信ビデオストリーム、及び補足コンテンツを取得してリモートデバイスにレンダリングするための命令を送信することを含み得る。
例えば、図5に示すように、送信電子デバイス(例えば、電子デバイス115)のビデオ会議アプリケーションのコンテンツマージエンジン406が、カメラから一連の画像フレームを含むビデオデータを受信し、電子デバイス115のユーザによって選択された静的補足コンテンツ400、アニメーション補足コンテンツ402、及び/又は適応型補足コンテンツ404を受信する場合、補足コンテンツを画像フレームの画素値に統合し、修正された画素値を符号化及び送信のためにエンコーダ410に提供する代わりに、補足コンテンツメタデータ及び/又はARメタデータが、デバイスのパッケージ化エンジン(packaging engine)511(例えば、リアルタイムトランスポートプロトコル(real-time transport protocol、RTP)エンジンのようなトランスポートプロトコルエンジン)に直接提供されると同時に、コンテンツマージエンジン406は、画像フレーム(ビデオ)のみをエンコーダ410に送信してもよい。
図5に示すように、パッケージ化エンジン511は、エンコーダ410から符号化されたビデオデータを受信し、符号化されたビデオ、補足コンテンツメタデータ、及び/又はARメタデータをパッケージ化して、リモートデバイスのパッケージ化エンジ512(例えば、RTPエンジンのようなトランスポートプロトコルエンジン)に(例えば、ネットワーク106を介して)送信することができる。リモートデバイスのパッケージ化エンジン512は、補足コンテンツメタデータ及び/又はARメタデータを符号化ビデオストリームから分離(アンパック)し、補足コンテンツメタデータ及び/又はARメタデータをビデオ会議アプリケーション414に提供し、符号化されたビデオデータをデコーダ413に提供する。デコーダ413は、ビデオデータを復号し、着信ビデオストリームをビデオ会議アプリケーション414に提供する。
ビデオ会議アプリケーション414が、補足コンテンツメタデータ、ARメタデータ、及び復号された着信ビデオストリームを受信すると、ビデオ会議アプリケーション414は、リモートデバイスのビデオ会議アプリケーションに表示するために、補足コンテンツメタデータに基づいて着信ビデオストリームを修正する。例えば、リモートデバイスのビデオ会議アプリケーション414は、補足コンテンツメタデータ内の命令に基づいて、補足コンテンツメタデータ自体から又はリモートデバイスのローカルストレージ若しくはクラウドベースのストレージから、補足コンテンツを取得することができる。次に、ビデオ会議アプリケーション414は、表示のために取得した補足コンテンツ229を追加することによって(例えば、画像フレームの画素値の一部若しくは全てに補足コンテンツ値を追加することによって、及び/又は画像フレームの画素値の一部若しくは全てを補足コンテンツ値で置き換えることによって)、ビデオストリームの一連の画像フレームのそれぞれを修正することができる。
これらの統合されていない送信シナリオでは、送信デバイスからの補足コンテンツを、リモートデバイスでビデオストリームを修正若しくはビデオストリームから除去することができ、及び/又は追加のリモート補足コンテンツ230を、受信デバイスで補足ビデオストリームに追加することができる。
図2〜図5に関連して上述した例は、2つのデバイス間のビデオ会議セッションを示す。しかしながら、補足コンテンツを有するビデオ会議は、3つ以上のデバイス間のグループ会議のために提供され得ることを理解されたい。
図6は、3人以上の参加者によるビデオ会議セッションのための、ビデオ会議アプリケーションの動作中の電子デバイス115の様々なユーザインタフェースビューを示す。
図6に示すように、電子デバイス115上で実行されているビデオ会議アプリケーションは、ユーザ「B」からの着信ビデオストリーム223をプライマリビデオストリームビュー220に、ユーザ「A」の発信ビデオストリーム221をセカンダリビデオストリームビュー212に、並びに追加のリモートデバイス(例えば、ユーザ「C」及び「D」のリモートデバイス)からの追加の着信ビデオストリーム223を追加のセカンダリビデオストリームビュー212に表示することができる。
発信ビデオストリーム221は、ユーザ「B」、「C」、及び「D」のそれぞれのリモートデバイスに提供され、ビデオ性能及び十分な帯域幅がそのデバイスで利用可能である場合、それらのリモートデバイス上に表示される。図に示すように、発信ビデオストリームのためのセカンダリビデオストリームビュー212は、他のセカンダリビデオストリームビュー内の着信ビデオストリームからオフセットされてもよく、又は別の方法で区別されてもよい。
図6に示すように、ビデオ会議アプリケーションの補足コンテンツ入力モードを入力するために補足コンテンツモードオプション208が選択されると、補足コンテンツオプション222が提供され、発信ビデオストリーム221は、補足コンテンツを用いる修正のために、プライマリビデオストリームビュー220に入れ替えられる(又は他の方法で、図2に関連して上述したようにサイズ若しくは位置を増加させる)。図6の例はまた、補足コンテンツ入力モードにおいて、ビデオ会議セッションにおけるそれぞれのリモートデバイスに対して選択可能なオプション240がどのように提供されるかを示す。リモートデバイスの選択可能なオプション240を選択することにより、リモートデバイスは、発信ビデオストリームに追加された補足コンテンツを見ることができる。リモートデバイスに対する選択可能なオプション240の選択を解除することにより、そのリモートデバイスは、発信ビデオストリームに追加された補足コンテンツを視聴しないようにされ、それにより、ビデオ会議セッション内の他のデバイスが、補足コンテンツを用いて修正された発信ビデオストリームを受信しても、そのデバイスは未修正の発信ビデオストリームを受信する。選択可能オプション240のいずれもチェックされない場合、補足コンテンツは、ローカルデバイスにおいてのみ(例えば、プレビューとして)表示されてもよい。
図6の例では、ユーザ「B」のリモートデバイスに対する選択可能なオプション240が選択解除され、補足コンテンツオプション222の1つが選択されて、発信ビデオストリーム221に補足コンテンツ229を追加する。この例では、ユーザ「C」及び「D」のリモートデバイスは、補足コンテンツ229を用いて修正された発信ビデオストリーム221を受信し、ユーザのリモートデバイス「B」は、未修正の発信ビデオストリーム221(又は異なる修正ビデオストリーム)を受信する。いくつかのシナリオでは、電子デバイス115は、(例えば、ソフトウェアの互換性、帯域幅の可用性、リモートデバイス機能などに基づいて)リモートデバイスのうちの1つ以上に補足コンテンツを提供するかどうかを自動的に決定することができることも理解されたい。
図6の例では、ユーザ「C」は次に、ビデオストリームにリモート補足コンテンツ230を追加することによってユーザ「A」のビデオストリームを(例えば、電子デバイス115に命令を送信して、ユーザ「C」のリモートデバイスの補足コンテンツオプション222を選択するユーザ「C」に応じてリモート補足コンテンツを追加することによって)更に修正する。ユーザ「A」の更に修正されたビデオストリームは、プライマリビデオストリームビュー220に表示され、ユーザ「C」及び「D」に送信される。
図7は、1つ以上の実装形態に係る、3人以上の参加者とのビデオ会議のために補足コンテンツ229などの補足コンテンツを用いて発信ビデオストリーム221などの発信ビデオストリームを修正するための例示的なプロセス700のフロー図を示す。説明のために、プロセス700を、本明細書では主として、図1、図2及び図4の電子デバイス115の1つ以上のプロセッサによって実行され得る、図1及び図2の構成要素を参照しながら(特に電子デバイス115に関して)記載する。しかしながら、プロセス700は電子デバイス115に限定されず、プロセス700の1つ以上のブロック(又は動作)は、1つ以上の電子デバイス110又はサーバ120などの、他の好適なデバイスの1つ以上の他の構成要素によって実行されてもよい。更に、説明のために、プロセス700のブロックは、本明細書では逐次的に又は直線的に発生するものとして説明している。しかしながら、プロセス700の複数のブロックは、並行して発生してもよい。加えて、プロセス700のブロックは、図示された順序で実行される必要はなく、並びに/又は、プロセス700の1つ以上のブロックは、実行される必要はなく、及び/若しくは他の動作によって置き換えることができる。
ブロック702において、電子デバイス115のプロセッサは、電子デバイス115(例えば、ローカルデバイス)と複数のリモートデバイス(例えば、複数の電子デバイス110及び/又は他の電子デバイス115)との間に会議セッションを確立し、この会議セッションは、ローカル電子デバイスのカメラ201などのカメラからの発信ビデオストリーム221をリモート電子デバイスのそれぞれに送信することを含む。発信ビデオストリームは、電子デバイス115のメモリに記憶され、電子デバイス115のプロセッサによって実行されるビデオ会議アプリケーションのビデオストリームビューに表示することができる。1つ以上の実装形態では、サーバは、電子デバイス115とリモートデバイスとの間の会議セッションを調整及び/又は促進することができる。例えば、電子デバイス115は、単一の発信ビデオストリーム221をサーバ120に提供することができ、サーバ120は、発信ビデオストリームを複数のリモート電子デバイスのそれぞれに配信することができる。
ブロック704において、電子デバイス115のプロセッサは、ローカルデバイスでの表示のために、補足コンテンツオプション222及び発信ビデオストリーム221を提供する。補足コンテンツオプション222及び発信ビデオストリーム221は、ビデオ会議アプリケーション内に表示される。例えば、図2に関連して上述したように、補足コンテンツオプションは、静的、アニメーション、及び/又は適応型コンテンツを発信ビデオストリームに追加するオプションであってもよい。
ブロック706において、電子デバイス115のプロセッサは、(例えば、ユーザ「A」が表示された補足コンテンツオプションをタップするか、又は別の方法で選択することに応じて)補足コンテンツオプションの選択を受信する。
ブロック708において、電子デバイス115のプロセッサは、選択に応じて、選択された補足コンテンツオプション222に関連付けられた補足コンテンツ229を用いて発信ビデオストリーム221を修正する。次いで、修正された発信ビデオストリームは、一部又は全てのリモートデバイスに提供されてもよい。いくつかの動作シナリオでは、補足コンテンツを有さない発信ビデオストリームが、少なくとも1つのリモートデバイスに提供される。3つ以上のデバイス間のビデオ会議セッション中に、発信ビデオストリームの修正のために補足コンテンツオプション222が提供される時、それぞれのリモートデバイスの選択可能オプション240も表示用に提供されてもよく、それぞれのリモートデバイスの選択可能オプションは、そのリモートデバイスが発信ビデオストリームと共に補足コンテンツを受信することを許可する又は防止するように構成されている。各リモートデバイスに補足コンテンツを提供するための選択可能なオプションは、そのリモートデバイスに対する着信ビデオストリーム又は別の可視インジケータに関連して表示されてもよい。
上記のとおり、いくつかのシナリオにおいて、発信ビデオストリームと共に提供される補足コンテンツは、受信デバイスによって編集可能であり得る。具体的には、補足コンテンツと発信ビデオストリームが送信前に統合されないシナリオでは、送信と共に提供されるメタデータは、送信者によって追加された補足コンテンツを受信デバイスが特定、修正、及び/又は更に補足することを可能にすることができる。
図8は、3人以上の参加者とのビデオ会議セッションのためのビデオ会議アプリケーションの動作中のユーザ「C」の受信電子デバイス115Cの様々なユーザインタフェース図を示す。図8に示すように、ユーザ「B」、「C」、及び「D」とのビデオ会議セッションにおけるユーザ「A」が、その発信ビデオストリーム221に補足コンテンツ229を追加すると(例えば、図6を参照)、その修正されたストリームは、着信ビデオストリーム223としてユーザ「C」の電子デバイス115Cで受信され、セカンダリビデオストリームビュー212に表示される。
図8の例では、ユーザ「C」の発信ビデオストリーム221は、補足コンテンツオプション222と共にプライマリビデオストリームビュー220に表示される。この構成では、補足コンテンツオプション222のうちの1つを選択することにより、関連付けられた補足コンテンツは、ユーザ「C」の発信ビデオストリーム221に追加され、ユーザ「A」、「B」、及び「D」のそれぞれのリモートデバイスに提供される(この例では、それぞれの選択可能なオプション240が選択されているため)。
図8に示すように、ユーザ「C」は、修正された着信ビデオストリーム223をユーザ「A」からプライマリビデオストリームビュー220に入れ替え、ユーザ「C」の補足コンテンツ230(ユーザ「A」のデバイスを参照する場合、図6にリモート補足コンテンツとして示される)を、すでに補足コンテンツ229が追加されているユーザ「A」のビデオストリームに追加することができる。図8の例では、ユーザ「C」は、次に、ユーザ「A」から着信ビデオストリーム223を入れ替え、ユーザ「A」によって追加された補足コンテンツ229(例えば、ユーザ「A」のビデオストリーム内におけるユーザ「A」の顔を覆うキツネの頭部)、及びユーザ「C」によって追加された補足コンテンツ230(例えば、キツネの頭部上のサングラス)を含むように修正し、セカンダリビデオストリームビュー212のうちの1つに表示する。
図9は、1つ以上の実装形態に係る、補足コンテンツを用いて修正されたリモートカメラからの着信ビデオストリームを含む、修正された着信ビデオストリーム(例えば、図8に記載されるような補足コンテンツ229を備えたユーザ「A」の着信ビデオストリーム223)を受信して表示するための例示的なプロセス900のフロー図を示す。説明のために、プロセス900を、本明細書では主として図1及び図2の構成要素を参照しながら記載する。しかしながら、プロセス900は電子デバイス115に限定されず、プロセス900の1つ以上のブロック(又は動作)は、1つ以上の電子デバイス110又はサーバ120などの、他の好適なデバイスの1つ以上の他の構成要素によって実行されてもよい。更に、説明のために、プロセス900のブロックは、本明細書では逐次的に又は直線的に発生するものとして説明している。しかしながら、プロセス900の複数のブロックは、並行して発生してもよい。加えて、プロセス900のブロックは、図示された順序で実行される必要はなく、並びに/又は、プロセス900の1つ以上のブロックは、実行される必要はなく、及び/若しくは他の動作によって置き換えることができる。
ブロック902において、電子デバイス110などの受信デバイスは、リモートデバイス(例えば、電子デバイス115)からのライブ着信ビデオストリーム223及びライブ着信ビデオストリームに対する補足コンテンツ229に関連付けられたメタデータを、(例えば、ビデオ会議アプリケーションで)受信する。ライブ着信ビデオストリーム223は、リモートデバイスのカメラ201などのカメラによって現在キャプチャされている(及び/又は同時にキャプチャされる)画像フレームのストリームを含んでもよい。ライブ着信ビデオストリーム223は、リモートデバイスのカメラによってキャプチャされ、キャプチャ後にリモートデバイスによって直ちに送信される画像フレームのストリームを含んでもよい。受信デバイスはまた、ライブ着信ビデオストリームの受信と同時に、ローカルカメラからライブ発信ビデオストリームを送信してもよい。1つ以上の実装形態では、ビデオ会議アプリケーション内のライブ着信ビデオストリームは、ビデオストリームがキャプチャされる時間に対して最小遅延で又は遅延なく、電子デバイス110に即時表示するために、リモートデバイスでキャプチャされ、(例えば、サービスの品質が高い)電子デバイス110に(例えば、ビデオストリームのそれぞれのフレームがキャプチャされると)即時に送信されるビデオストリームを指してもよい。
メタデータは、補足コンテンツ及び補足コンテンツを含むようにライブ着信ビデオストリームを修正するための命令を含んでもよく、又はライブ着信ビデオストリーム、並びに補足コンテンツを取得するための命令及び補足コンテンツ自体を含まずに補足コンテンツを含むようにライブ着信ビデオストリームを修正するための命令を含んでもよい。
ブロック904において、受信デバイス(例えば、受信デバイスのプロセッサ)は、メタデータを使用してライブ着信ビデオストリーム223を補足コンテンツ229を含むように修正する。ライブ着信ビデオストリームを修正することは、ライブ着信ビデオストリームで受信した命令に基づいて、ライブ着信ビデオストリームで受信した補足コンテンツをライブ着信ビデオストリームに追加することを含み得る。ライブ着信ビデオストリームを修正することはまた、又は代替的に、メタデータ内の識別子を使用して、ローカルストレージ又はクラウドベースのストレージから補足コンテンツを取得することと、取得した補足コンテンツを、メタデータ内において特定される、ライブ着信ビデオストリームの画像フレームの1つ以上の一部分(例えば、画素位置)に適用することを含んでもよい。
ライブ着信ビデオストリーム223は、最小遅延で表示するためにキャプチャされ送信されるライブ着信ビデオストリームであるため、受信デバイスは、ビデオストリームの修正が受信デバイスにおけるライブ着信ビデオストリーム223の表示に全く遅延を加えないように(又は遅延を最小化するように)、高い優先度のプロセスでライブ着信ビデオストリーム223を修正することができる。
ブロック906において、受信デバイスは、(例えば、ビデオ会議アプリケーション内で)補足コンテンツを用いて修正されたライブ着信ビデオストリームを表示する。いくつかのシナリオでは、受信デバイスはまた、表示のために、補足コンテンツを用いて修正されたライブ着信ビデオストリームと共に、補足コンテンツオプションを提供することができる。受信デバイスはまた、補足コンテンツオプションの選択を受信し、選択に応じて、選択された補足コンテンツオプションに関連付けられた追加の補足コンテンツを用いて、修正されたライブ着信ビデオストリームを修正してもよい。補足コンテンツオプションが、補足コンテンツをリモートデバイスからの着信ビデオストリームに追加するために受信デバイスで受信されると、受信デバイスは、また、追加の補足コンテンツを表示するために命令をリモートデバイス(例えば、ライブ着信ビデオストリームを提供しているデバイス)に送信することもできる。このようにして、受信デバイスから追加されたコンテンツを、送信及び受信デバイスの両方に表示することができる。
本明細書で説明されたユーザインタフェース(例えば、図2、図6、及び図8を参照)は、図10〜図15に示される1つ以上のユーザインタフェースの1つ以上の要素(又はその全体)を利用してもよい。例えば、図10のユーザインタフェース1000は、ハッピーフェイス(例えば、要素1012を参照)を有する星として表される補足コンテンツモードオプション208と共に、発信ビデオストリーム221(例えば、図10の要素1002を参照)並びにいくつかの着信ビデオストリーム223(例えば、図10の要素1004、1006、1108及び1010を参照)を示す。別の例として、図11のユーザインタフェース1100の要素1102は、補足コンテンツオプション222(図11の要素1104、1106及び1108として表される)を有する発信ビデオストリームのディスプレイを表すことができる。別の例として、図12のユーザインタフェース1200は、図12の補足コンテンツオプション1204の選択に応じて、発信ビデオストリームに追加された補足コンテンツ229(例えば、サルの顔1202を参照)を有する発信ビデオストリーム221を示す。別の例として、図13のユーザインタフェース1300は、発信ビデオストリーム内のユーザの顔の検出された動作に応じて、(図13に示す向きに対して)移動する適応型補足コンテンツ(例えば、サルの顔1302を参照)を示すことができる。別の例として、図14のユーザインタフェース1400は、補足コンテンツ229(例えば、要素1404を参照)を有する発信ビデオストリーム221(例えば、要素1402を参照)を示すビデオストリームビューのサイズの縮小を示すことができる。別の例として、図15のユーザインタフェース1500は、補足コンテンツ(例えば、リモートユーザの顔を覆うロボットの頭部1504)を含む着信ビデオストリーム(例えば、要素1502を参照)を示すことができる。本開示の一態様では、図10〜図15に列挙される要素は、電子デバイス115、電子デバイス110、及び/又はサーバ120のうちの1つ以上によって提示されてもよい。図10〜図15は、サンプル順序での様々なステップ、動作、又は工程の要素を提示し、提示された特定の順序又は階層に限定されることを意味しなくてもよい。
図16は、主題の技術の1つ以上の実装形態を実施することができる電子システム1600を示す。電子システム1600は、図1に示す電子デバイス110、電子デバイス115、及び/若しくはサーバ120とすることができ、並びに/又はそれらの一部とすることができる。電子システム1600は、各種コンピュータ可読媒体及び、他の各種コンピュータ可読媒体用のインタフェースを含むことができる。電子システム1600は、バス1608、1つ以上の処理ユニット1612、システムメモリ1604(及び/若しくはバッファ)、ROM1610、永久記憶デバイス1602、入力デバイスインタフェース1614、出力デバイスインタフェース1606、並びに1つ以上のネットワークインタフェース1616、又はそれらのサブセット及び変形を含む。
バス1608は、電子システム1600の多数の内部デバイスを通信可能に接続する全てのシステム、周辺機器、及びチップセットバスを集合的に表す。1つ以上の実装形態では、バス1608は、1つ以上の処理ユニット1612を、ROM1610、システムメモリ1604、及び永久記憶デバイス1602と通信可能に接続する。これらの様々なメモリユニットから、1つ以上の処理ユニット1612は、本願の開示のプロセスを実行するために、実行すべき命令及び処理すべきデータを取り出す。1つ以上の処理ユニット1612を、異なる実装形態においては、シングルプロセッサ又はマルチコアプロセッサとすることができる。
ROM1610は、1つ以上の処理ユニット1612及び電子システム1600の他のモジュールによって必要とされる静的データ及び命令を記憶する。一方、永久記憶デバイス1602は、読み出し及び書き込みメモリデバイスであってもよい。永久記憶デバイス1602は、たとえ電子システム1600がオフであっても、命令及びデータを記憶する不揮発性メモリユニットであってもよい。1つ以上の実装形態では、永久記憶デバイス1602として、大容量記憶デバイス(磁気ディスク又は光ディスク、及びそれに対応するディスクドライブなど)を使用することができる。
1つ以上の実装形態では、永久記憶デバイス1602として、脱着可能記憶デバイス(フロッピーディスク、フラッシュドライブ、及びそれに対応するディスクドライブなど)を使用することができる。永久記憶デバイス1602と同様に、システムメモリ1604は、読み出し及び書き込みメモリデバイスであってもよい。しかしながら、永久記憶デバイス1602とは異なり、システムメモリ1604は、ランダムアクセスメモリなどの、揮発性の読み出し及び書き込みメモリであってもよい。システムメモリ1604は、実行時に1つ以上の処理ユニット1612が必要とし得る命令及びデータのいずれかを記憶してもよい。1つ以上の実装形態では、本願の開示のプロセスは、システムメモリ1604、永久記憶デバイス1602、及び/又はROM1610に記憶される。これらの様々なメモリユニットから、1つ以上の処理ユニット1612は、1つ以上の実装形態のプロセスを実行するために、実行すべき命令及び処理すべきデータを取り出す。
バス1608は、入力デバイスインタフェース1614及び出力デバイスインタフェース1606にも接続する。入力デバイスインタフェース1614により、ユーザは、電子システム1600に対して、情報を伝送し、コマンドを選択することができる。入力デバイスインタフェース1614と共に使用され得る入力デバイスは、例えば、英数字キーボード及びポインティングデバイス(「カーソル制御デバイス」とも称される)を含むことができる。出力デバイスインタフェース1606は、例えば、電子システム1600によって生成された画像を表示することができる。出力デバイスインタフェース1606と共に使用され得る出力デバイスは、例えば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、フレキシブルディスプレイ、フラットパネルディスプレイ、ソリッドステートディスプレイ、プロジェクタ、又は情報を出力するための任意の他のデバイスなどのプリンタ及び表示デバイスを含むことができる。1つ以上の実装形態は、タッチスクリーンなどの、入力及び出力デバイスの両方として機能するデバイスを含むことができる。これらの実装形態では、ユーザに提供されるフィードバックは、視覚フィードバック、聴覚フィードバック、触知フィードバックなどの任意の形態の感覚フィードバックであることができ、ユーザからの入力は、音響入力、音声入力、又は触知入力を含む任意の形態で受け取ることができる。
最後に、図16に示すように、バス1608はまた、1つ以上のネットワークインタフェース(単数又は複数)1616を通じて、電子システム1600を、1つ以上のネットワーク、及び/又は図1に示す電子デバイス115などの1つ以上のネットワークノードに接続する。このようにして、電子システム1600は、コンピュータのネットワーク(LANや広域ネットワーク(「WAN」)など)、若しくはイントラネット、又はインターネットなどの複数のネットワーク中のネットワークとすることができる。電子システム1600のいずれか又は全ての構成要素は、本願の開示と併せて使用することができる。
本開示の様々な態様によれば、メモリと、メモリに通信可能に接続され、デバイスとリモートデバイスとの間に会議セッションを確立するように構成された少なくとも1つのプロセッサと、を含むデバイスが提供され、会議セッションは、リモートデバイスから着信ビデオストリームを受信すること、又はデバイスのカメラからリモートデバイスに発信ビデオストリームを送信すること、の少なくとも1つを含む。少なくとも1つのプロセッサはまた、表示のために、補足コンテンツオプション、及び着信ビデオストリーム又は発信ビデオストリームの少なくとも1つを提供するように構成されている。少なくとも1つのプロセッサはまた、補足コンテンツオプションの選択を受信するように構成されている。少なくとも1つのプロセッサはまた、選択に応じて、選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、着信ビデオストリーム又は発信ビデオストリームの少なくとも1つを修正するように構成されている。
本開示の様々な態様によれば、少なくとも1つのコンピューティングデバイスによって実行されると、少なくとも1つのコンピューティングデバイスに、ライブ着信ビデオストリーム及びライブ着信ビデオストリームのための補足コンテンツに関連付けられたメタデータをリモートデバイスから受信することを含む動作を実行させる、命令を含む、非一時的コンピュータ可読媒体が提供される。ライブ着信ビデオストリームは、リモートデバイスのカメラによってキャプチャされ、キャプチャ後にリモートデバイスによって直ちに送信される画像フレームのストリームを含む。この動作はまた、補足コンテンツを含むように、メタデータを使用して、ライブ着信ビデオストリームを修正することを含む。この動作はまた、補足コンテンツを用いて修正されたライブ着信ビデオストリームを表示することを含む。
本開示の様々な態様によれば、ローカルデバイスとリモートデバイスとの間に会議セッションを確立することを含む方法が提供され、この会議セッションは、ローカルデバイスのカメラからリモートデバイスのそれぞれへの発信ビデオストリームの送信を含む。この方法はまた、ローカルデバイスでの表示のために、補足コンテンツオプション及び発信ビデオストリームを提供することを含む。この方法はまた、補足コンテンツオプションの選択を受信することを含む。この方法はまた、選択に応じて、選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、発信ビデオストリームを修正することを含む。
本開示の範囲内の実装形態は、1つ以上の命令を符号化する有形のコンピュータ可読記憶媒体(又は1つ以上のタイプの、複数の有形のコンピュータ可読記憶媒体)を使用して、部分的に又は完全に実現することができる。有形のコンピュータ可読記憶媒体はまた、事実上、非一時的なものであってもよい。
コンピュータ可読記憶媒体は、命令を実行することができる任意の処理電子機器及び/又は処理回路を含む、汎用又は専用コンピューティングデバイスによって読み取られ、書き込まれ、又は他の方法でアクセスされ得る任意の記憶媒体とすることができる。例えば、限定はしないが、コンピュータ可読媒体は、RAM、DRAM、SRAM、T−RAM、Z−RAM、及びTTRAMなどの任意の揮発性半導体メモリを含むことができる。コンピュータ可読媒体はまた、ROM、PROM、EPROM、EEPROM、NVRAM、フラッシュ、nvSRAM、FeRAM、FeTRAM、MRAM、PRAM、CBRAM、SONOS、RRAM、NRAM、レーストラックメモリ、FJG、及びミリピードメモリなどの任意の不揮発性半導体メモリを含むことができる。
更に、コンピュータ可読記憶媒体は、光ディスク記憶装置、磁気ディスク記憶装置、磁気テープ、他の磁気記憶デバイス、又は1つ以上の命令を記憶できる任意の他の媒体などの、任意の非半導体メモリを含むことができる。1つ以上の実装形態では、有形のコンピュータ可読記憶媒体はコンピューティングデバイスに直接的に接続することができ、他の実装形態では、有形のコンピュータ可読記憶媒体は、例えば、1つ以上の有線接続、1つ以上の無線接続、又はそれらの任意の組み合わせを介して、コンピューティングデバイスに間接的に接続することができる。
命令は直接実行可能とすることができ、又は実行可能命令を開発するために使用することができる。例えば、命令は、実行可能又は非実行可能なマシンコードとして、又は実行可能又は非実行可能なマシンコードを生成するようにコンパイルされ得る高級言語の命令として、実現することができる。更に、命令はまた、データとして実現され又はデータを含むこともできる。コンピュータ実行可能命令はまた、ルーチン、サブルーチン、プログラム、データ構造、オブジェクト、モジュール、アプリケーション、アプレット、関数などを含む任意のフォーマットで構造化することができる。当業者によって認識されるように、命令の数、構造、順序、及び構造を含むがこれに限定はされない詳細は、基本的なロジック、機能、処理、及び出力を変更することなく大幅に変えることができる。
上記の検討は、主として、ソフトウェアを実行するマイクロプロセッサ又はマルチコアプロセッサに言及しているが、1つ以上の実装形態は、ASIC又はFPGA(単数又は複数)などの、1つ以上の集積回路によって実行される。1つ以上の実装形態では、そのような集積回路は、その回路自体に記憶されている命令を実行する。
当業者であれば、本明細書で説明される様々の例示的なブロック、モジュール、エレメント、構成要素、方法、及びアルゴリズムが、電子ハードウェア、コンピュータソフトウェア、又はそれら両方の組み合わせとして実装され得ることを理解するであろう。ハードウェアとソフトウェアのこの互換性を示すために、様々の例示的なブロック、モジュール、エレメント、構成要素、方法、及びアルゴリズムを、それらの機能性の点から一般的に上述してきた。そのような機能性がハードウェア又はソフトウェアとして実装されるかは、特定のアプリケーション及びシステム全体に課される設計上の制約に依存する。当業者であれば、特定のアプリケーション毎に様々な方法で説明した機能性を実装することができるであろう。様々な構成要素及びブロックは、主題の技術の範囲から全く逸脱することなく、異なるように(例えば、異なる順序で配置されるか、又は異なる方法で分割されて)配置されてもよい。
開示されたプロセスにおけるブロックのいかなる特定の順序又は階層も、例示的なアプローチの一例であることが理解されよう。設計選択に基づいて、プロセス内のブロックの特定の順序又は階層は並び替えられてもよいこと、又は例示されているブロックが全て実行されてもよいことが理解される。いずれのブロックも、同時に実行されてよい。1つ以上の実装形態では、マルチタスク及び並列処理が有利であり得る。更に、上述した実装における様々なシステム構成要素の分離は、全ての実装においてそのような分離が必要とされていると理解すべきではない。記載されたプログラム構成要素及びシステムは、単一のソフトウェアプロダクトに同一化されてもよく、又は複数のソフトウェア製品にパッケージ化されてもよいことを理解すべきである。
本出願の本明細書及びいずれかの特許請求の範囲で使用される時、用語「基地局」、「受信機」、「コンピュータ」、「サーバ」、「プロセッサ」、及び「メモリ」は全て、電子的又は他の技術的デバイスを指す。これらの用語は、人又は人のグループを除外する。本明細書の目的上、「表示する(display)」又は「表示すること(displaying)」という用語は、電子デバイス上に表示することを意味する。
本明細書で使用する、一連の項目に先行する「少なくとも1つ」というフレーズは、項目のいずれかを分離する「及び」又は「又は」という用語と共に、リストの各要素(すなわち、各項目)ではなく、全体としてリストを修飾する。「少なくとも1つ」というフレーズは、リスト化された各項目の少なくとも1つの選択を必要とはせず、むしろ、そのフレーズは、項目のうちのいずれか1つの少なくとも1つ、及び/又は項目の任意の組み合わせの少なくとも1つ、及び/又は項目のそれぞれの少なくとも1つ、を含む意味を可能にする。例として、「A、B、及びCの少なくとも1つ」又は「A、B、又はCの少なくとも1つ」というフレーズは、それぞれが、Aのみ、Bのみ、又はCのみ、A、B、及びCの任意の組み合わせ、並びに/又は、A、B、及びCのそれぞれの少なくとも1つを指す。
「〜ように構成された(configured to)」、「〜ように動作可能な(operable to)」、及び「〜ようにプログラムされた(programmed to)」という述語は、対象物の特有の有形又は無形の改変を意味するものではなく、むしろ交換可能に使用されることを意図している。1つ以上の実装形態では、動作若しくは構成要素を監視及び制御するように構成されたプロセッサとは、プロセッサが、動作を監視及び制御するようにプログラムされていること、又はプロセッサが、動作を監視及び制御するように動作可能であることも意味し得る。同様に、コードを実行するように構成されたプロセッサは、コードを実行するようにプログラムされた、又はコードを実行するように動作可能なプロセッサ、として解釈することができる。
1つの態様、その態様、別の態様、いくつかの態様、1つ以上の態様、1つの実装形態、その実装形態、別の実装形態、いくつかの実装形態、1つ以上の実装形態、1つの実施形態、その実施形態、別の実施形態、いくつかの実施形態、1つ以上の実施形態、1つの構成、その構成、別の構成、いくつかの構成、1つ以上の構成、主題の技術、開示、本開示、それらの他の変形、及び同様のフレーズは、便宜上のものであり、そのようなフレーズ(単数又は複数)に関する開示が主題の技術に不可欠であること、又はそのような開示が主題の技術の全ての構成に適用されること、の意味を含むものではない。そのようなフレーズ(単数又は複数)に関する開示は、全ての構成、又は1つ以上の構成に適用することができる。そのようなフレーズ(単数又は複数)に関する開示は、1つ以上の例を提供することができる。態様又はいくつかの態様などのフレーズは、1つ以上の態様を指すことができ、その逆も同様であり、これは他の前述のフレーズと同様に適用される。
単語「例示的(exemplary)」は、本明細書において、「例、事例、又は実例の役割を果たすこと」を意味するために使用される。「例示的」又は「例」として本明細書で説明されたいかなる実施形態も、必ずしも他の実施形態を超えて好ましい又は有利であると解釈されるべきではない。更に、「含む」、「有する」などの用語が明細書又は特許請求の範囲で使用される限りにおいて、そのような用語は、「備える」が特許請求の範囲において移行語として使用される時に解釈されるように、「備える」というフレーズと同様の方法で包括的であることを意図する。
当業者に知られているか又は後に知られるようになる、本開示を通じて説明される様々な態様のエレメントに対する全ての構造的及び機能的な均等物は、参照により明示的に本明細書に組み込まれ、かつ、特許請求の範囲に包含されるものと意図する。更に、本明細書で開示されたいかなるものも、そのような開示が特許請求の範囲に明白に列挙されているかどうかにかかわらず、公共に捧げられることを意図しない。いかなる特許請求の範囲のエレメントも、エレメントがフレーズ「手段(means for)」を使用して明示的に列挙するか、又は方法の請求項の場合には、エレメントがフレーズ「ステップ(step for)」を使用して列挙しない限り、米国特許法第112条第6パラグラフの規定に基づいて解釈されるべきではない。
前述の説明は、当業者が本明細書で説明した様々な態様を実施することを可能にするために提供される。これらの態様に対する様々な変更は、当業者には容易に明らかであり、本明細書で定義される一般的な原理は、他の態様にも適用することができる。それゆえ、請求項は、本明細書に示される態様に限定されること意図されておらず、文言による請求項に合致した全範囲を認められるべきであり、単数形によるエレメントへの言及は、特に断りのない限り、「唯一の(one and only one)」を意味することを意図されておらず、むしろ、「1つ以上の(one or more)」を意味することを意図されている。特記しない限り、「いくつかの(some)」という用語は、1つ以上のものを指す。男性形(例えば、彼)の代名詞は、女性及び中性の性別(例えば、彼女及びその)を含み、並びにその逆である。もしあれば、見出し及び小見出しは、便宜上のみに使用され、本願の開示を限定するものではない。

Claims (21)

  1. メモリと、
    前記メモリに通信可能に接続された少なくとも1つのプロセッサとを備えるデバイスであって、
    前記少なくとも1つのプロセッサは、
    リモートデバイスから着信ビデオストリームを受信すること、又は前記デバイスのカメラから前記リモートデバイスに発信ビデオストリームを送信すること、のうち少なくとも1つを含む会議セッションを、前記デバイスと前記リモートデバイスとの間で確立し、
    補足コンテンツオプションと、前記着信ビデオストリーム又は前記発信ビデオストリームの少なくとも1つとを、表示するために提供し、
    前記補足コンテンツオプションの選択を受信し、
    前記選択に応じて、前記着信ビデオストリーム又は前記発信ビデオストリームの少なくとも1つを、前記選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて修正する、
    ように構成されている、デバイス。
  2. 前記補足コンテンツが、前記発信ビデオストリームの一部分の上に表示される静的補足コンテンツである、請求項1に記載のデバイス。
  3. 前記補足コンテンツが、前記発信ビデオストリームの一部分の上に表示されるアニメーション補足コンテンツである、請求項1に記載のデバイス。
  4. 前記補足コンテンツが、前記発信ビデオストリームの一部分の上に表示される適応型補足コンテンツであり、前記少なくとも1つのプロセッサが、前記発信ビデオストリーム内のコンテンツに基づいて前記適応型補足コンテンツを修正するように構成されている、請求項1に記載のデバイス。
  5. 前記適応型補足コンテンツが、顔修正コンテンツを含み、前記少なくとも1つのプロセッサが、
    前記発信ビデオストリームの前記一部分で顔を検出し、
    前記検出された顔に前記顔修正コンテンツを適用し、
    前記検出された顔の変化に基づいて、前記顔修正コンテンツを能動的に修正する、
    ように構成されている、請求項4に記載のデバイス。
  6. 前記少なくとも1つのプロセッサが、前記選択に応じて、前記選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、
    前記発信ビデオストリームと前記補足コンテンツとを統合して、統合された修正出力ビデオストリームを形成し、
    前記統合された修正出力ビデオストリームを前記リモートデバイスに送信する、
    ことによって、前記発信ビデオストリームを修正するように構成されている、請求項1に記載のデバイス。
  7. 前記少なくとも1つのプロセッサが、前記選択に応じて、前記選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、前記発信ビデオストリームと、前記補足コンテンツと、前記発信ビデオストリーム及び前記補足コンテンツをレンダリングするための命令とを前記リモートデバイスに送信することによって、前記発信ビデオストリームを修正するように構成されている、請求項1に記載のデバイス。
  8. 前記少なくとも1つのプロセッサが、前記選択に応じて、前記選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、前記発信ビデオストリームと、前記補足コンテンツを取得してレンダリングするための命令とを前記リモートデバイスに送信することによって、前記発信ビデオストリームを修正するように構成されている、請求項1に記載のデバイス。
  9. 前記少なくとも1つのプロセッサが、前記選択に応じて、前記選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、
    前記発信ビデオストリームの、前記補足コンテンツに関連付けられている部分のサイズを縮小し、
    前記補足コンテンツと前記サイズが縮小された部分とを有する前記発信ビデオストリームとを前記リモートデバイスに送信する、
    ことによって前記発信ビデオストリームを修正するように構成されている、請求項1に記載のデバイス。
  10. 前記少なくとも1つのプロセッサが、前記発信ビデオストリームのための更なる補足コンテンツを前記リモートデバイスから受信し、
    前記更なる補足コンテンツを用いて前記発信ビデオストリームを更に修正し、
    前記更に修正された発信ビデオストリームを前記リモートデバイスに送信する、
    ように更に構成されている、請求項1に記載のデバイス。
  11. 前記会議セッションが、前記デバイス、前記リモートデバイス、及び追加のリモートデバイスの間の会議セッションを含み、前記会議セッションは、追加の着信ビデオストリームを前記追加のリモートデバイスから受信すること、又は、前記デバイスの前記カメラからの前記発信ビデオストリームを前記追加のリモートデバイスに送信すること、の少なくとも1つを更に含む、請求項1に記載のデバイス。
  12. 命令を含む非一時的コンピュータ可読媒体であって、少なくとも1つのコンピューティングデバイスによって前記命令が実行されると、前記少なくとも1つのコンピューティングデバイスに、
    ライブ着信ビデオストリームと、前記ライブ着信ビデオストリームのための補足コンテンツに関連付けられたメタデータとをリモートデバイスから受信することと、ここで、前記ライブ着信ビデオストリームは、前記リモートデバイスのカメラによってキャプチャされ、キャプチャ後に前記リモートデバイスによって直ちに送信される画像フレームのストリームを含み、
    前記メタデータを使用して、前記補足コンテンツを含むように前記ライブ着信ビデオストリームを修正することと、
    前記補足コンテンツを有する前記修正されたライブ着信ビデオストリームを表示することと、
    を含む動作を実行させる、非一時的コンピュータ可読媒体。
  13. 前記動作が、前記ライブ着信ビデオストリームの前記受信と並行してライブ発信ビデオストリームをローカルカメラから送信することを更に含む、請求項12を含む非一時的コンピュータ可読媒体。
  14. 前記メタデータが、前記補足コンテンツと、前記補足コンテンツを含めるように前記ライブ着信ビデオストリームを修正するための命令と、を含む、請求項12を含む非一時的コンピュータ可読媒体。
  15. 前記メタデータは、前記補足コンテンツを取得するための命令と、前記ライブ着信ビデオストリームを修正して前記補足コンテンツを含めるための命令と、を含み、前記メタデータを使用して、前記ライブ着信ビデオストリームを修正して前記補足コンテンツを含めることは、
    前記メタデータ内の識別子を使用して、ローカルストレージ又はクラウドベースのストレージから前記補足コンテンツを取得することと、
    前記取得した補足コンテンツを、前記ライブ着信ビデオストリームの前記画像フレームのうちの1つ以上の一部分であって、前記メタデータ内において特定される一部分に適用することと、
    を含む、請求項12を含む非一時的コンピュータ可読媒体。
  16. 前記動作が、補足コンテンツオプションと、前記補足コンテンツを有する前記修正されたライブ着信ビデオストリームとを、表示のために提供することと、
    前記補足コンテンツオプションの選択を受信することと、
    前記選択に応じて、前記選択された補足コンテンツオプションに関連付けられた追加の補足コンテンツを用いて、前記修正されたライブ着信ビデオストリームを修正することと、
    を更に含む、請求項12を含む非一時的コンピュータ可読媒体。
  17. 前記動作が、前記追加の補足コンテンツを表示するために命令を前記リモートデバイスに送信することを更に含む、請求項16を含む非一時的コンピュータ可読媒体。
  18. ローカルデバイスと複数のリモートデバイスとの間に会議セッションを確立することと、ここで、前記会議セッションは、前記複数のリモートデバイスのそれぞれに送信するために、前記ローカルデバイスのカメラから発信ビデオストリームを提供することを含み、
    前記ローカルデバイスでの表示のために、補足コンテンツオプション及び前記発信ビデオストリームを提供することと、
    前記補足コンテンツオプションの選択を受信することと、
    前記選択に応じて、前記選択された補足コンテンツオプションに関連付けられた補足コンテンツを用いて、前記発信ビデオストリームを修正することと、
    を含む、方法。
  19. 前記補足コンテンツを有する前記修正された発信ビデオストリームを、前記複数のリモートデバイスのそれぞれに送信するために提供することを更に含む、請求項18に記載の方法。
  20. 前記補足コンテンツを有する前記修正された発信ビデオストリームを、前記複数のリモートデバイスの少なくとも1つに送信するために提供することと、
    前記補足コンテンツを有しない前記発信ビデオストリームを、前記複数のリモートデバイスの他の少なくとも1つに送信するために提供することと、
    を更に含む、請求項18に記載の方法。
  21. 前記複数のリモートデバイスのそれぞれから着信ビデオストリームを受信することと、
    前記複数のリモートデバイスのそれぞれからの前記着信ビデオストリームの表示とともに表示するために、前記修正された発信ビデオストリームを提供するための選択可能なオプションを提供することと、
    を更に含む、請求項20に記載の方法。
JP2020562621A 2018-05-07 2019-03-14 ビデオ会議のための補足コンテンツを用いたビデオストリームの修正 Active JP7133650B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022136171A JP2022172232A (ja) 2018-05-07 2022-08-29 ビデオ会議のための補足コンテンツを用いたビデオストリームの修正

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862668126P 2018-05-07 2018-05-07
US62/668,126 2018-05-07
US16/151,244 2018-10-03
US16/151,244 US10681310B2 (en) 2018-05-07 2018-10-03 Modifying video streams with supplemental content for video conferencing
PCT/US2019/022340 WO2019216988A1 (en) 2018-05-07 2019-03-14 Modifying video streams with supplemental content for video conferencing

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022136171A Division JP2022172232A (ja) 2018-05-07 2022-08-29 ビデオ会議のための補足コンテンツを用いたビデオストリームの修正

Publications (2)

Publication Number Publication Date
JP2021524187A true JP2021524187A (ja) 2021-09-09
JP7133650B2 JP7133650B2 (ja) 2022-09-08

Family

ID=68384078

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020562621A Active JP7133650B2 (ja) 2018-05-07 2019-03-14 ビデオ会議のための補足コンテンツを用いたビデオストリームの修正
JP2022136171A Pending JP2022172232A (ja) 2018-05-07 2022-08-29 ビデオ会議のための補足コンテンツを用いたビデオストリームの修正

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022136171A Pending JP2022172232A (ja) 2018-05-07 2022-08-29 ビデオ会議のための補足コンテンツを用いたビデオストリームの修正

Country Status (8)

Country Link
US (2) US10681310B2 (ja)
EP (1) EP3791572A1 (ja)
JP (2) JP7133650B2 (ja)
KR (1) KR102530419B1 (ja)
CN (2) CN117061697A (ja)
AU (2) AU2019266045B2 (ja)
TW (1) TWI720462B (ja)
WO (1) WO2019216988A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11012389B2 (en) 2018-05-07 2021-05-18 Apple Inc. Modifying images with supplemental content for messaging
US10681310B2 (en) * 2018-05-07 2020-06-09 Apple Inc. Modifying video streams with supplemental content for video conferencing
US11930244B2 (en) * 2019-11-23 2024-03-12 Dish Network Technologies India Private Limited Method and apparatus for preview decoding for joint video production
WO2021169962A1 (zh) * 2020-02-24 2021-09-02 北京字节跳动网络技术有限公司 交互方法、装置和电子设备
US11395049B2 (en) * 2020-03-31 2022-07-19 Northwest Instrument Inc. Method and device for content recording and streaming
US11812084B2 (en) 2020-03-31 2023-11-07 Northwest Instrument Inc. Method and device for content recording and streaming
US20220116552A1 (en) * 2020-10-08 2022-04-14 Vidiplus, Ltd System and/or Method for Enhancing Content in Live Streaming Video
USD965004S1 (en) 2021-01-11 2022-09-27 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
WO2023278808A1 (en) * 2021-07-01 2023-01-05 Zoom Video Communications, Inc. Applying video effects within a video communication session
US11704626B2 (en) * 2021-07-09 2023-07-18 Prezi, Inc. Relocation of content item to motion picture sequences at multiple devices
US11695988B2 (en) * 2021-07-15 2023-07-04 Disney Enterprises, Inc. Content stream having encoded metadata for video enhancement
KR20230030435A (ko) * 2021-08-25 2023-03-06 삼성전자주식회사 화상회의시 AI(artificial intelligence)를 이용한 다운스케일 및 업스케일 방법 및 장치
TWI798840B (zh) * 2021-09-23 2023-04-11 大陸商星宸科技股份有限公司 視訊資料處理方法及裝置
US11763496B2 (en) * 2021-09-30 2023-09-19 Lemon Inc. Social networking based on asset items
WO2023122533A1 (en) * 2021-12-21 2023-06-29 Canon U.S.A., Inc. System and method for augmented views in an online meeting
US20230208664A1 (en) * 2021-12-23 2023-06-29 Lenovo (Singapore) Pte. Ltd. Monitoring of video conference to identify participant labels
KR102606904B1 (ko) * 2022-06-30 2023-11-29 씨제이올리브네트웍스 주식회사 실시간 영상통화 서비스 지원 방법 및 이를 위한 영상통화 지원 장치
SE2250945A1 (en) * 2022-08-02 2024-02-03 Live Arena Tech Ab System and method for producing a video stream

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014532330A (ja) * 2011-09-23 2014-12-04 タンゴメ,インコーポレイテッド テレビ会議の強化
US20150365627A1 (en) * 2014-06-13 2015-12-17 Arcsoft Inc. Enhancing video chatting
WO2016039835A1 (en) * 2014-09-09 2016-03-17 Google Inc. Real-time video transformations in video conferences

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3593067B2 (ja) 2001-07-04 2004-11-24 沖電気工業株式会社 画像コミュニケーション機能付き情報端末装置および画像配信システム
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
JP2004178163A (ja) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd 画像処理方法及びその装置
JP2005018305A (ja) * 2003-06-25 2005-01-20 Oki Electric Ind Co Ltd 画像配信システムおよび画像コミュニケーション機能付情報処理装置
JP2005130356A (ja) 2003-10-27 2005-05-19 Matsushita Electric Ind Co Ltd テレビ電話システム及びその通信方法、並びに通信端末
US8804758B2 (en) 2004-03-11 2014-08-12 Hipcricket, Inc. System and method of media over an internet protocol communication
JP4466146B2 (ja) * 2004-03-23 2010-05-26 沖電気工業株式会社 通信サービスシステムおよびコンテンツ選択方法
JP2005277989A (ja) 2004-03-26 2005-10-06 Oki Electric Ind Co Ltd 通信端末装置およびその画像提供方法
JP4218637B2 (ja) 2004-12-28 2009-02-04 沖電気工業株式会社 情報端末装置
US7209577B2 (en) * 2005-07-14 2007-04-24 Logitech Europe S.A. Facial feature-localized and global real-time video morphing
KR101240261B1 (ko) 2006-02-07 2013-03-07 엘지전자 주식회사 이동통신 단말기의 영상 통화 장치 및 방법
US8026931B2 (en) * 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects
US20070230794A1 (en) 2006-04-04 2007-10-04 Logitech Europe S.A. Real-time automatic facial feature replacement
JP4457358B2 (ja) 2006-05-12 2010-04-28 富士フイルム株式会社 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
US8044989B2 (en) * 2006-12-12 2011-10-25 General Instrument Corporation Mute function for video applications
US8099462B2 (en) * 2008-04-28 2012-01-17 Cyberlink Corp. Method of displaying interactive effects in web camera communication
JP2010086178A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 画像合成装置およびその制御方法
JP5332818B2 (ja) 2009-03-31 2013-11-06 ブラザー工業株式会社 通信制御装置、通信制御方法、通信制御プログラム
EP2360926A1 (en) 2010-01-19 2011-08-24 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Image encoder and image decoder
US9035997B2 (en) * 2010-05-12 2015-05-19 Blue Jeans Network Systems and methods for real-time multimedia communications across multiple standards and proprietary devices
US20120069028A1 (en) * 2010-09-20 2012-03-22 Yahoo! Inc. Real-time animations of emoticons using facial recognition during a video chat
US9519396B2 (en) 2010-09-28 2016-12-13 Apple Inc. Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
US8665307B2 (en) 2011-02-11 2014-03-04 Tangome, Inc. Augmenting a video conference
US8872878B2 (en) * 2011-07-20 2014-10-28 Cisco Technology, Inc. Adaptation of video for use with different number of cameras and displays at endpoints
KR20130022434A (ko) * 2011-08-22 2013-03-07 (주)아이디피쉬 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
US8767034B2 (en) 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
US9088426B2 (en) 2011-12-13 2015-07-21 Google Inc. Processing media streams during a multi-user video conference
US9088697B2 (en) * 2011-12-13 2015-07-21 Google Inc. Processing media streams during a multi-user video conference
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
AU2013204970B2 (en) * 2012-03-14 2015-09-17 Google Llc Modifying an appearance of a participant during a video conference
CN111275795A (zh) * 2012-04-09 2020-06-12 英特尔公司 用于化身生成、渲染和动画的系统和方法
US8947491B2 (en) 2012-06-28 2015-02-03 Microsoft Corporation Communication system
US20140075335A1 (en) 2012-09-11 2014-03-13 Lucid Software, Inc. Image editing and sharing
US9357165B2 (en) * 2012-11-16 2016-05-31 At&T Intellectual Property I, Lp Method and apparatus for providing video conferencing
WO2014139142A1 (en) * 2013-03-15 2014-09-18 Intel Corporation Scalable avatar messaging
WO2014194488A1 (en) * 2013-06-05 2014-12-11 Intel Corporation Karaoke avatar animation based on facial motion data
US9251405B2 (en) * 2013-06-20 2016-02-02 Elwha Llc Systems and methods for enhancement of facial expressions
US9818224B1 (en) 2013-06-20 2017-11-14 Amazon Technologies, Inc. Augmented reality images based on color and depth information
US9787945B2 (en) 2013-06-26 2017-10-10 Touchcast LLC System and method for interactive video conferencing
US10057731B2 (en) 2013-10-01 2018-08-21 Ambient Consulting, LLC Image and message integration system and method
US20150172238A1 (en) 2013-12-18 2015-06-18 Lutebox Ltd. Sharing content on devices with reduced user actions
US20150189355A1 (en) * 2013-12-26 2015-07-02 United Video Properties, Inc. Systems and methods for printing three-dimensional objects as a reward
US9240077B1 (en) * 2014-03-19 2016-01-19 A9.Com, Inc. Real-time visual effects for a live camera view
US20160191958A1 (en) * 2014-12-26 2016-06-30 Krush Technologies, Llc Systems and methods of providing contextual features for digital communication
US20160088078A1 (en) 2014-09-18 2016-03-24 Ningbo Sunny Opotach Co.,Ltd. Instant Photo Sharing Arrangement and Method
CN104284131A (zh) * 2014-10-29 2015-01-14 四川智诚天逸科技有限公司 一种调节图像画面的视频通信设备
US20170243403A1 (en) 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
US20170034237A1 (en) 2015-07-28 2017-02-02 Giga Entertainment Media Inc. Interactive Content Streaming Over Live Media Content
US9880735B2 (en) * 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN105187724B (zh) 2015-09-17 2019-07-19 努比亚技术有限公司 一种处理图像的移动终端和方法
WO2017059524A1 (en) 2015-10-08 2017-04-13 Magnificus Software Inc. Method and system for creating and using emojis and other graphic content in instant messaging systems
CN105357466A (zh) * 2015-11-20 2016-02-24 小米科技有限责任公司 视频通信方法及装置
KR101751620B1 (ko) 2015-12-15 2017-07-11 라인 가부시키가이샤 시각적 또는 청각적 효과의 양방향 전달을 이용한 영상 통화 방법 및 시스템
US10629166B2 (en) * 2016-04-01 2020-04-21 Intel Corporation Video with selectable tag overlay auxiliary pictures
US9813642B1 (en) 2016-05-06 2017-11-07 Snap Inc. Dynamic activity-based image generation
US9883144B2 (en) * 2016-05-12 2018-01-30 Fuji Xerox Co., Ltd. System and method for replacing user media streams with animated avatars in live videoconferences
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
US10446189B2 (en) * 2016-12-29 2019-10-15 Google Llc Video manipulation with face replacement
CN107483833A (zh) 2017-09-22 2017-12-15 维沃移动通信有限公司 一种相机功能的显示方法及移动终端
CN107911643B (zh) * 2017-11-30 2020-10-27 维沃移动通信有限公司 一种视频通信中展现场景特效的方法和装置
US11722764B2 (en) * 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) * 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10681310B2 (en) * 2018-05-07 2020-06-09 Apple Inc. Modifying video streams with supplemental content for video conferencing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014532330A (ja) * 2011-09-23 2014-12-04 タンゴメ,インコーポレイテッド テレビ会議の強化
US20150365627A1 (en) * 2014-06-13 2015-12-17 Arcsoft Inc. Enhancing video chatting
WO2016039835A1 (en) * 2014-09-09 2016-03-17 Google Inc. Real-time video transformations in video conferences

Also Published As

Publication number Publication date
JP2022172232A (ja) 2022-11-15
CN111937375A (zh) 2020-11-13
US20200267349A1 (en) 2020-08-20
KR20200140368A (ko) 2020-12-15
EP3791572A1 (en) 2021-03-17
AU2019266045B2 (en) 2022-02-03
TW201947930A (zh) 2019-12-16
AU2019266045A1 (en) 2020-10-22
CN111937375B (zh) 2023-09-01
AU2022202933A1 (en) 2022-05-26
CN117061697A (zh) 2023-11-14
KR102530419B1 (ko) 2023-05-09
US10681310B2 (en) 2020-06-09
US11889229B2 (en) 2024-01-30
TWI720462B (zh) 2021-03-01
US20190342522A1 (en) 2019-11-07
WO2019216988A1 (en) 2019-11-14
JP7133650B2 (ja) 2022-09-08

Similar Documents

Publication Publication Date Title
CN111937375B (zh) 利用补充内容修改视频流以用于视频会议
US11736426B2 (en) Modifying images with supplemental content for messaging
US11563779B2 (en) Multiuser asymmetric immersive teleconferencing
US10356363B2 (en) System and method for interactive video conferencing
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
US20180356893A1 (en) Systems and methods for virtual training with haptic feedback
KR101656172B1 (ko) 증강된 가상 현실을 사용하는, 원격 참여자들 간의 개선된 통신
US10771736B2 (en) Compositing and transmitting contextual information during an audio or video call
US20180356885A1 (en) Systems and methods for directing attention of a user to virtual content that is displayable on a user device operated by the user
US20180336069A1 (en) Systems and methods for a hardware agnostic virtual experience
US20190020699A1 (en) Systems and methods for sharing of audio, video and other media in a collaborative virtual environment
US11900530B1 (en) Multi-user data presentation in AR/VR
US20190012470A1 (en) Systems and methods for determining values of conditions experienced by a user, and using the values of the conditions to determine a value of a user permission to apply to the user
US11886625B1 (en) Method and device for spatially designating private content
US20240089408A1 (en) Visual feedback for video muted participants in an online meeting

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R150 Certificate of patent or registration of utility model

Ref document number: 7133650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150