JP2020087278A - 動画合成装置、動画合成方法及び動画合成プログラム - Google Patents

動画合成装置、動画合成方法及び動画合成プログラム Download PDF

Info

Publication number
JP2020087278A
JP2020087278A JP2018225031A JP2018225031A JP2020087278A JP 2020087278 A JP2020087278 A JP 2020087278A JP 2018225031 A JP2018225031 A JP 2018225031A JP 2018225031 A JP2018225031 A JP 2018225031A JP 2020087278 A JP2020087278 A JP 2020087278A
Authority
JP
Japan
Prior art keywords
avatar
unit
video
synthesizing
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018225031A
Other languages
English (en)
Other versions
JP6559871B1 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
進之介 岩城
Shinnosuke Iwaki
進之介 岩城
尚 小嶋
Takashi Kojima
尚 小嶋
俊博 清水
Toshihiro Shimizu
俊博 清水
寛明 齊藤
Hiroaki Saito
寛明 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2018225031A priority Critical patent/JP6559871B1/ja
Priority to PCT/JP2018/047436 priority patent/WO2020110323A1/ja
Priority to CN201880097578.XA priority patent/CN112689854A/zh
Priority to US17/263,767 priority patent/US11367260B2/en
Application granted granted Critical
Publication of JP6559871B1 publication Critical patent/JP6559871B1/ja
Publication of JP2020087278A publication Critical patent/JP2020087278A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より簡単に表情豊かなコンピュータグラフィックスキャラクタを合成した動画を生成する。【解決手段】アウトカメラ17で実写動画を撮影するとともに、インカメラ16で配信者を撮影し、アバター制御部13がインカメラ16で撮影した配信者の画像に基づいてアバターを制御するとともに、動画合成装置1の実空間座標系における位置に応じてアバターの実空間座標系における位置を移動し、合成部14が実空間座標系の所定位置にアバターを配置して実写動画にアバターを合成する。【選択図】図10

Description

本発明は、拡張現実動画を生成する技術に関する。
近年、個人がネットワークを介して映像を配信できる動画配信サービスが広まっている。動画配信サービスにおいて、ユーザの代わりにコンピュータグラフィックス(CG)キャラクタを映像内に登場させて映像を配信できるアプリケーションが知られている。また、スマートフォンで自撮りした顔をフェイストラッキングし、ユーザの表情をCGキャラクタに反映する技術が知られている。
特開2017−188787号公報
フェイストラッキング技術を用いて、自撮り動画にCGキャラクタを合成すると、リアルタイムでユーザ自身の表情を反映したCGキャラクタを実写映像に簡単に合成できる。
しかしながら、撮影される実写映像はユーザの背後の風景である。ユーザの眼前に広がる風景をバックにユーザ自身の表情を反映したCGキャラクタを合成する場合、ユーザは、自撮り棒を用いて、撮影したい風景を背にしてユーザ自身を含めて撮影する必要があった。
本発明は、上記に鑑みてなされたものであり、より簡単に表情豊かなコンピュータグラフィックスキャラクタを合成した動画を生成することを目的とする。
本発明に係る動画合成装置は、実写動画にアバターを合成した拡張現実動画を生成する動画合成装置であって、実写動画を撮影する第1撮像部と、操作者を撮影する第2撮像部と、前記第1撮像部または前記動画合成装置の実空間に対応した座標系における位置および向きを検出する位置検出部と、前記第2撮像部の撮影した画像に基づいてアバターを制御するとともに、前記第1撮像部または前記動画合成装置の移動に合わせて前記アバターの前記座標系における位置を移動させる制御部と、前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成する合成部と、を有することを特徴とする。
本発明に係る動画合成方法は、実写動画にアバターを合成した拡張現実動画を生成する動画合成方法であって、コンピュータによる、実写動画を撮影する第1撮像部の実空間に対応した座標系における位置および向きを検出するステップと、操作者を撮影する第2撮像部の撮影した画像に基づいてアバターを制御するステップと、前記第1撮像部の移動に合わせて前記アバターの前記座標系における位置を移動させるステップと、前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成するステップと、を有することを特徴とする。
本発明に係る動画合成プログラムは、実写動画にアバターを合成した拡張現実動画を生成する動画合成プログラムであって、実写動画を撮影する第1撮像部の実空間に対応した座標系における位置および向きを検出する処理と、操作者を撮影する第2撮像部の撮影した画像に基づいてアバターを制御する処理と、前記第1撮像部の移動に合わせて前記アバターの前記座標系における位置を移動させる処理と、前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成する処理と、をコンピュータに実行させることを特徴とする。
本発明によれば、より簡単に表情豊かなコンピュータグラフィックスキャラクタを合成した動画を生成することができる。
本実施形態の動画合成装置を含む動画配信システムの全体的な構成を示す全体構成図である。 配信者がAR動画を配信する様子を説明するための図である。 撮影方向を右にパンしたときのAR動画の例を示す図である。 本実施形態の動画合成装置の構成例を示す機能ブロック図である。 アバターの初期配置処理の流れを示すフローチャートである。 撮影した映像に検出した床部分を重畳表示した例を示す図である。 図6の床部分にアバターを立たせた例を示す図である。 図7の状態から撮影方向を上にチルトした例を示す図である。 AR動画の生成処理の流れを示すフローチャートである。 アバターの表情と姿勢の制御処理の流れを示すフローチャートである。 タッチパネルに操作ボタンを表示した例を示す図である。 配信者の移動中に、アバターを後ろ向きに表示した例を示す図である。
以下、本発明の実施の形態について図面を用いて説明する。
図1を参照し、本実施形態の動画合成装置を含む動画配信システムの全体的な構成について説明する。本動画配信システムは、動画合成装置1と動画配信サーバ3で構成される。
動画合成装置1は、動画合成装置1の撮影した実写映像に3次元のコンピュータグラフィックスキャラクタ(アバター)を合成し、拡張現実(Augmented Reality)動画(以下、「AR動画」と称する)を生成する。
動画配信サーバ3は、動画合成装置1からAR動画を受信して、AR動画を視聴者端末9に配信する。動画配信サーバ3は、受信したAR動画をリアルタイムで配信(いわゆる生放送)してもよいし、AR動画を蓄積しておき、視聴者端末9からの要求に応じてAR動画を配信してもよい。
動画配信システムは、アバター管理サーバ5およびコメント管理サーバ7を備えてもよい。
アバター管理サーバ5は、アバターの3次元データを管理する。動画合成装置1は、アバター管理サーバ5が提供するアバターのパーツを組み合わせて、自分用のアバターを生成してもよい。
コメント管理サーバ7は、視聴者端末9からAR動画に対するコメントを受信し、そのコメントを動画合成装置1および他の視聴者端末9に配信する。
動画合成装置1、動画配信サーバ3、アバター管理サーバ5、コメント管理サーバ7、および視聴者端末9は、ネットワークを介して通信可能に接続される。
図2および図3を参照し、動画合成装置1の生成するAR動画について説明する。
動画合成装置1は、撮影方向が互いに逆向きのアウトカメラとインカメラ、マイク、タッチパネル、および自己位置を検出するための各種センサ(例えば、加速度センサ、ジャイロセンサなど)を備える。動画合成装置1として、アウトカメラおよびインカメラを備えたスマートフォンおよびタブレットなどの携帯端末を利用できる。
図2に示すように、配信者200は、動画合成装置1を持ち、アウトカメラで配信者200が見ている風景を撮影し、インカメラで配信者200自身を撮影する。動画合成装置1は、アウトカメラで撮影した実写映像にアバター100を合成したAR動画を生成する。動画合成装置1は、インカメラで撮影した配信者200の表情をアバター100の表情に反映する。例えば、配信者200が話しているとき、動画合成装置1は、インカメラで撮影した配信者200の顔をフェイストラッキングし、アバター100の口を配信者200の口に合わせて動かす。動画合成装置1は、配信者200の頭の動きをアバター100に反映してもよいし、配信者200のジェスチャーをアバター100に反映してもよい。これにより、配信者200は、自身の眼前に広がる風景を撮影しながら、アバター100を制御できる。
動画合成装置1は、アバター100を実空間に対応した座標系に固定し、映像にアバター100を合成する。図3に示すように、アウトカメラの撮影方向を右にパンしたときも、アバター100は実空間内に存在する物と同様に、映像の左方向に移動する。
[動画合成装置の構成]
図4を参照し、動画合成装置1の構成例について説明する。同図に示す動画合成装置1は、空間測定部11、初期配置部12、アバター制御部13、合成部14、位置検出部15、インカメラ16、アウトカメラ17、入力部18、表示部19、通信制御部20、および記憶部21を備える。動画合成装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは動画合成装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。例えば、スマートフォンにアプリケーションをインストールし、スマートフォンを動画合成装置1として機能させてもよい。
空間測定部11は、アバターを配置する実空間の3次元空間情報を測定し、実空間に対応する実空間座標系を設定し、アバターを配置可能な領域(以下、「アバター配置可能領域」と称する)を検出する。例えば、アウトカメラ17で実空間の動画を撮影し、単眼カメラを用いたマーカーレスARの技術により、撮影場所の実空間の3次元空間情報を測定できる。空間測定部11は、測定で得られた3次元空間情報のうち、例えば床などの平坦部分をアバター配置可能領域として検出する。空間測定部11がアバター配置可能領域として検出する箇所は、アバターを配置しても不自然でない場所ならば、地面に対して傾いていてもよく、凸凹のある場所でもよい。
動画合成装置1がデプスカメラまたはステレオカメラを備える場合、空間測定部11は、デプスカメラの測定結果またはステレオ画像から3次元空間情報を得てもよい。空間測定部11は、測定した3次元空間情報を記憶部21に記憶する。
初期配置部12は、空間測定部11の検出したアバター配置可能領域内にアバターが存在するように、アバターの初期位置を決定する。例えば、アウトカメラ17で撮影した実空間の映像に、アバター配置可能領域を示す図形(例えば、床の範囲を示す枠など)を重畳した画像を表示し、配信者にアバターの初期位置の指定を促す。配信者がアバター配置可能領域内をタップすると、初期配置部12は、タップされた位置の実空間座標系の座標を算出し、アバターの初期位置として決定する。初期配置部12は、アバター配置可能領域の任意の位置にアバターを配置してもよい。配信者が動画合成装置1を振ったときは、ランダムでアバターの位置を変更してもよい。
アバター制御部13は、インカメラ16で撮影した配信者の顔をフェイストラッキングし、配信者の表情をアバターの表情に反映させる。アバター制御部13は、配信者がメニュー等で入力した操作に従ってアバターを制御してもよい。アバター制御部13は、動画合成装置1の移動に基づきアバターの姿勢および位置を制御してもよい。例えば、配信者が風景を撮影しながら前方に移動しているときは、アバターを前方に向けて、アバターを歩かせる。
合成部14は、実空間座標系にアバターを配置し、アウトカメラ17で撮影した映像にアバターを合成し、AR動画を生成する。AR動画は、表示部19で表示されるとともに、通信制御部20から動画配信サーバ3へ送信される。合成部14は、AR動画を記憶部21に蓄積してもよい。なお、アバターのレンダリングに必要なデータは、アバター管理サーバ5から受信し、記憶部21に記憶しておく。事前に記憶部21に記憶されたアバターのデータを用いてもよい。
位置検出部15は、実空間座標系における動画合成装置1自身の位置および向き(アウトカメラ17の位置および向きでもある)を検出する。合成部14は、位置検出部15の検出した位置および向きに基づいてアバターをレンダリングする。
インカメラ16は、配信者(動画合成装置1の操作者でもある)を撮影する。
アウトカメラ17は、AR動画として発信したい風景および被写体を撮影する。
入力部18は、動画合成装置1の備えるタッチパネルからの操作を受け付ける。
表示部19は、タッチパネルにアウトカメラ17で撮影した実写映像にアバターを合成したAR動画を表示する。アバターを操作するための各種ボタンを表示してもよい。
通信制御部20は、AR動画を動画配信サーバ3へ送信する。
[アバターの初期配置]
図5を参照し、アバターの初期配置処理の一例について説明する。
図5に示す処理は、配信者がAR動画を生成する前に、実空間座標系におけるアバターの位置を決定する際に実行される。
配信者は、動画合成装置1を起動し、アウトカメラ17でアバターを配置する場所の動画を撮影し、アバターを配置する場所の3次元空間情報を取得する(ステップS11)。具体的には、アプリケーションを起動してスマートフォンを動画合成装置1として動作させ、アウトカメラ17でアバターを配置する平らな場所を撮影する。配信者は、動画合成装置1を少し動かしながら配置場所を撮影する。動画合成装置1の動きおよび撮影した動画から検出できる特徴点の動きから3次元空間情報を取得し、アバターの配置を許可するアバター配置可能領域を検出する。ここでは、平坦な「床」をアバター配置可能領域として検出する。
空間測定部11が3次元空間情報を取得し、床を検出すると、表示部19は、アウトカメラ17で撮影した映像に床を示す図形を重畳して表示する(ステップS12)。例えば、図6に示すように、アウトカメラ17で撮影した映像に床の位置を示す枠110を重畳して表示する。
配信者が枠110内をタップすると、図7に示すように、アバター制御部13は、タップされた位置にアバター100を配置する(ステップS13)。タップされた位置の実空間座標系における座標をアバターの立ち位置の座標とする。枠110内の別の場所をタップし直すと、新たにタップされた位置をアバターの立ち位置とする。実空間座標系におけるアバターの座標が定まると、合成部14は、アウトカメラ17で撮影した実写映像にアバターを重畳して表示する。以降は、アバターが実空間内に存在するかのように、アバターは実写映像に重畳表示される。例えば、図7の状態からアウトカメラ17の撮影方向を上にチルトすると、図8に示すように、アバター100の立ち位置は実空間内に固定されたままでアバター100の上半身が表示される。アウトカメラ17の撮影方向を左右にパンしたときも、アバター100の立ち位置は実空間内に固定されたままで、アバター100は、実写映像に重畳表示される。
アバター100が表示されているときに、アバター100をドラッグしてアバター100の立ち位置を調整してもよい。例えば、図8に示すように、アバター100が表示されているとき、配信者がアバター100をタップして指を画面に沿って左右に動かすと、アバター100の立ち位置を左右に移動させる。配信者が指を上下に動かすと、アバター100の立ち位置を奥行き方向または手前方向に移動させる。アバター100を前後左右に動かすとき、床と認識された範囲を超えないように、アバター100の移動を停止する。
配信者が動画合成装置1を振ったときに、初期配置部12はアバターの立ち位置をランダムで決めてもよい。配信者が動画合成装置1を傾けたときに、初期配置部12はアバターの立ち位置を動画合成装置1の傾きに応じて移動してもよい。例えば、配信者が動画合成装置1を右に傾けると、アバター100を右方向に移動させ、動画合成装置1を手前に倒すと、アバター100を手前方向に移動させる。
インカメラ16で撮影した配信者の画像に基づいてアバターの立ち位置を調整してもよい。例えば、配信者が右を向くと、アバターの立ち位置を右に移動させる。配信者が下を向くと、アバターの立ち位置を手前方向に移動させる。
配信者がアバターの位置を決めると、初期配置部12は、配信者の操作に応じて、アバターのサイズおよび向きを決定する(ステップS14)。例えば、配信者がタッチパネルを上下フリックすると、アバターのサイズを拡大・縮小する。配信者がタッチパネルを左右フリックすると、アバターの向きを回転する。配信者がタッチパネルを2本指でタップすると、アバターのサイズおよび向きを最初の大きさおよび向きにリセットする。
アバターの立ち位置の床に、畳、絨毯、ステージなどのオブジェクトを配置してもよい。足元のオブジェクトとして高さのある台を配置した場合は、アバターの立ち位置を台の高さ分上昇させる。
アバターの初期の位置を中心として、所定の範囲内の床部分をアバターが自由に移動できるようにしてもよい。例えば、配信者の沈黙がしばらく続いたときに、アバターが所定の範囲内をうろうろ歩くよう制御されてもよい。
[AR動画の生成]
配信者がアバターの初期配置を終えると、動画合成装置1は、インカメラ16による配信者の撮影を開始し、AR動画の生成を開始する。
図9を参照し、AR動画の生成処理の一例について説明する。
アウトカメラ17が風景を撮影すると同時に(ステップS21)、インカメラ16が配信者を撮影する(ステップS22)。マイクは動画に付随させる音声を集音する。
位置検出部15は、動画合成装置1の位置および向きを検出する(ステップS23)。
アバター制御部13は、インカメラ16の撮影した配信者の映像に基づき、アバターの表情と姿勢を制御する(ステップS24)。アバター制御部13の処理の詳細は後述する。
合成部14は、アウトカメラ17で撮影した実写映像にアバターを合成してAR動画を生成する(ステップS25)。
[アバターの制御]
図10を参照し、アバター制御部13によるアバターの表情と姿勢の制御処理の一例について説明する。
アバター制御部13は、配信者が移動中であるか否か判定する(ステップS31)。配信者が移動中であるか否かは、位置検出部15で検出した動画合成装置1の動きに基づいて判定できる。
配信者が移動中の場合(ステップS31のYES)、アバターが位置固定状態であるか否か判定する(ステップS32)。アバターが位置固定状態であるとは、実空間座標系におけるアバターの位置を動かさない状態である。配信者が移動してもアバターの立ち位置は動かさない。アバターが位置固定状態でないときは、実空間座標系における動画合成装置1とアバターの間を所定の距離に保ち、動画合成装置1の移動に合わせてアバターの位置を移動させる。配信者つまり動画合成装置1が移動すると、アバター制御部13は配信者の移動に合わせてアバターの位置を移動させる。アバターの移動については後述する。
アバターの位置固定状態の解除は、図11に示すタッチパネルに表示された位置固定ボタン130を操作することで変更できる。アバターが位置固定状態のときに、位置固定ボタン130が操作されると、アバターの位置固定を解除する。アバターが位置固定されていないときに、位置固定ボタン130が操作されると、アバターを位置固定状態とする。
配信者が移動中でない場合(ステップS31のNO)、あるいはアバターの位置が固定されている場合(ステップS32のYES)、アバター制御部13は、表情ボタンが操作されたか否かを判定する(ステップS33)。本実施形態では、図11に示すように、タッチパネルに表情ボタン120A,120B,120Cを表示している。表情ボタン120A,120B,120Cのそれぞれは、大笑い、泣き、怒りの表情に対応する。
表情ボタン120A,120B,120Cが操作された場合(ステップS33のYES)、アバター制御部13は、アバターの表情を操作された表情ボタン120A,120B,120Cに応じた表情に変更する(ステップS34)。大げさな表情のアニメーションを用意しておき、表情ボタンの操作に応じてアバターにアニメーションさせることで、より明確に感情を表現することができる。アバターの表情を変更するだけでなく、アバターにジェスチャーをさせてもよい。例えば、泣くの表情ボタンが操作されたとき、手で涙を拭くジェスチャーをアバターにさせる。
アバターの姿勢(アバターの向きを含む)を制御するためのボタンをタッチパネルに表示してもよい。例えば、アバターを振り向かせるためのボタン、アバターの顔または上半身を右または左に向けるためのボタンなどをタッチパネルに表示してもよい。これらのボタンが操作されると、アバター制御部13は、アバターの姿勢を操作されたボタンに応じた姿勢に変更する。
メニューからアバターの表情および姿勢を制御できてもよい。例えば、タッチパネルの端をスワイプしてメニューバーを出現させて、アバターにさせたい表情や姿勢に対応する項目を選択する。
インカメラ16で撮影したハンドサインでアバターを制御できてもよい。アバター制御部13は、ハンドサインとアバターの制御内容(表情および姿勢など)を関連つけておき、インカメラ16で撮影した動画から特定のハンドサインを検出した場合、検出したハンドサインに応じてアバターを制御する。例えば、インカメラ16で握りこぶしを撮影したときはアバターに怒りの表情をさせる。
インカメラ16で撮影した文字または図形でアバターを制御できてもよい。アバター制御部13は、インカメラ16で撮影した動画から特定の文字または図形を検出した場合、検出した文字等に応じてアバターを制御する。例えば、紙に「笑って」と記載しておき、インカメラ16でその紙を撮影してアバターに笑った表情をさせる。
動画合成装置1の動きでアバターを制御できてもよい。アバター制御部13は、動画合成装置1の動きとアバターの制御内容を関連つけておき、位置検出部15の検出した動画合成装置1の動きに応じてアバターを制御する。例えば、動画合成装置1が傾けられたときは、アバターにお辞儀をさせる。動画合成装置1が傾けられるとアウトカメラ17で撮影する風景が傾いてしまうので、傾きを検出する直前に撮影された動画の1フレームを背景として、静止画にお辞儀するアバターを合成してもよい。静止画の代わりに、傾きを検出する直前の数秒程度の動画を背景としてもよい。
アバター制御部13は、配信者に取り付けたセンサからの情報に基づいてアバターを制御してもよいし、キーボードなどの外部入力装置でアバターを制御してもよい。センサおよび入力装置と動画合成装置1とは無線により通信する。
表情ボタンが操作されない場合(ステップS33のYES)、アバター制御部13は、インカメラ16で撮影した配信者の顔をフェイストラッキングし、配信者の表情をアバターに反映する(ステップS35)。インカメラ16で撮影した配信者の表情をアバターに反映させることで、配信者の手を煩わすことなく、アバターを表情豊かに制御することができる。
アバター制御部13は、マイクで集音した配信者の音声に基づき、アバターにしゃべる動きをさたり、表情および姿勢を変えたり、振り向かせたりしてもよい。
配信者が移動中であって(ステップS31のYES)、アバターが位置固定状態ではない場合(ステップS32のNO)、アバター制御部13は、アバター100を配信者の進行方向に向けて(ステップS36)、アバター100の立ち位置を進行方向に移動させる(ステップS37)。具体的には、アバター制御部13は、実空間座標系における動画合成装置1の位置とアバターの立ち位置との間の距離が所定の間隔に保たれるように、アバターの位置を移動する。アバター制御部13は、配信者(動画合成装置1)が前進すると配信者から離れるようにアバターを移動し、配信者が後退すると配信者に近づくようにアバターを移動し、配信者が立ち止まるとアバターを立ち止まらせる。なお、アバターの移動とは独立して、ステップS33からステップS35の処理を行ってもよい。具体的には、ステップS37の処理の後に、ステップS33の処理を実行してもよい。
アバター制御部13は、アバターの向きを固定してもよいし、アバターの向きをアバターの進行方向に向けてもよい。例えば、アバターの位置を固定せず、アバターの向きを固定した場合、図11の状態で配信者が前進すると、アバター制御部13は、アバターの向きを動画合成装置1の方向に向けたまま、アバターを後退させる。アバターの位置を固定せず、アバターの向きも固定しない場合、図11の状態で配信者が前進すると、アバター制御部13は、図12に示すように、アバターの向きを進行方向に向けて、アバターを前進させる。
マイクが配信者以外の人の音声を集音していた場合、アバター制御部13は、アバターをその音声の方向に向けてもよい。
アバターの移動先が床でないとき、例えば移動先が壁のとき、アバター制御部13は、アバターを移動させずに、床の端で立ち止まらせてもよい。配信者が道を歩きながらAR動画を配信するとき、空間測定部11は、アウトカメラ17の映像から進行方向の平坦部分を検出し、アバター制御部13は、アバターを進行方向の平坦部分に移動させる。これにより、配信者が道を歩きながらAR動画を配信しているとき、アバターが道を歩いているようなAR動画を生成できる。
アバターが位置固定状態でない場合、配信者が移動中でなくても、アウトカメラ17の撮影方向を左右にパンしたときは、アバター制御部13は、撮影方向に合わせてアバターを左右に移動させてもよい。
以上説明したように、本実施形態によれば、アウトカメラ17で実写動画を撮影するとともに、インカメラ16で配信者を撮影し、アバター制御部13がインカメラ16で撮影した配信者の画像に基づいてアバターを制御し、合成部14が実空間座標系の所定位置にアバターを配置して実写動画にアバターを合成することにより、配信者は、眼前の風景を撮影しながら、自身の表情を反映させたアバターを合成したAR動画を生成できる。インカメラ16で撮影した配信者の顔をフェイストラッキングしてアバターに反映させることで、表情豊かなアバターを合成できる。
本実施形態によれば、空間測定部11が撮影場所の3次元空間情報を取得してアバターの配置を許可するアバター配置可能領域を検出し、初期配置部12がアバター配置可能領域にアバターを配置して実空間座標系における前記アバターの位置を決定することにより、アバターの立ち位置を決めるためのマーカーを設置することなく、実空間にアバターを固定できる。
本実施形態によれば、アバター制御部13が動画合成装置1の実空間座標系における位置に応じてアバターの実空間座標系における位置を移動することにより、配信者が動画合成装置1を持って歩きながら撮影すると、配信者の移動に合わせて移動するアバターを合成したAR動画を生成できる。
なお、本実施形態では、動画合成装置1がAR動画の生成を行ったが、サーバが、動画合成装置1が、アウトカメラ17の撮影した実写動画およびインカメラ16の撮影した画像などのAR動画の生成に必要なデータを送信し、サーバまたはクラウドでAR動画を生成してもよい。
1…動画合成装置 11…空間測定部 12…初期配置部 13…アバター制御部 14…合成部 15…位置検出部 16…インカメラ 17…アウトカメラ 18…入力部 19…表示部 20…通信制御部 21…記憶部 3…動画配信サーバ 5…アバター管理サーバ 7…コメント管理サーバ 9…視聴者端末
本発明に係る動画合成装置は、実写動画にアバターを合成した拡張現実動画を生成する動画合成装置であって、実写動画を撮影する第1撮像部と、操作者を撮影する第2撮像部と、前記第1撮像部または前記動画合成装置の実空間に対応した座標系における位置および向きを検出する位置検出部と、前記第2撮像部の撮影した画像に基づいてアバターを制御するとともに、前記第1撮像部または前記動画合成装置の前記座標系における位置の移動に合わせて前記アバターの前記座標系における位置を移動させる制御部と、前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成する合成部と、を有することを特徴とする。
本発明に係る動画合成方法は、実写動画にアバターを合成した拡張現実動画を生成する動画合成方法であって、コンピュータによる、実写動画を撮影する第1撮像部の実空間に対応した座標系における位置および向きを検出するステップと、操作者を撮影する第2撮像部の撮影した画像に基づいてアバターを制御するステップと、前記第1撮像部の前記座標系における位置の移動に合わせて前記アバターの前記座標系における位置を移動させるステップと、前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成するステップと、有することを特徴とする。
本発明に係る動画合成プログラムは、実写動画にアバターを合成した拡張現実動画を生成する動画合成プログラムであって、実写動画を撮影する第1撮像部の実空間に対応した座標系における位置および向きを検出する処理と、操作者を撮影する第2撮像部の撮影した画像に基づいてアバターを制御する処理と、前記第1撮像部の前記座標系における位置の移動に合わせて前記アバターの前記座標系における位置を移動させる処理と、前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成する処理と、をコンピュータに実行させることを特徴とする。

Claims (8)

  1. 実写動画にアバターを合成した拡張現実動画を生成する動画合成装置であって、
    実写動画を撮影する第1撮像部と、
    操作者を撮影する第2撮像部と、
    前記第1撮像部または前記動画合成装置の実空間に対応した座標系における位置および向きを検出する位置検出部と、
    前記第2撮像部の撮影した画像に基づいてアバターを制御するとともに、前記第1撮像部または前記動画合成装置の移動に合わせて前記アバターの前記座標系における位置を移動させる制御部と、
    前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成する合成部と、
    を有することを特徴とする動画合成装置。
  2. 前記制御部は、前記第2撮像部の撮影した前記操作者のジェスチャー、文字、または図形のいずれかに基づいて前記アバターを制御することを特徴とする請求項1に記載の動画合成装置。
  3. 前記制御部は、前記動画合成装置の動きに基づいて前記アバターの向きを制御することを特徴とする請求項1または2に記載の動画合成装置。
  4. 前記操作者の操作を入力する入力部を有し、
    前記制御部は、前記入力部の入力した操作に基づいて前記アバターを制御することを特徴とする請求項1乃至3のいずれかに記載の動画合成装置。
  5. 音声を入力するマイクを有し、
    前記制御部は、前記マイクの入力した音声に基づいて前記アバターを制御することを特徴とする請求項1乃至4のいずれかに記載の動画合成装置。
  6. 前記第1撮像部と前記第2撮像部の撮影方向は互いに逆向きであることを特徴とする請求項1乃至5のいずれかに記載の動画合成装置。
  7. 実写動画にアバターを合成した拡張現実動画を生成する動画合成方法であって、
    コンピュータによる、
    実写動画を撮影する第1撮像部の実空間に対応した座標系における位置および向きを検出するステップと、
    操作者を撮影する第2撮像部の撮影した画像に基づいてアバターを制御するステップと、
    前記第1撮像部の移動に合わせて前記アバターの前記座標系における位置を移動させるステップと、
    前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成するステップと、
    を有することを特徴とする動画合成方法。
  8. 実写動画にアバターを合成した拡張現実動画を生成する動画合成プログラムであって、
    実写動画を撮影する第1撮像部の実空間座標系における位置および向きを検出する処理と、
    操作者を撮影する第2撮像部の撮影した画像に基づいてアバターを制御する処理と、
    前記第1撮像部の移動に合わせて前記アバターの実空間に対応した座標系における位置を移動させる処理と、
    前記座標系の所定位置に前記アバターを配置して前記第1撮像部の撮影した前記実写動画に前記アバターを合成する処理と、
    をコンピュータに実行させることを特徴とする動画合成プログラム。
JP2018225031A 2018-11-30 2018-11-30 動画合成装置、動画合成方法及び動画合成プログラム Active JP6559871B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018225031A JP6559871B1 (ja) 2018-11-30 2018-11-30 動画合成装置、動画合成方法及び動画合成プログラム
PCT/JP2018/047436 WO2020110323A1 (ja) 2018-11-30 2018-12-25 動画合成装置、動画合成方法及び記録媒体
CN201880097578.XA CN112689854A (zh) 2018-11-30 2018-12-25 动画合成装置、动画合成方法以及记录介质
US17/263,767 US11367260B2 (en) 2018-11-30 2018-12-25 Video synthesis device, video synthesis method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018225031A JP6559871B1 (ja) 2018-11-30 2018-11-30 動画合成装置、動画合成方法及び動画合成プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019131774A Division JP2020087429A (ja) 2019-07-17 2019-07-17 動画合成装置、動画合成方法及び動画合成プログラム

Publications (2)

Publication Number Publication Date
JP6559871B1 JP6559871B1 (ja) 2019-08-14
JP2020087278A true JP2020087278A (ja) 2020-06-04

Family

ID=67614859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225031A Active JP6559871B1 (ja) 2018-11-30 2018-11-30 動画合成装置、動画合成方法及び動画合成プログラム

Country Status (4)

Country Link
US (1) US11367260B2 (ja)
JP (1) JP6559871B1 (ja)
CN (1) CN112689854A (ja)
WO (1) WO2020110323A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160645A (ja) * 2019-03-26 2020-10-01 株式会社ニコン データ処理装置、データ処理方法、プログラム、及び、データ処理システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6559870B1 (ja) * 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
JP2021189674A (ja) * 2020-05-28 2021-12-13 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、及び方法
KR20210146741A (ko) * 2020-05-27 2021-12-06 삼성전자주식회사 3차원 객체에 2차원 객체를 합성하기 위한 전자 장치, 전자 장치의 동작 방법 및 비일시적 저장 매체
US11644890B2 (en) * 2021-02-11 2023-05-09 Qualcomm Incorporated Image capturing in extended reality environments
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality
US11893166B1 (en) * 2022-11-08 2024-02-06 Snap Inc. User avatar movement control using an augmented reality eyewear device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039186A (ja) * 2012-08-17 2014-02-27 Kddi Corp 画像生成装置
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
JP2014160982A (ja) * 2013-02-20 2014-09-04 Sony Corp 画像処理装置および撮影制御方法、並びにプログラム
JP2015116336A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 複合現実感アリーナ
JP2017516140A (ja) * 2014-04-29 2017-06-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 顔の表情のトラッキング
WO2018142756A1 (ja) * 2017-01-31 2018-08-09 株式会社Nttドコモ 情報処理装置及び情報処理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9024972B1 (en) * 2009-04-01 2015-05-05 Microsoft Technology Licensing, Llc Augmented reality computing with inertial sensors
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
KR101212231B1 (ko) * 2012-07-13 2012-12-13 송헌주 이동 자유도를 개선한 융합형 가상현실 구현 방법
WO2014016986A1 (ja) * 2012-07-27 2014-01-30 Necソフト株式会社 3次元環境共有システム及び3次元環境共有方法
US20170197144A1 (en) * 2014-03-13 2017-07-13 Shalong Maa Mobile Computing Device
KR20170089662A (ko) * 2016-01-27 2017-08-04 엘지전자 주식회사 증강현실을 제공하는 웨어러블 디바이스
JP2017188787A (ja) 2016-04-06 2017-10-12 シャープ株式会社 撮像装置、画像合成方法、および画像合成プログラム
WO2018136072A1 (en) 2017-01-19 2018-07-26 Hewlett-Packard Development Company, L.P. Telepresence
JP6266814B1 (ja) * 2017-01-27 2018-01-24 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018207046A1 (en) * 2017-05-09 2018-11-15 Within Unlimited, Inc. Methods, systems and devices supporting real-time interactions in augmented reality environments
JP2018187298A (ja) 2017-05-11 2018-11-29 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法及びゲーム処理装置
US10861210B2 (en) * 2017-05-16 2020-12-08 Apple Inc. Techniques for providing audio and video effects
US10846902B2 (en) 2018-03-02 2020-11-24 Imvu, Inc. Preserving the state of an avatar associated with a physical location in an augmented reality environment
CN108519816A (zh) * 2018-03-26 2018-09-11 广东欧珀移动通信有限公司 信息处理方法、装置、存储介质及电子设备
US11107281B2 (en) 2018-05-18 2021-08-31 Valeo Comfort And Driving Assistance Shared environment for vehicle occupant and remote user
JP6559870B1 (ja) 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
US11462000B2 (en) 2019-08-26 2022-10-04 Apple Inc. Image-based detection of surfaces that provide specular reflections and reflection modification

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039186A (ja) * 2012-08-17 2014-02-27 Kddi Corp 画像生成装置
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
JP2014160982A (ja) * 2013-02-20 2014-09-04 Sony Corp 画像処理装置および撮影制御方法、並びにプログラム
JP2015116336A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 複合現実感アリーナ
JP2017516140A (ja) * 2014-04-29 2017-06-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 顔の表情のトラッキング
WO2018142756A1 (ja) * 2017-01-31 2018-08-09 株式会社Nttドコモ 情報処理装置及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
""PoKeMoN GO"", 電撃NINTENDO, vol. 第16巻, 第6号, JPN6019013537, 21 April 2016 (2016-04-21), pages 58, ISSN: 0004018964 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160645A (ja) * 2019-03-26 2020-10-01 株式会社ニコン データ処理装置、データ処理方法、プログラム、及び、データ処理システム
JP7326805B2 (ja) 2019-03-26 2023-08-16 株式会社ニコン データ処理装置、データ処理方法、プログラム、及び、データ処理システム

Also Published As

Publication number Publication date
US11367260B2 (en) 2022-06-21
JP6559871B1 (ja) 2019-08-14
US20210233325A1 (en) 2021-07-29
CN112689854A (zh) 2021-04-20
WO2020110323A1 (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6559871B1 (ja) 動画合成装置、動画合成方法及び動画合成プログラム
JP6559870B1 (ja) 動画合成装置、動画合成方法及び動画合成プログラム
JP6575974B2 (ja) ヘッドマウントディスプレイの追跡システム
US8872854B1 (en) Methods for real-time navigation and display of virtual worlds
US8350896B2 (en) Terminal apparatus, display control method, and display control program
JP5174908B2 (ja) 携帯型ゲーム装置及び携帯型ゲーム装置の制御方法
JP6470356B2 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
KR20210113333A (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
JP6392945B1 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP6843164B2 (ja) プログラム、方法、および情報処理装置
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2019121224A (ja) プログラム、情報処理装置、及び情報処理方法
JP2017033294A (ja) 3次元描画システム及び3次元描画プログラム
JP2020064426A (ja) コミュニケーションシステム及びプログラム
JP2020087429A (ja) 動画合成装置、動画合成方法及び動画合成プログラム
JP2022183213A (ja) ヘッドマウントディスプレイ
JP2019128721A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP6454883B1 (ja) コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム
KR20210025102A (ko) 배신 유저의 움직임에 기초하여 생성되는 캐릭터 오브젝트의 애니메이션을 포함하는 동화상을 라이브 배신하는 동화상 배신 시스템, 동화상 배신 방법 및 동화상 배신 프로그램
JP7241628B2 (ja) 動画合成装置、動画合成方法、および動画合成プログラム
CN116170624A (zh) 一种对象展示方法、装置、电子设备及存储介质
JP2019021324A (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP5864789B1 (ja) 鉄道模型観賞用装置、方法、プログラム、専用表示モニタ、合成用情景画像データ
JP2019160295A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
KR101860215B1 (ko) 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181130

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190717

R150 Certificate of patent or registration of utility model

Ref document number: 6559871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350