JP7540073B2 - ビデオ撮影方法、装置、機器及び記憶媒体 - Google Patents

ビデオ撮影方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP7540073B2
JP7540073B2 JP2023503179A JP2023503179A JP7540073B2 JP 7540073 B2 JP7540073 B2 JP 7540073B2 JP 2023503179 A JP2023503179 A JP 2023503179A JP 2023503179 A JP2023503179 A JP 2023503179A JP 7540073 B2 JP7540073 B2 JP 7540073B2
Authority
JP
Japan
Prior art keywords
target
segmentation
segmentation result
camera
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023503179A
Other languages
English (en)
Other versions
JP2023534972A (ja
Inventor
ルウ,ジション
チェン,ジリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lemon Inc
Original Assignee
Lemon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lemon Inc filed Critical Lemon Inc
Publication of JP2023534972A publication Critical patent/JP2023534972A/ja
Application granted granted Critical
Publication of JP7540073B2 publication Critical patent/JP7540073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本願は2020年9月9日に提出された中国特許出願第202010937922.0の優先権を主張し、該中国特許出願の全内容は本願の一部として引用により本願に組み込まれる。
本開示の実施例はビデオ撮影方法、装置、機器及び記憶媒体に関する。
インターネットの発展に伴い、短いビデオが徐々に人々に好まれるようになり、短いビデオを撮影し、インターネットプラットフォームにアップロードして共有することを好む人はますます増えている。
現状では、短いビデオ作成の実現手段は、短いビデオ撮影類アプリケーションに予め設定された添加効果、例えばステッカーを選択し、その後、短いビデオを作成することである。
しかしながら、発明者は、従来のビデオ撮影には、短いビデオの作成方法が単一であり、ユーザが固定の添加効果を選択して短いビデオを作成することしかできず、ユーザエクスペリエンスが悪いという技術的問題が少なくとも存在していることを発見した。
本開示の実施例はビデオ撮影方法、装置、機器及び記憶媒体を提供し、それによって、短いビデオの作成方法が単一であり、ユーザが固定の添加オブジェクトを選択して短いビデオを作成することしかできず、ユーザエクスペリエンスが悪いという問題を解決する。
第1態様では、本開示の実施例はビデオ撮影方法を提供し、端末機器に適用され、前記方法は、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップと、前記ターゲット分割結果を表示するステップと、前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップと、を含む。
第2態様では、本開示の実施例はビデオ撮影装置を提供し、端末機器のカメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得ることに用いられる第1分割モジュールと、前記ターゲット分割結果を表示することに用いられる表示モジュールと、前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成することに用いられるビデオ生成モジュールと、を含む。
第3態様では、本開示の実施例は電子機器を提供し、少なくとも1つのプロセッサ及びメモリを含み、前記メモリはコンピュータ実行コマンドを記憶し、前記少なくとも1つのプロセッサは前記メモリに記憶されたコンピュータ実行コマンドを実行して、前記少なくとも1つのプロセッサは上記の第1態様及び第1態様の様々な可能性のある設計に記載のビデオ撮影方法を実行する。
第4態様では、本開示の実施例はコンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体にコンピュータ実行コマンドが記憶されており、プロセッサが前記コンピュータ実行コマンドを実行するときに、上記の第1態様及び第1態様の様々な可能性のある設計に記載のビデオ撮影方法を実現する。
本実施例はビデオ撮影方法、装置、機器及び記憶媒体を提供し、該方法は、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を分割して、ターゲット分割結果を得て、ターゲット分割結果を表示し、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成する。本実施例はビデオ撮影過程で、分割対象物をリアルタイムに分割することができ、分割対象物をオフラインで分割する手段に比べて、ビデオ撮影時間を短縮し、ビデオ撮影過程での顕著な物体分割の時効性を向上させることができ、また、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することによって、ターゲット分割結果をリアルタイムに編集し、リアルタイムに分割した物体に対してビデオ作成を行うことができ、それによりユーザに新しいビデオの作成方法を提供し、ユーザエクスペリエンスを向上させる効果を奏する。
本開示の実施例又は知られている技術の技術的解決手段をより明確に説明するために、以下、実施例又は知られている技術の説明に使用される必要がある図面を簡単に紹介し、明らかなように、以下に説明される図面は本開示のいくつかの実施例であり、当業者にとって、創造的な労働を必要とせずに、これらの図面に基づいて他の図面を取得することができる。
図1は知られている技術のビデオ撮影の例示図である。 図2は本開示の実施例に係るビデオ撮影方法のフローチャート1である。 図3は端末機器の収集画面の1つの模式図を示す。 図4は端末機器を移動することによって分割対象物を予め設定されたカーソルと位置合わせする1つの模式図を示す。 図5は予め設定されたカーソルの位置を移動することによって予め設定されたカーソルを分割対象物と位置合わせする1つの模式図を示す。 図6は本開示の実施例に係るビデオ撮影方法のフローチャート2である。 図7Aは第1分割モデル、第2分割モデルによって分割する模式図1を示す。 図7Bは第1分割モデル、第2分割モデルによって分割する模式図2を示す。 図8は予め分割結果のストロークを破線で表示する1つの模式図を示す。 図9は、分割対象物の被覆された部分のストロークを優性表示の方式で表示し、被覆されていない部分のストロークを半透明表示の方式で表示する1つの模式図を示す。 図10は本開示の実施例に係るビデオ撮影方法のフローチャート3である。 図11Aはユーザが収集画面にターゲット分割結果を選択してドラッグする1つの模式図を示す。 図11Bはユーザが他の物体により被覆されていない分割対象物の部分をドラッグする1つの模式図を示す。 図12は本開示の実施例に係るビデオ撮影装置の構造ブロック図である。 図13は本開示の実施例に係る電子機器のハードウェアの構造模式図である。
本開示の実施例の目的、技術的解決手段及び利点をより明確にするために、以下、本開示の実施例の図面を参照しながら、本開示の実施例の技術的解決手段を明確で、完全に説明し、明らかなように、説明される実施例は本開示の一部の実施例に過ぎず、全部の実施例ではない。本開示の実施例に基づいて、当業者が創造的労働を必要とせずに取得するすべての他の実施例はいずれも本開示の保護範囲に属する。
図1に参照されるように、図1は知られている技術のビデオ撮影の例示図である。知られている技術では、複数の物体に対して顕著な物体分割を行うことは、複数の物体を含む画面を撮影し、次に画像処理アルゴリズムで撮影した画像に対して顕著な物体分割を行うことである。
また、ユーザは短いビデオを撮影するときに、短いビデオ撮影類アプリケーションに予め設定された添加効果、例えばステッカーを選択し、その後、短いビデオを生成する。この短いビデオの作成方法はユーザにとって、単一であり、ユーザが固定の添加効果を選択して短いビデオに添加することしかできず、ユーザエクスペリエンスが悪い。
本開示の実施例は新しいビデオの作成方法を提供し、カメラが収集する画面に顕著な物体分割をリアルタイムに行い、ターゲット分割物をリアルタイムに編集し、さらにリアルタイムに分割及び編集した顕著な物体に対して短いビデオ作成を行うことによって、上記の問題を解決する。
図2に参照されるように、図2は本開示の実施例に係るビデオ撮影方法のフローチャート1である。本実施例の方法は端末機器に適用でき、該ビデオ撮影方法は、以下のS201~S203を含む。
S201、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を分割して、ターゲット分割結果を得る。
本実施例では、端末機器がカメラを起動した後に、カメラの収集画面に複数の物体が提示されるようになり、ユーザは複数の物体からそのうちの1つの物体を分割対象物として選択することができる。ユーザが分割対象物を選択した後に、分割対象物を分割するステップを実行し、それによりターゲット分割結果を得る。
選択的に、ユーザが本実施例のビデオ撮影過程の操作ステップを理解しやすくするために、端末機器の撮影インタフェースに提示情報を表示してもよく、それによって端末機器に分割対象物を入力することをユーザに提示する。
図3に参照されるように、図3は端末機器の収集画面の1つの模式図を示す。例示的に、ユーザは端末機器のカメラを開くと、収集画面には「物体と位置合わせて走査し、ドラッグしてコピーする」という提示語が現れ、それによって、端末機器に分割対象物を入力し、分割対象物をコピーすることをユーザに提示する。
S202、ターゲット分割結果を表示する。
具体的には、カメラの収集画面にターゲット分割結果を表示する。ターゲット分割結果は収集画面における他の物体と異なる表示方式で表示することができる。
S203、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成する。
本実施例では、ターゲット分割結果を調整するトリガー操作は、縮小、拡大、移動、及び回転のうちの少なくとも1つを含む。具体的には、ユーザはスクリーンをタッチする方式で縮小、拡大、移動、及び回転等の操作を行うことができる。
選択的に、融合対象のビデオシーンはカメラが撮影した実際の環境であってもよく、ここでのカメラはフロントカメラであるか、リアカメラであるかを制限しない。
具体的には、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することは、同時位置決め地図作成(Simultaneous Localization and Mapping、SLAM)技術、即ち同時ローカリゼーションとマッピング(Concurrent Mapping and Localization、CML)技術によって、ターゲット分割結果をカメラが撮影した実際の環境に置き、調整後のターゲット分割結果とカメラが撮影した実際の環境とを融合することであってもよい。
本開示の実施例は、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を分割して、ターゲット分割結果を得て、ターゲット分割結果を表示し、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成する。本実施例はビデオ撮影過程で、分割対象物をリアルタイムに分割することができ、分割対象物を予めオフラインで分割してステッカーとして短いビデオに添加する手段に比べて、ビデオ撮影時間を短縮し、ビデオ撮影過程での顕著な物体分割の時効性を向上させることができ、また、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することによって、ターゲット分割結果をリアルタイムに編集し、リアルタイムに分割した物体に対してビデオ作成を行うことができ、それによりユーザに新しいビデオの作成方法を提供し、ユーザエクスペリエンスを向上させる効果を奏する。
本開示の一実施例では、上記図2の実施例に基づき、分割対象物を特定する過程で、ユーザが所望の切り抜き領域を選択しやすくし、切り抜き精度を向上させるために、収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれるか否かを検出することができ、収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれる場合、現在の画面領域に表示されている物体が分割対象物であると特定する。
選択的に、予め設定されたカーソルは収集画面における任意の領域位置を、予め設定されたカーソルが位置する位置として選択することができる。
選択可能な実施形態では、予め設定されたカーソルの位置を固定してもよく、端末機器を移動することによって、予め設定されたカーソルを分割対象物と位置合わせする。例示的に、予め設定されたカーソルの位置を端末機器の表示スクリーンの中心位置として固定することができる。図4に参照されるように、図4は端末機器を移動することによって分割対象物を予め設定されたカーソルと位置合わせする1つの模式図を示す。
別の選択可能な実施形態では、予め設定されたカーソルの位置を固定しなくてもよく、予め設定されたカーソルの位置を移動することによって、予め設定されたカーソルを分割対象物と位置合わせする。図5に参照されるように、図5は予め設定されたカーソルの位置を移動することによって予め設定されたカーソルを分割対象物と位置合わせする1つの模式図を示す。理解すべきであるように、図3、図4及び図5に示されるボックス状のカーソルは例示的な説明であり、カーソルの具体的な表示方式を限定しない。
図5に示される実施形態に基づき、誤認識を回避するために、予め設定されたカーソルが収集画面に表示されている物体と予め設定された時間以上位置合わせすることを検出した場合、収集画面における予め設定されたカーソルが位置合わせする物体が分割対象物であると特定することができる。選択的に、予め設定された時間は3~5sに設定されてもよく、理解すべきであるように、当業者は実際のニーズに基づいて予め設定された時間を設定することができ、本開示はこれを具体的に限定しない。
具体的には、収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれるか否かを検出するステップは、予め設定されたカーソルの収集画面での座標位置を特定するステップと、収集画面に表示されている物体が位置する画面領域に含まれる座標位置を特定し、座標位置の範囲を得るステップと、予め設定されたカーソルの座標位置と収集画面に表示されている物体の座標位置の範囲とを比較するステップと、予め設定されたカーソルの座標位置が収集画面に表示されている物体の座標位置の範囲内にある場合、収集画面に現在表示されている物体が分割対象物であると特定するステップと、を含む。
例示的に、予め設定されたカーソルの座標位置と収集画面に表示されている物体の座標位置の範囲とを比較するときに、座標位置の範囲は横座標範囲及び縦座標範囲を含み、予め設定されたカーソルの座標位置は横座標及び縦座標を含み、予め設定されたカーソルの横座標が収集画面に表示されている物体の横座標範囲内にあるか否か、及び予め設定されたカーソルの縦座標が収集画面に表示されている物体の縦座標範囲内にあるか否かをそれぞれ判定し、予め設定されたカーソルの横座標が収集画面に表示されている物体の横座標範囲内にあり、且つ予め設定されたカーソルの縦座標が収集画面に表示されている物体の縦座標範囲内にある場合、収集画面に現在表示されている物体が分割対象物であると特定する。
図6に参照されるように、図6は本開示の実施例に係るビデオ撮影方法のフローチャート2である。図2に示される実施例に基づき、S201は具体的に以下のS601~S603を含む。
S601、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を予め分割し、予め分割結果を得る。
本実施例では、端末機器は分割対象物を選択する入力イベントを受信し、該入力イベントはユーザが選択した分割対象物を含む。端末機器は該入力イベントに応答して、カメラの収集画面に提示されている複数の物体のうち分割対象物を予め分割し、予め分割は粗粒度分割であると理解でき、予め分割は分割対象物を迅速に分割することを目的とし、したがって、予め分割は分割対象物の大まかな輪郭を分割することであってもよい。
S602、予め分割結果を表示する。
本実施例では、予め分割結果をカメラの収集画面に表示することができ、それによって、ユーザが予め分割結果に所望の分割対象物が含まれるか否かを確認しやすくする。
S603、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得る。
本実施例では、分割対象物の分割は細粒度分割であると理解でき、分割対象物を精確に分割することを目的とし、したがって、ターゲット分割結果の分割精度は予め分割結果の分割精度よりも大きい。
ステップS602で予め分割結果を表示すると、ユーザは該予め分割結果を直感的に見ることができ、それにより、該予め分割結果にユーザが所望の分割対象物が含まれるか否かを確認しやすい。予め分割結果が位置する表示領域内でユーザがトリガー操作を行った場合、ユーザが予め分割結果を確認したことを示し、さらに分割対象物に対して細粒度分割を行う操作をトリガーし、それによって精度がより高いターゲット分割結果を得る。
本実施例では、予め分割結果を確認するトリガー操作は、ユーザがスクリーンをタッチし、例えば予め分割結果をクリックし、予め分割結果の表示領域でスライドする等の操作によって実現されてもよく、音声制御の方式で実現されてもよく、エアジェスチャー制御の方式で実現されてもよい。
本開示の実施例は、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を予め分割し、予め分割結果を得て、予め分割結果を表示し、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得る。分割対象物に対して予め分割を行ったため、顕著な物体分割の時効性を確保し、その後、分割対象物に対して精細な分割を行って、分割精度が予め分割結果よりも大きいターゲット分割結果を得ることによって、顕著な物体分割の品質を確保することができ、それにより時効性及び分割品質を両立させる。
本開示の一実施例では、上記図2の実施例に基づき、時効性及び分割品質に対する確保は異なる顕著な物体分割アルゴリズムによって実現されてもよい。
具体的には、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を予め分割し、予め分割結果を得るステップは、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1顕著な物体分割アルゴリズムに基づいて分割対象物を予め分割し、予め分割結果を得るステップを含む。
具体的には、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得るステップは、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、第2顕著な物体分割アルゴリズムに基づいて分割対象物を分割して、ターゲット分割結果を得るステップを含む。
第1顕著な物体分割アルゴリズムの分割速度は予め設定された分割速度よりも速く、第1顕著な物体分割アルゴリズムの分割精度は第2顕著な物体分割アルゴリズムよりも小さい。第1顕著な物体分割アルゴリズム、及び第2顕著な物体分割アルゴリズムは知られている顕著な物体分割アルゴリズムから選択されてもよく、分割速度が予め設定された分割速度よりも速い顕著な物体分割アルゴリズムであれば、第1顕著な物体分割アルゴリズムとすることができ、且つそのうちの一方の顕著な物体分割アルゴリズムの分割速度が速く、他方の顕著な物体分割アルゴリズムの分割品質が高い顕著な物体分割アルゴリズムであれば、本開示の実施例に適用でき、本開示は、第1顕著な物体分割アルゴリズム、及び第2顕著な物体分割アルゴリズムの具体的なタイプを制限しない。
選択的に、本実施例では、予め設定された分割速度は、知られている顕著な物体分割方法によって達成できる分割速度の平均値に基づいて特定されてもよい。
本開示の別の実施例では、上記図2の実施例に基づき、時効性及び分割品質に対する確保はさらに、ニューラルネットワークを訓練して得られたモデルによって実現されてもよい。
図7Aに参照されるように、図7Aは第1分割モデル、第2分割モデルによって分割する模式図1を示す。
具体的には、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を予め分割し、予め分割結果を得るステップは、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1分割モデルに基づいて分割対象物を予め分割し、予め分割結果を得るステップを含み、第1分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、訓練画像における複数の物体は任意の物体であってもよい。
具体的には、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得るステップは、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得て、第2分割モデルに基づいて分割対象物を分割して、ターゲット分割結果を得るステップを含み、第2分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含む。
第1分割モデルの分割速度は予め設定された分割速度よりも速く、第1分割モデルの分割精度は第2分割モデルよりも小さい。
本実施例では、予め設定された分割速度は同様に、知られている顕著な物体分割方法によって達成できる分割速度の平均値に基づいて特定されてもよい。
選択的に、第2分割モデルの分割速度を向上させるために、第2分割モデルはさらに、予め分割結果に基づき、二次分割を行ってもよい。図7Bに参照されるように、図7Bは第1分割モデル、第2分割モデルによって分割する模式図2を示す。具体的には、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1分割モデルに基づいて分割対象物を予め分割し、予め分割結果を得るステップと、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、予め分割結果に基づき、第2分割モデルに基づいて予め分割結果に対して再分割を行って、ターゲット分割結果を得るステップと、を含む。
本開示の一実施例では、予め分割結果を表示するステップは、予め分割結果に対してストロークを行うステップと、予め分割結果のストロークを表示するステップと、を含む。
選択的に、ストロークは、色付きの線、破線、実線等の異なる形態の線で表示することができ、これに対して、本開示は特に制限しない。図8に参照されるように、図8は予め分割結果のストロークを破線で表示する1つの模式図を示す。
具体的には、予め分割結果のストロークを表示するステップは、分割対象物の一部が分割対象物以外の他の物体により被覆される場合、分割対象物の被覆された部分のストロークを第1表示状態で表示し、分割対象物の被覆されていない部分のストロークを第2表示状態で表示するステップを含み、第1表示状態及び第2表示状態の表示属性は異なる。
本実施例では、表示属性は優性表示、半透明表示及び透明表示を含む。第1表示状態の表示属性は表示属性のうちの任意の表示属性であってもよく、第2表示状態の表示属性も表示属性のうちの任意の表示属性であってもよく、第1表示状態及び第2表示状態の表示属性が異なることを確保すればよい。
例示的に、第1表示状態は半透明表示状態であってもよく、第2表示状態は優性表示状態であってもよい。図9に参照されるように、図9は、分割対象物の被覆された部分のストロークを優性表示の方式で表示し、被覆されていない部分のストロークを半透明表示の方式で表示する1つの模式図を示す。
選択的に、分割対象物の輪郭境界を検出し、輪郭境界をストロークの形態で表示した後に、本実施例の方法は、輪郭境界が安定するか否かを検出するステップと、輪郭境界が安定しない場合、輪郭境界に対して安定性処理を行うステップと、をさらに含んでもよい。輪郭境界が安定するか否かは、ストロークに点滅が存在するか否か、及び複数の物体の間でジャンプする等の現象によって特定され得る。予め分割過程で、予め分割過程はリアルタイムに行われ、ストロークに点滅が存在せず、且つ複数の物体の間でジャンプしない場合、輪郭境界が安定すると見なされる。輪郭境界に対して安定性処理を行うことは、顕著な物体分割アルゴリズムの分割時間により実現されてもよく、即ち、予め分割結果の輪郭境界が安定しない場合、ユーザは予め分割結果を確認せず、予め分割結果の輪郭境界が安定になった後に、予め分割結果を確認するようにしてもよい。
本開示の実施例は予め分割結果に対してストロークを行い、予め分割結果のストロークを表示し、それによって、ユーザは予め分割結果が予期の分割効果に合致するか否かを確認しやすくすることができる。
図10に参照されるように、図10は本開示の実施例に係るビデオ撮影方法のフローチャート3である。本実施例では、上記のいずれか実施例に基づき、S203は、以下のS1001~S1003を含む。
S1001、ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、カメラの視野範囲内において、実際の環境にカメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出する。
本実施例では、検出する平面はターゲット分割結果を置くことに用いられる平面であり、それは、収集画面における任意の平面、例えば壁、テーブルの表面、地面、キャビネットの表面等の空間における任意の平面であってもよい。
例示的に、第1予め設定された距離を5メートルとすると、本ステップは、端末機器のカメラの視野範囲内において、カメラとの間の距離が5メートル以下の平面を検出する。
S1002、実際の環境に、カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在する場合、ターゲット分割結果を平面に置く。
例示的に、カメラとの距離が5メートルの視野範囲内に、ターゲット分割結果を置くことに用いることができる平面を検出した場合、直接ターゲット分割結果を検出した平面に置く。
選択的に、ターゲット分割結果を検出した平面に置くときに、ターゲット分割結果と平面との接触面シャドウを表示してもよく、それによって、よりよい表示効果を取得する。如何に接触面シャドウを表示するかについては、知られている技術の紹介を参照すればよく、ここで、詳細に紹介しない。
S1003、実際の環境に、カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在しない場合、ターゲット分割結果を空間に置き、空間における置き位置とカメラとの間の距離は第2予め設定された距離とされる。
例示的に、第2予め設定された距離を0.5メートルとすると、本ステップは、カメラとの距離が5メートルの視野範囲内に、ターゲット分割結果を置くことに用いることができる平面を検出しない場合、直接ターゲット分割結果をカメラとの距離が0.5メートルの空間に置き、ここで、具体的な置き位置を制限せず、置き位置が撮影部材との距離が0.5メートルである条件を満たせばよい。
理解すべきであるように、ステップS1002及びステップS1003の実行順序を制限しない。
本開示の一実施例では、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得るステップの後、本実施例の方法は、ユーザによるターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、ユーザがターゲット分割結果を確認したと特定し、且つ、カメラの視野範囲内において、実際の環境にカメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップを実行するステップをさらに含む。
本実施例では、予め分割結果が位置する表示領域内で行われたトリガー操作は、ユーザがスクリーンをタッチすることによってトリガーされてもよく、ユーザがエアジェスチャー操作によってトリガーされてもよい。
具体的には、ユーザによるターゲット分割結果が位置する表示領域に対するトリガー操作は、ターゲット分割結果を予め設定された時間ドラッグした後にターゲット分割結果を解放する操作を含む。
例示的に、ユーザが収集画面にターゲット分割結果を選択し、ターゲット分割結果をドラッグすると、ユーザがターゲット分割結果を確認し、ターゲット分割結果とカメラが撮影した実際のシーンとを融合する操作を実行しようとすることを確認したと見なされる。
図11Aに参照されるように、図11Aはユーザが収集画面にターゲット分割結果を選択してドラッグする1つの模式図を示す。
本実施例の1つの状況では、分割対象物の一部が分割対象物以外の他の物体により被覆される場合、ユーザは他の物体により被覆されていない分割対象物の部分に対応する領域をドラッグする必要があり、ユーザがターゲット分割結果を確認し、ターゲット分割結果と融合対象のビデオシーンとを融合する操作を実行しようとすることを確認したと見なされる。理解できるように、ユーザが優性表示部分に対応する分割対象物をドラッグすると、ユーザがターゲット分割結果を確認し、ターゲット分割結果と融合対象のビデオシーンとを融合する操作を実行しようとすることを確認したと見なされる。
図11Bに参照されるように、図11Bはユーザが他の物体により被覆されていない分割対象物の部分をドラッグする1つの模式図を示す。
選択的に、ユーザはターゲット分割結果をドラッグする過程で、ターゲット分割結果に対して回転、スケーリング、移動等の操作を行ってターゲット分割結果の置き角度を調整することができ、検出した平面角度と適応するターゲット角度に調整し、ユーザが指を解放した後に、調整後のターゲット分割結果を検出した平面に置く。
本開示の実施例は、ユーザがターゲット分割結果を予め設定された時間ドラッグした後にターゲット分割結果を解放する操作を検出すると、ユーザがターゲット分割結果を確認したと見なし、ターゲット分割結果と融合対象のビデオシーンとを融合する操作を実行し始め、それによって、ユーザがターゲット分割結果を確認するステップとターゲット分割結果をカメラが収集した実際の環境に置くステップとを1つの操作ステップによって完了し、ユーザの操作を簡略化させ、ビデオ撮影過程全体の時間を短縮し、ビデオ撮影の効率及びユーザ操作効率を向上させる効果を達成することができ、さらにユーザエクスペリエンスを向上させる。
本開示の一実施例では、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を分割して、ターゲット分割結果を得るステップの前に、本実施例の方法は、撮影機能のトリガー操作に応答して、分割対象物の分割過程での画面を収集するステップをさらに含み、画面はカメラが撮影した実際の環境を含み、対応して、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップは、分割対象物の分割過程での画面に基づいて、ビデオを生成するステップを含む。
本実施例では、撮影機能のトリガー操作は、端末機器がカメラを起動して収集画面に入ると、撮影機能をトリガーすると理解されてもよく、カメラは、分割過程全体、及びユーザがターゲット分割物を調整し、調整後のターゲット分割物と融合対象のビデオシーンとを融合する過程を撮影し、ビデオを生成する。例えば、図9を参照し続け、リアカメラの状態下で、カメラが収集した物体はネコ及び人物を含み、人物は分割対象物であり、人物を分割し、人物を調整する過程全体を撮影し、ビデオを生成する。
本実施例では、端末機器の撮影機能のトリガー操作は、収集画面における撮影ボタン(図3、図4、図5、図8、図9、図11A、図11Bにおける収集画面下方の円形アイコン)に対するタッチ操作であってもよい。
具体的に、ユーザは収集画面における撮影ボタンをクリックすることによって端末機器の撮影機能をトリガーするようにしてもよく、ユーザは音声制御によって端末機器の撮影機能をトリガーするようにしてもよく、ユーザはエアジェスチャー操作によって端末機器の撮影機能をトリガーするようにしてもよい。
本開示の別の実施例では、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果とカメラが撮影した実際の環境とを融合することで、ビデオを生成するステップは、撮影機能のトリガー操作、及びターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果及び融合対象のビデオシーンに基づいて、ビデオを生成するステップを含み、融合対象のビデオシーンはカメラが撮影した実際の環境以外のビデオシーンである。
本実施例では、ユーザが撮影機能をトリガーすると、端末機器はターゲット分割結果、即ち、切り抜かれた分割対象物の画面に基づいて、ビデオを生成する。撮影機能のトリガー操作は、端末機器がカメラを起動して収集画面に入った後に、撮影機能をトリガーせず、ターゲット分割結果を分割し、且つユーザがターゲット分割結果を調整した後に、撮影機能をトリガーすると理解されてもよく、調整後のターゲット分割結果と融合対象のビデオシーンとを融合し、ビデオを生成する。例えば、図9を参照し続け、リアカメラの状態下で、カメラが収集した物体はネコ及び人物を含み、人物は分割対象物であり、人物を分割した後に、カメラをフロントカメラにし、フロントカメラが撮影した画面と人物を融合するようにしてもよい。
上記実施例のビデオ撮影方法に対応して、図12は本開示の実施例に係るビデオ撮影装置の構造ブロック図である。説明しやすくするために、本開示の実施例に関連する部分のみを示す。図12に参照されるように、前記装置は、分割モジュール120、表示モジュール121及び融合モジュール122を含み、分割モジュール120は、端末機器のカメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を分割して、ターゲット分割結果を得ることに用いられ、表示モジュール121は、ターゲット分割結果を表示することに用いられ、融合モジュール122は、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成することに用いられる。
本開示の一実施例では、前記装置は、収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれる場合、表示されている物体が分割対象物であると特定することに用いられる特定モジュール123をさらに含む。
本開示の一実施例では、分割モジュール120は、具体的に、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を予め分割し、予め分割結果を得ること、予め分割結果を表示すること、及び、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得ることに用いられる。
本開示の一実施例では、分割モジュール120は、具体的に、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1分割モデルに基づいて前記分割対象物を予め分割し、予め分割結果を得ることに用いられ、前記第1分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、及び、前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、ターゲット分割結果を得て、第2分割モデルに基づいて前記分割対象物を分割して、ターゲット分割結果を得ることに用いられ、前記第2分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、前記第1分割モデルの分割速度は予め設定された分割速度よりも速く、前記第1分割モデルの分割精度は前記第2分割モデルよりも小さい。
本開示の一実施例では、表示モジュール121は、具体的に、前記予め分割結果に対してストロークを行うこと、及び、前記予め分割結果のストロークを表示することに用いられる。
本開示の一実施例では、表示モジュール121は、具体的に、前記分割対象物の一部が前記分割対象物以外の他の物体により被覆される場合、前記分割対象物の被覆された部分のストロークを第1表示状態で表示し、前記分割対象物の被覆されていない部分のストロークを第2表示状態で表示することに用いられ、前記第1表示状態及び前記第2表示状態の表示属性は異なる。
本開示の一実施例では、前記第1表示状態は半透明表示状態であり、前記第2表示状態は優性表示状態である。
本開示の一実施例では、融合モジュール122は、具体的に、前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記カメラの視野範囲内において、実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出すること、前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在する場合、前記ターゲット分割結果を前記平面に置くこと、及び、前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在しない場合、前記ターゲット分割結果を空間に置くことであって、前記空間における置き位置と前記カメラとの間の距離は第2予め設定された距離とされることに用いられる。
本開示の一実施例では、特定モジュール123はさらに、ユーザによる前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記ユーザが前記ターゲット分割結果を確認したと特定し、且つ、前記カメラの視野範囲内において、前記実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップを実行することに用いられる。
本開示の一実施例では、ユーザによる前記ターゲット分割結果が位置する表示領域に対する前記トリガー操作は、前記ターゲット分割結果を予め設定された時間ドラッグした後に前記ターゲット分割結果を解放する操作を含む。
本開示の一実施例では、該装置は、撮影機能のトリガー操作に応答して、前記分割対象物の分割過程での画面を収集することに用いられる収集モジュール124をさらに含み、前記画面は前記カメラが撮影した実際の環境を含み、融合モジュール123は、具体的に、前記分割対象物の分割過程での画面に基づいて、前記ビデオを生成することに用いられる。
本開示の一実施例では、融合モジュール123は、具体的に、撮影機能のトリガー操作、及び前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果及び融合対象のビデオシーンに基づいて、前記ビデオを生成することに用いられ、前記融合対象のビデオシーンは前記カメラが撮影した実際の環境以外のビデオシーンである。
本開示の一実施例では、前記ターゲット分割結果を調整する前記トリガー操作は、縮小、拡大、移動、及び回転のうちの少なくとも1つを含む。
本実施例に係るビデオ撮影装置は、上記方法実施例の技術的解決手段を実行することに用いることができ、その実現原理及び技術的効果は類似し、本実施例はここで繰り返して説明しない。
図13に参照されるように、本開示の実施例を実現するための電子機器130の構造模式図を示し、該電子機器130は端末機器又はサーバであってもよい。端末機器は、携帯電話、ノートパソコン、デジタル放送受信機、携帯情報端末(Personal Digital Assistant、PDAと略称)、タブレットPC(Portable Android Device、PADと略称)、ポータブルマルチメディアプレーヤー(Portable Media Player、PMPと略称)、車載端末(例えば車載ナビゲーション端末)等の移動端末、及びデジタルTV、デスク型コンピュータ等の固定端末を含んでもよいが、それらに限定されない。図13に示される電子機器は単に1つの例であり、本開示の実施例の機能及び使用範囲に何らの制限を与えるべきではない。
図13に示すように、電子機器130は処理装置(例えば、中央プロセッサ、グラフィックプロセッサ等)131を含んでもよく、それは、読み出し専用メモリ(Read Only Memory、ROMと略称)132に記憶されたプログラム又は記憶装置138からランダムアクセスメモリ(Random Access Memory、RAMと略称)133にロードされたプログラムに基づいて、各種の適当な動作及び処理を実行することができる。RAM133には、電子機器130の操作に必要な各種のプログラム及びデータがさらに記憶されている。処理装置131、ROM132及びRAM133はバス134を介して互いに接続される。入力/出力(I/O)インタフェース135もバス134に接続される。
通常、例えばタッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイクロホン、加速度計、ジャイロ等を含む入力装置136、例えば液晶ディスプレイ(Liquid Crystal Display、LCDと略称)、スピーカ、発振器等を含む出力装置137、例えばテープ、ハードディスク等を含む記憶装置138、及び通信装置139は、I/Oインタフェース135に接続され得る。通信装置139は、電子機器130が他の機器と無線又は有線通信を行ってデータを交換することを許可することができる。図13に様々な装置を有する電子機器130が示されているが、理解すべきであるように、示されたすべての装置を実施し又は備えることを要求しない。代替的に、より多い又はより少ない装置を実施し又は備えるようにしてもよい。
特に、本開示の実施例に基づいて、フローチャートを参照して説明した上記の過程はコンピュータソフトウェアプログラムとして実現されてもよい。例えば、本開示の実施例はコンピュータプログラム製品を含み、それはコンピュータ可読媒体に搭載されたコンピュータプログラムを含み、該コンピュータプログラムはフローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例では、該コンピュータプログラムは通信装置139によってネットワークからダウンロード及びインストールされ、又は記憶装置138からインストールされ、又はROM132からインストールされるようにしてもよい。該コンピュータプログラムが処理装置131により実行されるときに、本開示の実施例の方法に限定された上記機能を実行する。
なお、本開示の上記のコンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体又は上記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又は以上の任意の組み合わせであってもよいが、それらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つ又は複数の導線を有する電気的接続、ポータブルコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上記の任意の適切な組み合わせを含んでもよいが、それらに限定されない。本開示では、コンピュータ可読記憶媒体は、プログラムを含む、又は記憶する任意の有形媒体であってもよく、該プログラムはコマンド実行システム、装置又はデバイスにより使用されてもよく、又はそれらと組み合わせて使用されてもよい。本開示では、コンピュータ可読信号媒体は、ベースバンドに、又は搬送波の一部として伝播されるデータ信号を含んでもよく、それはコンピュータ可読プログラムコードを有する。このような伝播データ信号は、電磁信号、光信号又は上記の任意の適切な組み合わせを含むが、それらに限定されない複数の形態を取ることができる。コンピュータ可読信号媒体はさらに、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよく、該コンピュータ可読信号媒体は、コマンド実行システム、装置又はデバイスにより使用され又はそれらと組み合わせて使用されるプログラムを送信、伝播又は伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、ワイヤー、ケーブル、RF(無線周波数)等、又は上記の任意の適切な組み合わせを含むが、それらに限定されない任意の適切な媒体により伝送されてもよい。
上記コンピュータ可読媒体は上記電子機器に含まれるものであってもよく、単独で存在し、該電子機器に組み立てられないものであってもよい。
上記コンピュータ可読媒体に1つ又は複数のプログラムが搭載され、上記1つ又は複数のプログラムが該電子機器により実行されるときに、該電子機器は上記実施例に示された方法を実行する。
1つ又は複数のプログラミング言語又はそれらの組み合わせによって、本開示の操作を実行するためのコンピュータプログラムコードを作成することができ、上記プログラミング言語は、オブジェクト指向のプログラミング言語-例えばJava、Smalltalk、C++を含み、通常の手続き型プログラミング言語-例えば「C」言語又は類似のプログラミング言語をさらに含む。プログラムコードは、完全にユーザコンピュータ上で実行されてもよく、部分的にユーザコンピュータ上で実行されてもよく、独立した1つのソフトウェアパッケージとして実行されてもよく、部分的にユーザコンピュータ上で実行されて部分的にリモートコンピュータ上で実行されてもよく、又は完全にリモートコンピュータ又はサーバ上で実行されてもよい。リモートコンピュータに関わる状況では、リモートコンピュータは、ローカルエリアネットワーク(Local Area Network、LANと略称)又はワイドエリアネットワーク(Wide Area Network、WANと略称)を含む任意のネットワークを介してユーザコンピュータに接続でき、又は、外部コンピュータに接続できる(例えば、インターネットサービスプロバイダを利用してインターネットを介して接続する)。
図面のフローチャート及びブロック図は、本開示の各実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能な体系構造、機能及び操作を示している。この点では、フローチャート又はブロック図の各ボックスは1つのモジュール、プログラムセグメント、又はコードの一部を示すことができ、該モジュール、プログラムセグメント、又はコードの一部は、規定のロジック機能を実現するための実行可能な1つ又は複数のコマンドを含む。なお、代替としてのいくつかの実現形態において、ボックス内に表記された機能は、図面の表記と異なる順序で発生してもよい。例えば、2つの連続するボックスは実際に基本的に並行して実行することができるが、場合によっては反対の順序で実行されてもよく、これは関わる機能によって定められる。なお、ブロック図及び/又はフローチャートの各ボックス、及びブロック図及び/又はフローチャートのボックスの組み合わせは、規定の機能又は操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、又は専用ハードウェアとコンピュータコマンドとの組み合わせによって実現されてもよい。
本開示の実施例に関わるユニットはソフトウェアの方式で実現されてもよく、ハードウェアの方式で実現されてもよい。ユニットの名称はある状況で該ユニット自体に対する限定を構成せず、例えば、第1取得ユニットは、さらに「少なくとも2つのインターネットプロトコルアドレスを取得するユニット」として説明されてもよい。
本明細書で上記した機能は、少なくとも部分的に1つ又は複数のハードウェアロジック部材によって実行することができる。例えば、非限定的に、使用できる例示的なハードウェアロジック部材は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、専用標準製品(ASSP)、システムオンチップ(SOC)、複雑なプログラマブルロジック機器(CPLD)等を含む。
本開示のコンテキストでは、機械可読媒体は有形の媒体であってもよく、それは、コマンド実行システム、装置又は機器により使用され又はコマンド実行システム、装置又は機器と組み合わせて使用されるプログラムを含むか、記憶することができる。機械可読媒体は機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子、磁気、光学、電磁、赤外線、又は半導体のシステム、装置又は機器、又は上記内容の任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械可読記憶媒体のより具体的な例は、1つ又は複数の線に基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光学記憶機器、磁気記憶機器、又は上記内容の任意の適切な組み合わせを含む。
第1態様では、本開示の1つ又は複数の実施例によれば、ビデオ撮影方法を提供し、端末機器に適用され、端末機器はカメラを含み、前記方法は、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップと、前記ターゲット分割結果を表示するステップと、前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップの前に、前記方法は、前記収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれる場合、前記物体が前記分割対象物であると特定するステップをさらに含む。
本開示の1つ又は複数の実施例によれば、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップは、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を予め分割し、予め分割結果を得るステップと、前記予め分割結果を表示するステップと、前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、前記ターゲット分割結果を得るステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を予め分割し、予め分割結果を得るステップは、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1分割モデルに基づいて前記分割対象物を予め分割し、予め分割結果を得るステップを含み、前記第1分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、前記ターゲット分割結果を得るステップは、前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、ターゲット分割結果を得て、第2分割モデルに基づいて前記分割対象物を分割して、ターゲット分割結果を得るステップを含み、前記第2分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、前記第1分割モデルの分割速度は予め設定された分割速度よりも速く、前記第1分割モデルの分割精度は前記第2分割モデルよりも小さい。
本開示の1つ又は複数の実施例によれば、前記予め分割結果を表示するステップは、前記予め分割結果に対してストロークを行うステップと、前記予め分割結果のストロークを表示するステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記予め分割結果のストロークを表示するステップは、前記分割対象物の一部が前記分割対象物以外の他の物体により被覆される場合、前記分割対象物の被覆された部分のストロークを第1表示状態で表示し、前記分割対象物の被覆されていない部分のストロークを第2表示状態で表示するステップを含み、前記第1表示状態及び前記第2表示状態の表示属性は異なる。
本開示の1つ又は複数の実施例によれば、前記第1表示状態は半透明表示状態であり、前記第2表示状態は優性表示状態である。
本開示の1つ又は複数の実施例によれば、前記ターゲット分割結果を実際の環境に置くステップをさらに含む。
本開示の1つ又は複数の実施例によれば、ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップは、前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記カメラの視野範囲内において、実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップと、前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在する場合、前記ターゲット分割結果を前記平面に置くステップと、前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在しない場合、前記ターゲット分割結果を空間に置くステップであって、前記空間における置き位置と前記カメラとの間の距離は第2予め設定された距離とされるステップと、を含む。
本開示の1つ又は複数の実施例によれば、前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、前記ターゲット分割結果を得るステップの後に、前記方法は、ユーザによる前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記ユーザが前記ターゲット分割結果を確認したと特定し、且つ、前記カメラの視野範囲内において、前記実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップを実行するステップをさらに含む。
本開示の1つ又は複数の実施例によれば、ユーザによる前記ターゲット分割結果が位置する表示領域に対する前記トリガー操作は、前記ターゲット分割結果を予め設定された時間ドラッグした後に前記ターゲット分割結果を解放する操作を含む。
本開示の1つ又は複数の実施例によれば、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップの前に、前記方法は、撮影機能のトリガー操作に応答して、前記分割対象物の分割過程での画面を収集するステップをさらに含み、前記画面は前記カメラが撮影した実際の環境を含み、前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップは、前記分割対象物の分割過程での画面に基づいて、前記ビデオを生成するステップを含む。
本開示の1つ又は複数の実施例によれば、前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と前記カメラが撮影した実際の環境とを融合することで、ビデオを生成するステップは、撮影機能のトリガー操作、及び前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果及び融合対象のビデオシーンに基づいて、前記ビデオを生成するステップを含み、前記融合対象のビデオシーンは前記カメラが撮影した実際の環境以外のビデオシーンである。
本開示の1つ又は複数の実施例によれば、前記ターゲット分割結果を調整する前記トリガー操作は、縮小、拡大、移動、及び回転のうちの少なくとも1つを含む。
第2態様では、本開示の1つ又は複数の実施例によれば、ビデオ撮影装置を提供し、端末機器のカメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得ることに用いられる分割モジュールと、前記ターゲット分割結果を表示することに用いられる表示モジュールと、前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成することに用いられる融合モジュールと、を含む。
本開示の1つ又は複数の実施例によれば、前記装置は、収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれる場合、表示されている物体が分割対象物であると特定することに用いられる特定モジュールをさらに含む。
本開示の1つ又は複数の実施例によれば、分割モジュールは、具体的に、カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、分割対象物を予め分割し、予め分割結果を得ること、予め分割結果を表示すること、及び、予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、分割対象物を分割して、ターゲット分割結果を得ることに用いられる。
本開示の1つ又は複数の実施例によれば、分割モジュールは、具体的に、前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1分割モデルに基づいて前記分割対象物を予め分割し、予め分割結果を得ることに用いられ、前記第1分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、及び、前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、ターゲット分割結果を得て、第2分割モデルに基づいて前記分割対象物を分割して、ターゲット分割結果を得ることに用いられ、前記第2分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、前記第1分割モデルの分割速度は予め設定された分割速度よりも速く、前記第1分割モデルの分割精度は前記第2分割モデルよりも小さい。
本開示の1つ又は複数の実施例によれば、表示モジュールは、具体的に、前記予め分割結果に対してストロークを行うこと、及び、前記予め分割結果のストロークを表示することに用いられる。
本開示の1つ又は複数の実施例によれば、表示モジュールは、具体的に、前記分割対象物の一部が前記分割対象物以外の他の物体により被覆される場合、前記分割対象物の被覆された部分のストロークを第1表示状態で表示し、前記分割対象物の被覆されていない部分のストロークを第2表示状態で表示することに用いられ、前記第1表示状態及び前記第2表示状態の表示属性は異なる。
本開示の1つ又は複数の実施例によれば、前記第1表示状態は半透明表示状態であり、前記第2表示状態は優性表示状態である。
本開示の1つ又は複数の実施例によれば、融合モジュールは、具体的に、前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記カメラの視野範囲内において、実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出すること、前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在する場合、前記ターゲット分割結果を前記平面に置くこと、及び、前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在しない場合、前記ターゲット分割結果を空間に置くことであって、前記空間における置き位置と前記カメラとの間の距離は第2予め設定された距離とされることに用いられる。
本開示の1つ又は複数の実施例によれば、特定モジュールはさらに、ユーザによる前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記ユーザが前記ターゲット分割結果を確認したと特定し、且つ、前記カメラの視野範囲内において、前記実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップを実行することに用いられる。
本開示の1つ又は複数の実施例によれば、ユーザによる前記ターゲット分割結果が位置する表示領域に対する前記トリガー操作は、前記ターゲット分割結果を予め設定された時間ドラッグした後に前記ターゲット分割結果を解放する操作を含む。
本開示の1つ又は複数の実施例によれば、該装置は、撮影機能のトリガー操作に応答して、前記分割対象物の分割過程での画面を収集することに用いられる収集モジュールをさらに含み、前記画面は前記カメラが撮影した実際の環境を含み、融合モジュールは、具体的に、前記分割対象物の分割過程での画面に基づいて、前記ビデオを生成することに用いられる。
本開示の1つ又は複数の実施例によれば、融合モジュールは、具体的に、撮影機能のトリガー操作、及び前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果及び融合対象のビデオシーンに基づいて、前記ビデオを生成することに用いられ、前記融合対象のビデオシーンは前記カメラが撮影した実際の環境以外のビデオシーンである。
本開示の1つ又は複数の実施例によれば、前記ターゲット分割結果を調整する前記トリガー操作は、縮小、拡大、移動、及び回転のうちの少なくとも1つを含む。
第3態様では、本開示の1つ又は複数の実施例によれば、電子機器を提供し、少なくとも1つのプロセッサ及びメモリを含み、前記メモリはコンピュータ実行コマンドを記憶し、前記少なくとも1つのプロセッサは前記メモリに記憶されたコンピュータ実行コマンドを実行して、前記少なくとも1つのプロセッサは上記の第1態様及び第1態様の様々な可能性のある設計に記載の方法を実行する。
第4態様では、本開示の1つ又は複数の実施例によれば、コンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体にコンピュータ実行コマンドが記憶されており、プロセッサが前記コンピュータ実行コマンドを実行するときに、上記の第1態様及び第1態様の様々な可能性のある設計に記載の方法を実現する。
以上の説明は本開示の選択可能な実施例及び使用される技術原理の説明に過ぎない。当業者が理解すべきであるように、本開示に関わる開示範囲は、上記の技術的特徴の特定の組み合わせによる技術的解決手段に限定されず、同時に、上記開示の発想を逸脱することなく、上記技術的特徴又はその同等の特徴を任意に組み合わせて形成する他の技術的手段を含むべきである。例えば、上記特徴と本開示に開示されている(これに限定されない)類似の機能を有する技術的特徴とを互いに置き換えて形成される技術的解決手段が挙げられる。
また、特定の順序で各操作を説明したが、これらの操作が示された特定の順序又はシーケンシャルな順序で実行されることを要求すると理解されるべきではない。場合によっては、マルチタスク及び並列処理は有利である可能性がある。同様に、上記の説明にいくつかの具体的な実現の細部が含まれるが、これらは本開示の範囲の制限として解釈されるべきではない。単独の実施例のコンテキストに説明されるいくつかの特徴は、単一の実施例において組み合わせて実現されてもよい。逆に、単一の実施例のコンテキストに説明される様々な特徴は、単独で、又は任意の適切なサブコンビネーションの方式で複数の実施例において実現されてもよい。
構造特徴及び/又は方法ロジック動作に特定の言語で本主題を説明したが、添付の特許請求の範囲に限定された主題は以上に説明された特定の特徴又は動作に限定されるものではないと理解すべきである。逆に、以上に説明された特定の特徴及び動作は特許請求の範囲を実現する例示的な形態に過ぎない。

Claims (16)

  1. ビデオ撮影方法であって、端末機器に適用され、前記端末機器はカメラを含み、前記方法は、
    前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップと、
    前記ターゲット分割結果を表示するステップと、
    前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップと、を含み、
    前記した、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップは、
    同時位置決め地図作成(SLAM)技術によって前記ターゲット分割結果を前記カメラが撮影した実際の環境に置き、前記調整後のターゲット分割結果と前記カメラが撮影した前記実際の環境とを融合することを有する、
    ビデオ撮影方法。
  2. 前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップの前に、前記方法は、
    前記収集画面に表示されている物体が位置する画面領域に予め設定されたカーソルが含まれる場合、前記物体が前記分割対象物であると特定するステップをさらに含む請求項1に記載の方法。
  3. 前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップは、
    前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を予め分割し、予め分割結果を得るステップと、
    前記予め分割結果を表示するステップと、
    前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、前記ターゲット分割結果を得るステップと、を含む請求項1又は2に記載の方法。
  4. 前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を予め分割し、予め分割結果を得るステップは、
    前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、第1分割モデルに基づいて前記分割対象物を予め分割し、予め分割結果を得るステップを含み、前記第1分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、
    前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、前記ターゲット分割結果を得るステップは、
    前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、ターゲット分割結果を得て、第2分割モデルに基づいて前記分割対象物を分割して、ターゲット分割結果を得るステップを含み、前記第2分割モデルは複数の訓練画像に基づいてニューラルネットワークを訓練して得られ、各訓練画像は複数の物体を含み、
    前記第1分割モデルの分割速度は予め設定された分割速度よりも速く、前記第1分割モデルの分割精度は前記第2分割モデルよりも小さい請求項3に記載の方法。
  5. 前記予め分割結果を表示するステップは、
    前記予め分割結果に対してストロークを行うステップと、
    前記予め分割結果のストロークを表示するステップと、を含む請求項3又は4に記載の方法。
  6. 前記予め分割結果のストロークを表示するステップは、
    前記分割対象物の一部が前記分割対象物以外の他の物体により被覆される場合、前記分割対象物の被覆された部分のストロークを第1表示状態で表示し、前記分割対象物の被覆されていない部分のストロークを第2表示状態で表示するステップを含み、前記第1表示状態及び前記第2表示状態の表示属性は異なる請求項5に記載の方法。
  7. 前記第1表示状態は半透明表示状態であり、前記第2表示状態は優性表示状態である請求項6に記載の方法。
  8. ターゲット分割結果を調整するトリガー操作に応答して、調整後のターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップは、
    前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記カメラの視野範囲内において、前記実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップと、
    前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在する場合、前記ターゲット分割結果を前記平面に置くステップと、
    前記実際の環境に、前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在しない場合、前記ターゲット分割結果を空間に置くステップであって、前記空間における置き位置と前記カメラとの間の距離は第2予め設定された距離とされるステップと、を含む請求項3~7のいずれか1項に記載の方法。
  9. 前記予め分割結果が位置する表示領域内で行われたトリガー操作に応答して、前記分割対象物を分割して、前記ターゲット分割結果を得るステップの後に、前記方法は、
    ユーザによる前記ターゲット分割結果が位置する表示領域に対するトリガー操作を検出した場合、前記ユーザが前記ターゲット分割結果を確認したと特定し、且つ、前記カメラの視野範囲内において、前記実際の環境に前記カメラとの間の距離が第1予め設定された距離範囲内にある平面が存在するか否かを検出するステップを実行するステップをさらに含む請求項8に記載の方法。
  10. ユーザによる前記ターゲット分割結果が位置する表示領域に対する前記トリガー操作は、前記ターゲット分割結果を予め設定された時間ドラッグした後に前記ターゲット分割結果を解放する操作を含む請求項9に記載の方法。
  11. 前記カメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得るステップの前に、前記方法は、
    撮影機能のトリガー操作に応答して、前記分割対象物の分割過程での画面を収集するステップをさらに含み、前記画面は前記カメラが撮影した前記実際の環境を含み、
    前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成するステップは、
    前記分割対象物の分割過程での画面に基づいて、前記ビデオを生成するステップを含む請求項1~7のいずれか1項に記載の方法。
  12. 前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と前記カメラが撮影した実際の環境とを融合することで、ビデオを生成するステップは、
    撮影機能のトリガー操作、及び前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果及び融合対象のビデオシーンに基づいて、前記ビデオを生成するステップを含み、前記融合対象のビデオシーンは前記カメラが撮影した実際の環境以外のビデオシーンである請求項1~7のいずれか1項に記載の方法。
  13. 前記ターゲット分割結果を調整する前記トリガー操作は、
    縮小、拡大、移動、及び回転のうちの少なくとも1つを含む請求項1~12のいずれか1項に記載の方法。
  14. ビデオ撮影装置であって、
    端末機器のカメラの収集画面に提示されている複数の物体から分割対象物を選択する入力イベントに応答して、前記分割対象物を分割して、ターゲット分割結果を得ることに用いられる分割モジュールと、
    前記ターゲット分割結果を表示することに用いられる表示モジュールと、
    前記ターゲット分割結果を調整するトリガー操作に応答して、調整後の前記ターゲット分割結果と融合対象のビデオシーンとを融合することで、ビデオを生成することに用いられる融合モジュールと、を含み、
    前記調整後のターゲット分割結果と前記融合対象のビデオシーンとを融合することで前記ビデオを生成することは、
    同時位置決め地図作成(SLAM)技術によって前記ターゲット分割結果を前記カメラが撮影した実際の環境に置き、前記調整後のターゲット分割結果と前記カメラが撮影した前記実際の環境とを融合することを有する、
    ビデオ撮影装置。
  15. 電子機器であって、少なくとも1つのプロセッサ及びメモリを含み、
    前記メモリはコンピュータ実行コマンドを記憶し、
    前記少なくとも1つのプロセッサは前記メモリに記憶されたコンピュータ実行コマンドを実行して、前記少なくとも1つのプロセッサは請求項1~13のいずれか1項に記載の方法を実行する電子機器。
  16. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータ実行コマンドが記憶されており、プロセッサが前記コンピュータ実行コマンドを実行するときに、請求項1~13のいずれか1項に記載の方法を実現するコンピュータ可読記憶媒体。
JP2023503179A 2020-09-09 2021-08-30 ビデオ撮影方法、装置、機器及び記憶媒体 Active JP7540073B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010937922.0 2020-09-09
CN202010937922.0A CN112037227B (zh) 2020-09-09 2020-09-09 视频拍摄方法、装置、设备及存储介质
PCT/SG2021/050519 WO2022055424A2 (zh) 2020-09-09 2021-08-30 视频拍摄方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023534972A JP2023534972A (ja) 2023-08-15
JP7540073B2 true JP7540073B2 (ja) 2024-08-26

Family

ID=73583960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023503179A Active JP7540073B2 (ja) 2020-09-09 2021-08-30 ビデオ撮影方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
US (1) US12041374B2 (ja)
EP (1) EP4170588A4 (ja)
JP (1) JP7540073B2 (ja)
CN (1) CN112037227B (ja)
WO (1) WO2022055424A2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114329221A (zh) * 2021-12-31 2022-04-12 钻技(上海)信息科技有限公司 一种商品搜索方法、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096757A (ja) 2012-11-12 2014-05-22 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2014131281A (ja) 2012-12-28 2014-07-10 Samsung Electronics Co Ltd 合成イメージを撮影する撮影装置及びその方法
US20140232743A1 (en) 2013-02-21 2014-08-21 Samsung Electronics Co., Ltd. Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
JP2015060366A (ja) 2013-09-18 2015-03-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN109286760A (zh) 2018-09-28 2019-01-29 上海连尚网络科技有限公司 一种娱乐视频制作方法及其终端
CN110290425A (zh) 2019-07-29 2019-09-27 腾讯科技(深圳)有限公司 一种视频处理方法、装置及存储介质
JP2020048025A (ja) 2018-09-18 2020-03-26 富士フイルム株式会社 撮影装置、撮影装置の作動プログラム及び作動方法
CN111093026A (zh) 2019-12-30 2020-05-01 维沃移动通信(杭州)有限公司 视频处理方法、电子设备及计算机可读存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2357796A3 (en) * 2002-05-28 2013-05-15 Casio Computer Co., Ltd. Composite image output apparatus and composite image delivery apparatus
EP2299726B1 (en) * 2008-06-17 2012-07-18 Huawei Device Co., Ltd. Video communication method, apparatus and system
CN101588459B (zh) * 2009-06-26 2011-01-05 北京交通大学 一种视频抠像处理方法
CN106952276A (zh) 2017-03-20 2017-07-14 成都通甲优博科技有限责任公司 一种图像抠图方法及装置
CN106997618A (zh) * 2017-04-14 2017-08-01 陈柳华 一种虚拟现实与真实场景融合的方法
CN109325933B (zh) * 2017-07-28 2022-06-21 阿里巴巴集团控股有限公司 一种翻拍图像识别方法及装置
CN107481261B (zh) 2017-07-31 2020-06-16 中国科学院长春光学精密机械与物理研究所 一种基于深度前景跟踪的彩色视频抠图方法
CN111316627B (zh) * 2017-09-06 2022-09-16 深圳传音通讯有限公司 一种拍摄方法、用户终端及计算机可读存储介质
CN107623824B (zh) * 2017-09-11 2019-08-20 Oppo广东移动通信有限公司 背景图像处理方法、装置和电子设备
CN111316628A (zh) * 2017-11-08 2020-06-19 深圳传音通讯有限公司 一种基于智能终端的图像拍摄方法及图像拍摄系统
CN107920202B (zh) * 2017-11-15 2020-02-21 阿里巴巴集团控股有限公司 基于增强现实的视频处理方法、装置及电子设备
US10122969B1 (en) * 2017-12-07 2018-11-06 Microsoft Technology Licensing, Llc Video capture systems and methods
CN111064905B (zh) * 2018-10-17 2021-05-11 上海交通大学 面向自动驾驶的视频场景转换方法
WO2020097212A1 (en) * 2018-11-06 2020-05-14 Lucasfilm Entertainment Company Ltd. Immersive content production system
CN109542307B (zh) * 2018-11-27 2021-12-03 维沃移动通信(杭州)有限公司 一种图像处理方法、设备和计算机可读存储介质
CN110517187A (zh) * 2019-08-30 2019-11-29 王�琦 广告生成方法、装置及系统
CN112822387A (zh) * 2019-11-15 2021-05-18 摩托罗拉移动有限责任公司 来自前置摄像头和后置摄像头的组合图像
CN111292337B (zh) * 2020-01-21 2024-03-01 广州虎牙科技有限公司 图像背景替换方法、装置、设备及存储介质
CN111447389B (zh) * 2020-04-22 2022-11-04 广州酷狗计算机科技有限公司 视频生成方法、装置、终端及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096757A (ja) 2012-11-12 2014-05-22 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2014131281A (ja) 2012-12-28 2014-07-10 Samsung Electronics Co Ltd 合成イメージを撮影する撮影装置及びその方法
US20140232743A1 (en) 2013-02-21 2014-08-21 Samsung Electronics Co., Ltd. Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
JP2015060366A (ja) 2013-09-18 2015-03-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2020048025A (ja) 2018-09-18 2020-03-26 富士フイルム株式会社 撮影装置、撮影装置の作動プログラム及び作動方法
CN109286760A (zh) 2018-09-28 2019-01-29 上海连尚网络科技有限公司 一种娱乐视频制作方法及其终端
CN110290425A (zh) 2019-07-29 2019-09-27 腾讯科技(深圳)有限公司 一种视频处理方法、装置及存储介质
CN111093026A (zh) 2019-12-30 2020-05-01 维沃移动通信(杭州)有限公司 视频处理方法、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN112037227B (zh) 2024-02-20
US12041374B2 (en) 2024-07-16
WO2022055424A3 (zh) 2022-05-05
EP4170588A4 (en) 2023-08-23
EP4170588A2 (en) 2023-04-26
CN112037227A (zh) 2020-12-04
US20230131151A1 (en) 2023-04-27
WO2022055424A2 (zh) 2022-03-17
JP2023534972A (ja) 2023-08-15

Similar Documents

Publication Publication Date Title
CN108415705B (zh) 网页生成方法、装置、存储介质及设备
CN111240673B (zh) 互动图形作品生成方法、装置、终端及存储介质
CN110321048B (zh) 三维全景场景信息处理、交互方法及装置
CN112907760B (zh) 三维对象的标注方法及装置、工具、电子设备和存储介质
EP4246435A1 (en) Display method and apparatus based on augmented reality, and device and storage medium
EP4273808A1 (en) Method and apparatus for publishing video, device, and medium
WO2020220773A1 (zh) 图片预览信息的显示方法、装置、电子设备及计算机可读存储介质
JP2023540753A (ja) ビデオ処理方法、端末機器及び記憶媒体
EP4343580A1 (en) Media file processing method and apparatus, device, readable storage medium, and product
WO2024067144A1 (zh) 图像处理方法、装置、设备、计算机可读存储介质及产品
CN111191176A (zh) 网站内容更新方法、装置、终端及存储介质
US20240103928A1 (en) Information processing method and apparatus for animation resource, device, medium and product
CN113747199A (zh) 视频编辑方法、装置、电子设备、存储介质及程序产品
JP7540073B2 (ja) ビデオ撮影方法、装置、機器及び記憶媒体
CN109771950B (zh) 节点地图的设置方法、设备及存储介质
WO2024179322A1 (zh) 图像处理方法、装置、设备及存储介质
CN112230910A (zh) 嵌入型程序的页面生成方法、装置、设备及存储介质
KR102161437B1 (ko) 증강현실의 공간맵을 이용한 콘텐츠 공유 장치 및 그 방법
CN109636917A (zh) 三维模型的生成方法、装置、硬件装置
CN109472873B (zh) 三维模型的生成方法、装置、硬件装置
KR20170139202A (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
CN111597293A (zh) 文档目录的显示方法、装置、设备及可读存储介质
KR20180020187A (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
CN110070600B (zh) 三维模型的生成方法、装置、硬件装置
WO2024078409A1 (zh) 图像预览方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240814

R150 Certificate of patent or registration of utility model

Ref document number: 7540073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150