JP7467780B2 - Image processing method, apparatus, device and medium - Google Patents

Image processing method, apparatus, device and medium Download PDF

Info

Publication number
JP7467780B2
JP7467780B2 JP2023548283A JP2023548283A JP7467780B2 JP 7467780 B2 JP7467780 B2 JP 7467780B2 JP 2023548283 A JP2023548283 A JP 2023548283A JP 2023548283 A JP2023548283 A JP 2023548283A JP 7467780 B2 JP7467780 B2 JP 7467780B2
Authority
JP
Japan
Prior art keywords
video image
motion state
material object
target
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023548283A
Other languages
Japanese (ja)
Other versions
JP2024505597A (en
Inventor
イエ,シンジン
ウ,ジュンション
リュ,ハイタオ
ガオ,シイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Publication of JP2024505597A publication Critical patent/JP2024505597A/en
Application granted granted Critical
Publication of JP7467780B2 publication Critical patent/JP7467780B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本出願は、2021年02月09日に中国国家知識産権局に提出された、出願番号が202110180571.8であって、出願の名称が「画像処理方法、装置、デバイス及び媒体」である中国特許出願に基づく優先権を主張するものであり、その全内容を援用により本出願に組み込む。
[技術分野]
本開示は、マルチメディア技術の分野に関し、特に、画像処理方法、装置、デバイス及び媒体、プログラム製品に関する。
CROSS-REFERENCE TO RELATED APPLICATIONS This application claims priority to a Chinese patent application bearing application number 202110180571.8 and entitled "Image Processing Method, Apparatus, Device and Medium" filed with the State Intellectual Property Office of China on February 9, 2021, the entire contents of which are incorporated herein by reference.
[Technical field]
The present disclosure relates to the field of multimedia technology, and in particular to an image processing method, apparatus, device, medium, and program product.

コンピュータ技術及び移動通信技術の急速な発展に伴い、電子デバイスに基づいた各種のビデオプラットフォームが広く使用されており、人々の日常生活を大いに充実する。ますます多くのユーザは、他のユーザが視聴するように、ビデオプラットフォームで自分のビデオ作品を喜んで共有する。 With the rapid development of computer technology and mobile communication technology, various video platforms based on electronic devices have been widely used, greatly enriching people's daily lives. More and more users are willing to share their own video works on video platforms for other users to watch.

ビデオを作成する場合、ユーザはまず、素材に対して一連の複雑な素材編集操作を行う必要があり、そして、編集後の素材に対してビデオクリップ操作を行い、最終的に1つのビデオ作品を生成する。ユーザは素材の編集が得意でないと、ビデオ作成の時間コストが高くなるだけでなく、ビデオ作品の品質も保証できず、ユーザの体験を低下させる。 When creating a video, a user must first perform a series of complex material editing operations on the material, then perform video clip operations on the edited material, and finally generate a video work. If a user is not good at editing materials, not only will the time cost of video creation be high, but the quality of the video work cannot be guaranteed, resulting in a poor user experience.

上述した技術的課題を解決するために、または、上述した技術的課題を少なくとも部分的に解決するために、本開示は、画像処理方法、装置、デバイス、媒体及びコンピュータプログラム製品を提供する。 To solve the above-mentioned technical problem, or to at least partially solve the above-mentioned technical problem, the present disclosure provides an image processing method, an apparatus, a device, a medium, and a computer program product.

第1態様によれば、本開示は、画像処理方法であって、
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するステップと、
第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定するステップと、
素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得るステップと、
素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得るステップと、を含み、
第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像である方法を提供する。
According to a first aspect, the present disclosure provides an image processing method, comprising:
identifying a motion state of a first recognition object in an initial video image;
Identifying a motion state of a material object based on a motion state of a first recognition object;
if the motion state of the material object belongs to a first state, synthesizing the material object with the first style video image according to the motion state of the material object to obtain a first target video image;
if the motion state of the material object belongs to a second state, synthesizing the material object with the second style video image according to the motion state of the material object to obtain a second target video image;
The method provides for the first style video image and the second style video image to be different stylized images derived based on an initial video image.

第2態様によれば、本開示は、画像処理装置であって、
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するように配置される第1処理ユニットと、
第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定するように配置される第2処理ユニットと、
素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得るように配置される第1合成ユニットと、
素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得るように配置される第2合成ユニットと、を含み、
第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像である装置を提供する。
According to a second aspect, the present disclosure provides an image processing device,
a first processing unit arranged to identify a motion state of a first recognition object in an initial video image;
a second processing unit arranged to determine a motion state of the material object based on the motion state of the first recognition object;
a first synthesis unit, configured to synthesize the material object and the first style video image according to the motion state of the material object to obtain a first target video image when the motion state of the material object belongs to a first state;
a second synthesis unit, configured to synthesize the material object and the second style video image according to the motion state of the material object to obtain a second target video image when the motion state of the material object belongs to a second state;
The apparatus provides a first style video image and a second style video image, which are different stylized images derived based on an initial video image.

第3態様によれば、本開示は、画像処理デバイスであって、
プロセッサと、
実行可能な指令を記憶するためのメモリと、
を含み、
プロセッサは、第1態様に記載の画像処理方法を実現するように、メモリから実行可能な指令を読み取って実行するために用いられる画像処理デバイスを提供する。
According to a third aspect, the present disclosure provides an image processing device, comprising:
A processor;
a memory for storing executable instructions;
Including,
The processor provides an image processing device that is adapted to read and execute executable instructions from the memory so as to implement the image processing method according to the first aspect.

第4態様によれば、本開示は、プロセッサによって実行されるとき、第1態様に記載の画像処理方法をプロセッサに実現させるコンピュータプログラムが記憶されているコンピュータ可読記憶媒体を提供する。 According to a fourth aspect, the present disclosure provides a computer-readable storage medium storing a computer program that, when executed by a processor, causes the processor to realize the image processing method described in the first aspect.

第5態様によれば、本開示は、デバイス上で実行されるとき、上記の第1態様に記載の画像処理方法をデバイスに実行させる、指令を含むコンピュータプログラム製品を提供する。 According to a fifth aspect, the present disclosure provides a computer program product including instructions that, when executed on a device, cause the device to perform the image processing method described in the first aspect above.

本開示の実施例によって提供される技術案は、従来技術と比較すれば、以下のような利点を有する。
本開示の実施例の画像処理方法、装置、デバイス及び媒体は、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定し、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定し、そして、素材オブジェクトの動き状態を判断し、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得ることができるので、自動的にビデオ素材としての初期ビデオ画像に対して素材編集を行って編集後の合成画像を得ることができ、ユーザが素材編集を手動で行う必要がなく、これにより、ビデオ作成の時間コストを削減し、ビデオ作品の品質を向上させ、ユーザの体験を向上させることができる。
Compared with the prior art, the technical solutions provided by the embodiments of the present disclosure have the following advantages:
The image processing method, apparatus, device, and medium of the embodiments of the present disclosure identify a motion state of a first recognition object in an initial video image, identify a motion state of a material object based on the motion state of the first recognition object, and determine the motion state of the material object. If the motion state of the material object belongs to the first state, the material object and a first style video image are combined according to the motion state of the material object to obtain a first target video image. If the motion state of the material object belongs to the second state, the material object and a second style video image are combined according to the motion state of the material object to obtain a second target video image. Therefore, material editing can be automatically performed on the initial video image as a video material to obtain an edited composite image, and the user does not need to manually perform material editing. This can reduce the time cost of video production, improve the quality of video works, and improve the user experience.

本開示の各実施例の上記及び他の特徴、利点、並びに態様は、添付の図面と併せて以下の具体的な実施形態を参照することによってより明らかになる。図面全体を通して、同一または類似の符号は、同一または類似の要素を示す。ここで、図面は、概略的なものであり、部品及び要素は必ずしも一定の縮尺で描かれているわけではない。
本開示の実施例による画像処理方法の概略フローチャートである。 本開示の実施例による別の画像処理方法の概略フローチャートである。 本開示の実施例によるさらに別の画像処理方法の概略フローチャートである。 本開示の実施例による画像処理プロセスの概略フローチャートである。 本開示の実施例による画像処理装置の構成概略図である。 本開示の実施例による画像処理デバイスの構成概略図である。
The above and other features, advantages, and aspects of each embodiment of the present disclosure will become more apparent by reference to the following specific embodiments in conjunction with the accompanying drawings, in which the same or similar reference numerals refer to the same or similar elements throughout the drawings, where the drawings are schematic and parts and elements are not necessarily drawn to scale.
1 is a schematic flow chart of an image processing method according to an embodiment of the present disclosure. 1 is a schematic flow chart of another image processing method according to an embodiment of the present disclosure. 13 is a schematic flow chart of yet another image processing method according to an embodiment of the present disclosure. 1 is a schematic flow chart of an image processing process according to an embodiment of the present disclosure. 1 is a schematic diagram illustrating a configuration of an image processing device according to an embodiment of the present disclosure. FIG. 1 is a schematic diagram of an image processing device according to an embodiment of the present disclosure.

以下、図面を参照しながら本開示の実施例についてより詳しく説明する。本開示のいくつかの実施例は図面に示されているが、本開示は様々な形態で実現されることができ、本明細書に記載の実施例に制限されるものと解釈されるべきではなく、むしろ、これらの実施例は本開示をより深くかつ完全に理解するために提供されることを理解されたい。また、本開示の図面及び実施例は、例示的な目的のためにのみ使用され、本開示の保護範囲を制限することを意図するものではないことは理解されるべきである。 Hereinafter, the embodiments of the present disclosure will be described in more detail with reference to the drawings. Although some embodiments of the present disclosure are shown in the drawings, it should be understood that the present disclosure can be realized in various forms and should not be construed as being limited to the embodiments described herein, but rather, these embodiments are provided for a deeper and more complete understanding of the present disclosure. It should also be understood that the drawings and embodiments of the present disclosure are used for illustrative purposes only and are not intended to limit the scope of protection of the present disclosure.

本開示の方法の実施形態に記載される各ステップは、異なる順序に従って実行され、及び/または並行して実行されることが理解されるべきである。また、方法の実施形態は、追加のステップを含み、及び/または図示されるステップの実行を省略し得る。本開示の範囲はこの点に関して限定されない。 It should be understood that the steps described in the method embodiments of the present disclosure may be performed in different orders and/or in parallel. Also, method embodiments may include additional steps and/or omit the performance of steps that are illustrated. The scope of the present disclosure is not limited in this respect.

本明細書で使用される「含む」という用語及びその変形は、自由形式の包含、即ち、「含むがこれらに限定されない」という意味である。「に基づく」という用語は、「少なくとも部分的に基づく」という意味である。「一実施例」という用語は、「少なくとも1つの実施例」を意味し、「別の実施例」という用語は、「少なくとも1つの別の実施形態」を意味し、「いくつかの実施例」という用語は、「少なくともいくつかの実施例」を意味する。他の用語の関連する定義は、以下で説明される。 As used herein, the term "including" and variations thereof mean an open-ended inclusion, i.e., "including but not limited to." The term "based on" means "based at least in part on." The term "one embodiment" means "at least one embodiment," the term "another embodiment" means "at least one alternative embodiment," and the term "some embodiments" means "at least some embodiments." Relevant definitions of other terms are provided below.

なお、本開示で言及される「第1」、「第2」などの概念は、異なる装置、モジュール又はユニットを区別するためにのみ使用され、これらの装置、モジュール、又はユニットによって実行される機能の順序又は相互依存関係を限定することを意図するものでもない。 Note that concepts such as "first" and "second" referred to in this disclosure are used only to distinguish different devices, modules, or units, and are not intended to limit the order or interdependence of functions performed by these devices, modules, or units.

なお、本開示で言及される「1つ」、「複数」の修飾は限定ではなく、例示的なものであり、当業者であれば理解できるように、本明細書において特に指摘されない限り、「1つ又は複数」として理解されるべきである。 Note that the modifications "one" and "multiple" referred to in this disclosure are illustrative rather than limiting, and should be understood as "one or multiple" unless otherwise indicated herein, as would be understood by one of ordinary skill in the art.

本開示の実施形態における複数の装置の間でやり取りされるメッセージ又は情報の名称は、これらのメッセージ又は情報の範囲を限定することを意図するものではなく、説明する目的のためだけである。 The names of messages or information exchanged between devices in the embodiments of the present disclosure are not intended to limit the scope of these messages or information, but are for illustrative purposes only.

現在、ビデオを作成する場合、ユーザはまず、素材に対して一連の複雑な素材編集操作を行う必要があり、そして、編集後の素材に対してビデオクリップ操作を行い、最終的に1つのビデオ作品を生成する。ユーザは素材の編集が得意でないと、ビデオ作成の時間コストが高くなるだけでなく、ビデオ作品の品質も保証できず、ユーザの体験を低下させる。 Currently, when creating a video, users must first perform a series of complex material editing operations on the material, then perform video clip operations on the edited material, and finally generate a video work. If users are not good at editing materials, not only will the time cost of video creation be high, but the quality of the video work cannot be guaranteed, resulting in a poor user experience.

上記の問題を解決するために、本開示の実施例は、自動的にビデオ素材に対して素材編集を行うことができる画像処理方法、装置、デバイス及び媒体を提供する。 To solve the above problems, the embodiments of the present disclosure provide an image processing method, apparatus, device, and medium that can automatically perform material editing on video material.

以下、まず、図1を参照して本開示の実施例による画像処理方法を説明する。 Below, we will first explain the image processing method according to an embodiment of the present disclosure with reference to Figure 1.

本開示のいくつかの実施例では、当該画像処理方法は、電子デバイスによって実行されてもよい。電子デバイスは、携帯電話、タブレット、デスクトップコンピュータ、ノートパソコン、車載端末、ウェアラブル電子デバイス、複合機、スマートホームデバイスなどの通信機能を有するデバイスを含んでもよく、仮想マシンまたはシミュレータによってシミュレートされたデバイスであってもよい。 In some embodiments of the present disclosure, the image processing method may be performed by an electronic device. The electronic device may include a device having a communication function, such as a mobile phone, a tablet, a desktop computer, a laptop, an in-vehicle terminal, a wearable electronic device, a multifunction printer, or a smart home device, or may be a device simulated by a virtual machine or a simulator.

図1は、本開示の実施例による画像処理方法の概略フローチャートを示す。 Figure 1 shows a schematic flowchart of an image processing method according to an embodiment of the present disclosure.

図1に示すように、当該画像処理方法は、ステップS110~S140を含む。 As shown in FIG. 1, the image processing method includes steps S110 to S140.

ステップS110、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定する。 Step S110: Identify the motion state of the first recognition object in the initial video image.

本開示の実施例では、電子デバイスは、初期ビデオ画像を取得した後、オブジェクト検出方法に基づいて、初期ビデオ画像における第1認識オブジェクトに対して動き分析を行って、第1認識オブジェクトの動き状態を特定することができる。 In an embodiment of the present disclosure, after acquiring an initial video image, the electronic device can perform motion analysis on a first recognition object in the initial video image based on an object detection method to identify a motion state of the first recognition object.

いくつかの実施例では、初期ビデオ画像は、撮影が既に完了したビデオにおけるビデオ画像であってもよい。例えば、初期ビデオ画像は、電子デバイスのローカルに記憶されたビデオ、他の電子デバイスから送信されたビデオ、またはインターネットでのビデオなどにおけるビデオ画像であってもよい。 In some embodiments, the initial video image may be a video image from a video that has already been captured. For example, the initial video image may be a video image from a video stored locally on the electronic device, a video transmitted from another electronic device, a video on the Internet, etc.

別のいくつかの実施例では、初期ビデオ画像は、電子デバイスによってリアルタイムに撮影されたビデオ画像であってもよい。 In some other embodiments, the initial video image may be a video image captured in real time by an electronic device.

任意選択で、本開示の実施例では、初期ビデオ画像が、電子デバイスによってリアルタイムに撮影されたビデオ画像である場合、拡張現実(AR、Augmented Reality)技術に基づいて、スクリーン上で仮想世界と現実世界とを結合して、ビデオ素材に対する素材編集を実現することで、ユーザとインタラクションする効果を達成することができる。 Optionally, in an embodiment of the present disclosure, when the initial video image is a video image captured in real time by an electronic device, the virtual world and the real world can be combined on the screen based on Augmented Reality (AR) technology to realize material editing of the video material, thereby achieving the effect of interacting with the user.

本開示の実施例では、第1認識オブジェクトは、実際の必要に応じて予め設定されてもよく、ここでは限定されない。 In the embodiment of the present disclosure, the first recognition object may be preset according to actual needs and is not limited here.

いくつかの実施例では、第1認識オブジェクトは、人物、動物、または事物のいずれかを含むことができる。 In some embodiments, the first recognition object may include any of a person, an animal, or an object.

第1認識オブジェクトが人物であることを例として、第1認識オブジェクトの動き状態とは、人物の全体的な動き状態を指すことができる。 For example, if the first recognition object is a person, the movement state of the first recognition object can refer to the overall movement state of the person.

別のいくつかの実施例では、第1認識オブジェクトは、任意の身体部位を含んでもよい。 In some other embodiments, the first recognition object may include any body part.

第1認識オブジェクトが手であることを例として、第1認識オブジェクトの動き状態とは、手の動き状態を指すことができる。 For example, if the first recognition object is a hand, the movement state of the first recognition object can refer to the movement state of the hand.

本開示の実施例では、第1認識オブジェクトの動き状態が属する動きタイプは、実際の必要に応じて予め設定されてもよく、ここでは限定されない。 In the embodiment of the present disclosure, the motion type to which the motion state of the first recognition object belongs may be preset according to actual needs and is not limited here.

任意選択で、第1認識オブジェクトの動き状態は、第1認識オブジェクトのターゲット移動方向に沿った移動状態と、第1認識オブジェクトのターゲットオブジェクト姿勢への姿勢変化状態と、第1認識オブジェクトのターゲット回転方向に沿った回転状態と、のいずれか1つを含んでもよい。 Optionally, the motion state of the first recognition object may include any one of a movement state of the first recognition object along a target movement direction, a posture change state of the first recognition object to a target object posture, and a rotation state of the first recognition object along a target rotation direction.

いくつかの実施例では、ターゲット移動方向は、実際の必要に応じて予め設定されてもよく、ここでは限定されない。例えば、ターゲット移動方向は、ビデオ画像内の任意角度の奥行き方向であってもよい。さらに例えば、ターゲット移動方向は、ビデオ画像平面内の任意角度の方向であってもよい。 In some embodiments, the target movement direction may be preset according to actual needs and is not limited here. For example, the target movement direction may be a depth direction of any angle in the video image. For further example, the target movement direction may be a direction of any angle in the video image plane.

これらの実施例では、ターゲット移動方向に沿った移動状態は、ターゲット移動方向に沿った移動距離を含んでもよい。 In these examples, the movement state along the target movement direction may include the movement distance along the target movement direction.

ターゲットオブジェクトが手、ターゲット移動方向がビデオ画像に垂直な奥行き方向である場合、第1認識オブジェクトの動き状態は、ビデオ画像に垂直な奥行き方向に沿った手の移動距離であってもよい。 When the target object is a hand and the target movement direction is a depth direction perpendicular to the video image, the movement state of the first recognition object may be the movement distance of the hand along the depth direction perpendicular to the video image.

別のいくつかの実施例では、ターゲットオブジェクト姿勢は、実際の必要に応じて予め設定されてもよく、ここでは限定されない。 In some other embodiments, the target object pose may be preset according to actual needs, and is not limited here.

これらの実施例では、ターゲットオブジェクト姿勢への姿勢変化状態は、ターゲットオブジェクト姿勢への姿勢変化量を含んでもよい。 In these embodiments, the pose change state for the target object pose may include an amount of pose change for the target object pose.

ターゲットオブジェクトが手、ターゲットオブジェクト姿勢が手のひらを開く姿勢である場合、第1認識オブジェクトの動き状態は、手のひらを開く姿勢への手姿勢の姿勢変化量であってもよい。 When the target object is a hand and the target object posture is an open palm posture, the movement state of the first recognition object may be the posture change amount of the hand posture toward the open palm posture.

さらにいくつかの実施例では、ターゲット回転方向は、実際の必要に応じて予め設定されてもよく、ここでは限定されない。 Furthermore, in some embodiments, the target rotation direction may be preset according to actual needs and is not limited here.

例えば、ターゲット回転方向は、ビデオ画像の奥行き方向における任意角度での時計回り方向または反時計回り方向であってもよい。さらに例えば、ターゲット方向は、ビデオ画像平面内での時計回り方向または反時計回り方向であってもよい。 For example, the target rotation direction may be a clockwise or counterclockwise direction at any angle in the depth direction of the video image. For further example, the target direction may be a clockwise or counterclockwise direction in the plane of the video image.

これらの実施例では、ターゲット回転方向に沿った回転状態は、ターゲット回転方向に沿った回転角度を含んでもよい。 In these embodiments, the rotational state along the target rotation direction may include a rotation angle along the target rotation direction.

ターゲットオブジェクトが手、ターゲット回転方向がビデオ画像平面内での時計回り方向である場合、第1認識オブジェクトの動き状態は、手がビデオ画像平面内において回転する回転角度であってもよい。 When the target object is a hand and the target rotation direction is a clockwise direction in the video image plane, the motion state of the first recognition object may be the rotation angle that the hand rotates in the video image plane.

ステップS120、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定する。 Step S120: Identify the movement state of the material object based on the movement state of the first recognition object.

本開示の実施例では、電子デバイスは、第1認識オブジェクトの動き状態を特定した後、第1認識オブジェクトの動き状態での素材オブジェクトの動き状態を特定することができる。 In an embodiment of the present disclosure, the electronic device can determine the motion state of the material object in the motion state of the first recognition object after determining the motion state of the first recognition object.

本開示の実施例では、素材オブジェクトの動き状態は、第2認識オブジェクトに対する素材オブジェクトの位置関係変化状態であってもよい。 In an embodiment of the present disclosure, the movement state of the material object may be a change state of the positional relationship of the material object with respect to the second recognition object.

素材オブジェクトの動き状態は、実際の必要に応じて予め設定されてもよく、ここでは限定されない。例えば、素材オブジェクトの動き状態は、ターゲット傾斜方向における第2認識オブジェクトとのなす夾角変化状態、第2認識オブジェクトに対するレイヤ変化状態、及び画像平面内の第2認識オブジェクトに対する位置変化状態などのうちの少なくとも1つを含んでもよい。 The movement state of the material object may be preset according to actual needs and is not limited here. For example, the movement state of the material object may include at least one of an included angle change state with respect to the second recognition object in the target tilt direction, a layer change state with respect to the second recognition object, and a position change state with respect to the second recognition object in the image plane.

第2認識オブジェクトは、実際の必要に応じて予め設定されてもよく、ここでは限定されない。例えば、第2認識オブジェクトは、例えば人物や動物のような画像本体であってもよい。 The second recognition object may be preset according to actual needs and is not limited here. For example, the second recognition object may be an image body such as a person or an animal.

いくつかの実施例では、ターゲット傾斜方向は、実際の必要に応じて予め設定されてもよく、ここでは限定されない。例えば、ターゲット傾斜方向は、ビデオ画像内の任意角度の奥行き方向であってもよい。さらに例えば、ターゲット傾斜方向は、ビデオ画像平面内の任意角度の方向であってもよい。 In some embodiments, the target tilt direction may be preset according to actual needs and is not limited here. For example, the target tilt direction may be a depth direction of any angle in the video image. For further example, the target tilt direction may be a direction of any angle in the video image plane.

これらの実施例では、ターゲット傾斜方向における第2認識オブジェクトとのなす夾角状態は、ターゲット傾斜方向における第2認識オブジェクトとのなす夾角角度を含んでもよい。 In these embodiments, the included angle state with respect to the second recognition object in the target tilt direction may include the included angle with respect to the second recognition object in the target tilt direction.

別のいくつかの実施例では、第2認識オブジェクトに対するレイヤ状態は、第2認識オブジェクトに対するレイヤ位置を含んでもよい。 In some other embodiments, the layer state for the second recognition object may include a layer position for the second recognition object.

例えば、第2認識オブジェクトに対するレイヤ位置は、第2認識オブジェクトの前景または後景を含んでもよい。 For example, the layer position for the second recognition object may include the foreground or background of the second recognition object.

さらにいくつかの実施例では、第2認識オブジェクトに対する画像平面内での位置状態は、第2認識オブジェクトに対する画像平面内での相対距離を含んでもよい。 Furthermore, in some embodiments, the positional state in the image plane for the second recognition object may include a relative distance in the image plane for the second recognition object.

本開示の実施例では、素材オブジェクトは、実際の必要に応じて予め設定されてもよく、ここでは限定されない。 In the embodiment of the present disclosure, the material objects may be preset according to actual needs and are not limited here.

例えば、素材オブジェクトはシーン飾り特殊効果であってもよい。さらに例えば、素材オブジェクトは、グリーティングカード飾り特殊効果であってもよい。 For example, the material object may be a scene decoration special effect. For further example, the material object may be a greeting card decoration special effect.

いくつかの実施例では、素材オブジェクトは、動く素材オブジェクトを含んでもよい。この場合、素材オブジェクトの動き状態は、動く素材オブジェクトの動き状態であってもよい。 In some embodiments, the material object may include a moving material object. In this case, the motion state of the material object may be the motion state of the moving material object.

例えば、動く素材オブジェクトは、動き可能なグリーティングカードフレーム特殊効果を含んでもよい。 For example, the animated material object may include a movable greeting card frame special effect.

動く素材オブジェクトがグリーティングカードフレーム特殊効果、第2認識オブジェクトが人物であることを例として、素材オブジェクトの動き状態は、グリーティングカードフレーム特殊効果がビデオ画像に垂直な奥行き方向へ傾斜する過程において人物との間の夾角角度であれば、第1認識オブジェクトの動きに伴って、グリーティングカードフレーム特殊効果と人物との間の夾角角度も変化し、グリーティングカードフレーム特殊効果の倒れ及び立ち上がり効果を実現することができる。 For example, if the moving material object is a greeting card frame special effect and the second recognition object is a person, the movement state of the material object is the included angle between the person and the greeting card frame special effect as the greeting card frame special effect tilts in the depth direction perpendicular to the video image. With the movement of the first recognition object, the included angle between the greeting card frame special effect and the person also changes, and the effect of the greeting card frame special effect falling and rising can be realized.

動く素材オブジェクトがグリーティングカードフレーム特殊効果、第2認識オブジェクトが人物であることを例として、素材オブジェクトの動き状態は、第2認識オブジェクトに対するレイヤ位置であれば、第1認識オブジェクトの動きに伴って、フレーム特殊効果は、人物の前景から人物の後景に切り替えてもよいし、人物の後景から人物の前景に切り替えてもよい。 For example, if the moving material object is a greeting card frame special effect and the second recognition object is a person, the movement state of the material object is a layer position relative to the second recognition object, and as the first recognition object moves, the frame special effect may switch from the foreground of the person to the background of the person, or from the background of the person to the foreground of the person.

別のいくつかの実施例では、編集後のビデオ素材の美観をさらに向上させるために、素材オブジェクトは、動く素材オブジェクトと固定素材オブジェクトとを含んでもよい。この場合、素材オブジェクトの動き状態は、動く素材オブジェクトの動き状態であってもよい。固定素材オブジェクトは、固定された予め設定された表示状態で表示され、動き状態を有しない。 In some other embodiments, to further enhance the aesthetics of the edited video material, the material objects may include moving material objects and fixed material objects. In this case, the motion state of the material objects may be the motion state of the moving material objects. Fixed material objects are displayed in a fixed, pre-set display state and do not have a motion state.

例えば、動く素材オブジェクトは、動き可能なグリーティングカードフレーム特性を含んでもよく、固定素材オブジェクトは、動き不可能なグリーティングカードボトムフレーム特殊効果を含んでもよい。 For example, the moving material object may include a movable greeting card frame feature, and the fixed material object may include a non-movable greeting card bottom frame special effect.

本開示の実施例では、電子デバイスは、素材オブジェクトの動き状態を特定した後、さらに素材オブジェクトの動き状態を判断することができ、素材オブジェクトの動き状態が第1状態に属する場合、ステップS130を実行し、素材オブジェクトの動き状態が第2状態に属する場合、ステップS140を実行する。 In an embodiment of the present disclosure, after identifying the motion state of the material object, the electronic device can further determine the motion state of the material object, and if the motion state of the material object belongs to a first state, executes step S130, and if the motion state of the material object belongs to a second state, executes step S140.

ステップS130、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得る。 Step S130: if the motion state of the material object belongs to the first state, the material object and the first style video image are combined according to the motion state of the material object to obtain a first target video image.

本開示の実施例では、第1状態は、素材オブジェクトと初期ビデオ画像における第2認識オブジェクトとが第1位置関係を満たすことを表すことができる。 In an embodiment of the present disclosure, the first state may represent a first positional relationship between the material object and a second recognition object in the initial video image.

素材オブジェクトの動き状態が、ターゲット傾斜方向において第2認識オブジェクトとの間に夾角が存在するという状態である場合、第1位置関係は具体的に、夾角の角度変化値が第1角度範囲に入るという関係であってもよく、或いは、第1関係は具体的に、変化中に、夾角の角度がいずれも第1角度範囲内に入るという関係であってもよい。 When the movement state of the material object is a state in which an included angle exists between the material object and the second recognition object in the target tilt direction, the first positional relationship may specifically be a relationship in which the angle change value of the included angle falls within a first angle range, or the first relationship may specifically be a relationship in which the angles of the included angles all fall within a first angle range during the change.

ターゲット傾斜方向がビデオ画像に垂直な奥行き方向であることを例として、第1位置関係は具体的に、夾角の角度がビデオ画像に垂直な奥行き方向における[0°,45°]の角度範囲内に入るという関係であってもよい。 For example, if the target tilt direction is the depth direction perpendicular to the video image, the first positional relationship may be specifically a relationship in which the included angle is within an angle range of [0°, 45°] in the depth direction perpendicular to the video image.

素材オブジェクトの動き状態が第2認識オブジェクトに対するレイヤ位置である場合、第1位置関係は具体的に、素材オブジェクトが第2認識オブジェクトの前景に位置するという関係であってもよい。 When the motion state of the material object is a layer position relative to the second recognition object, the first positional relationship may specifically be a relationship in which the material object is located in the foreground of the second recognition object.

素材オブジェクトの動き状態が、画像平面内において第2認識オブジェクトに対して距離が存在するという状態である場合、第1位置関係は具体的に、相対距離の変化値が第1距離範囲に入るという関係であってもよく、または、変化中に、相対距離がいずれも第1距離範囲に入るという関係であってもよい。 When the movement state of the material object is a state in which there is a distance from the second recognition object in the image plane, the first positional relationship may specifically be a relationship in which the change value of the relative distance falls within a first distance range, or a relationship in which all of the relative distances fall within the first distance range during the change.

従って、電子デバイスは、素材オブジェクトの動き状態が第1状態に属すると判定した場合、初期ビデオ画像に対応する第1スタイルビデオ画像を取得し、さらに素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して、第1状態に対応する第1ターゲットビデオ画像を得ることができる。 Therefore, when the electronic device determines that the motion state of the material object belongs to the first state, it obtains a first style video image corresponding to the initial video image, and further combines the material object with the first style video image according to the motion state of the material object to obtain a first target video image corresponding to the first state.

本開示の実施例では、第1スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、第1スタイルを有するビデオ画像であってもよく、第1スタイルは、第1状態に対応するスタイルである。 In an embodiment of the present disclosure, the first style video image may be a video image having a first style obtained based on an initial video image, the first style being a style corresponding to a first state.

ステップS140、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得る。 Step S140: If the motion state of the material object belongs to the second state, the material object and the second style video image are combined according to the motion state of the material object to obtain a second target video image.

本開示の実施例では、第2状態は、素材オブジェクトと初期ビデオ画像における第2認識オブジェクトとが第2位置関係を満たすことを表すことができる。 In an embodiment of the present disclosure, the second state can represent a second positional relationship between the material object and a second recognition object in the initial video image.

素材オブジェクトの動き状態が、ターゲット傾斜方向において第2認識オブジェクトとの間に夾角が存在するという状態である場合、第2位置関係は具体的に、夾角の角度変化値が第2角度範囲に入るという関係であってもよく、或いは、第2関係は具体的に、変化中に、夾角の角度がいずれも第2角度範囲内に入るという関係であってもよい。 When the movement state of the material object is a state in which an included angle exists between the material object and the second recognition object in the target tilt direction, the second positional relationship may specifically be a relationship in which the angle change value of the included angle falls within a second angle range, or the second relationship may specifically be a relationship in which the angles of the included angles all fall within the second angle range during the change.

ターゲット傾斜方向がビデオ画像に垂直な奥行き方向であることを例として、第2位置関係は具体的に、夾角の角度がビデオ画像に垂直な奥行き方向における[45,90]の角度範囲内に入るという関係であってもよい。 For example, if the target tilt direction is a depth direction perpendicular to the video image, the second positional relationship may be specifically a relationship in which the included angle falls within an angle range of [45, 90] in the depth direction perpendicular to the video image.

素材オブジェクトの動き状態が第2認識オブジェクトに対するレイヤ位置である場合、第2位置関係は具体的に、素材オブジェクトが第2認識オブジェクトの背景に位置するという関係であってもよい。 When the movement state of the material object is a layer position relative to the second recognition object, the second positional relationship may specifically be a relationship in which the material object is located in the background of the second recognition object.

素材オブジェクトの動き状態が、画像平面内において第2認識オブジェクトに対して距離が存在するという状態である場合、第2位置関係は具体的に、相対距離の変化値が第2距離範囲に入るという関係であってもよく、または、変化中に、相対距離がいずれも第2距離範囲に入るという関係であってもよい。 When the movement state of the material object is a state in which there is a distance from the second recognition object in the image plane, the second positional relationship may specifically be a relationship in which the change value of the relative distance falls within the second distance range, or a relationship in which all of the relative distances fall within the second distance range during the change.

従って、電子デバイスは、素材オブジェクトの動き状態が第2状態に属すると判定した場合、初期ビデオ画像に対応する第2スタイルビデオ画像を取得し、さらに素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して、第2状態に対応する第2ターゲットビデオ画像を得ることができる。 Therefore, when the electronic device determines that the motion state of the material object belongs to the second state, it can obtain a second style video image corresponding to the initial video image, and further combine the material object with the second style video image according to the motion state of the material object to obtain a second target video image corresponding to the second state.

本開示の実施例では、第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、第2スタイルを有するビデオ画像であってもよく、第2スタイルは、第2状態に対応するスタイルである。 In an embodiment of the present disclosure, the second style video image may be a video image having a second style obtained based on the initial video image, the second style being a style corresponding to a second state.

さらに、第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像であり、即ち、第1スタイルは、第2スタイルとは異なる。 Furthermore, the first style video image and the second style video image are different stylized images obtained based on the initial video image, i.e., the first style is different from the second style.

本開示の実施例では、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定し、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定し、そして、素材オブジェクトの動き状態を判断し、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得ることができるので、自動的にビデオ素材としての初期ビデオ画像に対して素材編集を行って編集後の合成画像を得ることができ、ユーザが素材編集を手動で行う必要がなく、これにより、ビデオ作成の時間コストを削減し、ビデオ作品の品質を向上させ、ユーザの体験を向上させることができる。 In an embodiment of the present disclosure, the motion state of a first recognition object is identified in an initial video image, the motion state of a material object is identified based on the motion state of the first recognition object, and the motion state of the material object is determined. If the motion state of the material object belongs to the first state, the material object and the first style video image are combined according to the motion state of the material object to obtain a first target video image. If the motion state of the material object belongs to the second state, the material object and the second style video image are combined according to the motion state of the material object to obtain a second target video image. Therefore, material editing can be automatically performed on the initial video image as a video material to obtain an edited composite image, and the user does not need to manually perform material editing. This can reduce the time cost of video creation, improve the quality of the video work, and improve the user's experience.

本開示の実施形態では、第1認識オブジェクトの動き状態を正確に特定するために、ステップS110は具体的に、ステップS111~S112を含むことができる。
ステップS111、初期ビデオ画像において、第1認識オブジェクトの表示パラメータ変数を検出する。
In the embodiment of the present disclosure, in order to accurately identify the motion state of the first recognition object, step S110 may specifically include steps S111 to S112.
Step S111: detecting a display parameter variable of a first recognition object in an initial video image.

初期ビデオ画像が先頭フレームのビデオ画像である場合、第1認識オブジェクトの表示パラメータ変数がゼロであると判定することができる。 If the initial video image is the video image of the first frame, it can be determined that the display parameter variable of the first recognition object is zero.

初期ビデオ画像が非先頭フレームビデオ画像である場合、初期ビデオ画像に隣接する前の参照ビデオ画像を取得することができる。 If the initial video image is a non-first frame video image, a previous reference video image adjacent to the initial video image can be obtained.

この場合、電子デバイスは、オブジェクト検出方法に基づいて、第1認識オブジェクトの初期ビデオ画像における第1表示パラメータ、及び参照ビデオ画像における第2表示パラメータを検出し、そして、第1表示パラメータから第2表示パラメータを減算し、第1認識オブジェクトの表示パラメータ変数を得ることができる。 In this case, the electronic device can detect a first display parameter in an initial video image of a first recognition object and a second display parameter in a reference video image based on an object detection method, and then subtract the second display parameter from the first display parameter to obtain a display parameter variable of the first recognition object.

第1表示パラメータ及び第2表示パラメータのパラメータタイプは、実際の必要に応じて予め設定された、第1認識オブジェクトの動き状態を算出するためのパラメータタイプであってもよく、ここでは限定されない。 The parameter types of the first display parameter and the second display parameter may be parameter types for calculating the movement state of the first recognition object that are preset according to actual needs, and are not limited here.

任意選択で、上記の表示パラメータは、第1認識オブジェクトのオブジェクト姿勢、第1認識オブジェクトの表示サイズ、ビデオ画像における第1認識オブジェクトの表示位置、及び第3認識オブジェクトに対する第1認識オブジェクトの距離などのうちの少なくとも1つを含んでもよい。 Optionally, the display parameters may include at least one of an object pose of the first recognition object, a display size of the first recognition object, a display position of the first recognition object in the video image, and a distance of the first recognition object relative to a third recognition object.

第3認識オブジェクトは、実際の必要に応じて予め選択された位置参照オブジェクトであってもよく、ここでは限定されない。例えば、第1認識オブジェクトが手である場合、第3認識オブジェクトは頭部であってもよい。 The third recognition object may be a pre-selected position reference object according to actual needs, and is not limited here. For example, if the first recognition object is a hand, the third recognition object may be a head.

第1認識オブジェクトの動き状態がビデオ画像に垂直な奥行き方向に沿った手の移動距離であることを例として、表示パラメータは、手の表示サイズであってもよく、第1表示パラメータは、初期ビデオ画像における手の第1表示サイズであってもよく、第2表示パラメータは、参照ビデオ画像における手の第2表示サイズであってもよく、そして、第1表示サイズから第2表示サイズを減算し、第1認識オブジェクトの表示パラメータ変数を得る。 For example, assuming that the motion state of the first recognition object is the distance the hand moves along the depth direction perpendicular to the video image, the display parameter may be the display size of the hand, the first display parameter may be the first display size of the hand in the initial video image, and the second display parameter may be the second display size of the hand in the reference video image, and the second display size is subtracted from the first display size to obtain the display parameter variable of the first recognition object.

ステップS112、表示パラメータ変数に基づいて、第1認識オブジェクトの動き状態を特定する。 Step S112: Identify the movement state of the first recognition object based on the display parameter variable.

本開示の実施例では、電子デバイスは、表示パラメータ変数を第1認識オブジェクトの動き状態としてもよい。 In an embodiment of the present disclosure, the electronic device may set the display parameter variable as the motion state of the first recognition object.

第1認識オブジェクトの動き状態がビデオ画像に垂直な奥行き方向に沿った手の移動距離、第1表示パラメータが初期ビデオ画像における手の第1表示サイズ、第2表示パラメータが参照ビデオ画像における手の第2表示サイズであることを例として、表示パラメータ変数がゼロ以上である場合、表示パラメータ変数を、手がビデオ画像に垂直な奥行き方向に沿って近づく移動距離とすることができ、表示パラメータ変数がゼロ不満である場合、表示パラメータ変数を、手がビデオ画像に垂直な奥行き方向に沿って離れる移動距離とすることができる。 For example, if the movement state of the first recognition object is the distance the hand moves along the depth direction perpendicular to the video image, the first display parameter is the first display size of the hand in the initial video image, and the second display parameter is the second display size of the hand in the reference video image, when the display parameter variable is greater than or equal to zero, the display parameter variable can be the distance the hand moves toward the depth direction perpendicular to the video image, and when the display parameter variable is zero dissatisfaction, the display parameter variable can be the distance the hand moves away from the depth direction perpendicular to the video image.

これにより、本開示の実施例では、第1認識オブジェクトの初期ビデオ画像における表示パラメータ変数を検出することで、第1認識オブジェクトを確実に動き分析し、さらに第1認識オブジェクトの動き状態を特定することができる。 As a result, in an embodiment of the present disclosure, by detecting display parameter variables in an initial video image of the first recognition object, it is possible to reliably analyze the movement of the first recognition object and further identify the movement state of the first recognition object.

本開示の別の実施形態では、異なる素材オブジェクトの動き状態に対応するスタイルビデオ画像の取得方式が異なる。 In another embodiment of the present disclosure, the method of acquiring style video images corresponding to different motion states of material objects is different.

本開示のいくつかの実施例では、第1スタイルビデオ画像は、初期ビデオ画像がスタイル移行処理された画像であってもよい。 In some embodiments of the present disclosure, the first style video image may be an image in which an initial video image has been subjected to style transition processing.

さらに、ステップS130の前に、当該画像処理方法はさらに、
初期ビデオ画像に対して顔スタイル化処理を行い、スタイル化された顔画像を得るステップと、
初期ビデオ画像に対して非顔スタイル化処理を行い、スタイル化された非顔画像を得るステップと、
を含み、
スタイル化された顔画像とスタイル化された非顔画像を第1スタイルビデオ画像に合成する。
Furthermore, before step S130, the image processing method further comprises:
performing a face stylization process on the initial video image to obtain a stylized face image;
performing a non-face stylization process on the initial video image to obtain a stylized non-face image;
Including,
The stylized facial image and the stylized non-facial image are composited into a first style video image.

まず、電子デバイスは、初期ビデオ画像に対して顔検出を行い、初期ビデオ画像における顔領域画像を得、顔領域画像を予めトレーニングされた顔スタイル化モデルに入力し、スタイル化された顔画像を得ることができる。 First, the electronic device can perform face detection on an initial video image to obtain a face region image in the initial video image, and input the face region image into a pre-trained face stylization model to obtain a stylized face image.

例えば、顔スタイル化モデルは、漫画顔変換モデルであってもよく、電子デバイスは、顔領域画像を漫画顔変換モデルに入力し、漫画スタイルのスタイル化された顔画像を得ることができる。 For example, the face stylization model may be a cartoon face transformation model, and the electronic device may input a face region image into the cartoon face transformation model to obtain a cartoon-style stylized face image.

そして、電子デバイスは、予め設定された背景スタイル化アルゴリズムを利用して、初期ビデオ画像の非顔領域に対して非顔スタイル化処理を行い、スタイル化された非顔画像を得ることができる。 The electronic device can then use a pre-configured background stylization algorithm to perform a non-face stylization process on the non-face regions of the initial video image to obtain a stylized non-face image.

例えば、背景スタイル化アルゴリズムは、奥義背景変換アルゴリズムであってもよく、電子デバイスは、奥義背景変換アルゴリズムを利用して初期ビデオ画像の非顔領域に対して非顔スタイル化処理を行い、漫画スタイルのスタイル化された非顔画像を得ることができる。 For example, the background stylization algorithm may be an occult background transformation algorithm, and the electronic device may use the occult background transformation algorithm to perform a non-face stylization process on the non-face regions of the initial video image to obtain a cartoon-style stylized non-face image.

最後に、電子デバイスは、初期ビデオ画像における顔領域画像の相対位置を特定し、スタイル化された顔画像をスタイル化された非顔画像の相対位置にスティッチングし、第1スタイルビデオ画像を得ることができる。 Finally, the electronic device can determine the relative position of the face region image in the initial video image and stitch the stylized face image to the relative position of the stylized non-face image to obtain a first styled video image.

これらの実施例では、任意選択で、ステップS130における、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得るステップは具体的に、
素材オブジェクトを素材オブジェクトの動き状態で第1スタイルビデオ画像に重畳し、第1ターゲットビデオ画像を得るステップを含んでもよい。
In these embodiments, optionally, in step S130, synthesizing the material object with the first style video image according to the motion state of the material object to obtain a first target video image is specifically performed by:
The method may include the step of superimposing the material object on the first style video image in a state in which the material object is in motion to obtain a first target video image.

素材オブジェクトが動く素材オブジェクトを含む場合、直接に動く素材オブジェクトを動く素材オブジェクトの動き状態で第1スタイルビデオ画像の指定位置に重畳し、第1ターゲットビデオ画像を得る。 If the material object includes a moving material object, the moving material object is directly superimposed on the specified position of the first style video image in the motion state of the moving material object to obtain a first target video image.

素材オブジェクトが動く素材オブジェクトと固定素材オブジェクトとを含む場合、直接に動く素材オブジェクトを動く素材オブジェクトの動き状態で第1スタイルビデオ画像の指定位置に重畳するとともに、固定素材オブジェクトを予め設定された表示状態で第1スタイルビデオ画像に重畳して、第1ターゲットビデオ画像を得る。 When the material objects include moving material objects and fixed material objects, the moving material objects are directly superimposed at the specified position of the first style video image in the motion state of the moving material objects, and the fixed material objects are superimposed on the first style video image in a preset display state to obtain a first target video image.

本開示の別のいくつかの実施例では、第2スタイルビデオ画像は、初期ビデオ画像であってもよい。 In some other embodiments of the present disclosure, the second style video image may be the initial video image.

さらに、ステップS140の前に、当該画像処理方法はさらに、初期ビデオ画像を第2スタイルビデオ画像とするステップを含んでもよい。 Further, before step S140, the image processing method may further include a step of setting the initial video image as a second style video image.

具体的には、電子デバイスは、初期ビデオ画像をそのまま第2スタイルビデオ画像とすることができ、その結果、第2スタイルビデオ画像は、元の画像スタイルを有する初期ビデオ画像である。 Specifically, the electronic device can directly render the initial video image into a second style video image, so that the second style video image is the initial video image having the original image style.

これにより、本開示の実施例では、異なるスタイル化処理方式により、初期ビデオ画像に対応する、異なるスタイルのスタイルビデオ画像を得ることができ、インタラクション興趣性をさらに向上させる。 As a result, in the embodiment of the present disclosure, different stylization processing methods can be used to obtain style video images of different styles corresponding to the initial video image, further enhancing the interest of interaction.

これらの実施例では、任意選択で、ステップS140における、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得るステップは具体的に、
まず、第2スタイルビデオ画像に対して画像分割を行い、第2スタイルビデオ画像における第2認識オブジェクト画像、及び第2認識オブジェクト画像以外の背景画像を得、そして、素材オブジェクトを素材オブジェクトの動き状態で第2認識オブジェクト画像、背景画像と重畳し、第2ターゲットビデオ画像を得るステップを含んでもよい。
In these embodiments, optionally, in step S140, synthesizing the material object with the second style video image according to the motion state of the material object to obtain a second target video image is specifically:
The method may include a step of first performing image segmentation on the second style video image to obtain a second recognition object image in the second style video image and a background image other than the second recognition object image, and then superimposing the material object on the second recognition object image and the background image in a motion state of the material object to obtain a second target video image.

素材オブジェクトが動く素材オブジェクトを含む場合、直接に、動く素材オブジェクトを動く素材オブジェクトの動き状態で第2認識オブジェクト画像及び背景画像の指定位置と重畳し、第2ターゲットビデオ画像を得る。 If the material object includes a moving material object, the moving material object is directly superimposed on the second recognition object image and the specified position of the background image in the motion state of the moving material object to obtain a second target video image.

素材オブジェクトが動く素材オブジェクトと固定素材オブジェクトとを含む場合、直接に、動く素材オブジェクトを動く素材オブジェクトの動き状態で第2認識オブジェクト画像及び背景画像の指定位置に重畳するとともに、固定素材オブジェクトを予め設定された表示状態で第2認識オブジェクト画像及び背景画像に重畳して、第2ターゲットビデオ画像を得る。 When the material objects include moving material objects and fixed material objects, the moving material objects are directly superimposed at specified positions on the second recognition object image and the background image in a motion state of the moving material objects, and the fixed material objects are superimposed on the second recognition object image and the background image in a preset display state to obtain a second target video image.

インタラクション興趣性を向上させるために、本開示の実施例はさらに、別の画像処理方法を提供し、以下、図2を参照して説明する。 To enhance interaction interest, the embodiment of the present disclosure further provides another image processing method, which will be described below with reference to FIG. 2.

本開示のいくつかの実施例では、当該画像処理方法は電子デバイスによって実行されてもよい。電子デバイスは、携帯電話、タブレット、デスクトップコンピュータ、ノートパソコン、車載端末、ウェアラブル電子デバイス、複合機、スマートホームデバイスなどの通信機能を有するデバイスを含んでもよく、仮想マシンまたはシミュレータによってシミュレートされたデバイスであってもよい。 In some embodiments of the present disclosure, the image processing method may be performed by an electronic device. The electronic device may include a device having a communication function, such as a mobile phone, a tablet, a desktop computer, a laptop, an in-vehicle terminal, a wearable electronic device, a multifunction printer, or a smart home device, or may be a device simulated by a virtual machine or a simulator.

図2は、本開示の実施例による別の画像処理方法の概略フローチャートを示す。 Figure 2 shows a schematic flowchart of another image processing method according to an embodiment of the present disclosure.

図2に示すように、当該画像処理方法はステップS210~S250を含む。 As shown in FIG. 2, the image processing method includes steps S210 to S250.

ステップS210、初期ビデオ画像において、第1認識オブジェクトのオブジェクト姿勢を検出する。 Step S210: Detect the object pose of the first recognition object in the initial video image.

本開示の実施例では、電子デバイスは、初期ビデオ画像を取得した後、オブジェクト検出方法に基づいて、初期ビデオ画像における第1認識オブジェクトのオブジェクト姿勢を検出することができる。 In an embodiment of the present disclosure, after acquiring an initial video image, the electronic device can detect an object pose of a first recognition object in the initial video image based on an object detection method.

初期ビデオ画像について、図1に示すS110で既に説明され、ここでは贅言しない。 The initial video image has already been described in S110 in FIG. 1 and will not be discussed here in detail.

ステップS220、第1認識オブジェクトのオブジェクト姿勢がターゲット姿勢である場合、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定する。 Step S220: If the object pose of the first recognition object is the target pose, the motion state of the first recognition object is identified in the initial video image.

本開示の実施例では、電子デバイスはまず、第1認識オブジェクトのオブジェクト姿勢を判断することができ、第1認識オブジェクトのオブジェクト姿勢がターゲット姿勢である場合、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定し、そうでない場合、初期ビデオ画像を処理しない。 In an embodiment of the present disclosure, the electronic device can first determine an object pose of a first recognition object, and if the object pose of the first recognition object is a target pose, identify a motion state of the first recognition object in an initial video image; otherwise, do not process the initial video image.

本開示の実施例では、ターゲット姿勢は、実際の必要に応じて予め設定されてもよく、ここでは限定されない。例えば、ターゲットオブジェクトは、手であってもよく、ターゲット姿勢は、手のひらを開く姿勢であってもよい。 In the embodiment of the present disclosure, the target posture may be preset according to actual needs and is not limited thereto. For example, the target object may be a hand, and the target posture may be a palm-open posture.

第1認識オブジェクトの動き状態を特定する具体的な方法について、図1に示すS110と類似し、ここでは贅言しない。 The specific method for identifying the movement state of the first recognition object is similar to S110 shown in Figure 1, and will not be described in detail here.

S230、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定する。 S230: Identify the movement state of the material object based on the movement state of the first recognition object.

本開示の実施例では、電子デバイスは、素材オブジェクトの動き状態を特定した後、さらに素材オブジェクトの動き状態を判断することができ、素材オブジェクトの動き状態が第1状態に属する場合、ステップS240を実行し、素材オブジェクトの動き状態が第2状態に属する場合、ステップS250を実行する。 In an embodiment of the present disclosure, after identifying the motion state of the material object, the electronic device can further determine the motion state of the material object, and if the motion state of the material object belongs to the first state, executes step S240, and if the motion state of the material object belongs to the second state, executes step S250.

ステップS240、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得る。 Step S240: If the motion state of the material object belongs to the first state, the material object and the first style video image are combined according to the motion state of the material object to obtain a first target video image.

ステップS250、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得る。 Step S250: if the motion state of the material object belongs to the second state, the material object and the second style video image are combined according to the motion state of the material object to obtain a second target video image.

第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像であってもよい。 The first style video image and the second style video image may be different stylized images obtained based on the initial video image.

ステップS230~S250は、図1に示すS120~S140と類似し、ここでは贅言しない。 Steps S230 to S250 are similar to steps S120 to S140 shown in Figure 1, and will not be described here in detail.

これにより、本開示の実施例では、第1認識オブジェクトが指定された姿勢である前提で、初期ビデオ画像を編集することができ、インタラクション興趣性をさらに向上させる。 As a result, in an embodiment of the present disclosure, the initial video image can be edited on the assumption that the first recognition object is in a specified pose, further increasing the interest of the interaction.

素材編集効率を高めるために、本開示の実施例は、さらに別の画像処理方法をさらに提供し、以下、図3を参照して説明する。 To improve the efficiency of material editing, an embodiment of the present disclosure further provides another image processing method, which is described below with reference to FIG. 3.

本開示のいくつかの実施例では、当該画像処理方法は、電子デバイスによって実行されてもよい。電子デバイスは、携帯電話、タブレット、デスクトップコンピュータ、ノートパソコン、車載端末、ウェアラブル電子デバイス、複合機、スマートホームデバイスなどの通信機能を有するデバイスを含んでもよく、仮想マシンまたはシミュレータによってシミュレートされたデバイスであってもよい。 In some embodiments of the present disclosure, the image processing method may be performed by an electronic device. The electronic device may include a device having a communication function, such as a mobile phone, a tablet, a desktop computer, a laptop, an in-vehicle terminal, a wearable electronic device, a multifunction printer, or a smart home device, or may be a device simulated by a virtual machine or a simulator.

図3は、本開示の実施例によるさらに別の画像処理方法の概略フローチャートを示す。 Figure 3 shows a schematic flowchart of yet another image processing method according to an embodiment of the present disclosure.

図3に示すように、当該画像処理方法は、ステップS310~S350を含む。 As shown in FIG. 3, the image processing method includes steps S310 to S350.

ステップS310、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定する。 Step S310: Identify the motion state of the first recognition object in the initial video image.

ステップS310は、図1に示すS110と類似し、ここでは贅言しない。 Step S310 is similar to S110 shown in Figure 1 and will not be described further here.

ステップS320、素材オブジェクトのテンプレートビデオにおいて、第1認識オブジェクトの動き状態に対応するターゲットテンプレートビデオ画像を選択する。 Step S320: In the template video of the material object, a target template video image corresponding to the motion state of the first recognition object is selected.

本開示の実施例では、電子デバイスは、第1認識オブジェクトの動き状態を特定した後、素材オブジェクトのテンプレートビデオの複数のテンプレートビデオ画像から、第1認識オブジェクトの動き状態に対応するターゲットテンプレートビデオ画像を選択することができる。 In an embodiment of the present disclosure, after identifying the motion state of the first recognition object, the electronic device can select a target template video image corresponding to the motion state of the first recognition object from a plurality of template video images of the template video of the material object.

任意選択で、ステップS320は具体的に、ステップS321~S323を含んでもよい。
ステップS321、第1認識オブジェクトの動き状態に対応するターゲットジャンプフレーム数を特定する。
Optionally, step S320 may specifically include steps S321 to S323.
Step S321: Identify a target jump frame number corresponding to the motion state of a first recognition object.

いくつかの実施例では、第1認識オブジェクトの動き状態がゼロである場合、ターゲットジャンプフレーム数は0であり、第1認識オブジェクトの動き状態がゼロでない場合、ターゲットジャンプフレーム数は1である。 In some embodiments, if the motion state of the first recognition object is zero, the target jump frame number is 0, and if the motion state of the first recognition object is not zero, the target jump frame number is 1.

別のいくつかの実施例では、電子デバイスは、動き状態とジャンプフレーム数との間の対応関係を予め設定することができ、ジャンプフレーム数は、動き状態に比例することができ、当該対応関係に基づいて、第1認識オブジェクトの動き状態に対応するターゲットジャンプフレーム数を特定する。 In some other embodiments, the electronic device can pre-set a correspondence between the motion state and the jump frame number, where the jump frame number can be proportional to the motion state, and identify a target jump frame number corresponding to the motion state of the first recognition object based on the correspondence.

ステップS322、ターゲットジャンプフレーム数に基づいて、第1認識オブジェクトの動き状態に対応するターゲットビデオフレーム番号を特定する。 Step S322: Identify a target video frame number corresponding to the motion state of the first recognition object based on the target jump frame number.

初期ビデオ画像が先頭フレームのビデオ画像である場合、初期ビデオフレーム番号は、0フレーム目であってもよい。 If the initial video image is the first frame video image, the initial video frame number may be frame 0.

初期ビデオ画像が非先頭フレームのビデオ画像である場合、初期ビデオフレーム番号は、初期ビデオ画像に隣接する前の参照ビデオ画像に対応するビデオフレーム番号であってもよい。 If the initial video image is a non-first frame video image, the initial video frame number may be a video frame number corresponding to a previous reference video image adjacent to the initial video image.

さらに、電子デバイスは、初期ビデオフレーム番号、第1認識オブジェクトの動き方向、即ち、第1認識オブジェクトの表示パラメータ変数の変化方向、及びターゲットジャンプフレーム数に基づいて、第1認識オブジェクトの動き状態に対応するターゲットビデオフレーム番号を特定することができる。 Furthermore, the electronic device can identify a target video frame number corresponding to the motion state of the first recognition object based on the initial video frame number, the motion direction of the first recognition object, i.e., the direction of change of the display parameter variable of the first recognition object, and the target jump frame number.

第1認識オブジェクトの表示パラメータ変数が正の数である場合、電子デバイスは、初期ビデオフレーム番号とターゲットジャンプフレーム数とを加算し、ターゲットビデオフレーム番号を得ることができ、第1認識オブジェクトの表示パラメータ変数が負の数である場合、電子デバイスは、初期ビデオフレーム番号からターゲットジャンプフレーム数を減算し、ターゲットビデオフレーム番号を得ることができる。 If the display parameter variable of the first recognition object is a positive number, the electronic device can add the initial video frame number and the target jump frame number to obtain the target video frame number, and if the display parameter variable of the first recognition object is a negative number, the electronic device can subtract the target jump frame number from the initial video frame number to obtain the target video frame number.

さらに、ターゲットジャンプフレーム数が負の数である場合、初期ビデオ画像を処理することを停止する。 Furthermore, if the target jump frame number is a negative number, we stop processing the initial video image.

ステップS323、素材オブジェクトのテンプレートビデオにおける、ターゲットビデオフレーム番号に対応するテンプレートビデオ画像を、ターゲットテンプレートビデオ画像とする。 In step S323, the template video image corresponding to the target video frame number in the template video of the material object is set as the target template video image.

これにより、本開示の実施例では、第1認識オブジェクトの動き状態に対応するターゲットテンプレートビデオ画像を快速かつ確実に選択することができる。 As a result, in an embodiment of the present disclosure, a target template video image corresponding to the motion state of the first recognition object can be quickly and reliably selected.

ステップS330、ターゲットテンプレートビデオ画像における素材オブジェクトの動き状態を素材オブジェクトの動き状態とする。 Step S330: The movement state of the material object in the target template video image is set as the movement state of the material object.

本開示の実施例では、1つのテンプレートビデオ画像は、1種の動き状態を有する素材オブジェクトを含み、即ち、異なるテンプレートビデオ画像における素材オブジェクトの動き状態は異なり、また、各テンプレートビデオ画像における素材オブジェクトの動き状態は、実際の必要に応じて予め設定されてもよい。 In the embodiment of the present disclosure, one template video image includes a material object having one kind of motion state, that is, the motion states of the material objects in different template video images are different, and the motion states of the material objects in each template video image may be preset according to actual needs.

従って、第1認識オブジェクトの動き状態に基づいて素材オブジェクトの動き状態を特定する具体的な方法は、ターゲットテンプレートビデオ画像における素材オブジェクトの動き状態を素材オブジェクトの動き状態とする方法であってもよい。 Therefore, a specific method for identifying the motion state of a material object based on the motion state of the first recognition object may be a method in which the motion state of the material object in the target template video image is taken as the motion state of the material object.

任意選択で、ステップS330は具体的に、
素材オブジェクトのターゲットビデオフレーム番号での動き状態を素材オブジェクトの動き状態とするステップを含んでもよい。
Optionally, step S330 specifically includes:
The step of setting the motion state of the material object at the target video frame number as the motion state of the material object may also be included.

1つのテンプレートビデオ画像が、1種の動き状態を有する素材オブジェクトを含むため、1つのテンプレートビデオ画像に対応するビデオフレーム番号は、素材オブジェクトの1種の動き状態を指示するために用いられてもよく、即ち、1つのテンプレートビデオ画像に対応するビデオフレーム番号は、対応するテンプレートビデオ画像における素材オブジェクトの動き状態を指示するために用いられてもよく、そのため、電子デバイスは、素材オブジェクトのターゲットビデオフレーム番号での動き状態を、素材オブジェクトの動き状態とすることができる。 Since one template video image includes a material object having one type of motion state, a video frame number corresponding to one template video image may be used to indicate one type of motion state of the material object, i.e., a video frame number corresponding to one template video image may be used to indicate the motion state of the material object in the corresponding template video image, so that the electronic device can set the motion state of the material object at the target video frame number as the motion state of the material object.

本開示の実施例では、電子デバイスは、素材オブジェクトの動き状態を特定した後、さらに素材オブジェクトの動き状態を判断することができ、素材オブジェクトの動き状態が第1状態に属する場合、ステップS340を実行し、素材オブジェクトの動き状態が第2状態に属する場合、ステップS350を実行する。 In an embodiment of the present disclosure, after identifying the motion state of the material object, the electronic device can further determine the motion state of the material object, and if the motion state of the material object belongs to a first state, executes step S340, and if the motion state of the material object belongs to a second state, executes step S350.

任意選択で、電子デバイスは、ターゲットビデオフレーム番号が属するフレーム番号範囲を判断することで、素材オブジェクトの動き状態が第1状態に属するか、それとも第2状態に属するかを特定することができる。 Optionally, the electronic device can determine whether the motion state of the material object belongs to the first state or the second state by determining a frame number range to which the target video frame number belongs.

1つのテンプレートビデオ画像に対応するビデオフレーム番号が、対応するテンプレートビデオ画像における素材オブジェクトの動き状態を指示するために用いられてもよいため、第1状態に属する動き状態の素材オブジェクトを含むテンプレートビデオ画像ペアの第1フレーム番号範囲、及び第2状態に属する動き状態の素材オブジェクトを含むテンプレートビデオ画像ペアの第2フレーム番号範囲を特定することができる。 The video frame numbers corresponding to one template video image may be used to indicate the motion state of the material object in the corresponding template video image, so that a first frame number range of the template video image pair including the material object in a motion state belonging to a first state, and a second frame number range of the template video image pair including the material object in a motion state belonging to a second state can be identified.

具体的には、電子デバイスは、ターゲットビデオフレーム番号が属するフレーム番号範囲を判断し、ターゲットビデオフレーム番号が第1フレーム番号範囲に属すると判定した場合、素材オブジェクトの動き状態が第1状態に属すると特定し、ターゲットビデオフレーム番号が第2フレーム番号範囲に属すると判定した場合、素材オブジェクトの動き状態が第2状態に属すると特定することができる。 Specifically, the electronic device determines the frame number range to which the target video frame number belongs, and if it determines that the target video frame number belongs to a first frame number range, it determines that the movement state of the material object belongs to a first state, and if it determines that the target video frame number belongs to a second frame number range, it determines that the movement state of the material object belongs to a second state.

ステップS340、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得る。 Step S340: If the motion state of the material object belongs to the first state, the material object and the first style video image are combined according to the motion state of the material object to obtain a first target video image.

ステップS350、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得る。 Step S350: if the motion state of the material object belongs to the second state, the material object and the second style video image are combined according to the motion state of the material object to obtain a second target video image.

第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像であってもよい。 The first style video image and the second style video image may be different stylized images obtained based on the initial video image.

ステップS340~S350は図1に示すS130~S140と類似し、ここでは贅言しない。 Steps S340 to S350 are similar to steps S130 to S140 shown in Figure 1, so they will not be explained here in detail.

これにより、本開示の実施例では、直接に、ビデオフレーム番号により、素材オブジェクトの動き状態が第1状態に属するか、それとも第2状態に属するかを特定することができ、素材オブジェクトの動き状態を検出する必要がなく、データ処理量を低減し、さらに素材編集効率を向上させる。 As a result, in an embodiment of the present disclosure, it is possible to directly determine whether the motion state of a material object belongs to the first state or the second state using the video frame number, eliminating the need to detect the motion state of the material object, reducing the amount of data processing and further improving the efficiency of material editing.

本開示の実施例による画像処理方法をより明瞭に説明するために、以下、素材オブジェクトのテンプレートビデオがグリーティングカード倒れ動画のテンプレートビデオ、素材オブジェクトがグリーティングカードであって、グリーティングカードが、動き可能なグリーティングカードフレーム特殊効果及び動き不可能なグリーティングカードボトムフレーム特殊効果を含むことを例として、本開示の実施例による画像処理過程を詳しく説明する。 To more clearly explain the image processing method according to the embodiment of the present disclosure, the image processing process according to the embodiment of the present disclosure will be described in detail below using an example in which the template video of the material object is a greeting card falling animation template video, the material object is a greeting card, and the greeting card includes a movable greeting card frame special effect and an immovable greeting card bottom frame special effect.

図4は、本開示の実施例による画像処理過程の概略フローチャートを示す。 Figure 4 shows a schematic flow chart of the image processing process according to an embodiment of the present disclosure.

図4に示すように、当該画像処理過程は、ステップS401~S413を含んでもよい。 As shown in FIG. 4, the image processing process may include steps S401 to S413.

ステップS401、撮影プレビュー画面内において、グリーティングカード倒れ動画の効果ビデオを再生し、効果ビデオにおける各フレームの効果ビデオ画像にはいずれも、効果制御案内情報が表示されており、当該効果制御案内情報は、ユーザが手を開いて手のひらを前後に押すように案内するために用いられてもよい。 In step S401, an effect video of a greeting card falling over is played on the shooting preview screen, and effect control guidance information is displayed in each effect video image of each frame in the effect video, and the effect control guidance information may be used to guide the user to open their hand and push their palm back and forth.

電子デバイスは、グリーティングカード倒れ動画の効果ビデオを再生する過程において、グリーティングカードフレーム特殊効果が人物の前景であれば、リアルタイムに撮影した画像に対応する漫画スタイルビデオ画像を取得し、グリーティングカードボトムフレーム特殊効果、グリーティングカードフレーム特殊効果、及び漫画スタイルビデオ画像を頂層から底層までの順序に従って順次に重畳し、効果ビデオ画像を得、グリーティングカードフレーム特殊効果が人物の後景であれば、リアルタイムに撮影した画像を肖像と背景画像に分割し、グリーティングカードボトムフレーム特殊効果、肖像、グリーティングカードフレーム特殊効果、及び背景画像を頂層から底層までの順序に従って順次に重畳し、効果ビデオ画像を得る。 In the process of playing the greeting card falling video effect video, if the greeting card frame special effect is the foreground of a person, the electronic device obtains a cartoon style video image corresponding to the image shot in real time, and sequentially superimposes the greeting card bottom frame special effect, the greeting card frame special effect, and the cartoon style video image from the top layer to the bottom layer to obtain an effect video image; if the greeting card frame special effect is the background of a person, the electronic device divides the image shot in real time into a portrait and a background image, and sequentially superimposes the greeting card bottom frame special effect, the portrait, the greeting card frame special effect, and the background image from the top layer to the bottom layer to obtain an effect video image.

効果ビデオの再生が完了した後、各フレームのリアルタイム収集画像について、電子デバイスが画像の収集を停止するまで、ステップS402から後続のステップを実行することができる。 After the effect video has completed playing, subsequent steps can be performed from step S402 for real-time collected images of each frame until the electronic device stops collecting images.

ステップS402、リアルタイム収集画像において、ユーザが手を開いたか否かを検出し、そうでなければ、ステップS403を実行し、そうであれば、ステップS404を実行する。 Step S402: In the real-time collected image, it is detected whether the user has opened their hand, and if not, step S403 is executed, and if so, step S404 is executed.

電子デバイスは、リアルタイム収集画像におけるユーザの手姿勢を検出することができ、手姿勢が、手のひらを開いた姿勢であれば、ステップS404を実行し、そうでなければ、ステップS403を実行する。 The electronic device can detect the user's hand posture in the real-time collected image, and if the hand posture is an open palm posture, executes step S404, otherwise executes step S403.

ステップS403、撮影プレビュー画面内に、リアルタイム収集画像を表示し、ステップS402に戻る。 In step S403, the real-time collected image is displayed on the shooting preview screen, and the process returns to step S402.

ステップS404、リアルタイム収集画像の前のフレームの収集画像において、ユーザが手を開いたか否かを判断し、そうでなければ、ステップS405を実行し、そうであれば、ステップS406を実行する。 In step S404, it is determined whether the user has opened their hand in the collected image of the frame before the real-time collected image, and if not, step S405 is executed, and if so, step S406 is executed.

電子デバイスは、手姿勢に対する前のフレームの収集画像の検出結果を取得し、当該検出結果に基づいて、前のフレームの収集画像において、ユーザの手が、手のひらを開いた姿勢であるか否かを特定することができる。 The electronic device obtains the detection result of the collected image of the previous frame with respect to the hand posture, and based on the detection result, it can determine whether the user's hand is in an open palm posture in the collected image of the previous frame.

ステップS405、リアルタイム収集画像に対応するグリーティングカード倒れ動画のテンプレートビデオにおける最初のフレームのテンプレートビデオ画像を特定し、そしてS408を実行する。 Step S405: Identify a template video image of the first frame in the template video of the greeting card falling animation that corresponds to the real-time collected image, and then execute S408.

ステップS406、リアルタイム収集画像における手サイズと、前のフレームの収集画像における手サイズとを比較して、手サイズ変化量を算出し、そして、S407を実行する。 In step S406, the hand size in the real-time collected image is compared with the hand size in the collected image of the previous frame to calculate the amount of change in hand size, and then step S407 is executed.

ステップS407、手サイズ変化量、手サイズ変化量の正負方向、及び前のフレームの収集画像に対応するビデオフレーム番号に基づいて、リアルタイム収集画像に対応するテンプレートビデオ画像を特定し、そして、S408を実行する。 In step S407, a template video image corresponding to the real-time collected image is identified based on the amount of hand size change, the positive/negative direction of the amount of hand size change, and the video frame number corresponding to the collected image of the previous frame, and then S408 is executed.

手サイズ変化量が正の数であれば、手が前に押されたことを意味し、電子デバイスは、手サイズ変化量に対応するターゲットジャンプフレーム数を取得し、そして、前のフレームの収集画像に対応するビデオフレーム番号とターゲットジャンプフレーム数とを加算して、グリーティングカード倒れ動画のテンプレートビデオの再生フレーム番号を特定することで、グリーティングカードフレーム特殊効果が前のフレームの収集画像に対して後へ倒れた効果を取得することができ、そうでない場合、電子デバイスは、前のフレームの収集画像に対応するビデオフレーム番号からターゲットジャンプフレーム数を減算してグリーティングカード倒れ動画のテンプレートビデオの再生フレーム番号を特定することで、グリーティングカードフレーム特殊効果が前のフレームの収集画像に対して前へ立ち上がる効果を取得することができる。 If the hand size change amount is a positive number, it means that the hand is pushed forward, and the electronic device obtains a target jump frame number corresponding to the hand size change amount, and then adds the target jump frame number to the video frame number corresponding to the collected image of the previous frame to identify the playback frame number of the template video of the greeting card falling video, so that the greeting card frame special effect can obtain the effect of the greeting card frame falling backward with respect to the collected image of the previous frame; if not, the electronic device subtracts the target jump frame number from the video frame number corresponding to the collected image of the previous frame to identify the playback frame number of the template video of the greeting card falling video, so that the greeting card frame special effect can obtain the effect of the greeting card frame rising forward with respect to the collected image of the previous frame.

ステップS408、グリーティングカード倒れ動画のテンプレートビデオの再生フレーム番号がフレーム番号の閾値よりも高いか否かを判断し、そうであれば、S409を実行し、そうでなければ、S411を実行する。 In step S408, it is determined whether the playback frame number of the template video of the greeting card falling video is higher than the frame number threshold, and if so, executes S409; if not, executes S411.

ステップS409、リアルタイム収集画像に対して画像分割を行い、リアルタイム収集画像における肖像、背景画像を取得し、そして、ステップS410を実行する。 In step S409, image segmentation is performed on the real-time collected image, the portrait and background images in the real-time collected image are obtained, and then step S410 is executed.

ステップS410、グリーティングカードボトムフレーム特殊効果、肖像、グリーティングカードフレーム特殊効果、及び背景画像を頂層から底層までの順序に従って順次に重畳し、合成されたビデオ画像を得、そして、ステップS413を実行する。 Step S410, sequentially superimpose the greeting card bottom frame special effect, the portrait, the greeting card frame special effect, and the background image according to the order from the top layer to the bottom layer to obtain a composite video image, and then execute step S413.

ステップS411、リアルタイム収集画像に対して漫画スタイル化処理を行い、漫画スタイルビデオ画像を得、そして、ステップS412を実行する。 Step S411: perform cartoon stylization processing on the real-time collected image to obtain a cartoon-style video image, and then execute step S412.

ステップS412、グリーティングカードボトムフレーム特殊効果、グリーティングカードフレーム特殊効果、及び漫画スタイルビデオ画像を順次に重畳し、合成されたビデオ画像を得、そして、ステップS413を実行する。 Step S412: sequentially superimpose the greeting card bottom frame special effect, the greeting card frame special effect, and the cartoon style video image to obtain a composite video image, and then execute step S413.

ステップS413、撮影プレビュー画面内に、合成されたビデオ画像を表示する。 Step S413: Display the composite video image on the shooting preview screen.

これにより、図4に示す画像処理過程は、ユーザがビデオをリアルタイムに撮影する過程において、視覚的にグリーティングカードが顔を通って倒れたり立ち上がったりする効果の表示を実現することができ、また、グリーティングカードが倒れたり立ち上がったりする過程において、漫画効果と実際の人物効果との切り替えを実現することができ、撮影したビデオ素材に対してユーザが素材編集を行うことがなく、特殊効果を有する趣味ビデオを自動的に生成することができ、インタラクション興趣性を増加させ、ユーザの体験を向上させる。 As a result, the image processing process shown in FIG. 4 can realize the visual display of the effect of a greeting card falling or standing up through a user's face during the process of shooting a video in real time, and can also realize switching between a cartoon effect and a real-life character effect during the process of the greeting card falling or standing up. This makes it possible to automatically generate a hobby video with special effects without the user having to edit the shot video material, thereby increasing the interaction interest and improving the user experience.

本開示の実施例はさらに、上記の画像処理方法を実現可能な画像処理装置を提供し、以下、図5を参照して本開示の実施例による画像処理装置を説明する。 An embodiment of the present disclosure further provides an image processing device capable of implementing the above image processing method. Below, an image processing device according to an embodiment of the present disclosure is described with reference to FIG. 5.

本開示のいくつかの実施例では、当該画像処理装置は電子デバイスであってもよい。電子デバイスは、携帯電話、タブレット、デスクトップコンピュータ、ノートパソコン、車載端末、ウェアラブル電子デバイス、複合機、スマートホームデバイスなどの通信機能を有するデバイスを含んでもよく、仮想マシンまたはシミュレータによってシミュレートされたデバイスであってもよい。 In some embodiments of the present disclosure, the image processing device may be an electronic device. The electronic device may include a device having a communication function, such as a mobile phone, a tablet, a desktop computer, a laptop, an in-vehicle terminal, a wearable electronic device, a multifunction printer, or a smart home device, or may be a device simulated by a virtual machine or a simulator.

図5は、本開示の実施例による画像処理装置の構成概略図を示す。 Figure 5 shows a schematic diagram of the configuration of an image processing device according to an embodiment of the present disclosure.

図5に示すように、当該画像処理装置500は、第1処理ユニット510、第2処理ユニット520、第1合成ユニット530、及び第2合成ユニット540を含むことができる。 As shown in FIG. 5, the image processing device 500 may include a first processing unit 510, a second processing unit 520, a first synthesis unit 530, and a second synthesis unit 540.

当該第1処理ユニット510は、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するように配置されてもよい。 The first processing unit 510 may be arranged to identify a motion state of a first recognition object in an initial video image.

当該第2処理ユニット520は、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定するように配置されてもよい。 The second processing unit 520 may be configured to determine the movement state of the material object based on the movement state of the first recognition object.

当該第1合成ユニット530は、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して、第1ターゲットビデオ画像を得るように配置されてもよい。 The first synthesis unit 530 may be configured to synthesize the material object with the first style video image according to the motion state of the material object to obtain a first target video image when the motion state of the material object belongs to a first state.

当該第2合成ユニット540は、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して、第2ターゲットビデオ画像を得るように配置されてもよい。 The second synthesis unit 540 may be arranged to synthesize the material object with the second style video image according to the motion state of the material object to obtain a second target video image when the motion state of the material object belongs to the second state.

第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像であってもよい。 The first style video image and the second style video image may be different stylized images obtained based on the initial video image.

本開示の実施例では、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定し、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定し、そして、素材オブジェクトの動き状態を判断し、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に基づいて素材オブジェクトと第1スタイルビデオ画像とを合成して、第1ターゲットビデオ画像を得、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成し、第2ターゲットビデオ画像を得ることができるので、自動的にビデオ素材としての初期ビデオ画像に対して素材編集を行って編集後の合成画像を得ることができ、ユーザが素材編集を手動で行う必要がなく、これにより、ビデオ作成の時間コストを削減し、ビデオ作品の品質を向上させ、ユーザの体験を向上させることができる。 In an embodiment of the present disclosure, in an initial video image, a motion state of a first recognition object is identified, a motion state of a material object is identified based on the motion state of the first recognition object, and the motion state of the material object is determined. If the motion state of the material object belongs to the first state, the material object and a first style video image are composited based on the motion state of the material object to obtain a first target video image. If the motion state of the material object belongs to the second state, the material object and a second style video image are composited according to the motion state of the material object to obtain a second target video image. Therefore, material editing can be automatically performed on the initial video image as a video material to obtain an edited composite image, and the user does not need to manually edit the material. This can reduce the time cost of video creation, improve the quality of the video work, and improve the user's experience.

本開示のいくつかの実施例では、第1状態は、素材オブジェクトと初期ビデオ画像における第2認識オブジェクトとが第1位置関係を満たすことを表すことができ、第2状態は、素材オブジェクトと初期ビデオ画像における第2認識オブジェクトとが第2位置関係を満たすことを表すことができる。 In some embodiments of the present disclosure, the first state can represent a first positional relationship between the material object and the second recognition object in the initial video image, and the second state can represent a second positional relationship between the material object and the second recognition object in the initial video image.

本開示のいくつかの実施例では、第1位置関係は具体的に、素材オブジェクトが第2認識オブジェクトの前景に位置することであってもよく、第2位置関係は具体的に、素材オブジェクトが第2認識オブジェクトの背景に位置することであってもよい。 In some embodiments of the present disclosure, the first positional relationship may specifically be that the material object is located in the foreground of the second recognition object, and the second positional relationship may specifically be that the material object is located in the background of the second recognition object.

本開示のいくつかの実施例では、第1スタイルビデオ画像は、初期ビデオ画像がスタイル移行処理された画像であってもよく、第2スタイルビデオ画像は、初期ビデオ画像であってもよい。 In some embodiments of the present disclosure, the first style video image may be an image of an initial video image that has been subjected to a style transition process, and the second style video image may be the initial video image.

本開示のいくつかの実施例では、第1認識オブジェクトの動き状態は、
第1認識オブジェクトのターゲット移動方向に沿った移動状態と、
第1認識オブジェクトのターゲットオブジェクト姿勢への姿勢変化状態と、
第1認識オブジェクトのターゲット回転方向に沿った回転状態と、のいずれか1つを含んでもよい。
In some embodiments of the present disclosure, the motion state of the first recognition object is:
A moving state of the first recognition object along the target moving direction;
A posture change state of the first recognition object to the posture of the target object;
and a rotation state along the target rotation direction of the first recognition object.

本開示のいくつかの実施例では、当該第1処理ユニット510は、第1サブ処理ユニットと、第2サブ処理ユニットとを含んでもよい。 In some embodiments of the present disclosure, the first processing unit 510 may include a first sub-processing unit and a second sub-processing unit.

当該第1サブ処理ユニットは、初期ビデオ画像において、第1認識オブジェクトの表示パラメータ変数を検出するように配置されてもよい。 The first sub-processing unit may be arranged to detect display parameter variables of a first recognition object in an initial video image.

当該第2サブ処理ユニットは、表示パラメータ変数に基づいて、第1認識オブジェクトの動き状態を特定するように配置されてもよい。 The second sub-processing unit may be arranged to determine a motion state of the first recognition object based on the display parameter variable.

本開示のいくつかの実施例では、当該画像処理装置500はさらに、第3処理ユニットを含んでもよく、当該第3処理ユニットは、初期ビデオ画像において、第1認識オブジェクトのオブジェクト姿勢を検出するように配置されてもよい。 In some embodiments of the present disclosure, the image processing device 500 may further include a third processing unit, which may be configured to detect an object pose of the first recognition object in the initial video image.

それに対応して、当該第1処理ユニット510はさらに、第1認識オブジェクトのオブジェクト姿勢がターゲット姿勢である場合、初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するように配置されてもよい。 Correspondingly, the first processing unit 510 may be further arranged to determine a motion state of the first recognition object in the initial video image when the object pose of the first recognition object is the target pose.

本開示のいくつかの実施例では、当該画像処理装置500はさらに、第4処理ユニットを含んでもよく、当該第4処理ユニットは、素材オブジェクトのテンプレートビデオにおいて、第1認識オブジェクトの動き状態に対応するターゲットテンプレートビデオ画像を選択するように配置されてもよい。 In some embodiments of the present disclosure, the image processing device 500 may further include a fourth processing unit, which may be configured to select a target template video image in the template video of the material object that corresponds to a motion state of the first recognition object.

それに対応して、当該第2処理ユニット520はさらに、ターゲットテンプレートビデオ画像における素材オブジェクトの動き状態を素材オブジェクトの動き状態とするように配置されてもよい。 Correspondingly, the second processing unit 520 may be further configured to set the motion state of the material object in the target template video image to the motion state of the material object.

本開示のいくつかの実施例では、当該第4処理ユニットは、第3サブ処理ユニットと、第4サブ処理ユニットと、第5サブ処理ユニットとを含んでもよい。 In some embodiments of the present disclosure, the fourth processing unit may include a third sub-processing unit, a fourth sub-processing unit, and a fifth sub-processing unit.

当該第3サブ処理ユニットは、第1認識オブジェクトの動き状態に対応するターゲットジャンプフレーム数を特定するように配置されてもよい。 The third sub-processing unit may be configured to determine a target jump frame number corresponding to a motion state of the first recognition object.

当該第4サブ処理ユニットは、ターゲットジャンプフレーム数に基づいて、第1認識オブジェクトの動き状態に対応するターゲットビデオフレーム番号を特定するように配置されてもよい。 The fourth sub-processing unit may be configured to identify a target video frame number corresponding to a motion state of the first recognition object based on the target jump frame number.

当該第5サブ処理ユニットは、素材オブジェクトのテンプレートビデオにおける、ターゲットビデオフレーム番号に対応するテンプレートビデオ画像を、ターゲットテンプレートビデオ画像とするように配置されてもよい。 The fifth sub-processing unit may be configured to set a template video image corresponding to a target video frame number in the template video of the material object as the target template video image.

本開示のいくつかの実施例では、当該第2処理ユニット520はさらに、素材オブジェクトのターゲットビデオフレーム番号での動き状態を素材オブジェクトの動き状態とするように配置されてもよい。 In some embodiments of the present disclosure, the second processing unit 520 may be further configured to set the motion state of the material object at the target video frame number as the motion state of the material object.

本開示のいくつかの実施例では、素材オブジェクトは、動く素材オブジェクトと固定素材オブジェクトとを含み、素材オブジェクトの動き状態は、動く素材オブジェクトの動き状態である。 In some embodiments of the present disclosure, the material objects include moving material objects and fixed material objects, and the motion state of the material objects is the motion state of the moving material objects.

なお、図5に示す画像処理装置500は、図1~図4に示す方法実施例の各ステップを実行し、図1~図4に示す方法実施例の各過程及び効果を実現することができ、ここでは贅言しない。 Note that the image processing device 500 shown in FIG. 5 can execute each step of the method embodiment shown in FIG. 1 to FIG. 4 and realize each process and effect of the method embodiment shown in FIG. 1 to FIG. 4, and will not be described in detail here.

本開示の実施例はさらに、画像処理デバイスを提供し、当該画像処理デバイスは、プロセッサと、メモリとを含んでもよく、メモリは、実行可能な指令を記憶するために用いられてもよい。プロセッサは、上記の実施例における画像処理方法を実現するように、メモリから実行可能な指令を読み取って実行するために用いられてもよい。 An embodiment of the present disclosure further provides an image processing device, which may include a processor and a memory, and the memory may be used to store executable instructions. The processor may be used to read and execute the executable instructions from the memory to implement the image processing method in the above embodiment.

図6は、本開示の実施例による画像処理デバイスの構成概略図を示す。以下、具体的に図6を参照し、本開示の実施例における画像処理デバイス600を実現するのに適した構成概略図が示される。 FIG. 6 shows a schematic diagram of an image processing device according to an embodiment of the present disclosure. Referring specifically to FIG. 6 below, a schematic diagram suitable for realizing an image processing device 600 according to an embodiment of the present disclosure is shown.

本開示の実施例における画像処理デバイス600は電子デバイスであってもよい。電子デバイスは、携帯電話、ノートパソコン、デジタル放送受信機、PDA(携帯情報端末)、PAD(タブレット)、PMP(ポータブルマルチメディアプレーヤー)、車載端末(例えば、車載ナビゲーション端末)、ウェアラブルデバイスなどの携帯端末、及びデジタルTV、デスクトップコンピュータ、スマートホームデバイスなどの固定端末を含むことができるが、これらに限定されない。 The image processing device 600 in the embodiment of the present disclosure may be an electronic device. The electronic device may include, but is not limited to, mobile terminals such as mobile phones, notebook computers, digital broadcast receivers, PDAs (personal digital assistants), PADs (tablets), PMPs (portable multimedia players), in-car terminals (e.g., in-car navigation terminals), and wearable devices, and fixed terminals such as digital TVs, desktop computers, and smart home devices.

なお、図6に示す画像処理デバイス600は、一例に過ぎず、本開示の実施例の機能及び使用範囲に任意の制限を与えるべきではない。 Note that the image processing device 600 shown in FIG. 6 is merely an example and should not impose any limitations on the functionality and scope of use of the embodiments of the present disclosure.

図6に示すように、当該画像処理デバイス600は、リードオンリーメモリ(ROM)602に記憶されたプログラム、または記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムに従って、様々な適切な動作及び処理を実行できる処理装置(例えば、中央処理ユニット、グラフィックプロセッサなど)601を含むことができる。RAM603には、画像処理デバイス600の操作に必要な様々なプログラム及びデータがさらに記憶されている。処理装置601、ROM602及びRAM603は、バス604を介して互いに接続される。入出力(I/O)インターフェース605もバス604に接続される。 6, the image processing device 600 may include a processing unit (e.g., a central processing unit, a graphics processor, etc.) 601 capable of performing various suitable operations and processes according to a program stored in a read-only memory (ROM) 602 or loaded from a storage device 608 into a random access memory (RAM) 603. The RAM 603 further stores various programs and data necessary for the operation of the image processing device 600. The processing unit 601, the ROM 602, and the RAM 603 are connected to each other via a bus 604. An input/output (I/O) interface 605 is also connected to the bus 604.

通常、I/Oインターフェース605には、例えばタッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイクロフォン、加速度計、ジャイロなどを含む入力装置606、例えば、液晶ディスプレー(LCD)、スピーカー、バイブレーターなどを含む出力装置607、例えば、磁気テープ、ハードディスクなどを含む記憶装置608、及び通信装置609が接続されることができる。通信装置609は、画像処理デバイス600が他の機器と無線または有線通信を行ってデータを交換することを可能にする。図6には、様々な装置を有する画像処理デバイス600が示されているが、全ての示される装置を実施または具備することが要求されないことは理解されるべきである。代わりに、より多くのまたはより少ない装置を実施または具備してもよい。 Typically, the I/O interface 605 can be connected to input devices 606, including, for example, a touch screen, touch pad, keyboard, mouse, camera, microphone, accelerometer, gyro, etc., output devices 607, including, for example, a liquid crystal display (LCD), speaker, vibrator, etc., storage devices 608, including, for example, a magnetic tape, hard disk, etc., and communication devices 609. The communication devices 609 enable the image processing device 600 to communicate wirelessly or wired with other devices to exchange data. Although FIG. 6 shows the image processing device 600 having various devices, it should be understood that it is not required to implement or include all of the devices shown. Instead, more or fewer devices may be implemented or included.

本開示の実施例はさらに、コンピュータ可読記憶媒体を提供し、当該記憶媒体はコンピュータプログラムが記憶されており、コンピュータプログラムがプロセッサによって実行されるとき、上記の実施例における画像処理方法をプロセッサに実現させる。 An embodiment of the present disclosure further provides a computer-readable storage medium having a computer program stored therein, the computer program causing the processor to realize the image processing method of the above embodiment when executed by the processor.

特に、本開示の実施例によれば、フローチャートを参照して以上で説明される過程は、コンピュータソフトウェアプログラムとして実現されることができる。 In particular, according to an embodiment of the present disclosure, the process described above with reference to the flowcharts can be implemented as a computer software program.

本開示の実施例はさらに、コンピュータプログラム製品を提供し、当該コンピュータプログラム製品は、コンピュータプログラムを含むことができ、コンピュータプログラムがプロセッサによって実行されるとき、上記の実施例における画像処理方法をプロセッサに実現させる。 An embodiment of the present disclosure further provides a computer program product, which may include a computer program that, when executed by a processor, causes the processor to implement the image processing method in the above embodiment.

例えば、本出願の実施例は、非一時的なコンピュータ可読媒体上に担持されるコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含む。このような実施例では、当該コンピュータプログラムは、通信装置609を介してネットワークからダウンロード及びインストールされ、または、記憶装置608からインストールされ、またはROM602からインストールされることができる。当該コンピュータプログラムが処理装置601によって実行される場合、本出願の実施例の画像処理方法で限定される上記機能を実行する。 For example, embodiments of the present application include a computer program product including a computer program carried on a non-transitory computer readable medium, the computer program including program code for performing the method illustrated in the flowchart. In such embodiments, the computer program may be downloaded and installed from a network via a communication device 609, or may be installed from a storage device 608, or may be installed from a ROM 602. When the computer program is executed by the processing device 601, it performs the functions defined in the image processing method of the embodiments of the present application.

なお、本開示の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体、またはコンピュータ可読記憶媒体、または上記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、または半導体のシステム、装置、若しくはデバイス、または任意の以上の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例としては、1つまたは複数のワイヤを有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、または上記の任意の適切な組み合わせを含むことができるが、これらに限定されない。本開示の実施例では、コンピュータ可読記憶媒体は、指令実行システム、装置、またはデバイスによって使用され、またはこれらと組み合わせて使用されることができるプログラムを含むか、または記憶する任意の有形媒体であってもよい。本開示の実施例では、コンピュータ可読信号媒体は、ベースバンドで、または搬送波の一部として伝搬されるデータ信号を含むことができ、当該データ信号にコンピュータ可読のプログラムコードが担持される。このように伝搬されるデータ信号は、多種の形式を採用することができ、電磁信号、光信号、または上記の任意の適切な組み合わせを含むが、これらに限定されない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体を除いた任意のコンピュータ可読媒体であってもよく、当該コンピュータ可読信号媒体は、指令実行システム、装置、またはデバイスによって使用され、またはこれらと組み合わせて使用されるためのプログラムを送信、伝搬、または伝送することができる。コンピュータ可読媒体上に含まれるプログラムコードは、任意の適切な媒体によって伝送されることができ、電線、光ファイバケーブル、RF(無線周波数)など、または上記の任意の適切な組み合わせを含むが、これらに限定されない。 It should be noted that the computer-readable medium described in the embodiments of the present disclosure may be a computer-readable signal medium, or a computer-readable storage medium, or any combination of the above. The computer-readable storage medium may be, for example, but is not limited to, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any combination of the above. More specific examples of computer-readable storage media may include, but are not limited to, an electrical connection having one or more wires, a portable computer disk, a hard disk, a random access memory (RAM), a read-only memory (ROM), an erasable programmable read-only memory (EPROM or flash memory), an optical fiber, a portable compact disk read-only memory (CD-ROM), an optical storage device, a magnetic storage device, or any suitable combination of the above. In the embodiments of the present disclosure, the computer-readable storage medium may be any tangible medium that contains or stores a program that can be used by or in combination with an instruction execution system, apparatus, or device. In embodiments of the present disclosure, the computer-readable signal medium may include a data signal propagated in baseband or as part of a carrier wave, the data signal carrying computer-readable program code. Such propagated data signals may take a variety of forms, including, but not limited to, electromagnetic signals, optical signals, or any suitable combination of the above. The computer-readable signal medium may be any computer-readable medium, except for computer-readable storage media, that may transmit, propagate, or transmit a program for use by or in combination with an instruction execution system, apparatus, or device. The program code contained on the computer-readable medium may be transmitted by any suitable medium, including, but not limited to, electrical wires, fiber optic cables, RF (radio frequency), or the like, or any suitable combination of the above.

いくつかの実施形態では、クライアントやサーバは、例えばHTTPなどのような、現在既知、又は将来開発される任意のネットワークプロトコルを利用して通信することができ、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)と相互接続されることができる。通信ネットワークの例は、ローカルネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、ワールドワイドウェブ(例えば、インターネット)、エンドツーエンドネットワーク(例えば、adhocエンドツーエンドネットワーク)、及び現在既知、又は将来開発されるネットワークを含む。 In some embodiments, clients and servers may communicate using any network protocol now known or later developed, such as HTTP, and may be interconnected with any form or medium of digital data communication (e.g., a communications network). Examples of communications networks include local networks ("LANs"), wide area networks ("WANs"), the World Wide Web (e.g., the Internet), end-to-end networks (e.g., ad-hoc end-to-end networks), and other networks now known or later developed.

上記コンピュータ可読媒体は、上記画像処理デバイスに含まれてもよいし、当該画像処理デバイスに配置されず、個別に存在しもよい。 The computer-readable medium may be included in the image processing device, or may be separate from the image processing device.

上記コンピュータ可読媒体に1つまたは複数のプログラムが担持されており、上記1つまたは複数のプログラムが当該画像処理デバイスによって実行される場合、当該画像処理デバイスに、
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するステップと、第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定するステップと、素材オブジェクトの動き状態が第1状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第1スタイルビデオ画像とを合成して、第1ターゲットビデオ画像を得るステップと、素材オブジェクトの動き状態が第2状態に属する場合、素材オブジェクトの動き状態に応じて、素材オブジェクトと第2スタイルビデオ画像とを合成して、第2ターゲットビデオ画像を得るステップと、を実行させ、第1スタイルビデオ画像及び第2スタイルビデオ画像は、初期ビデオ画像に基づいて得られた、異なるスタイル化された画像である。
The computer-readable medium carries one or more programs, and when the one or more programs are executed by the image processing device, the image processing device is
The video processing system executes the steps of: determining a motion state of a first recognition object in an initial video image; determining a motion state of a material object based on the motion state of the first recognition object; if the motion state of the material object belongs to the first state, combining the material object with a first style video image according to the motion state of the material object to obtain a first target video image; and if the motion state of the material object belongs to the second state, combining the material object with a second style video image according to the motion state of the material object to obtain a second target video image, where the first style video image and the second style video image are different stylized images obtained based on the initial video image.

本開示の実施例では、本開示の操作を実行するためのコンピュータプログラムコードは、1種または多種のプログラミング言語またはそれらの組み合わせで作成されることができ、上記プログラミング言語は、Java、Smalltalk、C++のようなオブジェクト指向プログラミング言語を含み、「C」言語のような従来の手続き型プログラミング言語または類似するプログラミング言語をさらに含むが、これらに限定されない。プログラムコードは、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で一部的に、1つの独立型ソフトウェアパッケージとして、ユーザのコンピュータ上で一部的にかつリモートコンピュータ上で一部的に、またはリモートコンピュータ若しくはサーバ上で完全に実行することができる。リモートコンピュータが関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む、任意の種類のネットワークを介してユーザのコンピュータに接続することができ、または、外部コンピュータに接続することができる(例えば、インタネットサービスプロバイダを利用してインターネットを介して接続する)。 In embodiments of the present disclosure, computer program code for carrying out the operations of the present disclosure can be written in one or more programming languages or combinations thereof, including object-oriented programming languages such as Java, Smalltalk, C++, and further including, but not limited to, traditional procedural programming languages such as "C" or similar programming languages. The program code can run completely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partially on a remote computer, or completely on a remote computer or server. When a remote computer is involved, the remote computer can be connected to the user's computer via any type of network, including a local area network (LAN) or wide area network (WAN), or can be connected to an external computer (e.g., via the Internet using an Internet service provider).

図面におけるフローチャート及びブロック図は、本出願の様々な実施例のシステム、方法及びコンピュータプログラム製品に従って実現可能な体系アーキテクチャ、機能及び操作を示す。この点について、フローチャートまたはブロック図における各ブロックは、1つのモジュール、プログラムセグメント、またはコードの一部を代表することができ、当該モジュール、プログラムセグメント、またはコードの一部は、所定の論理機能を実現するための1つまたは複数の実行可能な指令を含む。なお、いくつかの代替の実現において、ブロックに示されている機能は、図に示されている順序とは異なる順序に従って発生してもよい。例えば、連続的に示される2つのブロックは実際には、基本的に並行して実行されてもよく、ある場合、逆の順序に従って実行されてもよく、関連する機能に応じて決定される。また、ブロック図及び/又はフローチャートにおける各ブロック、並びにブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための、ハードウェアによる専用システムで実現されてもよいし、又は専用ハードウェアとコンピュータ指令との組み合わせで実現されてもよい。 The flowcharts and block diagrams in the drawings illustrate system architectures, functions, and operations that can be realized according to the systems, methods, and computer program products of various embodiments of the present application. In this regard, each block in the flowcharts or block diagrams can represent a module, program segment, or part of code, which includes one or more executable instructions for implementing a certain logical function. It should be noted that in some alternative implementations, the functions shown in the blocks may occur according to an order different from the order shown in the figures. For example, two blocks shown in succession may actually be executed essentially in parallel, or in some cases, according to the reverse order, depending on the functions involved. Also, each block in the block diagrams and/or flowcharts, and combinations of blocks in the block diagrams and/or flowcharts may be realized in a dedicated system by hardware, or in a combination of dedicated hardware and computer instructions, for performing a certain function or operation.

本開示の実施例に記述されたユニットは、ソフトウェアの方式で実現されてもよいし、ハードウェアの方式で実現されてもよい。ユニットの名称は、ある場合、当該ユニット自身への限定を構成しない。 The units described in the embodiments of the present disclosure may be implemented in a software or hardware manner. The names of the units, if any, do not constitute limitations on the units themselves.

本明細書で上記に説明された機能は、少なくとも部分的に1つ又は複数のハードウェアロジック部材によって実行されてもよい。例えば、利用できるハードウェアロジック部材の例示的なタイプは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)などを含むが、これらに限定されない。 The functionality described herein above may be performed, at least in part, by one or more hardware logic components. For example, exemplary types of hardware logic components that may be utilized include, but are not limited to, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), application specific standard products (ASSPs), systems on chips (SOCs), complex programmable logic devices (CPLDs), and the like.

本開示において、機械可読媒体は、指令実行システム、装置又はデバイスによって、又はそれらと組み合わせて使用されてもよいプログラムを含むか、又は記憶する有形媒体であってもよい。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子、磁気、光学、電磁、赤外線、又は半導体システム、装置又はデバイス、或いは上記の内容の任意の適切な組み合わせを含むが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1つ又は複数のワイヤによる電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクト磁気ディスク読み取り専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記内容の任意の適切な組み合わせを含む。 In this disclosure, a machine-readable medium may be a tangible medium that contains or stores a program that may be used by or in combination with an instruction execution system, apparatus, or device. A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. A machine-readable medium includes, but is not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any suitable combination of the above. More specific examples of machine-readable storage media include an electrical connection by one or more wires, a portable computer disk, a hard disk, a random access memory (RAM), a read-only memory (ROM), an erasable programmable read-only memory (EPROM or flash memory), an optical fiber, a portable compact magnetic disk read-only memory (CD-ROM), an optical storage device, a magnetic storage device, or any suitable combination of the above.

以上の記載は、本開示の好適な実施例及び適用される技術原理に対する説明にすぎない。当業者であれば理解できるように、本開示に係る開示範囲は、上記の技術特徴の特定の組み合わせによって形成される技術案に限定されず、その同時、上記の開示された構想から逸脱することなく、上記の技術特徴またはその等価特徴の任意の組み合わせによって形成される他の技術案、例えば、上記の特徴と、本開示に開示された(ただしこれに限定されていない)類似機能を有する技術特徴とを互いに置き換えることによって形成された技術案も含む。 The above description is merely a description of the preferred embodiment and the technical principles applied in the present disclosure. As can be understood by those skilled in the art, the scope of the present disclosure is not limited to the technical solution formed by the specific combination of the above technical features, but also includes other technical solutions formed by any combination of the above technical features or their equivalent features without departing from the above disclosed concept, for example, a technical solution formed by replacing the above features with technical features having similar functions disclosed in the present disclosure (but not limited thereto).

また、特定の順序を採用して各操作を記載したが、示される特定の順番、または順序に従ってこれらの操作を順に実行することを要求するものとして解釈されるべきではない。特定の環境で、マルチタスク及び並行処理は有利である可能性がある。同様に、以上の論述には、いくつかの具体的な実現の詳細が含まれるが、本開示の範囲に対する限定として解釈されるべきではない。単一の実施例の文脈で説明されるいくつかの特徴は、組み合わせて、単一の実施例で実現されてもよい。逆に、単一の実施例の文脈で説明される様々な特徴は、別々に、または任意の適切なサブ組み合わせの形態で、複数の実施例で実現されてもよい。 In addition, although operations have been described employing a particular order, this should not be construed as requiring that these operations be performed in the particular order or sequence shown. In certain circumstances, multitasking and parallel processing may be advantageous. Similarly, the above discussion includes some specific implementation details, but these should not be construed as limitations on the scope of the disclosure. Some features that are described in the context of a single embodiment may also be implemented in a single embodiment in combination. Conversely, various features that are described in the context of a single embodiment may also be implemented in multiple embodiments separately or in any suitable subcombination.

構成特徴及び/または方法の論理動作に固有の言語で、本主題を説明したが、添付の特許請求の範囲で限定される主題は、上記の特定の特徴または動作に限定されないことを理解すべきである。むしろ、上述した特定の特徴及び動作は、特許請求の範囲を実現するための単なる例示的な形態である。 Although the subject matter has been described in language specific to configuration features and/or logical operations of methods, it should be understood that the subject matter defined in the appended claims is not limited to the specific features or operations described above. Rather, the specific features and operations described above are merely example forms for implementing the claims.

Claims (15)

画像処理方法であって、
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するステップと、
前記第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定するステップと、
前記素材オブジェクトの動き状態が第1状態に属する場合、前記素材オブジェクトの動き状態に応じて、前記素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得るステップと、
前記素材オブジェクトの動き状態が第2状態に属する場合、前記素材オブジェクトの動き状態に応じて、前記素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得るステップと、を含み、
前記第1スタイルビデオ画像及び前記第2スタイルビデオ画像は、前記初期ビデオ画像に基づいて得られた、異なるスタイル化された画像である、
ことを特徴とする方法。
1. An image processing method, comprising:
identifying a motion state of a first recognition object in an initial video image;
determining a motion state of a material object based on a motion state of the first recognition object;
if the motion state of the material object belongs to a first state, synthesizing the material object with a first style video image according to the motion state of the material object to obtain a first target video image;
if the motion state of the material object belongs to a second state, synthesizing the material object with a second style video image according to the motion state of the material object to obtain a second target video image;
the first style video image and the second style video image are different stylized images obtained based on the initial video image.
A method comprising:
前記第1状態は、前記素材オブジェクトと前記初期ビデオ画像における第2認識オブジェクトとが第1位置関係を満すことを表し、前記第2状態は、前記素材オブジェクトと前記初期ビデオ画像における第2認識オブジェクトとが第2位置関係を満すことを表す、
ことを特徴とする請求項1に記載の方法。
The first state represents that the material object and a second recognition object in the initial video image satisfy a first positional relationship, and the second state represents that the material object and a second recognition object in the initial video image satisfy a second positional relationship.
2. The method of claim 1 .
前記第1位置関係は具体的に、前記素材オブジェクトが前記第2認識オブジェクトの前景に位置することであり、前記第2位置関係は具体的に、前記素材オブジェクトが前記第2認識オブジェクトの背景に位置することである、
ことを特徴とする請求項2に記載の方法。
The first positional relationship is specifically that the material object is located in the foreground of the second recognition object, and the second positional relationship is specifically that the material object is located in the background of the second recognition object.
3. The method of claim 2 .
前記第1スタイルビデオ画像は、前記初期ビデオ画像がスタイル移行処理された画像であり、前記第2スタイルビデオ画像は、前記初期ビデオ画像である、
ことを特徴とする請求項1に記載の方法。
The first style video image is an image obtained by performing style transition processing on the initial video image, and the second style video image is the initial video image.
2. The method of claim 1 .
前記第1認識オブジェクトの動き状態は、
前記第1認識オブジェクトのターゲット移動方向に沿った移動状態と、
前記第1認識オブジェクトのターゲットオブジェクト姿勢への姿勢変化状態と、
前記第1認識オブジェクトのターゲット回転方向に沿った回転状態と、のいずれか1つを含む、
ことを特徴とする請求項1に記載の方法。
The motion state of the first recognition object is
A moving state of the first recognition object along a target moving direction;
A posture change state of the first recognition object to a posture of a target object;
and a rotation state along a target rotation direction of the first recognition object.
2. The method of claim 1 .
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定する前記ステップは、
前記初期ビデオ画像において、前記第1認識オブジェクトの表示パラメータ変数を検出するステップと、
前記表示パラメータ変数に基づいて、前記第1認識オブジェクトの動き状態を特定するステップと、を含む、
ことを特徴とする請求項1に記載の方法。
The step of identifying a motion state of a first recognition object in an initial video image includes:
detecting a display parameter variable of the first recognition object in the initial video image;
determining a motion state of the first recognition object based on the display parameter variable;
2. The method of claim 1 .
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定する前記ステップの前に、前記方法はさらに、
前記初期ビデオ画像において、前記第1認識オブジェクトのオブジェクト姿勢を検出するステップを含み、
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定する前記ステップは、
前記第1認識オブジェクトのオブジェクト姿勢がターゲット姿勢である場合、前記初期ビデオ画像において、前記第1認識オブジェクトの動き状態を特定するステップを含む、
ことを特徴とする請求項1に記載の方法。
Prior to the step of identifying a motion state of a first recognition object in an initial video image, the method further comprises:
detecting an object pose of the first recognition object in the initial video image;
The step of identifying a motion state of a first recognition object in an initial video image includes:
determining a motion state of the first recognition object in the initial video image when an object pose of the first recognition object is a target pose;
2. The method of claim 1 .
前記第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定する前記ステップの前に、前記方法はさらに、
素材オブジェクトのテンプレートビデオにおいて、前記第1認識オブジェクトの動き状態に対応するターゲットテンプレートビデオ画像を選択するステップを含み、
前記第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定する前記ステップは、
前記ターゲットテンプレートビデオ画像における前記素材オブジェクトの動き状態を前記素材オブジェクトの動き状態とするステップを含む、
ことを特徴とする請求項1に記載の方法。
Prior to the step of identifying a motion state of a material object based on a motion state of the first recognition object, the method further includes:
selecting a target template video image corresponding to a motion state of the first recognition object in a template video of a material object;
The step of identifying a motion state of a material object based on a motion state of the first recognition object includes:
a step of determining a motion state of the material object in the target template video image as a motion state of the material object;
2. The method of claim 1 .
素材オブジェクトのテンプレートビデオにおいて、前記第1認識オブジェクトの動き状態に対応するターゲットテンプレートビデオ画像を選択する前記ステップは、
前記第1認識オブジェクトの動き状態に対応するターゲットジャンプフレーム数を特定するステップと、
前記ターゲットジャンプフレーム数に基づいて、前記第1認識オブジェクトの動き状態に対応するターゲットビデオフレーム番号を特定するステップと、
前記素材オブジェクトのテンプレートビデオにおける、前記ターゲットビデオフレーム番号に対応するテンプレートビデオ画像を、前記ターゲットテンプレートビデオ画像とするステップと、を含む、
ことを特徴とする請求項8に記載の方法。
The step of selecting a target template video image corresponding to a motion state of the first recognition object in a template video of a material object includes:
determining a target jump frame number corresponding to a motion state of the first recognition object;
determining a target video frame number corresponding to a motion state of the first recognition object according to the target jump frame number;
a step of setting a template video image corresponding to the target video frame number in a template video of the material object as the target template video image;
9. The method of claim 8.
前記ターゲットテンプレートビデオ画像における前記素材オブジェクトの動き状態を前記素材オブジェクトの動き状態とする前記ステップは、
前記素材オブジェクトの前記ターゲットビデオフレーム番号での動き状態を前記素材オブジェクトの動き状態とするステップを含む、
ことを特徴とする請求項9に記載の方法。
The step of setting the motion state of the material object in the target template video image as the motion state of the material object includes:
a step of setting a motion state of the material object at the target video frame number as a motion state of the material object;
10. The method of claim 9.
前記素材オブジェクトは、動く素材オブジェクトと固定素材オブジェクトとを含み、前記素材オブジェクトの動き状態は、動く素材オブジェクトの動き状態である、
ことを特徴とする請求項1に記載の方法。
The material objects include moving material objects and fixed material objects, and the motion state of the material objects is the motion state of the moving material objects.
2. The method of claim 1 .
画像処理装置であって、
初期ビデオ画像において、第1認識オブジェクトの動き状態を特定するように配置される第1処理ユニットと、
前記第1認識オブジェクトの動き状態に基づいて、素材オブジェクトの動き状態を特定するように配置される第2処理ユニットと、
前記素材オブジェクトの動き状態が第1状態に属する場合、前記素材オブジェクトの動き状態に応じて、前記素材オブジェクトと第1スタイルビデオ画像とを合成して第1ターゲットビデオ画像を得るように配置される第1合成ユニットと、
前記素材オブジェクトの動き状態が第2状態に属する場合、前記素材オブジェクトの動き状態に応じて、前記素材オブジェクトと第2スタイルビデオ画像とを合成して第2ターゲットビデオ画像を得るように配置される第2合成ユニットと、
を含み、
前記第1スタイルビデオ画像及び前記第2スタイルビデオ画像は、前記初期ビデオ画像に基づいて得られた、異なるスタイル化された画像である、
ことを特徴とする装置。
An image processing device,
a first processing unit arranged to identify a motion state of a first recognition object in an initial video image;
a second processing unit arranged to determine a motion state of a material object based on a motion state of the first recognition object;
a first synthesis unit, configured to synthesize the material object and a first style video image according to a motion state of the material object to obtain a first target video image when the motion state of the material object belongs to a first state;
a second synthesis unit, configured to synthesize the material object with a second style video image according to the motion state of the material object to obtain a second target video image when the motion state of the material object belongs to a second state;
Including,
the first style video image and the second style video image are different stylized images obtained based on the initial video image.
An apparatus comprising:
画像処理デバイスであって、
プロセッサと、
実行可能な指令を記憶するためのメモリと、
を含み、
前記プロセッサは、前記メモリから前記実行可能な指令を読み取って実行して、請求項1から11のいずれか1項に記載の画像処理方法を実現するために用いられる、
ことを特徴とする画像処理デバイス。
1. An image processing device, comprising:
A processor;
a memory for storing executable instructions;
Including,
The processor is adapted to read and execute the executable instructions from the memory to implement the image processing method according to any one of claims 1 to 11.
1. An image processing device comprising:
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1から11のいずれか1項に記載の画像処理方法をプロセッサに実現させる、
ことを特徴とするコンピュータ可読記憶媒体。
A computer-readable storage medium having a computer program stored thereon,
The computer program, when executed by a processor, causes the processor to implement the image processing method according to any one of claims 1 to 11.
A computer-readable storage medium comprising:
請求項1から11のいずれか1項に記載の画像処理方法をコンピュータに実行させるコンピュータプログラム。
A computer program causing a computer to execute the image processing method according to any one of claims 1 to 11.
JP2023548283A 2021-02-09 2022-02-09 Image processing method, apparatus, device and medium Active JP7467780B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110180571.8A CN112906553B (en) 2021-02-09 2021-02-09 Image processing method, apparatus, device and medium
CN202110180571.8 2021-02-09
PCT/CN2022/075622 WO2022171114A1 (en) 2021-02-09 2022-02-09 Image processing method and apparatus, and device and medium

Publications (2)

Publication Number Publication Date
JP2024505597A JP2024505597A (en) 2024-02-06
JP7467780B2 true JP7467780B2 (en) 2024-04-15

Family

ID=76123194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023548283A Active JP7467780B2 (en) 2021-02-09 2022-02-09 Image processing method, apparatus, device and medium

Country Status (6)

Country Link
US (1) US20230133416A1 (en)
EP (1) EP4206982A4 (en)
JP (1) JP7467780B2 (en)
KR (1) KR20230130748A (en)
CN (1) CN112906553B (en)
WO (1) WO2022171114A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906553B (en) * 2021-02-09 2022-05-17 北京字跳网络技术有限公司 Image processing method, apparatus, device and medium
CN115719468B (en) * 2023-01-10 2023-06-20 清华大学 Image processing method, device and equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005261642A (en) 2004-03-18 2005-09-29 Sony Computer Entertainment Inc Entertainment system
JP2006014875A (en) 2004-06-30 2006-01-19 Sony Computer Entertainment Inc Information processor, program and object control method in information processor
CN107911614A (en) 2017-12-25 2018-04-13 腾讯数码(天津)有限公司 A kind of image capturing method based on gesture, device and storage medium
CN110189246A (en) 2019-05-15 2019-08-30 北京字节跳动网络技术有限公司 Image stylization generation method, device and electronic equipment

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4695275B2 (en) * 2001-03-07 2011-06-08 独立行政法人科学技術振興機構 Video generation system
CN101454803A (en) * 2006-05-25 2009-06-10 日本电气株式会社 Video image special effect detecting device, special effect detecting method, special effect detecting program and video image reproducing device
CN102609970B (en) * 2011-12-19 2014-11-05 中山大学 Two-dimensional animation synthesis method based on movement element multiplexing
CN106373170A (en) * 2016-08-31 2017-02-01 北京云图微动科技有限公司 Video making method and video making device
CN106484416B (en) * 2016-09-30 2021-02-05 腾讯科技(北京)有限公司 Information processing method and terminal
CN106303291B (en) * 2016-09-30 2019-06-07 努比亚技术有限公司 A kind of image processing method and terminal
CN107105173A (en) * 2017-04-24 2017-08-29 武汉折叠空间科技有限公司 A kind of self-service video creating method of interactive
US10789470B2 (en) * 2017-07-12 2020-09-29 Electronics And Telecommunications Research Institute System and method for detecting dynamic object
CN107944397A (en) * 2017-11-27 2018-04-20 腾讯音乐娱乐科技(深圳)有限公司 Video recording method, device and computer-readable recording medium
CN108234903B (en) * 2018-01-30 2020-05-19 广州市百果园信息技术有限公司 Interactive special effect video processing method, medium and terminal equipment
CN108289180B (en) * 2018-01-30 2020-08-21 广州市百果园信息技术有限公司 Method, medium, and terminal device for processing video according to body movement
CN108712661B (en) * 2018-05-28 2022-02-25 广州虎牙信息科技有限公司 Live video processing method, device, equipment and storage medium
CN108810597B (en) * 2018-06-25 2021-08-17 百度在线网络技术(北京)有限公司 Video special effect processing method and device
US10896534B1 (en) * 2018-09-19 2021-01-19 Snap Inc. Avatar style transformation using neural networks
CN109495695A (en) * 2018-11-29 2019-03-19 北京字节跳动网络技术有限公司 Moving object special video effect adding method, device, terminal device and storage medium
CN110012237B (en) * 2019-04-08 2020-08-07 厦门大学 Video generation method and system based on interactive guidance and cloud enhanced rendering
CN113906467A (en) * 2019-06-11 2022-01-07 Oppo广东移动通信有限公司 Method, system, and computer readable medium for stylizing video frames
CN110139159B (en) * 2019-06-21 2021-04-06 上海摩象网络科技有限公司 Video material processing method and device and storage medium
CN110381266A (en) * 2019-07-31 2019-10-25 百度在线网络技术(北京)有限公司 A kind of video generation method, device and terminal
CN111145088B (en) * 2020-01-07 2023-11-24 中国传媒大学 Projection style rendering method and system suitable for viewing space
CN111416991B (en) * 2020-04-28 2022-08-05 Oppo(重庆)智能科技有限公司 Special effect processing method and apparatus, and storage medium
CN111783729A (en) * 2020-07-17 2020-10-16 商汤集团有限公司 Video classification method, device, equipment and storage medium
CN111951157A (en) * 2020-09-02 2020-11-17 深圳传音控股股份有限公司 Image processing method, apparatus and storage medium
CN112311966A (en) * 2020-11-13 2021-02-02 深圳市前海手绘科技文化有限公司 Method and device for manufacturing dynamic lens in short video
CN112906553B (en) * 2021-02-09 2022-05-17 北京字跳网络技术有限公司 Image processing method, apparatus, device and medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005261642A (en) 2004-03-18 2005-09-29 Sony Computer Entertainment Inc Entertainment system
JP2006014875A (en) 2004-06-30 2006-01-19 Sony Computer Entertainment Inc Information processor, program and object control method in information processor
CN107911614A (en) 2017-12-25 2018-04-13 腾讯数码(天津)有限公司 A kind of image capturing method based on gesture, device and storage medium
CN110189246A (en) 2019-05-15 2019-08-30 北京字节跳动网络技术有限公司 Image stylization generation method, device and electronic equipment

Also Published As

Publication number Publication date
KR20230130748A (en) 2023-09-12
US20230133416A1 (en) 2023-05-04
WO2022171114A1 (en) 2022-08-18
CN112906553A (en) 2021-06-04
CN112906553B (en) 2022-05-17
EP4206982A1 (en) 2023-07-05
EP4206982A4 (en) 2023-09-13
JP2024505597A (en) 2024-02-06

Similar Documents

Publication Publication Date Title
JP7467780B2 (en) Image processing method, apparatus, device and medium
US11594000B2 (en) Augmented reality-based display method and device, and storage medium
CN110321048B (en) Three-dimensional panoramic scene information processing and interacting method and device
US11587280B2 (en) Augmented reality-based display method and device, and storage medium
JP2024505995A (en) Special effects exhibition methods, devices, equipment and media
CN112199016B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP7395070B1 (en) Video processing methods and devices, electronic equipment and computer-readable storage media
CN112884908A (en) Augmented reality-based display method, device, storage medium, and program product
WO2020007182A1 (en) Personalized scene image processing method and apparatus, and storage medium
CN110782532B (en) Image generation method, image generation device, electronic device, and storage medium
CN114677386A (en) Special effect image processing method and device, electronic equipment and storage medium
JP7390495B2 (en) Hair rendering methods, devices, electronic devices and storage media
CN111970571A (en) Video production method, device, equipment and storage medium
WO2023151525A1 (en) Method and apparatus for generating special-effect video, and electronic device and storage medium
CN113806306A (en) Media file processing method, device, equipment, readable storage medium and product
CN114401443B (en) Special effect video processing method and device, electronic equipment and storage medium
CN109587572B (en) Method and device for displaying product, storage medium and electronic equipment
CN110990106B (en) Data display method and device, computer equipment and storage medium
JP7427786B2 (en) Display methods, devices, storage media and program products based on augmented reality
CN115272151A (en) Image processing method, device, equipment and storage medium
CN112099712B (en) Face image display method and device, electronic equipment and storage medium
CN113873319A (en) Video processing method and device, electronic equipment and storage medium
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
CN115240260A (en) Image processing method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230809

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150