JP2021517696A - 動画スタンプの生成方法並びにそのコンピュータプログラム及びコンピュータ装置 - Google Patents

動画スタンプの生成方法並びにそのコンピュータプログラム及びコンピュータ装置 Download PDF

Info

Publication number
JP2021517696A
JP2021517696A JP2020552389A JP2020552389A JP2021517696A JP 2021517696 A JP2021517696 A JP 2021517696A JP 2020552389 A JP2020552389 A JP 2020552389A JP 2020552389 A JP2020552389 A JP 2020552389A JP 2021517696 A JP2021517696 A JP 2021517696A
Authority
JP
Japan
Prior art keywords
stamp
video
video data
shooting
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020552389A
Other languages
English (en)
Other versions
JP7112508B2 (ja
Inventor
ホアン,ドォン
リアン,ティエンイ
ジョォン,ジィアウエン
ジョウ,ジュンジエ
ジアン,ジン
チィ,イン
リアン,スクゥン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021517696A publication Critical patent/JP2021517696A/ja
Application granted granted Critical
Publication of JP7112508B2 publication Critical patent/JP7112508B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

本願は、動画スタンプの生成方法、コンピュータ可読記憶媒体及びコンピュータ装置に関し、前記方法は、会話画面においてスタンプ入力パネルに入るステップと、入力パネルにおいてトリガーされたビデオ撮影イベントを検出するステップと、ビデオ撮影イベントに応答して、ビデオデータを撮影するステップと、ビデオデータに対する編集操作を取得するステップと、編集操作に従ってビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成するステップと、動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加するステップと、を含み、スタンプサムネイルは、スタンプサムネイルに対する選択イベントがスタンプ入力パネルで検出されたときに、動画スタンプを会話メッセージとして前記会話画面に表示するために用いられる。本願が提供する解決手段は動画スタンプを生成する効率を大幅に向上させることができる。【選択図】図2

Description

本願は、2018年9月27日に提出された、出願番号が2018111328446で、発明の名称が「動画スタンプの生成方法、装置、コンピュータ可読記憶媒体及びコンピュータ装置」である中国特許出願の優先権を主張し、その全ての内容は、参照により本願に組み込むものとする。
本願は、コンピュータ技術の分野に関し、特に動画スタンプの生成方法、並びにそのコンピュータプログラム及びコンピュータ装置に関する。
インターネットの急速な発展に伴い、インスタントメッセージングアプリケーションを含む様々なオンラインソーシャルアプリケーションが出ている。これらのソーシャルアプリケーションを使用する過程では、言いたいことをより具象的に、生き生きとして表現するために、ユーザーは動画スタンプを常に送信することがあり、これにより、ユーザー間のコミュニケーションの柔軟性及び面白さを大幅に高めることができる。
現在、多くの動画スタンプは一般的にソーシャルアプリケーションの開発者により事前に設計されており、ユーザーがダウンロード又は保存した後に使用することができるが、これらのスタンプはユーザーの個人的ニーズを満たすことができない。カスタマイズした動画スタンプを使用できるようにするために、ユーザーは特別のツールを使用して、自分が好む素材を処理した後に動画スタンプを生成し、次に、自分が便利に使用できるように動画スタンプをソーシャルアプリケーションに導入する。明らかに、このような動画スタンプを生成する方式は効率が非常に低い。
本願は、動画スタンプの生成方法、コンピュータ可読記憶媒体及びコンピュータ装置を提供し、関連技術における動画スタンプを生成する方式の効率が低いという技術的課題を解決することができる。
動画スタンプの生成方法は、コンピュータ装置が実行する動画スタンプの生成方法は、
会話画面においてスタンプ入力パネルに入るステップと、
前記スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出するステップと、
前記ビデオ撮影イベントに応答して、ビデオデータを撮影するステップと、
前記ビデオデータに対する編集操作を取得するステップと、
前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成するステップと、
前記動画スタンプに対応するスタンプサムネイルを前記スタンプ入力パネルに付加するステップと、を含み、前記スタンプ入力パネルにおいて、前記スタンプサムネイルに対する選択イベントを検出したときに、前記スタンプサムネイルは、前記動画スタンプを会話メッセージとして前記会話画面に表示するために用いられる。
動画スタンプの生成装置は、
会話画面においてスタンプ入力パネルに入り、前記スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出する検出モジュールと、
前記ビデオ撮影イベントに応答して、ビデオデータを撮影する撮影モジュールと、
前記ビデオデータに対する編集操作を取得する取得モジュールと、
前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成する合成モジュールと、
前記動画スタンプに対応するスタンプサムネイルを前記スタンプ入力パネルに付加する付加モジュールと、を含み、前記スタンプ入力パネルにおいて、前記スタンプサムネイルに対する選択イベントを検出したときに、前記スタンプサムネイルは、前記動画スタンプを会話メッセージとして前記会話画面に表示するために用いられる。
コンピュータ可読記憶媒体には、プロセッサにより実行されると、上記動画スタンプの生成方法のステップを実行するコンピュータプログラムが記憶されている。
コンピュータ装置は、プロセッサと、前記プロセッサにより実行されると、前記プロセッサに上記動画スタンプの生成方法のステップを実行させるコンピュータプログラムが記憶されているメモリとを含む。
一実施例における動画スタンプの生成方法の応用環境の図である。 一実施例における動画スタンプの生成方法のフローチャートである。 一実施例における、会話画面にスタンプ入力パネルを表示するインタフェースの概略図である。 一実施例における、スタンプ入力パネルのお気に入りタブにスタンプ撮影アイコンを表示するステップのインタフェースの概略図である。 一実施例におけるビデオ撮影画面のインタフェースの概略図である。 一実施例における会話画面でのスタンプメッセージ追尾撮影のステップのフローチャートである。 一実施例における会話画面でのスタンプメッセージ追尾撮影のインタフェースの概略図である。 一実施例における、ビデオ撮影画面に編集アイコンを表示するインタフェースの概略図である。 一実施例における、動画スタンプをスタンプ入力パネルに付加するインタフェースの概略図である。 具体的な応用シナリオで動画スタンプを生成する全体のフローチャートである。 一実施例における、選択されたスタンプサムネイルに対応する付加対象となるスタンプをビデオデータに付加するインタフェースの概略図である。 一実施例における、取得されたテキストをビデオデータに付加するインタフェースの概略図である。 具体的な実施例における、編集操作に従ってビデオデータにおける各ビデオフレームを処理した後に動画スタンプを合成するフローチャートである。 具体的な実施例における、動画スタンプを生成するフローチャートである。 一実施例における動画スタンプの生成装置の構造ブロック図である。 一実施例におけるコンピュータ装置の構造ブロック図である。
本願の目的、技術的解決手段及び利点をより明確にするために、以下に図面及び実施例を参照しながら、本願をさらに詳細に説明する。理解すべきこととして、ここで記述された具体的な実施例は本願を説明するためのものに過ぎず、本願を限定するものではない。
図1は、一実施例における動画スタンプの生成方法の応用環境の図である。図1に表示するように、該動画スタンプの生成方法は、動画スタンプ生成システムに応用される。該動画スタンプ生成システムは、端末110及びサーバ120を含む。端末110とサーバ120は、ネットワークを介して接続される。端末110は、具体的には、携帯電話、タブレットコンピュータ、ノートブックコンピュータなどのうちの少なくとも1つであり得る携帯端末であってもよい。サーバ120は、独立したサーバ又は複数のサーバで構成されるサーバクラスタで実現されてもよい。
端末110は、会話画面においてスタンプ入力パネルに入り、スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出し、ビデオ撮影イベントに応答して、ビデオデータを撮影してもよい。端末110は、また、ビデオデータに対する編集操作を取得し、編集操作に従ってビデオデータにおける各ビデオフレームを処理した後に動画スタンプを合成してもよい。端末110は、動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加してもよい。スタンプサムネイルは、スタンプサムネイルに対する選択イベントがスタンプ入力パネルで検出されたときに、動画スタンプを会話メッセージとして会話画面に表示するために用いられる。
なお、上記応用環境はあくまで一例であり、いくつかの実施例において、端末110は、撮影したビデオデータと取得した該ビデオデータに対する編集操作をサーバ120に送信してもよく、サーバ120は、編集操作に従ってビデオデータにおける各ビデオフレームを処理した後に動画スタンプを合成し、合成された動画スタンプに対応するスタンプサムネイルを端末110にフィードバックし、端末110は、該スタンプサムネイルをスタンプ入力パネルに付加する。このようにして、端末110は、スタンプ入力パネルにおける該スタンプサムネイルに対するトリガー操作を検出したときに、サーバ120から該スタンプサムネイルに対応する動画スタンプを取得して、該動画スタンプを会話メッセージとして会話画面に表示することができる。
図2に表示するように、一実施例において、動画スタンプの生成方法を提供する。該方法はコンピュータ装置に応用され、本実施例は、主に該方法を上記図1における端末110に応用することを例として説明する。図2に表示するように、該動画スタンプの生成方法は具体的に以下のステップS202〜ステップS212を含む。
S202、会話画面においてスタンプ入力パネルに入る。
会話画面は、会話メッセージを表示する画面であり、例えば、ソーシャルアプリケーションにおける会話の両側が送信した会話メッセージを表示する画面であってもよい。ソーシャルアプリケーションは、ソーシャルネットワークに基づいてオンラインソーシャルインタラクションを行うアプリケーションであり、ソーシャルアプリケーションは一般的にインスタントメッセージング機能を有し、ソーシャルアプリケーションはインスタントメッセンジャーなどであってもよく、会話メッセージはインスタント会話メッセージであってもよい。
スタンプは意思表現効果を有する画像であり、該スタンプを送信したユーザーの心の動き、気分、感情又は特定の意味を反映することができる。スタンプは、静止スタンプ及び動画スタンプを含む。一般的に、静止スタンプは、静止画像であり、PNG(Portable Network Graphics、ポータブルネットワークグラフィックス)というファイルフォーマットであってもよく、動画スタンプは、複数フレームの画像から合成される動画であり、GIF(Graphics Interchange Format、グラフィックス・インターチェンジ・フォーマット)というファイルフォーマットであってもよい。
スタンプ入力パネルは、各スタンプに対応するスタンプサムネイルを格納するコンテナであり、ユーザーはスタンプ入力パネルにおいて新しいスタンプを付加することができる。スタンプ入力パネルは、異なるカテゴリ又は異なる由来のスタンプに対応するスタンプサムネイルを格納する複数のタブ、例えば、ソーシャルアプリケーションの開発者が設計したスタンプに対応するスタンプサムネイルを格納するための常用タブ、現在のユーザーがお気に入りにしたスタンプに対応するスタンプサムネイルを格納するためのお気に入りタブ、新しいスタンプをダウンロード、保存又は導入するための付加タブなどを含む。一般的に、会話画面において、スタンプ入力パネルとテキスト入力パネルを切り替えることができ、ユーザーは、テキスト入力パネルに切り替えた場合にテキスト入力ボックスにテキストを入力して、通信相手にテキストメッセージを送信することができ、スタンプ入力パネルに切り替えた場合にスタンプを入力して、通信相手にスタンプメッセージを送信することができる。スタンプ入力パネルとテキスト入力パネルは、一括して会話パネルと呼ばれてもよい。
具体的には、端末は会話画面にスタンプ入力アイコンを示し、該スタンプ入力アイコンに対するトリガーイベントを検出したときに、会話画面にスタンプ入力パネルを示して、スタンプ入力パネルに入ることができる。端末は、現在のユーザーによりトリガーされた、スタンプ入力パネルにおけるいずれかのスタンプサムネイルに対するトリガー操作を検出したときに、該スタンプサムネイルに対応するスタンプを取得し、取得したスタンプを、通信相手のログインアカウントにログインしている他の端末に送信し、取得したスタンプを現在の会話画面に表示することができる。本実施例において、スタンプサムネイルに対するトリガー操作は、クリック操作、押し操作、ドラッグ操作又はスライド操作であってもよい。
図3は一実施例における、会話画面にスタンプ入力パネルを表示する概略図である。図3に表示するように、端末は、会話画面30に入力ボックス31を表示することができ、入力ボックス31においてスタンプ入力アイコン32に対するトリガー操作を検出したときに、会話画面30にスタンプ入力パネル33を表示する。
S204、入力パネルにおいてトリガーされたビデオ撮影イベントを検出する。
ビデオ撮影イベントは、ビデオの撮影をトリガーするイベントである。具体的には、スタンプ入力パネルには、各スタンプに対応するスタンプサムネイルを含むだけでなく、スタンプ撮影アイコンも含み、端末は、現在のユーザーがトリガーした、該スタンプ撮影アイコンに対するビデオ撮影イベントを検出することができる。該ユーザーがトリガーした、該スタンプ撮影アイコンに対するビデオ撮影イベントは、上記した、スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントであってもよい。ビデオ撮影イベントは、該スタンプ撮影アイコンに対するクリック操作であってもよい。
一実施例において、スタンプ入力パネルは複数のタブを含んでもよく、端末は、これらの複数のタブのいずれか1つに、スタンプ撮影アイコンに対するビデオ撮影イベントを該タブで検出できるように、スタンプ撮影アイコンを示してもよい。端末は、トリガーされたスタンプ撮影アイコンの動画撮影イベントをいずれのタブでも検出できるように、各タブのいずれにもスタンプ撮影アイコンを示してもよい。
図4に表示するように、一実施例における、スタンプ入力パネルのお気に入りタブにスタンプ撮影アイコンを表示する概略図である。図4に表示するように、ユーザーは、スタンプ入力パネルにおけるお気に入りタブ40に入り、スタンプ撮影アイコン41をクリックして、ビデオデータの撮影をトリガすることができる。
S206、ビデオ撮影イベントに応答して、ビデオデータを撮影する。
ビデオデータは、動画スタンプを生成する素材であり、撮影された複数のビデオフレームを含む。具体的には、端末は、スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出したときに、該ビデオ撮影イベントに応答して、配置された撮影装置を、ビデオデータを撮影するように制御する。撮影装置は、例えば、端末に配置されたフロントカメラ又はリアカメラであってもよい。
一実施例において、端末は、ビデオ撮影イベントを検出したときに、会話画面からビデオ撮影画面にジャンプし、ビデオ撮影画面において撮影装置を直接呼び出してビデオデータの撮影を開始し、撮影が完了するまで、撮影したビデオデータをビデオ撮影画面に表示することができる。端末は、ユーザーがトリガーした撮影終了イベントを検出したときに、撮影を終了して、ビデオデータを取得することができる。
一実施例において、ステップS206、ビデオ撮影イベントに応答して、ビデオデータを撮影することは、ビデオ撮影イベントに応答して、会話画面からビデオ撮影画面にジャンプするステップと、ビデオ撮影画面にリアルタイムに撮影された画像を表示するステップと、ビデオ撮影画面においてトリガーされた記録開始イベントを検出したときに、ビデオデータの記録を開始するステップと、ビデオ撮影画面において記録終了イベントがトリガーされるときに終了し、記録されたビデオデータを取得するステップと、を含む。
記録開始イベントは、ユーザーによりトリガーされた、記録アイコンに対するトリガーイベント、例えば、記録アイコンに対する押し操作、クリック操作又はスライド操作などであってもよく、記録終了イベントは、記録アイコンの状態が押されている状態から押されていない状態に切り替わったというイベントであってもよく、又はビデオデータの記録時間が目標時間に達したというイベントであってもよい。
具体的には、端末は、リアルタイムに撮影された画像をビデオ撮影画面に表示することができ、例えば、ユーザーは、端末に配置されたフロントカメラでユーザーの顔を含むリアルタイム画像を撮影することができ、配置されたリアカメラでユーザーの顔を含むリアルタイム画像を撮影することもできる。ビデオ撮影画面においてトリガーされた記録開始イベントを検出したときに、ビデオデータの記録を開始し、ビデオ撮影画面においてトリガーされた記録終了イベントが検出されるときに終了し、記録されたビデオデータを取得する。
図5に表示するように、一実施例におけるビデオ撮影画面のインタフェースの概略図である。図5に表示するように、ユーザーは、ビデオ撮影画面50において記録アイコン51を長押しして、ビデオデータの記録の開始をトリガーし、押しを終了するか又はビデオデータ記録時間が、例えば5〜10秒である目標時間に達したときに、記録されたビデオデータを取得することができる。
図6に表示するように、一実施例において、動画スタンプの生成方法は、さらに以下を含む。
S602、会話画面におけるスタンプメッセージに対する追尾撮影操作を取得する。
スタンプメッセージは、内容がスタンプである会話メッセージである。追尾撮影操作も、ユーザーがトリガーするビデオ撮影イベントである。ユーザーは、スタンプ入力パネルにおいてビデオ撮影イベントをトリガーしてもよく、スタンプメッセージによりビデオ撮影イベントをトリガーしてもよい。
具体的には、会話画面に示されたスタンプメッセージに対して、端末は、ユーザーがトリガーした該スタンプメッセージに対する追尾撮影操作を検出することにより、ビデオデータの撮影をトリガーし、ビデオデータを取得することができ、さらに、ビデオデータに対する編集操作を取得し、編集操作に従ってビデオデータにおける各ビデオフレームを処理した後に動画スタンプを合成し、動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加するというステップを実行する。
一実施例において、端末は、会話画面のいずれか1つのスタンプメッセージ中のスタンプに対する押し操作を検出したときに、該スタンプに対応する詳細メニューを示し、ユーザーによりトリガーされた該詳細メニューにおける「追尾撮影」というオプションに対するトリガー操作を検出し、該スタンプメッセージに対する追尾撮影操作を取得する。
S604、追尾撮影操作に応答して、会話画面からビデオ撮影画面にジャンプする。
具体的には、スタンプメッセージに対する追尾撮影操作が検出された後に、会話画面からビデオ撮影画面にジャンプし、リアルタイムに撮影された画像をビデオ撮影画面に表示することができる。
S606、スタンプメッセージに対応するスタンプを半透明でビデオ撮影画面に表示する。
S608、リアルタイムに撮影された画像と半透明で示されたスタンプを重ねて表示する。
具体的には、端末は、スタンプメッセージに対応するスタンプを、リアルタイムに撮影された画像の前景として半透明で示し、ビデオ撮影画面に表示する。これにより、実際に撮影された画像と半透明のスタンプを重ねてビデオ撮影画面に表示することができ、リアルタイムに撮影された画像に対してビデオデータを記録することをガイドすることができる。端末は、ビデオ撮影画面においてトリガーされた記録開始イベントを検出したときに、リアルタイムに撮影された画像に対してビデオデータを記録することを開始し、ビデオ撮影画面において記録終了イベントがトリガーされるときに終了し、記録されたビデオデータを取得することができる。なお、半透明で示されるスタンプは、ビデオデータの記録をガイドするためのみに用いられ、ビデオデータの記録が終了した後に取得されたデータは半透明で示されるスタンプを含まない。
一実施例において、ステップS606では、スタンプメッセージに対応するスタンプ中のテキストを元のスタイルでビデオ撮影画像に示し、スタンプメッセージに対応するスタンプ中のテキスト以外の内容を半透明でビデオ撮影画像に示してもよく、すなわち、テキストは不透明でビデオ撮影画面に示される。すると、ステップS608では、リアルタイムに撮影されたた画像を、該スタンプ中の元のスタイルで示されたテキスト及び半透明で示された内容と重ねてビデオ撮影画面に示してもよい。
一実施例において、スタンプメッセージに対応するスタンプが静止スタンプである場合に、該静止スタンプは、リアルタイムに撮影された画像に、前景として半透明で重ねられる。スタンプメッセージに対応するスタンプが動画スタンプである場合に、該動画スタンプは、リアルタイムに撮影された画像に、前景として半透明で繰り返して再生する。
図7に表示するように、一実施例における会話画面でのスタンプメッセージ追尾撮影のインタフェースの概略図である。図7では、ユーザーが会話画面70におけるスタンプメッセージ71をクリックすると、該スタンプメッセージ中のスタンプに対応する詳細メニュー72がポップアップし、ユーザーは該詳細メニュー72における「追尾撮影」というオプション73をクリックすることにより、会話画面70からビデオ撮影画面74にジャンプするようにトリガーし、該ビデオ撮影画面74でビデオデータを撮影する。
S208、ビデオデータに対する編集操作を取得する。
なお、編集操作は、記録されたビデオデータをさらに処理する操作である。端末は、記録されたビデオデータのビデオカバーをビデオ撮影画面に示し、各編集操作に対応する編集アイコンを示し、ユーザーがこれらの編集アイコンによりトリガーした、記録されたビデオデータに対する編集操作を取得することができる。編集操作は、ビデオデータの背景を除去する背景除去操作、ビデオデータの再生を加速する加速操作、ビデオデータに別のスタンプを付加するスタンプ付加操作、ビデオデータに別の文字を付加する文字付加操作などを含む。スタンプ付加操作は、例えば、スタンプ貼り操作であってもよく、文字付加操作は、例えば、字幕貼り操作であってもよい。
図8に表示するように、一実施例における、ビデオ撮影画面に編集アイコンを表示する概略図である。図8に表示するように、ビデオ撮影画面80において、記録されたビデオデータのビデオカバー81を示し、ユーザーが該ビデオ撮影画面80において背景除去アイコン82、再生加速アイコン83、スタンプ貼りアイコン84又は字幕貼りアイコン85によりトリガーしたビデオデータに対する編集操作を取得する。
S210、編集操作に従ってビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成する。
なお、ビデオデータは複数のビデオフレームを含み、端末は、取得したビデオデータに対する編集操作に従ってビデオデータにおける各ビデオフレームを処理し、処理後の各ビデオフレームを動画スタンプに合成することができ、合成された動画スタンプのファイルフォーマットはGIFであってもよい。端末は、ユーザーがトリガーした合成確認操作を検出したときに、処理後の各ビデオフレームを動画スタンプに合成してもよく、編集操作が完了した後に処理後の各ビデオフレームを動画スタンプに合成してもよい。
一実施例において、動画スタンプの生成方法は、さらに、ビデオデータに対する編集操作が取得されず、合成確認操作が検出された場合に、撮影されたビデオデータにおけるビデオフレームに基づいて直接的に合成することで、動画スタンプを取得することを含む。
具体的には、端末は、ユーザーがトリガーしたビデオデータに対する編集操作をビデオ撮影画面で検出せず、ユーザーがトリガーしたビデオデータに対する合成確認操作を該画面で該画面で検出した場合に、動画スタンプのファイルフォーマットに対応する符号化方式で、撮影されたビデオデータにおける各ビデオフレームを直接的に符号化し、符号化された各ビデオフレームを動画スタンプに合成することができる。
一実施例において、動画スタンプの生成方法は、さらに、動画スタンプを合成する前に、各ビデオフレームに含まれるピクセル点の透明度を検出するステップと、透明度に基づいて、含まれるピクセル点から半透明のピクセル点を取得するステップと、各ビデオフレームにおける半透明のピクセル点の透明度を不透明値に調整した後に、動画スタンプを合成するステップと、を含む。
なお、各ピクセル点の透明度は、各ピクセルの不透明度パラメータの値で表されてもよく、不透明度パラメータの値が大きいほど、該ピクセル点は不透明になる。不透明度パラメータの値は、百分率(例えば(0%〜100%))、整数(例えば0〜255)又は実数(例えば0〜1)で表してもよい。例えば、あるピクセル点の不透明パラメータの値が0%であれば、そのピクセル点は完全に透明であり、つまり見えないものであり、不透明パラメータの値が100%であれば、該ピクセル点は完全に不透明であり、不透明パラメータの値が0%〜100%のピクセル点は背景を透き通して表示でき、これらのピクセル点は半透明のピクセル点である。
生成された動画スタンプが透明度を有して異なるバックグラウンドのインタフェースで表示される場合に異なる効果を表示するため、動画スタンプが元の意味を表現できないことを回避するために、処理後の各ビデオフレームを動画スタンプに合成する前に、端末は、各ビデオフレームにおける各ピクセル点の透明度を検出し、各ビデオフレームにおける半透明のピクセル点の透明度を不透明値に調整した後に、各ビデオフレームを動画スタンプに合成することができる。
S212、動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加する。スタンプサムネイルは、スタンプサムネイルに対する選択イベントがスタンプ入力パネルで検出されたときに、動画スタンプを会話メッセージとして会話画面に表示するために用いられる。
なお、スタンプサムネイルは1つのスタンプに対応する。静止スタンプの場合、スタンプサムネイルは静止スタンプの縮小画像であってもよく、動画スタンプの場合、動画スタンプの最初フレーム又は最後のフレームの縮小画像をスタンプサムネイルとして使用してもよい。スタンプサムネイルは、スタンプに対応して記憶される。
具体的には、端末は、各ビデオフレームを最終的に合成して取得した動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加することができ、それにより、端末は、スタンプ入力パネルで該スタンプサムネイルに対する選択イベントを検出したときに、該スタンプサムネイルに対応する動画スタンプを通信相手に送信し、現在のユーザーが使用している端末の会話画面に該動画スタンプを表示することができる。端末は、スタンプ入力パネルにおけるいずれか1つのスタンプに対する除去操作を取得し、除去操作に従ってスタンプ入力パネルから該スタンプを除去することもできる。
図9に表示するように、一実施例における、動画スタンプをスタンプ入力パネルに付加するインタフェースの概略図である。ユーザーがビデオ撮影画面90でビデオデータの編集を完了した後に、合成確認アイコン91をクリックすると、端末は、編集操作に従ってビデオデータにおける各ビデオフレームを処理した後に動画スタンプを合成するステップを実行し、かつ合成された動画スタンプに対応するスタンプサムネイル92をスタンプ入力パネル93に付加することができ、ユーザーは、該スタンプサムネイル92をクリックして、対応する動画スタンプ94を通信相手に送信し、該動画スタンプを会話画面95に表示することができる。
一実施例において、現在のユーザーが異なる装置で該動画スタンプを使用できるようにするために、端末は、現在のユーザーのユーザー情報を取得し、生成された動画スタンプを該ユーザー情報に対応してサーバに記憶することができる。例えば、ソーシャルアプリケーションはウィーチャット(Wechat)であってもよく、端末は、生成された動画スタンプを、現在のユーザーのウィーチャットアカウントに対応して記憶することができ、ユーザーは様々な装置で該ウィーチャットアカウントにログインする場合に、サーバから該ウィーチャットアカウントに対応する動画スタンプを取得することができる。
図10に表示するように、具体的な応用シナリオで動画スタンプを生成する全体のフローチャートである。まず、会話画面のスタンプ入力パネル又はスタンプメッセージにおいてビデオ撮影イベントをトリガーし、次にビデオ撮影画面に入ってビデオデータを撮影し、次に、ユーザーは必要に応じて、背景除去アイコン、加速アイコン、スタンプ付加アイコン又はテキスト付加アイコンをクリックして、ビデオデータを編集し、次に、ユーザーは合成確認ボタンをクリックして、編集後のビデオデータに基づいて動画スタンプを生成し、最後に、動画スタンプをユーザー情報に対応して記憶し、かつスタンプ入力パネルに付加する。
上記動画スタンプの生成方法では、会話画面におけるスタンプ入力パネルに入った後に、ユーザーがトリガーしたビデオ撮影イベントをスタンプ入力パネルで直接検出して該ビデオ撮影イベントに応答して動画スタンプを生成するための素材としてビデオデータを撮影することができ、独自に素材を撮影する必要がない。撮影されたビデオデータに対する編集操作を取得する場合に、ユーザーの編集操作に従ってビデオデータにおける各ビデオフレームに対して対応処理を行った後に動画スタンプを合成してもよく、合成された動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加すると、ユーザーは付加された動画スタンプをスタンプ入力パネルから選択して通信相手に送信することができ、ユーザーの個人的ニーズを満たすだけでなく、特別のツールを使用する必要もなく、動画スタンプの生成効率を大幅に向上させることができる。
一実施例において、編集操作は、背景除去操作を含むものであり、ステップS210、編集操作に従ってビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成することは、各ビデオフレームの画像属性に基いて各ビデオフレームから顔特徴を抽出するステップと、顔特徴に基づいて、各ビデオフレームにおける人体の輪郭情報を取得するステップと、輪郭情報に基づいて各ビデオフレームの背景領域を取得するステップと、背景領域の各ピクセル点の透明度を透明値に調整するステップと、調整された各ビデオフレームを合成することで、動画スタンプを取得するステップと、を含む。
端末がリアルタイムに撮影された画像に人の顔が含まれる場合、例えば、ユーザーがフロントカメラで撮影した画像にユーザーの顔が含まれる場合に、端末は、該画像を記録して取得したビデオデータを素材として動画スタンプを合成し、個性的で、より面白い動画スタンプを取得することができる。
背景除去操作は、ユーザーがビデオ撮影画面における背景除去アイコンによりトリガーしたイベントであり、端末は、該背景除去操作を検出した後に、ビデオデータにおける各ビデオフレームに対して背景除去処理を行うことができる。ビデオフレームの画像属性は、ビデオフレームにおける各ピクセル点のピクセル値、色成分値、色調、飽和度、明るさ、カラーチャネルなどを含む。顔特徴は、ビデオフレームに含まれる顔特徴を表現できる特徴である。
具体的には、端末は撮影されたビデオデータの背景除去操作を検出した後に、訓練された機械学習モデルにより各ビデオフレームの画像属性に基いて各ビデオフレームから、各ビデオフレームに含まれる情報を表現できる顔特徴を抽出し、抽出された顔特徴に基づいて、各ビデオフレームから人の顔器官又は予め定義された特徴点の、二次元座標で表されてもよい位置を取得し、複数の人の顔器官の位置又は複数の特徴点のビデオフレームにおける位置に基づいて、人体の、顔型の輪郭情報及び体型の輪郭情報を含む輪郭情報を取得することができる。このようにして、端末は、輪郭情報に基づいて各ビデオフレームにおける人の顔と人体を除く背景領域を取得し、背景領域における各ピクセル点の透明度を完全に透明になる透明度値に調整して、背景領域を見えないようにすることで、撮影されたビデオデータに対する背景除去処理を実現し、背景が除去された後の各ビデオフレームに基づいて動画スタンプを合成する。
本実施例において、ビデオフレームにおける背景領域を取得した後に、背景領域における各ピクセル点のピクセル値を透明値に調整することにより、各ビデオフレームに対する背景除去処理をを実現し、合成された動画スタンプに乱雑な背景がないようにする。また、ユーザーがビデオ撮影画面で背景除去操作を直接的にトリガーして、撮影されたビデオデータから背景を除去することができ、特別のツールで背景除去処理を行った後に動画スタンプを合成する必要がなく、動画スタンプの生成効率を向上させる。
一実施例において、編集操作は、加速操作を含むものであり、ステップS210、編集操作に従ってビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成することは、加速操作後のビデオデータに対応するタイムスタンプ配列を算出するステップと、タイムスタンプ配列中の要素値をトラバースするステップと、トラバースが完了するまで、タイムスタンプが要素値に対応するビデオフレームをビデオデータから選択するステップと、選択されたビデオフレームを合成することで、動画スタンプを取得するステップと、を含む。
加速操作は、ユーザーがビデオ撮影画面における加速アイコンによりトリガーしたイベントであり、端末は、該イベントを検出したときに、撮影されたビデオデータを加速処理し、加速された動画スタンプを取得することができる。タイムスタンプ配列は、撮影されたビデオデータのタイムスタンプで構成される配列であり、加速操作後の対応するタイムスタンプ配列は、ビデオデータの元のタイムスタンプから抽出されたいくつかのタイムスタンプで構成される配列である。抽出されたタイムスタンプの数は加速の倍率に関連する。
具体的には、端末は、ビデオデータが加速された後のタイムスタンプ配列を算出した後に、該タイムスタンプ配列中の各要素値をトラバースし、トラバースされた要素値に基づいてビデオデータから対応するビデオフレームを選択し、次に選択されたビデオフレームを動画スタンプに合成する。
一実施例において、加速操作後のビデオデータに対応するタイムスタンプ配列を算出することは、具体的に、撮影されたビデオデータの記録時間を取得し、記録時間及びビデオデータのフレームレートに基づいてビデオデータにおける各ビデオフレームの元のタイムスタンプを算出し、加速操作に対応する加速倍率を取得し、加速倍率に基づいて元のタイムスタンプから間隔をあけて元のタイムスタンプを選択し、選択されたタイムスタンプに基づいて加速操作後の対応するタイムスタンプ配列を生成する。
例えば、撮影されたビデオデータの時間が5秒間であり、該ビデオデータのフレームレートが40であり、すなわち1秒ごとに40フレームのビデオであれば、該ビデオデータの各ビデオフレームに対応する元のタイムスタンプは、
0.025、0.050、0.075、0.100、0.125、0.150、0.175、0.200、...、4.900、4.925、4.950、4.975、5.000であり、
加速操作に対応する倍率が2倍であれば、端末は、加速操作後の対応するタイムスタンプ配列中の各要素値をそれぞれ、
050、0.100、0.150、0.200、0.250、0.300、...、4.850、4.900、4.950、5.000と算出する。
一実施例において、撮影されたビデオデータの時間、加速操作に対応する倍率がいずれも予め定義されていれば、対応する加速操作後の対応するタイムスタンプ配列も予め定義されてもよく、端末は予め定義されたタイムスタンプ配列に基づいてビデオデータから対応するビデオフレームを抽出するだけでよい。
上記実施例において、加速操作後の対応するタイムスタンプ配列を算出することにより、対応するビデオフレームを元のビデオデータから抽出し、抽出されたビデオフレームを合成した後に動画スタンプを取得することができ、撮影されたビデオデータに対する加速再生を実現する。また、特別のツールで撮影されたビデオデータに対して加速処理を行う必要がなく、動画スタンプの生成効率を向上させる。
一実施例において、編集操作は、スタンプ付加操作を含むものであり、編集操作に従ってビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成するステップS210は、スタンプ付加操作に応答し、スタンプ入力パネルを表示するステップと、スタンプ入力パネルから選択されたスタンプサムネイルに対応する付加対象となるスタンプを取得するステップと、付加対象となるスタンプのスタンプ画像をビデオデータの各ビデオフレームに付加するステップと、スタンプ画像を付加した各ビデオフレームを合成して動画スタンプを取得するステップと、を含む。
スタンプ付加操作は、ユーザーがビデオ撮影画面におけるスタンプ付加アイコンによりトリガーしたイベントであり、端末は、該イベントを検出したときに、撮影されたビデオデータに対してスタンプ付加処理を行って、スタンプを付加した動画スタンプを取得することができ、添加されたスタンプは、スタンプ入力パネルからのスタンプである。
具体的には、端末は、ビデオデータに対するスタンプ付加操作を取得する場合に、ビデオ撮影画面にスタンプ入力パネルを示し、ユーザーがスタンプ入力パネルから選択したスタンプサムネイルに対応する付加対象となるスタンプを取得し、付加対象となるスタンプをビデオデータにおける各ビデオフレームに付加することで、スタンプを付加したビデオフレームを動画スタンプに合成することができる。スタンプ入力パネルにおけるスタンプは、ユーザーが自分の好みに応じてお気に入りにしたスタンプに対応するサムネイルを含み、ユーザーがカスタマイズした動画スタンプに対応するサムネイルをも含むため、ユーザーは自分の好みに応じて撮影したビデオデータにスタンプを付加することができ、このように合成された動画スタンプは、ユーザーの個人的ニーズにより適合している。
図11に表示するように、一実施例における、選択されたスタンプサムネイルに対応する付加対象となるスタンプをビデオデータに付加するインタフェースの概略図である。図11に表示するように、端末は、ユーザーがビデオ撮影画面1101においてスタンプ付加アイコン1102をクリックすることによりトリガーしたスタンプ付加操作を検出した後に、スタンプ入力パネル1103をビデオ撮影画面1101にポップアップし、ユーザーがスタンプ入力パネル1103におけるスタンプサムネイル1104をクリックすると、端末は、ユーザーにより選択されたスタンプサムネイルに対応するスタンプをビデオデータに付加することができる。
一実施例において、付加対象となるスタンプのスタンプ画像をビデオデータの各ビデオフレームに付加するステップは、付加対象となるスタンプに基づいて複数の異なるスタンプ画像を生成するステップと、複数の異なるスタンプ画像をビデオデータにおける各ビデオフレームにそれぞれ対応付けるステップと、対応するスタンプ画像を、ビデオデータにおける各ビデオフレームにそれぞれ付加するステップと、を含む。
一実施例において、付加対象となるスタンプは静止スタンプであってもよい。端末は、該付加対象となるスタンプをビデオデータの各ビデオフレームに直接的に付加することができる。端末は、該付加対象となるスタンプに対応する複数の異なる仕様のスタンプ画像を生成し、これらの複数の異なる仕様のスタンプ画像を各ビデオフレームにそれぞれ対応付け、対応するスタンプ画像を各ビデオフレームに付加してもよい。このようにすれば、合成された動画スタンプを再生する場合に、付加されたスタンプは動的に動く効果を呈することができる。
一実施例において、異なる仕様のスタンプ画像は、付加対象となるスタンプとは内容が同じであるが、サイズが異なるスタンプ画像であってもよい。例えば、撮影されたビデオデータのフレームレートは40であるとする。端末は、ユーザーがスタンプ入力パネルから選択したスタンプサムネイルに対応する付加対象となるスタンプを取得した後に、付加対象となるスタンプに対応する4つの異なるサイズのスタンプ画像を生成することができ、それぞれ大サイズスタンプ画像、中サイズスタンプ画像、小サイズスタンプ画像及び超小サイズスタンプ画像である。すると、撮影された1秒ごとにのビデオデータに対して、第1のフレームから第5のフレームに大サイズスタンプ画像を付加し、第6のフレームから第10のフレームに中サイズスタンプ画像を付加し、第11のフレームから第15のフレームに小サイズスタンプ画像を付加し、第16のフレームから第20のフレームに超小サイズスタンプ画像を付加し、第21のフレームから第25のフレームに大サイズスタンプ画像を付加し...、このように類推して、対応するスタンプ画像をビデオデータの各ビデオフレームに付加することができる。
一実施例において、付加対象となるスタンプは動画スタンプであってもよい。端末は、付加対象となるスタンプにおける各フレームのスタンプ画像を取得し、複数の異なるスタンプ画像をビデオデータにおける各ビデオフレームにそれぞれ対応付け、対応するスタンプ画像を、ビデオデータにおける各ビデオフレームにそれぞれ付加することができる、付加対象となるスタンプの時間がビデオデータの合計時間よりも短い場合に、付加対象となるスタンプに対応する複数の異なるスタンプ画像をビデオデータの各ビデオフレームに循環して付加することができ、付加対象となるスタンプの時間がビデオデータの合計時間と等しい場合に、付加対象となるスタンプに対応する複数の異なるスタンプ画像を対応するビデオフレームに1つずつ付加することができ、付加対象となるスタンプの時間がビデオデータの合計時間よりも長い場合に、付加対象となるスタンプに対応する複数のスタンプ画像から、前の複数のスタンプ画像を切り出してビデオデータの各ビデオフレームに対応付けることができ、或いは、付加対象となるスタンプに対応する複数のスタンプ画像から、対応するスタンプ画像を切り出してビデオデータの各ビデオフレームに対応付け、対応するスタンプ画像を対応するビデオフレームに付加することができる。
上記実施例において、スタンプ入力パネルから選択されたスタンプを撮影されたビデオデータに付加することにより、付加内容が単一で、ユーザーが好む内容を付加できないという問題を回避する。例えば、いくつかのステッカーしか付加できないし、これらのステッカーは開発者が設計した定常なステッカーであるため、生成された動画スタンプはユーザーの個人的ニーズを満たすことができない。また、ビデオデータの撮影を完了した後に、ユーザーはビデオデータにスタンプを直接的に付加することができ、特別のツールで撮影されたビデオデータにスタンプを貼り付ける必要がなく、動画スタンプの生成効率を向上させる。
一実施例において、編集操作は、テキスト付加操作を含むものであり、編集操作に従ってビデオデータにおける各ビデオフレームを処理して動画スタンプを合成するステップS210は、テキスト付加操作に応答して、付加対象となるテキストを取得するステップと、付加対象となるテキストをビデオデータの各ビデオフレームに付加するステップと、テキストを付加した各ビデオフレームを合成して動画スタンプを取得するステップと、を含む。
テキスト付加操作は、ユーザーがビデオ撮影画面におけるテキスト付加アイコンによりトリガーしたイベントであり、端末は、該イベントを検出したときに、撮影されたビデオデータに対してテキスト付加処理を行って、テキストを付加した動画スタンプを取得することができる。一実施例において、付加対象となるテキストを取得するステップは、テキスト入力ボックスを提供して、テキスト入力ボックスに入力したテキストを付加対象となるテキストとして取得するステップ、又は、ビデオデータ撮影時に録音した音声データを取得し、音声データに対して音声認識を行って付加対象となるテキストを取得するステップを含む。つまり、付加されるテキストは、ユーザーが入力したテキストであってもよく、ビデオデータ中の音声データに対して音声認識を行って取得したテキストであってもよい。
具体的には、端末は、ビデオデータに対するテキスト付加操作を取得すると、ビデオ撮影画面にテキスト入力パネルを示し、ユーザーがテキスト入力パネルのテキスト入力ボックスに入力したテキストを付加対象となるテキストとして取得し、取得した付加対象となるテキストをビデオデータの各ビデオフレームに付加することにより、テキストを付加したビデオフレームを動画スタンプに合成することができる。端末は、ビデオデータに対するテキスト付加操作を取得すると、ビデオデータ中の音声データに対して音声認識を行い、識別されたテキストを付加対象となるテキストとして各ビデオフレームに付加してもよい。端末は、音声認識により取得したテキストをテキスト入力パネルに示してもよく、ユーザーは、付加対象となるテキストの正確さを保証するためにテキストを編集することができる。
図12に表示するように、一実施例における、取得されたテキストをビデオデータに付加するインタフェースの概略図である。図12に表示するように、端末は、ユーザーがビデオ撮影画面1201でテキスト付加アイコン1202をクリックすることによりトリガーしたテキスト付加操作を検出した後に、テキスト入力パネル1203がビデオ撮影画面1201にポップアップし、ユーザーはテキスト入力パネル1203により「びっくり」というテキストを入力し、「完了(チェックマーク)」をクリックすると、端末はユーザーが入力したテキストをビデオデータに付加することができる。
一実施例において、端末は、付加対象となるテキストをビデオデータの各ビデオフレームに直接的に付加することができる。端末は、取得したテキストに基づいて、異なるフォントサイズ又は異なるフォントカラーの複数のテキストを生成し、異なるフォントサイズ又は異なるフォントカラーの複数のテキストをビデオデータの各ビデオフレームにそれぞれ対応付け、対応するテキストを、ビデオデータの各ビデオフレームにそれぞれ付加してもよい。このようにして、合成された動画スタンプを再生するときに、付加されたテキストは動的に動く効果を呈することができる。
例えば、撮影されたビデオデータのフレームレートは40であるとする。端末は、ユーザーがテキスト入力パネルに入力したテキストを取得した後に、付加されたテキストに対応する4つの異なるフォントサイズのスタンプ画像を生成することができ、それぞれ大サイズテキスト、中サイズテキスト、小サイズテキスト及び超小サイズテキストである。すると、撮影された1秒ごとにのビデオデータに対して、第1のフレームから第5のフレームに大サイズテキストを付加し、第6のフレームから第10のフレームに中サイズテキストを付加し、第11のフレームから第15のフレームに小サイズテキストを付加し、第16のフレームから第20のフレームに超小サイズテキストを付加し、第21のフレームから第25のフレームに大サイズテキストを付加し...、このように類推して、対応するテキストをビデオデータの各ビデオフレームに付加することができる。
上記実施例において、ビデオ撮影画面にテキスト入力パネルを表示することにより、ユーザーが入力したテキストを直接的に取得するか又は音声認識によりテキストを取得して、撮影されたビデオデータに直接的に付加することができ、他のツールでテキストを付加した後に動画スタンプを合成する必要がなく、動画スタンプを生成する効率を向上させる。
図13に表示するように、具体的な実施例における、編集操作に従ってビデオデータにおける各ビデオフレームを処理した後に動画スタンプを合成するフローチャートである。図13に表示するように、まず、ビデオデータに対する加速操作が取得されたかどうかを判断し、取得された場合に、加速操作後に撮影されたビデオデータに対応するタイムスタンプ配列を取得し、タイムスタンプ配列の要素値をトラバースし、要素値に対応するビデオフレームをビデオデータから選択し、取得されていない場合に、ビデオデータの各ビデオフレームを取得し、次に、ビデオデータに対する背景除去操作が取得されたかどうかを判断し、取得された場合に、選択又は取得されたビデオフレームの背景領域における各ピクセル点の透明度を透明値に調整し、次に、ビデオデータに対するスタンプ付加操作又はテキスト付加操作が取得されたかどうかを判断し、取得された場合に、選択又は取得されたビデオフレームに、取得された付加対象となるスタンプ又は付加対象となるテキストを描画し、さらに、選択又は取得されたビデオフレームの4つの丸い角を切り取り、ビデオフレームにおける半透明のピクセル点の透明度を不透明値に調整し、最終的に、処理されたビデオフレームを符号化標準に従って動画スタンプに合成することができる。
図14に表示するように、具体的な実施例における、動画スタンプを生成するフローチャートである。図14に表示するように、該方法は、以下のステップを含む。
S1402、会話画面においてスタンプ入力パネルに入って、スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出し、ビデオ撮影イベントに応答して、会話画面からビデオ撮影画面にジャンプし、リアルタイムに撮影された画像をビデオ撮影画面に示し、
或いは、S1404、会話画面におけるスタンプメッセージに対する追尾撮影操作を取得し追尾撮影操作に応答して、会話画面からビデオ撮影画面にジャンプし、スタンプメッセージに対応するスタンプを半透明でビデオ撮影画面に示し、リアルタイムに撮影された画像と半透明で示されたスタンプを重ねて表示する。
S1406、ビデオ撮影画面においてトリガーされた記録開始イベントを検出したときに、ビデオデータの記録を開始する。
S1408、ビデオ撮影画面において記録終了イベントがトリガーされるときに終了し、記録されたビデオデータを取得する。
S1410、ビデオデータに対する編集操作を取得する。
S1412、編集操作が背景除去操作を含む場合に、各ビデオフレームの画像属性に基いて各ビデオフレームから顔特徴を抽出し、顔特徴に基づいて、各ビデオフレームにおける人体の輪郭情報を取得し、輪郭情報に基づいて各ビデオフレームの背景領域を取得し、背景領域の各ピクセル点の透明度を透明値に調整し、調整された各ビデオフレームを合成して、動画スタンプを取得する。
S1414、編集操作が加速操作を含む場合に、加速操作後のビデオデータに対応するタイムスタンプ配列を算出し、タイムスタンプ配列中の要素値をトラバースし、トラバースが完了するまで、タイムスタンプが要素値に対応するビデオフレームをビデオデータから選択し、選択されたビデオフレームを合成して、動画スタンプを取得する。
S1416、編集操作がスタンプ付加操作を含む場合に、スタンプ付加操作に応答し、スタンプ入力パネルを示し、スタンプ入力パネルから選択されたスタンプサムネイルに対応する付加対象となるスタンプを取得し、付加対象となるスタンプに基づいて複数の異なるスタンプ画像を生成し、複数の異なるスタンプ画像をビデオデータにおける各ビデオフレームにそれぞれ対応させ、対応するスタンプ画像を、ビデオデータにおける各ビデオフレームにそれぞれ付加し、スタンプ画像を付加した各ビデオフレームを合成して動画スタンプを取得する。
S1418、編集操作がテキスト付加操作を含む場合に、テキスト付加操作に応答して、テキスト入力ボックスを提供し、テキスト入力ボックスに入力されたテキストを付加対象となるテキストとして取得するか、又は、ビデオデータ撮影時に録音した音声データを取得し、取得された音声データに対して音声認識を行って付加対象となるテキストを取得し、付加対象となるテキストをビデオデータの各ビデオフレームに付加し、テキストを付加した各ビデオフレームを合成して動画スタンプを取得する。
S1420、動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加し、スタンプサムネイルは、スタンプサムネイルに対する選択イベントがスタンプ入力パネルで検出されたときに、動画スタンプを会話メッセージとして会話画面に表示するために用いられる。
上記動画スタンプの生成方法では、会話画面におけるスタンプ入力パネルに入った後に、ユーザーがトリガーしたビデオ撮影イベントをスタンプ入力パネルで直接検出して該ビデオ撮影イベントに応答して動画スタンプを生成するための素材としてビデオデータを撮影することができ、独自に素材を撮影する必要がない。撮影されたビデオデータに対する編集操作を取得する場合に、ユーザーの編集操作に従ってビデオデータにおける各ビデオフレームに対して対応処理を行った後に動画スタンプを合成してもよく、合成された動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加すると、ユーザーは付加された動画スタンプをスタンプ入力パネルから選択して通信相手に送信することができ、ユーザーの個人的ニーズを満たすだけでなく、特別のツールを使用する必要もなく、動画スタンプの生成効率を大幅に向上させることができる。
図14は、一実施例における動画スタンプの生成方法のフローチャートである。理解すべきこととして、図14のフローチャートの各ステップは、矢印の指した順序で示されているが、これらのステップは、必ずしも矢印の指した順序で実行されるものではない。本明細書で明確に説明しない限り、これらのステップの実行は、厳密な順序に制限されず、他の順序で実行されてもよい。さらに、図14の少なくとも一部のステップは、複数のサブステップ又は複数の段階を含んでよく、これらのサブステップ又は段階は、必ずしも同じ時刻で実行されるものではなく、異なる時刻で実行されてもよく、これらのサブステップ又は段階の実行順序も、必ずしも順に行われるものではなく、その他のステップ又はその他のステップのサブステップ或いは段階の少なくとも一部と順番に又は交互に実行されてもよい。
一実施例において、図15に表示するように、動画スタンプ生成装置1500が提供され、該動画スタンプ生成装置1500は、
会話画面においてスタンプ入力パネルに入り、スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出する検出モジュール1502と、
ビデオ撮影イベントに応答して、ビデオデータを撮影する撮影モジュール1504と、
ビデオデータに対する編集操作を取得する取得モジュール1506と、
編集操作に従ってビデオデータにおける各ビデオフレームを処理して動画スタンプを合成する合成モジュール1508と、
動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加する付加モジュール1510と、を含み、スタンプサムネイルは、スタンプサムネイルに対する選択イベントがスタンプ入力パネルで検出されたときに、動画スタンプを会話メッセージとして会話画面に表示するために用いられる。
一実施例において、撮影モジュール1504は、ビデオ撮影イベントに応答して、会話画面からビデオ撮影画面にジャンプするジャンプモジュールと、リアルタイムに撮影された画像をビデオ撮影画面に表示する表示モジュールと、ビデオ撮影画面においてトリガーされた記録開始イベントを検出したときに、ビデオデータの記録を開始する記録モジュールと、ビデオ撮影画面において記録終了イベントがトリガーされるときに終了し、記録されたビデオデータを取得するビデオデータ取得モジュールと、を含む。
一実施例において、編集操作は、背景除去操作を含むものであり、合成モジュール1508は、さらに、各ビデオフレームの画像属性に基いて各ビデオフレームから顔特徴を抽出し、顔特徴に基づいて、各ビデオフレームにおける人体の輪郭情報を取得し、輪郭情報に基づいて各ビデオフレームの背景領域を取得し、背景領域の各ピクセル点の透明度を透明値に調整し、調整された各ビデオフレームを合成して、動画スタンプを取得する。
一実施例において、編集操作は、加速操作を含むものであり、合成モジュール1508は、さらに、加速操作後のビデオデータに対応するタイムスタンプ配列を算出し、タイムスタンプ配列中の要素値をトラバースし、トラバースが完了するまで、タイムスタンプが要素値に対応するビデオフレームをビデオデータから選択し、選択されたビデオフレームを合成して、動画スタンプを取得する。
一実施例において、編集操作は、スタンプ付加操作を含むものであり、合成モジュール1508は、さらに、スタンプ付加操作に応答し、スタンプ入力パネルを示し、スタンプ入力パネルから選択されたスタンプサムネイルに対応する付加となるスタンプを取得し、付加対象となるスタンプをビデオデータの各ビデオフレームに付加し、スタンプ画像を付加した各ビデオフレームを合成して動画スタンプを取得する。
一実施例において、合成モジュール1508は、さらに、付加対象となるスタンプに基づいて複数の異なるスタンプ画像を生成し、複数の異なるスタンプ画像をビデオデータにおける各ビデオフレームにそれぞれ対応させ、対応するスタンプ画像を、ビデオデータにおける各ビデオフレームにそれぞれ付加する。
一実施例において、編集操作は、テキスト付加操作を含むものであり、合成モジュール1508は、さらに、テキスト付加操作に応答して、付加対象となるテキストを取得するテキスト取得モジュールと、付加対象となるテキストをビデオデータの各ビデオフレームに付加するテキスト付加モジュールと、を含み、合成モジュールは、さらに、テキストを付加した各ビデオフレームを合成して動画スタンプを取得する。
一実施例において、テキスト取得モジュールは、さらに、テキスト入力ボックスを提供して、テキスト入力ボックスに入力したテキストを付加対象となるテキストとして取得する。一実施例において、テキスト取得モジュールは、さらに、ビデオデータ撮影時に録音した音声データを取得し、音声データに対して音声認識を行って付加対象となるテキストを取得する。
一実施例において、動画スタンプ生成装置1500は、さらに、動画スタンプを合成する前に、各ビデオフレームに含まれるピクセル点の透明度を検出し、透明度に基づいて、含まれるピクセル点から半透明のピクセル点を取得し、各ビデオフレームにおける半透明のピクセル点の透明度を不透明値に調整した後に、動画スタンプを合成する透明度調整モジュールを含む。
一実施例において、動画スタンプ生成装置1500は、さらに、会話画面におけるスタンプメッセージに対する追尾撮影操作を取得し、追尾撮影操作に応答して、会話画面からビデオ撮影画面にジャンプし、スタンプメッセージに対応するスタンプを半透明でビデオ撮影画面に示し、リアルタイムに撮影された画像と半透明で示されたスタンプを重ねて表示する追尾撮影モジュールを含む。
一実施例において、合成モジュール1508は、ビデオデータに対する編集操作が取得されず、合成確認操作が検出された場合に、撮影されたビデオデータにおけるビデオフレームに基づいて直接的に合成して、動画スタンプを取得する。
上記動画スタンプ生成装置1500は、会話画面におけるスタンプ入力パネルに入った後に、ユーザーがトリガーしたビデオ撮影イベントをスタンプ入力パネルで直接検出して該ビデオ撮影イベントに応答して動画スタンプを生成するための素材としてビデオデータを撮影することができ、独自に素材を撮影する必要がない。撮影されたビデオデータに対する編集操作を取得する場合に、ユーザーの編集操作に従ってビデオデータにおける各ビデオフレームに対して対応処理を行った後に動画スタンプを合成してもよく、合成された動画スタンプに対応するスタンプサムネイルをスタンプ入力パネルに付加すると、ユーザーは付加された動画スタンプをスタンプ入力パネルから選択して通信相手に送信することができ、ユーザーの個人的ニーズを満たすだけでなく、特別のツールを使用する必要もなく、動画スタンプの生成効率を大幅に向上させることができる。
図16は、一実施例におけるコンピュータ装置の内部構造図を表示する。該コンピュータ装置は具体的に図1の端末110であってもよい。図16に表示するように、該コンピュータ装置は、システムバスにより接続されたプロセッサ、メモリ、ネットワークインタフェース、入力装置及びディスプレイスクリーンを含む。メモリは、不揮発性記憶媒体及び内部メモリを含む。該コンピュータ装置の不揮発性記憶媒体には、オペレーティングシステムが記憶され、プロセッサによって実行されると、プロセッサに動画スタンプの生成方法を実現させるコンピュータプログラムも記憶されてもよい。該内部メモリには、プロセッサによって実行されると、プロセッサに動画スタンプの生成方法を実行させるコンピュータプログラムが記憶されてもよい。コンピュータ装置のディスプレイスクリーンは、液晶ディスプレイスクリーン又は電子インクディスプレイスクリーンであってもよく、コンピュータ装置の入力装置は、ディスプレイスクリーンに覆われたタッチ層であってもよく、コンピュータ装置の筐体に設けられたキー、トラックボール又はタッチパッドであってもよく、外付けのキーボード、タッチパッド又はマウス等であってもよい。コンピュータ装置のカメラは、フロントカメラ又はリアカメラであってもよく、コンピュータ装置の音声撮影装置は、マイクであってもよい。
当業者が理解できるように、図16に示される構造は、本願の手段に関連する一部の構造のブロック図に過ぎず、本願の手段が適用するコンピュータ装置を限定するものではなく、具体的なコンピュータ装置は、図に表示するものよりも多い又は少ない部材を含んでもよく、いくつかの部材を組み合わせてもよく、異なる部材配置を有してもよい。
一実施例において、本願係る動画スタンプ生成装置1500は、図16に示されるコンピュータ装置上で実行可能なコンピュータプログラムの形態で実現されてもよい。コンピュータ装置のメモリには、図15に示される検出モジュール1502、撮影モジュール1504、取得モジュール1506、合成モジュール1508及び付加モジュール1510など、動画スタンプ生成装置1500を構成する各プログラムモジュールが記憶されてもよい。各プログラムモジュールで構成されるコンピュータプログラムは、プロセッサに本明細書で説明される本願の各実施例の動画スタンプの生成方法のステップを実行させる。
例えば、図16に示されるコンピュータ装置は、図15に示される動画スタンプ生成装置1500における検出モジュール1502によりステップS202及びステップS204を実行することができる。コンピュータ装置は、撮影モジュール1504によりステップS206を実行することができる。コンピュータ装置は、取得モジュール1506によりステップS208を実行することができる。コンピュータ装置は、合成モジュール1508によりステップS210を実行することができる。コンピュータ装置は、付加モジュール1510によりステップS212を実行することができる。
一実施例において、プロセッサと、プロセッサにより実行されると、プロセッサに上記動画スタンプの生成方法のステップを実行させるコンピュータプログラムが記憶されているメモリとを含むコンピュータ装置を提供する。ここで、動画スタンプの表示方法のステップは、上記各実施例の動画スタンプの生成方法のステップであってもよい。
一実施例において、プロセッサにより実行されると、プロセッサに上記動画スタンプの生成方法のステップを実行させるコンピュータプログラムが記憶されているコンピュータ可読記憶媒体を含むコンピュータ装置を提供する。ここで、動画スタンプの表示方法のステップは、上記各実施例の動画スタンプの生成方法のステップであってもよい。
当業者であれば理解できるように、上記方法実施例の全部又は一部の流れは、コンピュータプログラムが関連ハードウェアを命令することにより実現され、前記プログラムが不揮発性コンピュータ可読記憶媒体に記憶することができ、該プログラムが実行されるとき、上記各方法実施例の流れを含んでもよい。本願に係る各実施例に用いられる、メモリ、ストレージ、データベース又は他の媒体への任意の参照は、いずれも不揮発性及び/又は揮発性メモリを含んでもよい。非揮発性メモリは、読み取り専用メモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)又はフラッシュメモリを含んでもよい。揮発性メモリは、ランダムアクセスメモリ(RAM)又は外部キャッシュメモリを含んでもよい。限定ではなく例示として、RAMは、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、デュアルデータレートSDRAM(DDRSDRAM)、強化SDRAM(ESDRAM)、同期リンク(Synchlink)DRAM(SLDRAM)、メモリバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)及びメモリバスダイナミックRAM(RDRAM)などの様々な形態で得られる。
以上の実施例の各技術的特徴を任意に組み合わせることができ、簡単に説明するために、上記実施例における各技術的特徴のすべての可能性のある組み合わせをいずれも説明せず、しかしながら、これらの技術的特徴の組み合わせに矛盾が存在しないと、いずれも本明細書に記載の範囲に属するべきであると考えられる。
上述した実施例は、本願のいくつかの実施形態のみを示し、その説明が具体的で詳細であるが、それにより本願の特許の範囲を限定するものと理解されるべきではない。注意すべきこととして、当業者であれば、本願の構想から逸脱しない前提で、さらにいくつかの変形及び修正を行うこともでき、これらがいずれも本願の保護範囲に属する。したがって,本願の特許の保護範囲は添付の請求項を基準とすべきである。

Claims (13)

  1. コンピュータ装置が実行する動画スタンプの生成方法であって、
    会話画面においてスタンプ入力パネルに入るステップと、
    前記スタンプ入力パネルにおいてトリガーされたビデオ撮影イベントを検出するステップと、
    前記ビデオ撮影イベントに応答して、ビデオデータを撮影するステップと、
    前記ビデオデータに対する編集操作を取得するステップと、
    前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成するステップと、
    前記動画スタンプに対応するスタンプサムネイルを前記スタンプ入力パネルに付加するステップであって、前記スタンプ入力パネルにおいて、前記スタンプサムネイルに対する選択イベントを検出したときに、前記スタンプサムネイルは、前記動画スタンプを会話メッセージとして前記会話画面に表示するために用いられる、ステップと、を含むことを特徴とする動画スタンプの生成方法。
  2. 前記ビデオ撮影イベントに応答して、ビデオデータを撮影する前記ステップは、
    前記ビデオ撮影イベントに応答して、前記会話画面からビデオ撮影画面にジャンプするステップと、
    リアルタイムに撮影された画像を前記ビデオ撮影画面に表示するステップと、
    前記ビデオ撮影画面においてトリガーされた記録開始イベントを検出したときに、ビデオデータの記録を開始するステップと、
    前記ビデオ撮影画面において、記録終了イベントがトリガーされたときに前記ビデオデータの記録が終了し、記録されたビデオデータを取得するステップと、を含むことを特徴とする請求項1に記載の動画スタンプの生成方法。
  3. 前記編集操作は、背景除去操作を含むものであり、前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成する前記ステップは、
    各前記ビデオフレームの画像属性に基いて各前記ビデオフレームから顔特徴を抽出するステップと、
    前記顔特徴に基づいて、各前記ビデオフレームにおける人体の輪郭情報を取得するステップと、
    前記輪郭情報に基づいて各前記ビデオフレームの背景領域を取得するステップと、
    前記背景領域の各ピクセル点の透明度を透明値に調整するステップと、
    調整された各ビデオフレームを合成して、動画スタンプを取得するステップと、を含むことを特徴とする請求項1又は2に記載の動画スタンプの生成方法。
  4. 前記編集操作は、加速操作を含むものであり、前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成する前記ステップは、
    前記加速操作された前記ビデオデータに対応するタイムスタンプ配列を算出するステップと、
    前記タイムスタンプ配列中の要素値をトラバースするステップと、
    トラバースが完了するまで、タイムスタンプが前記要素値に対応するビデオフレームを前記ビデオデータから選択するステップと、
    選択された各ビデオフレームを合成することで、動画スタンプを取得するステップと、を含むことを特徴とする請求項1又は2に記載の動画スタンプの生成方法。
  5. 前記編集操作は、スタンプ付加操作を含むものであり、前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成する前記ステップは、
    前記スタンプ付加操作に応答し、前記スタンプ入力パネルを表示するステップと、
    前記スタンプ入力パネルから選択されたスタンプサムネイルに対応する付加対象となるスタンプを取得するステップと、
    前記付加対象となるスタンプを前記ビデオデータの各前記ビデオフレームに付加するステップと、
    スタンプ画像が付加された各ビデオフレームを合成して動画スタンプを取得するステップと、を含むことを特徴とする請求項1又は2に記載の動画スタンプの生成方法。
  6. 前記付加対象となるスタンプを前記ビデオデータの各前記ビデオフレームに付加する前記ステップは、
    前記付加対象となるスタンプに基づいて複数の異なるスタンプ画像を生成するステップと、
    前記複数の異なるスタンプ画像を前記ビデオデータにおける各ビデオフレームにそれぞれ対応付けるステップと、
    前記ビデオデータにおける各ビデオフレームに、対応する前記スタンプ画像をそれぞれ付加するステップと、を含むことを特徴とする請求項5に記載の動画スタンプの生成方法。
  7. 前記編集操作は、テキスト付加操作を含むものであり、前記編集操作に従って、前記ビデオデータにおける各ビデオフレームを処理することで、動画スタンプを合成する前記ステップは、
    前記テキスト付加操作に応答して、付加対象となるテキストを取得するステップと、
    前記付加対象となるテキストを前記ビデオデータの各前記ビデオフレームに付加するステップと、
    テキストが付加された各ビデオフレームを合成することで、動画スタンプを取得するステップと、を含むことを特徴とする請求項1又は2に記載の動画スタンプの生成方法。
  8. 付加対象となるテキストを取得する前記ステップは、
    テキスト入力ボックスを提供して、前記テキスト入力ボックスに入力されたテキストを付加対象となるテキストとして取得するステップ、
    又は、ビデオデータ撮影時に録音した音声データを取得し、前記音声データに対して音声認識を行うことで、付加対象となるテキストを取得するステップを含むことを特徴とする請求項7に記載の動画スタンプの生成方法。
  9. 動画スタンプを合成する前に、各前記ビデオフレームに含まれるピクセル点の透明度を検出するステップと、
    前記透明度に基づいて、前記ピクセル点から半透明のピクセル点を取得するステップと、
    各前記ビデオフレームにおける半透明のピクセル点の透明度を不透明値に調整した後で、動画スタンプを合成するステップと、をさらに含むことを特徴とする請求項1〜8のいずれか1項に記載の方法。
  10. 前記会話画面におけるスタンプメッセージに対する追尾撮影操作を取得するステップと、
    前記追尾撮影操作に応答して、前記会話画面からビデオ撮影画面にジャンプするステップと、
    前記スタンプメッセージに対応するスタンプを半透明でビデオ撮影画面に表示するステップと、
    リアルタイムに撮影されたされた画像を半透明で表示されたスタンプに重ねて表示するステップと、をさらに含むことを特徴とする請求項1〜8のいずれか1項に記載の方法。
  11. 前記ビデオデータに対する編集操作を取得せず、かつ、合成確認操作を検出した場合に、撮影した前記ビデオデータにおけるビデオフレームに基づいて直接的に合成することで、動画スタンプを取得するステップをさらに含むことを特徴とする請求項1〜8のいずれか1項に記載の方法。
  12. コンピュターに、請求項1〜11のいずれか1項に記載の方法を実行させるコンピュータプログラム。
  13. プロセッサと、前記プロセッサにより実行されると、前記プロセッサに請求項1〜11のいずれか1項に記載の方法のステップを実行させるコンピュータプログラムが記憶されているメモリとを含むことを特徴とするコンピュータ装置。
JP2020552389A 2018-09-27 2019-09-09 動画スタンプの生成方法並びにそのコンピュータプログラム及びコンピュータ装置 Active JP7112508B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811132844.6A CN109120866B (zh) 2018-09-27 2018-09-27 动态表情生成方法、装置、计算机可读存储介质和计算机设备
CN201811132844.6 2018-09-27
PCT/CN2019/104988 WO2020063319A1 (zh) 2018-09-27 2019-09-09 动态表情生成方法、计算机可读存储介质和计算机设备

Publications (2)

Publication Number Publication Date
JP2021517696A true JP2021517696A (ja) 2021-07-26
JP7112508B2 JP7112508B2 (ja) 2022-08-03

Family

ID=64857005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020552389A Active JP7112508B2 (ja) 2018-09-27 2019-09-09 動画スタンプの生成方法並びにそのコンピュータプログラム及びコンピュータ装置

Country Status (5)

Country Link
US (2) US11645804B2 (ja)
EP (1) EP3758364B1 (ja)
JP (1) JP7112508B2 (ja)
CN (1) CN109120866B (ja)
WO (1) WO2020063319A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838251B2 (en) 2020-12-25 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Information interaction method, apparatus, device, storage medium and program product

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120866B (zh) 2018-09-27 2020-04-03 腾讯科技(深圳)有限公司 动态表情生成方法、装置、计算机可读存储介质和计算机设备
CN109816759B (zh) * 2019-01-25 2023-11-17 维沃移动通信有限公司 一种表情生成方法及装置
CN110141857A (zh) * 2019-04-26 2019-08-20 腾讯科技(深圳)有限公司 虚拟角色的面部显示方法、装置、设备及存储介质
CN110321009B (zh) * 2019-07-04 2023-04-07 北京百度网讯科技有限公司 Ar表情处理方法、装置、设备和存储介质
CN115082984A (zh) * 2019-10-30 2022-09-20 百度在线网络技术(北京)有限公司 人物属性识别方法及装置
US11477366B2 (en) * 2020-03-31 2022-10-18 Snap Inc. Selfie setup and stock videos creation
CN111464430B (zh) * 2020-04-09 2023-07-04 腾讯科技(深圳)有限公司 一种动态表情展示方法、动态表情创建方法及装置
CN112306224A (zh) * 2020-04-30 2021-02-02 北京字节跳动网络技术有限公司 人机交互方法、装置和电子设备
CN111541950B (zh) * 2020-05-07 2023-11-03 腾讯科技(深圳)有限公司 表情的生成方法、装置、电子设备及存储介质
CN111586466B (zh) * 2020-05-08 2021-05-28 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置及存储介质
CN111638837B (zh) * 2020-05-13 2022-03-11 维沃移动通信有限公司 一种消息处理方法及电子设备
CN111603771B (zh) * 2020-05-22 2023-06-23 腾讯科技(深圳)有限公司 动画生成方法、装置、设备及介质
US11159458B1 (en) * 2020-06-10 2021-10-26 Capital One Services, Llc Systems and methods for combining and summarizing emoji responses to generate a text reaction from the emoji responses
CN111669640B (zh) * 2020-06-18 2022-03-15 广州繁星互娱信息科技有限公司 虚拟物品转移特效的显示方法、装置、终端及存储介质
CN112749357B (zh) * 2020-09-15 2024-02-06 腾讯科技(深圳)有限公司 基于分享内容的交互方法、装置和计算机设备
CN112153475B (zh) * 2020-09-25 2022-08-05 北京字跳网络技术有限公司 用于生成文字模式的视频的方法、装置、设备和介质
CN112203151B (zh) * 2020-10-09 2022-05-17 北京字跳网络技术有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN112533052A (zh) * 2020-11-27 2021-03-19 北京字跳网络技术有限公司 一种视频分享方法、装置、电子设备及存储介质
CN112699263B (zh) * 2021-01-08 2023-05-23 郑州科技学院 基于ai的二维美术图像动态展示方法及装置
CN114816599B (zh) * 2021-01-22 2024-02-27 北京字跳网络技术有限公司 图像显示方法、装置、设备及介质
US11550452B1 (en) * 2021-06-09 2023-01-10 Gopro, Inc. Presentation of a media sequence
US11657558B2 (en) * 2021-09-16 2023-05-23 International Business Machines Corporation Context-based personalized communication presentation
CN114693827A (zh) * 2022-04-07 2022-07-01 深圳云之家网络有限公司 表情生成方法、装置、计算机设备和存储介质
CN114780190B (zh) * 2022-04-13 2023-12-22 脸萌有限公司 消息处理方法、装置、电子设备及存储介质
CN115269886A (zh) * 2022-08-15 2022-11-01 北京字跳网络技术有限公司 媒体内容处理方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072685A (ja) * 2002-08-09 2004-03-04 Sharp Corp 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP2013165462A (ja) * 2012-02-13 2013-08-22 Canon Inc 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体
US20180143761A1 (en) * 2016-11-22 2018-05-24 Lg Electronics Inc. Mobile terminal and method for controlling the same

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6232965B1 (en) * 1994-11-30 2001-05-15 California Institute Of Technology Method and apparatus for synthesizing realistic animations of a human speaking using a computer
US20050163379A1 (en) * 2004-01-28 2005-07-28 Logitech Europe S.A. Use of multimedia data for emoticons in instant messaging
CN101179688B (zh) * 2007-05-17 2010-12-15 腾讯科技(深圳)有限公司 一种动态表情图片的实现方法及装置
CN101179471B (zh) * 2007-05-31 2011-07-27 腾讯科技(深圳)有限公司 一种具有文字的用户个性化动态表情图片实现方法及装置
JP4924721B2 (ja) * 2010-01-20 2012-04-25 カシオ計算機株式会社 携帯端末、及び、素材バンク管理システム
US8902235B2 (en) * 2011-04-07 2014-12-02 Adobe Systems Incorporated Methods and systems for representing complex animation using scripting capabilities of rendering applications
US20130147933A1 (en) * 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
CN103309872A (zh) 2012-03-09 2013-09-18 腾讯科技(深圳)有限公司 一种动态表情处理方法及装置
KR20140042427A (ko) * 2012-09-28 2014-04-07 삼성전자주식회사 애니메이션 이모티콘을 생성하는 장치 및 그 방법
US10289265B2 (en) * 2013-08-15 2019-05-14 Excalibur Ip, Llc Capture and retrieval of a personalized mood icon
WO2015079458A2 (en) * 2013-11-27 2015-06-04 V Shyam Pathy Integration of emotional artifacts into textual information exchange
CN104333688B (zh) 2013-12-03 2018-07-10 广州三星通信技术研究有限公司 基于拍摄的图像生成表情符的设备和方法
CN104917666B (zh) * 2014-03-13 2019-08-06 腾讯科技(深圳)有限公司 一种制作个性化动态表情的方法和装置
US10845982B2 (en) * 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
CN104065913B (zh) * 2014-06-27 2017-11-07 上海聊聊网络科技有限公司 一种即时通信客户端
US10210645B2 (en) * 2015-06-07 2019-02-19 Apple Inc. Entity agnostic animation tool
CN106257415A (zh) 2015-06-19 2016-12-28 阿里巴巴集团控股有限公司 实现动态图片预览的方法和装置、表情包展示方法和装置
US9608950B2 (en) * 2015-08-18 2017-03-28 Blend Systems, Inc. Systems and methods for sharing videos and images in a texting environment
KR20180048142A (ko) 2016-11-02 2018-05-10 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN106658079B (zh) * 2017-01-05 2019-04-30 腾讯科技(深圳)有限公司 自定义生成表情图像的方法及装置
CN107240143A (zh) * 2017-05-09 2017-10-10 北京小米移动软件有限公司 表情包生成方法及装置
CN107370887B (zh) * 2017-08-30 2020-03-10 维沃移动通信有限公司 一种表情生成方法及移动终端
CN108255316B (zh) * 2018-01-23 2021-09-10 Oppo广东移动通信有限公司 动态调整表情符号的方法、电子装置及计算机可读存储介质
CN108573527B (zh) * 2018-04-18 2020-02-18 腾讯科技(深圳)有限公司 一种表情图片生成方法及其设备、存储介质
CN109120866B (zh) 2018-09-27 2020-04-03 腾讯科技(深圳)有限公司 动态表情生成方法、装置、计算机可读存储介质和计算机设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072685A (ja) * 2002-08-09 2004-03-04 Sharp Corp 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP2013165462A (ja) * 2012-02-13 2013-08-22 Canon Inc 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体
US20180143761A1 (en) * 2016-11-22 2018-05-24 Lg Electronics Inc. Mobile terminal and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838251B2 (en) 2020-12-25 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Information interaction method, apparatus, device, storage medium and program product

Also Published As

Publication number Publication date
CN109120866A (zh) 2019-01-01
WO2020063319A1 (zh) 2020-04-02
US20230230306A1 (en) 2023-07-20
EP3758364A1 (en) 2020-12-30
US20210158594A1 (en) 2021-05-27
JP7112508B2 (ja) 2022-08-03
CN109120866B (zh) 2020-04-03
EP3758364A4 (en) 2021-05-19
EP3758364B1 (en) 2023-03-01
US11645804B2 (en) 2023-05-09

Similar Documents

Publication Publication Date Title
JP7112508B2 (ja) 動画スタンプの生成方法並びにそのコンピュータプログラム及びコンピュータ装置
CN107770626B (zh) 视频素材的处理方法、视频合成方法、装置及存储介质
CN111612873B (zh) Gif图片生成方法、装置及电子设备
CN108924622B (zh) 一种视频处理方法及其设备、存储介质、电子设备
CN113302659B (zh) 用于生成具有定制的文本消息的个性化视频的系统和方法
CN109948093B (zh) 表情图片生成方法、装置及电子设备
US11394888B2 (en) Personalized videos
CN114201097B (zh) 一种多应用程序之间的交互方法
CN110475140A (zh) 弹幕数据处理方法、装置、计算机可读存储介质和计算机设备
CN111935505A (zh) 视频封面生成方法、装置、设备及存储介质
CN114880062B (zh) 聊天表情展示方法、设备、电子设备及存储介质
CN104333688A (zh) 基于拍摄的图像生成表情符的设备和方法
CN113806570A (zh) 图像生成方法和生成装置、电子设备和存储介质
US10120539B2 (en) Method and device for setting user interface
JP6697043B2 (ja) キー入力に基づいたアニメーション画像生成方法及び前記方法を行うユーザ端末
CN110166345A (zh) 资源分享方法、资源获取方法、装置和存储介质
WO2022247766A1 (zh) 图像处理方法、装置及电子设备
CN115473867A (zh) 消息发送方法、装置、电子设备及存储介质
CN114827339A (zh) 消息输出方法、装置和电子设备
CN111625740A (zh) 图像显示方法、图像显示装置和电子设备
KR20150135591A (ko) 스마트폰에서 얼굴사진 캡쳐(capture) 툴(tool)을 이용하여 2장이상의 얼굴사진을 캡쳐, 이를 애니메이션 아바타 이미지에 맞춰 조합, 합성하는, 사진 애니메이션 아바타 편집 방법 및 서버시스템, 아바타 데이터베이스 연동 및 전송방법, 그리고 스마트폰에서 사진 애니메이션 아바타 디스플레이(display) 발신자 표시 방법
CN116543079A (zh) 表情图像的生成方法、装置、电子设备和可读存储介质
CN117395462A (zh) 媒体内容的生成方法、装置、电子设备和可读存储介质
CN116634215A (zh) 显示方法和装置
CN116962337A (zh) 一种消息处理方法及相关产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150