JP7403711B2 - ビデオ処理方法、装置、設備及び記憶媒体 - Google Patents

ビデオ処理方法、装置、設備及び記憶媒体 Download PDF

Info

Publication number
JP7403711B2
JP7403711B2 JP2023504269A JP2023504269A JP7403711B2 JP 7403711 B2 JP7403711 B2 JP 7403711B2 JP 2023504269 A JP2023504269 A JP 2023504269A JP 2023504269 A JP2023504269 A JP 2023504269A JP 7403711 B2 JP7403711 B2 JP 7403711B2
Authority
JP
Japan
Prior art keywords
effect
target
video segment
track
target video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023504269A
Other languages
English (en)
Other versions
JP2023532599A (ja
Inventor
ジョン,チーファン
ジャオ,チェン
ゾン,ヤン
フー,ピンフェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023532599A publication Critical patent/JP2023532599A/ja
Application granted granted Critical
Publication of JP7403711B2 publication Critical patent/JP7403711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/743Browsing; Visualisation therefor a collection of video files or sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の参照)
本願は、2020年7月23日に提出された中国特許出願第202010718056.6号の優先権を主張し、当該中国特許出願の全内容は援用によって本願の一部として組み込まれている。
(技術分野)
本開示はデータ処理の分野に関し、特にビデオ処理方法、装置、設備及び記憶媒体に関する。
現在、ビデオに対して効果処理を行う場合には、通常、ビデオのすべての画面に効果が適用される。たとえば、ビデオにフィルタ効果を付ける場合、付けられたフィルタを該ビデオのすべての画面に適用し、ビデオ全体にフィルタを付けた効果を実現する必要がある。
実際の応用では、ユーザはビデオに対して効果処理を行う様々なニーズが存在する可能性があるため、様々なニーズに対し、依然として様々な効果をビデオ全体のすべての画面に強いて適用する場合、ユーザがビデオに対する効果処理時のユーザ体験を低下させることになる。
そのため、ビデオに対してどのように効果処理をより柔軟に行い、ユーザがビデオに対して効果処理を行う時のユーザ体験を向上させるかは、現在解決すべき技術的課題である。
上記技術的課題を解決するか又は上記技術的課題を少なくとも部分的に解決するために、本開示はビデオ処理方法、装置、設備及び記憶媒体を提供し、ビデオのあるビデオセグメントのみに対して効果処理を行い、ビデオに対する効果処理の柔軟性を向上させ、それによってユーザがビデオに対する効果処理時のユーザ体験を向上させることができる。
本開示はビデオ処理方法を提供し、当該方法は、
目標効果のパターンを決定するステップと、
処理対象となるビデオの時間軸での表示に基づき、処理対象となるビデオにおける目標ビデオセグメントを決定するステップと、
効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立するステップと、
バインディング関係に基づき、目標効果のパターンが適用された目標ビデオセグメントを表示するステップと、を含む。
1つの選択可能な実施形態では、効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立し、目標効果のパターンを目標ビデオセグメントに適用する後、
目標ビデオセグメントのために効果トラックを生成し、効果トラックと目標ビデオセグメントとのバインディング関係を確立するステップであって、効果トラックの長さは目標効果のパターンが適用された目標ビデオセグメントの長さを表すことに用いられるステップと、
効果トラックに対する長さの調整操作に応答して、効果トラックとバインディング関係を有する目標ビデオセグメントの長さをアップデートするステップと、をさらに含む。
1つの選択可能な実施形態では、当該方法は、
効果トラックに対するドラッグ変位が予め設定された閾値に達したことを検出した場合、効果トラックと目標ビデオセグメントとのバインディング関係を解除し、及び目標ビデオセグメントと目標効果のパターンとのバインディング関係を解除するステップをさらに含む。
1つの選択可能な実施形態では、当該方法は、
目標ビデオセグメントに対する移動操作に応答し、目標ビデオセグメントとバインディング関係を有する効果トラック及び目標効果のパターンを、目標ビデオセグメントに従って移動させるように制御するステップをさらに含む。
1つの選択可能な実施形態では、目標ビデオセグメントは処理対象となるビデオのメイントラック又はピクチャインピクチャトラックに位置する。
第2態様では、本開示はビデオ処理装置をさらに提供し、当該装置は、
目標効果のパターンを決定するための第1決定モジュールと、
処理対象となるビデオの時間軸での表示に基づき、処理対象となるビデオにおける目標ビデオセグメントを決定するための第2決定モジュールと、
効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立するための第1確立モジュールと、
バインディング関係に基づき、目標効果のパターンが適用された目標ビデオセグメントを表示するための表示モジュールと、を含む。
1つの選択可能な実施形態では、当該装置は、
目標ビデオセグメントのために効果トラックを生成し、効果トラックと目標ビデオセグメントとのバインディング関係を確立するための第2確立モジュールであって、効果トラックの長さは目標効果のパターンが適用された目標ビデオセグメントの長さを表すことに用いられる第2確立モジュールと、
効果トラックに対する長さ調整操作に応答し、効果トラックとバインディング関係を有する目標ビデオセグメントの長さをアップデートするためのアップデートモジュールと、をさらに含む。
1つの選択可能な実施形態では、当該装置は、
効果トラックに対するドラッグ変位が予め設定された閾値に達したことを検出した場合、効果トラックと目標ビデオセグメントとのバインディング関係を解除し、及び目標ビデオセグメントと目標効果のパターンとのバインディング関係を解除するための解除モジュールをさらに含む。
第3態様では、本開示はコンピュータ可読記憶媒体を提供し、コンピュータ可読記憶媒体には命令が記憶され、命令が端末設備上で実行されると、端末設備に上記方法を実現させる。
第4態様では、本開示は、メモリと、プロセッサと、メモリに記憶されかつプロセッサ上で実行され得るコンピュータプログラムとを含む設備を提供し、プロセッサは前記コンピュータプログラムを実行すると、上記方法を実現する。
本開示の実施例に係る技術的解決手段は従来技術に比べて以下の利点を有する。
本開示の実施例はビデオ処理方法を提供し、目標効果のパターンを決定し、及び処理対象となるビデオの時間軸での表示に基づいて目標ビデオセグメントを決定した後、効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立することにより、目標効果のパターンを目標ビデオセグメントに適用するという効果を実現する。本開示の実施例は、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立することにより、ビデオのあるビデオセグメントのみに対して効果処理を行うという効果を実現し、それによってユーザがあるビデオセグメントのみに対して効果処理を行うニーズを満たし、ビデオに対する効果処理の柔軟性を向上させ、さらにユーザがビデオに対して効果処理を行う時のユーザ体験を向上させる。
本開示の実施例の技術的解決手段をより明確に説明するために、以下、実施例の図面を簡単に説明し、明らかなように、以下説明される図面は本開示のいくつかの実施例に関するものに過ぎず、本開示を制限するものではない。
図1は本開示の実施例に係るビデオ処理方法のフローチャートである。 図2は本開示の実施例に係るビデオ処理インタフェースの効果図である。 図3は本開示の実施例に係る別のビデオ処理方法のフローチャートである。 図4は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図5は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図6は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図7は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図8は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図9は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図10は本開示の実施例に係る別のビデオ処理インタフェースの効果図である。 図11は本開示の実施例に係るビデオ処理装置の構造ブロック図である。 図12は本開示の実施例に係るビデオ処理設備の構造ブロック図である。
本開示の上記目的、特徴及び利点をより明確に理解できるために、以下、本開示の解決手段をさらに説明する。尚、矛盾がない場合、本開示の実施例及び実施例における特徴を互いに組み合わせることができる。
以下の説明では、本開示を十分に理解するために多くの具体的な詳細が説明されるが、本開示はさらにここで説明されるものとは異なる他の方式で実施され得る。明らかなように、明細書における実施例は本開示の実施例の一部に過ぎず、全部の実施例ではない。
現在、ビデオに対して効果処理を行う場合には、ビデオのあるビデオセグメントだけにある効果が適用され、その効果が他のビデオセグメントには適用されないことがある。その結果、ユーザはビデオにおけるあるビデオセグメントのみに対してその効果処理を利用するニーズが存在する。現在のビデオ処理方法を利用し、該効果をビデオ全体のすべての画面に強いて適用すると、ユーザのビデオに対する効果処理のニーズを満たすことができず、それによってユーザがビデオに対して効果処理を行う時のユーザ体験が低下してしまう。
以上を基礎として、本開示はビデオに対して効果処理をより柔軟に行う方法を提供し、具体的には、目標効果のパターンを決定し、及び処理対象となるビデオの時間軸での表示に基づいて目標ビデオセグメントを決定した後、効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立することにより、目標効果のパターンを目標ビデオセグメントに適用するという効果を実現する。
上記の説明から分かるように、本開示の実施例は、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立することにより、ビデオのあるビデオセグメントに対してのみ効果処理を行うという効果を実現し、それによりユーザがあるビデオセグメントのみに対して効果処理を行うニーズを満たし、ビデオに対して効果処理を行う柔軟性を向上させ、さらにユーザがビデオに対して効果処理を行う時のユーザ体験を向上させる。
以上を基礎として、本開示の実施例はビデオ処理方法を提供し、図1は本開示の実施例に係るビデオ処理方法のフローチャートであり、該方法はS101~S104を含む。
S101、目標効果のパターンを決定する。
本開示の実施例では、目標効果のパターンはフィルタ効果パターン、特殊効果パターン、シール効果パターンなどの特殊効果パターンを含んでもよい。
1つの選択可能な実施形態では、インタフェースに様々な効果パターンを表示し、ユーザはいずれかの効果パターンをクリックすることにより、該効果パターンを目標効果のパターンとする効果を実現する。
ただし、本開示の実施例は目標効果のパターンの決定方式を限定しない。
S102、処理対象となるビデオの時間軸での表示に基づき、前記処理対象となるビデオにおける目標ビデオセグメントを決定する。
本開示の実施例では、時間軸に基づいて処理対象となるビデオを表示し、図2は本開示の実施例に係るビデオ処理インタフェースの効果図である。処理対象となるビデオは時間軸に各時点に対応するビデオ画面を表示し、ユーザは処理対象となるビデオの中から1つのビデオセグメントを目標ビデオセグメントとして決定することができる。
1つの選択可能な実施形態では、ビデオセグメントの開始時間及び終了時間を決定することにより、処理対象となるビデオの中から、該開始時間に対応するビデオ画面で始まり、該終了時間に対応するビデオ画面で終わる目標ビデオセグメントを決定することができる。
別の選択可能な実施形態では、目標効果のパターンを処理対象となるビデオにおけるあるビデオセグメントにドラッグすることにより、処理対象となるビデオの中から目標ビデオセグメントを決定することもできる。
処理対象となるビデオにおける目標ビデオセグメントを決定するための他の方式については、本開示の実施例に限定されない。
ただし、本開示の実施例は上記S101とS102の実行順序を制限しない。
S103、効果適用のトリガ操作に応答し、前記目標効果のパターンと前記目標ビデオセグメントとのバインディング関係を確立する。
本開示の実施例では、目標効果のパターン及び目標ビデオセグメントを決定した後、該目標効果のパターンを該目標ビデオセグメントに適用する操作をトリガすることができる。
実際の応用では、効果適用のトリガ操作を検出した場合、該効果適用のトリガ操作に対応する目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立することにより、該目標効果のパターンを該目標ビデオセグメントに適用することができる。
1つの選択可能な実施形態では、目標効果のパターン及び目標ビデオセグメントを決定した後、ユーザは図2に示される「セグメントに適用する」ボタンをクリックすることにより、該効果適用のトリガ操作に対応する目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立し、該目標効果のパターンを該目標ビデオセグメントに適用する効果を実現することができる。
別の選択可能な実施形態では、目標効果のパターン及び目標ビデオセグメントを決定した後、該目標効果のパターンを該目標ビデオセグメントにドラッグすることにより、該効果適用のトリガ操作をトリガし、該効果適用のトリガ操作に対応する目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立することもできる。具体的には、上記ドラッグ操作に対応するマウスボタン放す操作は、目標ビデオセグメントの決定をトリガできるだけでなく、目標効果のパターンと該目標ビデオセグメントとの間のバインディング関係の確立をトリガでき、該目標効果のパターンを該目標ビデオセグメントに適用する効果を実現する。
S104、前記バインディング関係に基づき、前記目標効果のパターンが適用された前記目標ビデオセグメントを表示する。
本開示の実施例では、目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立した後、該バインディング関係に基づき、インタフェースに目標効果のパターンが適用された目標ビデオセグメントをユーザに表示することができる。
また、ビデオに対する効果処理をより柔軟に実現するために、本開示の実施例では、処理対象となるビデオのあるビデオトラックにおけるビデオセグメントを目標ビデオセグメントとすることができ、目標効果のパターンが適用された目標ビデオセグメントをより低い粒度で決定することを実現し、ビデオに対する効果処理の柔軟性を向上させる。
実際の応用では、ビデオトラックは通常、メイントラックとピクチャインピクチャトラックとを含み、本開示の実施例は、処理対象となるビデオのメイントラック又はピクチャインピクチャトラックにおけるビデオセグメントを目標ビデオセグメントとして決定し、目標効果のパターンをメイントラック又はピクチャインピクチャトラックにおけるビデオセグメントに適用する効果を実現することができる。
本開示の実施例に係るビデオ処理方法では、目標効果のパターンを決定し、及び処理対象となるビデオの時間軸での表示に基づいて目標ビデオセグメントを決定した後、効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立することにより、目標効果のパターンを目標ビデオセグメントに適用する効果を実現する。本開示の実施例は、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立することにより、ビデオのあるビデオセグメントのみに対して効果処理を行う効果を実現し、それによりユーザがあるビデオセグメントのみに対して効果処理を行うニーズを満たし、ビデオに対する効果処理の柔軟性を向上させ、さらにユーザがビデオに対して効果処理を行う時のユーザ体験を向上させる。
ビデオ処理の柔軟性をさらに向上させ、ビデオ処理の機能を豊かにするため、本開示の実施例はビデオ処理方法をさらに提供し、図3は本開示の実施例に係る別のビデオ処理方法のフローチャートである。該方法はS301~S306を含む。
S301、目標効果のパターンを決定する。
S302、処理対象となるビデオの時間軸での表示に基づき、前記処理対象となるビデオにおける目標ビデオセグメントを決定する。
S303、効果適用のトリガ操作に応答し、前記目標効果のパターンと前記目標ビデオセグメントとのバインディング関係を確立する。
S304、前記バインディング関係に基づき、前記目標効果のパターンが適用された前記目標ビデオセグメントを表示する。
本開示の実施例におけるS301~S304は上記実施例におけるS101~S104の説明を参照して理解することができ、ここで詳細な説明を省略する。
S305、前記目標ビデオセグメントの効果トラックを生成し、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を確立する。
前記効果トラックの長さは前記目標効果のパターンが適用された前記目標ビデオセグメントの長さを表すことに用いられる。
本開示の実施例では、効果適用のトリガ操作を検出した場合、目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立するだけでなく、目標ビデオセグメントの効果トラックを生成する。図4、5、6は、それぞれ本開示の実施例に係るビデオ処理インタフェースの効果図であり、目標ビデオセグメントの上方にはいずれも効果トラックが示され、効果トラックのパターンは異なり、図4の効果トラックはスモールトラックと呼ばれてもよく(スモールドラックは図4の破線枠で限定された黒色領域に示され、目標ビデオセグメントは図4の一点鎖線枠で限定された領域である)、図5、6の効果トラックについては付属トラックと呼ばれてもよい(図5、図6の黒色の実線枠で限定された灰色領域に示され、目標ビデオセグメントはそれぞれ図5、図6の黒色の一点鎖線枠で限定された領域である)。
1つの選択可能な実施形態では、図4に示されるスモールドラックの上方にトラックラベルの形式で目標効果のパターンの名称を表示してもよく、図7は本開示の実施例に係るビデオ処理インタフェースの効果図であり、目標ビデオセグメントのスモールドラックの上方にトラックラベルの形式で目標効果のパターンの名称「フィルタ2」を表示する。具体的には、ユーザはマウスをスモールドラック上に置く場合、該トラックラベルの展開をトリガすることになり、ユーザに該トラックラベルにおけるコンテンツを表示し、さらに、ユーザが該トラックラベルを再びクリックした後、スモールドラックの更なる展開をトリガする。図8は本開示の実施例に係る別のビデオ処理インタフェースの効果図であり、目標ビデオセグメントでのスモールドラック(図8の矢印で示される黒色領域に示される)は、図7のトラックラベルをクリックした後に展開したスモールドラックパターンである。
実際の応用では、目標ビデオセグメントの効果トラックを生成した後、該効果トラックと目標ビデオセグメントとのバインディング関係を確立し、該効果トラックの長さは目標効果のパターンが適用された目標ビデオセグメントの長さを表すことに用いられる。
本開示の実施例では、目標ビデオセグメントとバインディング関係を有する効果トラックに対してインタラクション操作を実行することにより、該目標ビデオセグメントに対するインタラクション操作を実現し、及び該目標ビデオセグメントとバインディング関係を有する目標効果のパターンに対するインタラクション操作を実現することができる。
1つの選択可能な実現方式では、効果トラックに対してドラッグ操作を実行することにより、該効果トラックと目標ビデオセグメントとのバインディング関係を解除し、及び目標ビデオセグメントと目標効果のパターンとのバインディング関係を解除することをトリガできる。具体的には、効果トラックに対するドラッグ変位が予め設定された閾値に達したことを検出した場合、該効果トラックと目標ビデオセグメントとのバインディング関係を解除し、及び目標ビデオセグメントと目標効果のパターンとのバインディング関係を解除する。図9は本開示の実施例に係る別のビデオ処理インタフェースの効果図であり、図6の付属トラックを例とすると、図6の「付属トラック」に対してドラッグ操作を実行しかつ臨界点まで延伸して切断した場合、たとえば、図6の付属トラックを図9に示される位置に右向きにドラッグして切断した場合、該効果トラックと目標ビデオセグメントとのバインディング関係を解除し、及び目標ビデオセグメントと目標効果のパターンとのバインディング関係を解除することをトリガする。
実際の応用では、上記バインディング関係を解除した後、該目標効果のパターンは該目標ビデオセグメントに適用されなくなり、該目標効果のパターンを処理対象となるビデオのすべての画面に適用する操作をトリガし、このとき、効果トラックは処理対象となるビデオの1つのビデオトラックであってもよい。
別の選択可能な実施形態では、ビデオを作成するユーザ体験を向上させるために、目標ビデオセグメントに対する移動操作を検出した場合、該目標ビデオセグメントとバインディング関係を有する効果トラック及び目標効果のパターンを、目標ビデオセグメントに従って移動させるように制御することができる。
図10は本開示の実施例に係る別のビデオ処理インタフェースの効果図であり、図4のスモールドラックを例とすると、目標ビデオセグメントに対する移動操作を検出した場合、該目標ビデオセグメント(図10の一点鎖線枠で示される)とバインディング関係を有する効果トラック(図10の上側に効果トラックとして記された長いストリップ)及び目標効果のパターンを、該目標ビデオセグメントに従って移動させるように制御する。
S306、前記効果トラックに対する長さ調整操作に応答し、前記効果トラックとバインディング関係を有する前記目標ビデオセグメントの長さをアップデートする。
本開示の実施例では、効果トラックの長さは目標効果のパターンが適用された目標ビデオセグメントの長さを表すことに用いられるため、効果トラックの長さを調整することにより、該効果トラックとバインディング関係を有する目標ビデオセグメントの長さをアップデートすることができる。
実際の応用では、ユーザは効果トラックに対して長さ調整操作を行うことができ、たとえば、効果トラックに対して延長又は短縮操作をトリガして、該効果トラックとバインディング関係を有する目標ビデオセグメントの長さ調整を実現し、目標効果のパターンが適用されたビデオセグメントの長さをアップデートする。
本開示の実施例に係るビデオ処理方法は、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立することにより、ビデオのあるビデオセグメントのみに対して効果処理を行う効果を実現し、それによってユーザがあるビデオセグメントのみに対して効果処理を行うニーズを満たし、ビデオに対する効果処理の柔軟性を向上させ、さらにユーザがビデオに対して効果処理を行う時のユーザ体験を向上させる。
また、目標ビデオセグメントの効果トラックを生成することにより、ビデオ処理の柔軟性をさらに向上させ、ビデオ処理の機能を豊かにし、それによりユーザがビデオに対して効果処理を行う時のユーザ体験をさらに向上させる。
上記方法実施例と同じ発明の構想を有し、本開示の実施例はビデオ処理装置をさらに提供し、図11は本開示の実施例に係るビデオ処理装置の構造模式図であり、該装置は、
目標効果のパターンを決定するための第1決定モジュール1101と、
処理対象となるビデオの時間軸での表示に基づき、前記処理対象となるビデオにおける目標ビデオセグメントを決定するための第2決定モジュール1102と、
効果適用のトリガ操作に応答し、前記目標効果のパターンと前記目標ビデオセグメントとのバインディング関係を確立するための第1確立モジュール1103と、
前記バインディング関係に基づき、前記目標効果のパターンが適用された前記目標ビデオセグメントを表示するための表示モジュール1104と、を含む。
1つの選択可能な実施形態では、前記装置は、
前記目標ビデオセグメントの効果トラックを生成し、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を確立するための第2確立モジュールであって、前記効果トラックの長さは前記目標効果のパターンが適用された前記目標ビデオセグメントの長さを表すことに用いられる第2確立モジュールと、
前記効果トラックに対する長さ調整操作に応答し、前記効果トラックとバインディング関係を有する前記目標ビデオセグメントの長さをアップデートするためのアップデートモジュールと、をさらに含む。
1つの選択可能な実施形態では、前記装置は、
前記効果トラックに対するドラッグ変位が予め設定された閾値に達したことを検出した場合、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を解除し、及び前記目標ビデオセグメントと前記目標効果のパターンとのバインディング関係を解除するための解除モジュールをさらに含む。
1つの選択可能な実施形態では、前記装置は、
前記目標ビデオセグメントに対する移動操作に応答し、前記目標ビデオセグメントとバインディング関係を有する前記効果トラック及び前記目標効果のパターンを、前記目標ビデオセグメントに従って移動させるように制御するための制御モジュールをさらに含む。
1つの選択可能な実施形態では、前記目標ビデオセグメントは前記処理対象となるビデオのメイントラック又はピクチャインピクチャトラックに位置する。
本開示の実施例に係るビデオ処理装置は、目標効果のパターンを決定し、及び処理対象となるビデオの時間軸での表示に基づいて目標ビデオセグメントを決定した後、効果適用のトリガ操作に応答し、目標効果のパターンと目標ビデオセグメントとの間のバインディング関係を確立することにより、目標効果のパターンを目標ビデオセグメントに適用する効果を実現する。本開示の実施例は、目標効果のパターンと目標ビデオセグメントとのバインディング関係を確立することにより、ビデオのあるビデオセグメントにのみ対して効果処理を行う効果を実現し、それによりユーザがあるビデオセグメントのみに対して効果処理を行うニーズを満たし、ビデオに対する効果処理の柔軟性を向上させ、さらにユーザがビデオに対して効果処理を行う時のユーザ体験を向上させる。
また、本開示の実施例はビデオ処理設備をさらに提供し、図12に示すように、プロセッサ1201と、メモリ1202と、入力装置1203と、出力装置1204とを含んでもよい。ビデオ処理設備におけるプロセッサ1201の数は1つ又は複数であってもよく、図12における1つのプロセッサを例とする。本発明のいくつかの実施例では、プロセッサ1201、メモリ1202、入力装置1203及び出力装置1204はバス又は他の方式を介して接続され、図12ではバスを介して接続されることを例とする。
メモリ1202はソフトウェアプログラム及びモジュールを記憶することに用いられてもよく、プロセッサ1201はメモリ1202に記憶されたソフトウェアプログラム及びモジュールを実行することにより、ビデオ処理設備の様々な機能アプリケーション及びデータ処理を実行する。メモリ1202は主にプログラム記憶領域及びデータ記憶領域を含んでもよく、プログラム記憶領域はオペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムなどを記憶することができる。また、メモリ1202は、高速ランダムアクセスメモリを含んでもよく、不揮発性メモリをさらに含んでもよく、たとえば少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の揮発性固体記憶デバイスが挙げられる。入力装置1203は入力された数字又は文字情報を受信し、及びビデオ処理設備のユーザ設定及び機能制御に関連する信号入力を生成することに用いられてもよい。
具体的には、本実施例では、プロセッサ1201は以下の命令に応じ、1つ又は1つ以上のアプリケーションプログラムのプロセスに対応する実行可能なファイルをメモリ1202にロードし、かつメモリ1202に記憶されたアプリケーションプログラムをプロセッサ1201により実行し、それにより上記ビデオ処理設備の様々な機能を実現する。
尚、本明細書では、「第1」及び「第2」などの関係用語は、1つの実体又は操作を別の実体又は操作と区別するためのものに過ぎず、必ずしもそれらの実体又は操作の間にこのような任意の実際の関係又は順序が存在することを要求又は示唆するものではない。また、「含む」、「包含」又は任意の他の変形は、非排他的な包含をカバーすることを意図し、それにより一連の要素を含む過程、方法、物品又は設備はそれらの要素を含むだけでなく、明確にリストされていない他の要素をさらに含むか、又はこのような過程、方法、物品又は設備に固有の要素をさらに含む。それ以上の制限がない場合、「…を1つ含む」という文で限定された要素は、前記要素を含む過程、方法、物品又は設備に別の同じ要素がさらに存在することを排除するものではない。
以上は本開示の具体的な実施形態に過ぎず、当業者が本開示を理解又は実現できるようにする。それらの実施例に対する様々な変更は当業者にとって容易に想到であり、本明細書で定義された一般的な原理は、本開示の趣旨又は範囲を逸脱することなく、他の実施例で実現されてもよい。従い、本開示は本明細書に記載されたそれらの実施例に制限されるものではなく、本明細書に開示されている原理及び新規な特徴と一致する最も広い範囲に適合するものである。

Claims (6)

  1. 目標効果のパターンを決定するステップと、
    処理対象となるビデオの時間軸での表示に基づき、前記処理対象となるビデオにおける目標ビデオセグメントを決定するステップと、
    効果適用のトリガ操作に応答し、前記目標効果のパターンと前記目標ビデオセグメントとのバインディング関係を確立するステップと、
    前記バインディング関係に基づき、前記目標効果のパターンが適用された前記目標ビデオセグメントを表示するステップと、
    前記目標ビデオセグメントの効果トラックを生成し、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を確立するステップであって、前記効果トラックの長さは前記目標効果のパターンが適用された前記目標ビデオセグメントの長さを表すことに用いられるステップと、
    前記効果トラックに対する長さ調整操作に応答し、前記効果トラックとバインディング関係を有する前記目標ビデオセグメントの長さをアップデートするステップと、
    前記効果トラックに対するドラッグ変位が予め設定された閾値に達したことを検出した場合、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を解除し、及び前記目標ビデオセグメントと前記目標効果のパターンとのバインディング関係を解除するステップと、を含むことを特徴とする、
    ビデオ処理方法。
  2. 前記目標ビデオセグメントに対する移動操作に応答し、前記目標ビデオセグメントとバインディング関係を有する前記効果トラック及び前記目標効果のパターンを、前記目標ビデオセグメントに従って移動させるように制御するステップをさらに含むことを特徴とする、請求項1に記載の方法。
  3. 前記目標ビデオセグメントは前記処理対象となるビデオのメイントラック又はピクチャインピクチャトラックに位置することを特徴とする請求項1に記載の方法。
  4. 目標効果のパターンを決定するための第1決定モジュールと、
    処理対象となるビデオの時間軸での表示に基づき、前記処理対象となるビデオにおける目標ビデオセグメントを決定するための第2決定モジュールと、
    効果適用のトリガ操作に応答し、前記目標効果のパターンと前記目標ビデオセグメントとのバインディング関係を確立するための第1確立モジュールと、
    前記バインディング関係に基づき、前記目標効果のパターンが適用された前記目標ビデオセグメントを表示するための表示モジュールと、
    前記目標ビデオセグメントの効果トラックを生成し、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を確立するための第2確立モジュールであって、前記効果トラックの長さは前記目標効果のパターンが適用された前記目標ビデオセグメントの長さを表すことに用いられる第2確立モジュールと、
    前記効果トラックに対する長さ調整操作に応答し、前記効果トラックとバインディング関係を有する前記目標ビデオセグメントの長さをアップデートするためのアップデートモジュールと、
    前記効果トラックに対するドラッグ変位が予め設定された閾値に達したことを検出した場合、前記効果トラックと前記目標ビデオセグメントとのバインディング関係を解除し、及び前記目標ビデオセグメントと前記目標効果のパターンとのバインディング関係を解除するための解除モジュールと、を含むことを特徴とする、
    ビデオ処理装置。
  5. 命令を記憶するコンピュータ可読記憶媒体であって、前記命令が端末設備で実行されると、前記命令は前記端末設備に請求項1~のいずれか1項に記載の方法を実現させることを特徴とする、コンピュータ可読記憶媒体。
  6. メモリと、プロセッサと、前記メモリに記憶されかつ前記プロセッサで実行され得るコンピュータプログラムとを含み、前記プロセッサは、前記コンピュータプログラムを実行すると、請求項1~のいずれか1項に記載の方法を実現することを特徴とする、設備。
JP2023504269A 2020-07-23 2021-07-21 ビデオ処理方法、装置、設備及び記憶媒体 Active JP7403711B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010718056.6 2020-07-23
CN202010718056.6A CN111757013B (zh) 2020-07-23 2020-07-23 一种视频处理方法、装置、设备及存储介质
PCT/CN2021/107664 WO2022017420A1 (zh) 2020-07-23 2021-07-21 视频处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023532599A JP2023532599A (ja) 2023-07-28
JP7403711B2 true JP7403711B2 (ja) 2023-12-22

Family

ID=72710815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023504269A Active JP7403711B2 (ja) 2020-07-23 2021-07-21 ビデオ処理方法、装置、設備及び記憶媒体

Country Status (6)

Country Link
US (2) US11887628B2 (ja)
EP (1) EP4171012A4 (ja)
JP (1) JP7403711B2 (ja)
KR (1) KR102590100B1 (ja)
CN (1) CN111757013B (ja)
WO (1) WO2022017420A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111757013B (zh) * 2020-07-23 2022-04-29 北京字节跳动网络技术有限公司 一种视频处理方法、装置、设备及存储介质
CN112468864A (zh) * 2020-11-24 2021-03-09 北京字跳网络技术有限公司 一种视频处理方法、装置、设备及存储介质
USD1026943S1 (en) * 2021-08-06 2024-05-14 Beijing Kuaimajiabian Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
USD1026027S1 (en) * 2021-08-06 2024-05-07 Beijing Kuaimajiabian Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
USD1024100S1 (en) * 2021-09-16 2024-04-23 Beijing Zitiao Network Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
WO2023056697A1 (zh) * 2021-10-09 2023-04-13 普源精电科技股份有限公司 波形序列处理方法、处理装置、电子设备及存储介质
CN115297272B (zh) * 2022-08-01 2024-03-15 北京字跳网络技术有限公司 一种视频处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000028543A1 (fr) 1998-11-10 2000-05-18 Sony Corporation Dispositif et procede de creation de donnees d'edition
JP2005278212A (ja) 1996-11-15 2005-10-06 Hitachi Kokusai Electric Inc 画像編集方法及び画像編集装置
JP2015504629A (ja) 2011-11-14 2015-02-12 アップル インコーポレイテッド マルチメディアクリップの生成
JP2019096950A (ja) 2017-11-20 2019-06-20 オリンパス株式会社 撮像装置、撮像方法及び撮像プログラム
WO2019230225A1 (ja) 2018-05-29 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781188A (en) * 1996-06-27 1998-07-14 Softimage Indicating activeness of clips and applying effects to clips and tracks in a timeline of a multimedia work
JPH11203837A (ja) * 1998-01-16 1999-07-30 Sony Corp 編集システムおよび編集方法
JP3858883B2 (ja) * 2003-10-28 2006-12-20 ソニー株式会社 記録装置及びその制御方法
US7644364B2 (en) * 2005-10-14 2010-01-05 Microsoft Corporation Photo and video collage effects
KR20100086136A (ko) * 2009-01-22 2010-07-30 (주)코드엑트 동영상 편집 시스템
US9323438B2 (en) * 2010-07-15 2016-04-26 Apple Inc. Media-editing application with live dragging and live editing capabilities
US8966367B2 (en) * 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
US9250796B2 (en) * 2014-04-01 2016-02-02 Ideo Llc Video editor
CN107005624B (zh) * 2014-12-14 2021-10-01 深圳市大疆创新科技有限公司 处理视频的方法、系统、终端、装置、处理器和存储介质
TWI558193B (zh) * 2015-05-11 2016-11-11 Trans Electric Co Ltd Film production method
KR101776674B1 (ko) * 2016-02-03 2017-09-08 (주)바이널씨 휴대용 영상 편집 장치 및 그 동작 방법
CN106657810A (zh) * 2016-09-26 2017-05-10 维沃移动通信有限公司 一种视频图像的滤镜处理方法和装置
CN107124624B (zh) 2017-04-21 2022-09-23 腾讯科技(深圳)有限公司 视频数据生成的方法和装置
CN110383820A (zh) * 2018-05-07 2019-10-25 深圳市大疆创新科技有限公司 视频处理方法、系统、终端设备、可移动装置的系统
CN109040615A (zh) * 2018-08-10 2018-12-18 北京微播视界科技有限公司 视频特效添加方法、装置、终端设备及计算机存储介质
CN109346111B (zh) * 2018-10-11 2020-09-04 广州酷狗计算机科技有限公司 数据处理方法、装置、终端及存储介质
CN109525901B (zh) * 2018-11-27 2020-08-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
CN110198486B (zh) * 2019-05-28 2022-04-05 上海哔哩哔哩科技有限公司 一种预览视频素材的方法、计算机设备及可读存储介质
CN110674341B (zh) * 2019-09-11 2023-07-25 广州方硅信息技术有限公司 特效处理方法、装置、电子设备及存储介质
CN110691276B (zh) * 2019-11-06 2022-03-18 北京字节跳动网络技术有限公司 多媒体片段拼接的方法、装置、移动终端及存储介质
CN111050203B (zh) * 2019-12-06 2022-06-14 腾讯科技(深圳)有限公司 一种视频处理方法、装置、视频处理设备及存储介质
CN111757013B (zh) * 2020-07-23 2022-04-29 北京字节跳动网络技术有限公司 一种视频处理方法、装置、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278212A (ja) 1996-11-15 2005-10-06 Hitachi Kokusai Electric Inc 画像編集方法及び画像編集装置
WO2000028543A1 (fr) 1998-11-10 2000-05-18 Sony Corporation Dispositif et procede de creation de donnees d'edition
JP2015504629A (ja) 2011-11-14 2015-02-12 アップル インコーポレイテッド マルチメディアクリップの生成
JP2019096950A (ja) 2017-11-20 2019-06-20 オリンパス株式会社 撮像装置、撮像方法及び撮像プログラム
WO2019230225A1 (ja) 2018-05-29 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
US20230122589A1 (en) 2023-04-20
KR102590100B1 (ko) 2023-10-17
WO2022017420A1 (zh) 2022-01-27
CN111757013B (zh) 2022-04-29
CN111757013A (zh) 2020-10-09
EP4171012A1 (en) 2023-04-26
JP2023532599A (ja) 2023-07-28
KR20230019209A (ko) 2023-02-07
EP4171012A4 (en) 2023-12-06
US11887628B2 (en) 2024-01-30
US20240127861A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
JP7403711B2 (ja) ビデオ処理方法、装置、設備及び記憶媒体
CN110162371B (zh) 显示控制方法及装置、电子设备和存储介质
RU2646376C2 (ru) Элементы пользовательского интерфейса для нескольких дисплеев
KR102108583B1 (ko) 인스턴스화가능한 제스처 객체
CN109491731B (zh) 一种悬浮按钮的控制方法、装置及存储介质
US9286142B2 (en) Methods and systems for supporting a rendering API using a runtime environment
US9798400B2 (en) Displaying device and non-transitory computer-readable recording medium storing instructions
JP2012507089A (ja) ウィンドウ固有の制御の表面化および管理
WO2013036252A1 (en) Multiple display device taskbars
US11287948B2 (en) Method for controlling the execution of a program configurable into a disabled state and enabled state
US11941728B2 (en) Previewing method and apparatus for effect application, and device, and storage medium
KR20170030602A (ko) Ui 제어의 배경을 설정하는 방법 및 장치, 및 단말
CN114356155A (zh) 一种基于视频的交互方法、装置、设备及存储介质
US11016788B2 (en) Application launching method and display device
CN115119064B (zh) 一种视频处理方法、装置、设备及存储介质
JP2023534069A (ja) オーディオビデオ分割のインタラクション方法、装置、設備、及び記憶媒体
CN106610830B (zh) 页面元素的拖放方法及装置
CN105635832B (zh) 一种视频处理方法和装置
KR20220100521A (ko) 전자 기기 및 그의 구동 방법, 구동 모듈, 컴퓨터 판독 가능 저장 매체
CN111782113B (zh) 显示方法、装置和计算机可读存储介质
CN110968706B (zh) 一种控制幻灯片播放动画的方法、系统和终端
CN116009997A (zh) 云桌面管理方法、装置、电子设备及存储介质
Wang et al. Understanding the Application Life Cycle
CN116400929A (zh) 基于用户界面的模型部署方法、装置、设备及存储介质
CN117950534A (zh) 一种资源对象处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150