JP2014014077A - 動画生成方法及び装置 - Google Patents

動画生成方法及び装置 Download PDF

Info

Publication number
JP2014014077A
JP2014014077A JP2013140236A JP2013140236A JP2014014077A JP 2014014077 A JP2014014077 A JP 2014014077A JP 2013140236 A JP2013140236 A JP 2013140236A JP 2013140236 A JP2013140236 A JP 2013140236A JP 2014014077 A JP2014014077 A JP 2014014077A
Authority
JP
Japan
Prior art keywords
image
time point
audio
moving image
pip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013140236A
Other languages
English (en)
Other versions
JP5675902B2 (ja
Inventor
Hyon-Su Seo
ヒョンス ソ
Jun Hyuk Kwak
ジュンヒョク クァク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rsupport Co Ltd
Original Assignee
Rsupport Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rsupport Co Ltd filed Critical Rsupport Co Ltd
Publication of JP2014014077A publication Critical patent/JP2014014077A/ja
Application granted granted Critical
Publication of JP5675902B2 publication Critical patent/JP5675902B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】同期が一致するPIP動画を容易に生成するための動画生成方法を提供する。
【解決手段】PIP動画を生成するための基準となる基準時点を決定する段階と、第1イメージ、第2イメージ及びオーディオを獲得するためのそれぞれの作業時点を決定する段階と、それぞれの作業時点で第1イメージ、第2イメージ及びオーディオを獲得する段階と、基準時点とそれぞれの作業時点とを比較した結果によって、第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を生成する段階とを含む。したがって、PIP動画を生成するのに消費される時間と費用を顕著に低減することができ、PIP動画を迅速に獲得することができる。
【選択図】図1

Description

本発明は、動画生成技術に関し、より詳細には、PIP(Picture−In−Picture)動画を生成するための動画生成方法及び装置に関する。
PIP(Picture−In−Picture)動画は、主動画内に他の動画が含まれている動画を言う。PIP動画を生成するために、2つの動画を1つのPIP動画として生成するための別途の動画編集過程を行わなければならない。
このような動画編集過程は、2つの動画をそれぞれ編集し、1つのPIP動画として生成する作業であるから、生成されたPIP動画の同期が一致しない問題が発生し、同期が一致するPIP動画を生成するために相当な時間を投資しなければならない問題がある。
前述したような問題点を解決するために、本発明の目的は、同期が一致するPIP動画を容易に生成するための動画生成方法を提供することにある。
前述したような問題点を解決するために、本発明の他の目的は、同期が一致するPIP動画を容易に生成するための動画生成装置を提供することにある。
上記目的を達成するために、本発明の一実施例は、動画生成装置で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定する段階と、前記第1イメージを獲得する時点である第1作業時点、前記第2イメージを獲得する時点である第2作業時点及び前記オーディオを獲得する時点である第3作業時点を決定する段階と、それぞれの前記作業時点で前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階と、前記基準時点とそれぞれの前記作業時点とを比較した結果によって、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、PIP動画を生成する段階とを含む。
ここで、前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階は、前記プログラムプラットフォームのバッファーに位置するイメージを更新する更新関数の開始地点を検出する段階と、前記プログラムプラットフォームのバッファーに位置するイメージをフッキングするためのフッキングコードを更新関数の開始地点に注入する段階と、前記フッキングコードによりフッキングされたイメージを前記第1イメージとして獲得する段階とを含むことができる。
ここで、前記PIP動画を生成する段階は、前記基準時点とそれぞれの前記作業時点との差を算出する段階と、算出した差が前記PIP動画を構成するフレーム間の間隔以下である場合、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、前記PIP動画を構成する1つのフレームを生成する段階とを含むことができる。
上記目的を達成するために、本発明の他の実施例は、端末で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定する段階と、前記第1イメージを獲得する時点である第1作業時点、前記第2イメージを獲得する時点である第2作業時点及び前記オーディオを獲得する時点である第3作業時点を決定する段階と、それぞれの前記作業時点で前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階と、前記基準時点とそれぞれの前記作業時点とを比較した結果によって、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、PIP動画を生成する段階とを含み、前記作業時点で前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階は、前記端末に前記第1イメージの伝送を要請する段階と、伝送要請に従って前記端末から前記第1イメージを獲得する段階とを含む。
ここで、前記PIP動画を生成する段階は、前記基準時点とそれぞれの前記作業時点との差を算出する段階と、算出した差が前記PIP動画を構成するフレーム間の間隔以下である場合、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、前記PIP動画を構成する1つのフレームを生成する段階とを含むことができる。
上記他の目的を達成するための本発明の一実施例は、動画生成装置で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定する決定部と、前記第1イメージを獲得する時点である第1作業時点を決定し、前記第1作業時点で前記第1イメージを獲得する第1獲得部と、前記第2イメージを獲得する時点である第2作業時点を決定し、前記第2作業時点で前記第2イメージを獲得する第2獲得部と、前記オーディオを獲得する時点である第3作業時点を決定し、前記第3作業時点で前記オーディオを獲得する第3獲得部と、前記基準時点とそれぞれの前記作業時点とを比較した結果によって、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、PIP動画を生成する生成部とを含む。
ここで、前記第1獲得部は、前記プログラムプラットフォームのバッファーに位置するイメージを更新する更新関数の開始地点を検出し、前記プログラムプラットフォームのバッファーに位置するイメージをフッキングするためのフッキングコードを更新関数の開始地点に注入し、フッキングコードによりフッキングされたイメージを第1イメージとして獲得することができる。
ここで、前記生成部は、前記基準時点とそれぞれの前記作業時点との差を算出し、算出した差が前記PIP動画を構成するフレーム間の間隔以下である場合、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、前記PIP動画を構成する1つのフレームを生成することができる。
本発明によれば、同期を合わせることのような別途の編集過程がなくても、1回の録画作業で、端末で実行されるプログラム(例えば、ゲームプログラム)により生成されたイメージ、カメラにより生成されたイメージ及びオーディオを合成し、PIP動画を生成することができるので、イメージとオーディオ間の同期が一致するPIP動画を生成するのに消費される時間と費用を顕著に低減することができる。
また、イメージを獲得する過程で、端末の画面にディスプレイされるイメージを獲得するものではなく、グラフィックバッファーに位置するイメージを獲得するので、イメージを迅速に獲得することができ、その結果、PIP動画を迅速に獲得することができる。
図1は、本発明の一実施例による動画生成方法を示す流れ図である。 図2は、図1のデータ獲得段階を示す流れ図である。 図3は、本発明の他の実施例による動画生成方法を示す流れ図である。 図4は、本発明の一実施例による動画生成装置を示すブロック図である。 図5は、イメージをフッキングする方法を示す概念図である。 図6は、本発明の一実施例によって生成されたPIP動画の例を示す概念図である。 図7は、本発明の一実施例によって生成されたPIP動画の他の例を示す概念図である。
本発明は、多様な変更を行うことができ、さまざまな実施例を有することができるところ、特定の実施例を図面に例示し、詳細に説明する。
しかし、これは、本発明を特定の実施形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれるすべての変更、均等物ないし代替物を含むものと理解しなければならない。
第1、第2などの用語は、多様な構成要素を説明するのに使用されることができるが、前記構成要素は、前記用語に限定されるわけではない。前記用語は、1つの構成要素を他の構成要素から区別する目的で使用される。例えば、本発明の権利範囲を逸脱することなく、第1構成要素は、第2構成要素として命名されることができ、同様に、第2構成要素も第1構成要素として命名されることができる。及び/またはという用語は、複数の関連された記載された項目の組み合わせまたは複数の関連された記載された項目のうちいずれかの項目を含む。
任意の構成要素が他の構成要素に「連結されて」いるか、「接続されて」いると言及されたときには、他の構成要素に直接的に連結されているか、または接続されていることもできるが、中間に他の構成要素が存在することもできると理解しなければならない。一方、任意の構成要素が他の構成要素に「直接連結されて」いるか、「直接接続されて」いると言及されたときには、中間に他の構成要素が存在しないものと理解しなければならない。
本出願で使用された用語は、ただ特定の実施例を説明するために使用されたものであって、本発明を限定しようとする意図ではない。単数の表現は、文脈上、明白に異なって意味しない限り、複数の表現を含む。本出願で、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであって、1つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部品またはこれらを組み合わせたものの存在または付加可能性をあらかじめ排除しないものと理解しなければならない。
異なって定義しない限り、技術的や科学的な用語を含んでここで使用されるすべての用語は、本発明の属する技術分野における通常の知識を有する者によって一般的に理解されるものと同一の意味を有している。一般的に使用される事前に定義されているもののような用語は、関連技術の文脈上有する意味と一致する意味を有するものと解釈しなければならないし、本出願で明白に定義しない限り、理想的または過度に形式的な意味として解釈しない。
以下、添付の図面を参照して、本発明の好ましい実施例をさらに詳細に説明する。本発明を説明するにあたって、全体的な理解を容易にするために、図面上の同一の構成要素に対しては、同一の参照符号を使用し、同一の構成要素に対して重複説明を省略する。
図1は、本発明の一実施例による動画生成方法を示す流れ図である。
図1を参照すれば、動画生成装置は、前記動画生成装置で実行されるプログラムにより生成された第1イメージ(image)、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP(Picture−In−Picture)動画を生成するための基準となる基準時点を決定することができ(S100)、決定した基準時点を動画生成装置に設けられたデータベースに格納することができる。
ここで、動画生成装置は、デスクトップコンピュータ(Desktop Computer)、ラップトップコンピュータ(Laptop Computer)、タブレット(Tablet)パソコン、無線電話機(Wireless Phone)、モバイルフォン(Mobile Phone)、スマートフォン(Smart Phone)、電子ブックリーダーなどであることができる。
また、動画生成装置で実行されるプログラムは、ゲーム、ウェブブラウザー(web browser)及び各種アプリケーション(application)などを含み、動画生成装置で実行されるプログラムにより生成された第1イメージは、ゲームの実行によってディスプレイされるイメージ、ウェブブラウザーの実行によってディスプレイされるイメージ及び各種アプリケーションの実行によってディスプレイされるイメージを意味することができる。
ここで、カメラは、動画生成装置と一体で構成されることができ、動画生成装置としてコンピュータを使用する場合、カメラは、コンピュータに設けられた画像カメラを意味することができ、動画生成装置としてモバイル端末を使用する場合、カメラは、モバイル端末に設けられたカメラを意味することができる。一方、カメラは、動画生成装置と別途の構成で存在することができ、この場合、カメラは、データを伝送することができるように動画生成装置と有線または無線を通じて連結されることができる。カメラにより生成された第2イメージは、カメラにより撮影されたイメージを意味することができる。
ここで、オーディオは、第1イメージを生成する動画生成装置により発生するオーディオを意味することができ、動画生成装置に設けられたマイクまたはカメラに設けられたマイクを通じて入力されたオーディオを意味することができる。
ここで、PIP動画を生成するための基準となる基準時点は、個別的に獲得した第1イメージ、第2イメージ及びオーディオ間の同期を合わせるために基準となる時点を意味することができる。
PIP動画を生成するための基準となる基準時点を決定した後、動画生成装置は、第1イメージを獲得する時点である第1作業時点、第2イメージを獲得する時点である第2作業時点及びオーディオを獲得する時点である第3作業時点を決定することができ(200)、決定した第1作業時点、第2作業時点及び第3作業時点を動画生成装置に設けられたデータベースに格納することができる。
本発明の一実施例による動画生成方法において、第1イメージを獲得するための作業、第2イメージを獲得するための作業及びオーディオを獲得するための作業は、個別的に行われるので、個別的に獲得した第1イメージ、第2イメージ及びオーディオ間の同期を合わせるためにそれぞれの作業ごとに基準となる時点を定義する必要がある。
これにより、動画生成装置は、第1イメージを獲得する作業の基準となる時点を第1作業時点として決定することができ、第2イメージを獲得する作業の基準となる時点を第2作業時点として決定することができ、オーディオを獲得する作業の基準となる時点を第3作業時点として決定することができる。
この際、動画生成装置は、第1作業時点、第2作業時点及び第3作業時点を作業の特性によって互いに異なるように決定することができる。例えば、第1イメージと第2イメージが生成される時点が異なる場合、動画生成装置は、第1イメージを獲得する作業の基準となる第1作業時点と第2イメージを獲得する作業の基準となる第2作業時点を互いに異なるように決定することができる。
第1作業時点、第2作業時点及び第3作業時点を決定した後、動画生成装置は、第1作業時点で第1イメージを獲得することができ、第2作業時点で第2イメージを獲得することができ、第3作業時点でオーディオを獲得することができ(S300)、獲得した第1イメージ、第2イメージ及びオーディオを動画生成装置に設けられたデータベースに格納することができる。この際、動画生成装置は、第1イメージを獲得するための作業、第2イメージを獲得するための作業及びオーディオを獲得するための作業を並列的に行うことができる。
段階S300は、段階S310、段階S311、段階S312及び段階S313を含むことができ、段階S311、段階S312及び段階S313のみを含むこともできる。段階S300について図2を参照して詳細に説明する。
図2は、図1のデータ獲得段階を示す流れ図である。
図2を参照すれば、動画生成装置は、第1イメージを獲得するための対象であるプログラム(例えば、ゲームプログラムなど)が動画生成装置で実行されるか否かを監視することができる(S310)。動画生成装置は、あらかじめ設置されたフッキング(hooking)モジュールを使用してプログラムが動画生成装置で実行されるかを監視することができる。
例えば、第1イメージを獲得するための対象であるプログラムがゲームプログラムである場合、動画生成装置は、現在実行されているプログラムがゲームライブラリ(library)を使用しているか否かを判断することができる。この際、動画生成装置は、現在実行されているプログラムがゲームライブラリを使用している場合、当該プログラムをゲームプログラムとして判断することができ、現在実行されているプログラムがゲームライブラリを使用しない場合、当該プログラムをゲームプログラムではない一般プログラムとして判断することができる。
本発明の一実施例において前述した段階S310は、省略されることができる。
動画生成装置は、プログラムプラットフォーム(platform)のバッファー(buffer)に位置するイメージを更新する更新関数の開始地点を検出することができる(S311)。
ここで、更新関数というのは、プログラムプラットフォームのバッファーに位置するイメージを新しいイメージに更新する役目を行う関数であって、更新関数をフッキングする場合、プログラムプラットフォームのバッファーに位置するイメージを獲得することができる。
したがって、プログラムプラットフォームのバッファーに位置するイメージを獲得するために、まず、動画生成装置は、イメージを更新する更新関数の開始地点を検出することができ、検出した更新関数の開始地点を動画生成装置に設けられたデータベースに格納することができる。
更新関数の開始地点を検出した場合、動画生成装置は、プログラムプラットフォームのバッファーに位置するイメージをフッキングするためのフッキングコードを更新関数の開始地点に注入することができ(S312)、フッキングコードによりフッキングされたイメージ(すなわち、第1イメージ)を獲得することができる(S313)。
以下、段階S312、段階S313について図5を参照して詳細に説明する。
図5は、イメージをフッキングする方法を示す概念図である。
図5を参照すれば、一般的に更新関数は、プログラムプラットフォームバッファー20に位置するイメージを新しいイメージを更新し、更新したイメージをディスプレイプラットフォームバッファー30に提供する。本発明の一実施例によってフッキングコードを更新関数の開始地点に注入した場合、フッキングコードが注入された更新関数は、更新したイメージをディスプレイプラットフォームバッファー30に提供するものではなく、動画生成装置10に先に提供することができ、動画生成装置10は、前述したフッキングコードが注入された更新関数の動作によりプログラムプラットフォームバッファー20に位置するイメージを獲得することができる。
例えば、プログラムプラットフォームバッファー20がゲームプログラムプラットフォームバッファーである場合、ウィンドウ運営体制でDirectX/OpenGLなどのゲームプログラムプラットフォームを提供するので、動画生成装置は、フッキングを通じてゲームプログラムプラットフォームバッファーに位置するイメージを獲得することができる。
プログラムプラットフォームバッファー20に位置するイメージを獲得した後、動画生成装置10は、フッキングコードが注入された更新関数の開始地点を復元することができる。すなわち、動画生成装置10は、注入されたフッキングコードを除去し、フッキングコードが注入された更新関数の開始地点を復元することができ、開始地点が復元された更新関数は、プログラムプラットフォームバッファー20に位置するイメージをディスプレイプラットフォームバッファー30に提供することができる。
復元された更新関数によってプログラムプラットフォームバッファー20に位置するイメージがディスプレイプラットフォームバッファー30に提供された後、動画生成装置は、追加的に獲得するイメージが存在するか否かを判断することができ、追加的に獲得するイメージが存在する場合、前述した段階S311、段階S312及び段階S313をさらに行うことができ、追加的に獲得するイメージが存在しない場合、段階S300を終了することができる。
前述したように、動画生成装置は、ディスプレイプラットフォームバッファー30に位置するイメージ(すなわち画面上にディスプレイされたイメージ)を獲得するものではなく、プログラムプラットフォームバッファー20に位置するイメージを獲得することができるので、イメージを迅速に獲得することができ、その結果、PIP動画を迅速に生成することができる。
カメラにより生成された第2イメージを獲得するために、動画生成装置は、運営体制で提供するカメラ関連API(Application Program Interface)を使用して第2イメージを獲得することができる(S300)。例えば、運営体制としてウィンドウを使用する場合、動画生成装置は、「DirectShow」、「Video For Windows(登録商標)」などを使用してカメラにより生成された第2イメージを獲得することができる。
前述した方法を通じて第1イメージ及び第2イメージを獲得した後、動画生成装置は、獲得した第1イメージ及び第2イメージに対して正規化(normalization)、スレッショルド(threshold)などのようなイメージ処理を行うことができる。
オーディオを獲得するために、動画生成装置は、運営体制で提供するオーディオ録音関連APIを使用してオーディオを獲得することができる(S300)。例えば、運営体制としてウィンドウを使用する場合、「MCI(Media Control Interface)」、「Direct Show」、「WASAPI(Window Audio Session API)」などを使用してオーディオを獲得することができる。
第1イメージ、第2イメージ及びオーディオを獲得した後、動画生成装置は、基準時点と第1作業時点とを比較した結果、基準時点と第2作業時点とを比較した結果及び基準時点と第3作業時点とを比較した結果によって、第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を生成することができる(S400)。
まず、動画生成装置は、第1作業時点と基準時点との差、第2作業時点と基準時点との差及び第3作業時点と基準時点との差を算出することができる(S410)。
それぞれの作業時点と基準時点との差を算出した後、動画生成装置は、それぞれの作業時点と基準時点との差と、PIP動画を構成するフレーム間の間隔とを比較することができる。ここで、フレーム間の間隔は、1つのフレームが占める時間を意味し、例えば、10FPS(Frame Per Second)PIP動画である場合、1つのフレームが占める時間は、100msである。
それぞれの作業時点と基準時点との差と、PIP動画を構成するフレーム間の間隔とを比較した結果、それぞれの作業時点と基準時点との差がPIP動画を構成するフレーム間の間隔以下である場合、動画生成装置は、第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を構成する1つのフレームを生成することができる(S420)。
もし、それぞれの作業時点と基準時点との差がIP動画を構成するフレーム間の間隔より大きい場合、動画生成装置は、当該データ(第1イメージ、第2イメージ、オーディオ)を次のフレームを生成するために使用することができる。例えば、「第1作業時点と基準時点との差≦PIP動画を構成するフレーム間の間隔」、「第2作業時点と基準時点との差>PIP動画を構成するフレーム間の間隔」、「第3作業時点と基準時点との差≦PIP動画を構成するフレーム間の間隔」である場合、動画生成装置は、第1イメージとオーディオを合成し、現在フレームを生成することができ、第2イメージは、次のフレームを生成するために使用することができる。また、上記のような場合、動画生成装置は、第1イメージ、オーディオ及び以前フレームを生成するのに使用した第2イメージを合成し、現在フレームを生成することができる。
第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を構成するフレームを生成する場合、動画生成装置は、第1イメージと第2イメージを先に合成し、第1イメージと第2イメージが合成されたイメージにオーディオを合成することができる。
第1イメージと第2イメージを合成する場合、動画生成装置は、第1イメージと第2イメージの解像度を変更することができ、第1イメージ上に位置する第2イメージの位置を変更することができ、第2イメージ上に位置する第1イメージの位置を変更することができ、第1イメージと第2イメージの透明度を調節することができる。
また、動画生成装置は、1つの第1イメージと複数の第2イメージを合成することができる。すなわち、1つの端末により生成された1つの第1イメージと複数のカメラにより生成された複数の第2イメージを合成し、PIP動画を構成する1つのフレームを生成することができる。
前述した方法を通じてPIP動画を生成することができ、生成されたPIP動画は、ディスプレイ装置(例えば、LCD(Liquid Crystal Display)、LED(Light Emitting Diode)など)に表示されることができる。
図3は、本発明の他の実施例による動画生成方法を示す流れ図である。
図3を参照すれば、動画生成装置で行われる動画生成方法は、端末で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定する段階(S100)、第1イメージを獲得する時点である第1作業時点、第2イメージを獲得する時点である第2作業時点及びオーディオを獲得する時点である第3作業時点を決定する段階(S200)、それぞれの作業時点で第1イメージ、第2イメージ及びオーディオを獲得する段階(S300)及び基準時点とそれぞれの作業時点とを比較した結果によって、第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を生成する段階(S400)を含むことができる。
ここで、動画生成装置と端末は、互いに異なる構成であり、端末は、タブレットパソコン、スマートフォンのようなモバイル端末であることができる。
このように、動画生成装置と端末が別途の構成で存在する場合、動画生成装置と端末は、有線または無線を通じてネットワークを形成することができ、無線を通じてネットワークを形成する場合、2G移動通信網(GSM(Global System for Mobile communication)、CDMA(Code Division Multiple Access)など)、3G移動通信網(WCDMA(Wideband Code Division Multiple Access)、CDMA2000など)、4G移動通信網(LTE(Long Term Evolution)−advancedなど)、WiFiなどを使用してネットワークを形成することができる。
ここで、段階S100、段階S200及び段階S400で行われる方法は、図1を参照して説明した段階S100、段階S200及び段階S400で行われる方法と同一である。
それぞれの作業時点で第1イメージ、第2イメージ及びオーディオを獲得する場合、動画生成装置は、端末に第1イメージの伝送を要請することができ(S320)、第1イメージの伝送要請を受けた端末は、画面にディスプレイされるイメージをキャプチャー(capture)することができる。この際、端末は、一般的なキャプチャー関数を使用して画面にディスプレイされるイメージをキャプチャーすることができる。
画面にディスプレイされるイメージをキャプチャーした後、端末は、キャプチャーされたイメージを端末に設けられたバッファーに格納することができ、バッファーに格納されたイメージを動画生成装置に提供することができる。この際、端末は、画面にディスプレイされるイメージのみを動画生成装置に提供することができ、画面にディスプレイされるイメージとともに端末のベゼル(bezel)を動画生成装置に提供(図7(c)参照)できる。
動画生成装置は、イメージ伝送要請に従って端末が提供する第1イメージを獲得することができる(S321)。第1イメージを獲得した後、動画生成装置は、追加的に獲得する第1イメージが存在するか否かを判断することができ、追加的に獲得する第1イメージが存在する場合、前述した段階S320及び段階S321をさらに行うことができ、追加的に獲得するイメージが存在しない場合、段階S300を終了することができる。
図4は、本発明の一実施例による動画生成装置を示すブロック図である。
図4を参照すれば、動画生成装置10は、決定部11、第1獲得部12、第2獲得部13、第3獲得部14及び生成部15を含むことができる。
決定部11は、動画生成装置で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定することができる。ここで、決定部11が行う機能は、段階S100で説明した内容と同一である。
第1獲得部12は、第1イメージを獲得する時点である第1作業時点を決定することができ、第1作業時点で第1イメージを獲得することができる。
具体的に、第1獲得部12は、プログラムが動画生成装置で実行されるか否かを監視し、プログラムが実行される場合、プログラムプラットフォームのバッファーに位置するイメージを更新する更新関数の開始地点を検出し、プログラムプラットフォームのバッファーに位置するイメージをフッキングするためのフッキングコードを更新関数の開始地点に注入し、フッキングコードによりフッキングされたイメージ(すなわち、第1イメージ)を獲得することができる。ここで、第1獲得部12が行う機能は、図1、図2に示された段階S200、段階S300で説明した内容と同一である。
第2獲得部13は、第2イメージを獲得する時点である第2作業時点を決定することができ、第2作業時点で前記第2イメージを獲得することができる。ここで、第2獲得部13が行う機能は、図1に示された段階S200、段階S300で説明した内容と同一である。
第3獲得部14は、オーディオを獲得する時点である第3作業時点を決定することができ、第3作業時点でオーディオを獲得することができる。ここで、第3獲得部14が行う機能は、図1に示された段階S200、段階S300で説明した内容と同一である。
生成部15は、基準時点とそれぞれの作業時点とを比較した結果によって、第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を生成することができる。
具体的に、生成部15は、それぞれの作業時点と基準時点との差を算出し、算出した差が前記PIP動画を構成するフレーム間の間隔より小さいか、同一である場合、第1イメージ、第2イメージ及びオーディオを合成し、PIP動画を構成する1つのフレームを生成することができる。ここで、生成部15が行う機能は、図1に示された段階S400で説明した内容と同一である。
決定部11、第1獲得部12、第2獲得部13、第3獲得部14及び生成部15が行う機能は、実質的にプロセッサ(例えば、CPU(Central Processing Unit)及び/またはGPU(Graphics Processing Unit)など)で行われることができ、図1、図2、図3に示された各段階は、前記プロセッサで行われることができる。
また、決定部11、第1獲得部12、第2獲得部13、第3獲得部14及び生成部15は、1つの単一形態、1つの物理的な装置または1つのモジュールで具現されることができる。これに加えて、決定部11、第1獲得部12、第2獲得部13、第3獲得部14及び生成部15は、それぞれ1つの物理的な装置または集団ではなく、複数の物理的装置または集団で具現されることができる。
また、動画生成装置10は、イメージが格納されるバッファーを含むことができる。
図6は、本発明の一実施例によって生成されたPIP動画の例を示す概念図である。
図6を参照すれば、図6(a)は、ゲームプログラムにより生成された第1イメージ51及びカメラにより生成された第2イメージ52を基盤で生成したPIP動画50を示すもので、第1イメージ51内に1つの第2イメージ52が含まれている。
図6(b)は、ゲームプログラムにより生成された第1イメージ51及び2つのカメラによりそれぞれ生成された2つの第2イメージ52を基盤で生成したPIP動画50を示すもので、第1イメージ51内に2つの第2イメージ52が含まれている。
図7は、本発明の一実施例によって生成されたPIP動画の他の例を示す概念図である。
図7を参照すれば、図7(a)は、モバイル端末により生成された第1イメージ51及びカメラにより生成された第2イメージ52を基盤で生成したPIP動画50を示すものであって、第1イメージ51内に1つの第2イメージ52が含まれている。
図7(b)は、モバイル端末によって生成された第1イメージ51及び2つのカメラによりそれぞれ生成された2つの第2イメージ52を基盤で生成したPIP動画50を示すものであって、第1イメージ51の外部に2つの第2イメージ52が位置している。
図7(c)は、モバイル端末によって生成された第1イメージ51及び2つのカメラによりそれぞれ生成された2つの第2イメージ52を基盤で生成したPIP動画50を示すものであって、第1イメージ51の外部に2つの第2イメージ52が位置しており、第1イメージ51は、モバイル端末の画面にディスプレイされるイメージだけでなく、モバイル端末のベゼルをも含んでいる。
以上、実施例を参照して説明したが、当該技術分野の熟練された当業者は、下記の特許請求の範囲に記載された本発明の思想及び領域を逸脱しない範囲内で本発明を多様に修正及び変更させることができることを理解することができる。
10 動画生成装置
11 決定部
12 第1獲得部
13 第2獲得部
14 第3獲得部
15 生成部

Claims (8)

  1. 動画生成装置で行われる動画生成方法において、
    前記装置で実行されるプログラムにより生成された第1イメージ(image)、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP(Picture−In−Picture)動画を生成するための基準となる基準時点を決定する段階と、
    前記第1イメージを獲得する時点である第1作業時点、前記第2イメージを獲得する時点である第2作業時点及び前記オーディオを獲得する時点である第3作業時点を決定する段階と、
    それぞれの前記作業時点で前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階と、
    前記基準時点とそれぞれの前記作業時点とを比較した結果によって、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、PIP動画を生成する段階と、を含む動画生成方法。
  2. 前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階は、
    前記プログラムプラットフォーム(platform)のバッファー(buffer)に位置するイメージを更新する更新関数の開始地点を検出する段階と、
    前記プログラムプラットフォームのバッファーに位置するイメージをフッキング(hooking)するためのフッキングコードを更新関数の開始地点に注入する段階と、
    前記フッキングコードによりフッキングされたイメージを前記第1イメージとして獲得する段階と、を含むことを特徴とする請求項1に記載の動画生成方法。
  3. 前記PIP動画を生成する段階は、
    前記基準時点とそれぞれの前記作業時点との差を算出する段階と、
    算出した差が前記PIP動画を構成するフレーム間の間隔以下である場合、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、前記PIP動画を構成する1つのフレームを生成する段階と、を含むことを特徴とする請求項1に記載の動画生成方法。
  4. 動画生成装置で行われる動画生成方法において、
    端末で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定する段階と、
    前記第1イメージを獲得する時点である第1作業時点、前記第2イメージを獲得する時点である第2作業時点及び前記オーディオを獲得する時点である第3作業時点を決定する段階と、
    それぞれの前記作業時点で前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階と、
    前記基準時点とそれぞれの前記作業時点とを比較した結果によって、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、PIP動画を生成する段階と、を含み、
    前記作業時点で前記第1イメージ、前記第2イメージ及び前記オーディオを獲得する段階は、 前記端末に前記第1イメージの伝送を要請する段階と、
    伝送要請に従って前記端末から前記第1イメージを獲得する段階と、を含む動画生成方法。
  5. 前記PIP動画を生成する段階は、
    前記基準時点とそれぞれの前記作業時点との差を算出する段階と、
    算出した差が前記PIP動画を構成するフレーム間の間隔以下である場合、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、前記PIP動画を構成する1つのフレームを生成する段階と、を含むことを特徴とする請求項4に記載の動画生成方法。
  6. 動画生成装置で実行されるプログラムにより生成された第1イメージ、カメラにより生成された第2イメージ及びオーディオを基礎とするPIP動画を生成するための基準となる基準時点を決定する決定部と、
    前記第1イメージを獲得する時点である第1作業時点を決定し、前記第1作業時点で前記第1イメージを獲得する第1獲得部と、
    前記第2イメージを獲得する時点である第2作業時点を決定し、前記第2作業時点で前記第2イメージを獲得する第2獲得部と、
    前記オーディオを獲得する時点である第3作業時点を決定し、前記第3作業時点で前記オーディオを獲得する第3獲得部と、
    前記基準時点とそれぞれの前記作業時点とを比較した結果によって、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、PIP動画を生成する生成部と、を含む動画生成装置。
  7. 前記第1獲得部は、
    前記プログラムプラットフォームのバッファーに位置するイメージを更新する更新関数の開始地点を検出し、前記プログラムプラットフォームのバッファーに位置するイメージをフッキングするためのフッキングコードを更新関数の開始地点に注入し、フッキングコードによりフッキングされたイメージを第1イメージとして獲得することを特徴とする請求項6に記載の動画生成装置。
  8. 前記生成部は、
    前記基準時点とそれぞれの前記作業時点との差を算出し、算出した差が前記PIP動画を構成するフレーム間の間隔以下である場合、前記第1イメージ、前記第2イメージ及び前記オーディオを合成し、前記PIP動画を構成する1つのフレームを生成することを特徴とする請求項6に記載の動画生成装置。
JP2013140236A 2012-07-03 2013-07-03 動画生成方法及び装置 Active JP5675902B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120072399A KR101249279B1 (ko) 2012-07-03 2012-07-03 동영상 생성 방법 및 장치
KR10-2012-0072399 2012-07-03

Publications (2)

Publication Number Publication Date
JP2014014077A true JP2014014077A (ja) 2014-01-23
JP5675902B2 JP5675902B2 (ja) 2015-02-25

Family

ID=48442072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140236A Active JP5675902B2 (ja) 2012-07-03 2013-07-03 動画生成方法及び装置

Country Status (3)

Country Link
US (1) US8830401B2 (ja)
JP (1) JP5675902B2 (ja)
KR (1) KR101249279B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129963A1 (ko) * 2015-02-13 2016-08-18 에스케이텔레콤 주식회사 멀티뷰 스트리밍 서비스 지원 방법 및 이를 지원하는 장치
CN107943839A (zh) * 2017-10-30 2018-04-20 百度在线网络技术(北京)有限公司 基于图片和文字生成视频的方法、装置、设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2912836A1 (en) 2013-06-05 2014-12-11 Snakt, Inc. Methods and systems for creating, combining, and sharing time-constrained videos
US11016788B2 (en) * 2018-11-28 2021-05-25 Hisense Visual Technology Co., Ltd. Application launching method and display device
CN111221657B (zh) * 2020-01-14 2023-04-07 新华智云科技有限公司 一种高效视频分布式调度合成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011245A (ja) * 2006-06-29 2008-01-17 Canon Inc 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2008052836A (ja) * 2006-08-25 2008-03-06 Sony Corp 情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体
JP2012054958A (ja) * 2011-10-03 2012-03-15 Hitachi Ltd 再生装置、コンピュータ読み取り可能な記録媒体、およびサーバ

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5251015A (en) * 1991-05-06 1993-10-05 Thomson Consumer Electronics, Inc. Apparatus for positioning a timing signal relative to a synchronization signal derived in the deflection section of a television system
TW335241U (en) * 1992-11-30 1998-06-21 Thomson Consumer Electronics A video display system
US5675511A (en) * 1995-12-21 1997-10-07 Intel Corporation Apparatus and method for event tagging for multiple audio, video, and data streams
US6307597B1 (en) * 1996-03-07 2001-10-23 Thomson Licensing S.A. Apparatus for sampling and displaying an auxiliary image with a main image
US6154600A (en) * 1996-08-06 2000-11-28 Applied Magic, Inc. Media editor for non-linear editing system
US5914757A (en) * 1997-04-21 1999-06-22 Philips Electronics North America Corporation Synchronization of multiple video and graphic sources with a display using a slow PLL approach
US7848930B2 (en) * 2006-10-17 2010-12-07 Broadcom Corporation Control mechanism for audio rate adjustment
KR19990055332A (ko) 1997-12-27 1999-07-15 전주범 Pip 회로를 내장한 텔레비전에 있어서 동기 일치 장치
US7843510B1 (en) * 1998-01-16 2010-11-30 Ecole Polytechnique Federale De Lausanne Method and system for combining video sequences with spatio-temporal alignment
JP3464924B2 (ja) * 1998-03-13 2003-11-10 株式会社東芝 同期制御回路
US6192511B1 (en) * 1998-09-16 2001-02-20 International Business Machines Corporation Technique for test coverage of visual programs
US6493872B1 (en) * 1998-09-16 2002-12-10 Innovatv Method and apparatus for synchronous presentation of video and audio transmissions and their interactive enhancement streams for TV and internet environments
US6636222B1 (en) * 1999-11-09 2003-10-21 Broadcom Corporation Video and graphics system with an MPEG video decoder for concurrent multi-row decoding
KR100313901B1 (ko) * 1999-02-08 2001-11-17 구자홍 텔레비젼 수신기에서의 부화면 처리 장치
US6512552B1 (en) * 1999-03-29 2003-01-28 Sony Corporation Subpicture stream change control
US7448021B1 (en) * 2000-07-24 2008-11-04 Sonic Solutions, A California Corporation Software engine for combining video or audio content with programmatic content
US6378132B1 (en) * 1999-05-20 2002-04-23 Avid Sports, Llc Signal capture and distribution system
US6392672B1 (en) * 1999-09-17 2002-05-21 Conexant Systems, Inc. Adding method for ordered sorting of a group of windows on a display
KR20020011728A (ko) * 2000-08-04 2002-02-09 이성한 동영상 생성 시스템 및 그 방법
US7546576B2 (en) * 2001-06-15 2009-06-09 Lightsurf Technology, Inc. Software framework for web-based applications
FR2829655B1 (fr) * 2001-09-10 2003-12-26 Digigram Systeme de transmission de donnees audio, entre un module maitre et des modules esclaves, par l'intermediaire d'un reseau de communication numerique
US6857119B1 (en) * 2001-09-25 2005-02-15 Oracle International Corporation Techniques for modifying a compiled application
KR100430997B1 (ko) * 2002-01-02 2004-05-12 삼성전자주식회사 디지털 방송 수신장치 및 수신방법
US7006152B2 (en) * 2002-03-01 2006-02-28 Broadcom Corporation System and method for providing picture-in-picture timebase management
US20040019885A1 (en) * 2002-07-26 2004-01-29 Sun Microsystems, Inc., A Delaware Corporation Performance monitoring
KR100873437B1 (ko) * 2002-11-28 2008-12-11 삼성전자주식회사 Pip화면을 이용한 듀얼모드 신호처리장치
KR20040071945A (ko) * 2003-02-07 2004-08-16 엘지전자 주식회사 부화면 조정이 가능한 영상표시기기 및 그 방법
KR100928258B1 (ko) 2003-03-17 2009-11-24 엘지전자 주식회사 영상 처리 시스템의 동기신호 생성방법
JP4051703B2 (ja) * 2003-03-31 2008-02-27 日本電気株式会社 シングルプロセッサ向けosによる並列処理システム、並列処理プログラム
KR101130368B1 (ko) 2003-06-02 2012-03-27 디즈니엔터프라이지즈,인크. 소비자용 비디오 플레이어를 위한 프로그램된 윈도우 제어 시스템 및 방법
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
KR100678938B1 (ko) * 2004-08-28 2007-02-07 삼성전자주식회사 영상과 자막의 동기화 조절 장치 및 방법
KR100631610B1 (ko) * 2004-11-26 2006-10-09 엘지전자 주식회사 휴대단말기의 영상신호 합성장치 및 방법
KR20060085151A (ko) 2005-01-21 2006-07-26 엘지전자 주식회사 기록매체, 기록매체 재생장치와 재생방법
KR20070014945A (ko) 2005-07-29 2007-02-01 엘지전자 주식회사 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
US7920208B2 (en) * 2005-08-11 2011-04-05 Mario Maracic Method, system, and apparatus for communication by means of transmitted signals over visual media
KR100748059B1 (ko) * 2005-08-11 2007-08-09 주식회사 오아시스미디어 실시간 다층 동영상 합성보드
JP4081772B2 (ja) * 2005-08-25 2008-04-30 ソニー株式会社 再生装置および再生方法、プログラム、並びにプログラム格納媒体
US7716686B1 (en) * 2006-02-14 2010-05-11 Mcafee, Inc. System, method and computer program product for interface hooking
US7904886B2 (en) * 2006-03-13 2011-03-08 International Business Machines Corporation Method for executing an application in a virtual container forming a virtualized environment session
CA2541560C (en) * 2006-03-31 2013-07-16 Leitch Technology International Inc. Lip synchronization system and method
JP4099211B1 (ja) * 2007-10-29 2008-06-11 イメージニクス株式会社 映像切替器と映像切替方法
KR101520659B1 (ko) * 2008-02-29 2015-05-15 엘지전자 주식회사 개인용 비디오 레코더를 이용한 영상 비교 장치 및 방법
US8194756B2 (en) * 2008-05-28 2012-06-05 Broadcom Corporation Using program clock references to assist in transport of video stream to wireless device
KR20100089287A (ko) 2009-02-03 2010-08-12 삼성전자주식회사 텔레비전 시스템 및 그 제어방법
US8446527B2 (en) * 2009-07-21 2013-05-21 Qualcomm Incorporated System of programmable time intervals used for video signal synchronization
KR101044274B1 (ko) * 2009-11-03 2011-06-28 주식회사 안철수연구소 악성 사이트 검출 장치, 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR20120007763A (ko) * 2010-07-15 2012-01-25 에스케이플래닛 주식회사 운동 경기의 중계 방송 제공 방법 및 시스템
KR101711009B1 (ko) * 2010-08-26 2017-03-02 삼성전자주식회사 영상 저장장치, 영상 재생장치, 영상 저장방법, 영상 제공방법, 저장매체 및 촬영장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011245A (ja) * 2006-06-29 2008-01-17 Canon Inc 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2008052836A (ja) * 2006-08-25 2008-03-06 Sony Corp 情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体
JP2012054958A (ja) * 2011-10-03 2012-03-15 Hitachi Ltd 再生装置、コンピュータ読み取り可能な記録媒体、およびサーバ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129963A1 (ko) * 2015-02-13 2016-08-18 에스케이텔레콤 주식회사 멀티뷰 스트리밍 서비스 지원 방법 및 이를 지원하는 장치
US11228801B2 (en) 2015-02-13 2022-01-18 Sk Telecom Co., Ltd. Method and apparatus for providing multi-view streaming service
CN107943839A (zh) * 2017-10-30 2018-04-20 百度在线网络技术(北京)有限公司 基于图片和文字生成视频的方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR101249279B1 (ko) 2013-04-02
US8830401B2 (en) 2014-09-09
JP5675902B2 (ja) 2015-02-25
US20140009681A1 (en) 2014-01-09

Similar Documents

Publication Publication Date Title
JP5675902B2 (ja) 動画生成方法及び装置
EP4083900A1 (en) Virtual reality experience sharing
JP6134281B2 (ja) イメージを処理する電子装置及びその動作方法
JP7142575B2 (ja) 画像を合成するための方法及び装置
CN109831662B (zh) Ar眼镜屏幕的实时画面投射方法、装置及控制器和介质
TWI533702B (zh) 動態產生縮放影片的多螢影片播放系統和相關的電腦程式產品
US20130278728A1 (en) Collaborative cross-platform video capture
US9830880B1 (en) Method and system for adjusting the refresh rate of a display device based on a video content rate
US10098080B2 (en) Device, method and computer readable medium
US10986401B2 (en) Image processing apparatus, image processing system, and image processing method
CN105320270B (zh) 用于执行脸部追踪功能的方法及其电子装置
CN114285958B (zh) 图像处理电路、图像处理方法和电子设备
JP2018507439A (ja) 表示機器のカムフラージュ/回復システム及び制御方法
CN114286007A (zh) 图像处理电路、图像处理方法、电子设备和可读存储介质
US20190012299A1 (en) Displaying page
KR102186383B1 (ko) 이미지를 처리하는 전자장치 및 방법
CN114390206A (zh) 拍摄方法、装置和电子设备
US20160078664A1 (en) Image synthesizing apparatus and method
KR102089439B1 (ko) 비디오 회의 환경을 위한 비디오 디스플레이 수정 기법
JP2017143387A (ja) 画像処理制御方法、画像処理制御プログラムおよび画像処理制御装置
BR112016021186B1 (pt) Método e sistema para gerenciamento de estimação de movimento
JP2013162221A (ja) 情報処理装置、情報処理方法、情報処理プログラム
TWI465912B (zh) 電子裝置間建立連線之方法
WO2018168528A1 (ja) 画像処理装置および方法
CN114285956A (zh) 视频分享电路、方法、装置及电子设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R150 Certificate of patent or registration of utility model

Ref document number: 5675902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250