JP7160887B2 - 画像表示方法及び装置、電子機器、コンピュータ読み取り可能な記憶媒体 - Google Patents

画像表示方法及び装置、電子機器、コンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP7160887B2
JP7160887B2 JP2020205035A JP2020205035A JP7160887B2 JP 7160887 B2 JP7160887 B2 JP 7160887B2 JP 2020205035 A JP2020205035 A JP 2020205035A JP 2020205035 A JP2020205035 A JP 2020205035A JP 7160887 B2 JP7160887 B2 JP 7160887B2
Authority
JP
Japan
Prior art keywords
real
image
time
camera
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020205035A
Other languages
English (en)
Other versions
JP2021190076A (ja
Inventor
慧霞 呉
倩 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Publication of JP2021190076A publication Critical patent/JP2021190076A/ja
Application granted granted Critical
Publication of JP7160887B2 publication Critical patent/JP7160887B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は表示技術分野に関し、特に画像表示方法、画像表示方法の装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
現在、AR(Augmented Reality、拡張現実)技術は、仮想画像を実際のシーンの画像に表示することができる。携帯電話などの電子機器と連携して使用する場合に、電子機器のカメラにより実際のシーンの画像を撮影した後、予め電子機器に記憶された仮想画像を撮影された実際のシーンの画像に表示することができる。
このような表示方式では、電子機器が仮想画像を予め記憶する必要があり、電子機器を利用するユーザが仮想画像を実際のシーンに表示することに不便をかける。
本開示は画像表示方法、画像表示方法の装置、電子機器及びコンピュータ読み取り可能な記憶媒体を提供することによって、関連技術の欠陥を解決する。
本開示の実施例の第1態様によれば、電子機器に適用される画像表示方法が提供され、前記電子機器は第1のカメラ及び第2のカメラを含み、前記方法は、
前記第1のカメラによって収集された第1のリアルタイム画像及び前記第2のカメラによって収集された第2のリアルタイム画像を取得するステップであって、前記第1のリアルタイム画像及び前記第2のリアルタイム画像が異なるステップと、
前記第1のリアルタイム画像内の対象物体を特定するステップと、
前記対象物体に対応するリアルタイム仮想画像を生成するステップと、
前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示するステップと、を含む。
選択的に、前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示する前に、前記方法は、
各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録するステップと、
前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定するステップと、をさらに含み、
前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示する前記ステップは、
前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示するステップを含む。
選択的に、前記方法はさらに、
前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録するステップを含む。
選択的に、前記リアルタイム仮想画像は三次元画像または二次元画像である。
選択的に、前記第1のカメラはフロントカメラであり、前記第2のカメラはリアカメラであり、
または、前記第1のカメラはフロントカメラまたはリアカメラであり、前記第2のカメラは回転式カメラである。
本開示の実施例の第1態様によれば、電子機器に適用される画像表示装置が提供され、前記電子機器は第1のカメラ及び第2のカメラを含み、前記装置は、
前記第1のカメラによって収集された第1のリアルタイム画像及び前記第2のカメラによって収集された第2のリアルタイム画像を取得するように構成され、前記第1のリアルタイム画像及び前記第2のリアルタイム画像が異なる画像収集モジュールと、
前記第1のリアルタイム画像内の対象物体を特定するように構成される対象特定モジュールと、
前記対象物体に対応するリアルタイム仮想画像を生成するように構成される仮想生成モジュールと、
前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示するように構成される画像表示モジュールと、を含む。
選択的に、前記装置は、
各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録するように構成される時間記録モジュールと、
前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定するように構成される時間設定モジュールと、をさらに含み、
前記画像表示モジュールは、前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示するように構成される。
選択的に、前記装置は、
前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録するように構成されるビデオ記録モジュールをさらに含む。
選択的に、前記リアルタイム仮想画像は三次元画像または二次元画像である。
選択的に、前記第1のカメラはフロントカメラであり、前記第2のカメラはリアカメラであり、または、
前記第1のカメラはフロントカメラまたはリアカメラであり、前記第2のカメラは回転式カメラである。
本開示の実施例の第3態様によれば、プロセッサを含む電子機器が提供され、前記プロセッサは、上記実施例に記載の方法を実現するように構成される。
本開示の実施例の第4態様によれば、コンピュータ読み取り可能な記憶媒体が提供され、前記プログラムはプロセッサによって実行される際に上記実施例のいずれかに記載の方法のステップを実現する。
本開示の実施例により提供される技術案は以下の有益な効果を含んでもよい。
本開示の実施例によれば、第1のカメラ及び第2のカメラを介して画像を同時に収集し、第1のカメラにより収集された対象物体のリアルタイム仮想画像を第2のカメラにより収集された第2のリアルタイム画像に表示する。リアルタイム仮想画像が第1のリアルタイム画像内の対象物体に基づいてリアルタイムに生成されるものであることに対し、第2のリアルタイム画像が実際のシーンであってもよいため、リアルタイム仮想画像を第2のリアルタイム画像に表示するには、実際のシーンに表示する必要のある仮想画像を予め記憶する必要がなく、ユーザが必要に応じて、必要な対象物体をリアルタイムに撮影して、対応するリアルタイム仮想画像を生成することができ、実際のシーンに仮想画像を柔軟に表示することに便利である。
なお、以上の一般的な説明及び以下の詳細な説明は例示的及び説明的なものに過ぎず、本開示を限定するものではないことを理解されたい。
ここでの図面は明細書に組み込まれて本明細書の一部となり、本開示と一致する実施例を示しており、明細書とともに本開示の原理を説明することに用いられる。
本開示の実施例により示される画像表示方法の概略フローチャートである。 本開示の実施例により示される他の画像表示方法の概略フローチャートである。 本開示の実施例により示される更なる画像表示方法の概略フローチャートである。 本開示の実施例により示される画像表示装置の概略ブロック図である。 本開示の実施例により示される他の画像表示装置の概略ブロック図である。 本開示の実施例により示される更なる画像表示装置の概略ブロック図である。 本開示の実施例により示される画像表示用の装置の概略ブロック図である。
ここで例示的な実施例を詳しく説明するが、それの例は図面に示される。以下の説明が図面に関連する場合、特に明記されていない限り、異なる図面における同じ数字は、同じまたは類似する要素を表す。以下の提示的な実施例において説明される実施形態は、本開示と一致するすべての実施形態を表すものではない。むしろ、それらは添付の特許請求の範囲で詳しく説明された、本開示の一部の態様と一致する装置及び方法の例に過ぎない。
図1は本開示の実施例により示される画像表示方法の概略フローチャートである。本実施例に示す画像表示方法は電子機器に適用でき、前記電子機器は第1のカメラ及び第2のカメラを含んでもよく、第1のカメラ及び第2のカメラを除いて、前記電子機器はさらに他のカメラを含んでもよい。前記第1のカメラ及び第2のカメラは一般的に電子機器内の任意の2つの異なるカメラを指し、電子機器内の特定の2つのカメラを指すものではない。
前記電子機器は携帯電話、タブレット、ウェアラブルデバイスなどの電子機器を含むが、これらに限定されない。電子機器が携帯電話である場合を例として挙げると、前記第1のカメラは携帯電話スクリーンの外のフレーム領域に配置することができる。携帯電話スクリーンの下に配置することもでき、携帯電話のスクリーンを介して画像を収集することによって、フルスクリーンの実現に便利である。
前記第1のカメラは1つのカメラであってもよく、複数のカメラからなるカメラ群であってもよく、以下の実施例において収集された第1のリアルタイム画像は、1つのカメラによって収集されたものであってもよく、カメラ群によって収集されたものであってもよい。前記第2のカメラは1つのカメラであってもよく、複数のカメラからなるカメラ群であってもよく、以下の実施例において収集された第2のリアルタイム画像は、1つのカメラによって収集されたものであってもよく、カメラ群によって収集されたものであってもよい。
図1に示すように、前記画像表示方法は以下のステップを含んでもよい。
ステップS101では、前記第1のカメラによって収集された第1のリアルタイム画像及び前記第2のカメラによって収集された第2のリアルタイム画像を取得し、前記第1のリアルタイム画像及び前記第2のリアルタイム画像は異なる。
ステップS102では、前記第1のリアルタイム画像内の対象物体を特定する。
ステップS103では、前記対象物体に対応するリアルタイム仮想画像を生成する。
ステップS104では、前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示する。
なお、第1のリアルタイム画像及び第2のリアルタイム画像を収集する上記主体は、必要に応じて交換することができ、即ち、第2のカメラを介して第1のリアルタイム画像を収集し、第1のカメラを介して第2のリアルタイム画像を収集することができ、具体的には必要に応じて設定することができる。
一実施例において、第1のカメラ及び第2のカメラは撮影方向が異なってもよい。例えば、第1のカメラがフロントカメラであり、第2のカメラがリアカメラであり、第1のカメラは電子機器の正面の画像を収集して第1のリアルタイム画像とすることができ、第2のカメラは電子機器の背面の画像を収集して第2のリアルタイム画像とすることができる。従って、異なる方向の画像を収集することによって、異なる第1のリアルタイム画像及び第2のリアルタイム画像を得ることができる。
一実施例において、第1のカメラ及び第2のカメラは撮影方向が同じであるが、撮影範囲が異なってもよい。例えば、第1のカメラ及び第2のカメラがいずれも電子機器のリアカメラであり、第1のカメラが電子機器の裏蓋の左上隅に位置し、第2のカメラが電子機器の裏蓋の右上隅に位置する場合、第1のカメラは電子機器の裏面の左上寄りの画像を収集して第1のリアルタイム画像とし、第2のカメラは電子機器の裏面の右上寄りの画像を収集して第2のリアルタイム画像とするため、異なる第1のリアルタイム画像及び第2のリアルタイム画像を得る。
以下の実施例は主に、第1のカメラがフロントカメラであり、第2のカメラがリアカメラである場合に例示的な説明を行う。
一実施例において、フロントカメラ及びリアカメラを同時に起動することができる。まず、電子機器メーカーはハードウェアに基づいて、フロントカメラ及びリアカメラで同時に画像を収集できるように、電子機器の基礎論理を調整する。従って、2つのカメラで同時に画像を収集することにより、フロントカメラを介してスクリーンの光出射方向の側(即ち電子機器の表面)の画像を収集し、リアカメラを介してスクリーンの光出射方向の反対側(即ち電子機器の裏面)の画像を収集することができる。
第1のリアルタイム画像が収集された後、第1のリアルタイム画像において対象物体を特定でき、対象物体のタイプは必要に応じて設定することができ、例えば人間であってもよく、物体であってもよく、対象物体が人である場合を例とすると、具体的には人体の部分、例えば腕、足などであってもよく、完全な人体であってもよい。
機械学習によってトレーニングして特定のタイプの物体を識別するためのモデルを予め取得して、第1のリアルタイム画像を該モデルに入力することによって、第1のリアルタイム画像内の特定のタイプに属する対象物体を識別することができる。
従って、対象物体に対応するリアルタイム仮想画像を生成し、二次元画像であってもよく、三次元画像であってもよく、具体的には、必要に応じて設定することができる。
リアルタイム仮想画像が三次元画像である場合を例とすると、ユーザの二次元画像を三次元画像に変換できるモデルを構築するために、動作追跡アルゴリズムに基づいてユーザの動作に対して機械学習を行うことができ、さらに、構築されたモデルに基づいて第1のリアルタイム画像内の対象物体を変換することができ、具体的に対象物体の肢体関節を特定でき、その後に肢体関節にアンカーを追加し、さらにアンカーの動作に基づいて対象物体の二次元画像を仮想の三次元画像に変換することにより対象物体のリアルタイムの仮想画像を生成し、即ち、仮想三次元画像は対象物体に従って動作を実行する。
対象物体がユーザの顔を含む場合、さらに顔特徴認識技術により対象物体の顔特徴を識別し、かつ識別された顔特徴に基づき、顔に対応する仮想画像を生成してリアルタイム仮想画像の顔部分とすることができる。
また、仮想画像が二次元画像である場合、機械学習によって得られたモデルにより対象物体に対応するリアルタイム仮想画像を生成することができる。
上記動作追跡アルゴリズム以外にも、他の方式によって対象物体の二次元画像を仮想三次元画像に変換することができ、例えば、DIB-Rのレンダリングフレームワーク(微分可能な内挿ベースのレンダラー)を構築することができ、DIB-Rはエンコーダ-デコーダシステム構造(入力を特徴図またはベクトルに変換するためのニューラルネットワークであって、形状、色、模様及び照明などの特定の情報を予測することに用いられるもの)を構築することによって三次元画像を生成することにより、対象物体の二次元画像を該レンダリングフレームワークに入力して対応する仮想三次元画像を出力することができる。
一実施例において、第1のカメラ及び第2のカメラを介して画像を同時に収集し、第1のカメラにより収集された対象物体のリアルタイム仮想画像を第2のカメラにより収集された第2のリアルタイム画像に表示し、リアルタイム仮想画像が第1のリアルタイム画像内の対象物体によってリアルタイムに生成されるものであることに対し、第2のリアルタイム画像が実際のシーンであってもよいため、リアルタイム仮想画像を第2のリアルタイム画像に重畳表示するには、実際のシーンに表示する必要のある仮想画像を予め記憶する必要がなく、ユーザが必要に応じて、必要な対象物体をリアルタイムに撮影して、対応するリアルタイム仮想画像を生成することができ、実際のシーンに仮想画像を柔軟に表示することに便利である。
なお、リアルタイム仮想画像を第2のリアルタイム画像に重畳表示する奥行きは、必要に応じて設定することができる。
例えば、対象物体がユーザ自身である場合、ユーザはフロントカメラを介して自身を撮影して、リアカメラを介して実際のシーンを撮影することができることによって、自身の仮想画像を生成することができ、生成された仮想画像が実際のシーンのユーザに従って動作を実行できることによって、自身の仮想画像を実際のシーンに表示するため、リアルタイムに撮影された自身の仮想画像をリアルタイムに撮影された実際のシーンに適用することができ、複数フレームのリアルタイム仮想画像を対応する複数フレームの第2のリアルタイム画像に重畳表示すると、仮想画像を実際の画像に表示するビデオを表示することができ、さらに表示される仮想画像の動作は実際のシーンにおけるユーザの動作と一致しており、一方では、仮想画像によってユーザと一致する動作を表し、他方では、ユーザの所在環境を背景として仮想画像を表し、AR表示を柔軟に実現し、例えば、これに基づいてvlog、AR仮想画像教育を行うことができ、ユーザ自身の動作が仮想画像によって示され、かつARの形式で視聴者に提供する。
選択的に、前記リアルタイム仮想画像は三次元画像または二次元画像である。
一実施例において、対象物体により生成された仮想画像は三次元画像であってもよく、二次元画像であってもよく、具体的には必要に応じて設定することができる。
図2は本開示の実施例により示される他の画像表示方法の概略フローチャートである。図2に示すように、前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示する前に、前記方法は、以下のステップをさらに含む。
ステップS105では、各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録する。
ステップS106では、前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定する。
前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示することは、以下のステップを含む。
ステップS1041では、前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示する。
一実施例において、各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録することができ、前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定することができ、リアルタイム仮想画像と対応する物体の所属する第1のリアルタイム画像のタイムスタンプとが同じであることを確保し、その後、前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示することができ、第2のリアルタイム画像に表示されるリアルタイム仮想画像が、第2のリアルタイム画像と同時に撮影された第1のリアルタイム画像内の対象物体に対応することを確保する。
図3は本開示の実施例により示される更なる画像表示方法の概略フローチャートである。図3に示すように、前記方法は、以下のステップをさらに含む。
ステップS107では、前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録する。
一実施例において、第2のリアルタイム画像が実際の画像として、リアルタイム仮想画像が仮想画像として第2の画像に実現することができるため、前記リアルタイム仮想画像が表示される複数フレームの前記第2のリアルタイム画像はARビデオを構成でき、前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録してARビデオとし(リアルタイム仮想画像が表示される第2のリアルタイム画像の幾つかのフレームを記録してAR画像とすることができる)、かつユーザが後で利用しやすくなるように該ARビデオを記憶することができ、例えば、vlog、AR仮想画像教育のビデオとして行うことができる。
選択的に、前記第1のカメラはフロントカメラであり、前記第2のカメラはリアカメラである。
一実施例において、第1のカメラがフロントカメラであってもよく、第2のカメラがリアカメラであってもよいため、フロントカメラを介してスクリーンの光出射方向の側(即ち電子機器の表面)の画像を収集し、リアカメラを介してスクリーンの光出射方向の反対側(即ち電子機器の裏面)の画像を収集し、異なる第1のリアルタイム画像及び第2のリアルタイム画像を得ることができる。
選択的に、前記第1のカメラはフロントカメラ又はリアカメラであり、前記第2のカメラは回転式カメラである。
一実施例において、第1のカメラはフロントカメラまたはリアカメラであってもよく、第2のカメラは回転式カメラである。例えば、第2のカメラは伸縮式カメラであってもよく、電子機器のフレームから伸縮することができ、カメラが延出する場合、伸縮方向を軸として回転することができ、例えば、電子機器に回転可能な構造が設けられ、第2のカメラは該構造に位置することができ、例えば該構造は携帯電話のフロントカバーであり、フロントカバーが反転可能であるため、第2のカメラは該フロントカバーに位置して、フロントカバーとともに反転することができる。
具体的には、第1のカメラがフロントカメラである場合、第2のカメラは電子機器の裏面に向かって回転することによって電子機器の裏面の画像を撮影することができ、または第2のカメラは電子機器の側面(該側面は、電子機器の表面及び電子機器の裏面に接続される任意の側面である)に向かって回転することによって電子機器の対応する側面の画像を撮影することができ、第1のカメラがリアカメラである場合、第2のカメラは電子機器の表面に向かって回転することによって電子機器の表面の画像を撮影することができ、または第2のカメラは電子機器の側面(該側面は、電子機器の表面及び電子機器の裏面に接続される任意の側面である)に向かって回転することによって電子機器の対応する画像を撮影することができる。
前記画像表示方法の実施例に対応して、本開示は画像表示装置の実施例をさらに提供する。
図4は本開示の実施例により示される画像表示装置の概略ブロック図である。本実施例に示される画像表示装置は電子機器に適用でき、前記電子機器は第1のカメラ及び第2のカメラを含んでもよく、第1のカメラ及び第2のカメラ以外にも、前記電子機器は他のカメラを含んでも良い。前記第1のカメラ及び第2のカメラは一般的に電子機器内の任意2つの異なるカメラを指し、電子機器内の特定の2つのカメラを指すものではない。前記電子機器は携帯電話、タブレット、ウェアラブルデバイスなどの電子機器を含むが、これらに限定されない。電子機器が携帯電話である場合を例として挙げると、前記第1のカメラは携帯電話スクリーンの外のフレーム領域に配置することができる。携帯電話スクリーンの下に配置することもでき、携帯電話のスクリーンを介して画像を収集することによって、フルスクリーンの実現に便利である。
前記第1のカメラは1つのカメラであってもよく、複数のカメラであってもよく、以下の実施例において収集された第1のリアルタイム画像は、1つのカメラによって収集されたものであってもよく、複数のカメラによって収集されたものであってもよい。前記第2のカメラは1つのカメラであってもよく、複数のカメラであってもよく、以下の実施例において収集された第2のリアルタイム画像は、1つのカメラによって収集されたものであってもよく、複数のカメラによって収集されたものであってもよい。
図4に示すように、前記画像表示装置は、
前記第1のカメラによって収集された第1のリアルタイム画像及び前記第2のカメラによって収集された第2のリアルタイム画像を取得するように構成され、前記第1のリアルタイム画像及び前記第2のリアルタイム画像が異なる画像収集モジュール101と、
前記第1のリアルタイム画像内の対象物体を特定するように構成される対象特定モジュールと102と、
前記対象物体に対応するリアルタイム仮想画像を生成するように構成される仮想生成モジュール103と、
前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示するように構成される画像表示モジュールと104とを含んでもよい。
選択的に、前記リアルタイム仮想画像は三次元画像または二次元画像である。
図5は本開示の実施例により示される他の画像表示装置の概略ブロック図である。図5に示すように、前記装置はさらに、
各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録するように構成される時間記録モジュール105と、
前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定するように構成される時間設定モジュール106と、を含み、
前記画像表示モジュール104は、前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示するように構成される。
図6は本開示の実施例により示される更なる画像表示装置の概略ブロック図である。図6に示すように、前記装置は、
前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録するように構成されるビデオ記録モジュール107をさらに含む。
選択的に、前記第1のカメラはフロントカメラであり、前記第2のカメラはリアカメラである。
選択的に、前記第1のカメラはフロントカメラ又はリアカメラであり、前記第2のカメラは回転式カメラである。
上記実施例の装置に関しては、各モジュールの実行操作の具体的な形態はすでに関連する方法の実施例において詳しく説明したが、ここで詳しい説明は省略する。
装置の実施例に対しては、基本的に方法の実施例に対応するので、関連する箇所は方法の実施例の一部の説明を参照すればよい。上記で説明された装置の実施例は例示的なものに過ぎず、分離した部品として説明されたモジュールは物理的に分離しているものか、又は物理的に分離しているものでなくてもよく、モジュールとして表示された部品は物理的なモジュールであるか、物理的なモジュールでなくても良く、即ち一箇所に位置してもよく、あるいは複数のネットワークモジュールに分布してもよい。実際の需要に応じて、そのうちの一部又はすべてのモジュールを選択して本開示の目的を実現することができる。当業者は創造的な労力なしに、理解及び実施することができる。
本開示の実施例はさらに電子機器を提供し、上記実施例のいずれかに記載の方法を実現するように構成されるプロセッサを含む。
本開示の実施例はさらに、コンピュータプログラムが記憶されるコンピュータ読み取り可能な記憶媒体を提供し、前記プログラムは、プロセッサによって実行される際に上記実施例のいずれかに記載の方法のステップを実現する。
図7は本開示の実施例により示される画像表示用の装置700の概略ブロック図である。例えば、装置700は携帯電話、コンピュータ、デジタル放送端末、送受信機、ゲーム機、タブレットデバイス、医療機器、フィットネス機器、携帯情報端末などであってもよい。
図7を参照すると、装置700は、処理コンポーネント702、メモリ704、電源コンポーネント706、マルチメディアコンポーネント708、オーディオコンポーネント710、入力/出力(I/O)インターフェース712、センサコンポーネント714、及び通信コンポーネント716のうちの1つ又は複数の部品を含んでも良い。
処理コンポーネント702は通常、装置700全般の操作、例えば表示、電話の呼び出し、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理コンポーネント702は、上記方法の全部又は一部のステップを完成するように命令を実行する1つ又は複数のプロセッサ720を含んでも良い。また、処理コンポーネント702は、他のモジュールとの間のインタラクションを容易にするように、1つ又は複数のモジュールを含んでも良い。例えば、処理コンポーネント702は、マルチメディアコンポーネント708との間のインタラクションを容易にするように、マルチメディアモジュールを含んでも良い。
メモリ704は、装置700での操作をサポートするために、様々な種類のデータを記憶するように設定されている。これらのデータの例は、装置700で操作されるあらゆるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、画像、ビデオなどを含む。メモリ704は、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能プログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクのようなあらゆる種類の揮発性メモリ又は不揮発性メモリ又はそれらの組み合わせで実現することができる。
電源コンポーネント706は装置700の様々な部品に電力を供給する。電源コンポーネント706は、電源管理システム、1つ又は複数の電源、及び装置700のために電力を生成、管理及び分配することに関連する他の部品を含んでも良い。
マルチメディアコンポーネント708は、前記装置700とユーザとの間に1つの出力インターフェースを提供するスクリーンを含む。一部の実施例では、スクリーンは液晶ディスプレイ(LCD)とタッチパネル(TP)を含んでも良い。スクリーンは、タッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチスクリーンとして具現化することができる。タッチパネルは、タッチ、スライド、及びタッチパネルにおけるジェスチャーを検出するように、1つ又は複数のタッチセンサを含む。前記タッチセンサは、タッチ操作又はスライド操作の境界を検出できるうえ、前記タッチ操作又はスライド操作に関連する持続時間と圧力を検出することもできる。一部の実施例では、マルチメディアコンポーネント708は1つの第1のカメラ及び/又は第2のカメラを含む。装置700が撮影モード又はビデオモードのような動作モードにある場合、各第1のカメラ及び/又は第2のカメラは外部からのマルチメディアデータを受信することができる。各第1のカメラ及び第2のカメラは、1つの固定された光学レンズシステムであるか、又は焦点距離と光学ズーム能力を有するシステムであってもよい。
オーディオコンポーネント710は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント710は1つのマイクロフォン(MIC)を含み、装置700が通話モード、記録モード及び音声認識モードのような操作モードにある場合、マイクロフォンは、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらにメモリ704に記憶するか、又は通信コンポーネント716を介して送信することができる。一部の実施例では、オーディオコンポーネント710は、オーディオ信号を出力するための1つのスピーカをさらに含む。
I/Oインターフェース712は、処理コンポーネント702と周辺インターフェースモジュールとの間にインターフェースを提供し、上記周辺インターフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンは、ホームボタン、音量ボタン、電源ボタン及びロックボタンを含むが、これらに限定されない。
センサコンポーネント714は、装置700のために各側面の状態評価を提供するために、1つ又は複数のセンサを含む。例えば、センサコンポーネント714は、装置700のオン/オフ状態と、装置700のディスプレイ及びキーパッドのような部品の相対位置とを検出できるうえ、装置700又は装置700の1つの部品の位置の変化、ユーザと装置700との接触が存在するか否か、装置700の向きと位置又は加速/減速及び装置700の温度変化を検出することもできる。センサコンポーネント714は、如何なる物理的接触もない時に周辺物体の存在を検出するように構成される近接センサを含んでも良い。センサコンポーネント714は、画像形成用途で用いられている、CMOS又はCCD画像センサのような光センサをさらに含んでも良い。一部の実施例では、該センサコンポーネント714は加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサをさらに含んでも良い。
通信コンポーネント716は、装置700と他のデバイスとの間の有線又は無線通信を容易にするように設定されるように構成される。装置700は、通信規格に基づく無線ネットワーク、例えばWiFi、2G又は3G、4G LTE、5G NR又はそれらの組み合わせにアクセスすることができる。例示的な一実施例では、通信コンポーネント716はブロードキャストチャネルを介して外部ブロードキャスト管理システムからのブロードキャスト信号又はブロードキャスト関連情報を受信する。例示的な一実施例では、前記通信コンポーネント716は、近距離通信を促進するように、近距離無線通信(NFC)モジュールをさらに含む。例えば、NFCモジュールにおいて、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域無線(UWB)技術、ブルートゥース(BT)技術及び他の技術に基づいて実現することができる。
例示的な実施例では、装置700は、上記いずれかの実施例に記載の方法を実行するために、1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又はその他の電子部品で具現化することができる。
例示的な実施例では、命令を含む非一時的なコンピュータ読み取り可能な記録媒体、例えば命令を含むメモリ704がさらに提供される。上記命令は、上記方法を実現するように、装置700のプロセッサ720によって実行されてもよく、前記非一時的なコンピュータ読み取り可能な記録媒体はROM、ランダムアクセスメモリ(RAM)、CD-ROM、テープ、フロッピーディスク及び光学データ記憶装置などであっても良い。
当業者は明細書を考慮し、本開示を実施すると、本開示の他の実施形態に想到しやすい。本出願は本開示のあらゆる変形、用途または適応的な変化を包含することを意図しており、これらの変形、用途または適応的な変化は本開示の一般的な原理に従い、本開示で開示されていない本技術分野の技術常識または通常の技術手段を含む。明細書及び実施例は、例示的なものとしてのみ見なされるべきであり、本開示の真の範囲と精神は以下の特許請求の範囲によって示される。
なお、本開示は、以上の説明及び図面に示される正確な構造に限定されず、かつその範囲から逸脱しない限り、様々な修正や変更を行うことができる。本開示の範囲は、添付の特許請求の範囲のみに限定される。

Claims (10)

  1. 画像表示方法であって、電子機器に適用され、前記電子機器は第1のカメラ及び第2のカメラを含み、前記方法は、
    前記第1のカメラによって収集された第1のリアルタイム画像及び前記第2のカメラによって収集された第2のリアルタイム画像を取得するステップであって、前記第1のリアルタイム画像及び前記第2のリアルタイム画像が異なるステップと、
    前記第1のリアルタイム画像内の対象物体を特定するステップと、
    前記対象物体に対応するリアルタイム仮想画像を生成するステップであって、前記リアルタイム仮想画像は、三次元画像であり、かつ前記対象物体に従って動作を実行するステップと、
    前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示するステップと、
    前記対象物体が前記電子機器のユーザである場合、前記対象物体の肢体関節を特定でき、前記肢体関節にアンカーを追加し、前記アンカーの動作に基づいて前記対象物体の前記リアルタイム仮想画像を生成するステップと、を含む、
    ことを特徴とする画像表示方法。
  2. 前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示する前に、前記方法は、
    各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録するステップと、
    前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定するステップと、をさらに含み、
    前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示する前記ステップは、
    前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示するステップを含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記方法は、
    前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録するステップをさらに含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記第1のカメラはフロントカメラであり、前記第2のカメラはリアカメラであり、または、
    前記第1のカメラはフロントカメラまたはリアカメラであり、前記第2のカメラは回転式カメラである、
    ことを特徴とする請求項1に記載の方法。
  5. 画像表示装置であって、電子機器に適用され、前記電子機器は第1のカメラ及び第2のカメラを含み、前記装置は、
    前記第1のカメラによって収集された第1のリアルタイム画像及び前記第2のカメラによって収集された第2のリアルタイム画像を取得するように構成され、前記第1のリアルタイム画像及び前記第2のリアルタイム画像が異なる画像収集モジュールと、
    前記第1のリアルタイム画像内の対象物体を特定するように構成される対象特定モジュールと、
    前記対象物体に対応するリアルタイム仮想画像を生成するように構成される仮想生成モジュールであって、前記リアルタイム仮想画像は、三次元画像であり、かつ前記対象物体に従って動作を実行する仮想生成モジュールと、
    前記第2のリアルタイム画像に前記リアルタイム仮想画像を重畳表示するように構成される画像表示モジュールと、を含み、
    前記対象物体が前記電子機器のユーザである場合、前記対象物体の肢体関節を特定でき、前記肢体関節にアンカーを追加し、前記アンカーの動作に基づいて前記対象物体の前記リアルタイム仮想画像を生成するように構成される
    ことを特徴とする画像表示装置。
  6. 前記装置は、
    各前記第1のリアルタイム画像を収集するタイムスタンプ及び各前記第2のリアルタイム画像を収集するタイムスタンプを記録するように構成される時間記録モジュールと、
    前記対象物体が所属する第1のリアルタイム画像のタイムスタンプに基づき、前記リアルタイム仮想画像のタイムスタンプを設定するように構成される時間設定モジュールと、をさらに含み、
    前記画像表示モジュールは、前記リアルタイム仮想画像と同じタイムスタンプを有する第2のリアルタイム画像において、前記リアルタイム仮想画像を重畳表示するように構成される、
    ことを特徴とする請求項に記載の装置。
  7. 前記装置は、
    前記リアルタイム仮想画像が表示される前記第2のリアルタイム画像を記録するように構成されるビデオ記録モジュールをさらに含む、
    ことを特徴とする請求項に記載の装置。
  8. 前記第1のカメラはフロントカメラであり、前記第2のカメラはリアカメラであり、または、
    前記第1のカメラはフロントカメラまたはリアカメラであり、前記第2のカメラは回転式カメラである、
    ことを特徴とする請求項に記載の装置。
  9. 請求項1~のいずれか1項に記載の方法を実現するように構成されるプロセッサを含む、
    ことを特徴とする電子機器。
  10. プロセッサによって実行される際に、請求項1~のいずれか1項に記載の方法のステップを実行するコンピュータプログラムが記憶されている、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2020205035A 2020-05-29 2020-12-10 画像表示方法及び装置、電子機器、コンピュータ読み取り可能な記憶媒体 Active JP7160887B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010478138.8 2020-05-29
CN202010478138.8A CN113747113A (zh) 2020-05-29 2020-05-29 图像显示方法及装置、电子设备、计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2021190076A JP2021190076A (ja) 2021-12-13
JP7160887B2 true JP7160887B2 (ja) 2022-10-25

Family

ID=73497624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205035A Active JP7160887B2 (ja) 2020-05-29 2020-12-10 画像表示方法及び装置、電子機器、コンピュータ読み取り可能な記憶媒体

Country Status (5)

Country Link
US (1) US11308702B2 (ja)
EP (1) EP3916683A1 (ja)
JP (1) JP7160887B2 (ja)
KR (1) KR102557592B1 (ja)
CN (1) CN113747113A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116091675B (zh) * 2023-04-06 2023-06-30 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070064813A1 (en) 2005-09-16 2007-03-22 Terayon Communication Systems, Inc., A Delaware Corporation Distributed synchronous program superimposition
US20090244296A1 (en) 2008-03-26 2009-10-01 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP2016521881A (ja) 2013-06-03 2016-07-25 ダクリ エルエルシーDaqri, LLC 思考を介した拡張現実における仮想オブジェクトの操作

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007060446A (ja) * 2005-08-26 2007-03-08 Sony Corp メタデータ生成装置、情報処理装置、撮像装置、テレビ会議システム、セキュリティシステム、メタデータ生成方法及びプログラム
JP2007259263A (ja) * 2006-03-24 2007-10-04 Canon Inc 画像処理方法、画像処理装置、プログラム、および記憶媒体
KR102079097B1 (ko) * 2013-04-09 2020-04-07 삼성전자주식회사 투명 디스플레이를 이용한 증강현실 구현 장치 및 그 방법
EP3374915B1 (en) * 2016-03-01 2021-06-30 Google LLC Facial template and token pre-fetching in hands free service requests
KR101802308B1 (ko) * 2016-05-02 2017-11-29 홍익대학교세종캠퍼스산학협력단 실시간 사용자 시각에 대응되는 3차원 증강 현실 영상 시현 장치 및 복수의 사용자가 동시 참여하는 3차원 증강 현실 구현 시스템
CN106454079B (zh) * 2016-09-28 2020-03-27 北京旷视科技有限公司 图像处理方法及装置和相机
US10504003B1 (en) * 2017-05-16 2019-12-10 State Farm Mutual Automobile Insurance Company Systems and methods for 3D image distification
US10210648B2 (en) * 2017-05-16 2019-02-19 Apple Inc. Emojicon puppeting
US10627985B2 (en) * 2017-06-16 2020-04-21 Lenovo (Singapore) Pte. Ltd. Manipulation of a virtual object during a conversational session
CN108093171A (zh) * 2017-11-30 2018-05-29 努比亚技术有限公司 一种拍照方法、终端及计算机可读存储介质
CN108416832B (zh) * 2018-01-30 2024-05-14 腾讯科技(深圳)有限公司 媒体信息的显示方法、装置和存储介质
CN110390705B (zh) * 2018-04-16 2023-11-10 北京搜狗科技发展有限公司 一种生成虚拟形象的方法及装置
CN109191548A (zh) * 2018-08-28 2019-01-11 百度在线网络技术(北京)有限公司 动画制作方法、装置、设备及存储介质
CN109146949B (zh) * 2018-09-05 2019-10-22 天目爱视(北京)科技有限公司 一种基于视频数据的3d测量及信息获取装置
US10944959B2 (en) * 2018-11-12 2021-03-09 Open Space Labs, Inc. Automated spatial indexing of images to video
CN109274983A (zh) * 2018-12-06 2019-01-25 广州酷狗计算机科技有限公司 进行直播的方法和装置
KR102022559B1 (ko) * 2019-05-23 2019-09-18 주식회사 티슈 듀얼 카메라를 이용한 무배경 이미지 촬영과 이를 이용한 합성사진 촬영 방법 및 컴퓨터 프로그램
US11223855B2 (en) * 2019-09-18 2022-01-11 Loop Now Technologies Inc. System and method of real-time video overlaying or superimposing display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070064813A1 (en) 2005-09-16 2007-03-22 Terayon Communication Systems, Inc., A Delaware Corporation Distributed synchronous program superimposition
US20090244296A1 (en) 2008-03-26 2009-10-01 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP2016521881A (ja) 2013-06-03 2016-07-25 ダクリ エルエルシーDaqri, LLC 思考を介した拡張現実における仮想オブジェクトの操作

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Angjoo Kanazawa, Michael J. Black, David W. Jacobs, Jitendra Malik,"End-to-endRecovery of Human Shape and Pose",Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2018年08月30日,pp.7122-7131,[検索日2022年6月9日], インターネット<URL:https://openaccess.thecvf.com/content_cvpr_2018/papers/Kanazawa_End-to-End_Recovery_of_CVPR_2018_paper.pdf>

Also Published As

Publication number Publication date
CN113747113A (zh) 2021-12-03
US11308702B2 (en) 2022-04-19
EP3916683A1 (en) 2021-12-01
KR20210147843A (ko) 2021-12-07
US20210375051A1 (en) 2021-12-02
JP2021190076A (ja) 2021-12-13
KR102557592B1 (ko) 2023-07-20

Similar Documents

Publication Publication Date Title
KR102194094B1 (ko) 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체
WO2017181556A1 (zh) 游戏直播方法及装置
CN108495032B (zh) 图像处理方法、装置、存储介质及电子设备
KR102018887B1 (ko) 신체 부위 검출을 이용한 이미지 프리뷰
RU2653230C2 (ru) Способ и устройство воспроизведения изображений для предварительного просмотра
CN105141942B (zh) 3d图像合成方法及装置
CN109922252B (zh) 短视频的生成方法及装置、电子设备
US20210297595A1 (en) Method and apparatus for processing video data
CN113238656B (zh) 三维图像的显示方法、装置、电子设备及存储介质
JP7110443B2 (ja) 撮影方法及び撮影装置、電子機器、記憶媒体
CN111586296B (zh) 图像拍摄方法、图像拍摄装置及存储介质
CN114025105B (zh) 视频处理方法、装置、电子设备、存储介质
CN104035674A (zh) 图片显示方法和装置
CN111612876A (zh) 表情生成方法、装置及存储介质
CN109218709B (zh) 全息内容的调整方法及装置和计算机可读存储介质
JP7160887B2 (ja) 画像表示方法及び装置、電子機器、コンピュータ読み取り可能な記憶媒体
WO2021189927A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN113286073A (zh) 拍摄方法、拍摄装置及存储介质
CN108924529B (zh) 图像显示的控制方法及装置
CN110312117B (zh) 数据刷新方法及装置
CN111835977B (zh) 图像传感器、图像生成方法及装置、电子设备、存储介质
CN114943791A (zh) 动画播放方法、装置、设备及存储介质
CN114078280A (zh) 动作捕捉方法、装置、电子设备及存储介质
CN114430457A (zh) 拍摄方法、装置、电子设备和存储介质
WO2023225910A1 (zh) 视频显示方法及装置、终端设备及计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221013

R150 Certificate of patent or registration of utility model

Ref document number: 7160887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150