JP7098120B2 - 画像処理方法、装置及記憶媒体 - Google Patents

画像処理方法、装置及記憶媒体 Download PDF

Info

Publication number
JP7098120B2
JP7098120B2 JP2020505230A JP2020505230A JP7098120B2 JP 7098120 B2 JP7098120 B2 JP 7098120B2 JP 2020505230 A JP2020505230 A JP 2020505230A JP 2020505230 A JP2020505230 A JP 2020505230A JP 7098120 B2 JP7098120 B2 JP 7098120B2
Authority
JP
Japan
Prior art keywords
real object
social network
image data
environment
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020505230A
Other languages
English (en)
Other versions
JP2020529084A (ja
Inventor
▲経▼▲緯▼ 林
▲瑩▼ 朱
戈▲語▼ 廖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2020529084A publication Critical patent/JP2020529084A/ja
Application granted granted Critical
Publication of JP7098120B2 publication Critical patent/JP7098120B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本願は、2017年08月04日に中国専利局に提出した、出願番号が201710661746.0であって、発明の名称が「画像処理方法、装置及記憶媒体」である中国特許出願の優先権を主張し、本願で、その全ての内容を援用するものとする。
本出願は、画像技術分野に関し、特に、画像処理方法、装置及記憶媒体に関する。
インターネット、特にモバイルインターネットの急速な発展に伴い、ソーシャルネットワークに基づく様々なクライアントが出現し、ユーザのオンラインソーシャルネットワーキングに大きな利便性を提供し、ユーザは、様々なスマート端末デバイスを使用してソーシャルネットワークのクライアントをインストールし、いつでもどこでもソーシャルネットワークにおけるユーザユーザとオフライン又はオンラインでインタラクションすることができる。
ソーシャルネットワークの様々なシーンにおいて、オブジェクトのイメージを展示することは、クライアントの基本的な機能であるが、現在の展示方式は単一であり、オブジェクトがユーザであることを例として、 関連する技術では、一般に、アバター又は自撮り画像の形式を採用してユーザのイメージを展示しており、ソーシャルネットワークの視認性を果たし、しかし、現在、このような方式は、ソーシャルネットワークがユーザのニーズを個性的に展示することに適応しにくくなり、ソーシャルネットワークの多様化特性の障害となっている。
ソーシャルネットワークのアプリケーションシーンはますます多様化されているため、複数のアプリケーションシーンのそれぞれに対して展示方式を設置する方案を提供すれば、ユーザは異なるアプリケーションシーンに対して設置を行う必要があるので、効率が比較的低く、実施の現実的な意味はなく、ソーシャルネットワークのバックグラウンドの処理は複雑化され、非常に大きなオーバーヘッドが発生してしまう。
ソーシャルネットワークの多様化に適応するために、ソーシャルネットワークの様々なアプリケーションシーンにおいてオブジェクトの展示方式を拡張する需要については、現在に有効な解決策はない。
本出願の実施例は、上記の技術的問題を解決しながら、ソーシャルネットワークにおけるオブジェクトの展示方式を効果的に拡張することを実現することができる画像処理方法、装置及記憶媒体を提供する。
上記の目的を達成するために、本出願の実施例の技術案は以下のように実現される。
一態様によれば、本出願の実施例は画像処理方法を提供し、
取得された画像データから、環境での実オブジェクトの特徴を認識し、
前記実オブジェクトの特徴でソーシャルネットワークを照会し、前記実オブジェクトが前記ソーシャルネットワークの属性を有すると決定し、
前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得し、
取得された画像データに応じてレンダリングし、
レンダリングして形成された画像内の前記実オブジェクトの位置に応じて、前記拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される前記実オブジェクトと前記仮想オブジェクトとを形成する、ことを含む。
他の態様によれば、本出願の実施例は画像処理装置を提供し、
取得された画像データから、環境での実オブジェクトの特徴を認識するための認識モジュールと、
前記実オブジェクトの特徴で、ソーシャルネットワークを照会し、前記実オブジェクトが前記ソーシャルネットワークの属性を有すると決定するための照会モジュールと、
前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得するためのモデルモジュールと、
取得された画像データに応じて、レンダリングし、レンダリングして形成された画像内の前記実オブジェクトの位置に応じて、前記拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される前記実オブジェクトと前記仮想オブジェクトとを形成するためのレンダリングモジュールとを含む。
他の態様によれば、本出願の実施例は記憶媒体を提供し、プロセッサにより実行される場合に、本出願の実施例で提供される画像処理方法を実現する実行可能なプログラムが記憶されている。
他の態様によれば、本出願の実施例は画像処理装置を提供し、
実行可能なプログラムを記憶するためのメモリと、
前記メモリに記憶されている実行可能なプログラムを実行する場合に、本出願の実施例で提供される画像処理方法を実現するプロセッサとを含む。
本出願の実施例は、少なくとも、以下の有益な効果を有する。
1) 画像データから実オブジェクトの特徴を認識しソーシャルネットワークを照会する形態によれば、ソーシャルネットワークの任意のシーンにおける画像データについて、ソーシャルネットワークに属する実オブジェクトを迅速に認識し、相応するシーンに、ソーシャルネットワークにおける実オブジェクトに適応する拡張現実効果をフュージョンし、一緒に表示される実オブジェクトと仮想オブジェクトとを形成し、ソーシャルネットワークにオブジェクトを拡張する展示方式を提供し、仮想―現実結合の效果を達成することができる。
2) ソーシャルネットワークにおいて異なる実オブジェクトについての拡張現実モデルは多様化の特性を有し、これにより、画像データのレンダリングに適用される場合に、異なるオブジェクトの差別化の表示效果を実現する。
本出願の実施例における技術案をより明確に説明するために、以下実施例の記述において使用する必要がある図面を簡単に紹介し、もちろん、以下に記述の図面が本出願のいくつかの実施例に過ぎず、当業者にとって、創造的な労力をしない前提で、これらの図面に応じて他の図面を得ることもできる。
本出願の実施例で提供される画像処理装置のオプションのハードウェア構成の模式図である。 本出願の実施例で提供される画像処理装置のオプションの機能構成の模式図である。 本出願の実施例で提供されるAR装置として実施される画像処理装置のオプションのシステム構成の模式図である。 本出願の実施例で提供されるAR装置として実施される画像処理装置の他のオプションのシステム構成の模式図である。 本出願の実施例で提供される画像処理方法のオプションの実現フローの模式図である。 本出願の実施例で提供される画像処理方法の他のオプションの実現フローの模式図である。 本出願の実施例で提供される顔特徴点の模式図である。 本出願の実施例で提供される実オブジェクトと仮想オブジェクトとを一緒に表示する効果の模式図である。 本出願の実施例で提供される実オブジェクトと仮想オブジェクトとを一緒に表示する効果の模式図である。 本出願の実施例で提供される実オブジェクトと仮想オブジェクトとを一緒に表示する効果の模式図である。 本出願の実施例で提供される漫画キャラクター装飾とカスタムネットワーク仮想キャラクターの効果の模式図である。 本出願の実施例で提供される漫画キャラクター装飾とカスタムネットワーク仮想キャラクターの効果の模式図である。 本出願の実施例で提供される画像処理方法の他のオプションの実現フローの模式図である。
本出願の目的、技術案、及び利点をより明確にするために、以下では、添付図面を参照しながら、本出願をさらに詳細に記述し、記述される実施例は、本出願のすべてではなく、本出願の実施例の一部である。創造的な努力なしに本出願の実施例に基づいて当業者によって得られる他のすべての実施例は、本出願の保護範囲内に入るものとする。
本出願をさらに詳細に説明する前に、本出願の実施例に係る名詞及び用語を説明し、本出願の実施例に係る名詞及び用語は、以下の解釈に適用される。
1) 拡張現実(AR、Augmented Reality)、現実世界に仮想情報を適用する技術であり、実オブジェクトと仮想オブジェクトとを、同一の画面又は空間にリアルタイムで重畳して同時に存在する。
拡張現実技術は、現実世界の情報と仮想世界の情報とをシームレスに集積し、現実世界で体験できない情報(視覚、音、味覚等)に対して、科学技術を用いてシミュレートを行った後に重畳し、仮想情報を現実世界に適用して、人間の感覚によって知覚され、それによって、仮想と現実とが結合した感覚的な体験を達成するようになる。
例えば、実映像(即ち、現実世界における実オブジェクトの写真又はビデオのみを含む)における実オブジェクトの位置と姿勢を算出し、実映像において、実オブジェクトの位置と姿勢に応じて、仮想オブジェクトを含む映像、例えば、画像、ビデオ、又は3次元(3D、Three-Dimensional)モデル等の技術を適用し、3次元空間の実映像に仮想オブジェクトを含む映像を追加する。例えば、実オブジェクトの写真、又はビデオにおける顔の位置と姿勢に応じて、顔の位置決めに基づく仮想アイテムを追加し、顔の装飾効果を実現し、また、例えば、スキャンされた製品のQRコード(登録商標)に応じて、表示されているQRコード(登録商標)の近くに製品情報及び/又は製品を購入できる店舗及びアドレスを表示等する。
拡張現実は、シーンに応じてリアルタイムのインタラクション特性をさらに実現でき、例えば、AR類ゲームを実現する過程では、ARシステムに装備されたグローブ又はハンドルによりゲーム内のアクションを制御し、又は、ARの碁のタイプの試合において、ARシステムに装備されたグローブにより碁石を制御等してもよい。
2)クライアントは、本明細書ではデバイスにインストールされたクライアント、又はデバイスのサードパーティのクライアントを指し、ソーシャルネットワークに基づく様々なアプリケーションをサポートし、ビデオ通話機能やピクチャの送信機能等の複数のソーシャル機能を実現するために用いられる。
3)装置は、クライアントの運行をサポートする電子機器、例えば、スマートフォン、タブレットコンピュータ、画像処理装置ディスプレイとヘッドマウントディスプレイ(HMD、Head-mounted display)に基づく装置等であり、なお、HMDは、光学の原理に基づく透過型HMDであってもよいし、ビデオ合成技術に基づく透過型HMDであってもよい。本明細書では、デバイスは、クライアントのホストデバイスとも呼ばれる。
4)ソーシャルネットワークは、ネットワーク(例えば、ワイドエリアネットワークやローカルエリアネットワーク等)配置に基づくサーバで、複数のユーザがクライアント(QQやエンタープライズIM等)を介して互いに通信を行うことをサポートするのを実現するネットワークである。
5)画像データは、環境での実オブジェクトの画像上の各点の光の強度とスペクトル(色)の表示であり、デジタル化処理と分析を容易にするために、光の強度とスペクトル情報とに応じて、現実世界の画像情報をデータ情報に変換し、画像データである。
6)拡張現実モデルは、画像処理装置がデジタルグラフィック技術により描き出した拡張現実に用いられるデジタル化シーンであり、例えば、ソーシャルネットワークにおけるパーソナライゼーションのAR装飾は、帽子や、メガネ、背景画像等の装飾であってもよい。
7)実オブジェクトは、画像データに現実生活の人と物を含み、なお、物に、川や山等の自然の景物、都市の風景や建物の風景等の文化的な景物、又は、その他のタイプの物体が含まれる。
8)仮想オブジェクトは、クライアントが画像データをレンダリングする場合に、画像データをキャプチャする環境に存在しない仮想オブジェクトをレンダリングする必要があり、実オブジェクトと仮想オブジェクトのフュージョンを実現し、表示効果を高めるか、情報量を増やすことを実現し、例えば、実オブジェクトが人物である場合、仮想オブジェクトは、キャラクターの画像をデコレートするための様々なアイテム及び仮想背景であってもよいし、個人の名刺であってもよい。
9)レンダリングは、クライアントにおいてレンダリングエンジンを使用して画面に出力される実オブジェクトと仮想オブジェクトの可視映像である。例えば、ソーシャルクライアントを使用してソーシャルネットワーキングする過程では、ソーシャルネットワーキングのアクティブな雰囲気を高めるために、実オブジェクトを含む画像又はビデオに対して適切なレンダリングを行い、例えば、ユーザの画像又はビデオに現在のソーシャルシーンに適合する幾つかの仮想オブジェクトを追加して、特殊の効果を形成する。
現在、添付の図面を参照しながら、本出願の実施例を実現する画像処理装置について記述する。画像処理装置は様々な形態で実施可能であり、以下、本出願の実施例の画像処理装置のハードウェア構成について説明する。
図1-1を参照し、図1-1は、本出願の実施例で提供される画像処理装置のオプションのハードウェア構成の模式図である。実際の応用では、前記したクライアントを運行する様々なデバイス、デスクトップコンピュータ、ノートブックコンピュータ、スマートフォンとして実現することができる。図1-1に示す画像処理装置100は、少なくとも一つのプロセッサ101、メモリ102、ディスプレイコンポーネント103、少なくとも一つの通信インターフェース104、及びカメラ105を含む。画像処理装置100の各コンポーネントは、バスシステム106による結合される。 バスシステム106は、これらのコンポーネント間の接続通信を実現するために用いられることが理解され得る。 配置データバスに加えて、バスシステム106は、電源バス、制御バス、及び状態信号バスをさらに含む。但し、明確に説明するために、図1において、様々なバスはいずれもバスシステム106として標記される。
ディスプレイコンポーネント103は、画像処理装置ディスプレイ、携帯電話ディスプレイ、及びタブレットコンピュータディスプレイを含んでもよく、表示のために用いられる。
通信インターフェース104は、アンテナシステム、ブルートゥース(登録商標)(Bluetooth(登録商標))、WiFi (Wireless Fidelity)、近距離無線通信(NFC、Near Field Communication)モジュール、及び/又はデータラインを含んでもよい。
カメラ105は、標準カメラ、望遠カメラ、広角レンズ、ズームカメラ、デジタルライトフィールドカメラ、デジタルカメラ等であってもよい。
メモリ102は、揮発性メモリ又は不揮発性メモリであってもよいし、揮発性メモリと不揮発性メモリの両方を含んでもよいことが理解され得る。
本出願の実施例におけるメモリ102は、画像処理装置100の動作をサポートするために様々なタイプの配置データを記憶するために用いられる。これらの配置データの例には、画像処理装置100で動作するためのプログラム、例えば、クライアント1021を含み、オペレーティングシステム1022及びデータベース1023をさらに含み、なお、本出願の実施例の方法を実現するプログラムはクライアント1021に含まれてもよい。
本発明の実施例で開示された方法は、プロセッサ101に適用されるか又はプロセッサ101により実施されてよい。プロセッサ101は、集積回路チップであってよく、信号の処理能力を有する。実現の過程で、画像処理方法の各ステップは、プロセッサ101の中のハードウェアの集積論理回路、又はソフトウェアの形式の命令を用いて完成されてよい。上記のプロセッサ101は、汎用プロセッサ、デジタル信号プロセッサ(DSP、Digital Signal Processor)、又は別のプログラマブル論理素子、個別ゲート又はトランジスタ論理装置、個別ハードウェアコンポーネント等であってよい。プロセッサ101は、本出願の実施例において提供される各方法、ステップ、及び論理ブロック図を実現し又は実行し得る。汎用プロセッサはマイクロプロセッサ、任意の従来のプロセッサ等であってよい。本出願の実施例を参照して提供される方法のステップは、ハードウェア復号化プロセッサにより実行され完成されるか、又は復号化プロセッサ内のハードウェア及びソフトウェアモジュールの組合せにより、実行され完成される。ソフトウェアモジュールは、記憶媒体の中に配置されてもよく、当該記憶媒体は、メモリ102に配置され、プロセッサ101は、メモリ102の中の情報を読み取り、そのハードウェアとの組合せで本出願の実施例で提供される画像処理方法を完成する。
また、図1-1に示す画像処理装置の機能構成について説明し、ソフトウェアの実施を例として、図1-2を参照し、図1-2は、本出願の実施例で提供されるローカルクライアント (自端クライアントと相手端クライアントは相対的な概念であることが理解され得る) を運行する画像処理装置のオプションの機能構成の模式図であり、図1-2に示す各機能モジュールを参照しながら説明し、図1-1によれば、図1-2に示す機能モジュールのハードウェア上の実現が理解され得る。
認識モジュール210は、取得された画像データから環境での実オブジェクトの特徴を認識する。
本出願のオプションの実施例において、認識モジュール210は、ソーシャルネットワークにおけるピアクライアントが環境をキャプチャし伝送した画像データを受信し、受信した画像データからピアクライアントの環境にある実オブジェクトの特徴を認識し、及び/又は、環境をキャプチャして画像データを形成し、キャプチャして形成した画像データからローカルクライアントの環境にある実オブジェクトの特徴を認識する。
本出願のオプションの実施例において、認識モジュール210は、具体的に、ソーシャルネットワークにおけるピアクライアントと通信する場合に、ローカルクライアント環境をキャプチャして、ピアクライアントに伝送するための画像データを形成し、キャプチャされた画像データからローカルクライアント環境での実オブジェクトの特徴を認識し、又は、ローカルクライアントのキャプチャ動作に応答する場合に、ローカルクライアント環境をキャプチャして画像データを形成し、キャプチャされた画像データからローカルクライアント環境での実オブジェクトの特徴を認識する。
本出願のオプションの実施例において、認識モジュール210は、具体的に、ソーシャルネットワークにおける実オブジェクトに適応する拡張現実モデルを取得する前に、認識された実オブジェクトの特徴がソーシャルネットワークの認識できる条件を満足することを判断し、条件は、画像特徴点が認識された場合に、認識された画像特徴点の数が特徴点データ量閾値を超える条件と、生体特徴が認識された場合に、認識された生体特徴の完全性が完全性閾値を超える条件との少なくとも一つを含む。
照会モジュール220は、実オブジェクトの特徴でソーシャルネットワークを照会して、実オブジェクトにソーシャルネットワークに属する属性があるかどうかを決定する。
本出願の実施例に係るソーシャルネットワークの属性は、ソーシャルネットワークによってキャリアされる機能、例えば、メディア機能(例えば、コンテンツアグリゲーション)、ソーシャルネットワーキン、電子商取引、支払い等に対し、これらの機能を実現するプロセスに係るメンバーがタイプ/機能で行うまとめは、例えば、
メンバーがソーシャルネットワークの登録ユーザであることを表す登録ユーザ属性と、
メンバーが支払いを受け取るアカウントであることを表す支払いオブジェクト属性と、
被共有物品属性とも呼ばれ、メンバーがソーシャルネットワークで共有される物品、例えば、美食や製品等の様々な物品であることを表す被共有オブジェクト属性と、
メンバーがソーシャルネットワークで共有されるメディア情報、例えば、ビデオ、オーディオ、携帯電話ゲーム等、実際の形態を持たない様々な製品であることを表す被共有メディア情報属性とを含む。
本出願のオプション実施例において、照会モジュール220は、具体的に、実オブジェクトの特徴でソーシャルネットワークの特徴データベースに照会し、実オブジェクトがソーシャルネットワークの登録ユーザの特徴とマッチングする場合に、実オブジェクトがソーシャルネットワークに属する登録ユーザであると決定し、この場合、実オブジェクトはソーシャルネットワークの登録ユーザ属性を有し、実オブジェクトがソーシャルネットワークの被共有オブジェクトの特徴とマッチングする場合に、実オブジェクトがソーシャルネットワークの被共有オブジェクトであると決定し、この場合、実オブジェクトはソーシャルネットワークの被共有オブジェクト属性を有する。
モデルモジュール230は、ソーシャルネットワークのモデルベースにおける実オブジェクトに適応する拡張現実モデルを取得する。
本出願のオプションの実施例において、モデルモジュール230は、具体的に、実オブジェクトがソーシャルネットワークにおける登録ユーザである場合に、登録ユーザのソーシャルネットワークで予め設置した仮想アイテム、仮想背景、及びフィルターの少なくとも一つを含む仮想オブジェクトを取得し、実オブジェクトがソーシャルネットワークにおける被共有オブジェクトである場合に、ソーシャルネットワークにおける被共有オブジェクトに対する仮想オブジェクトを取得し、仮想オブジェクトはソーシャルネットワークにおける被共有オブジェクトに対する記事、ソーシャルネットワークにおける被共有オブジェクトに対する広告の少なくとも一つを含む。
本出願のオプションの実施例において、モデルモジュール230は、具体的に、サーバの認識サービスを呼び出し、取得された画像データから実オブジェクトの特徴を認識し、又は、画像認識スレッドを開始し、開始された画像認識スレッドにおいて取得された画像データを認識して実オブジェクトの特徴を得る。
レンダリングモジュール240は、取得された画像データに応じてレンダリングし、及びレンダリングして形成された画像内の実オブジェクトの位置に応じて、拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される実オブジェクトと仮想オブジェクトとを形成する。
本出願のオプションの実施例において、レンダリングモジュール240は、具体的に、画像データ内の実オブジェクトのポーズ変化を検出し、出力された画像内の実オブジェクトの位置に、拡張現実モデルにおけるポーズ変化に適応する仮想オブジェクトをレンダリングして出力することで、重畳される実オブジェクトと仮想オブジェクトとを形成するために用いられる。
本出願のオプションの実施例において、照会モジュール220は、具体的に、ローカルのバッファ又はデータベースにおいて実オブジェクトに適応する拡張現実モデルを照会し、見つからないと、ソーシャルネットワークから実オブジェクトに適応する拡張現実モデルを照会して得る。
本出願の実施例で提供される画像処理装置がAR眼鏡として実施される場合、AR機能を実現する構成について例示的に説明し、図2と図3を参照し、図2は本出願の実施例で提供される画像処理装置がAR装置として実施されるオプションの構成の模式図であり、環境の画像データのキャプチャ、画像データと拡張現実モデルを実現するための仮想オブジェクトとの合成を実現するために用いられ、図3は、本出願の実施例で提供される画像処理装置がAR装置として実施されるオプションの他の構成の模式図であり、画像データと仮想オブジェクトとの合成の出力を実現するために用いられる。
画像処理装置の構成はそれぞれ図2と図3に示されたが、図2と図3に示す構成を組み合わせて使用でき、環境の画像データのキャプチャから、画像データと仮想オブジェクトとの合成表示效果のレンダリング出力までのことを実現し、図2と図3に係るコンポーネントについて説明する。
カメラは、画像又はビデオを含む実オブジェクトを含む環境の画像データを取得し、取得された画像又はビデオを画像合成器に送信して、拡張現実モデルの仮想オブジェクトと合成動作を行う。
シーン発生器は、画像データ内の実オブジェクトの位置情報に応じて、例えば、ヘッドトラッカーにより、画像データ内の頭部の位置情報を取得し、拡張現実モデル内の位置情報に対応する仮想オブジェクトを抽出し、当該仮想オブジェクトを画像合成器に送信する。
シーン発生器は、さらに、位置情報に応じて仮想オブジェクトを生成し、当該仮想オブジェクトをディスプレイに送信し、仮想オブジェクトは、画像合成器上で実オブジェクトと重畳するために用いられる。
画像合成器は、取得された実オブジェクトの画像又はビデオ、及び仮想オブジェクトを合成し、合成画像又は合成ビデオとをレンダリングし、レンダリング結果は定期的に更新されてディスプレイに表示される。
ディスプレイは、画像合成器によって送信された合成画像又は合成ビデオを表示して、実オブジェクトと拡張現実モデルの仮想オブジェクトとが一緒に表示される效果を形成する。
ここで添付図面を参照して本出願の実施例の画像処理方法を実現する実施プロセスに従って、画像処理装置が図1ないし図3に従ってスマートフォン又はARメガネとして実施されることを例として、図4を参照し、図4は、本出願の実施例で提供される画像処理方法のオプションの実現フローの模式図であり、画像処理装置が実オブジェクトを含む環境を取得して形成した画像データ、及び拡張現実モデルの仮想画像について説明し、以下のステップに係る。
ステップ501において、実オブジェクトを含む画像データを取得する。
実オブジェクトの画像データを取得することは、拡張現実を実現する最初のステップであり、現実世界における画像を画像処理装置に入力して、画像処理装置によって拡張現実モデルから抽出された仮想画像と合成され、上記の表示コンポーネントに出力された場合にのみ、ユーザは、最終の拡張シーン画像を見ることができる。
ここで、実オブジェクトの画像データは、前述のカメラによってキャプチャされてもよく、例えば、デジタルライトフィールドカメラが人物や自然の景物等の実オブジェクトを撮影している場合に、完全なライトフィールド情報を取得できるため、ユーザは、画像処理装置を使用する過程で人間の目が見たいところに自動合焦を行うことを実現できるようにする。そして、取得された光は、実ライトフィールドでキャプチャされたライトセットであり、仮想画像と合成された後、メガネを通して真と偽を区別できない。もちろん、他の画像処理装置によってキャプチャされて送信された画像データを受信してもよい。
即ち、可能な実現形態では、画像処理装置はカメラにより現実の環境での画像データをキャプチャし、当該現実の環境に実オブジェクトが存在するので、キャプチャされた画像データは実オブジェクトを含む。他の可能な実現形態では、他の画像処理装置は実オブジェクトを含む画像データをキャプチャした後に、本実施例の画像処理装置に送信し、当該画像処理装置は当該画像データを受信する。
ステップ502において、実オブジェクトの位置情報を検出する。
仮想オブジェクトと、人や物等の実オブジェクトとの完璧な組み合わせを実現するには、仮想オブジェクトを現実世界の正確な位置にマージする必要があり、従って、画像データ内の実オブジェクトの位置をリアルタイムに検出し、ひいては実オブジェクトのアクションの方向をトラッキングし、システムがどの拡張現実オブジェクトにおけるどの仮想オブジェクトを表示するか、及び当該仮想オブジェクトの位置を決定するのに役立ち、観察者の視野に従って座標系を再構築する。実オブジェクトの位置情報を測定する方法は、複数の方法があり、例えば、ビデオ検出方法であり、モード認識技術に従ってビデオ画像内の事前定義されたマーク、物体、又は基準点を認識し、次に、そのシフトと回転角度に応じて座標変換行列を算出し、座標変換行列で実オブジェクトの位置情報を表し、又は、ジャイロスコープによりユーザの頭部の回転角度を測定し、実オブジェクトの位置情報を決定して、如何に視野内の仮想オブジェクトの座標とコンテンツを変換するかを判定する。
即ち、画像処理装置は、画像データを取得した後に、上述した位置情報の測定方法のいずれかを用いて、画像データ内の実オブジェクトの位置情報を検出する。そして、画像処理装置は、実オブジェクトが現実の環境で移動している過程で、実オブジェクトを含む複数の画像データを取得し、画像データの間の位置及び姿勢の変化に応じて、実オブジェクトが運動している軌跡をトラッキングして、これにより、各画像データ内の実オブジェクトの位置情報を決定してもよい。なお、各画像データの位置及び姿勢の変化は、ジャイロスコープによって検出されるか、トラッキングアルゴリズムを使用して隣接する2つの画像データをトラッキングすることによって取得される。
ステップ503において、拡張現実モデルから仮想オブジェクトを取得する。
AR装置の没入感を取得するために、ディスプレイは、現実感を有する画像を表示し、拡張現実シーンでシミュレーション及び表示を行う必要がある。従って、画像処理装置は、拡張現実モデルから仮想オブジェクトを取得する。
拡張現実シーン内の実オブジェクトの位置決めマークが認識された後、事前定義されたマークから現在の拡張現実シーン内のマークへの座標変換行列を再構築し、画像処理装置は、この座標変換行列に従って、拡張現実モデルにおける仮想オブジェクトを描き、レンダリングする。
ステップ504において、位置情報に応じて、実オブジェクトと仮想オブジェクトとを合并表示するか、直接表示する。
画像処理装置の画像合成器は、まず、カメラの位置情報と、実オブジェクトの位置決めマークとに応じて、仮想オブジェクト座標からカメラ視覚平面へのアフィン変換を算出し、アフィン変換行列に従って、視覚平面に仮想オブジェクトを描くことにより、仮想オブジェクトと、実オブジェクトのビデオ又は写真とを合併してからディスプレイに一緒に表示し、実オブジェクトと仮想オブジェクトとが一緒に表示される效果を形成する。
例を挙げて、ソーシャルネットワークを使用するクライアントがビデオ通話を行うシーンにおいて、仮想オブジェクトと、実オブジェクトのビデオ又は画像とを合成しクライアントの通話インターフェースに表示し、例えば、通話者のビデオ又は画像の顔に帽子やメガネ等の仮想オブジェクトをリアルタイムで重畳し、ビデオ会話の面白さを大幅に向上させ、又は、ソーシャルネットワークのクライアントを使用して実オブジェクトをオフラインでスキャンするシーンにおいて、実オブジェクトの映像にソーシャルネットワーク内のユーザの個人名刺を共同に表示し、オフラインソーシャルネットワーキングとオンラインソーシャルネットワーキングとのシームレスなアクセスを実現する。
図4に基づいて、画像処理装置が実オブジェクトを含む画像データと、拡張現実モデルの仮想オブジェクトとをフュージョンする処理プロセスについて説明したが、以下、ユーザがソーシャルネットワークのクライアント(ピアクライアントとの通信に関するので、ここでローカルクライアントとも称される)を用いてソーシャルネットワークの適用シーンで画像処理を行うプロセスについて説明し、図5は、本出願の実施例で提供される画像処理方法の他のオプションの実現フローの模式図であり、図5に示すステップに従って説明する。
ステップ601において、ローカルクライアントは画像データを取得する。
本出願のオプションの実施例において、画像データの取得方式は、ユーザ自身がローカルクライアントを介してカメラを呼び出して撮影することで取得し、即ち、ローカルクライアントのプロセスで環境をキャプチャして、画像データを形成してもよく、 又は、ローカルクライアントとソーシャルネットワークにおける他のユーザのピアクライアント(数量は制限されない)を使用してビデオ通信を行うプロセスでピアクライアントにより画像データを送信してもよく、即ち、ローカルクライアントのプロセスで、ソーシャルネットワークにおけるピアクライアントが環境をキャプチャして伝送した画像データを受信し、受信した画像データから環境内の実オブジェクトの特徴を認識してもよい。
ステップ602において、ローカルクライアントは、取得した画像データから、実オブジェクトの特徴を識別する。
ここで、実オブジェクトは自然景物、文化的な景物、自然界の中で生きている物体(人間を含む)であってもよい。なお、実オブジェクトの特徴は複数のタイプがあり、例えば、画像特徴であり、顔の特徴点、物体の輪郭特徴、テクスチャ特徴等を含み、また、例えば、生体特徴であり、声紋特徴、虹彩特徴、指紋特徴等を含む。本出願の実施例において、主に人間を例として説明し、例えば、画像データから人の顔特徴情報を認識し、他のタイプ特徴の実施については、以下の説明に従って理解することができる。
本出願のオプションの実施例において、ローカルクライアントは自身のホストデバイスのカメラを呼び出して撮影し、ユーザの顔を含む1つ又は複数の顔画像を取得し、撮影して得られた顔画像に対して顔特徴点の認識を行い、例えば、形状特徴の次元認識の観点から、外部輪郭特徴により異なる顔器官を検出し、顔器官の異なる部分の顔特徴点を認識する。
本出願の別のオプションの実施例において、複数のフレームの顔画像を取得することもでき、撮影された顔画像の複数のフレームをそれぞれ認識して、各顔画像における複数の顔特徴点の位置を取得する。例えば、顔の特徴点は、目の特徴点、鼻の特徴点、唇の特徴点、眉の特徴点、及び顔のエッジの特徴点のいずれか1つ又は複数を含む。
複数のフレームの顔画像は連続的に撮影されてもよく、例えば、顔画像は、指定された期間に撮影されたビデオ内の連続する複数のフレームの顔画像であってもよく、指定された期間は、例えば1秒又は0.5秒である。もちろん、顔画像は撮影されたビデオ内の時間軸に離散的に分布する複数のフレームの顔画像であってもよい。
例示的に、図6に示す顔特徴点の認識結果を得ることができ、以下の説明の都合上、数字を採用して認識して取得した各顔特徴点をマーキングし、例えば、図6に示す1~20は顔のエッジの特徴点を表し、21~28及び29~36は対応してユーザの左眉の特徴点と右眉の特徴点を表し、37~44及び88はユーザの左目の特徴点を表し、なお、88は左瞳孔であり、45~51及び89はユーザの右目特徴点を表し、なお、89は右瞳孔特徴点であり、53~65はユーザの鼻特徴点を表し、66~87はユーザの唇特徴点を表す。なお、以上は例示であり、オプションの実施例では、以上の顔特徴点の一部又はより多い特徴点を認識してもよいし、他の方式で各特徴点をマッキングしてもよく、いずれも本出願の実施例の範囲に属する。
本出願の実施例において、顔特徴の認識を例として上記の実オブジェクトの特徴認識について説明し、なお、顔特徴認識技術は、使用される基準によって違い、通常は認識される特徴に応じて、2つのタイプに分類される。
(1)局所的な特徴に基づく方法
本出願のオプションの実施例において、局所的な特徴に基づく方法は、顔の局所的な幾何学的特徴、例えば、幾つかの顔器官(目、鼻、口等)の相対位置と、相対距離を利用して顔を記述してもよい。その特徴成分は、通常、特徴点間のユークリッド距離、曲率、及び角度を含み、顔の明らかな特徴の効率的な記述を実現することができる。
例えば、積分投影法を用いて顔特徴点を位置決めし、特徴点間のユークリッド距離を特徴成分として多次元の顔特徴ベクトルを認識し分類のために用いる。特徴成分は、主に、眉と目の中心の間の垂直距離、眉ラジアンの複数の記述データ、鼻の幅及び鼻の垂直位置、鼻孔の位置及び顔の幅等を含み、上記の顔特徴情報の認識により、認識プロセスで100%の正しい認識率が得られる。
本出願のオプションの実施例において、局所的な特徴に基づく方法はさらに、顔の特徴の一般的特徴に関する経験的記述であってもよい。
例えば、顔画像は、いくつかの明らかな基本的特徴を有し、例えば、顔領域は通常、2つの目、鼻、口等の顔の特徴を含み、明るさは一般に周囲の領域の明るさよりも低くなり、2つの目はほぼ対称であり、鼻と口は対称軸上に分布されている。
局所的な特徴に基づく方法は、上記の積分投影法及び事前ルール方法に加えて、幾何学的形状情報に基づく方法等をさらに含み、本出願の実施例において、局所的な特徴に基づく方法のタイプは限定されない。
(2) 全体に基づく方法
ここで、全体に基づく方法は、顔画像を全体として、それにある変換処理を行い、特徴を認識することであり、この方法は顔の属性全体を考慮し、顔の構成要素の間のトポロジカル関係と各構成要素自身の情報も保留する。
顔画像の次元は通常非常に高く、且つ高次元空間での顔画像の分布は非常にコンパクトではないため、分類に不利で、算出の複雑さも非常に大きい。部分空間解析法を使用して、一定の目標に応じて一つの線形又は非線形の空間変換を探し、元の高次元データを低次元の部分空間に圧縮して、部分空間でのデータの分布がよりコンパクトとなり、算出の複雑さを軽減する。
また、さらに、顔画像上に1組の矩形のグリッドノードをセットし、各ノードの特徴をこのノードでのマルチスケールウェーブレット特徴で記述し、各ノード間の接続関係を幾何学的距離で表し、これにより、2次元トポロジーグラフに基づく顔の記述を構築する。 顔認識プロセスでは、2つの画像での各ノードと接続間の類似性に応じて認識を行う。
全体に基づく方法は、上記の部分空間解析法と、エラスティックグラフマッチング法に加えて、ニューラルネットワークに基づく方法等をさらに含み、本出願の実施例において、全体に基づく方法のタイプは限定されない。
本出願のオプションの実施例において、画像データの特徴認識については、特徴を認識する実行本体の違いに従って、以下の二つの方式に分類される。
方式1:ローカルクライアントはサーバの認識サービスを呼び出し、サーバの認識サービスに画像データを送信し、サーバは、取得された画像データから実オブジェクトの特徴を認識し、ローカルクライアントに戻す。
方式1は、特に、ローカルクライアントの算出リソースが限られている場合に適用し、ローカルクライアントが特徴認識を行うことで消費される算出リソース、それによって引き起こされる遅延を効果的に削減することができる。例えば、ビデオにおける特徴認識については、ビデオ内のオブジェクトは一般に運動状態にあるので、運動中のオブジェクトの特徴点認識は対応する操作が複雑になり、クライアントのホストデバイスを占めるオーバーヘッドも大きくなり、この場合、サーバの認識サービスを呼び出し、サーバの認識サービスは取得された画像データから実オブジェクトの特徴を認識し、ローカルクライアントに返す。
方式2:ローカルクライアントのプロセスでは、画像認識スレッドを開始し、開始された画像認識スレッドにおいて取得された画像データを認識して実オブジェクトの特徴を取得する。
簡単な画像データの特徴認識ついては、特徴点を迅速に認識するために、クライアントのホストデバイスのプロセスで画像認識スレッドを開始することができる。
例えば、クライアントのホストデバイス自身によりこの特徴認識操作を完成し、認識プロセスでは、ユーザが音楽を聴いたり、ゲームやビデオのプロセスを開始したりする場合があるため、他のアプリケーションのリソースを占有しないように、クライアントのプロセスで画像認識スレッドを開始してもよい。なお、開始されたスレッドの量は、認識の算出の複雑さ(例えば、ビデオのフレームレートや画像の解像度等)に応じて決定されてもよく、算出の複雑さが比較的低い場合、相対的に少ないスレッドのみを開始し、認識の算出の複雑さが比較的高い場合、複数のスレッドを開始してもよい。開始した後に、開始された画像認識スレッドで取得された画像データを認識し、実オブジェクトの特徴を取得し、これにより、画像データの特徴情報が正常に認識されることを保証するとともに、他のアプリケーションのプロセスやスレッドが中断されることを避ける。
本出願のオプションの実施例において、認識された特徴について、認識された実オブジェクトの特徴が実オブジェクトを認識できる条件を満足することを判断でき、条件は、画像特徴点が認識された場合に、認識された画像特徴点の数が特徴点データ量閾値を超える条件と、生体特徴が認識された場合に、認識された生体特徴の完全性が完成性閾値を超える条件との少なくとも一つを含み、条件を満足すると、後続のステップを実行し、条件を満足しないと、ステップ601に戻り、条件を満足する特徴が取得されるまでとなる。
ユーザが実オブジェクトに関する画像データをキャプチャする場合に、以下の状況のいずれかがあり得る: 1) 暗い光の環境に位置している。2)実オブジェクトは移動状態である。3)カメラは移動状態である。4)実オブジェクトの特徴部分が遮蔽され、例えば、ユーザが顔を撮影する場合に、顔のほとんどが遮蔽される。上記の場合のいずれかが発生した場合、取得された特徴情報が後続の操作を完了するには不十分であるので、実オブジェクトの特徴でソーシャルネットワークを照会する前に、相応する特徴情報の数又は完整性を判断し、不完全な特徴の照会によるソーシャルネットワークの算出リソースの消費を避けることができる。
例を挙げて、顔認識に目、鼻、口等の顔の特徴が必要であり、目、鼻、口がそれぞれ100以上の特徴点があると仮定すると、ユーザが画像を撮影するときに、撮影の光が過度に暗い、又はユーザとカメラが相対的な移動状態にある、又はユーザの顔のほとんどが遮蔽されるので、撮影された画像は、同じ特徴点と無効な特徴点を除いて、目、鼻、口の特徴点はすべて100未満であり、従って、今回のキャプチャは失敗し、キャプチャを再度行う必要があり、さもなければ、次の操作を実行できる。
ステップ603において、ローカルクライアントは、実オブジェクトの特徴に応じて、ソーシャルネットワークを照会して、実オブジェクトがソーシャルネットワークに属するかどうかを決定し、属すると、ステップ604を実行し、属しないと、ステップ601に戻る。
本出願のオプションの実施例において、実オブジェクトの特徴に応じて、ソーシャルネットワークにおけるサーバで実行される特徴データベースで、当該実オブジェクトの特徴にマッチングするプリセット特徴情報が記憶されているかどうかを照会し、記憶されていると、当該実オブジェクトが当該ソーシャルネットワークに属すると決定し、記憶されていないと、ソーシャルネットワークに属しないと決定する。
例えば、ローカルクライアントがQQクライアントであることを例として、ユーザは、「QQ-AR」機能オプションを選択し、自分又は他のユーザの画像を撮影し、撮影が完了すると、QQクライアントは写真内のユーザの顔に関する特徴情報をキャプチャし、その特徴情報に応じて、ソーシャルネットワークにおいて、当該ユーザの特徴情報が存在するかどうかを探し、ユーザが自分の画像を事前アップロードしていると、ソーシャルネットワークにユーザの顔のプリセット特徴情報が事前に記憶されているため、当該ユーザのプリセット特徴情報を探し出すことができ、当該ユーザが当該ソーシャルネットワークに属すると決定し、ユーザが自分の画像をアップロードしていないと、当該ユーザがソーシャルネットワークに属していないと決定する。
ソーシャルネットワークにおける各種の実オブジェクトは、ソーシャルネットワークの登録ユーザを含むだけでなく、ソーシャルネットワークにおける被共有オブジェクト、例えば、製品等の様々な物品も含むことができ、特徴データベースに記録されている対応する特徴によりソーシャルネットワークを照会し、例えば、登録ユーザの顔の特徴、被共有オブジェクトのテクスチャ機能、及びグラフィックコード等によりソーシャルネットワークの特徴データベースを照会し、このようにすれば、照会結果に応じて、次の2つのシーンに分けることができる。
シーン1:照会されたオブジェクトのタイプは、ソーシャルネットワークの登録ユーザである
本出願のオプションの実施例において、実オブジェクトの特徴でソーシャルネットワークの特徴データベースを照会し、実オブジェクトがソーシャルネットワークの登録ユーザの特徴とマッチングする場合に、実オブジェクトがソーシャルネットワークに属する登録ユーザであると決定する。
例えば、ローカルクライアントのユーザが自身又は他のユーザの画像を撮影する場合に、ローカルクライアントによって取得されたのは人間に関する画像データであり、画像データ内の特徴に応じてネットワークにおける特徴データベースを照会し、特徴データに画像データのユーザに関する画像が予め記憶されていると、当該ユーザがソーシャルネットワークに属する登録ユーザであると決定し、ソーシャルネットワークの登録ユーザのIDを取得することができる。
なお、特徴データベースには未登録ユーザの画像特徴が記憶されず、登録ユーザの画像特徴が事前に記憶されているので、特徴データベースにユーザの画像データの特徴が記憶されているかどうかによって、ユーザがソーシャルネットワークの登録ユーザであるかどうかを判断することができる。
シーン2:照会されたオブジェクトのタイプは、ソーシャルネットワーク内の被共有オブジェクトである
本出願のオプションの実施例において、実オブジェクトの特徴でソーシャルネットワークの特徴データベースを照会し、実オブジェクトがソーシャルネットワークの被共有オブジェクトの特徴とマッチングする場合に、実オブジェクトがソーシャルネットワークの被共有オブジェクトであると決定する。
例えば、ユーザが実オブジェクトを撮影し、例えば、製品又は景物を撮影し、クライアントによって取得されるのは実オブジェクトに関する画像データであり、実オブジェクトに関する特徴情報、例えば、製品QRコード(登録商標)又は景物輪郭等の特徴を取得し、次に、取得された特徴に応じてネットワークにおける特徴データベースを照会し、特徴データに実オブジェクトにマッチングする被共有オブジェクトの画像が予め記憶されていると、実オブジェクトがソーシャルネットワークの被共有オブジェクトであると決定し、ソーシャルネットワークにおける被共有オブジェクトのIDを取得することができ、ソーシャルネットワークにおける共有されるものについての関連コンテンツは、IDに基づいて照会して得ることをサポートする。
照会されるオブジェクトのタイプが被共有オブジェクトである場合に、一つの一般的な適用は、ユーザがソーシャルネットワークにおけるあるユーザによって共有された製品を見たが、どこで購入するか分からない場合に、そのQRコード(登録商標)又はバーコードをスキャンするだけでよく、スキャンが完了した後、画像処理装置のスクリーン又はHMDにARの方式で購入できる店舗及び店舗のアドレスを一緒に表示することができ、なお、アドレス情報は実際のアドレスであってもよいし、ホームページアドレス、例えば、電子商取引のネットワークアドレスであってもよく、これにより購入可能である。
ステップ604において、ローカルクライアントはソーシャルネットワークから実オブジェクトに適応する拡張現実モデルを取得する。
本出願のオプションの実施例において、実オブジェクトがソーシャルネットワークにおける登録ユーザである場合に、登録ユーザがソーシャルネットワークに予め設置した拡張現実モデルにおける仮想オブジェクトを取得し、仮想オブジェクトは、装飾效果を実現でき、例えば、仮想アイテム、仮想背景及びフィルターの少なくとも一つを含む。ここで、上記のフィルターは、内部フィルター、内蔵フィルター、又は外部フィルターであってもよく、もちろん、仮想オブジェクトは情報展示の效果を実現でき、例えば、ソーシャルネットワーク内のユーザの名刺、共有される情報インデックス等を展示できる。
例えば、ソーシャルネットワークのサーバにおいて、ユーザの顔特徴の認識及びマッチングにより、ソーシャルネットワークにおける当該ユーザ顔特徴にマッチングする画像を探し出し、マッチングした画像により、対応するソーシャルネットワークにおけるIDを取得し、IDに従って、関連する拡張現実モデルを適応する拡張現実モデルとして探し出し、ソーシャルネットワークの登録ユーザの拡張現実モデルは、ネットワークによってランダムに割り当てられる、少なくとも登録ユーザを表示するために用いられる個人名刺に関してもよく、ユーザに従ってパーソナライゼーションの設置を実現してもよい。
本出願のオプションの実施例において、実オブジェクトがソーシャルネットワークにおける被共有オブジェクトである場合に、ソーシャルネットワークにおける被共有オブジェクト対する仮想オブジェクトを取得し、仮想オブジェクトは、ソーシャルネットワークにおける被共有オブジェクト対する記事、ソーシャルネットワークにおける被共有オブジェクトに対する広告の少なくとも一つを含む。
例えば、ユーザが好きな製品、又は美しい観光地を見つけたが、当該製品又は景物に関する関連情報を知らない場合に、ユーザは「QQ-AR」を通じて製品又は景物を狙うことができ、そして、画面に製品又は景物をスキャンしているアニメーションが表示され、そして、アニメーションが終了すると、製品又は景物のスキャンが成功したことを表し、次に、製品の包装、外観、バーコード、QRコード(登録商標)等の情報に基づいて、それに関連する記事や広告、又は製品を購入する店舗とアドレスを探し出し、あるいは、景物の特徴、外観、地理的位置等の情報に基づいて、それに関連する記事や広告を探し出す。
本出願のオプションの実施例において、拡張現実モデルの取得については、ローカルクライアントのバッファに拡張現実モデルをバッファリングする技術案を提供し、例えば、ローカルクライアントのユーザについて、ソーシャルネットワークは潜在的な友人や、興味があるユーザ又は製品を算出し、対応する拡張現実モデルをローカルクライアントに事前にプッシュしてバッファリングし、仮想オブジェクトのレンダリング速度を加速させ、遅延を避ける。
従って、拡張現実モデルを照会するローカルバッファ、ソーシャルネットワークの優先度のソートに応じて、以下の二つの異なる照会結果に係る。
方式1:ホストデバイスのバッファ又はデータベースに記憶される。
本出願のオプションの実施例において、ソーシャルネットワークから実オブジェクトに適応する拡張現実モデルを取得する前に、まず、クライアントのバッファ又はホストデバイスのデータベースにおいて、ソーシャルネットワークにおける実オブジェクトのIDで、実オブジェクトに適応する拡張現実モデルを照会し、このようにすれば、ローカルクライアントに既に対応する拡張現実モデルが記憶されている場合について、毎回ソーシャルネットワークに要求する必要はなく、拡張現実モデルにおける仮想オブジェクトのレンダリング速度を加速させ、遅延を最大限に減少することができる。
例えば、ユーザは、「QQ-AR」を通じて自身を狙って画像、又は一部のビデオを撮影した後、ユーザ自身の顔特徴パラメータを取得し、クライアントは、当該特徴パラメータに応じてバッファにおいて以前に使用された拡張現実モデル、例えば、設置されたパーソナライゼーションAR装飾がバッファリングされているかどうかを照会し、バッファリングされていると、バッファから当該拡張現実モデルを取得し、このようにすれば、拡張現実モデルを取得する効率を向上させる。
方式2:ソーシャルネットワークサーバに記憶される
ローカルクライアントのホストデバイスのバッファとデータベースとで実オブジェクトの拡張現実モデルが照会されなかった場合、実オブジェクトのIDでソーシャルネットワークのサーバにおいて実オブジェクトを記憶する拡張現実モデルを照会する。
ステップ605において、ローカルクライアントは、取得した画像データに応じてレンダリングする。
ステップ606において、ローカルクライアントは、レンダリングして形成された画像内の実オブジェクトの位置に応じて、拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される実オブジェクトと仮想オブジェクトとを形成する。
ここで、表示の方式の違いによって、以下の二つの場合に分けることができる。
方式1:スマートフォン、コンピュータ等のデバイス
ソーシャルネットワークのインスタントメッセージング通信シーンでは、スマートフォンやコンピュータ等のデバイスにインストールされているクライアントが拡張現実モデルを取得すると、拡張現実モデルと、インスタントメッセージング通信で伝送される画像データにキャリアされる実オブジェクトとを合成し、合成されたビデオ又は画像の方式でスマートフォンのスクリーン又はコンピュータのスクリーンに表示する。
方式2:HMDのVRメガネを設置する
VRメガネは、ビデオ合成技術の透過型のHMDの表示方式に基づいて、カメラにより現実世界のビデオ又は画像を取得し、次に、発生した又は取得した仮想オブジェクトと、当該現実世界のビデオ又は画像とを合成し、相応するレンダリングを行い、次に、HMDを通じてディスプレイに表示する。
レンダリング中に、拡張現実モデルの仮想オブジェクトと実オブジェクトとの間の位置関係を考慮する必要があり、以下、例を挙げて説明する。
1)図7に示すように、ユーザは、ローカルクライアントを通じてソーシャルネットワークの他のユーザとビデオチャットを行い、ピアクライアントの画像データ(他のユーザの映像がキャリアされている)を受信し、ローカルクライアントは画像データに対して顔特徴認識71を行い、ユーザがソーシャルネットワークの登録ユーザであると認識し、ソーシャルネットワークにおける当該ユーザが予め設定した拡張現実モデルがAR装飾-ダイビングメガネであると照会し、レンダリング中に、ARメガネ装飾とユーザの目との相対位置に応じて、ダイビングメガネ72を人の目の「目の前」にレンダリングする。
2)図8に示すように、ローカルクライアントは、ホストデバイスの位置する環境に対してビデオキャプチャを行い、環境での人の顔に対して画像データをキャプチャし、顔特徴認識81を行って、ローカルクライアントのユーザがソーシャルネットワークの登録ユーザであると認識し、ソーシャルネットワークを照会して、予定の拡張現実モデルがAR装飾であることを得て、対応する水の波の背景83とダイビングメガネ82とを含み、ダイビングメガネ82、仮想の背景83とユーザの目の相対位置、及び背景83とユーザとの階層関係に応じて、仮想の背景83をユーザの下層にセットし、背景83がユーザを遮蔽することを避ける。
3)図9に示すように、ユーザは、ローカルクライアントのスキャン機能を用いて、ホストデバイスのカメラを呼び出して新しい友人の顔をスキャンし、即ち、環境での人の顔に対して画像データをキャプチャし、顔特徴認識91を行って、新しい友人がソーシャルネットワークの登録ユーザであると認識し、予定の拡張現実モデルがAR装飾であると照会し、AR装飾に応じて、ローカルクライアントの人の顔を表示するインターフェースにおいて、人の顔の位置に応じてウサギの耳92と口を開けた動作93とが追加されたパーソナライゼーションの装飾をレンダリングして合成した後に、ユーザにウサギの耳と口を開けた頭の画像が表示される。
本出願の他のオブジョンの実施例では、画像データがビデオデータ又は一連の写真である場合について、ローカルクライアントは画像データ内の実オブジェクトのポーズ変化を検出し、ここで、ポーズ変化はユーザとクライアント装置との間の相対位置が変化し、又は角度が変化したことであり、なお、角度が変化したことは、ユーザとクライアントとの間のサイドビュー角度、トップビュー角度又はボトムビュー角度が変化したことである。出力された画像内の実オブジェクトの位置に応じて、拡張現実モデルにおけるポーズ変化に適応する仮想オブジェクトをレンダリングして出力し、重畳される実オブジェクトと仮想オブジェクトとを形成し、実オブジェクトと仮想オブジェクトとのシームレスフュージョンの效果を保証する。
ローカルクライアントは、スキャンされた画像データに応じて、ユーザの位置が移動したことを検出し、ローカルクライアントは、HDM又は携帯電話等の装置のARソフトウェア開発キット(SDK、Software Development Kit)を利用して、レンダリングされた実オブジェクトに対してトラッキング、マッチングを行い、即ち、実オブジェクトによって強調された移動、又は、ローカルクライアントと実オブジェクトとの距離、物体角度の変化に伴い、拡張現実モデルに対応するウィジェットと背景も対応するレンダリング変更を行い、これにより、より良い拡張現実の效果を形成する。
現在、多くのIMクライアントは自己ネットワーク仮想キャラクター(Avatar)を設置することをサポートし、チャット中に表現され、図10-1と図10-2に示すように、ユーザが好きな3D Avatarイメージを選択しビデオチャット中に適用することを許可し、頭が動いたり口が開いたりすると、ユーザが選択したAvatarもそれに応じて動作を行う。また、漫画のイメージの装飾があり、例えば、ユーザが、一つの漫画のイメージを選択して仮想世界の自己を代表し、ユーザは、漫画のイメージの衣装と顔等を変更できる。新しい技術の出現により、以上のシーンは、ユーザの要求をよく満足できなくなる。一方、漫画キャラクターは自己と関連性を備えず、若いユーザにとって、自分に漫画のキャラクターのイメージを追加するよりも、ユーザが演じるある漫画のキャラクターの効果を友人に直接見せると、パーソナライズをよりよく表現できる。
本出願の実施例で提供される画像処理方法の技術案は、前述の問題を解決するために使用されてもよく、図11を参照し、図11は、本出願の実施例で提供される画像処理方法の他のオブジョンの実現フローの模式図であり、ソーシャルネットワークには顔認識サーバとソーシャル装飾サーバとが設置され、以下のステップを含む。
ステップ801において、クライアントはキャプチャ動作を行う。
クライアントは、人の顔を含む画像を取得し、画像に対して特徴をキャプチャする操作を行うことで、画像に含まれる特徴点を取得することができる。
例えば、モバイルQQクライアントにおいてスキャン機能を呼び出し、例えば、「+」クリックして「スキャン」を選択し、次に、「QQ-AR」を選択し、顔(ユーザ自身又は他の人)を狙い、スキャンしてもよい。説明の都合上、ここで、スキャンされるユーザをユーザ丙と称する。
ステップ802において、クライアントは、十分な特徴点があるかどうかを判断し、ある場合、ステップ803を実行し、 さもなければ、ステップ802を実行し続ける。
キャプチャ動作の後、キャプチャされた特徴点の量を取得し、特徴点の量が特徴点データ量閾値を超えるかどうかが判断し、超えると、特徴点の量が十分であり、顔のスキャンが成功することを表し、超えないと、特徴点の量が不十分であり、キャプチャを継続する必要があることを表す。
十分な特徴点があるかどうかを判断することは、スクリーンに表示されている一つのスキャン中の正面の顔のアニメーションを観察することができ、通常、アニメーションが終了すると、顔のスキャンが成功したことを表し、成功しなかった場合、スキャンが1秒間停止した後、ステップ802を実行し続ける。
ステップ803において、クライアントは、ローカルにAR装飾のバッファがあるかどうかを検出し、あると、ステップ804を実行し、ないと、ステップ805を実行する。
AR装飾を初めて使用するユーザにとって、クライアントローカルにはローカルに対応するAR装飾バッファがなく、また、撮影されたのが他の人の顔情報である場合に、通常、ローカルに相応するAR装飾バッファがなく、もちろん、実際の適用において、QQクライアントは、バックグラウンドサーバによってプッシュされた他のユーザ(例えば、潜在的な友人や、興味のあるユーザ等)のAR装飾を受信でき、ユーザはオフラインソーシャルネットワーキングの際に潜在的なユーザに会って、QQクライアントを用いてスキャンすると、すぐにAR装飾を取得し、バックグラウンドサーバを照会する必要がないため、遅延を最大限に減少する。
ステップ804において、クライアントはARピクチャ又はビデオを表示する。
ここで、ARピクチャ又はビデオは、AR装飾と、ユーザによって撮影された画像との合成ピクチャ、AR装飾と、ユーザによって撮影されたビデオとの合成ビデオである。クライアントはAR装飾を取得した後に、AR装飾をユーザによって撮影された画像又はビデオと合成して、ARピクチャ又はビデオを取得し、ARピクチャ又はビデオにおいてユーザに装飾を追加する効果を実現する。
ステップ805において、クライアントは写真を顔認識サーバにアップロードする。
ローカルライブラリで相応するAR装飾を見つからないと、顔認識サーバで顔認識を行う必要があり、認識結果に応じて、顔認識サーバに記憶されている画像とマッチング操作を行う。
ステップ806において、顔認識サーバは、マッチングが成功したことを認識する。
当該顔認識サーバにマッチングする画像があると、マッチングが成功したことを表し、当該顔認識サーバにユーザ丙の画像を記憶しており、ユーザ丙がソーシャルネットワークにおける登録ユーザであることを説明する。
ステップ806に進み、二つのシーンがあり、シーン1は、ユーザ丙がクライアントを使用するユーザ自身であり、AR装飾を設置していない。シーン2は、ユーザ丙が別の人である。
ステップ807において、顔認識サーバはソーシャルネットワークアカウントを取得する。
ここで、ソーシャルネットワークアカウントはQQ番号であってもよいし、WeChat番号又は他のIMアカウントであってもよい。
ソーシャル装飾サーバは、各ソーシャルネットワークアカウントに対応するパーソナライゼーションの装飾を記憶し、顔認識サーバは登録ユーザを認識した後に、登録ユーザのソーシャルネットワークアカウントを取得し、取得されたソーシャルネットワークアカウントは、ソーシャル装飾サーバがソーシャルネットワークアカウントによりパーソナライゼーションの装飾をプルするために用いられる。
ステップ808において、顔認識サーバはソーシャル装飾サーバに、パーソナライゼーションの装飾モデルをプルする要求を送信する。当該要求は取得されたソーシャルネットワークアカウントを携帯する。
ステップ809において、ソーシャル装飾サーバは、パーソナライゼーションの装飾モデルをプルする。
シーン1である場合、ユーザ丙は、クライアントを使用するユーザ自身であり、AR装飾を設置していない。
ここで、顔認識サーバは、ソーシャル装飾サーバからパーソナライゼーションの装飾モデルを取得し、次に、ソーシャル装飾サーバによりクライアントに相応するパーソナライゼーションの装飾モデルを推薦する。
シーン2である場合に、ユーザ丙は他の人である。
ここで、ユーザ丙がAR装飾を設置していると、顔サーバはソーシャル装飾サーバからユーザ丙によって設置されたAR装飾を取得し、次に、ソーシャル装飾サーバによりクライアントに相応するパーソナライゼーションの装飾モデルを推薦する。ユーザ丙がAR装飾を設置していないと、この操作は終了する。
ステップ810において、パーソナライゼーションの装飾モデルをクライアントに送信する。
ステップ811において、クライアントは、ローカルARSDKに応じて、モデルをロードする。
ここで、ユーザが移動するとき、クライアントは、HDM、携帯電話等の装置のAR SDKを利用して、表示されるコンテンツとグラフィックスとをトラッキング、マッチングし、パーソナライゼーションの装飾がユーザの移動に伴ってレンダリングされ、変化されるようにし、これにより、より良い拡張現実の效果を形成する。
前述の実現を通じて、例えば、ローカルクライアントがQQクライアントであることを例として、以下の典型的なシーンに適用され得る。
シーン1:オンラインソーシャルネットワーキング-インスタントビデオチャット中で、AR装飾を実現する
ローカルクライアントのユーザは、インスタントメッセージング(QQ、WeChat等を含む)を使用してピアユーザ(例えば、親戚や友人)とビデオチャットする際に、ユーザがローカルクライアントでカメラを呼び出してビデオ又は画像をリアルタイムで撮影することで、実オブジェクトについてのビデオ又は画像のパラメータを取得し、パーソナライゼーションを強調し、チャットの雰囲気を盛り上げるために、ビデオ又は画像を撮影する前に (ビデオ又は画像の撮影中であってもよい)実オブジェクトに相応する仮想オブジェクト、例えば、パーソナライゼーションの装飾と仮想背景とを追加する。ピアクライアントのユーザにとって、当該ユーザはカメラを使用してビデオ又は写真の撮影を実施する場合に、ローカルユーザと同様に、撮影されたビデオ又はピクチャを装飾するか、撮影されたビデオ又は写真をローカルユーザに直接伝送して、ローカルユーザが上記の装飾操作を実行してもよい。
もちろん、上記のAR装飾は、ソーシャルネットワークにおけるユーザの他の情報、例えば、個人名刺に置き換えることができ、ソーシャルネットワークのアカウントや、グラフィックコード等を含む。
シーン2:オンラインソーシャルネットワーキング-ビデオ伝送プロセスにおいてAR装飾を実現する
ローカルユーザは、インスタントメッセージング(QQ、WeChat等を含む)を使用してピアユーザ(例えば、親戚や友人)とビデオチャットする際に、ユーザの両方は、面白くて素敵だと思うビデオ又は写真を相手に送る可能性があり、 例えば、ローカルユーザ(又はピアユーザ)が食事の写真を撮影した後、インスタントメッセージングクライアントは当該写真内の実オブジェクトの特徴を認識し、認識された特徴に応じて、対応する装飾をマッチングし、次に、その写真の上に、マッチングした装飾を追加してからをピアユーザ(又はローカルユーザ)に送信する。
シーン3:オフラインソーシャルネットワーキング-クライアントが他のユーザをスキャンする
ローカルクライアント、例えば、モバイルQQのユーザは、クライアントの「スキャン」オプションをクリックし、次に「QQ-AR」を選択して、スキャンされるユーザの顔を狙い、次に、スクリーンに、スキャンしている実オブジェクトに関するアニメーションを表示する。アニメーションが終了すると、スキャンが成功したことを表し、つまり、キャプチャされた画像データから環境での実オブジェクトの特徴を認識し、ソーシャルネットワークから特徴に基づいて、対応するIDを照会して、照会されたIDに応じて、ユーザが予め設置したAR装飾をローカルクライアントにプルし、スキャンされた顔の上に装飾の効果を即時に形成する。
シーン4:オフラインソーシャルネットワーキング-クライアントがユーザ自身をスキャンする。
ローカルクライアント、例えば、モバイルQQのユーザは「QQ-AR」を通じて、カメラを用いて自分の顔を狙い、その後、スクリーンに顔をスキャンしているアニメーションが表示され、アニメーションが終了すると、顔のスキャンが成功したことを表す。スクリーンの下側に少なくとも一つのパーソナライゼーションの装飾を表示し、ユーザは、好きなパーソナライゼーションの装飾を選択した後、パーソナライゼーションの装飾はスクリーンに適用される。さらに、パーソナライゼーションの装飾は仮想アイテム、仮想背景及びフィルター等であってもよく、仮想アイテムは帽子、メガネ又は他の顔ウィジェット等であってもよい。ユーザがパーソナライゼーションの装飾をアップロードすることをクリックして決定すると、ユーザの顔写真とパーソナライゼーションのAR装飾とがそれぞれサーバにアップロードされ、ユーザのQQ番号とバインドする。
結論として、本出願の実施例は、以下の有益な効果を達成する。
1)画像データから特徴を認識しソーシャルネットワークを照会する形態によれば、ソーシャルネットワークの任意のシーンにおける画像データについて、ソーシャルネットワークに属する実オブジェクトを迅速に認識でき、相応するシーンで、ソーシャルネットワークにおける実オブジェクトに適応する拡張現実効果をフュージョンすることができる。
2)ソーシャルネットワークにおいて異なる実オブジェクトに対する拡張現実モデルは、多様化の特性、例えば、必要に応じて、ARの形式の装飾、ソーシャル名刺等を有し、これにより、画像データのレンダリングに適用される場合に、異なるオブジェクトの差別化の表示效果を実現する。
3)仮装装飾と相手の人物とを結合することで、ユーザに一つの新しい汎社会的なトピックエントリポイントを提供し、オフラインソーシャルネットワーキングからオンラインソーシャルネットワーキングへのシームレスなアクセスに有益である。
4)クライアントは、状況に応じて、ローカル又はサーバの認識サービスを呼び出すことで、画像データから特徴を認識し、遅延を減らし、実オブジェクトと仮想オブジェクトの同期表示を実現することは有益である。
5) 優先的にクライアントのホストデバイスで拡張現実モデルを照会する方式によれば、クライアントが拡張現実モデルをローカルに事前に保存した場合については、クライアントに仮想オブジェクトを即時に表示することを実現し、ネットワークによる実オブジェクトと仮想オブジェクトの非同期表示の問題を避けることができる。
6)画像データから認識した特徴の完全度合いに応じて、ソーシャルネットワークに拡張現実モデルを要求するかどうかを決定し、ソーシャルネットワークのバックグラウンドの無効なコンピューティングを避け、ソーシャルネットワークの算出リソースを効果的に削減する。
以上の開示は、本出願の好適な実施例に過ぎず、本出願の保護範囲を限定するものではない。本出願の精神と範囲で行われるいかなる修正、同等の置換、及び改善等は本出願の保護範囲に含まれるものとする。
100 画像処理装置
101 プロセッサ
102 メモリ
103 ディスプレイコンポーネント
104 通信インターフェース
105 カメラ
210 認識モジュール
220 照会モジュール
230 モデルモジュール
240 レンダリングモジュール
1021 クライアント
1022 オペレーティングシステム
1023 データベース

Claims (21)

  1. 画像処理装置に適用される画像処理方法であって、
    取得した画像データから、環境における実オブジェクトの特徴を認識することと
    前記実オブジェクトの特徴でソーシャルネットワークを照会し、前記実オブジェクトが前記ソーシャルネットワークの属性を有するかを決定することであって
    前記実オブジェクトの特徴で前記ソーシャルネットワークの特徴データベースを照会することと、
    前記実オブジェクトが前記ソーシャルネットワークの登録ユーザの特徴とマッチングする場合に、前記実オブジェクトが前記ソーシャルネットワークの登録ユーザ属性を有すると決定することと、
    前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクトの特徴とマッチングする場合に、前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクト属性を有すると決定することとを含む、ことと、
    前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得することと
    取得した画像データに応じて、レンダリングすることと
    レンダリングして形成した画像内の前記実オブジェクトの位置に応じて、前記拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される前記実オブジェクトと前記仮想オブジェクトとを形成することを含むことを特徴とする方法。
  2. 前記した取得した画像データから、環境における実オブジェクトの特徴を認識することは、
    前記ソーシャルネットワークにおけるピアクライアントが環境をキャプチャして伝送した画像データを受信し、受信した画像データから、ピアクライアントの環境にある実オブジェクトの特徴を認識し、
    及び/又は、
    環境をキャプチャして画像データを形成し、キャプチャして形成した画像データから、ローカルクライアントの環境にある実オブジェクトの特徴を認識することを含むことを特徴とする請求項1に記載の方法。
  3. 前記したキャプチャして形成した画像データから、ローカルクライアントの環境にある実オブジェクトの特徴を認識することは、
    前記ソーシャルネットワークにおけるピアクライアントと通信する場合に、ローカルクライアント環境をキャプチャして前記ピアクライアントに伝送するための画像データを形成し、キャプチャされた画像データから、ローカルクライアント環境における実オブジェクトの特徴を認識し、
    又は、
    前記ローカルクライアントのキャプチャ動作に応答する場合に、ローカルクライアント環境をキャプチャして画像データを形成し、キャプチャされた画像データから、ローカルクライアント環境における実オブジェクトの特徴を認識することを含むことを特徴とする請求項2に記載の方法。
  4. 前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得する前に、
    認識された実オブジェクトの特徴がソーシャルネットワークの認識できる条件を満足するかを判断することをさらに含み、
    前記条件は、
    画像特徴点が認識された場合に、認識された画像特徴点の数が特徴点データ量の閾値を超える条件と、
    生体特徴が認識された場合に、認識された生体特徴の完全性が完成性閾値を超える条件との少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  5. 前記した前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得することは、
    前記実オブジェクトが、前記ソーシャルネットワークにおける登録ユーザである場合に、前記登録ユーザが前記ソーシャルネットワークに予め設置した仮想アイテム、仮想背景、及びフィルターの少なくとも一つを含む仮想オブジェクトを取得し、
    前記実オブジェクトが、前記ソーシャルネットワークの被共有オブジェクトの属性を有する場合に、前記ソーシャルネットワークにおける前記被共有オブジェクトに対する仮想オブジェクトを取得し、前記仮想オブジェクトは、前記ソーシャルネットワークにおける前記被共有オブジェクトに対する記事と、前記ソーシャルネットワークにおける前記被共有オブジェクトに対する広告との少なくとも一つを含むことを特徴とする請求項1に記載の方法。
  6. 前記した取得した画像データから、環境における実オブジェクトの特徴を認識することは、
    サーバの認識サービスを呼び出し、取得した画像データから、環境における実オブジェクトの特徴を認識し、
    又は、
    画像認識スレッドを開始し、開始した画像認識スレッドで、取得した画像データを認識し、環境における実オブジェクトの特徴を得ることを含むことを特徴とする請求項1に記載の方法。
  7. 前記したレンダリングして形成した画像内の前記実オブジェクトの位置に応じて、前記拡張現実モデルにおける仮想オブジェクトをレンダリングすることは、
    前記画像データ内の前記実オブジェクトのポーズ変化を検出し、
    出力された画像内の実オブジェクトの位置に、前記拡張現実モデルにおいて前記ポーズ変化に適応する仮想オブジェクトをレンダリングし出力することを含むことを特徴とする請求項1に記載の方法。
  8. 前記した前記ソーシャルネットワークから前記実オブジェクトに適応する拡張現実モデルを取得することは、 ローカルクライアントで、前記実オブジェクトに適応する拡張現実モデルを照会し、
    ローカルクライアントで見つからないと、前記ソーシャルネットワークから、前記実オブジェクトに適応する拡張現実モデルを照会して得ることを含むことを特徴とする請求項1に記載の方法。
  9. 画像処理装置であって、
    取得した画像データから、環境における実オブジェクトの特徴を認識するための認識モジュールと、
    前記実オブジェクトの特徴で、ソーシャルネットワークを照会し、前記実オブジェクトが前記ソーシャルネットワークの属性を有するかを決定するための照会モジュールであって、前記照会モジュールが、
    前記実オブジェクトの特徴で前記ソーシャルネットワークの特徴データベースを照会し、
    前記実オブジェクトが前記ソーシャルネットワークの登録ユーザの特徴とマッチングする場合に、前記実オブジェクトが前記ソーシャルネットワークの登録ユーザ属性を有すると決定し、
    前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクトの特徴とマッチングする場合に、前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクト属性を有すると決定する、照会モジュールと、
    前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得するためのモデルモジュールと、
    取得した画像データに応じてレンダリングし、レンダリングして形成した画像内の前記実オブジェクトの位置に応じて、前記拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される前記実オブジェクトと前記仮想オブジェクトとを形成するためのレンダリングモジュールとを含むことを特徴とする装置。
  10. 前記認識モジュールは、具体的に、
    前記ソーシャルネットワークにおけるピアクライアントが環境をキャプチャして伝送した画像データを受信し、受信した画像データから、ピアクライアントの環境にある実オブジェクトの特徴を認識し、
    及び/又は、
    環境をキャプチャして画像データを形成し、キャプチャして形成した画像データから、ローカルクライアントの環境にある実オブジェクトの特徴を認識することを特徴とする請求項に記載の装置。
  11. 前記認識モジュールは、具体的に、
    前記ソーシャルネットワークにおけるピアクライアントと通信する場合に、ローカルクライアント環境をキャプチャして前記ピアクライアントに伝送するための画像データを形成し、キャプチャされた画像データから、ローカルクライアント環境における実オブジェクトの特徴を認識し、
    又は、
    前記ローカルクライアントのキャプチャ動作に応答する場合に、ローカルクライアント環境をキャプチャして画像データを形成し、キャプチャされた画像データから、ローカルクライアント環境における実オブジェクトの特徴を認識することを特徴とする請求項10に記載の装置。
  12. 前記認識モジュールは、さらに、前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得する前に、認識された実オブジェクトの特徴がソーシャルネットワークの認識できる条件を満足するかを判断し、
    前記条件は、
    画像特徴点が認識された場合に、認識された画像特徴点の数が特徴点データ量の閾値を超える条件と、
    生体特徴が認識された場合に、認識された生体特徴の完全性が完成性閾値を超える条件との少なくとも一つを含むことを特徴とする請求項に記載の装置。
  13. 画像処理装置であって、
    実行可能なプログラムを記憶するためのメモリと、
    前記メモリに記憶されている実行可能なプログラムを実行する場合に、以下の動作を実現するプロセッサとを含んでおり、
    取得した画像データから、環境における実オブジェクトの特徴を認識することと
    前記実オブジェクトの特徴でソーシャルネットワークを照会し、前記実オブジェクトが前記ソーシャルネットワークの属性を有するかを決定することであって
    前記実オブジェクトの特徴で前記ソーシャルネットワークの特徴データベースを照会し、
    前記実オブジェクトが前記ソーシャルネットワークの登録ユーザの特徴とマッチングする場合に、前記実オブジェクトが前記ソーシャルネットワークの登録ユーザ属性を有すると決定し、
    前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクトの特徴とマッチングする場合に、前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクト属性を有すると決定する、決定することと、
    前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得することと
    取得した画像データに応じてレンダリングすることと
    レンダリングして形成した画像内の前記実オブジェクトの位置に応じて、前記拡張現実モデルにおける仮想オブジェクトをレンダリングすることで、一緒に表示される前記実オブジェクトと前記仮想オブジェクトとを形成することとを含むことを特徴とする装置。
  14. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    前記ソーシャルネットワークにおけるピアクライアントが環境をキャプチャして伝送した画像データを受信し、受信した画像データから、ピアクライアントの環境にある実オブジェクトの特徴を認識し、
    及び/又は、
    環境をキャプチャして画像データを形成し、キャプチャして形成した画像データから、ローカルクライアントの環境にある実オブジェクトの特徴を認識することを特徴とする請求項13に記載の装置。
  15. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    前記ソーシャルネットワークにおけるピアクライアントと通信する場合に、ローカルクライアント環境をキャプチャして前記ピアクライアントに伝送するための画像データを形成し、キャプチャされた画像データから、ローカルクライアント環境における実オブジェクトの特徴を認識し、
    又は、
    前記ローカルクライアントのキャプチャ動作に応答する場合に、ローカルクライアント環境をキャプチャして画像データを形成し、キャプチャされた画像データから、ローカルクライアント環境における実オブジェクトの特徴を認識することを特徴とする請求項14に記載の装置。
  16. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    前記ソーシャルネットワークにおける前記実オブジェクトに適応する拡張現実モデルを取得する前に、
    認識された実オブジェクトの特徴がソーシャルネットワークの認識できる条件を満足するかを判断し、
    前記条件は、
    画像特徴点が認識された場合に、認識された画像特徴点の数が特徴点データ量の閾値を超える条件と、
    生体特徴が認識された場合に、認識された生体特徴の完全性が完成性閾値を超える条件との少なくとも一つを含むことを特徴とする請求項13に記載の装置。
  17. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    前記実オブジェクトが前記ソーシャルネットワークにおける登録ユーザである場合に、前記登録ユーザが前記ソーシャルネットワークに予め設置した仮想アイテム、仮想背景及びフィルターの少なくとも一つを含む仮想オブジェクトを取得し、
    前記実オブジェクトが前記ソーシャルネットワークの被共有オブジェクトの属性を有する場合に、前記ソーシャルネットワークにおける前記被共有オブジェクトに対する仮想オブジェクトを取得し、前記仮想オブジェクトは、前記ソーシャルネットワークにおける前記被共有オブジェクトに対する記事と、前記ソーシャルネットワークにおける前記被共有オブジェクトに対する広告との少なくとも一つを含むことを特徴とする請求項13に記載の装置。
  18. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    サーバの認識サービスを呼び出し、取得した画像データから、環境における実オブジェクトの特徴を認識し、
    又は、
    画像認識スレッドを開始し、開始した画像認識スレッドで、取得した画像データを認識し、環境における実オブジェクトの特徴を得ることを特徴とする請求項13に記載の装置。
  19. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    前記画像データ内の前記実オブジェクトのポーズ変化を検出し、
    出力された画像内の実オブジェクトの位置に、前記拡張現実モデルにおける前記ポーズ変化に適応する仮想オブジェクトをレンダリングし出力することを特徴とする請求項13に記載の装置。
  20. 前記プロセッサは、さらに、前記実行可能なプログラムを実行する場合に、以下の動作を実現し、
    ローカルクライアントで前記実オブジェクトに適応する拡張現実モデルを照会し、
    ローカルクライアントで見つからないと、前記ソーシャルネットワークから、前記実オブジェクトに適応する拡張現実モデルを照会して得ることを特徴とする請求項13に記載の装置。
  21. プロセッサにより実行される場合に、請求項1~のいずれか一項に記載の画像処理方法を実現する実行可能なプログラムが記憶されていることを特徴とする記憶媒体。
JP2020505230A 2017-08-04 2018-08-01 画像処理方法、装置及記憶媒体 Active JP7098120B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710661746.0A CN108305317B (zh) 2017-08-04 2017-08-04 一种图像处理方法、装置及存储介质
CN201710661746.0 2017-08-04
PCT/CN2018/097860 WO2019024853A1 (zh) 2017-08-04 2018-08-01 一种图像处理方法、装置及存储介质

Publications (2)

Publication Number Publication Date
JP2020529084A JP2020529084A (ja) 2020-10-01
JP7098120B2 true JP7098120B2 (ja) 2022-07-11

Family

ID=62872576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505230A Active JP7098120B2 (ja) 2017-08-04 2018-08-01 画像処理方法、装置及記憶媒体

Country Status (6)

Country Link
US (2) US11182615B2 (ja)
JP (1) JP7098120B2 (ja)
KR (1) KR102292537B1 (ja)
CN (1) CN108305317B (ja)
TW (1) TWI708152B (ja)
WO (1) WO2019024853A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
KR101988319B1 (ko) * 2013-09-09 2019-06-12 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN108305317B (zh) * 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) * 2018-05-07 2019-08-06 Apple Inc. Creative camera
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
CN109165571B (zh) 2018-08-03 2020-04-24 北京字节跳动网络技术有限公司 用于插入图像的方法和装置
CN109040824B (zh) * 2018-08-28 2020-07-28 百度在线网络技术(北京)有限公司 视频处理方法、装置、电子设备和可读存储介质
US10573057B1 (en) * 2018-09-05 2020-02-25 Citrix Systems, Inc. Two-part context-based rendering solution for high-fidelity augmented reality in virtualized environment
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
WO2020056689A1 (zh) * 2018-09-20 2020-03-26 太平洋未来科技(深圳)有限公司 一种ar成像方法、装置及电子设备
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11087430B2 (en) * 2018-09-28 2021-08-10 Apple Inc. Customizable render pipelines using render graphs
CN109933788B (zh) * 2019-02-14 2023-05-23 北京百度网讯科技有限公司 类型确定方法、装置、设备和介质
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN112102498A (zh) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 用于将应用虚拟地附接到动态对象并实现与动态对象的交互的系统和方法
JP7221156B2 (ja) 2019-06-28 2023-02-13 富士フイルム株式会社 画像処理システム、画像処理方法及びプログラム
US20220366451A1 (en) * 2019-10-25 2022-11-17 Nec Solution Innovators, Ltd. Display apparatus, event support system, display method, and event support system production method
CN110868635B (zh) * 2019-12-04 2021-01-12 深圳追一科技有限公司 视频处理方法、装置、电子设备及存储介质
CN113496152A (zh) * 2020-03-20 2021-10-12 深圳云天励飞技术有限公司 基于ar眼镜的人脸识别方法、装置、电子设备及存储介质
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
CN111652107B (zh) * 2020-05-28 2024-05-21 北京市商汤科技开发有限公司 对象计数方法及装置、电子设备和存储介质
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
CN111899350A (zh) * 2020-07-31 2020-11-06 北京市商汤科技开发有限公司 增强现实ar图像的呈现方法及装置、电子设备、存储介质
CN112100352B (zh) * 2020-09-14 2024-08-20 北京百度网讯科技有限公司 与虚拟对象的对话方法、装置、客户端及存储介质
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112348889B (zh) * 2020-10-23 2024-06-07 浙江商汤科技开发有限公司 视觉定位方法及相关装置、设备
CN112672185B (zh) * 2020-12-18 2023-07-07 脸萌有限公司 基于增强现实的显示方法、装置、设备及存储介质
TWI801089B (zh) * 2021-01-11 2023-05-01 宏達國際電子股份有限公司 沉浸式系統、控制方法與相關的非暫態電腦可讀取儲存媒體
KR102472115B1 (ko) * 2021-02-04 2022-11-29 (주)스마트큐브 다자간 온라인 업무 협업을 위한 증강현실 기반의 화상회의를 제공하기 위한 장치 및 이를 위한 방법
JP7427786B2 (ja) * 2021-02-09 2024-02-05 北京字跳▲網▼絡技▲術▼有限公司 拡張現実に基づく表示方法、機器、記憶媒体及びプログラム製品
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
TWI768913B (zh) * 2021-05-20 2022-06-21 國立中正大學 眼睛中心定位方法及其定位系統
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
CN113479105A (zh) * 2021-07-20 2021-10-08 钟求明 一种基于自动驾驶车辆的智能充电方法及智能充电站
TWI792693B (zh) * 2021-11-18 2023-02-11 瑞昱半導體股份有限公司 用於進行人物重辨識的方法與裝置
CN116645525B (zh) * 2023-07-27 2023-10-27 深圳市豆悦网络科技有限公司 一种游戏图像识别方法及处理系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130033611A1 (en) 2011-08-01 2013-02-07 Mitac Research (Shanghai) Ltd. Search System of Face Recognition and Method Thereof, Computer Readable Storage Media and Computer Program Product
JP2014532330A (ja) 2011-09-23 2014-12-04 タンゴメ,インコーポレイテッド テレビ会議の強化
JP2015095031A (ja) 2013-11-11 2015-05-18 アルパイン株式会社 情報処理装置およびコメント投稿方法
CN106295504A (zh) 2016-07-26 2017-01-04 车广为 人脸识别基础上的增强显示方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4367424B2 (ja) * 2006-02-21 2009-11-18 沖電気工業株式会社 個人識別装置,個人識別方法
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
JP5237394B2 (ja) * 2009-01-30 2013-07-17 富士通フロンテック株式会社 認証装置、撮像装置、認証方法および認証プログラム
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US20110052012A1 (en) * 2009-03-31 2011-03-03 Myspace Inc. Security and Monetization Through Facial Recognition in Social Networking Websites
WO2012139270A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Face recognition control and social networking
KR101189043B1 (ko) * 2011-04-27 2012-10-08 강준규 영상통화 서비스 및 그 제공방법, 이를 위한 영상통화서비스 제공서버 및 제공단말기
US8332424B2 (en) * 2011-05-13 2012-12-11 Google Inc. Method and apparatus for enabling virtual tags
CN102332095B (zh) * 2011-10-28 2013-05-08 中国科学院计算技术研究所 一种人脸运动跟踪方法和系统以及一种增强现实方法
KR20130063876A (ko) * 2011-12-07 2013-06-17 (주)엘에이치에스지 클라우드 컴퓨팅을 이용한 증강 현실 시스템 및 생성 방법
US9258626B2 (en) * 2012-01-20 2016-02-09 Geun Sik Jo Annotating an object in a video with virtual information on a mobile terminal
CN103368816A (zh) * 2012-03-29 2013-10-23 深圳市腾讯计算机系统有限公司 基于虚拟人物形象的即时通讯方法及系统
WO2014031899A1 (en) * 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
US10027727B1 (en) * 2012-11-21 2018-07-17 Ozog Media, LLC Facial recognition device, apparatus, and method
JP5991536B2 (ja) * 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
CN103544724A (zh) * 2013-05-27 2014-01-29 华夏动漫集团有限公司 一种利用增强现实与卡片识别技术在移动智能终端实现虚拟动漫角色的系统及方法
US9470911B2 (en) * 2013-08-22 2016-10-18 Bespoke, Inc. Method and system to create products
CN103679204A (zh) * 2013-12-23 2014-03-26 上海安琪艾可网络科技有限公司 基于智能移动设备平台的图像识别与创作应用系统及方法
EP3097545A4 (en) * 2014-01-22 2017-07-19 Speakeasy, Inc. Systems and methods of socially-driven product offerings
KR20150126289A (ko) * 2014-05-02 2015-11-11 한국전자통신연구원 증강현실 기반 소셜 네트워크 서비스 정보를 제공하는 내비게이션 장치와 메타데이터 처리장치 및 그 방법
US20160042557A1 (en) * 2014-08-08 2016-02-11 Asustek Computer Inc. Method of applying virtual makeup, virtual makeup electronic system, and electronic device having virtual makeup electronic system
US9798143B2 (en) * 2014-08-11 2017-10-24 Seiko Epson Corporation Head mounted display, information system, control method for head mounted display, and computer program
DE102014226625A1 (de) * 2014-10-31 2016-05-04 Cortado Ag Verfahren zur Übertragung von Druckdaten, Server und mobiles Endgerät
CN104504423B (zh) * 2014-12-26 2018-02-13 山东泰宝防伪制品有限公司 Ar增强现实立体防伪系统及其方法
CN107004290B (zh) * 2015-01-06 2020-12-15 索尼公司 效果生成装置、效果生成方法以及程序
US9754355B2 (en) * 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
EP4325806A3 (en) * 2015-03-18 2024-05-22 Snap Inc. Geo-fence authorization provisioning
CN104901873A (zh) * 2015-06-29 2015-09-09 曾劲柏 一种基于场景和动作的网络社交系统
WO2017072534A2 (en) * 2015-10-30 2017-05-04 2Mee Ltd Communication system and method
JP6589573B2 (ja) * 2015-11-06 2019-10-16 ブラザー工業株式会社 画像出力装置
US11237629B2 (en) * 2016-02-06 2022-02-01 Maximilian Ralph Peter von und zu Liechtenstein Social networking technique for augmented reality
CN106200917B (zh) * 2016-06-28 2019-08-30 Oppo广东移动通信有限公司 一种增强现实的内容显示方法、装置及移动终端
CN106200918B (zh) * 2016-06-28 2019-10-01 Oppo广东移动通信有限公司 一种基于ar的信息显示方法、装置和移动终端
US20180047200A1 (en) * 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
KR102219304B1 (ko) * 2016-11-07 2021-02-23 스냅 인코포레이티드 이미지 변경자들의 선택적 식별 및 순서화
JP6753276B2 (ja) * 2016-11-11 2020-09-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11635872B2 (en) * 2016-11-22 2023-04-25 Snap Inc. Smart carousel of image modifiers
CN106780757B (zh) * 2016-12-02 2020-05-12 西北大学 一种增强现实的方法
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
GB2560031B (en) * 2017-02-28 2020-05-27 PQ Solutions Ltd Binding data to a person's identity
CN106846237A (zh) * 2017-02-28 2017-06-13 山西辰涵影视文化传媒有限公司 一种基于Unity3D的增强实现方法
JP2019537758A (ja) * 2017-06-12 2019-12-26 美的集団股▲フン▼有限公司Midea Group Co., Ltd. 制御方法、コントローラ、スマートミラー及びコンピュータ読み取り可能な記憶媒体
CN108305317B (zh) * 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
US9980100B1 (en) * 2017-08-31 2018-05-22 Snap Inc. Device location based on machine learning classifications
KR101968723B1 (ko) * 2017-10-18 2019-04-12 네이버 주식회사 카메라 이펙트를 제공하는 방법 및 시스템
US11488359B2 (en) * 2019-08-28 2022-11-01 Snap Inc. Providing 3D data for messages in a messaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130033611A1 (en) 2011-08-01 2013-02-07 Mitac Research (Shanghai) Ltd. Search System of Face Recognition and Method Thereof, Computer Readable Storage Media and Computer Program Product
JP2014532330A (ja) 2011-09-23 2014-12-04 タンゴメ,インコーポレイテッド テレビ会議の強化
JP2015095031A (ja) 2013-11-11 2015-05-18 アルパイン株式会社 情報処理装置およびコメント投稿方法
CN106295504A (zh) 2016-07-26 2017-01-04 车广为 人脸识别基础上的增强显示方法

Also Published As

Publication number Publication date
US20220004765A1 (en) 2022-01-06
KR20200020960A (ko) 2020-02-26
TW201911082A (zh) 2019-03-16
US11182615B2 (en) 2021-11-23
CN108305317B (zh) 2020-03-17
KR102292537B1 (ko) 2021-08-20
US20200285851A1 (en) 2020-09-10
WO2019024853A1 (zh) 2019-02-07
TWI708152B (zh) 2020-10-21
CN108305317A (zh) 2018-07-20
JP2020529084A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7098120B2 (ja) 画像処理方法、装置及記憶媒体
US11861936B2 (en) Face reenactment
US20170032577A1 (en) Real-time virtual reflection
US20090202114A1 (en) Live-Action Image Capture
WO2017137948A1 (en) Producing realistic body movement using body images
CN107533727A (zh) 全息交互式零售系统
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
CN112308977A (zh) 视频处理方法、视频处理装置和存储介质
KR20240125620A (ko) 실시간 상체 의복 교환
CN114779948B (zh) 基于面部识别的动画人物即时交互控制方法、装置及设备
KR20240125621A (ko) 실시간 모션 및 외관 전달
KR20240128015A (ko) 실시간 의복 교환
CN114979789A (zh) 一种视频展示方法、装置以及可读存储介质
US20240249346A1 (en) Adaptive zoom try-on experience
US20240265658A1 (en) Fingernail segmentation and tracking
US20230316665A1 (en) Surface normals for pixel-aligned object
US20240249474A1 (en) Image generation from text and 3d object
WO2023192426A1 (en) Surface normals for pixel-aligned object
CN118536616A (zh) 具有用于合成图像生成的图像编码器的机器学习扩散模型

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220311

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220329

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7098120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150