JP2021516836A - アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム - Google Patents

アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム Download PDF

Info

Publication number
JP2021516836A
JP2021516836A JP2020572602A JP2020572602A JP2021516836A JP 2021516836 A JP2021516836 A JP 2021516836A JP 2020572602 A JP2020572602 A JP 2020572602A JP 2020572602 A JP2020572602 A JP 2020572602A JP 2021516836 A JP2021516836 A JP 2021516836A
Authority
JP
Japan
Prior art keywords
interactive
face
target
frame image
target face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020572602A
Other languages
English (en)
Other versions
JP7026267B2 (ja
Inventor
レイ,シアン
リ,フォン
ション,イドォン
ルゥ,ハオ
ジャン,チェン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021516836A publication Critical patent/JP2021516836A/ja
Application granted granted Critical
Publication of JP7026267B2 publication Critical patent/JP7026267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

アプリケーションシーンにおけるインタラクティブ方法およびモバイル端末ならびに記憶媒体であって、モバイル端末における没入型インタラクティブを実現する。本願の実施例は、モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得すること(201)と、モバイル端末は、前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得すること(202)と、モバイル端末は、前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成すること(203)と、モバイル端末は、前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御すること(204)と、を含むアプリケーションシーンにおけるインタラクティブ方法を提供する。

Description

本願は、2018年08月28日にて中国特許庁へ出願した、出願番号が201810989371.5で、発明の名称が「アプリケーションシーンにおけるインタラクティブ方法および端末ならびに記憶媒体」である中国特許出願に基づく優先権を主張し、その内容を全て参照により本願に組み込むものとする。
本願の実施例は、コンピュータの技術分野に関し、特に、アプリケーションシーンにおけるインタラクティブ方法およびモバイル端末ならびに記憶媒体に関する。
仮想世界を構築し、ユーザに仮想世界を体験させることを可能にするコンピュータシミュレーションシステムは、コンピュータを用いて、マルチ・ソース情報の融合によるインタラクティブ型の3次元動的シーンおよびエンティティ行動のシステムシミュレーションであるシミュレーション環境を生成し、ユーザを該環境に没入させる。
現在、その重要なアプリケーションはモバイル端末ゲームであり、プレイヤーがゲーム内でインタラクティブ操作を行うことを可能にすることが該ゲームの特徴であり、それゆえ、プレイヤーは、指を介して端末のタッチ画面とインタラクティブをする必要がある。従来のモバイル端末ゲームにおいて、ユーザは、依然として指を介してタッチ画面とゲームのインタラクティブをする必要があり、例えば、タッチ画面を指でタップしたり、ハンドルやボタンを指で操作したり、タッチ画面を指でスライドしたりする等の操作によって完成する。
本願の実施例は、モバイル端末における没入型インタラクティブ実現を実現するために、アプリケーションシーンにおけるインタラクティブ方法およびモバイル端末ならびに記憶媒体を提供する。
本願の実施例は、以下の技術案を提供する。
一態様によれば、本願の実施例は、
モバイル端末が実行するアプリケーションシーンのインタラクティブ方法であって、
カメラを介して目標の顔をリアルタイムで撮影することにより、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得するステップと、
前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得するステップと、
前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成するステップと、
前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおける前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するステップと、を含むアプリケーションシーンにおけるインタラクティブ方法を提供する。
他の態様によれば、本願の実施例は、コンピュータで実行されると、コンピュータに上述した方法を実行させる指令を含むコンピュータ読取可能な記憶媒体をさらに提供する。
他の態様によれば、本願の実施例は、1つ又は複数のプロセッサと、プログラムユニットを記憶する1つ又は複数のメモリと、を備え、プログラムユニットは、プロセッサによって実行され、該プログラムユニットは、
カメラを介して目標の顔をリアルタイムで撮影することにより、それぞれ撮影することにより取得した前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得する撮影モジュールと、
前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得する比較モジュールと、
前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成する指令生成モジュールと、
前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するインタラクティブモジュールと、を含む、モバイル端末をさらに提供する。
上述した態様では、モバイル端末の構成モジュールは、上述した一態様および様々な実現可能な実現形態で説明されたステップをさらに実行することができ、詳しくは、上述した一態様および様々な実現可能な実現形態での記載を参照されたい。
他の態様によれば、本願の実施例は、指令を記憶するプロセッサと、メモリにおける指令を実行することで、モバイル端末に上述した一態様におけるいずれかの方法を実行させるメモリと、を備えるモバイル端末をさらに提供する。
本願の実施例では、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、そして、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する。本願の実施例によれば、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブをすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願の実施例の技術案をより明確に説明するために、以下、実際例の説明に使用される必要のある図面を簡単に紹介するが、明らかなように、以下の図面は、あくまでも本願の若干の実施例であり、当業者であれば、これらの図面に基づいてさらに他の図面を取得することができる。
本願の実施例におけるユーザとモバイル端末間のインタラクティブシーン模式図である。 本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。 本願の実施例で提供される他のアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。 本願の実施例で提供される磁気吸引効果の模式図である。 本願の実施例で提供される減衰効果の模式図である。 本願の実施例で提供されるゲームシーンでのインタラクティブ検出フローの模式図である。 本願の実施例で提供されるゲームシーンでのインタラクティブ検出模式図である。 本願の実施例で提供される他のゲームシーンでのインタラクティブ検出模式図である。 本願の実施例で提供される更なるゲームシーンでのインタラクティブ検出模式図である。 本願の実施例で提供されるモバイル端末の構成模式図である。 本願の実施例で提供される比較モジュールの構成模式図である。 本願の実施例で提供される他のモバイル端末の構成模式図である。 本願の実施例で提供される更なるモバイル端末の構成模式図である。 本願の実施例で提供されるインタラクティブモジュールの構成模式図である。 本願の実施例で提供される更なるモバイル端末の構成模式図である。 本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法が端末に適用される構成模式図である。
本願の実施例は、モバイル端末における没入型インタラクティブを実現するために、アプリケーションシーンにおけるインタラクティブ方法および端末ならびに記憶媒体を提供する。
本願の実施例の発明の目的、特徴及びメリットをより明確で分かりやすくするために、以下、本願の実施例中の図面を結合して、本願の実施例の技術案を明瞭かつ完全に説明する。以下で説明される実施例は本願の実施例の一部に過ぎず、全部ではないことは、言うまでもないことである。当業者が本願の実施例に基づいて創造的な労働無しに得られた他の実施例も、全て本願の保護範囲内に含まれる。
本願の明細書及び特許請求の範囲並びに上記図面における用語である「含む」、「有する」及びそれらの如何なる変形は、排他的にならずに含まれたものをカバーすることがその意図であり、これにより、一連のユニットを含めたプロセス、方法、システム、製品又は機器は、これらのユニットに限定される必要がなく、明確に示していなかったりこれらのプロセス、方法、製品又は機器に対して固有であったりする他のユニットを含み取得する。
図1には、本願の実施例で提供されるユーザとモバイル端末間のインタラクティブシーン模式図が示されている。モバイル端末(単に「端末」という)とユーザとがインタラクティブをすることができ、端末は、携帯電話、タブレットコンピュータ、電子書籍リーダー、ムービング・ピクチャー・エクスパーツ・グループ圧縮規格オーディオレイヤー3(Moving Picture Experts Group Audio Layer III、MP3)プレーヤー、ムービング・ピクチャー・エクスパーツ・グループ圧縮規格オーディオレイヤー4(Moving Picture Experts Group Audio Layer IV、MP4)プレーヤー、ラップトップ型携帯コンピュータ及びデスクトップ型コンピュータなどであり取得する。
端末にカメラが備えられ、該カメラは、具体的には、フロントカメラであり取得する。カメラはユーザの顔画像を取得することができる。該端末は、本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法を実行し、既存のモバイル端末の入力によるインタラクティブ方式に対応していると同時に、カメラによってユーザの顔画像を1フレームずつキャプチャし、前後フレームの顔データの比較により、ユーザによる動作および対応する幅を算出し、異なるインタラクティブ型アプリケーションシーンにおける制御指令に対応させ、そして、該制御指令に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現することができる。関連技術に比べると、顔制御の精度および滑らかさを大幅に向上させ、指操作を一切必要としない新しいインタラクティブ方式が可能になっている。該インタラクティブ方式は、没入感の重要視に適用され、画面を指でタッチすることでインタラクティブをする操作は一切必要がなく、インタラクティブ操作を全く顔の表情認識に頼って行うため、ユーザの感情移入を大幅に向上させることができる。
以下、モバイル端末の視点から詳しく説明する。本願によるアプリケーションシーンにおけるインタラクティブ方法の一実施例は、具体的には、顔画像に基づくインタラクティブ検出処理に適用されることができる。図2は、本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。図2に示されるように、本願の一実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法は、以下のステップ201〜ステップ204を含み取得する。
201:モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を取得する。第1フレーム画像および第2フレーム画像は、それぞれ撮影されたた前後隣接する2フレームの画像である。
本願の実施例では、端末にカメラが備えられており、まず、モバイル端末のカメラを初期化し、初期化が完了した後、カメラを起動してカメラの視野に現れた物体画像を取得し、該物体画像がユーザの顔画像と認識された場合、該ユーザの顔を目標の顔としてリアルタイムで撮影し、異なるフレームタイミングで撮影した画像を生成する。本願の実施例では、端末に装着されたカメラは、リアカメラ又はフロントカメラであってもよい。端末は、まず、処理すべき第1フレーム画像および第2フレーム画像を取得し、各フレームの画像は、ユーザの顔をカメラによって撮影した後に生成された顔画像であってもよい。本願の実施例では、顔画像は、フェース画像又は頭部画像などと呼ばれてもよい。
本願の実施例では、カメラは、異なるフレームタイミングでの画像を取得する際に、複数のフレームタイミングでの画像を取得することができる。上記複数のフレームタイミングでの画像を区別するために、カメラが第1フレームタイミングで撮影した画像を第1フレーム画像として定義し、カメラが第2フレームタイミングで撮影した画像を第2フレーム画像として定義し、第1フレーム画像および第2フレーム画像は、カメラが異なるフレームタイミングで撮影した画像を区別するためのものにすぎない。
本願の実施例では、第1フレームタイミングで撮影した第1フレーム画像の特徴点の検出・計算により第1フレーム画像の特徴点を取得することができ、第2フレームタイミングで撮影した第2フレーム画像の特徴点の検出・計算により第2フレーム画像の特徴点を取得することができる。画像の特徴点は、特徴点に基づく画像マッチングアルゴリズムにおいて非常に重要な役割を果たし、画像の特徴点は、画像の本質的な特徴を反映可能であり、画像中の対象物体を識別することができ、特徴点のマッチングにより画像のマッチングを達成することができる。本願の実施例における画像の特徴点は、局所画像特徴点であり取得する。第1フレーム画像および第2フレーム画像の特徴点の抽出は、様々な形態で実現可能であり、例えば、ORB(英語表記:ORiented Binary Robust Independent Elementary Features)特徴点の抽出であってもよく、また、加速ロバスト特徴(Speeded Up Robust Features、SURF)の抽出であってもよく、さらにスケール不変特徴変換(Scale−Invariant Feature Transform、SIFT)に基づく抽出などであってもよい。このため、本願の実施例では、局所画像特徴点は、ORB特徴点、SURF特徴点、SIFT特徴点であり取得する。特徴点の検出により各フレームの画像での顔を認識することができ、例えば、特徴点の検出により顔の五官を認識することができ、これらの五官を顔の位置決め点とすることができる。
本願のいくつかの実施例では、ステップ201では、モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影する前に、本願の実施例で提供される方法は、
モバイル端末は、モバイル端末のタッチ画面にタッチ入力が生じたか否かを検出するステップと、
タッチ画面にタッチ入力が生じていなければ、モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影するステップを実行するようにトリガーするステップと、をさらに含む。
ユーザとモバイル端末間の完全な非接触制御を実現するために、まず、タッチ画面にタッチ入力が生じたか否かを判断し、タッチ画面にタッチ入力が生じていないと判定されていれば、ユーザがモバイル端末の画面を指でタッチしたことがないことが示唆され、この場合、モバイル端末のカメラを起動してユーザの画像を取得させる。
202:モバイル端末は、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を取得する。
本願の実施例では、端末は、前後フレームの顔画像を取得した後、顔画像の前後フレームにおける位置変化によって、目標の顔の動作および該動作に対応する幅を特定することができる。目標の顔の動作とは、端末のカメラで撮影されたユーザ動作を指し、例えば、動作は、顔の上下左右移動であり取得する。幅は、顔動作の移動方向および距離を指す。
例を挙げて説明すると、本願の実施例では、前後フレームの画像の比較により、目標の顔の動作が顔を左右に回転させることであると認識でき、画面における顔の左右移動に対応し、回転幅が画面における移動距離に対応する。また、例えば、前後フレームの画像の比較により、顔の動作が頭を上げたり下げたりすることであると認識でき、画面における顔の上下移動に対応し、移動幅が画面における移動距離に対応する。
本願のいくつかの実施例では、ステップ202では、モバイル端末は、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を取得する前記ステップは、
顔位置決め点が第1フレーム画像に現れる第1画素位置、および、顔位置決め点が第2フレーム画像に現れる第2画素位置を特定するステップと、
第1画素位置と第2画素位置とを比較することにより、第1画素位置と第2画素位置との相対変位を取得するステップと、
第1画素位置和第2画素位置との相対変位に基づいて、目標の顔の動作および対応する幅を特定するステップと、を含む。
本願の実施例では、上述したステップを通じて目標の顔を撮影した複数フレームの画像の顔検出を行った後、画像中の顔位置を出力することができ、カメラで撮影した画像における顔位置は、画素単位である。次に、該顔位置から顔位置決め点を検出し、該顔位置決め点の位置決め点特徴は、予め統計して分類することにより特定されることができ、これにより、顔位置にて予め設定された位置決め点特徴を満たす画素位置が存在するか否かを検出する。顔位置にて該位置決め点特徴を満たす画素位置が存在すれば、顔位置に存在する該位置決め点特徴を満たす画素位置は、顔位置決め点の顔位置における位置決め点位置であると判定される。本願の実施例で使用される顔位置決め点とは、対象オブジェクトの顔位置において、顔位置が回転したか否かを位置きめるための位置きめ基準点である。実際の応用において、顔位置決め点の選択は、顔位置における実現可能な五官特徴に基づいて行われることができる。なお、顔位置決め点は、顔位置におけるある器官が存在する画素位置であってもよいし、複数の器官が存在する画素位置であってもよい。ここでは制限しない。
各フレームの画像ごとに、同一の顔位置決め点が存在する画素位置を検出し、例えば、顔位置決め点が第1フレーム画像に存在する画素位置は第1画素位置と呼ばれ、顔位置決め点が第2フレーム画像に存在する画素位置は第2画素位置と呼ばれる。2フレームの画像における該2つの画素位置を比較することにより、相対変位を特定し、該相対変位に基づいて目標の顔の動作および幅を算出する。例を挙げて以下の通り説明する。顔の上下移動を例として、現在の顔の眉中心座標を前回の眉中心座標データと比較することにより、Y座標が大きくなっていれば、頭を上げることを意味し、Y座標が小さくなっていれば、頭を下げることを意味する。また、顔の左右移動を例として、現在の顔の鼻先座標を前回の鼻先座標データと比較することにより、X座標が大きくなっていれば、左に回転することを意味し、X座標が小さくなっていれば、右に回転することを意味する。さらに、顔の前後移動を例として、現在の顔の左眼の目尻から右眼の目尻までの距離を前回の同一の距離データと比較して大きくなっていれば、顔が前に移動したことを示唆し、該データの比較の結果、小さくなっていれば、顔が後に移動したことを示唆する。また、ユーザのタップを例として、現在の顔の中心点座標を前回の中心点座標データと比較することにより、一定の座標範囲内で一定の時間保っていれば、顔にタップ操作が発生したと判定される。
203:モバイル端末は、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されている。
本願の実施例では、インタラクティブ型アプリケーションシーンは、具体的には、ゲームシーンであってもよいし、アプリケーションプログラムのインタラクティブシーンであってもよい。例を挙げて説明すると、本願の実施例で提供されるインタラクティブ型アプリケーションシーンの処理方法は、ゲームキャラクターのために構築されたシーンに適用されることができれば、ソフトウェアアプリケーションシステムにおいてユーザのために構築されたたシーンに適用されることもできる。本願の実施例で説明したインタラクティブ型アプリケーションシーンにはシミュレーション対象が表示されており、該シミュレーション対象は、ゲームシーンにおけるゲームキャラクターであってもよいし、ゲームシーンにおけるヒーローや兵士であってもよく、例えば、シミュレーション対象は、ストラテジーゲームにおけるユーザが制御している人又はものであり取得するが、ここでは制限しない。インタラクティブ型アプリケーションシーンにシミュレーション対象が表示されるほか、インタラクティブ型アプリケーションシーンにはインタラクティブ可能な物体も表示されており、該インタラクティブ可能な物体とは、インタラクティブ型アプリケーションシーンにおいてシミュレーション対象とインタラクティブ可能な物体を指し、この物体物体は、異なるインタラクティブ型シーンで様々なものであり取得する。例えば、ゲームシーンにおける道具であり取得する。
本願の実施例では、端末は、目標の顔の動作および対応する幅を取得した後、該動作および対応する幅を、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令にマッピングすることができ、該制御指令は「インタラクティブ指令」と呼ばれてもよい。すなわち、ユーザは自分の顔を介して動作し、該動作のタイプおよび幅に応じてシミュレーション対象の制御指令を生成することができ、該制御指令によってシミュレーション対象を制御可能である。
本願のいくつかの実施例では、次に、本願の実施例でインタラクティブ可能な物体のロック方法について説明する。ステップ203では、モバイル端末は、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成した後、本願の実施例で提供される方法は、
モバイル端末は、制御指令に従い、焦点がインタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達したか否かを判定し、焦点は、目標の顔がインタラクティブ型アプリケーションシーンにマッピングされる基準点であるステップと、
シミュレーション対象がインタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達していれば、モバイル端末は、インタラクティブ可能な物体の範囲内からインタラクティブ可能な物体をロックするステップと、をさらに含む。
目標の顔は、インタラクティブ型アプリケーションシーンにおいて1つの焦点がマッピングされており、該焦点は、ユーザの顔がインタラクティブ型アプリケーションシーンにマッピングされる基準点である。まず、該制御指令によって、該焦点がインタラクティブ可能な物体の範囲内であるか否かを判定し、インタラクティブ可能な物体の範囲とは、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体が存在する一定の領域の範囲を指す。焦点が該インタラクティブ可能な物体の範囲内に入った場合にのみ、シミュレーション対象はインタラクティブ可能な物体とインタラクティブをすることができ、焦点が該インタラクティブ可能な物体の範囲内に入っていなければ、シミュレーション対象はインタラクティブ可能な物体とインタラクティブをすることができない。該シミュレーション対象が該インタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達したか否かを判定し、予め設定された時間はx秒で表され、一定範囲内で固定点をx秒間維持すると、対応画面におけるインタラクティブ可能な物体を特定し、焦点ロックを行い、対応操作を実現する。インタラクティブ型アプリケーションシーンにおいて、インタラクティブ可能な物体のロックは、デフォルトで設定されることができれば、インタラクティブ可能な物体が複数ある場合、焦点とインタラクティブ可能な物体の範囲との距離によってインタラクティブ可能な物体をロックすることもできると分かる。ロックされたインタラクティブ可能な物体は、シミュレーション対象がインタラクティブをするべき物体物体である。
204:モバイル端末は、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する。
本願の実施例では、端末が制御指令を生成した後、端末は、該制御指令に応じて、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ方式を制御することができる。本願の実施例では、インタラクティブ型アプリケーションシーンの設定が異なると、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ動作は様々なものが存在し取得する。例を挙げて以下の通り説明する。インタラクティブ型アプリケーションシーンが魚を食べるゲームであることを例として、インタラクティブ可能な物体は、ゲームシーンに設定された魚道具であり、上述した実施例で生成された制御指令が口開けであれば、口を開けて魚を食べ始めるようにゲームキャラクター(例えば、口)を制御することができ、これにより、ゲームキャラクターとインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、シミュレーション対象の制御指令は、画像検出により生成され、全過程で非タッチの形で、一人称視点でゲームへの感情移入を強め、ユニークなゲーム体験をもたらす。
本願のいくつかの実施例では、ステップ204では、モバイル端末は、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する前記ステップは、
焦点とインタラクティブ可能な物体との距離をリアルタイムで算出し、焦点は、目標の顔がインタラクティブ型アプリケーションシーンにマッピングされる基準点であるステップと、
リアルタイムで算出された距離に基づいて、焦点がインタラクティブ可能な物体の範囲内であるか否かを判定するステップと、
焦点がインタラクティブ可能な物体の範囲内であれば、リアルタイムで算出された距離に基づいて、焦点に対応する変位速度を更新するステップと、
更新後の変位速度に基づいて制御指令を更新し、更新後の制御指令を用いて、インタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御するステップと、を含む。
インタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する際に、端末は、シミュレーション対象とインタラクティブ可能な物体との距離をリアルタイムで算出することができ、該距離によって、焦点がインタラクティブ可能な物体の範囲内であるか否かを判断することができ、焦点がインタラクティブ可能な物体の範囲内である場合にのみ、後続のインタラクティブフローを実行することができ、焦点がインタラクティブ可能な物体の範囲内でなければ、インタラクティブをすることができない。焦点がインタラクティブ可能な物体の範囲内である場合に、リアルタイムで算出された距離に基づいて、焦点に対応する変位速度を更新し、すなわち、該距離のリアルタイムの変化に基づいて、焦点に対応する変位速度をリアルタイムで更新することができ、継続的に更新される変位速度に従い制御指令を更新することができるため、該制御指令は、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを制御するために使用されることができる。例えば、焦点に対応する変位速度が変化した場合、シミュレーション対象は、制御指令に従いリアルタイムで移動することができ、アプリケーションシーンが異なると、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ方式は、具体的なシーンと結合して決定されることができる。
あるいはまた、本願のいくつかの実施例では、焦点とインタラクティブ可能な物体との距離をリアルタイムで算出した後、該距離のリアルタイムの変化状況に応じて、焦点に対応する変位速度を更新してもよい。これにより、変位速度のリアルタイムの更新を実現し、磁気吸引効果および減衰効果を実現可能である。具体的には、リアルタイムで算出された距離に基づいて、焦点に対応する変位速度を更新することは、
焦点とインタラクティブ可能な物体との距離が小さくなると、焦点の移動方向に変位速度を減少させてから変位速度を増加させること、或いは、
焦点とインタラクティブ可能な物体との距離が大きくなると、まず焦点の移動方向に変位速度を減少させ、その後、移動方向の反対方向に変位速度を増加させること、を含む。
端末は、磁気吸引合焦方式を採用することができ、すなわち、シミュレーション対象とインタラクティブ可能な物体との距離をリアルタイムで算出することができる。焦点がインタラクティブ可能な物体にある状態下で、焦点とインタラクティブ可能な物体との距離が小さくなると、焦点の移動方向に変位速度を減少させてから変位速度を増大させ、これにより、焦点がインタラクティブ可能な物体から離れる移動抵抗が増大し、焦点に対応する変位速度の動的な調整を実現し、その増大後の移動抵抗に基づいて制御指令を更新することで、該制御指令はインタラクティブポイントへの吸引力作用が発生することができるので、物体インタラクティブ操作を行う難しさが低下し、精度が向上する。
図4は、本願の実施例で提供される磁気吸引効果の模式図である。シミュレーション対象が制御指令の制御下で生じる速度は、以下の式から算出される。
速度=(初期速度×初期方向−目標速度×目標方向)×(現在時間/合計時間)×磁気吸引定数。
インタラクティブ可能な物体外とは、顔が機器にマッピングされる焦点がインタラクティブ可能な物体の範囲外であることを意味し、インタラクティブ可能な物体内とは、顔が機器にマッピングされる焦点がインタラクティブ可能な物体の範囲内であることを意味する。初期速度、初期方向、目標速度、目標方向は、いずれも顔の移動が画面上に反映される移動データであり、磁気吸引定数は実際のシーンに応じて調整されることができ、磁気吸引定数は、顔の回転速度から焦点の移動速度への体験を拡張するために使用され、例えば、磁気吸引定数の取りうる値は1.32である。例を挙げて以下の通り説明する。インタラクティブ可能な物体に対して、顔操作カーソルが近づくと、移動抵抗が大きくなり、すなわち、物体から離れるためにより大きい動作幅が必要となる。本願の実施例では、磁気吸引合焦により、顔制御の精度および滑らかさを大幅に向上させ、インタラクティブを全く顔の表情認識に頼って行うゲームが可能になっている。
本願の他の実施例では、インタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する際に、端末は、減衰効果方式を採用することができ、リアルタイムで算出されたシミュレーション対象とインタラクティブ可能な物体との距離に基づいて、焦点とインタラクティブ可能な物体との距離が大きくなると、まず焦点の移動方向に変位速度を減少させ、その後、移動方向の反対方向に変位速度を増加させる。該焦点に対応する変位速度が閾値を超えたか否かを判断し、変位速度が該閾値を超えると、顔操作が速すぎて、往復双方向に高速変位が発生したことが分かり、このとき、同方向にまず焦点に対応する変位速度を減少させ、その後、反対方向に変位速度を増加させることができ、これにより、減衰効果が発生し、操作の不確かさを低減する。
図5は、本願の実施例で提供される減衰効果の模式図である。シミュレーション対象が制御指令の制御下で生じる速度は、以下の式から算出される。
速度=cos(初期速度×方向/目標速度×方向)×(現在時間/合計時間)×減衰定数。
初期速度、初期方向、目標速度、目標方向は、いずれも顔の移動が画面上に反映される移動データであり、減衰定数は実際のシーンに応じて調整されることができ、減衰定数は、顔の向きが焦点の向きにマッピングされる加減速の体験を強化するために使用され、例えば、減衰定数の取りうる値は0.53である。本願の実施例では、焦点に対応する変位速度を減らし、減衰効果を発生させ、操作の不確かさを低減することができるため、顔制御の精度および滑らかさを大幅に向上させ、インタラクティブを全く顔の表情認識に頼って行うゲームが可能になっている。
以上、インタラクティブ型アプリケーションシーンにおいて顔をマッピングさせた焦点に基づくインタラクティブ検出過程について説明した。図3は、本願の実施例で提供される他のアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。次に、図3を参照しながら、デフォーカス判定過程について詳しく説明する。本願のいくつかの実施例では、本願の実施例で提供される方法は、ステップ301〜ステップ303をさらに含む。
301:モバイル端末は、リアルタイムで取得した各フレームの画像での複数の顔キーポイントのピクセル座標を特定する。
各フレームの画像において、端末は、カメラによって複数の顔キーポイントのピクセル座標をキャプチャすることができ、顔キーポイントの数は90とされてもよい。
302:モバイル端末は、複数の顔キーポイントのピクセル座標に基づいて、目標の顔が焦点を失ったか否かを判断する。
端末は、これらの顔キーポイントのピクセル座標に基づいて、目標の顔が焦点を失ったか否かを判定し、例えば、カメラでキャプチャした90個の顔キーポイントのピクセル座標に基づく分析を行い、これらのキーポイントを90個まで取得できないか、或いは、頭を上げたり下げたりする動作が一定の幅(例えば、45度)を超えていれば、デフォーカスであると判断する。
303:目標の顔が焦点を失った場合、目標の顔の合焦補正を行う。
本願の実施例では、顔が認識できないか、或いは、カメラから離れていると判定されていれば、ユーザの顔データをリアルタイムで算出することで、ユーザが焦点を失ったか否かを判定し、合焦補正を付与する。ステップ301〜ステップ303では、顔がマッピングされた焦点に対してリアルタイムのデフォーカス判定を行うことにより、合焦補正をすぐに完成できるので、焦点に基づく磁気吸引合焦および減衰効果をすぐに完成できる。
以上の実施例を用いて本願の実施例に関して説明したように、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する。本願の実施例によれば、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて、顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブをすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願の実施例の上記技術案をよりよく理解し実施するために、以下、例を挙げて対応するアプリケーションシーンについて具体的に説明する。
本願の実施例では、既存の入力によるインタラクティブ方式に対応していると同時に、カメラによってユーザの顔特徴を1フレームずつキャプチャし、前後フレームの顔データの比較により、ユーザによる動作および対応する幅を算出し、異なるゲーム入力に対応させ、指操作を一切必要としない新しいインタラクティブ方式を実現する。顔制御の精度および滑らかさを大幅に向上させ、インタラクティブを全く顔の表情認識に頼って行うゲームが可能になっている。
本願の実施例では、端末に求められるハードウェアは、カメラを備える携帯電話でもパソコンでもよい。図6は、本願の実施例で提供されるゲームシーンでのインタラクティブ検出フローの模式図である。主な実現論理は以下のような過程を含み取得する。
S01:ユーザが入力する。
ユーザは、端末のカメラを介して顔画像を取得することができれば、タッチパネルを指で操作することもできる。
S02:指によるデータ入力であるか否かを判断する。
端末は、タッチパネル上にユーザが指で入力したデータがあるか否かを検出することができる。
S03:指で画面をタップしてスライドする。
指によるデータ入力があると検出された場合、ユーザは、画面をタップしてスライドすることができる。
S04:カメラを介した顔データ入力であるか否かを判断する。
指によるデータが検出されていなければ、端末は、カメラに顔データが入力されたか否かを判断することができる。
S05:入力データが誤っているか否かを判断する。
ステップS04の後に、端末は、入力されたデータが誤っているか否か、すなわち、完全たる顔画像を検出できるか否かを判断する。
S06:ユーザに知らせる。
データが誤って入力できない場合、再入力するようにユーザを促すか、或いは、入力が失敗したことをユーザに知らせる。
S07:比較データがあるか否かを判断する。
端末は、連続する複数フレームの顔画像を取得した場合、前後に連続する複数フレームの画像を比較する。
S08:データ比較を行う。
データ比較段階では、端末は、前後の2フレームの顔画像を比較することができる。具体的な比較過程について、上述の実施例の説明を詳しく参照されたい。ここではその詳細を繰り返さない。
なお、1回目の入力時に比較データがなければ、データ記憶にジャンプし、2回目のデータ比較時に、その前に記憶されたデータを現在のデータと比較する。
S09:データ比較により、ユーザの異なる顔動作および幅を判断する。
データ比較が終わった後、端末は、ユーザの現在の動作および対応する幅を判断することができる。
例を挙げて以下の通り説明する。顔の上下移動を例として、現在の顔の眉中心座標を前回の眉中心座標データと比較することにより、Y座標が大きくなっていれば、頭を上げることを意味し、Y座標が小さくなっていれば、頭を下げることを意味する。また、顔の左右移動を例として、現在の顔の鼻先座標を前回の鼻先座標データと比較することにより、X座標が大きくなっていれば、左に回転することを意味し、X座標が小さくなっていれば、右に回転することを意味する。さらに、顔の前後移動を例として、現在の顔の左眼の目尻から右眼の目尻までの距離を前回の同一の距離データと比較して大きくなっていれば、顔が前に移動したことを示唆し、該データ比較の結果、小さくなっていれば、顔が後に移動したことを示唆する。また、ユーザのタップを例として、現在の顔の中心点座標を前回の中心点座標データと比較することにより、一定の座標範囲内で一定時間保っていれば、顔にタップ操作が発生したと判定される。
例を挙げて以下の通り説明する。表1は、基本的機能と実現メカニズムとの対応関係を示す表である。
Figure 2021516836
また、表2は、特殊機能と実現メカニズムとの対応関係を示す表である。
Figure 2021516836
S10:制御指令を生成する(例えば、上下左右前後移動、タップ)。
上記表1および表2において、顔を左右に回転させることは、画面の左右移動に対応し、回転幅は画面の移動距離に対応する。頭を上げたり下げたりすることは、画面の上下移動に対応し、幅は画面の移動距離に対応する。口を開けたり閉じたりすることは、画面の関連操作、例えば、噛み合って魚を食べる操作に対応する。一定の範囲内で固定点をx秒間維持し、固定点は、具体的な視線を維持する焦点であり、範囲内で安定して維持され、画面におけるインタラクティブ可能な物体に対応する。そして、焦点ロックを行い、対応操作を実現する。
次に、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ方式について説明する。
磁気吸引合焦:顔が機器にマッピングされるシミュレーション対象とインタラクティブ可能な物体との距離をリアルタイムで算出することにより、インタラクティブ可能な物体にある状態下であれば、顔が機器にマッピングされる焦点に対応する変位速度を動的に調整し、インタラクティブポイントの吸引力作用が発生するため、物体のインタラクティブ操作の難しさが低下し、精度が向上する。
デフォーカス判定:ユーザの顔データをリアルタイムの算出により取得し、ユーザが焦点を失ったか否かを判定し、デフォーカス補正を付与する。例えば、カメラがキャプチャした顔キーポイント(90個)の座標に基づいて分析し、ポイントが欠けているか、或いは、頭を上げたり下げたりする動作が一定の幅(45度)を超えていれば、デフォーカスであると判断される。
減衰効果:顔操作が速すぎて、往復双方向に高速変位が発生した時、減衰効果が発生し、操作の不確かさを低減する。
S11:対応するゲーム表現をドライブする。
端末は、上記ステップで生成された制御指令に基づいてゲーム表現をドライブすることができる。次に、様々なゲームシーンについて例を挙げて説明する。
顔認識に基づいて正確な制御操作を行うゲームを例として、ゲームシーンにおいて、ユーザは、ゲーム全過程で顔に基づく制御操作によりゲームプレイする。携帯電話のカメラを介して、それぞれの異なるステージのゲームプレイに基づいて、一人称視点でゲーム中のキャラクターを制御して、異なる操作、例えば、移動、ロック、噛み合い、つつきなどを行う。従来のゲームのタッチ操作とは異なり、本願の実施例では、ゲーム全過程で非タッチの形で、一人称視点でゲームへの感情移入を強化し、ユニークなゲーム体験をもたらす。
主な特徴は以下の通りである。
ゲーム全過程で非タッチであり、ゲーム全過程ですべて非タッチ操作であり、顔認識だけによってすべてのゲーム行動を完了させる。
インタラクティブを正確に制御し、磁気吸引合焦、デフォーカス補正、減衰効果などの製品技術ソリューションにより、もともとぼけて不正確な顔制御を実用でかつより正確なものにする。顔制御の難しさを低減し、より正確な制御が可能である。
没入型感情移入、一人称視点、完全かつ包括的な顔マッチングによるゲームプレイは、身に染みた体験をもたらし、ゲームのインパクトを高める。
図7は、本願の実施例で提供されるゲームシーンでのインタラクティブ検出模式図である。図7に示されるように、ゲームシーンの1つのバージョンのサンプル図面において、ゲームプレイステージのゲームシーンを例として、プレイヤーが制御しているシミュレーション対象は、酔っぱらいというキャラクターであり、ゲームプレイステージのゲームシーンにおいてインタラクティブ可能な物体は障害物である。モバイル端末のカメラがプレイヤーの顔をリアルタイムで撮影し、撮影された前後隣接する2フレームの画像を比較することで、プレイヤーの動作および対応する幅を取得する。プレイヤーの動作および幅に基づいて、酔っぱらいへの制御指令を生成することができ、例えば、左へ移動するように該酔っぱらいを制御し、酔っぱらいが左へ移動すると、該酔っぱらいが障害物に衝突する。また、例えば、右へ移動するように該酔っぱらいを制御し、酔っぱらいが右へ移動すると、該酔っぱらいが障害物をうまく回避する。図7に示されるシーンを例にして、本願の実施例では、酔っぱらいの移動を顔によって制御して障害物を回避することができ、これにより、酔っぱらいと障害物とのインタラクティブを実現する。
図8は、本願の実施例で提供される他のゲームシーンでのインタラクティブ検出模式図である。図8に示されるように、ゲームシーンの他のバージョンのサンプル図面において、海底ゲームプレイステージのゲームシーンを例として、プレイヤーが制御しているシミュレーション対象は、魚というキャラクターであり、海底ゲームプレイステージのゲームシーンにおいて、インタラクティブ可能な物体は口である。モバイル端末のカメラがプレイヤーの顔をリアルタイムで撮影し、撮影された前後隣接する2フレームの画像を比較することで、プレイヤーの動作および対応する幅を取得する。プレイヤーの動作および幅に基づいて、魚への制御指令を生成することができ、例えば、左へ移動ように該魚を制御し、魚が左へ移動すると、その口が1つの魚を食べる。また、例えば、右へ移動するように該魚を制御し、魚が右へ移動すると、魚は口のキャプチャからうまく逃げる。図8に示されるシーンを例にして、本願の実施例では、魚の泳ぎ、および、狩猟のために口が噛み合う(魚を食べる)動作を顔によって制御することができ、これにより、魚と口とのインタラクティブを実現する。
図9は、本願の実施例で提供される更なるゲームシーンでのインタラクティブ検出模式図である。図9に示されるように、ゲームシーンの他のバージョンのサンプル図面において、顔認識時にカメラから外れた場合、ゲームでは、ユーザインターフェース(User Interface、UI)におけるインタラクティブをデフォーカス補正の形で行い、すなわち、ユーザは、画面に現れたUI輪郭の提示に従い顔位置を調整し、リフォーカスの目的を実現する。デフォーカス補正の詳細について、この前で例を挙げて説明したものを参照されたい。
S12:データを記憶する。
1フレームの顔画像を取得するごとにデータを記憶し、これにより、次のフレームとのデータ比較時に前のフレームの顔画像を呼び出すことができる。
本願の実施例で提供される技術案によれば、インタラクティブを全く顔の表情認識に頼って行うゲームを実現し、モバイル端末における没入感ゲームへの感情移入を大幅に向上させる。また、画面タッチに頼らないインタラクティブ方式は、一部の特殊シーン下でのゲームプレイ時のバリアフリーを向上させる。そして、該技術案によれば、手が不自由な特殊グループ向けのゲームを開発することもできるので、ユーザが指を使うのが不便な場合、又は、モバイル端末にタッチパネルが装着されていない場合、インタラクティブをやり遂げる。
なお、上述の各方法実施例について、説明の簡略化のために、一連の動作の組合せとして記述しているが、しかし、当業者であれば分かるように、本願の実施例は、説明された動作の順番に制限されず、本願の実施例によれば、一部のステップを他の順番で行うか或いは同時に行うこともできるのがその理由である。次に、明細書に記述された実施例はいずれも好適な実施例であり、言及された動作及びモジュールは、必ずしも本願の実施例に必須なものとは限らないことも、当業者であれば分かっている。
本願の実施例は、コンピュータ読取可能な記憶媒体をさらに提供する。あるいはまた、本実施例では、上記コンピュータ読取可能な記憶媒体は、コンピュータで実行されると、コンピュータに上述した方法を実行させる指令を含んでもよい。
あるいはまた、本実施例では、コンピュータ読取可能な記憶媒体に含まれる指令は、コンピュータで実行されると、
S11:前記モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得するステップと、
S12:前記第1フレーム画像と前記第2フレーム画像とを比較して、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得するステップと、
S13:前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成するステップと、
S14:前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するステップと、
をコンピュータに実行させてもよい。
あるいはまた、本実施例の具体例について、上述した実施例で説明された例を参照してもよい。本実施例ではここでその詳細を繰り返さない。
本願の実施例の上記技術案をよりよく実施するために、以下、上記技術案を実施するための関連装置をさらに提供する。
図10−aは、本願の実施例で提供されるモバイル端末の構成模式図である。図10−aに示されるように、本願の実施例で提供されるモバイル端末1000は、1つ又は複数のプロセッサと、プログラムユニットを記憶する1つ又は複数のメモリとを備え、プログラムユニットはプロセッサによって実行され、該プログラムユニットは、撮影モジュール1001、比較モジュール1002、指令生成モジュール1003、インタラクティブモジュール1004を含む。
撮影モジュール1001は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得する。
比較モジュール1002は、前記第1フレーム画像と前記第2フレーム画像とを比較して、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得する。
指令生成モジュール1003は、前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成する。
インタラクティブモジュール1004は、前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御する。
図10−bは、本願の実施例で提供される比較モジュールの構成模式図である。本願のいくつかの実施例では、図10−bに示されるように、前記比較モジュール1002は、
顔位置決め点が前記第1フレーム画像に現れる第1画素位置、および、前記顔位置決め点が前記第2フレーム画像に現れる第2画素位置を特定する画素位置特定ユニット10021と、
前記第1画素位置と前記第2画素位置とを比較して、前記第1画素位置と前記第2画素位置との相対変位を取得する変位特定ユニット10022と、
前記第1画素位置と前記第2画素位置との相対変位に基づいて、前記目標の顔の動作および前記目標の顔の動作に対応する幅を特定する動作特定ユニット10023と、を含む。
図10−cは、本願の実施例で提供される他のモバイル端末の構成模式図である。本願のいくつかの実施例では、図10−cに示されるように、図10−aに示されるものに対して、前記プログラムユニットは、
前記撮影モジュール1001がモバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影する前に、モバイル端末のタッチ画面にタッチ入力が生じたか否かを検出し、前記タッチ画面にタッチ入力が生じていなければ、前記撮影モジュールの実行をトリガーするタッチ検出モジュール1005をさらに含む。
図10−dは、本願の実施例で提供される更なるモバイル端末の構成模式図である。本願のいくつかの実施例では、図10−dに示されるように、図10−aに示されるものに対して、前記プログラムユニットは、
前記指令生成モジュール1003が前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成した後、前記制御指令に基づいて、前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点がインタラクティブ可能な物体の範囲内で安定して維持される時間が、予め設定された時間に達したか否かを検出する焦点検出モジュール1006と、
前記焦点が前記インタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達していれば、前記インタラクティブ可能な物体の範囲内からインタラクティブ可能な物体をロックする物体ロックモジュール1007と、をさらに含む。
図10−eは、本願の実施例で提供されるインタラクティブモジュールの構成模式図である。本願のいくつかの実施例では、図10−eに示されるように、前記インタラクティブモジュール1004は、
前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点と前記インタラクティブ可能な物体との距離をリアルタイムで算出する距離算出ユニット10041と、
リアルタイムで算出された前記距離に基づいて、前記焦点がインタラクティブ可能な物体の範囲内であるか否かを判定する範囲判定ユニット10042と、
前記焦点が前記インタラクティブ可能な物体の範囲内であれば、リアルタイムで算出された前記距離に基づいて、前記焦点に対応する変位速度を更新する速度更新ユニット10043と、
更新後の前記変位速度に基づいて前記制御指令を更新し、更新後の制御指令を用いて、前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するインタラクティブユニット10044と、を含む。
本願のいくつかの実施例では、速度更新ユニット10043は、具体的には、前記焦点と前記インタラクティブ可能な物体との距離が小さくなると、前記焦点の移動方向に前記変位速度を減少させてから前記変位速度を増加させるか、或いは、前記焦点と前記インタラクティブ可能な物体との距離が大きくなると、まず前記焦点の移動方向に前記変位速度を減少させ、その後、前記移動方向の反対方向に前記変位速度を増加させる。
図10−fは、本願の実施例で提供される更なるモバイル端末の構成模式図である。本願のいくつかの実施例では、図10−fに示されるように、図10−aに示されるものに対して、前記プログラムユニットは、
リアルタイムで取得した各フレームの画像での複数の顔キーポイントのピクセル座標を特定するキーポイント取得モジュール1008と、
前記複数の顔キーポイントのピクセル座標に基づいて、前記目標の顔が焦点を失ったか否かを判断するデフォーカス判定モジュール1009と、
前記目標の顔が焦点を失っていれば、前記目標の顔の合焦補正を行う合焦モジュール1010と、をさらに含む。
以上で本願の実施例について説明したように、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較して、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する。本願の実施例では、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて、顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブをすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願の実施例は、他の端末をさらに提供する。図11は、本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法が端末に適用される構成模式図である。図11に示されるように、説明の便宜上、本願の実施例に関連する部分のみを示しており、具体的な技術の詳細が開示されていないものについては、本願の実施例の方法部分を参照されたい。該端末は、携帯電話、タブレットコンピュータ、パーソナルデジタルアシススタント(Personal Digital Assistant、PDA)、ポイント・オブ・セールス(Point of Sales、POS)、車載コンピュータなど、任意の端末機器であり取得する。端末が携帯電話であることを例とする。
図11は、本願の実施例で提供される端末に関連する携帯電話の一部の構造のブロック図を示している。図11を参照し、携帯電話は、無線周波数(Radio Frequency、RF)回路1010、メモリ1020、入力ユニット1030、表示ユニット1040、センサ1050、オーディオ回路1060、ワイヤレスフィデリティ(wireless fidelity、WiFi)モジュール1070、プロセッサ1080、および電源1090などの部材を備える。図11に示される携帯電話の構造は、携帯電話を限定するものではなく、示されるものよりも多い又は少ない部材を含むか、或いは、いくつかの部材を組み合わせるか、或いは、異なる部材配置を有することが可能であることは、当業者が理解するであろう。
以下、図11を用いて携帯電話の各構成要素を具体的に紹介する。
RF回路1010は、情報の送受信、又は通話中の信号の送受信を行うように構成されてもよい。特に、基地局の下り情報を受信した後、プロセッサ1080に処理させ、また、上りのためのデータを基地局に送信する。通常、RF回路1010は、アンテナ、少なくとも1つの増幅器、トランシーバ、カプラー、低雑音増幅器(Low Noise Amplifier、LNA)、デュプレクサなどを含むが、これらに限られない。また、RF回路1010は、無線通信を介してネットワーク及び他の機器と通信することもできる。上記無線通信は、任意の通信規格またはプロトコルを使用することができ、グローバルモバイル通信システム(Global System of Mobile communication、GSM)、汎用パケット無線サービス(General Packet Radio Service、GPRS)、符号分割多元接続(Code Division Multiple Access、CDMA)、広帯域符号分割多元接続(Wideband Code Division Multiple Access、 WCDMA)、ロングタームエボリューション(Long Term Evolution、LTE)、電子メール、ショートメッセージサービス(Short Messaging Service、SMS)などを含むが、これらに限られない。
メモリ1020は、ソフトウェアプログラム及びモジュールを記憶するように構成されてもよい。プロセッサ1080は、メモリ1020に記憶されるソフトウェアプログラム及びモジュールを実行することで、携帯電話の様々な機能アプリケーションおよびデータ処理を実行する。メモリ1020は、主にプログラム格納領域およびデータ格納領域を含み、プログラム格納領域には、オペレーティングシステム、少なくとも1つの機能(例えば、音声再生機能、画像再生機能など)に必要なアプリケーションプログラムなどが格納されることができる。データ格納領域には、携帯電話の使用に応じて作成されたデータ(音声データ、電話帳など)が格納されることができる。また、メモリ1020は、高速ランダムアクセスメモリを含むことができれば、例えば少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、または他の揮発性固体記憶デバイスなどの不揮発性メモリを含むこともできる。
入力ユニット1030は、入力された数字や文字情報を受信し、携帯電話のユーザ設定や機能制御に関するキー信号入力を生成するように構成されてもよい。具体的には、入力ユニット1030は、タッチパネル1031及び他の入力デバイス1032を含んでもよい。タッチパネル1031は、タッチスクリーンとも呼ばれ、その上またはその近くでのユーザーのタッチ操作(例えば、ユーザーが指、スタイラスなど、如何なる適切なオブジェクトまたはアクセサリを用いて、タッチパネル1031上またはタッチパネル1031の近くで動作する)を収集し、予め設定されたプログラムに従って対応する接続装置を駆動することができる。あるいはまた、タッチパネル1031は、タッチ検出装置およびタッチコントローラという2つの部分を含んでもよい。タッチ検出装置は、ユーザのタッチ位置を検出し、タッチ操作によって生じる信号を検出し、信号をタッチコントローラに送信する。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、接触点座標に変換してプロセッサ1080に送信するとともに、プロセッサ1080から送信された指令を受信して実行可能である。また、タッチパネル1031は、抵抗式、静電容量式、赤外線、表面弾性波など、様々なタイプのもので実現できる。入力ユニット1030は、タッチパネル1031に加えて、他の入力デバイス1032を含んでもよい。具体的には、他の入力デバイス1032は、物理キーボード、機能キー(音量制御キー、スイッチキーなど)、トラックボール、マウス、ジョイスティックなどの1つまたは複数を含み取得するが、これらに限定されない。
表示ユニット1040は、ユーザが入力した情報またはユーザに提供された情報や携帯電話の各種メニューを表示するように構成されてもよい。表示ユニット1040は、表示パネル1041を含み取得する。あるいはまた、表示パネル1041は、液晶ディスプレイ(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic Light−Emitting Diode、 OLED)などの形態で構成されていてもよい。さらに、タッチパネル1031は表示パネル1041を覆うことができ、タッチパネル1031は、その上またはその近くでのタッチ操作を検出すると、タッチイベントのタイプを決定するためにプロセッサ1080に転送し、その後、プロセッサ1080は、タッチイベントのタイプに応じて、表示パネル1041に対して対応する視覚出力を提供する。図11では、タッチパネル1031と表示パネル1041とは、2つの独立した部材として携帯電話の入力および入力機能を実現するが、しかし、いくつかの実施例では、タッチパネル1031と表示パネル1041とを統合して携帯電話の入力および出力機能を実現可能である。
携帯電話は、光センサー、動きセンサ、および他のセンサーなど、少なくとも1種類のセンサ1050をさらに含んでもよい。具体的には、光センサは、環境光センサ及び近接センサを含むことができ、環境光センサは、環境光の明暗に応じて表示パネル1041の明るさを調整することができ、近接センサは、携帯電話が耳に当てられると、表示パネル1041および/またはバックライトをオフにすることができる。動きセンサの一種として、加速度センサは、各方向(一般、3軸である)における加速度の大きさを検出することができ、静止時に重力の大きさや方向を検出することができ、携帯電話の姿勢を認識するアプリケーション(例えば、縦表示と横表示の切り替え、関連ゲーム、磁力計の姿勢校正)、振動認識関連機能(例えば、歩数計、叩き)を備えるものなどとされてもよい。携帯電話にさらに備えられるジャイロ、気圧計、湿度計、温度計、赤外線センサなどの他のセンサについて、ここではその詳細を繰り返さない。
オーディオ回路1060、スピーカ1061、マイクロフォン1062は、ユーザと携帯電話間のオーディオインターフェースを提供することができる。オーディオ回路1060は、受信した音声データから変換された電気信号をスピーカ1061に伝送することができ、スピーカ1061はこれを音声信号に変換して出力する。一方、マイクロフォン1062は、収集した音声信号を電気信号に変換し、オーディオ回路1060はこれを受信後、音声データに変換し、音声データをプロセッサ1080に出力して処理させた後、RF回路1010によって携帯電話に送信されるか、或いは、音声データを更なる処理のためにメモリ1020に出力される。
WiFiは、短距離無線伝送技術である。携帯電話は、WiFiモジュール1070を介して、ユーザによる電子メールの送受信、ウェブページの閲覧、ストリーミングメディアへのアクセスなどを支援することができ、ユーザに無線を介したブロードバンドインターネットアクセスを提供する。図11にWiFiモジュール1070が示されているが、しかし、これは携帯電話に必須な構成要素ではなく、本発明の本質を変えることなく必要に応じて省略してもよいことは理解できる。
プロセッサ1080は、携帯電話の制御センターであり、携帯電話全体の各部を種々のインターフェースおよび回線で接続し、メモリ1020に格納されたソフトウェアプログラム及び/又はモジュールを実行し、メモリ1020に格納されたデータを呼び出すことで、携帯電話の様々な機能およびデータ処理を実行し、これにより、携帯電話全体を監視する。あるいはまた、プロセッサ1080は、1つ又は複数の処理ユニットを含んでもよい。好ましくは、プロセッサ1080は、アプリケーションプロセッサおよびモデムプロセッサを統合することができ、アプリケーションプロセッサは、主にオペレーティングシステム、ユーザインターフェース、およびアプリケーションプログラムなどを扱い、モデムプロセッサは主に無線通信を扱う。上記モデムプロセッサはプロセッサ1080に統合されなくてもよいことは理解できる。
携帯電話は、各部材に電力を供給する電源1090(例えば、電池)をさらに含む。好ましくは、電源は、電源管理システムを介してプロセッサ1080と論理的に接続されることができ、これにより、電源管理システムを介して充電、放電、および電力消費管理などの機能を実現する。
携帯電話は、カメラ1011をさらに含んでもよい。該カメラ1011は、携帯電話のフロントカメラであり取得する。カメラ1011が複数フレームの顔画像を取得した後、プロセッサ1080は、複数フレームの顔画像を処理する。本願の実施例では、該端末に備えられるプロセッサ1080は、さらに、端末によって実行される上記アプリケーションシーンにおけるインタラクティブ方法のフローの実行を制御する。
なお、また、以上で説明した装置実施例は、概略的なものにすぎない。上記分離した部材として説明したユニットは、物理的に分離したものであってもよいし、物理的に分離したものでなくてもよく、ユニットとして示した部材は、物理的ユニットであってもよいし、物理的ユニットでなくてもよく、つまり、同一場所に配置されてもよいし、複数のネットワークユニットに分布されてもよい。実際のニーズに応じて、その一部又は全てのモジュールにより本実施例の目的を達成することができる。また、本願の実施例で提供される装置実施例の図面において、モジュール同士の接続関係は、それらが通信接続されることを意味し、具体的には、1本又は複数本の通信バス又は信号線として実現されてもよい。当業者は、創造的な労働無しに理解し実施することができる。
以上の実施形態の記載から、本願の実施例をソフトウェアおよび必須な汎用ハードウェアの形で実現することができ、もちろん、専用集積回路、専用CPU、専用メモリ、専用部品などを含む専用ハードウェアで実現することもできるのは、当業者にとって明らかである。一般、コンピュータプログラムによって完成される機能はいずれも対応するハードウェアによって容易に実現可能であり、また、同一機能を実現するための具体的なハードウェア構造は様々であり、例えば、アナログ回路、デジタル回路又は専用回路などである。しかし、本願の実施例は、殆どの場合、ソフトウェアプログラムによって実現されるのがより望ましい。このように理解すれば、本願の実施例の技術案は、本質的に、又は従来技術に貢献する部分をソフトウェア製品の形で体現することができ、該コンピュータソフトウェア製品は、コンピュータデバイス(パソコン、サーバまたはネットワークデバイス等であってもよい)に本願の各実施例に記載の方法を実行させるための若干の指令を含む読取可能な記憶媒体、例えば、コンピュータのフロッピーディスク、USBフラッシュディスク、リムーバブルハードディスク、リードオンリーメモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memor、RAM)、磁気ディスク又は光ディスク等に記憶されている。
上述のように、以上の実施例は、本願の実施例の技術案を説明するためのものに過ぎず、それを制限するものではない。上記実施例を参照して本願の実施例を詳しく説明したが、上記実施例に記載された技術案を修正するか、或いは一部の技術的特徴に対して均等な置き換えが可能であることは、当業者が理解するであろう。これらの修正又は置き換えによって、対応する技術案の主旨が本願の実施例の技術案の思想や範囲から逸脱することはない。
本願の実施例では、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較して、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクティブをするようにシミュレーション対象を制御する。本願の実施例によれば、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて、顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブをすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願は、2018年08月28日にて中国特許庁へ出願した、出願番号が201810989371.5で、発明の名称が「アプリケーションシーンにおけるインタラクティブ方法および端末ならびに記憶媒体」である中国特許出願に基づく優先権を主張し、その内容を全て参照により本願に組み込むものとする。
本願の実施例は、コンピュータの技術分野に関し、特に、アプリケーションシーンにおけるインタラクティブ方法およびモバイル端末ならびに記憶媒体に関する。
仮想世界を構築し、ユーザに仮想世界を体験させることを可能にするコンピュータシミュレーションシステムは、コンピュータを用いて、マルチ・ソース情報の融合によるインタラクティブ型の3次元動的シーンおよびエンティティ行動のシステムシミュレーションであるシミュレーション環境を生成し、ユーザを該環境に没入させる。
現在、その重要なアプリケーションはモバイル端末ゲームであり、プレイヤーがゲーム内でインタラクティブ操作を行うことを可能にすることが該ゲームの特徴であり、それゆえ、プレイヤーは、指を介して端末のタッチ画面とインタラクする必要がある。従来のモバイル端末ゲームにおいて、ユーザは、依然として指を介してタッチ画面とゲームのインタラクティブな動作をする必要があり、例えば、タッチ画面を指でタップしたり、ハンドルやボタンを指で操作したり、タッチ画面を指でスライドしたりする等の操作によって完成する。
本願の実施例は、モバイル端末における没入型インタラクティブを実現するために、アプリケーションシーンにおけるインタラクティブ方法およびモバイル端末ならびに記憶媒体を提供する。
本願の実施例は、以下の技術案を提供する。
一態様によれば、本願の実施例は、
モバイル端末が実行するアプリケーションシーンのインタラクティブ方法であって、
カメラを介して目標の顔をリアルタイムで撮影することにより、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得するステップと、
前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得するステップと、
前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成するステップと、
前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおける前記インタラクティブ可能な物体とインタラクするように前記シミュレーション対象を制御するステップと、を含むアプリケーションシーンにおけるインタラクティブ方法を提供する。
他の態様によれば、本願の実施例は、コンピュータで実行されると、コンピュータに上述した方法を実行させる指令を含むコンピュータ読取可能な記憶媒体をさらに提供する。
他の態様によれば、本願の実施例は、1つ又は複数のプロセッサと、プログラムユニットを記憶する1つ又は複数のメモリと、を備え、プログラムユニットは、プロセッサによって実行され、該プログラムユニットは、
カメラを介して目標の顔をリアルタイムで撮影することにより、それぞれ撮影することにより取得した前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得する撮影モジュールと、
前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得する比較モジュールと、
前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成する指令生成モジュールと、
前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクするように前記シミュレーション対象を制御するインタラクティブモジュールと、を含む、モバイル端末をさらに提供する。
上述した態様では、モバイル端末の構成モジュールは、上述した一態様および様々な実現可能な実現形態で説明されたステップをさらに実行することができ、詳しくは、上述した一態様および様々な実現可能な実現形態での記載を参照されたい。
他の態様によれば、本願の実施例は、指令を記憶するプロセッサと、メモリにおける指令を実行することで、モバイル端末に上述した一態様におけるいずれかの方法を実行させるメモリと、を備えるモバイル端末をさらに提供する。
本願の実施例では、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、そして、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する。本願の実施例によれば、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指操作で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブな動作をすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願の実施例の技術案をより明確に説明するために、以下、実際例の説明に使用される必要のある図面を簡単に紹介するが、明らかなように、以下の図面は、あくまでも本願の若干の実施例であり、当業者であれば、これらの図面に基づいてさらに他の図面を取得することができる。
本願の実施例におけるユーザとモバイル端末間のインタラクティブシーン模式図である。 本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。 本願の実施例で提供される他のアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。 本願の実施例で提供される磁気吸引効果の模式図である。 本願の実施例で提供される減衰効果の模式図である。 本願の実施例で提供されるゲームシーンでのインタラクティブ検出フローの模式図である。 本願の実施例で提供されるゲームシーンでのインタラクティブ検出模式図である。 本願の実施例で提供される他のゲームシーンでのインタラクティブ検出模式図である。 本願の実施例で提供される更なるゲームシーンでのインタラクティブ検出模式図である。 本願の実施例で提供されるモバイル端末の構成模式図である。 本願の実施例で提供される比較モジュールの構成模式図である。 本願の実施例で提供される他のモバイル端末の構成模式図である。 本願の実施例で提供される更なるモバイル端末の構成模式図である。 本願の実施例で提供されるインタラクティブモジュールの構成模式図である。 本願の実施例で提供される更なるモバイル端末の構成模式図である。 本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法が端末に適用される構成模式図である。
本願の実施例は、モバイル端末における没入型インタラクティブを実現するために、アプリケーションシーンにおけるインタラクティブ方法および端末ならびに記憶媒体を提供する。
本願の実施例の発明の目的、特徴及びメリットをより明確で分かりやすくするために、以下、本願の実施例中の図面を結合して、本願の実施例の技術案を明瞭かつ完全に説明する。以下で説明される実施例は本願の実施例の一部に過ぎず、全部ではないことは、言うまでもないことである。当業者が本願の実施例に基づいて創造的な労働無しに得られた他の実施例も、全て本願の保護範囲内に含まれる。
本願の明細書及び特許請求の範囲並びに上記図面における用語である「含む」、「有する」及びそれらの如何なる変形は、排他的にならずに含まれたものをカバーすることがその意図であり、これにより、一連のユニットを含めたプロセス、方法、システム、製品又は機器は、これらのユニットに限定される必要がなく、明確に示していないがこれらのプロセス、方法、製品又は機器に対して自明であったり固有であったりする他のユニットを含む可能性がある。
図1には、本願の実施例で提供されるユーザとモバイル端末間のインタラクティブシーン模式図が示されている。モバイル端末(単に「端末」という)とユーザとがインタラクすることができ、端末は、携帯電話、タブレットコンピュータ、電子書籍リーダー、ムービング・ピクチャー・エクスパーツ・グループ圧縮規格オーディオレイヤー3(Moving Picture Experts Group Audio Layer III、MP3)プレーヤー、ムービング・ピクチャー・エクスパーツ・グループ圧縮規格オーディオレイヤー4(Moving Picture Experts Group Audio Layer IV、MP4)プレーヤー、ラップトップ型携帯コンピュータ及びデスクトップ型コンピュータなどであり得る
端末にカメラが備えられ、該カメラは、具体的には、フロントカメラであり得る。カメラはユーザの顔画像を取得することができる。該端末は、本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法を実行し、既存のモバイル端末の入力によるインタラクティブ方式に対応していると同時に、カメラによってユーザの顔画像を1フレームずつキャプチャし、前後フレームの顔データの比較により、ユーザによる動作および対応する幅を算出し、異なるインタラクティブ型アプリケーションシーンにおける制御指令に対応させ、そして、該制御指令に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現することができる。関連技術に比べると、顔制御の精度および滑らかさを大幅に向上させ、指操作を一切必要としない新しいインタラクティブ方式が可能になっている。該インタラクティブ方式は、没入感重要視される状況に適用され、画面を指でタッチすることによるインタラクティブ操作は一切必要がなく、インタラクティブ操作を全く顔の表情認識に頼って行うため、ユーザの感情移入を大幅に向上させることができる。
以下、モバイル端末の視点から詳しく説明する。本願によるアプリケーションシーンにおけるインタラクティブ方法の一実施例は、具体的には、顔画像に基づくインタラクティブ検出処理に適用されることができる。図2は、本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。図2に示されるように、本願の一実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法は、以下のステップ201〜ステップ204を含み取得する。
201:モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を取得する。第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像である。
本願の実施例では、端末にカメラが備えられており、まず、モバイル端末のカメラを初期化し、初期化が完了した後、カメラを起動してカメラの視野に現れた物体画像を取得し、該物体画像がユーザの顔画像と認識された場合、該ユーザの顔を目標の顔としてリアルタイムで撮影し、異なるフレームタイミングで撮影した画像を生成する。本願の実施例では、端末に装着されたカメラは、リアカメラ又はフロントカメラであってもよい。端末は、まず、処理すべき第1フレーム画像および第2フレーム画像を取得し、各フレームの画像は、ユーザの顔をカメラによって撮影した後に生成された顔画像であってもよい。本願の実施例では、顔画像は、フェース画像又は頭部画像などと呼ばれてもよい。
本願の実施例では、カメラは、異なるフレームタイミングでの画像を取得する際に、複数のフレームタイミングでの画像を取得することができる。上記複数のフレームタイミングでの画像を区別するために、カメラが第1フレームタイミングで撮影した画像を第1フレーム画像として定義し、カメラが第2フレームタイミングで撮影した画像を第2フレーム画像として定義し、第1フレーム画像および第2フレーム画像は、カメラが異なるフレームタイミングで撮影した画像を区別するためのものにすぎない。
本願の実施例では、第1フレームタイミングで撮影した第1フレーム画像の特徴点の検出・計算により第1フレーム画像の特徴点を取得することができ、第2フレームタイミングで撮影した第2フレーム画像の特徴点の検出・計算により第2フレーム画像の特徴点を取得することができる。画像の特徴点は、特徴点に基づく画像マッチングアルゴリズムにおいて非常に重要な役割を果たし、画像の特徴点は、画像の本質的な特徴を反映可能であり、画像中の対象物体を識別することができ、特徴点のマッチングにより画像のマッチングを達成することができる。本願の実施例における画像の特徴点は、局所画像特徴点であり得る。第1フレーム画像および第2フレーム画像の特徴点の抽出は、様々な形態で実現可能であり、例えば、ORB(ORiented Binary Robust Independent Elementary Features)特徴点の抽出であってもよく、また、加速ロバスト特徴(Speeded Up Robust Features、SURF)の抽出であってもよく、さらにスケール不変特徴変換(Scale−Invariant Feature Transform、SIFT)に基づく抽出などであってもよい。このため、本願の実施例では、局所画像特徴点は、ORB特徴点、SURF特徴点、SIFT特徴点であり得る。特徴点の検出により各フレームの画像での顔を認識することができ、例えば、特徴点の検出により顔の五官を認識することができ、これらの五官を顔の位置決め点とすることができる。
本願のいくつかの実施例では、ステップ201では、モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影する前に、本願の実施例で提供される方法は、
モバイル端末は、モバイル端末のタッチ画面にタッチ入力が生じたか否かを検出するステップと、
タッチ画面にタッチ入力が生じていなければ、モバイル端末は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影するステップを実行するようにトリガーするステップと、をさらに含む。
ユーザとモバイル端末間の完全な非接触制御を実現するために、まず、タッチ画面にタッチ入力が生じたか否かを判断し、タッチ画面にタッチ入力が生じていないと判定されていれば、ユーザがモバイル端末の画面を指でタッチしたことがないことが示唆され、この場合、モバイル端末のカメラを起動してユーザの画像を取得させる。
202:モバイル端末は、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を取得する。
本願の実施例では、端末は、前後フレームの顔画像を取得した後、顔画像の前後フレームにおける位置変化によって、目標の顔の動作および該動作に対応する幅を特定することができる。目標の顔の動作とは、端末のカメラで撮影されたユーザ動作を指し、例えば、動作は、顔の上下左右移動であり得る。幅は、顔動作の移動方向および距離を指す。
例を挙げて説明すると、本願の実施例では、前後フレームの画像の比較により、目標の顔の動作が顔を左右に回転させることであると認識でき、画面における顔の左右移動に対応し、回転幅が画面における移動距離に対応する。また、例えば、前後フレームの画像の比較により、顔の動作が頭を上げたり下げたりすることであると認識でき、画面における顔の上下移動に対応し、移動幅が画面における移動距離に対応する。
本願のいくつかの実施例では、ステップ202では、モバイル端末は、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を取得する前記ステップは、
顔位置決め点が第1フレーム画像に現れる第1画素位置、および、顔位置決め点が第2フレーム画像に現れる第2画素位置を特定するステップと、
第1画素位置と第2画素位置とを比較することにより、第1画素位置と第2画素位置との相対変位を取得するステップと、
第1画素位置と第2画素位置との相対変位に基づいて、目標の顔の動作および対応する幅を特定するステップと、を含む。
本願の実施例では、上述したステップを通じて目標の顔を撮影した複数フレームの画像の顔検出を行った後、画像中の顔位置を出力することができ、カメラで撮影した画像における顔位置は、画素単位である。次に、該顔位置から顔位置決め点を検出し、該顔位置決め点の位置決め点特徴は、予め統計して分類することにより特定されることができ、これにより、顔位置にて予め設定された位置決め点特徴を満たす画素位置が存在するか否かを検出する。顔位置にて該位置決め点特徴を満たす画素位置が存在すれば、顔位置に存在する該位置決め点特徴を満たす画素位置は、顔位置決め点の顔位置における位置決め点位置であると判定される。本願の実施例で使用される顔位置決め点とは、対象オブジェクトの顔位置において、顔位置が回転したか否かを位置きめるための位置きめ基準点である。実際の応用において、顔位置決め点の選択は、顔位置における実現可能な五官特徴に基づいて行われることができる。なお、顔位置決め点は、顔位置におけるある器官が存在する画素位置であってもよいし、複数の器官が存在する画素位置であってもよい。ここでは制限しない。
各フレームの画像ごとに、同一の顔位置決め点が存在する画素位置を検出し、例えば、顔位置決め点が第1フレーム画像に存在する画素位置は第1画素位置と呼ばれ、顔位置決め点が第2フレーム画像に存在する画素位置は第2画素位置と呼ばれる。2フレームの画像における該2つの画素位置を比較することにより、相対変位を特定し、該相対変位に基づいて目標の顔の動作および幅を算出する。例を挙げて以下の通り説明する。顔の上下移動を例として、現在の顔の眉中心座標を前回の眉中心座標データと比較することにより、Y座標が大きくなっていれば、頭を上げることを意味し、Y座標が小さくなっていれば、頭を下げることを意味する。また、顔の左右移動を例として、現在の顔の鼻先座標を前回の鼻先座標データと比較することにより、X座標が大きくなっていれば、左に回転することを意味し、X座標が小さくなっていれば、右に回転することを意味する。さらに、顔の前後移動を例として、現在の顔の左眼の目尻から右眼の目尻までの距離を前回の同一の距離データと比較して大きくなっていれば、顔が前に移動したことを示唆し、該データの比較の結果、小さくなっていれば、顔が後に移動したことを示唆する。また、ユーザのタップを例として、現在の顔の中心点座標を前回の中心点座標データと比較することにより、一定の座標範囲内で一定の時間保っていれば、顔にタップ操作が発生したと判定される。
203:モバイル端末は、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されている。
本願の実施例では、インタラクティブ型アプリケーションシーンは、具体的には、ゲームシーンであってもよいし、アプリケーションプログラムのインタラクティブシーンであってもよい。例を挙げて説明すると、本願の実施例で提供されるインタラクティブ型アプリケーションシーンの処理方法は、ゲームキャラクターのために構築されたシーンに適用されることができれば、ソフトウェアアプリケーションシステムにおいてユーザのために構築されたシーンに適用されることもできる。本願の実施例で説明したインタラクティブ型アプリケーションシーンにはシミュレーション対象が表示されており、該シミュレーション対象は、ゲームシーンにおけるゲームキャラクターであってもよいし、ゲームシーンにおけるヒーローや兵士であってもよく、例えば、シミュレーション対象は、ストラテジーゲームにおけるユーザが制御している人又はものであり得るが、ここでは制限しない。インタラクティブ型アプリケーションシーンにシミュレーション対象が表示されるほか、インタラクティブ型アプリケーションシーンにはインタラクティブ可能な物体も表示されており、該インタラクティブ可能な物体とは、インタラクティブ型アプリケーションシーンにおいてシミュレーション対象とインタラクティブ可能な物体を指し、この物体は、異なるインタラクティブ型シーンで様々なものであり得る。例えば、ゲームシーンにおける道具であり得る
本願の実施例では、端末は、目標の顔の動作および対応する幅を取得した後、該動作および対応する幅を、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令にマッピングすることができ、該制御指令は「インタラクティブ指令」と呼ばれてもよい。すなわち、ユーザは自分の顔を介して動作し、該動作のタイプおよび幅に応じてシミュレーション対象の制御指令を生成することができ、該制御指令によってシミュレーション対象を制御可能である。
本願のいくつかの実施例では、次に、本願の実施例でインタラクティブ可能な物体のロック方法について説明する。ステップ203では、モバイル端末は、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成した後、本願の実施例で提供される方法は、
モバイル端末は、制御指令に従い、焦点がインタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達したか否かを判定し、焦点は、目標の顔がインタラクティブ型アプリケーションシーンにマッピングされる基準点であるステップと、
シミュレーション対象がインタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達していれば、モバイル端末は、インタラクティブ可能な物体の範囲内からインタラクティブ可能な物体をロックするステップと、をさらに含む。
目標の顔は、インタラクティブ型アプリケーションシーンにおいて1つの焦点がマッピングされており、該焦点は、ユーザの顔がインタラクティブ型アプリケーションシーンにマッピングされる基準点である。まず、該制御指令によって、該焦点がインタラクティブ可能な物体の範囲内であるか否かを判定し、インタラクティブ可能な物体の範囲とは、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体が存在する一定の領域の範囲を指す。焦点が該インタラクティブ可能な物体の範囲内に入った場合にのみ、シミュレーション対象はインタラクティブ可能な物体とインタラクすることができ、焦点が該インタラクティブ可能な物体の範囲内に入っていなければ、シミュレーション対象はインタラクティブ可能な物体とインタラクすることができない。該シミュレーション対象が該インタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達したか否かを判定し、予め設定された時間はx秒で表され、一定範囲内で固定点をx秒間維持すると、対応画面におけるインタラクティブ可能な物体を特定し、焦点ロックを行い、対応操作を実現する。インタラクティブ型アプリケーションシーンにおいて、インタラクティブ可能な物体のロックは、デフォルトで設定されることができれば、インタラクティブ可能な物体が複数ある場合、焦点とインタラクティブ可能な物体の範囲との距離によってインタラクティブ可能な物体をロックすることもできると分かる。ロックされたインタラクティブ可能な物体は、シミュレーション対象がインタラクするべき物体である。
204:モバイル端末は、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する。
本願の実施例では、端末が制御指令を生成した後、端末は、該制御指令に応じて、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ方式を制御することができる。本願の実施例では、インタラクティブ型アプリケーションシーンの設定が異なると、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ動作は様々なものが存在し取得する。例を挙げて以下の通り説明する。インタラクティブ型アプリケーションシーンが魚を食べるゲームであることを例として、インタラクティブ可能な物体は、ゲームシーンに設定された魚道具であり、上述した実施例で生成された制御指令が口開けであれば、口を開けて魚を食べ始めるようにゲームキャラクター(例えば、口)を制御することができ、これにより、ゲームキャラクターとインタラクティブ可能な物体とのインタラクを実現する。本願の実施例では、シミュレーション対象の制御指令は、画像検出により生成され、全過程で非タッチの形で、一人称視点でゲームへの感情移入を強め、ユニークなゲーム体験をもたらす。
本願のいくつかの実施例では、ステップ204では、モバイル端末は、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する前記ステップは、
焦点とインタラクティブ可能な物体との距離をリアルタイムで算出し、焦点は、目標の顔がインタラクティブ型アプリケーションシーンにマッピングされる基準点であるステップと、
リアルタイムで算出された距離に基づいて、焦点がインタラクティブ可能な物体の範囲内であるか否かを判定するステップと、
焦点がインタラクティブ可能な物体の範囲内であれば、リアルタイムで算出された距離に基づいて、焦点に対応する変位速度を更新するステップと、
更新後の変位速度に基づいて制御指令を更新し、更新後の制御指令を用いて、インタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御するステップと、を含む。
インタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する際に、端末は、シミュレーション対象とインタラクティブ可能な物体との距離をリアルタイムで算出することができ、該距離によって、焦点がインタラクティブ可能な物体の範囲内であるか否かを判断することができ、焦点がインタラクティブ可能な物体の範囲内である場合にのみ、後続のインタラクティブフローを実行することができ、焦点がインタラクティブ可能な物体の範囲内でなければ、インタラクすることができない。焦点がインタラクティブ可能な物体の範囲内である場合に、リアルタイムで算出された距離に基づいて、焦点に対応する変位速度を更新し、すなわち、該距離のリアルタイムの変化に基づいて、焦点に対応する変位速度をリアルタイムで更新することができ、継続的に更新される変位速度に従い制御指令を更新することができるため、該制御指令は、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを制御するために使用されることができる。例えば、焦点に対応する変位速度が変化した場合、シミュレーション対象は、制御指令に従いリアルタイムで移動することができ、アプリケーションシーンが異なると、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ方式は、具体的なシーンと結合して決定されることができる。
あるいはまた、本願のいくつかの実施例では、焦点とインタラクティブ可能な物体との距離をリアルタイムで算出した後、該距離のリアルタイムの変化状況に応じて、焦点に対応する変位速度を更新してもよい。これにより、変位速度のリアルタイムの更新を実現し、磁気吸引効果および減衰効果を実現可能である。具体的には、リアルタイムで算出された距離に基づいて、焦点に対応する変位速度を更新することは、
焦点とインタラクティブ可能な物体との距離が小さくなると、焦点の移動方向に変位速度を減少させてから変位速度を増加させること、或いは、
焦点とインタラクティブ可能な物体との距離が大きくなると、まず焦点の移動方向に変位速度を減少させ、その後、移動方向の反対方向に変位速度を増加させること、を含む。
端末は、磁気吸引合焦方式を採用することができ、すなわち、シミュレーション対象とインタラクティブ可能な物体との距離をリアルタイムで算出することができる。焦点がインタラクティブ可能な物体にある状態下で、焦点とインタラクティブ可能な物体との距離が小さくなると、焦点の移動方向に変位速度を減少させてから変位速度を増大させ、これにより、焦点がインタラクティブ可能な物体から離れる移動抵抗が増大し、焦点に対応する変位速度の動的な調整を実現し、その増大後の移動抵抗に基づいて制御指令を更新することで、該制御指令はインタラクティブポイントへの吸引力作用が発生することができるので、物体インタラクティブ操作を行う難しさが低下し、精度が向上する。
図4は、本願の実施例で提供される磁気吸引効果の模式図である。シミュレーション対象が制御指令の制御下で生じる速度は、以下の式から算出される。
速度=(初期速度×初期方向−目標速度×目標方向)×(現在時間/合計時間)×磁気吸引定数。
インタラクティブ可能な物体外とは、顔が機器にマッピングされる焦点がインタラクティブ可能な物体の範囲外であることを意味し、インタラクティブ可能な物体内とは、顔が機器にマッピングされる焦点がインタラクティブ可能な物体の範囲内であることを意味する。初期速度、初期方向、目標速度、目標方向は、いずれも顔の移動が画面上に反映される移動データであり、磁気吸引定数は実際のシーンに応じて調整されることができ、磁気吸引定数は、顔の回転速度から焦点の移動速度への体験を拡張するために使用され、例えば、磁気吸引定数の取りうる値は1.32である。例を挙げて以下の通り説明する。インタラクティブ可能な物体に対して、顔操作カーソルが近づくと、移動抵抗が大きくなり、すなわち、物体から離れるためにより大きい動作幅が必要となる。本願の実施例では、磁気吸引合焦により、顔制御の精度および滑らかさを大幅に向上させ、インタラクティブを全く顔の表情認識に頼って行うゲームが可能になっている。
本願の他の実施例では、インタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する際に、端末は、減衰効果方式を採用することができ、リアルタイムで算出されたシミュレーション対象とインタラクティブ可能な物体との距離に基づいて、焦点とインタラクティブ可能な物体との距離が大きくなると、まず焦点の移動方向に変位速度を減少させ、その後、移動方向の反対方向に変位速度を増加させる。該焦点に対応する変位速度が閾値を超えたか否かを判断し、変位速度が該閾値を超えると、顔操作が速すぎて、往復双方向に高速変位が発生したことが分かり、このとき、同方向にまず焦点に対応する変位速度を減少させ、その後、反対方向に変位速度を増加させることができ、これにより、減衰効果が発生し、操作の不確かさを低減する。
図5は、本願の実施例で提供される減衰効果の模式図である。シミュレーション対象が制御指令の制御下で生じる速度は、以下の式から算出される。
速度=cos(初期速度×方向/目標速度×方向)×(現在時間/合計時間)×減衰定数。
初期速度、初期方向、目標速度、目標方向は、いずれも顔の移動が画面上に反映される移動データであり、減衰定数は実際のシーンに応じて調整されることができ、減衰定数は、顔の向きが焦点の向きにマッピングされる加減速の体験を強化するために使用され、例えば、減衰定数の取りうる値は0.53である。本願の実施例では、焦点に対応する変位速度を減らし、減衰効果を発生させ、操作の不確かさを低減することができるため、顔制御の精度および滑らかさを大幅に向上させ、インタラクティブを全く顔の表情認識に頼って行うゲームが可能になっている。
以上、インタラクティブ型アプリケーションシーンにおいて顔をマッピングさせた焦点に基づくインタラクティブ検出過程について説明した。図3は、本願の実施例で提供される他のアプリケーションシーンにおけるインタラクティブ方法の概略的なフローブロック図である。次に、図3を参照しながら、デフォーカス判定過程について詳しく説明する。本願のいくつかの実施例では、本願の実施例で提供される方法は、ステップ301〜ステップ303をさらに含む。
301:モバイル端末は、リアルタイムで取得した各フレームの画像での複数の顔キーポイントのピクセル座標を特定する。
各フレームの画像において、端末は、カメラによって複数の顔キーポイントのピクセル座標をキャプチャすることができ、顔キーポイントの数は90とされてもよい。
302:モバイル端末は、複数の顔キーポイントのピクセル座標に基づいて、目標の顔が焦点を失ったか否かを判断する。
端末は、これらの顔キーポイントのピクセル座標に基づいて、目標の顔が焦点を失ったか否かを判定し、例えば、カメラでキャプチャした90個の顔キーポイントのピクセル座標に基づく分析を行い、これらのキーポイントを90個まで取得できないか、或いは、頭を上げたり下げたりする動作が一定の幅(例えば、45度)を超えていれば、デフォーカスであると判断する。
303:目標の顔が焦点を失った場合、目標の顔の合焦補正を行う。
本願の実施例では、顔が認識できないか、或いは、カメラから離れていると判定されていれば、ユーザの顔データをリアルタイムで算出することで、ユーザが焦点を失ったか否かを判定し、合焦補正を付与する。ステップ301〜ステップ303では、顔がマッピングされた焦点に対してリアルタイムのデフォーカス判定を行うことにより、合焦補正をすぐに完成できるので、焦点に基づく磁気吸引合焦および減衰効果をすぐに完成できる。
以上の実施例を用いて本願の実施例に関して説明したように、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較することにより、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する。本願の実施例によれば、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて、顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブな動作をすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願の実施例の上記技術案をよりよく理解し実施するために、以下、例を挙げて対応するアプリケーションシーンについて具体的に説明する。
本願の実施例では、既存の入力によるインタラクティブ方式に対応していると同時に、カメラによってユーザの顔特徴を1フレームずつキャプチャし、前後フレームの顔データの比較により、ユーザによる動作および対応する幅を算出し、異なるゲーム入力に対応させ、指操作を一切必要としない新しいインタラクティブ方式を実現する。顔制御の精度および滑らかさを大幅に向上させ、インタラクティブを全く顔の表情認識に頼って行うゲームが可能になっている。
本願の実施例では、端末に求められるハードウェアは、カメラを備える携帯電話でもパソコンでもよい。図6は、本願の実施例で提供されるゲームシーンでのインタラクティブ検出フローの模式図である。主な実現論理は以下のような過程を含み取得する。
S01:ユーザが入力する。
ユーザは、端末のカメラを介して顔画像を取得することができれば、タッチパネルを指で操作することもできる。
S02:指によるデータ入力であるか否かを判断する。
端末は、タッチパネル上にユーザが指で入力したデータがあるか否かを検出することができる。
S03:指で画面をタップしてスライドする。
指によるデータ入力があると検出された場合、ユーザは、画面をタップしてスライドすることができる。
S04:カメラを介した顔データ入力であるか否かを判断する。
指によるデータが検出されていなければ、端末は、カメラに顔データが入力されたか否かを判断することができる。
S05:入力データが誤っているか否かを判断する。
ステップS04の後に、端末は、入力されたデータが誤っているか否か、すなわち、完全たる顔画像を検出できるか否かを判断する。
S06:ユーザに知らせる。
データが誤って入力できない場合、再入力するようにユーザを促すか、或いは、入力が失敗したことをユーザに知らせる。
S07:比較データがあるか否かを判断する。
端末は、連続する複数フレームの顔画像を取得した場合、前後に連続する複数フレームの画像を比較する。
S08:データ比較を行う。
データ比較段階では、端末は、前後の2フレームの顔画像を比較することができる。具体的な比較過程について、上述の実施例の説明を詳しく参照されたい。ここではその詳細を繰り返さない。
なお、1回目の入力時に比較データがなければ、データ記憶にジャンプし、2回目のデータ比較時に、その前に記憶されたデータを現在のデータと比較する。
S09:データ比較により、ユーザの異なる顔動作および幅を判断する。
データ比較が終わった後、端末は、ユーザの現在の動作および対応する幅を判断することができる。
例を挙げて以下の通り説明する。顔の上下移動を例として、現在の顔の眉中心座標を前回の眉中心座標データと比較することにより、Y座標が大きくなっていれば、頭を上げることを意味し、Y座標が小さくなっていれば、頭を下げることを意味する。また、顔の左右移動を例として、現在の顔の鼻先座標を前回の鼻先座標データと比較することにより、X座標が大きくなっていれば、左に回転することを意味し、X座標が小さくなっていれば、右に回転することを意味する。さらに、顔の前後移動を例として、現在の顔の左眼の目尻から右眼の目尻までの距離を前回の同一の距離データと比較して大きくなっていれば、顔が前に移動したことを示唆し、該データ比較の結果、小さくなっていれば、顔が後に移動したことを示唆する。また、ユーザのタップを例として、現在の顔の中心点座標を前回の中心点座標データと比較することにより、一定の座標範囲内で一定時間保っていれば、顔にタップ操作が発生したと判定される。
例を挙げて以下の通り説明する。表1は、基本的機能と実現メカニズムとの対応関係を示す表である。
Figure 2021516836
また、表2は、特殊機能と実現メカニズムとの対応関係を示す表である。
Figure 2021516836
S10:制御指令を生成する(例えば、上下左右前後移動、タップ)。
上記表1および表2において、顔を左右に回転させることは、画面の左右移動に対応し、回転幅は画面の移動距離に対応する。頭を上げたり下げたりすることは、画面の上下移動に対応し、幅は画面の移動距離に対応する。口を開けたり閉じたりすることは、画面の関連操作、例えば、噛み合って魚を食べる操作に対応する。一定の範囲内で固定点をx秒間維持し、固定点は、具体的な視線を維持する焦点であり、範囲内で安定して維持され、画面におけるインタラクティブ可能な物体に対応する。そして、焦点ロックを行い、対応操作を実現する。
次に、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブ方式について説明する。
磁気吸引合焦:顔が機器にマッピングされるシミュレーション対象とインタラクティブ可能な物体との距離をリアルタイムで算出することにより、インタラクティブ可能な物体にある状態下であれば、顔が機器にマッピングされる焦点に対応する変位速度を動的に調整し、インタラクティブポイントの吸引力作用が発生するため、物体のインタラクティブ操作の難しさが低下し、精度が向上する。
デフォーカス判定:ユーザの顔データをリアルタイムの算出により取得し、ユーザが焦点を失ったか否かを判定し、デフォーカス補正を付与する。例えば、カメラがキャプチャした顔キーポイント(90個)の座標に基づいて分析し、ポイントが欠けているか、或いは、頭を上げたり下げたりする動作が一定の幅(45度)を超えていれば、デフォーカスであると判断される。
減衰効果:顔操作が速すぎて、往復双方向に高速変位が発生した時、減衰効果が発生し、操作の不確かさを低減する。
S11:対応するゲーム表現をドライブする。
端末は、上記ステップで生成された制御指令に基づいてゲーム表現をドライブすることができる。次に、様々なゲームシーンについて例を挙げて説明する。
顔認識に基づいて正確な制御操作を行うゲームを例として、ゲームシーンにおいて、ユーザは、ゲーム全過程で顔に基づく制御操作によりゲームプレイする。携帯電話のカメラを介して、それぞれの異なるステージのゲームプレイに基づいて、一人称視点でゲーム中のキャラクターを制御して、異なる操作、例えば、移動、ロック、噛み合い、つつきなどを行う。従来のゲームのタッチ操作とは異なり、本願の実施例では、ゲーム全過程で非タッチの形で、一人称視点でゲームへの感情移入を強化し、ユニークなゲーム体験をもたらす。
主な特徴は以下の通りである。
ゲーム全過程で非タッチであり、ゲーム全過程ですべて非タッチ操作であり、顔認識だけによってすべてのゲーム行動を完了させる。
インタラクティブを正確に制御し、磁気吸引合焦、デフォーカス補正、減衰効果などの製品技術ソリューションにより、もともとぼけて不正確な顔制御を実用でかつより正確なものにする。顔制御の難しさを低減し、より正確な制御が可能である。
没入型感情移入、一人称視点、完全かつ包括的な顔マッチングによるゲームプレイは、身に染みた体験をもたらし、ゲームのインパクトを高める。
図7は、本願の実施例で提供されるゲームシーンでのインタラクティブ検出模式図である。図7に示されるように、ゲームシーンの1つのバージョンのサンプル図面において、ゲームプレイステージのゲームシーンを例として、プレイヤーが制御しているシミュレーション対象は、酔っぱらいというキャラクターであり、ゲームプレイステージのゲームシーンにおいてインタラクティブ可能な物体は障害物である。モバイル端末のカメラがプレイヤーの顔をリアルタイムで撮影し、撮影された前後隣接する2フレームの画像を比較することで、プレイヤーの動作および対応する幅を取得する。プレイヤーの動作および幅に基づいて、酔っぱらいへの制御指令を生成することができ、例えば、左へ移動するように該酔っぱらいを制御し、酔っぱらいが左へ移動すると、該酔っぱらいが障害物に衝突する。また、例えば、右へ移動するように該酔っぱらいを制御し、酔っぱらいが右へ移動すると、該酔っぱらいが障害物をうまく回避する。図7に示されるシーンを例にして、本願の実施例では、酔っぱらいの移動を顔によって制御して障害物を回避することができ、これにより、酔っぱらいと障害物とのインタラクティブな動作を実現する。
図8は、本願の実施例で提供される他のゲームシーンでのインタラクティブ検出模式図である。図8に示されるように、ゲームシーンの他のバージョンのサンプル図面において、海底ゲームプレイステージのゲームシーンを例として、プレイヤーが制御しているシミュレーション対象は、魚というキャラクターであり、海底ゲームプレイステージのゲームシーンにおいて、インタラクティブ可能な物体は口である。モバイル端末のカメラがプレイヤーの顔をリアルタイムで撮影し、撮影された前後隣接する2フレームの画像を比較することで、プレイヤーの動作および対応する幅を取得する。プレイヤーの動作および幅に基づいて、魚への制御指令を生成することができ、例えば、左へ移動ように該魚を制御し、魚が左へ移動すると、その口が1つの魚を食べる。また、例えば、右へ移動するように該魚を制御し、魚が右へ移動すると、魚は口のキャプチャからうまく逃げる。図8に示されるシーンを例にして、本願の実施例では、魚の泳ぎ、および、狩猟のために口が噛み合う(魚を食べる)動作を顔によって制御することができ、これにより、魚と口とのインタラクティブな動作を実現する。
図9は、本願の実施例で提供される更なるゲームシーンでのインタラクティブ検出模式図である。図9に示されるように、ゲームシーンの他のバージョンのサンプル図面において、顔認識時にカメラから外れた場合、ゲームでは、ユーザインターフェース(User Interface、UI)におけるインタラクティブをデフォーカス補正の形で行い、すなわち、ユーザは、画面に現れたUI輪郭の提示に従い顔位置を調整し、リフォーカスの目的を実現する。デフォーカス補正の詳細について、この前で例を挙げて説明したものを参照されたい。
S12:データを記憶する。
1フレームの顔画像を取得するごとにデータを記憶し、これにより、次のフレームとのデータ比較時に前のフレームの顔画像を呼び出すことができる。
本願の実施例で提供される技術案によれば、インタラクティブを全く顔の表情認識に頼って行うゲームを実現し、モバイル端末における没入感ゲームへの感情移入を大幅に向上させる。また、画面タッチに頼らないインタラクティブ方式は、一部の特殊シーン下でのゲームプレイ時のバリアフリーを向上させる。そして、該技術案によれば、手が不自由なユーザ向けのゲームを開発することもできるので、ユーザが指を使うのが不便な場合、又は、モバイル端末にタッチパネルが装着されていない等の場合であっても、インタラクティブな動作をやり遂げることができる
なお、上述の各方法実施例について、説明の簡略化のために、一連の動作の組合せとして記述しているが、しかし、当業者であれば分かるように、本願の実施例は、説明された動作の順番に制限されず、本願の実施例によれば、一部のステップを他の順番で行うか或いは同時に行うこともできるのがその理由である。次に、明細書に記述された実施例はいずれも好適な実施例であり、言及された動作及びモジュールは、必ずしも本願の実施例に必須なものとは限らないことも、当業者であれば分かっている。
本願の実施例は、コンピュータ読取可能な記憶媒体をさらに提供する。あるいはまた、本実施例では、上記コンピュータ読取可能な記憶媒体は、コンピュータで実行されると、コンピュータに上述した方法を実行させる指令を含んでもよい。
あるいはまた、本実施例では、コンピュータ読取可能な記憶媒体に含まれる指令は、コンピュータで実行されると、
S11:前記モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得するステップと、
S12:前記第1フレーム画像と前記第2フレーム画像とを比較して、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得するステップと、
S13:前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成するステップと、
S14:前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクするように前記シミュレーション対象を制御するステップと、
をコンピュータに実行させてもよい。
あるいはまた、本実施例の具体例について、上述した実施例で説明された例を参照してもよい。本実施例ではここでその詳細を繰り返さない。
本願の実施例の上記技術案をよりよく実施するために、以下、上記技術案を実施するための関連装置をさらに提供する。
図10−aは、本願の実施例で提供されるモバイル端末の構成模式図である。図10−aに示されるように、本願の実施例で提供されるモバイル端末1000は、1つ又は複数のプロセッサと、プログラムユニットを記憶する1つ又は複数のメモリとを備え、プログラムユニットはプロセッサによって実行され、該プログラムユニットは、撮影モジュール1001、比較モジュール1002、指令生成モジュール1003、インタラクティブモジュール1004を含む。
撮影モジュール1001は、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、それぞれ撮影された前後隣接する2フレームの画像である第1フレーム画像および第2フレーム画像を取得する。
比較モジュール1002は、前記第1フレーム画像と前記第2フレーム画像とを比較して、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得する。
指令生成モジュール1003は、前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、シミュレーション対象およびインタラクティブ可能な物体が表示されているインタラクティブ型アプリケーションシーンにおける前記シミュレーション対象の制御指令を生成する。
インタラクティブモジュール1004は、前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクするように前記シミュレーション対象を制御する。
図10−bは、本願の実施例で提供される比較モジュールの構成模式図である。本願のいくつかの実施例では、図10−bに示されるように、前記比較モジュール1002は、
顔位置決め点が前記第1フレーム画像に現れる第1画素位置、および、前記顔位置決め点が前記第2フレーム画像に現れる第2画素位置を特定する画素位置特定ユニット10021と、
前記第1画素位置と前記第2画素位置とを比較して、前記第1画素位置と前記第2画素位置との相対変位を取得する変位特定ユニット10022と、
前記第1画素位置と前記第2画素位置との相対変位に基づいて、前記目標の顔の動作および前記目標の顔の動作に対応する幅を特定する動作特定ユニット10023と、を含む。
図10−cは、本願の実施例で提供される他のモバイル端末の構成模式図である。本願のいくつかの実施例では、図10−cに示されるように、図10−aに示されるものに対して、前記プログラムユニットは、
前記撮影モジュール1001がモバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影する前に、モバイル端末のタッチ画面にタッチ入力が生じたか否かを検出し、前記タッチ画面にタッチ入力が生じていなければ、前記撮影モジュールの実行をトリガーするタッチ検出モジュール1005をさらに含む。
図10−dは、本願の実施例で提供される更なるモバイル端末の構成模式図である。本願のいくつかの実施例では、図10−dに示されるように、図10−aに示されるものに対して、前記プログラムユニットは、
前記指令生成モジュール1003が前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成した後、前記制御指令に基づいて、前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点がインタラクティブ可能な物体の範囲内で安定して維持される時間が、予め設定された時間に達したか否かを検出する焦点検出モジュール1006と、
前記焦点が前記インタラクティブ可能な物体の範囲内で安定して維持される時間が予め設定された時間に達していれば、前記インタラクティブ可能な物体の範囲内からインタラクティブ可能な物体をロックする物体ロックモジュール1007と、をさらに含む。
図10−eは、本願の実施例で提供されるインタラクティブモジュールの構成模式図である。本願のいくつかの実施例では、図10−eに示されるように、前記インタラクティブモジュール1004は、
前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点と前記インタラクティブ可能な物体との距離をリアルタイムで算出する距離算出ユニット10041と、
リアルタイムで算出された前記距離に基づいて、前記焦点がインタラクティブ可能な物体の範囲内であるか否かを判定する範囲判定ユニット10042と、
前記焦点が前記インタラクティブ可能な物体の範囲内であれば、リアルタイムで算出された前記距離に基づいて、前記焦点に対応する変位速度を更新する速度更新ユニット10043と、
更新後の前記変位速度に基づいて前記制御指令を更新し、更新後の制御指令を用いて、前記インタラクティブ可能な物体とインタラクするように前記シミュレーション対象を制御するインタラクティブユニット10044と、を含む。
本願のいくつかの実施例では、速度更新ユニット10043は、具体的には、前記焦点と前記インタラクティブ可能な物体との距離が小さくなると、前記焦点の移動方向に前記変位速度を減少させてから前記変位速度を増加させるか、或いは、前記焦点と前記インタラクティブ可能な物体との距離が大きくなると、まず前記焦点の移動方向に前記変位速度を減少させ、その後、前記移動方向の反対方向に前記変位速度を増加させる。
図10−fは、本願の実施例で提供される更なるモバイル端末の構成模式図である。本願のいくつかの実施例では、図10−fに示されるように、図10−aに示されるものに対して、前記プログラムユニットは、
リアルタイムで取得した各フレームの画像での複数の顔キーポイントのピクセル座標を特定するキーポイント取得モジュール1008と、
前記複数の顔キーポイントのピクセル座標に基づいて、前記目標の顔が焦点を失ったか否かを判断するデフォーカス判定モジュール1009と、
前記目標の顔が焦点を失っていれば、前記目標の顔の合焦補正を行う合焦モジュール1010と、をさらに含む。
以上で本願の実施例について説明したように、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較して、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する。本願の実施例では、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて、顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブな動作をすることができるので、モバイル端末における没入型インタラクティブを実現することができる。
本願の実施例は、他の端末をさらに提供する。図11は、本願の実施例で提供されるアプリケーションシーンにおけるインタラクティブ方法が端末に適用される構成模式図である。図11に示されるように、説明の便宜上、本願の実施例に関連する部分のみを示しており、具体的な技術の詳細が開示されていないものについては、本願の実施例の方法部分を参照されたい。該端末は、携帯電話、タブレットコンピュータ、パーソナルデジタルアシススタント(Personal Digital Assistant、PDA)、ポイント・オブ・セールス(Point of Sales、POS)、車載コンピュータなど、任意の端末機器であり得る。端末が携帯電話であることを例とする。
図11は、本願の実施例で提供される端末に関連する携帯電話の一部の構造のブロック図を示している。図11を参照し、携帯電話は、無線周波数(Radio Frequency、RF)回路1010、メモリ1020、入力ユニット1030、表示ユニット1040、センサ1050、オーディオ回路1060、ワイヤレスフィデリティ(wireless fidelity、WiFi)モジュール1070、プロセッサ1080、および電源1090などの部材を備える。図11に示される携帯電話の構造は、携帯電話を限定するものではなく、示されるものよりも多い又は少ない部材を含むか、或いは、いくつかの部材を組み合わせるか、或いは、異なる部材配置を有することが可能であることは、当業者が理解するであろう。
以下、図11を用いて携帯電話の各構成要素を具体的に紹介する。
RF回路1010は、情報の送受信、又は通話中の信号の送受信を行うように構成されてもよい。特に、基地局の下り情報を受信した後、プロセッサ1080に処理させ、また、上りのためのデータを基地局に送信する。通常、RF回路1010は、アンテナ、少なくとも1つの増幅器、トランシーバ、カプラー、低雑音増幅器(Low Noise Amplifier、LNA)、デュプレクサなどを含むが、これらに限られない。また、RF回路1010は、無線通信を介してネットワーク及び他の機器と通信することもできる。上記無線通信は、任意の通信規格またはプロトコルを使用することができ、グローバルモバイル通信システム(Global System of Mobile communication、GSM)、汎用パケット無線サービス(General Packet Radio Service、GPRS)、符号分割多元接続(Code Division Multiple Access、CDMA)、広帯域符号分割多元接続(Wideband Code Division Multiple Access、 WCDMA)、ロングタームエボリューション(Long Term Evolution、LTE)、電子メール、ショートメッセージサービス(Short Messaging Service、SMS)などを含むが、これらに限られない。
メモリ1020は、ソフトウェアプログラム及びモジュールを記憶するように構成されてもよい。プロセッサ1080は、メモリ1020に記憶されるソフトウェアプログラム及びモジュールを実行することで、携帯電話の様々な機能アプリケーションおよびデータ処理を実行する。メモリ1020は、主にプログラム格納領域およびデータ格納領域を含み、プログラム格納領域には、オペレーティングシステム、少なくとも1つの機能(例えば、音声再生機能、画像再生機能など)に必要なアプリケーションプログラムなどが格納されることができる。データ格納領域には、携帯電話の使用に応じて作成されたデータ(音声データ、電話帳など)が格納されることができる。また、メモリ1020は、高速ランダムアクセスメモリを含むことができれば、例えば少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、または他の揮発性固体記憶デバイスなどの不揮発性メモリを含むこともできる。
入力ユニット1030は、入力された数字や文字情報を受信し、携帯電話のユーザ設定や機能制御に関するキー信号入力を生成するように構成されてもよい。具体的には、入力ユニット1030は、タッチパネル1031及び他の入力デバイス1032を含んでもよい。タッチパネル1031は、タッチスクリーンとも呼ばれ、その上またはその近くでのユーザーのタッチ操作(例えば、ユーザーが指、スタイラスなど、如何なる適切なオブジェクトまたはアクセサリを用いて、タッチパネル1031上またはタッチパネル1031の近くで動作する)を収集し、予め設定されたプログラムに従って対応する接続装置を駆動することができる。あるいはまた、タッチパネル1031は、タッチ検出装置およびタッチコントローラという2つの部分を含んでもよい。タッチ検出装置は、ユーザのタッチ位置を検出し、タッチ操作によって生じる信号を検出し、信号をタッチコントローラに送信する。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、接触点座標に変換してプロセッサ1080に送信するとともに、プロセッサ1080から送信された指令を受信して実行可能である。また、タッチパネル1031は、抵抗式、静電容量式、赤外線、表面弾性波など、様々なタイプのもので実現できる。入力ユニット1030は、タッチパネル1031に加えて、他の入力デバイス1032を含んでもよい。具体的には、他の入力デバイス1032は、物理キーボード、機能キー(音量制御キー、スイッチキーなど)、トラックボール、マウス、ジョイスティックなどの1つまたは複数を含み取得するが、これらに限定されない。
表示ユニット1040は、ユーザが入力した情報またはユーザに提供された情報や携帯電話の各種メニューを表示するように構成されてもよい。表示ユニット1040は、表示パネル1041を含み取得する。あるいはまた、表示パネル1041は、液晶ディスプレイ(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic Light−Emitting Diode、 OLED)などの形態で構成されていてもよい。さらに、タッチパネル1031は表示パネル1041を覆うことができ、タッチパネル1031は、その上またはその近くでのタッチ操作を検出すると、タッチイベントのタイプを決定するためにプロセッサ1080に転送し、その後、プロセッサ1080は、タッチイベントのタイプに応じて、表示パネル1041に対して対応する視覚出力を提供する。図11では、タッチパネル1031と表示パネル1041とは、2つの独立した部材として携帯電話の入力および入力機能を実現するが、しかし、いくつかの実施例では、タッチパネル1031と表示パネル1041とを統合して携帯電話の入力および出力機能を実現可能である。
携帯電話は、光センサー、動きセンサ、および他のセンサーなど、少なくとも1種類のセンサ1050をさらに含んでもよい。具体的には、光センサは、環境光センサ及び近接センサを含むことができ、環境光センサは、環境光の明暗に応じて表示パネル1041の明るさを調整することができ、近接センサは、携帯電話が耳に当てられると、表示パネル1041および/またはバックライトをオフにすることができる。動きセンサの一種として、加速度センサは、各方向(一般、3軸である)における加速度の大きさを検出することができ、静止時に重力の大きさや方向を検出することができ、携帯電話の姿勢を認識するアプリケーション(例えば、縦表示と横表示の切り替え、関連ゲーム、磁力計の姿勢校正)、振動認識関連機能(例えば、歩数計、叩き)を備えるものなどとされてもよい。携帯電話にさらに備えられるジャイロ、気圧計、湿度計、温度計、赤外線センサなどの他のセンサについて、ここではその詳細を繰り返さない。
オーディオ回路1060、スピーカ1061、マイクロフォン1062は、ユーザと携帯電話間のオーディオインターフェースを提供することができる。オーディオ回路1060は、受信した音声データから変換された電気信号をスピーカ1061に伝送することができ、スピーカ1061はこれを音声信号に変換して出力する。一方、マイクロフォン1062は、収集した音声信号を電気信号に変換し、オーディオ回路1060はこれを受信後、音声データに変換し、音声データをプロセッサ1080に出力して処理させた後、RF回路1010によって携帯電話に送信されるか、或いは、音声データを更なる処理のためにメモリ1020に出力される。
WiFiは、短距離無線伝送技術である。携帯電話は、WiFiモジュール1070を介して、ユーザによる電子メールの送受信、ウェブページの閲覧、ストリーミングメディアへのアクセスなどを支援することができ、ユーザに無線を介したブロードバンドインターネットアクセスを提供する。図11にWiFiモジュール1070が示されているが、しかし、これは携帯電話に必須な構成要素ではなく、本発明の本質を変えることなく必要に応じて省略してもよいことは理解できる。
プロセッサ1080は、携帯電話の制御センターであり、携帯電話全体の各部を種々のインターフェースおよび回線で接続し、メモリ1020に格納されたソフトウェアプログラム及び/又はモジュールを実行し、メモリ1020に格納されたデータを呼び出すことで、携帯電話の様々な機能およびデータ処理を実行し、これにより、携帯電話全体を監視する。あるいはまた、プロセッサ1080は、1つ又は複数の処理ユニットを含んでもよい。好ましくは、プロセッサ1080は、アプリケーションプロセッサおよびモデムプロセッサを統合することができ、アプリケーションプロセッサは、主にオペレーティングシステム、ユーザインターフェース、およびアプリケーションプログラムなどを扱い、モデムプロセッサは主に無線通信を扱う。上記モデムプロセッサはプロセッサ1080に統合されなくてもよいことは理解できる。
携帯電話は、各部材に電力を供給する電源1090(例えば、電池)をさらに含む。好ましくは、電源は、電源管理システムを介してプロセッサ1080と論理的に接続されることができ、これにより、電源管理システムを介して充電、放電、および電力消費管理などの機能を実現する。
携帯電話は、カメラ1011をさらに含んでもよい。該カメラ1011は、携帯電話のフロントカメラであり得る。カメラ1011が複数フレームの顔画像を取得した後、プロセッサ1080は、複数フレームの顔画像を処理する。本願の実施例では、該端末に備えられるプロセッサ1080は、さらに、端末によって実行される上記アプリケーションシーンにおけるインタラクティブ方法のフローの実行を制御する。
なお、また、以上で説明した装置実施例は、概略的なものにすぎない。上記分離した部材として説明したユニットは、物理的に分離したものであってもよいし、物理的に分離したものでなくてもよく、ユニットとして示した部材は、物理的ユニットであってもよいし、物理的ユニットでなくてもよく、つまり、同一場所に配置されてもよいし、複数のネットワークユニットに分布されてもよい。実際のニーズに応じて、その一部又は全てのモジュールにより本実施例の目的を達成することができる。また、本願の実施例で提供される装置実施例の図面において、モジュール同士の接続関係は、それらが通信接続されることを意味し、具体的には、1本又は複数本の通信バス又は信号線として実現されてもよい。当業者は、創造的な労働無しに理解し実施することができる。
以上の実施形態の記載から、本願の実施例をソフトウェアおよび必須な汎用ハードウェアの形で実現することができ、もちろん、専用集積回路、専用CPU、専用メモリ、専用部品などを含む専用ハードウェアで実現することもできるのは、当業者にとって明らかである。一般、コンピュータプログラムによって完成される機能はいずれも対応するハードウェアによって容易に実現可能であり、また、同一機能を実現するための具体的なハードウェア構造は様々であり、例えば、アナログ回路、デジタル回路又は専用回路などである。しかし、本願の実施例は、殆どの場合、ソフトウェアプログラムによって実現されるのがより望ましい。このように理解すれば、本願の実施例の技術案は、本質的に、又は従来技術に貢献する部分をソフトウェア製品の形で体現することができ、該コンピュータソフトウェア製品は、コンピュータデバイス(パソコン、サーバまたはネットワークデバイス等であってもよい)に本願の各実施例に記載の方法を実行させるための若干の指令を含む読取可能な記憶媒体、例えば、コンピュータのフロッピーディスク、USBフラッシュディスク、リムーバブルハードディスク、リードオンリーメモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memor、RAM)、磁気ディスク又は光ディスク等に記憶されている。
上述のように、以上の実施例は、本願の実施例の技術案を説明するためのものに過ぎず、それを制限するものではない。上記実施例を参照して本願の実施例を詳しく説明したが、上記実施例に記載された技術案を修正するか、或いは一部の技術的特徴に対して均等な置き換えが可能であることは、当業者が理解するであろう。これらの修正又は置き換えによって、対応する技術案の主旨が本願の実施例の技術案の思想や範囲から逸脱することはない。
本願の実施例では、モバイル端末に備えられるカメラを介して目標の顔をリアルタイムで撮影し、第1フレーム画像および第2フレーム画像を得て、第1フレーム画像および第2フレーム画像は、それぞれ撮影された前後隣接する2フレームの画像であり、第1フレーム画像と第2フレーム画像とを比較して、目標の顔の動作および対応する幅を得て、目標の顔の動作および対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成し、インタラクティブ型アプリケーションシーンにシミュレーション対象およびインタラクティブ可能な物体が表示されており、制御指令に従い、インタラクティブ型アプリケーションシーンにおいてインタラクティブ可能な物体とインタラクするようにシミュレーション対象を制御する。本願の実施例によれば、カメラがリアルタイムで撮影した複数フレームの画像の比較結果に基づいて、顔の動作および幅を取得することができ、さらに、シミュレーション対象の制御指令を生成することができ、該制御指令によって、シミュレーション対象とインタラクティブ可能な物体とのインタラクティブを実現する。本願の実施例では、指令をユーザの指で送信する代わりに、ユーザの顔の表情に頼るシーンインタラクティブな動作をすることができるので、モバイル端末における没入型インタラクティブを実現することができる。

Claims (16)

  1. モバイル端末が実行するアプリケーションシーンのインタラクティブ方法であって、
    カメラを介して目標の顔をリアルタイムで撮影することにより、第1フレーム画像および第2フレーム画像を取得するステップであって、前記第1フレーム画像および前記第2フレーム画像がそれぞれ撮影することにより取得した前後隣接する2フレームの画像である、ステップと、
    前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得するステップと、
    前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成するステップであって、前記インタラクティブ型アプリケーションシーンに前記シミュレーション対象およびインタラクティブ可能な物体が含まれる、ステップと、
    前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおける前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するステップと、
    を含むアプリケーションシーンにおけるインタラクティブ方法。
  2. 前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得前記ステップは、
    顔位置決め点が前記第1フレーム画像に現れる第1画素位置、および、前記顔位置決め点が前記第2フレーム画像に現れる第2画素位置を特定するステップと、
    前記第1画素位置と前記第2画素位置とを比較することにより、前記第1画素位置と前記第2画素位置との相対変位を取得するステップと、
    前記第1画素位置と前記第2画素位置との相対変位に基づいて、前記目標の顔の動作および前記目標の顔の動作に対応する幅を特定するステップと、を含む、請求項1に記載の方法。
  3. 前記カメラを介して目標の顔をリアルタイムで撮影する前に、
    前記モバイル端末のタッチ画面にタッチ入力が生じたか否かを検出するステップと、
    前記タッチ画面にタッチ入力が生じていなければ、前記カメラを介して目標の顔をリアルタイムで撮影するステップを実行するようにトリガーするステップと、をさらに含む、請求項1に記載の方法。
  4. 前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成した後、
    前記制御指令に基づいて、焦点がインタラクティブ可能な物体の範囲内で安定して維持される時間が、予め設定された時間に達したか否かを判定するステップであって、前記焦点は前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である、ステップと、
    前記焦点が前記インタラクティブ可能な物体の範囲内で安定して維持される時間が、予め設定された時間に達していれば、前記インタラクティブ可能な物体の範囲内からインタラクティブ可能な物体をロックするステップと、をさらに含む、請求項1に記載の方法。
  5. 前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおいて前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御する前記ステップは、
    前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点と、前記インタラクティブ可能な物体との距離をリアルタイムで算出するステップと、
    リアルタイムで算出された前記距離に基づいて、前記焦点がインタラクティブ可能な物体の範囲内であるか否かを判定するステップと、
    前記焦点が前記インタラクティブ可能な物体の範囲内であれば、リアルタイムで算出された前記距離に基づいて、前記焦点に対応する変位速度を更新するステップと、
    更新後の前記変位速度に基づいて前記制御指令を更新し、更新後の制御指令を用いて、前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するステップと、を含む、請求項1に記載の方法。
  6. 前記リアルタイムで算出された前記距離に基づいて、前記焦点に対応する変位速度を更新する前記ステップは、
    前記焦点と前記インタラクティブ可能な物体との距離が小さくなると、前記焦点の移動方向に前記変位速度を減少させてから前記変位速度を増加させるステップ、或いは、
    前記焦点と前記インタラクティブ可能な物体との距離が大きくなると、前記焦点の移動方向に前記変位速度を減少させてから、前記移動方向の反対方向に前記変位速度を増加させるステップ、を含む、請求項5に記載の方法。
  7. リアルタイムで取得した各フレームの画像での複数の顔キーポイントのピクセル座標を特定するステップと、
    前記複数の顔キーポイントのピクセル座標に基づいて、前記目標の顔が焦点を失ったか否かを判断するステップと、
    前記目標の顔が焦点を失った場合、前記目標の顔の合焦補正を行うステップと、をさらに含む、
    請求項4乃至6の何れか一項に記載の方法。
  8. 1つ又は複数のプロセッサと、プログラムユニットを記憶する1つ又は複数のメモリとを備え、前記プログラムユニットは、前記プロセッサによって実行され、前記プログラムユニットは、
    カメラを介して目標の顔をリアルタイムで撮影することにより、第1フレーム画像および第2フレーム画像を取得する撮影モジュールであって、前記第1フレーム画像および前記第2フレーム画像がそれぞれ撮影することにより取得した前後隣接する2フレームの画像である、撮影モジュールと、
    前記第1フレーム画像と前記第2フレーム画像とを比較することにより、前記目標の顔の動作および前記目標の顔の動作に対応する幅を取得する比較モジュールと、
    前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成する指令生成モジュールであって、前記インタラクティブ型アプリケーションシーンに前記シミュレーション対象およびインタラクティブ可能な物体が含まれる、指令生成モジュールと、
    前記制御指令に従い、前記インタラクティブ型アプリケーションシーンにおける前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するインタラクティブモジュールと、を含む、モバイル端末。
  9. 前記比較モジュールは、
    顔位置決め点が前記第1フレーム画像に現れる第1画素位置、および、前記顔位置決め点が前記第2フレーム画像に現れる第2画素位置を特定する画素位置特定ユニットと、
    前記第1画素位置と前記第2画素位置とを比較することにより、前記第1画素位置と前記第2画素位置との相対変位を取得する変位特定ユニットと、
    前記第1画素位置と前記第2画素位置との相対変位に基づいて、前記目標の顔の動作および前記目標の顔の動作に対応する幅を特定する動作特定ユニットと、を含む、請求項8に記載のモバイル端末。
  10. 前記プログラムユニットは、
    前記撮影モジュールが前記カメラを介して目標の顔をリアルタイムで撮影する前に、前記モバイル端末のタッチ画面にタッチ入力が生じたか否かを検出し、前記タッチ画面にタッチ入力が生じていなければ、前記撮影モジュールの実行をトリガーするタッチ検出モジュールをさらに含む、請求項8に記載のモバイル端末。
  11. 前記プログラムユニットは、
    前記指令生成モジュールが前記目標の顔の動作および前記目標の顔の動作に対応する幅に基づいて、インタラクティブ型アプリケーションシーンにおけるシミュレーション対象の制御指令を生成した後、前記制御指令に基づいて、前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点がインタラクティブ可能な物体の範囲内で安定して維持される時間が、予め設定された時間に達したか否かを判定する焦点検出モジュールと、
    前記焦点が前記インタラクティブ可能な物体の範囲内で安定して維持される時間が、予め設定された時間に達していれば、前記インタラクティブ可能な物体の範囲内からインタラクティブ可能な物体をロックする物体ロックモジュールと、をさらに含む、請求項8に記載のモバイル端末。
  12. 前記インタラクティブモジュールは、
    前記目標の顔が前記インタラクティブ型アプリケーションシーンにマッピングされる基準点である焦点と、前記インタラクティブ可能な物体との距離をリアルタイムで算出する距離算出ユニットと、
    リアルタイムで算出された前記距離に基づいて、前記焦点がインタラクティブ可能な物体の範囲内であるか否かを判定する範囲判定ユニットと、
    前記焦点が前記インタラクティブ可能な物体の範囲内であれば、リアルタイムで算出された前記距離に基づいて、前記焦点に対応する変位速度を更新する速度更新ユニットと、
    更新後の前記変位速度に基づいて前記制御指令を更新し、更新後の制御指令を用いて、前記インタラクティブ可能な物体とインタラクティブをするように前記シミュレーション対象を制御するインタラクティブユニットと、を含む、請求項8に記載のモバイル端末。
  13. 前記速度更新ユニットは、具体的には、前記焦点と前記インタラクティブ可能な物体との距離が小さくなると、前記焦点の移動方向に前記変位速度を減少させてから前記変位速度を増加させるか、或いは、前記焦点と前記インタラクティブ可能な物体との距離が大きくなると、まず前記焦点の移動方向に前記変位速度を減少させ、その後、前記移動方向の反対方向に前記変位速度を増加させる、請求項12に記載のモバイル端末。
  14. 前記プログラムユニットは、
    リアルタイムで取得した各フレームの画像での複数の顔キーポイントのピクセル座標を特定するキーポイント取得モジュールと、
    前記複数の顔キーポイントのピクセル座標に基づいて、前記目標の顔が焦点を失ったか否かを判断するデフォーカス判定モジュールと、
    前記目標の顔が焦点を失った場合、前記目標の顔の合焦補正を行う合焦モジュールと、をさらに含む、請求項11乃至13の何れか一項に記載のモバイル端末。
  15. コンピュータで実行されると、コンピュータに請求項1乃至7の何れか一項に記載の方法を実行させるプログラム。
  16. 指令を記憶するメモリと、
    前記メモリにおける前記指令を実行して、請求項1乃至7の何れか一項に記載の方法を実行するプロセッサと、
    を備えるモバイル端末。
JP2020572602A 2018-08-28 2019-06-14 アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム Active JP7026267B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810989371.5A CN109224437A (zh) 2018-08-28 2018-08-28 一种应用场景的交互方法和终端以及存储介质
CN201810989371.5 2018-08-28
PCT/CN2019/091402 WO2020042727A1 (zh) 2018-08-28 2019-06-14 一种应用场景的交互方法和移动终端以及存储介质

Publications (2)

Publication Number Publication Date
JP2021516836A true JP2021516836A (ja) 2021-07-08
JP7026267B2 JP7026267B2 (ja) 2022-02-25

Family

ID=65068815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572602A Active JP7026267B2 (ja) 2018-08-28 2019-06-14 アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11383166B2 (ja)
EP (1) EP3845282A4 (ja)
JP (1) JP7026267B2 (ja)
CN (1) CN109224437A (ja)
WO (1) WO2020042727A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109224437A (zh) 2018-08-28 2019-01-18 腾讯科技(深圳)有限公司 一种应用场景的交互方法和终端以及存储介质
CN110244775A (zh) * 2019-04-29 2019-09-17 广州市景沃电子有限公司 基于移动设备夹持云台的自动跟踪方法及装置
CN110197171A (zh) * 2019-06-06 2019-09-03 深圳市汇顶科技股份有限公司 基于用户的动作信息的交互方法、装置和电子设备
CN110705510B (zh) * 2019-10-16 2023-09-05 杭州优频科技有限公司 一种动作确定方法、装置、服务器和存储介质
CN111068308A (zh) * 2019-11-12 2020-04-28 北京字节跳动网络技术有限公司 基于嘴部动作的数据处理方法、装置、介质和电子设备
CN111013135A (zh) * 2019-11-12 2020-04-17 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备
CN111768474B (zh) * 2020-05-15 2021-08-20 完美世界(北京)软件科技发展有限公司 动画生成方法、装置、设备
CN112843693B (zh) * 2020-12-31 2023-12-29 上海米哈游天命科技有限公司 拍摄图像的方法、装置、电子设备及存储介质
CN113209622A (zh) * 2021-05-28 2021-08-06 北京字节跳动网络技术有限公司 动作的确定方法、装置、可读介质和电子设备
CN114415929A (zh) * 2022-01-24 2022-04-29 维沃移动通信有限公司 电子设备的控制方法、装置、电子设备和可读存储介质
CN114779937A (zh) * 2022-04-28 2022-07-22 脑陆(重庆)智能科技研究院有限公司 多媒体互动成像方法、装置、存储介质和计算机程序产品
CN115185381A (zh) * 2022-09-15 2022-10-14 北京航天奥祥通风科技股份有限公司 基于头部的运动轨迹控制终端的方法和装置
CN115830518B (zh) * 2023-02-15 2023-05-09 南京瀚元科技有限公司 一种红外场景下电力巡检视频智能抽帧的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US20130023337A1 (en) * 2009-05-13 2013-01-24 Wms Gaming, Inc. Player head tracking for wagering game control
JP2013039231A (ja) * 2011-08-16 2013-02-28 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP2014044729A (ja) * 2013-09-24 2014-03-13 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
CN105307737A (zh) * 2013-06-14 2016-02-03 洲际大品牌有限责任公司 互动视频游戏
JP2016057947A (ja) * 2014-09-11 2016-04-21 株式会社パスコ 仮想空間表示装置、仮想空間表示方法及びプログラム
CN108255304A (zh) * 2018-01-26 2018-07-06 腾讯科技(深圳)有限公司 基于增强现实的视频数据处理方法、装置和存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4553346B2 (ja) * 2003-10-22 2010-09-29 キヤノン株式会社 焦点調節装置及び焦点調節方法
CN101393599B (zh) * 2007-09-19 2012-02-08 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
US10223838B2 (en) * 2013-03-15 2019-03-05 Derek A. Devries Method and system of mobile-device control with a plurality of fixed-gradient focused digital cameras
US9857591B2 (en) * 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CN104656893B (zh) * 2015-02-06 2017-10-13 西北工业大学 一种信息物理空间的远程交互式操控系统及方法
CN105630169A (zh) * 2015-12-25 2016-06-01 北京像素软件科技股份有限公司 一种体感输入方法及装置
CN106249882B (zh) * 2016-07-26 2022-07-12 华为技术有限公司 一种应用于vr设备的手势操控方法与装置
CN106951069A (zh) * 2017-02-23 2017-07-14 深圳市金立通信设备有限公司 一种虚拟现实界面的控制方法及虚拟现实设备
CN108153422B (zh) * 2018-01-08 2023-02-17 维沃移动通信有限公司 一种显示对象控制方法和移动终端
US10761649B2 (en) * 2018-02-27 2020-09-01 Perfect Shiny Technology (Shenzhen) Limited Touch input method and handheld apparatus using the method
CN109224437A (zh) * 2018-08-28 2019-01-18 腾讯科技(深圳)有限公司 一种应用场景的交互方法和终端以及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US20130023337A1 (en) * 2009-05-13 2013-01-24 Wms Gaming, Inc. Player head tracking for wagering game control
JP2013039231A (ja) * 2011-08-16 2013-02-28 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
CN105307737A (zh) * 2013-06-14 2016-02-03 洲际大品牌有限责任公司 互动视频游戏
JP2014044729A (ja) * 2013-09-24 2014-03-13 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
JP2016057947A (ja) * 2014-09-11 2016-04-21 株式会社パスコ 仮想空間表示装置、仮想空間表示方法及びプログラム
CN108255304A (zh) * 2018-01-26 2018-07-06 腾讯科技(深圳)有限公司 基于增强现实的视频数据处理方法、装置和存储介质

Also Published As

Publication number Publication date
US20210001228A1 (en) 2021-01-07
EP3845282A1 (en) 2021-07-07
CN109224437A (zh) 2019-01-18
JP7026267B2 (ja) 2022-02-25
WO2020042727A1 (zh) 2020-03-05
EP3845282A4 (en) 2021-10-27
US11383166B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
JP7026267B2 (ja) アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム
US10318011B2 (en) Gesture-controlled augmented reality experience using a mobile communications device
WO2021135601A1 (zh) 辅助拍照方法、装置、终端设备及存储介质
CN111182205B (zh) 拍摄方法、电子设备及介质
US9268404B2 (en) Application gesture interpretation
WO2020108261A1 (zh) 拍摄方法及终端
CN108391053A (zh) 一种拍摄控制方法及终端
CN108712603B (zh) 一种图像处理方法及移动终端
US20200258314A1 (en) Information processing device, information processing method, and recording medium
US20110093820A1 (en) Gesture personalization and profile roaming
CN114860077A (zh) 使用视线信息与计算设备交互的系统和方法
CN111045511B (zh) 基于手势的操控方法及终端设备
CN107977083A (zh) 基于vr系统的操作执行方法及装置
KR102565711B1 (ko) 관점 회전 방법 및 장치, 디바이스 및 저장 매체
EP3690605A1 (en) Gesture recognition method and electronic device
CN109819167A (zh) 一种图像处理方法、装置和移动终端
US11886643B2 (en) Information processing apparatus and information processing method
CN109164908B (zh) 一种界面控制方法及移动终端
CN111064896A (zh) 设备控制方法及电子设备
CN106598425A (zh) 智能移动终端拍照方法
US11743574B2 (en) System and method for AI enhanced shutter button user interface
US10503278B2 (en) Information processing apparatus and information processing method that controls position of displayed object corresponding to a pointing object based on positional relationship between a user and a display region
CN112037338A (zh) Ar形象的创建方法、终端设备以及可读存储介质
CN110291495B (zh) 信息处理系统、信息处理方法及程序
JP6481360B2 (ja) 入力方法、入力プログラムおよび入力装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7026267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150