JP6640356B2 - リアルタイム情報に従って表示オブジェクトを表示する装置および方法 - Google Patents

リアルタイム情報に従って表示オブジェクトを表示する装置および方法 Download PDF

Info

Publication number
JP6640356B2
JP6640356B2 JP2018528716A JP2018528716A JP6640356B2 JP 6640356 B2 JP6640356 B2 JP 6640356B2 JP 2018528716 A JP2018528716 A JP 2018528716A JP 2018528716 A JP2018528716 A JP 2018528716A JP 6640356 B2 JP6640356 B2 JP 6640356B2
Authority
JP
Japan
Prior art keywords
real
display
slide
display object
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018528716A
Other languages
English (en)
Other versions
JP2018536243A (ja
Inventor
ユエウェイ ツォン
ユエウェイ ツォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Publication of JP2018536243A publication Critical patent/JP2018536243A/ja
Application granted granted Critical
Publication of JP6640356B2 publication Critical patent/JP6640356B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本出願は、2015年12月4日に出願された、「Method and Apparatus for Displaying Display Object According to Real-Time Information(リアルタイム情報に従って表示オブジェクトを表示する装置および方法)」という名称の中国出願第201510884339.7号に関連してその利益を主張するものであり、その内容は参照によりここに援用される。
本出願は、コンピュータおよびネットワーク技術分野に関し、特に、リアルタイム情報に従って表示オブジェクトを表示する装置および方法に関する。
カメラ、ジャイロスコープ、加速度計、距離センサ、およびその他の機器が端末に広く適用されてきているため、アプリケーションプログラムは、新機能の達成、または、既存機能の新規なやり方での達成のために、リアルタイム情報を提供するこれらの機器を使用することができる。ある実現例では、リアルタイム情報が変化したときに、画面上の表示オブジェクトが連動して変更され、ユーザとの相互作用を引き起こし、ユーザに直感的で新規な経験をもたらす。
これらの実現例では、リアルタイム情報に沿って表示オブジェクト自体が変化することに加え、画面上の表示オブジェクトの表示位置も、リアルタイム情報に従って変更されてよい。例えば、画面上でボールが表示されるべき位置は、ユーザがボールを手に持っているように、リアルタイム動画におけるユーザの手の位置に従って決定されてよい。
現在の技術では、アプリケーションプログラムは、センサまたは他のデバイスから出力されたリアルタイム情報を所定期間抽出し、リアルタイム情報を予め定められたアルゴリズムに従って画面上の対応する表示位置に位置づけ、表示オブジェクトを画面上の表示位置に表示する。このように、リアルタイム情報が期間によって変化する場合、表示オブジェクトは画面上の新しい表示位置に表示され、期間ごとに一回移動し、表示オブジェクトは段階的に移動するように見える。
このような実現手法によると、画面上の表示オブジェクトの位置は、リアルタイム情報に比較的大きな変化が生じたときに大きく変動し、表示オブジェクトが画面上をジャンプするように見える。また、連続したいくつかの期間でリアルタイム情報に生じた変化が非常に小さい場合、表示オブジェクトは画面上で振動しているように見える。いずれの状況における表示効果も、好ましくない。
この観点から、本出願は、リアルタイム情報に従って表示オブジェクトを表示する方法を提供し、方法は、ある期間におけるリアルタイム情報に対応する位置情報を取得するステップと、前の期間において取得された位置情報に従って開始点を決定するステップと、現在の期間に取得された位置情報に従って終了点を決定するステップと、開始点と終了点との間をスライドするように表示オブジェクトを表示するステップと、を含む。
本出願は、リアルタイム情報に従って表示オブジェクトを表示する装置をさらに提供し、装置は、ある期間におけるリアルタイム情報に対応する位置情報を取得する位置情報取得部と、前の期間において取得された位置情報に従って開始点を決定し、現在の期間に取得された位置情報に従って終了点を決定する開始終了点決定部と、開始点と終了点との間をスライドするように表示オブジェクトを表示するスライド表示部と、を含む。
上述の技術的解決手段によると、開始点および終了点は、本明細書の実施形態において、2つの隣接する期間におけるリアルタイム情報に対応する位置情報に従って決定され、表示オブジェクトは、開始点と終了点との間をスライドするように表示され、表示された表示オブジェクトは開始点から終了点まで滑らかにスライドし、リアルタイム情報に比較的大きな変化が生じたときのジャンプ現象、および、リアルタイム情報に非常に小さい変化が生じたときの振動現象が防止され、表示オブジェクトの表示効果が改善される。
本出願の実施形態におけるリアルタイム情報に従って表示オブジェクトを表示する方法のフローチャートである。
本出願の実施形態に従った、平均的に離散させる手法による離散点の配置の模式図である。
本出願の実施形態に従った、加速的に離散させる手法による離散点の配置の模式図である。
本出願の実施形態に従った、減速的に離散させる手法による離散点の配置の模式図である。
本出願の実施形態に従った、顔ログインインタフェースの模式図である。
本出願の実施形態に従った、ユーザのリアルタイム頭部画像を表示するフローチャートである。
端末またはサーバのハードウェア構造図である。
本発明の実施形態におけるリアルタイム情報に従って表示オブジェクトを表示する装置の論理構造図である。
本出願の実施形態は、リアルタイム情報に従って表示オブジェクトを表示する新規な方法を提供する。方法は、2つの連続した期間におけるリアルタイム情報に対応する画面表示位置の間で、前の期間に対応する表示位置から現在の期間に対応する表示位置にアニメーションの手法でスライドするよう表示する。このような手法で表示される表示オブジェクトは、リアルタイム情報における過大または過小な変化によってジャンプまたは振動するようには見えない。そして表示効果は改善され、現在の技術における課題が解決される。
本出願の実施形態は、表示オブジェクトを表示する位置を決定するためにリアルタイム情報を取得することができ、計算および保存の機能を有する機器に適用可能である。機器は、携帯電話、タブレットコンピュータ、PC(Personal Computer、パーソナルコンピュータ)、ラップトップコンピュータ、サーバ等を含む。機器は、保有するセンサまたはカメラからリアルタイム情報を読み取ることができ、または、ネットワークを介して他の機器から対象オブジェクトのリアルタイム情報を連続的に取得することができる。リアルタイム情報は、時間とともに変動するすべてのパラメータを含み、機器により収集可能であり、例えばリアルタイム動画におけるオブジェクトの移動速度、リアルタイム画像のグレースケール、工業制御プロセスにおける様々なリアルタイム変数、端末のリアルタイム位置情報等である。加えて、表示オブジェクトは、非リアルタイム画像または動画であってもよく、または、リアルタイム画像および/またはリアルタイム動画であってもよい。リアルタイム情報の種類と取得元に限定はなく、本出願の実施形態における特定種類の表示オブジェクトに限定されるものではない。
本出願の実施形態において、リアルタイム情報に従って表示オブジェクトを表示するフローは図1に示される。フローを実行する主体は、アプリケーションプログラム、アプリケーションプログラムのプロセスまたはスレッド、サービス、またはサービスのプロセスまたはスレッドであってよい。
ステップ110、ある期間のリアルタイム情報に対応する位置情報の取得。
実際のアプリケーションシナリオの特定の実現例に依存して、位置情報は、表示オブジェクトの画面サイズに適合する画面位置の座標、または、画面位置の座標を決定するために用いることのできる他のパラメータ(例えば画面比率座標)であってよい。本出願の実施形態を実行する主体は、主体が位置づけられている機器のセンサまたはカメラからある期間におけるリアルタイム情報を読み取り、または、ネットワークからリアルタイム情報を取得し、リアルタイム情報を予め定められたアルゴリズムの入力として用いて、対応する位置情報を得る。これに代えて、主体は、ネットワークからリアルタイム情報に対応する位置情報を直接得てもよく、これは本出願の実施形態では限定されない。
リアルタイム情報に対応する位置情報を生成する従来の方法が参照されてもよく、ここでは繰り返さない。
ステップ120、前の期間に取得した位置情報に従った開始点の決定、および、現在の期間に取得した位置情報に従った終了点の決定。
取得した位置情報が、表示オブジェクトの画面サイズに適合する画面位置の座標である場合、前の期間における位置情報が開始点として直接用いられ、現在の期間における位置情報が終了点として直接用いられる。そうでない場合、位置情報と画面位置座標との間の関係に従って、前の期間における位置情報が画面位置の座標に変換されて開始点として用いられ、現在の期間における位置情報が画面位置の座標に変換されて終了点として用いられる。
位置情報を画面位置の座標に変換する方法は、異なるアプリケーションシナリオにおいて通常異なる。例えば、各期間に取得される位置情報は画面比率座標(sX,sY)であり、sXは[0,1)の範囲におけるX軸比率座標であって、位置のX軸画面座標のX軸の最大値に対する比率を示し、sYは[0,1)の範囲におけるY軸比率座標であって、位置のY軸画面座標のY軸の最大値に対する比率を示す。表示オブジェクトの画面の幅と長さとに従って、sXとsYは画面位置の座標におけるX軸の座標xとY軸の座標yとに変換される。一例として、現在の画面が全体の幅Wと全体の高さHとを有しているとすると、(sX,sY)から変換される画面位置の座標は、WおよびHと同じ単位、例えばピクセルまたはmmで、(sX*W,sY*H)となる。
ステップ130、開始点と終了点との間をスライドするように表示オブジェクトを表示。
現在の期間の開始点と終了点とが決定された後、表示オブジェクトを開始点から終了点へアニメーションの手法で徐々に移動させて、表示オブジェクトが開始点から終了点にスライドするかのように、現在の期間のスライド表示が実行されてよい。従来技術に従った動的画像生成およびアニメーションの様々な技術的手段がスライド表示の方法に参照可能であり、本出願の実施形態では限定されない。
一例として、開始点と終了点との間の表示オブジェクトのスライド軌跡が最初に決定され、スライド軌跡上でN個(Nは自然数)の離散点が選択されてよい。その後、表示オブジェクトは開始点、N個の離散点、および終了点で、スライド効果を達成するための所定の一点表示間隔で順に表示される。ここで、スライド軌跡は直線または曲線であってよい。離散点は、希望するスライド表示効果に従った手法、例えば平均的、加速的、または減速的な離散手法により選択されてよい。Aが開始点であり、Bが終了点であり、AとBとの間のスライド軌跡が直線であるとする。平均的な離散手法による離散点は、図2に示すように、AとBとの間に平均的に分布する。加速的な離散手法による離散点は、図3に示すように、AからBに向かう方向で間隔が徐々に増加する。減速的な離散手法による離散点は、図4に示すように、AからBに向かう方向で間隔が徐々に減少する。
上記の例で、スライド軌跡、Nの値、離散点を選択する手法、および一点表示間隔は、期間ごとに同一であってよく、または異なってもよい。それぞれの期間が異なるスライド軌跡、Nの値、離散点を選択する手法、および/または一点表示間隔を有する場合、いくつかの既定オプションが適用されてよく、その中から1つのオプションがランダムに選択されてよく、または所定のスライド軌跡、所定のNの値、離散点を選択する手法、および/または一点表示間隔が、位置情報または位置情報の変化に従って決定されてよく、これは本出願の実施形態では限定されない。
例えば、Nの値および一点表示間隔は、現在の期間における表示オブジェクトのスライド距離(これは前の期間における位置情報、現在の期間における位置情報、および現在の期間におけるスライド軌跡によって決定される)に従って選択されてもよい。スライド距離が長い場合、Nの値は増加し、一点表示間隔は減少する。スライド距離が短い場合、Nの値は減少し、一点表示間隔は増加する。こうすることによって、よりよい表示効果が得られる。
表示オブジェクトは、通常は独自の形状を有し、所定の画面表示領域を占める。本出願の実施形態において、表示オブジェクトを開始点、終了点、および離散点に表示することは、開始点、終了点、または離散点が、表示オブジェクトの固定点、例えば中心点、左上境界点等を位置付けるために用いられることを意味する。
ある期間における全スライド持続時間、すなわち、表示オブジェクトが開始点から終了点までスライドするのに要する時間は、その期間の長さよりも長く、短く、または同じであってよい。言い換えると、現在の期間が始まるときに、前の期間における表示オブジェクトのスライド表示は、終わっていても、ちょうど終わっても、まだ終わっていなくてもよい。
現在の期間が始まったときに前の期間における表示オブジェクトのスライド表示が終わっていなかった場合、現在の期間の開始点は、現在の期間が始まったときの表示オブジェクトの表示位置に変更されてよく、前の期間における完了していないスライド表示の部分は中止されてよい。このようにして、表示オブジェクトは現在の期間が始まったときの表示位置(すなわち、前の期間におけるスライド処理の途中点)から終了点へスライドし、表示位置はリアルタイム情報の変化をより迅速に反映することができ、表示オブジェクトが滑らかにスライドする表示効果はなお達成される。
あるアプリケーションシナリオでは、リアルタイム情報から対応する位置情報を取得するプロセスに、機械学習アルゴリズムが用いられる。例えば、カメラにより撮影されたリアルタイム動画のある特性値に従って位置情報が決定されるアプリケーションでは、動画の特性値の認識にニューラルネットワークアルゴリズムがしばしば用いられる。リアルタイム情報が常時収集され、処理結果がすべてアルゴリズムの修正に用いられるため、前の期間と現在の期間がまったく同じリアルタイム情報を有するときに、アルゴリズムによる位置情報出力に小さな相違が生ずる場合がある。その結果、ユーザは表示オブジェクトが静止していないと感じることになる。
この状況を回避するため、現在の期間におけるスライドの開始点と終了点とが決定された後に、開始点と終了点との間の距離が所定の閾値よりも短いか否かが判定されてよい。短い場合、表示オブジェクトは現在位置に表示され、現在の期間におけるスライド表示は実行されない。ここで、所定の閾値の選択は、機械学習アルゴリズムによる位置情報の自己学習プロセスが受ける影響程度に従って決定してもよい。
したがって、本出願の実施形態では、各期間における表示オブジェクトの位置変更は、スライド表示の手法で表示される。スライド表示の開始点および終了点は、2つの連続した期間におけるリアルタイム情報に対応する位置情報に従って決定され、表示された表示オブジェクトは開始点から終了点へ滑らかに移動し、それにより、リアルタイム情報の過大な、または過小な変化による表示オブジェクトのジャンプまたは振動が防止され、表示効果が改善される。
本出願のアプリケーションの例で、端末アプリ(アプリケーションプログラム)は顔認証ログインを使用し、図5に示すログインインタフェースを有している。アプリは、端末のカメラからのリアルタイム動画からユーザの頭部画像を抽出し、ユーザのリアルタイム頭部画像を表示オブジェクトとして使用し、これを円の中に表示するために、顔認証技術を使用する。ユーザのリアルタイム頭部画像の画面における表示位置は、リアルタイム頭像のヨーおよびピッチの角度により決定される。
一例として、ユーザのリアルタイム頭部画像の正面の水平方向における回転角度および垂直方向における回転角度を認識するために、アプリはニューラルネットワークアルゴリズムを使用し、水平方向における回転角度をX軸の比率座標sXに対応させ、垂直方向における回転角度をY軸の比率座標sYに対応させる。例えば、認識されたユーザのリアルタイム頭部画像が水平方向および垂直方向において正面の頭部画像であるとき、対応する比率座標は(0.5,0.5)であり、ユーザのリアルタイム頭部画像は画面の中央に表示される。認識されたユーザのリアルタイム頭部画像が水平方向において左側であり垂直方向において正面であるとき、対応する比率座標は(0,0.5)であり、ユーザのリアルタイム頭部画像はディスプレイの左端中央に表示される。
そのようにして、ユーザが自身の頭のヨーおよびピッチの角度を変更すると、図5に示すログインインタフェースにおけるユーザのリアルタイム頭部画像は、それに応じてその表示位置を変更する。例えば、ユーザは、頭を右に回すことにより、リアルタイム頭部画像を画面の右に移動させ、頭を下げることにより、リアルタイム頭部画像を画面の下向きに移動させることができる。ユーザのリアルタイム頭部画像が画面の下半分における所定の標示位置に移動したとき、アプリはユーザのリアルタイム頭部画像に顔認証を実行してユーザのリアルタイム頭部画像を検証し、検証が成功するとユーザのログインが完了する。
リアルタイム動画に顔が含まれることをアプリが認識する場合、ユーザのリアルタイム頭部画像のスライドを実施するために図6に示すフローが用いられてよい。
ステップ610、ある期間についてのニューラルネットワークアルゴリズムの出力の読み出し、および、ユーザの現在のリアルタイム頭部画像の水平方向における回転角度と垂直方向における回転角度に対応する比率座標(sX,sY)の取得。
ステップ620、現在の期間に取得された比率座標(sX,sY)の、現在の期間の画面位置座標(sX*W,sY*H)への変換;前の期間の画面位置座標を開始点Aとして、現在の期間の画面位置座標を終了点Bとして使用。
ステップ630、AとBとの間の距離が所定の閾値よりも短いか否かを判定;短い場合、ユーザのリアルタイム頭部画像を現在の位置に表示継続、現在の期間でのスライド表示の実行を中止、ステップ610に進んで次の期間の位置情報のため待機;短くない場合、ステップ640に進む。
ステップ640、前の期間のスライド表示が終了しているか否かを判定;終了している場合、ステップ660に進む;終了していない場合、ステップ650に進む。
ステップ650、ユーザのリアルタイム頭部画像の現在の表示位置の座標を開始点Aに設定、現在位置以降であってまだ完了していない前の期間のスライド表示の部分を中止。
ステップ660、平均的、加速的、および減速的な離散手法から1つを選択、および、選択された離散手法に従ってAとBとの間の線分に所定数の離散点を生成。
ステップ670、ユーザのリアルタイム頭部画像を、A点、AからBに向かう方向でそれぞれの離散点、B点の順に、所定の一点表示間隔で表示し、ユーザのリアルタイム頭部画像がA点からB点にスライドする表示効果を達成。
ステップ680、ユーザのリアルタイム頭部画像が所定の標示位置に到着しているか否かを判定;到着している場合、ステップ690に進む;到着していない場合、ステップ610に戻り次の期間の処理を実行。
ステップ690、ユーザのリアルタイム頭部画像に顔認証を実行;成功の場合、ユーザのログインを完了;失敗の場合、ユーザのログイン失敗。
上記フローに対応して、本出願の実施形態は、リアルタイム情報に従って表示オブジェクトを表示する装置をさらに提供する。装置は、ソフトウェアにより、ハードウェアにより、またはソフトウェアとハードウェアとの組み合わせにより、達成可能である。例としてソフトウェアによる実現例では、論理的な意味での装置は、対応するコンピュータプログラム命令をメモリに読み込み、端末またはサーバのCPU(Central Process Unit)を通して実行することにより形成される。ハードウェアレベルからは、図7に示すCPU、メモリ、および不揮発メモリに加えて、装置が位置する端末は、典型的にはさらに、無線信号の送受信のためのチップといった他のハードウェアを備え、装置が位置するサーバは、典型的にはさらに、ネットワーク通信機能を達成するためのボードといった他のハードウェアを備える。
図8は、本出願の実施形態におけるリアルタイム情報に従って表示オブジェクトを表示する、位置情報取得部、開始終了点決定部、およびスライド表示部を備え、位置情報取得部はある期間のリアルタイム情報に対応する位置情報を取得するよう構成され、開始終了点決定部は前の期間に取得された位置情報に従って開始点を決定し、現在の期間に取得された位置情報に従って終了点を決定するよう構成され、スライド表示部は開始点と終了点との間で表示オブジェクトをスライド表示するよう構成される、装置を示している。
場合によっては、装置は、前の期間のスライド表示が終了していない場合において現在の期間が始まったときに、開始点を現在の期間が始まったときの表示オブジェクトの表示位置に変更し、完了していない前の期間のスライド表示の部分を中止するよう構成された開始点変更部をさらに備える。
場合によっては、装置は、開始点と終了点との間の距離が所定の閾値よりも短い場合に現在の位置に表示オブジェクトを表示し、現在の期間のスライド表示の実行を中止するよう構成されたスライド表示中止部をさらに備える。
一例として、スライド表示部は、離散点決定モジュールと離散点表示モジュールとを備えてよく、離散点決定モジュールは、開始点と終了点との間の表示オブジェクトのスライド軌跡を決定し、スライド軌跡にN個の離散位置点を選択するよう構成される。Nは自然数である。離散点表示モジュールは、開始点、N個の離散位置点、および終了点の順に、所定の一点表示間隔で表示オブジェクトを表示し、スライド効果を達成するよう構成される。
上述の例で、離散点決定モジュールは、開始点と終了点との間の表示オブジェクトのスライド軌跡を決定し、スライド軌跡にN個の離散位置点を、平均的、加速的、または減速的な離散手法で決定してもよい。
必要に応じて、表示オブジェクトはリアルタイム画像および/またはリアルタイム動画を含む。
ある実現方式において、表示オブジェクトはユーザのリアルタイム頭部画像の動画を含み、リアルタイム情報に対応する位置情報は、水平方向におけるユーザのリアルタイム頭部画像の正面の回転角度に対応するX軸比率座標、および、垂直方向におけるユーザのリアルタイム頭部画像の正面の回転角度に対応するY軸比率座標を含み、開始終了点決定部は、画面の幅および長さに従って、前の期間のX軸比率座標およびY軸比率座標を画面の開始点の位置座標に変換し、画面の幅および長さに従って、現在の期間のX軸比率座標およびY軸比率座標を画面の終了点の位置座標に変換するよう構成される。
上述の実現方式において、装置は、表示オブジェクトが画面の所定の標示位置に移動したときにユーザのリアルタイム頭部画像の認証を実行し、認証が成功したときにユーザのログインを完了する認証ログイン部をさらに備えてもよい。
以上説明した実施形態は、本出願の好ましい実施形態に過ぎず、本発明の限定のためには用いられない。本発明の精神および原則を逸脱しないいかなる変更、均等な置き換え、または改良は、本発明の範囲に属すべきものである。
典型的な構成では、計算機器は、1以上のプロセッサ(CPU)、入力/出力インタフェース、ネットワークインタフェース、およびメモリを含む。
メモリは、揮発性メモリ、ランダムアクセスメモリ(RAM)、および/または不揮発メモリ、例えばリードオンリメモリ(ROM)またはフラッシュRAMといった、コンピュータ可読媒体を含んでよい。メモリは、コンピュータ可読媒体の例である。
コンピュータ可読媒体は、何らかの方法または技術を介して情報ストレージを実現可能な、永久の、揮発性の、可搬の、および不可搬の媒体を含む。情報は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータであってよい。コンピュータのストレージ媒体の例は、相変化RAM(PRAM)、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、他の形式のランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的消去可能ROM(EEPROM)、フラッシュメモリ、または他のメモリ技術、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、または他の光学メモリ、カセット、カセットおよびディスクメモリ、または他の磁気的メモリ装置、または他の非伝送媒体を含むがこれに限られず、これらは計算機器にアクセス可能に情報を保存するために用いられる。ここでの定義によると、コンピュータ可読メディアは、変調されたデータ信号および搬送波といった一時的メディアを含まない。
「含む」「備える」またはこれらを変形した用語は、非排他的な包含を網羅することを意図しており、一連の要素を備えるプロセス、方法、商品または機器は、これらの要素を備えるのみならず、明示的に列挙されていない他の要素を備え、または、そのプロセス、方法、商品または機器に伴う要素をさらに含むことを、さらに留意されたい。特段の限定がない場合、「ある…を含む」という記載により規定される要素は、規定された要素を備えるプロセス、方法、商品または機器における追加的な類似要素を除外しない。
当業者は、本出願の実施形態が方法、システムまたはコンピュータプログラム製品として提供され得ることを理解するだろう。したがって、本出願は完全なハードウェア実施形態、完全なソフトウェア実施形態、またはソフトウェアとハードウェアとを結合する実施形態として実現され得る。さらに、本出願は、コンピュータ利用可能なプログラムコードを含む1以上のコンピュータ利用可能ストレージメディア(磁気ディスクメモリ、CD−ROM、光学メモリ等を含むがこれに限られない)に実現されるコンピュータプログラム製品の形式で実現されてもよい。

Claims (18)

  1. リアルタイム情報に従って表示オブジェクトを表示する方法であって、
    前記表示オブジェクトの位置情報を取得するステップであって、前記位置情報は、前の期間に取得したリアルタイム情報および現在の期間に取得したリアルタイム情報に対応し、
    前記前の期間に取得した前記位置情報に従って開始点を決定し、前記現在の期間に取得した前記位置情報に従って終了点を決定するステップと、
    表示オブジェクトを前記開始点と前記終了点との間でスライド表示するステップであって、
    前記開始点と前記終了点との間の前記表示オブジェクトのスライド軌跡を決定し、前記スライド軌跡にN個の離散位置点を選択し、Nは自然数であるステップと、
    前記開始点、前記N個の離散位置点、および前記終了点に、一点表示間隔の間、前記表示オブジェクトを順次表示してスライド効果を達成するステップと、を含み、
    Nの値および前記一点表示間隔は、前記現在の期間における前記表示オブジェクトのスライド距離に基づいて決定される、ステップと、
    を含む方法。
  2. 前記現在の期間が開始したときに前記前の期間のスライド表示が終了していない場合に、前記開始点を前記現在の期間が開始したときの前記表示オブジェクトの表示位置に変更し、
    前記前の期間の前記スライド表示の未完了部分を中止するステップをさらに含む、請求項1に記載の方法。
  3. 前記開始点と前記終了点との間の距離が所定の閾値よりも短い場合に、前記現在の期間に取得した前記リアルタイム情報に対応する前記位置情報に前記表示オブジェクトを表示し、
    前記現在の期間の前記スライド表示の実行を中止するステップをさらに含む、請求項1または2に記載の方法。
  4. 前記スライド軌跡に前記N個の離散位置点を選択することは、前記スライド軌跡に、均等、加速的、または減速的な手法で、前記N個の離散位置点を選択することを含む、請求項3に記載の方法。
  5. 前記表示オブジェクトは、リアルタイム画像および/またはリアルタイム動画を含む、請求項1に記載の方法。
  6. 前記表示オブジェクトはユーザのリアルタイム頭部画像を含み、
    前記リアルタイム情報に対応する前記位置情報は、水平方向における前記ユーザのリアルタイム頭部画像の正面の回転角度に対応するX軸比率座標と、垂直方向における前記ユーザのリアルタイム頭部画像の正面の回転角度に対応するY軸比率座標とを含み、
    前記前の期間に取得した前記位置情報に従って前記開始点を決定するステップ、および、前記現在の期間に取得した前記位置情報に従って前記終了点を決定するステップは、画面の幅および長さに従って、前記前の期間におけるX軸比率座標およびY軸比率座標を、前記画面における前記開始点の位置座標に変換し、前記現在の期間におけるX軸比率座標およびY軸比率座標を、前記画面における前記終了点の位置座標に変換することを含む、請求項1に記載の方法。
  7. 前記表示オブジェクトが前記画面における所定の標示位置に移動したときに、前記ユーザのリアルタイム頭部画像の認証を実行し、前記認証に成功したときに前記ユーザのログインを完了させるステップをさらに含む、請求項6に記載の方法。
  8. リアルタイム情報に従って表示オブジェクトを表示する装置であって、
    前記表示オブジェクトの位置情報を取得するよう構成された位置情報取得部であって、前記位置情報は、前の期間に取得されたリアルタイム情報および現在の期間に取得されたリアルタイム情報に対応し、
    前記前の期間に取得された前記位置情報に従って開始点を決定し、前記現在の期間に取得された前記位置情報に従って終了点を決定するよう構成された開始終了点決定部と、
    前記開始点と前記終了点との間をスライドするように表示オブジェクトを表示するスライド表示を実行するよう構成されたスライド表示部と、を備え、
    前記スライド表示部は、
    前記開始点と前記終了点との間の前記表示オブジェクトのスライド軌跡を決定し、前記スライド軌跡にN個の離散位置点を選択し、Nは自然数であり、
    前記開始点、前記N個の離散位置点、および前記終了点に、一点表示間隔の間、前記表示オブジェクトを順次表示してスライド効果を達成し、
    Nの値および前記一点表示間隔は、前記現在の期間における前記表示オブジェクトのスライド距離に基づいて決定される、装置。
  9. 前記現在の期間が開始したときに前記前の期間における前記スライド表示が終了していない場合に、前記開始点を、前記現在の期間が開始したときの前記表示オブジェクトの表示位置に変更し、
    前記前の期間における前記スライド表示の未完了部分を中止する開始点変更部をさらに備える、請求項8に記載の装置。
  10. 前記開始点と前記終了点との間の距離が所定の閾値よりも短い場合に、前記現在の期間に取得された前記リアルタイム情報に対応する前記位置情報に前記表示オブジェクトを表示し、前記現在の期間におけるスライド表示の実行を中止するよう構成されたスライド中止部をさらに備える、請求項8または9に記載の装置。
  11. 前記スライド表示部、前記スライド軌跡上に前記N個の離散位置点を、平均的、加速的、または減速的な離散手法で決定するよう構成される、請求項8に記載の装置。
  12. 前記表示オブジェクトは、リアルタイム画像および/またはリアルタイム動画を含む、請求項8に記載の装置。
  13. 前記表示オブジェクトはユーザのリアルタイム頭部画像を含み、
    リアルタイム情報に対応する前記位置情報は、水平方向における前記ユーザの前記リアルタイム頭部画像の正面の回転角度に対応するX軸比率座標および垂直方向における前記ユーザのリアルタイム頭部画像の正面の回転角度に対応するY軸比率座標を含み、
    前記開始点および終了点決定部は、画面の幅および長さに従って、前記前の期間のX軸比率座標およびY軸比率座標を前記画面における前記開始点の位置座標に変換し、前記画面の幅および長さに従って、前記現在の期間のX軸比率座標およびY軸比率座標を前記画面における前記終了点の位置座標に変換するよう構成される、請求項8に記載の装置。
  14. 前記表示オブジェクトが前記画面における所定の標示位置に移動したときに前記ユーザのリアルタイム頭部画像の認証を実行し、前記認証が成功したときに前記ユーザのログインを完了させるよう構成された認証ログイン部をさらに備える、請求項13に記載の装置。
  15. 前記Nの値は、前記スライド距離に比例し、前記一点表示間隔に反比例して変動する、請求項1に記載の方法。
  16. 前記所定の閾値は、機械学習アルゴリズムによる自己学習プロセスが前記現在の期間について取得された前記リアルタイム情報に対応する位置情報について受ける影響に基づき決定される、請求項3に記載の方法。
  17. 前記ユーザの頭部のヨーおよびピッチの角度に基づいて、前記ユーザのリアルタイム頭部画像の相対位置を決定することをさらに含む、請求項7に記載の方法。
  18. 前記ユーザのリアルタイム頭部画像の位置を決定することは、
    前記ユーザのリアルタイム頭部画像が正面の頭部画像であることに応じて、前記ユーザのリアルタイム頭部画像を前記画面の中央に位置付けること、および、
    前記ユーザのリアルタイム頭部画像が左側であることに応じて、前記ユーザのリアルタイム頭部画像を前記画面の左端中央に位置付けることを含む、請求項17に記載の方法。
JP2018528716A 2015-12-04 2016-11-24 リアルタイム情報に従って表示オブジェクトを表示する装置および方法 Active JP6640356B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510884339.7A CN106843709B (zh) 2015-12-04 2015-12-04 根据实时信息显示展现对象的方法和装置
CN201510884339.7 2015-12-04
PCT/CN2016/107014 WO2017092597A1 (zh) 2015-12-04 2016-11-24 根据实时信息显示展现对象的方法和装置

Publications (2)

Publication Number Publication Date
JP2018536243A JP2018536243A (ja) 2018-12-06
JP6640356B2 true JP6640356B2 (ja) 2020-02-05

Family

ID=58796282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018528716A Active JP6640356B2 (ja) 2015-12-04 2016-11-24 リアルタイム情報に従って表示オブジェクトを表示する装置および方法

Country Status (10)

Country Link
US (1) US10551912B2 (ja)
EP (1) EP3367228B1 (ja)
JP (1) JP6640356B2 (ja)
KR (1) KR102148583B1 (ja)
CN (1) CN106843709B (ja)
AU (2) AU2016363434B2 (ja)
MY (1) MY181211A (ja)
PH (1) PH12018501175A1 (ja)
SG (1) SG11201804351PA (ja)
WO (1) WO2017092597A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506025A (zh) * 2017-07-25 2017-12-22 北京小鸟看看科技有限公司 一种头戴显示设备的信息显示方法、装置及头戴显示设备
CN107952238B (zh) * 2017-11-23 2020-11-17 香港乐蜜有限公司 视频生成方法、装置和电子设备
US11776190B2 (en) * 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0461577B1 (en) * 1990-06-11 1998-12-02 Hitachi, Ltd. Apparatus for generating object motion path
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
FI117488B (fi) 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US7173623B2 (en) * 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
CA2567631A1 (en) * 2004-06-08 2005-12-22 Three-B International Limited Displaying graphical textures
EP1851750A4 (en) 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
JP4989052B2 (ja) * 2005-07-28 2012-08-01 任天堂株式会社 入力データ処理プログラムおよび情報処理装置
US20070067798A1 (en) 2005-08-17 2007-03-22 Hillcrest Laboratories, Inc. Hover-buttons for user interfaces
US8411913B2 (en) 2008-06-17 2013-04-02 The Hong Kong Polytechnic University Partial fingerprint recognition
JP2011134278A (ja) * 2009-12-25 2011-07-07 Toshiba Corp 情報処理装置およびポインティング制御方法
JP5382007B2 (ja) 2010-02-22 2014-01-08 株式会社デンソー 移動軌跡表示装置
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
KR101005719B1 (ko) 2010-05-18 2011-01-06 주식회사 슈프리마 정합 및 합성의 시작과 종료를 자동으로 인식하는 회전 지문 획득 장치 및 방법
JP2012008893A (ja) * 2010-06-25 2012-01-12 Hakko Denki Kk 作画支援システム、および作画支援システムにおける支援装置
EP2596478B1 (en) 2010-07-19 2019-09-04 Risst Ltd. Fingerprint sensors and systems incorporating fingerprint sensors
WO2012030958A1 (en) * 2010-08-31 2012-03-08 Activate Systems, Inc. Methods and apparatus for improved motion capture
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
JP5418532B2 (ja) * 2011-03-29 2014-02-19 アイシン・エィ・ダブリュ株式会社 表示装置および表示装置の制御方法並びにプログラム
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
KR101788006B1 (ko) * 2011-07-18 2017-10-19 엘지전자 주식회사 원격제어장치 및 원격제어장치로 제어 가능한 영상표시장치
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US9305361B2 (en) * 2011-09-12 2016-04-05 Qualcomm Incorporated Resolving homography decomposition ambiguity based on orientation sensors
US8261090B1 (en) * 2011-09-28 2012-09-04 Google Inc. Login to a computing device based on facial recognition
US8743055B2 (en) * 2011-10-13 2014-06-03 Panasonic Corporation Hybrid pointing system and method
US8666719B2 (en) * 2011-10-25 2014-03-04 Livermore Software Technology Corp. Methods and systems for numerically simulating muscle movements along bones and around joints
CN103376994A (zh) * 2012-04-11 2013-10-30 宏碁股份有限公司 电子装置及控制电子装置的方法
US9417660B2 (en) 2012-04-25 2016-08-16 Kopin Corporation Collapsible head set computer
CN103425403B (zh) 2012-05-14 2017-02-15 华为技术有限公司 一种屏幕间显示内容的穿越方法、装置及系统
CN103513811B (zh) * 2012-06-29 2017-02-08 北京汇冠新技术股份有限公司 一种触摸轨迹跟踪方法
CN102799376A (zh) * 2012-07-11 2012-11-28 广东欧珀移动通信有限公司 一种触控设备的快捷功能设定方法
CN102830797B (zh) * 2012-07-26 2015-11-25 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
JP2014092940A (ja) 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9569992B2 (en) 2012-11-15 2017-02-14 Semiconductor Energy Laboratory Co., Ltd. Method for driving information processing device, program, and information processing device
JPWO2014084224A1 (ja) * 2012-11-27 2017-01-05 京セラ株式会社 電子機器および視線入力方法
US9058519B2 (en) 2012-12-17 2015-06-16 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection
US9134793B2 (en) 2013-01-04 2015-09-15 Kopin Corporation Headset computer with head tracking input used for inertial control
CN103941988A (zh) * 2013-01-20 2014-07-23 上海博路信息技术有限公司 一种手势解锁的方法
US9208583B2 (en) * 2013-02-13 2015-12-08 Blackberry Limited Device with enhanced augmented reality functionality
KR102214503B1 (ko) 2013-03-26 2021-02-09 삼성전자주식회사 지문 인식 방법 및 그 전자 장치
KR102121592B1 (ko) 2013-05-31 2020-06-10 삼성전자주식회사 시력 보호 방법 및 장치
JP2015012304A (ja) * 2013-06-26 2015-01-19 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9857876B2 (en) * 2013-07-22 2018-01-02 Leap Motion, Inc. Non-linear motion capture using Frenet-Serret frames
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
JP5924555B2 (ja) * 2014-01-06 2016-05-25 コニカミノルタ株式会社 オブジェクトの停止位置制御方法、操作表示装置およびプログラム
JP2015162071A (ja) * 2014-02-27 2015-09-07 株式会社ニコン 電子機器
JP6057937B2 (ja) * 2014-03-14 2017-01-11 株式会社コロプラ ゲームオブジェクト制御プログラム及びゲームオブジェクト制御方法
CN104142807A (zh) * 2014-08-02 2014-11-12 合一网络技术(北京)有限公司 基于安卓控件利用OpenGL绘制图像的方法和系统
EP3218844A4 (en) * 2014-11-13 2018-07-04 Intel Corporation Spoofing detection in image biometrics
CN104777984A (zh) * 2015-04-30 2015-07-15 青岛海信电器股份有限公司 一种触摸轨迹跟踪的方法、装置及触屏设备
CN104915001B (zh) * 2015-06-03 2019-03-15 北京嘿哈科技有限公司 一种屏幕操控方法及装置
CN104915099A (zh) * 2015-06-16 2015-09-16 努比亚技术有限公司 一种图标整理方法和终端设备
CN104951773B (zh) * 2015-07-12 2018-10-02 上海微桥电子科技有限公司 一种实时人脸识别监视系统
CN105100934A (zh) * 2015-08-29 2015-11-25 天脉聚源(北京)科技有限公司 显示参与互动的用户信息的方法和装置

Also Published As

Publication number Publication date
PH12018501175A1 (en) 2019-01-21
CN106843709B (zh) 2020-04-14
US10551912B2 (en) 2020-02-04
KR20180088450A (ko) 2018-08-03
EP3367228B1 (en) 2022-02-09
US20180275750A1 (en) 2018-09-27
EP3367228A1 (en) 2018-08-29
KR102148583B1 (ko) 2020-08-27
CN106843709A (zh) 2017-06-13
AU2016363434B2 (en) 2019-10-31
AU2016363434A1 (en) 2018-06-21
WO2017092597A1 (zh) 2017-06-08
AU2019101558A4 (en) 2020-01-23
EP3367228A4 (en) 2019-06-26
SG11201804351PA (en) 2018-06-28
MY181211A (en) 2020-12-21
JP2018536243A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
US10754423B2 (en) Providing virtual reality experience service
KR101850586B1 (ko) 향상된 안구 추적을 위한 장면 분석
CN105830093B (zh) 用于产生与非均匀大小的空间区相关的元数据的系统、方法及设备
RU2613038C2 (ru) Способ управления оконечным устройством с использованием жеста и устройство
US9934823B1 (en) Direction indicators for panoramic images
JP6640356B2 (ja) リアルタイム情報に従って表示オブジェクトを表示する装置および方法
WO2017092332A1 (zh) 一种渲染图像的处理方法及装置
CN104364712A (zh) 用于捕获全景图像的方法和装置
US9824723B1 (en) Direction indicators for panoramic images
JP2017500766A (ja) 再焦点合わせ可能画像
US9547370B2 (en) Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems
CN112764845B (zh) 视频处理方法及装置、电子设备和计算机可读存储介质
CN113282168A (zh) 头戴式显示设备的信息输入方法、装置及头戴式显示设备
JP2017016657A (ja) 没入型ビデオ・コンテンツの一部分を参照部分の位置に従って処理する方法及び装置
WO2014180291A1 (zh) 一种用于基于运动特征信息生成运动特征码的方法和设备
US10412297B2 (en) Photographing apparatus capable of bracketing photography, photographing control method, and storage medium
JP2017103688A5 (ja)
CN105739817B (zh) 一种图标隐藏的方法、装置及移动终端
CN113096225A (zh) 一种图像特效的生成方法、装置、电子设备及存储介质
CN105446605B (zh) 信息处理方法及电子设备
US9792671B2 (en) Code filters for coded light depth acquisition in depth images
CN116983612A (zh) 一种基于陀螺仪的游戏控制方法、装置、介质及设备
CN113282167B (zh) 头戴式显示设备的交互方法、装置及头戴式显示设备
CN114610155A (zh) 手势控制方法、装置、显示终端及存储介质
CN114510142B (zh) 基于二维图像的手势识别方法及其系统和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191225

R150 Certificate of patent or registration of utility model

Ref document number: 6640356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250