JP6640356B2 - リアルタイム情報に従って表示オブジェクトを表示する装置および方法 - Google Patents
リアルタイム情報に従って表示オブジェクトを表示する装置および方法 Download PDFInfo
- Publication number
- JP6640356B2 JP6640356B2 JP2018528716A JP2018528716A JP6640356B2 JP 6640356 B2 JP6640356 B2 JP 6640356B2 JP 2018528716 A JP2018528716 A JP 2018528716A JP 2018528716 A JP2018528716 A JP 2018528716A JP 6640356 B2 JP6640356 B2 JP 6640356B2
- Authority
- JP
- Japan
- Prior art keywords
- real
- display
- slide
- display object
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000000694 effects Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 8
- 238000011438 discrete method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Description
Claims (18)
- リアルタイム情報に従って表示オブジェクトを表示する方法であって、
前記表示オブジェクトの位置情報を取得するステップであって、前記位置情報は、前の期間に取得したリアルタイム情報および現在の期間に取得したリアルタイム情報に対応し、
前記前の期間に取得した前記位置情報に従って開始点を決定し、前記現在の期間に取得した前記位置情報に従って終了点を決定するステップと、
表示オブジェクトを前記開始点と前記終了点との間でスライド表示するステップであって、
前記開始点と前記終了点との間の前記表示オブジェクトのスライド軌跡を決定し、前記スライド軌跡にN個の離散位置点を選択し、Nは自然数であるステップと、
前記開始点、前記N個の離散位置点、および前記終了点に、一点表示間隔の間、前記表示オブジェクトを順次表示してスライド効果を達成するステップと、を含み、
Nの値および前記一点表示間隔は、前記現在の期間における前記表示オブジェクトのスライド距離に基づいて決定される、ステップと、
を含む方法。 - 前記現在の期間が開始したときに前記前の期間のスライド表示が終了していない場合に、前記開始点を前記現在の期間が開始したときの前記表示オブジェクトの表示位置に変更し、
前記前の期間の前記スライド表示の未完了部分を中止するステップをさらに含む、請求項1に記載の方法。 - 前記開始点と前記終了点との間の距離が所定の閾値よりも短い場合に、前記現在の期間に取得した前記リアルタイム情報に対応する前記位置情報に前記表示オブジェクトを表示し、
前記現在の期間の前記スライド表示の実行を中止するステップをさらに含む、請求項1または2に記載の方法。 - 前記スライド軌跡に前記N個の離散位置点を選択することは、前記スライド軌跡に、均等、加速的、または減速的な手法で、前記N個の離散位置点を選択することを含む、請求項3に記載の方法。
- 前記表示オブジェクトは、リアルタイム画像および/またはリアルタイム動画を含む、請求項1に記載の方法。
- 前記表示オブジェクトはユーザのリアルタイム頭部画像を含み、
前記リアルタイム情報に対応する前記位置情報は、水平方向における前記ユーザのリアルタイム頭部画像の正面の回転角度に対応するX軸比率座標と、垂直方向における前記ユーザのリアルタイム頭部画像の正面の回転角度に対応するY軸比率座標とを含み、
前記前の期間に取得した前記位置情報に従って前記開始点を決定するステップ、および、前記現在の期間に取得した前記位置情報に従って前記終了点を決定するステップは、画面の幅および長さに従って、前記前の期間におけるX軸比率座標およびY軸比率座標を、前記画面における前記開始点の位置座標に変換し、前記現在の期間におけるX軸比率座標およびY軸比率座標を、前記画面における前記終了点の位置座標に変換することを含む、請求項1に記載の方法。 - 前記表示オブジェクトが前記画面における所定の標示位置に移動したときに、前記ユーザのリアルタイム頭部画像の認証を実行し、前記認証に成功したときに前記ユーザのログインを完了させるステップをさらに含む、請求項6に記載の方法。
- リアルタイム情報に従って表示オブジェクトを表示する装置であって、
前記表示オブジェクトの位置情報を取得するよう構成された位置情報取得部であって、前記位置情報は、前の期間に取得されたリアルタイム情報および現在の期間に取得されたリアルタイム情報に対応し、
前記前の期間に取得された前記位置情報に従って開始点を決定し、前記現在の期間に取得された前記位置情報に従って終了点を決定するよう構成された開始終了点決定部と、
前記開始点と前記終了点との間をスライドするように表示オブジェクトを表示するスライド表示を実行するよう構成されたスライド表示部と、を備え、
前記スライド表示部は、
前記開始点と前記終了点との間の前記表示オブジェクトのスライド軌跡を決定し、前記スライド軌跡にN個の離散位置点を選択し、Nは自然数であり、
前記開始点、前記N個の離散位置点、および前記終了点に、一点表示間隔の間、前記表示オブジェクトを順次表示してスライド効果を達成し、
Nの値および前記一点表示間隔は、前記現在の期間における前記表示オブジェクトのスライド距離に基づいて決定される、装置。 - 前記現在の期間が開始したときに前記前の期間における前記スライド表示が終了していない場合に、前記開始点を、前記現在の期間が開始したときの前記表示オブジェクトの表示位置に変更し、
前記前の期間における前記スライド表示の未完了部分を中止する開始点変更部をさらに備える、請求項8に記載の装置。 - 前記開始点と前記終了点との間の距離が所定の閾値よりも短い場合に、前記現在の期間に取得された前記リアルタイム情報に対応する前記位置情報に前記表示オブジェクトを表示し、前記現在の期間におけるスライド表示の実行を中止するよう構成されたスライド中止部をさらに備える、請求項8または9に記載の装置。
- 前記スライド表示部は、前記スライド軌跡上に前記N個の離散位置点を、平均的、加速的、または減速的な離散手法で決定するよう構成される、請求項8に記載の装置。
- 前記表示オブジェクトは、リアルタイム画像および/またはリアルタイム動画を含む、請求項8に記載の装置。
- 前記表示オブジェクトはユーザのリアルタイム頭部画像を含み、
リアルタイム情報に対応する前記位置情報は、水平方向における前記ユーザの前記リアルタイム頭部画像の正面の回転角度に対応するX軸比率座標および垂直方向における前記ユーザのリアルタイム頭部画像の正面の回転角度に対応するY軸比率座標を含み、
前記開始点および終了点決定部は、画面の幅および長さに従って、前記前の期間のX軸比率座標およびY軸比率座標を前記画面における前記開始点の位置座標に変換し、前記画面の幅および長さに従って、前記現在の期間のX軸比率座標およびY軸比率座標を前記画面における前記終了点の位置座標に変換するよう構成される、請求項8に記載の装置。 - 前記表示オブジェクトが前記画面における所定の標示位置に移動したときに前記ユーザのリアルタイム頭部画像の認証を実行し、前記認証が成功したときに前記ユーザのログインを完了させるよう構成された認証ログイン部をさらに備える、請求項13に記載の装置。
- 前記Nの値は、前記スライド距離に比例し、前記一点表示間隔に反比例して変動する、請求項1に記載の方法。
- 前記所定の閾値は、機械学習アルゴリズムによる自己学習プロセスが前記現在の期間について取得された前記リアルタイム情報に対応する位置情報について受ける影響に基づき決定される、請求項3に記載の方法。
- 前記ユーザの頭部のヨーおよびピッチの角度に基づいて、前記ユーザのリアルタイム頭部画像の相対位置を決定することをさらに含む、請求項7に記載の方法。
- 前記ユーザのリアルタイム頭部画像の位置を決定することは、
前記ユーザのリアルタイム頭部画像が正面の頭部画像であることに応じて、前記ユーザのリアルタイム頭部画像を前記画面の中央に位置付けること、および、
前記ユーザのリアルタイム頭部画像が左側であることに応じて、前記ユーザのリアルタイム頭部画像を前記画面の左端中央に位置付けることを含む、請求項17に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510884339.7A CN106843709B (zh) | 2015-12-04 | 2015-12-04 | 根据实时信息显示展现对象的方法和装置 |
CN201510884339.7 | 2015-12-04 | ||
PCT/CN2016/107014 WO2017092597A1 (zh) | 2015-12-04 | 2016-11-24 | 根据实时信息显示展现对象的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018536243A JP2018536243A (ja) | 2018-12-06 |
JP6640356B2 true JP6640356B2 (ja) | 2020-02-05 |
Family
ID=58796282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018528716A Active JP6640356B2 (ja) | 2015-12-04 | 2016-11-24 | リアルタイム情報に従って表示オブジェクトを表示する装置および方法 |
Country Status (10)
Country | Link |
---|---|
US (1) | US10551912B2 (ja) |
EP (1) | EP3367228B1 (ja) |
JP (1) | JP6640356B2 (ja) |
KR (1) | KR102148583B1 (ja) |
CN (1) | CN106843709B (ja) |
AU (2) | AU2016363434B2 (ja) |
MY (1) | MY181211A (ja) |
PH (1) | PH12018501175A1 (ja) |
SG (1) | SG11201804351PA (ja) |
WO (1) | WO2017092597A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506025A (zh) * | 2017-07-25 | 2017-12-22 | 北京小鸟看看科技有限公司 | 一种头戴显示设备的信息显示方法、装置及头戴显示设备 |
CN107952238B (zh) * | 2017-11-23 | 2020-11-17 | 香港乐蜜有限公司 | 视频生成方法、装置和电子设备 |
US11776190B2 (en) * | 2021-06-04 | 2023-10-03 | Apple Inc. | Techniques for managing an avatar on a lock screen |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0461577B1 (en) * | 1990-06-11 | 1998-12-02 | Hitachi, Ltd. | Apparatus for generating object motion path |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
FI117488B (fi) | 2001-05-16 | 2006-10-31 | Myorigo Sarl | Informaation selaus näytöllä |
US7173623B2 (en) * | 2003-05-09 | 2007-02-06 | Microsoft Corporation | System supporting animation of graphical display elements through animation object instances |
CA2567631A1 (en) * | 2004-06-08 | 2005-12-22 | Three-B International Limited | Displaying graphical textures |
EP1851750A4 (en) | 2005-02-08 | 2010-08-25 | Oblong Ind Inc | SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES |
JP4989052B2 (ja) * | 2005-07-28 | 2012-08-01 | 任天堂株式会社 | 入力データ処理プログラムおよび情報処理装置 |
US20070067798A1 (en) | 2005-08-17 | 2007-03-22 | Hillcrest Laboratories, Inc. | Hover-buttons for user interfaces |
US8411913B2 (en) | 2008-06-17 | 2013-04-02 | The Hong Kong Polytechnic University | Partial fingerprint recognition |
JP2011134278A (ja) * | 2009-12-25 | 2011-07-07 | Toshiba Corp | 情報処理装置およびポインティング制御方法 |
JP5382007B2 (ja) | 2010-02-22 | 2014-01-08 | 株式会社デンソー | 移動軌跡表示装置 |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
KR101005719B1 (ko) | 2010-05-18 | 2011-01-06 | 주식회사 슈프리마 | 정합 및 합성의 시작과 종료를 자동으로 인식하는 회전 지문 획득 장치 및 방법 |
JP2012008893A (ja) * | 2010-06-25 | 2012-01-12 | Hakko Denki Kk | 作画支援システム、および作画支援システムにおける支援装置 |
EP2596478B1 (en) | 2010-07-19 | 2019-09-04 | Risst Ltd. | Fingerprint sensors and systems incorporating fingerprint sensors |
WO2012030958A1 (en) * | 2010-08-31 | 2012-03-08 | Activate Systems, Inc. | Methods and apparatus for improved motion capture |
US9316827B2 (en) | 2010-09-20 | 2016-04-19 | Kopin Corporation | LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking |
JP5418532B2 (ja) * | 2011-03-29 | 2014-02-19 | アイシン・エィ・ダブリュ株式会社 | 表示装置および表示装置の制御方法並びにプログラム |
US8643680B2 (en) * | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
KR101788006B1 (ko) * | 2011-07-18 | 2017-10-19 | 엘지전자 주식회사 | 원격제어장치 및 원격제어장치로 제어 가능한 영상표시장치 |
US9082235B2 (en) * | 2011-07-12 | 2015-07-14 | Microsoft Technology Licensing, Llc | Using facial data for device authentication or subject identification |
US9305361B2 (en) * | 2011-09-12 | 2016-04-05 | Qualcomm Incorporated | Resolving homography decomposition ambiguity based on orientation sensors |
US8261090B1 (en) * | 2011-09-28 | 2012-09-04 | Google Inc. | Login to a computing device based on facial recognition |
US8743055B2 (en) * | 2011-10-13 | 2014-06-03 | Panasonic Corporation | Hybrid pointing system and method |
US8666719B2 (en) * | 2011-10-25 | 2014-03-04 | Livermore Software Technology Corp. | Methods and systems for numerically simulating muscle movements along bones and around joints |
CN103376994A (zh) * | 2012-04-11 | 2013-10-30 | 宏碁股份有限公司 | 电子装置及控制电子装置的方法 |
US9417660B2 (en) | 2012-04-25 | 2016-08-16 | Kopin Corporation | Collapsible head set computer |
CN103425403B (zh) | 2012-05-14 | 2017-02-15 | 华为技术有限公司 | 一种屏幕间显示内容的穿越方法、装置及系统 |
CN103513811B (zh) * | 2012-06-29 | 2017-02-08 | 北京汇冠新技术股份有限公司 | 一种触摸轨迹跟踪方法 |
CN102799376A (zh) * | 2012-07-11 | 2012-11-28 | 广东欧珀移动通信有限公司 | 一种触控设备的快捷功能设定方法 |
CN102830797B (zh) * | 2012-07-26 | 2015-11-25 | 深圳先进技术研究院 | 一种基于视线判断的人机交互方法及系统 |
JP2014092940A (ja) | 2012-11-02 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US9569992B2 (en) | 2012-11-15 | 2017-02-14 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving information processing device, program, and information processing device |
JPWO2014084224A1 (ja) * | 2012-11-27 | 2017-01-05 | 京セラ株式会社 | 電子機器および視線入力方法 |
US9058519B2 (en) | 2012-12-17 | 2015-06-16 | Qualcomm Incorporated | System and method for passive live person verification using real-time eye reflection |
US9134793B2 (en) | 2013-01-04 | 2015-09-15 | Kopin Corporation | Headset computer with head tracking input used for inertial control |
CN103941988A (zh) * | 2013-01-20 | 2014-07-23 | 上海博路信息技术有限公司 | 一种手势解锁的方法 |
US9208583B2 (en) * | 2013-02-13 | 2015-12-08 | Blackberry Limited | Device with enhanced augmented reality functionality |
KR102214503B1 (ko) | 2013-03-26 | 2021-02-09 | 삼성전자주식회사 | 지문 인식 방법 및 그 전자 장치 |
KR102121592B1 (ko) | 2013-05-31 | 2020-06-10 | 삼성전자주식회사 | 시력 보호 방법 및 장치 |
JP2015012304A (ja) * | 2013-06-26 | 2015-01-19 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US9857876B2 (en) * | 2013-07-22 | 2018-01-02 | Leap Motion, Inc. | Non-linear motion capture using Frenet-Serret frames |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
JP5924555B2 (ja) * | 2014-01-06 | 2016-05-25 | コニカミノルタ株式会社 | オブジェクトの停止位置制御方法、操作表示装置およびプログラム |
JP2015162071A (ja) * | 2014-02-27 | 2015-09-07 | 株式会社ニコン | 電子機器 |
JP6057937B2 (ja) * | 2014-03-14 | 2017-01-11 | 株式会社コロプラ | ゲームオブジェクト制御プログラム及びゲームオブジェクト制御方法 |
CN104142807A (zh) * | 2014-08-02 | 2014-11-12 | 合一网络技术(北京)有限公司 | 基于安卓控件利用OpenGL绘制图像的方法和系统 |
EP3218844A4 (en) * | 2014-11-13 | 2018-07-04 | Intel Corporation | Spoofing detection in image biometrics |
CN104777984A (zh) * | 2015-04-30 | 2015-07-15 | 青岛海信电器股份有限公司 | 一种触摸轨迹跟踪的方法、装置及触屏设备 |
CN104915001B (zh) * | 2015-06-03 | 2019-03-15 | 北京嘿哈科技有限公司 | 一种屏幕操控方法及装置 |
CN104915099A (zh) * | 2015-06-16 | 2015-09-16 | 努比亚技术有限公司 | 一种图标整理方法和终端设备 |
CN104951773B (zh) * | 2015-07-12 | 2018-10-02 | 上海微桥电子科技有限公司 | 一种实时人脸识别监视系统 |
CN105100934A (zh) * | 2015-08-29 | 2015-11-25 | 天脉聚源(北京)科技有限公司 | 显示参与互动的用户信息的方法和装置 |
-
2015
- 2015-12-04 CN CN201510884339.7A patent/CN106843709B/zh active Active
-
2016
- 2016-11-24 MY MYPI2018702105A patent/MY181211A/en unknown
- 2016-11-24 JP JP2018528716A patent/JP6640356B2/ja active Active
- 2016-11-24 WO PCT/CN2016/107014 patent/WO2017092597A1/zh active Application Filing
- 2016-11-24 EP EP16869907.2A patent/EP3367228B1/en active Active
- 2016-11-24 SG SG11201804351PA patent/SG11201804351PA/en unknown
- 2016-11-24 AU AU2016363434A patent/AU2016363434B2/en active Active
- 2016-11-24 KR KR1020187018757A patent/KR102148583B1/ko active IP Right Grant
-
2018
- 2018-05-30 US US15/993,071 patent/US10551912B2/en active Active
- 2018-06-04 PH PH12018501175A patent/PH12018501175A1/en unknown
-
2019
- 2019-12-12 AU AU2019101558A patent/AU2019101558A4/en active Active
Also Published As
Publication number | Publication date |
---|---|
PH12018501175A1 (en) | 2019-01-21 |
CN106843709B (zh) | 2020-04-14 |
US10551912B2 (en) | 2020-02-04 |
KR20180088450A (ko) | 2018-08-03 |
EP3367228B1 (en) | 2022-02-09 |
US20180275750A1 (en) | 2018-09-27 |
EP3367228A1 (en) | 2018-08-29 |
KR102148583B1 (ko) | 2020-08-27 |
CN106843709A (zh) | 2017-06-13 |
AU2016363434B2 (en) | 2019-10-31 |
AU2016363434A1 (en) | 2018-06-21 |
WO2017092597A1 (zh) | 2017-06-08 |
AU2019101558A4 (en) | 2020-01-23 |
EP3367228A4 (en) | 2019-06-26 |
SG11201804351PA (en) | 2018-06-28 |
MY181211A (en) | 2020-12-21 |
JP2018536243A (ja) | 2018-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10754423B2 (en) | Providing virtual reality experience service | |
KR101850586B1 (ko) | 향상된 안구 추적을 위한 장면 분석 | |
CN105830093B (zh) | 用于产生与非均匀大小的空间区相关的元数据的系统、方法及设备 | |
RU2613038C2 (ru) | Способ управления оконечным устройством с использованием жеста и устройство | |
US9934823B1 (en) | Direction indicators for panoramic images | |
JP6640356B2 (ja) | リアルタイム情報に従って表示オブジェクトを表示する装置および方法 | |
WO2017092332A1 (zh) | 一种渲染图像的处理方法及装置 | |
CN104364712A (zh) | 用于捕获全景图像的方法和装置 | |
US9824723B1 (en) | Direction indicators for panoramic images | |
JP2017500766A (ja) | 再焦点合わせ可能画像 | |
US9547370B2 (en) | Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems | |
CN112764845B (zh) | 视频处理方法及装置、电子设备和计算机可读存储介质 | |
CN113282168A (zh) | 头戴式显示设备的信息输入方法、装置及头戴式显示设备 | |
JP2017016657A (ja) | 没入型ビデオ・コンテンツの一部分を参照部分の位置に従って処理する方法及び装置 | |
WO2014180291A1 (zh) | 一种用于基于运动特征信息生成运动特征码的方法和设备 | |
US10412297B2 (en) | Photographing apparatus capable of bracketing photography, photographing control method, and storage medium | |
JP2017103688A5 (ja) | ||
CN105739817B (zh) | 一种图标隐藏的方法、装置及移动终端 | |
CN113096225A (zh) | 一种图像特效的生成方法、装置、电子设备及存储介质 | |
CN105446605B (zh) | 信息处理方法及电子设备 | |
US9792671B2 (en) | Code filters for coded light depth acquisition in depth images | |
CN116983612A (zh) | 一种基于陀螺仪的游戏控制方法、装置、介质及设备 | |
CN113282167B (zh) | 头戴式显示设备的交互方法、装置及头戴式显示设备 | |
CN114610155A (zh) | 手势控制方法、装置、显示终端及存储介质 | |
CN114510142B (zh) | 基于二维图像的手势识别方法及其系统和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191010 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6640356 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |