JP2016517583A5 - - Google Patents

Download PDF

Info

Publication number
JP2016517583A5
JP2016517583A5 JP2016502021A JP2016502021A JP2016517583A5 JP 2016517583 A5 JP2016517583 A5 JP 2016517583A5 JP 2016502021 A JP2016502021 A JP 2016502021A JP 2016502021 A JP2016502021 A JP 2016502021A JP 2016517583 A5 JP2016517583 A5 JP 2016517583A5
Authority
JP
Japan
Prior art keywords
user
resolution frame
image target
view
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016502021A
Other languages
English (en)
Other versions
JP2016517583A (ja
JP6055156B2 (ja
Filing date
Publication date
Priority claimed from US13/834,669 external-priority patent/US9401048B2/en
Application filed filed Critical
Publication of JP2016517583A publication Critical patent/JP2016517583A/ja
Publication of JP2016517583A5 publication Critical patent/JP2016517583A5/ja
Application granted granted Critical
Publication of JP6055156B2 publication Critical patent/JP6055156B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (49)

  1. 拡張現実(AR)デバイスを着用しているユーザと対話するための方法であって、
    前記ユーザが第1の状態にあることを前記ARデバイスによって検出するステップと、
    前記第1の状態を検出する前記ステップに応答して前記ユーザの視野の低解像度フレームを前記ARデバイスによってキャプチャするステップと、
    前記低解像度フレームから画像ターゲットを判断するステップであって、前記画像ターゲットはリンク付けされたARコンテンツを有する、ステップと、
    前記画像ターゲットが利用可能であることを前記ユーザにアラートするステップと、
    前記リンク付けされたARコンテンツと対話するか否かについて前記ユーザからの命令を前記ARデバイスによって受信するステップと、
    前記リンク付けされたARコンテンツと対話することを前記ユーザが望むことを示す前記命令に基づき、前記ユーザの視野のフル解像度フレームを前記ARデバイスによってキャプチャするステップと、
    前記リンク付けされたARコンテンツを前記ユーザに前記ARデバイスによって表示するステップと、
    を含む、方法。
  2. 前記ユーザが前記第1の状態にあることを前記ARデバイスによって検出する前記ステップは、前記ARデバイスを着用している前記ユーザの動作パターンを検出するステップを含む、請求項1に記載の方法。
  3. 前記動作パターンは、第1の期間の動作の後に第2の期間のモーションの休止が続くことを含む、請求項2に記載の方法。
  4. 前記ユーザの視野の前記低解像度フレームを前記ARデバイスによってキャプチャする前記ステップは、低フレームレートで前記視野の複数のフレームをキャプチャするステップを含む、請求項1に記載の方法。
  5. 前記低解像度フレームから前記画像ターゲットを判断する前記ステップは、前記低解像度フレーム上でARターゲットマッチングアルゴリズムを実行してターゲットデータベースから前記画像ターゲットを特定するステップを含む、請求項1に記載の方法。
  6. 前記ARターゲットマッチングアルゴリズムを実行する前記ステップは、前記ARデバイスと通信状態にあるリモートサーバによって行われる、請求項5に記載の方法。
  7. 前記画像ターゲットが利用可能であることを前記ユーザにアラートする前記ステップは、前記画像ターゲットが利用可能であることについての情報を前記ARデバイスよって視覚的に表示するステップを含む、請求項1に記載の方法。
  8. 前記画像ターゲットが利用可能であることを前記ユーザにアラートする前記ステップは、前記ユーザの視野の前記低解像度フレームを前記ARデバイスによってキャプチャする前記ステップの後、前記ユーザが前記第1の状態に留まっていることを判断するステップを含む、請求項1に記載の方法。
  9. 前記リンク付けされたARコンテンツと後で対話することを前記ユーザが望むことを示す前記命令に基づき、前記画像ターゲットを保存するステップをさらに含む、請求項1に記載の方法。
  10. 前記ユーザの視野の前記フル解像度フレームを前記ARデバイスによってキャプチャする前記ステップは、前記フル解像度フレームを使用し前記画像ターゲットをトラッキングするステップを含む、請求項1に記載の方法。
  11. 前記ユーザの視野の前記フル解像度フレームを前記ARデバイスによってキャプチャする前記ステップは、前記リンク付けされたARコンテンツを拡張するステップを含む、請求項1に記載の方法。
  12. 前記ユーザの視野の前記フル解像度フレームから1つまたは複数の追加の画像ターゲットを判断するステップをさらに含み、前記1つまたは複数の追加の画像ターゲットはリンク付けされたARコンテンツを有する、請求項1に記載の方法。
  13. 前記ARデバイスは、頭部装着型ディスプレイ(HMD)を含む、請求項1に記載の方法。
  14. 前記ARデバイスは、モバイルデバイスと前記ユーザによって着用される第1のカメラとを含み、前記第1のカメラは前記ユーザの視野の前記低解像度フレームをキャプチャするために使用される、請求項1に記載の方法。
  15. 前記モバイルデバイスは第2のカメラを含み、前記第2のカメラは前記ユーザの視野の前記フル解像度フレームをキャプチャするために使用される、請求項14に記載の方法。
  16. 装置であって、
    前記装置のモーションを登録するように構成されたセンサと、
    カメラと、
    メモリと、
    前記メモリに結合された1つまたは複数のプロセッサとを含み、
    前記1つまたは複数のプロセッサは、
    前記センサをポーリングして前記装置の動作パターンを検出すること、
    前記カメラを起動して前記動作パターンに応答して前記カメラの視野の低解像度フレームをキャプチャすること、
    前記低解像度フレームから画像ターゲットを判断することであって、前記画像ターゲットがリンク付けされた拡張現実(AR)コンテンツを有する、こと、
    アラートを生成して前記画像ターゲットが利用可能であることを示すこと、
    前記リンク付けされたARコンテンツのための命令を受信すること、および
    前記リンク付けされたARコンテンツのための前記命令に基づき、前記カメラを起動して前記カメラの視野のフル解像度フレームをキャプチャすること
    を行うように構成される、装置。
  17. 表示媒体をさらに含み、前記1つまたは複数のプロセッサは、前記リンク付けされたARコンテンツを前記表示媒体に表示するようにさらに構成される、請求項16に記載の装置。
  18. 前記動作パターンは、第1の期間の動作の後に第2の期間のモーションの休止が続くことを含む、請求項16に記載の装置。
  19. 前記カメラの視野の前記低解像度フレームは、低フレームレートでの前記カメラの視野の複数のフレームを含む、請求項16に記載の装置。
  20. 前記1つまたは複数のプロセッサは、ARターゲットマッチングアルゴリズムを前記低解像度フレーム上で実行してターゲットデータベースから前記画像ターゲットを特定するようにさらに構成されることによって、前記低解像度フレームから前記画像ターゲットを判断するように構成される、請求項16に記載の装置。
  21. 前記1つまたは複数のプロセッサは、前記画像ターゲットが利用可能であることについての情報を表示媒体に表示するようにさらに構成されることによって、前記アラートを生成して前記画像ターゲットが利用可能であることを示すように構成される、請求項16に記載の装置。
  22. 前記1つまたは複数のプロセッサは、前記カメラを起動して前記カメラの視野の前記低解像度フレームをキャプチャするように構成された後、前記センサをポーリングして前記装置のモーション閾値を超えるモーションを前記センサが登録していないと判断するようにさらに構成されることによって、前記アラートを生成して前記画像ターゲットが利用可能であることを示すように構成される、請求項16に記載の装置。
  23. 前記1つまたは複数のプロセッサは、前記リンク付けされたARコンテンツを後で提供する要求を含む前記命令に基づき、前記画像ターゲットを保存するようにさらに構成される、請求項16に記載の装置。
  24. 前記1つまたは複数のプロセッサは、前記カメラの視野の前記フル解像度フレームを使用し前記画像ターゲットをトラッキングするようにさらに構成されることによって、前記カメラを起動して前記カメラの視野の前記フル解像度フレームをキャプチャするように構成される、請求項16に記載の装置。
  25. 前記1つまたは複数のプロセッサは、前記カメラの視野の前記フル解像度フレームから前記リンク付けされたARコンテンツを拡張するようにさらに構成される、請求項16に記載の装置。
  26. 前記1つまたは複数のプロセッサは、前記カメラの視野の前記フル解像度フレームから1つまたは複数の追加の画像ターゲットを判断するようにさらに構成され、前記1つまたは複数の追加の画像ターゲットはリンク付けされたARコンテンツを有する、請求項16に記載の装置。
  27. 前記装置は、頭部装着型ディスプレイ(HMD)を含む、請求項16に記載の装置。
  28. 1つまたは複数のプロセッサによって実行されると前記1つまたは複数のプロセッサに、
    ユーザが第1の状態にあることを検出するステップと、
    前記第1の状態を検出する前記ステップに応答して前記ユーザの視野の低解像度フレームをキャプチャするステップと、
    前記低解像度フレームから画像ターゲットを判断するステップであって、前記画像ターゲットはリンク付けされた拡張現実(AR)コンテンツを有する、ステップと、
    前記画像ターゲットが利用可能であることを前記ユーザにアラートするステップと、
    前記リンク付けされたARコンテンツのための命令を受信するステップと、
    前記リンク付けされたARコンテンツのための前記命令に基づき、前記ユーザの視野のフル解像度フレームをキャプチャするステップと、
    前記リンク付けされたARコンテンツを前記ユーザに提供するステップと、
    を含む、
    方法を行わせるように構成された複数の機械可読命令を含む、非一時的機械可読媒体。
  29. 前記ユーザが前記第1の状態にあることを検出する前記ステップは、前記ユーザの動作パターンを検出するステップを含む、請求項28に記載の非一時的機械可読媒体。
  30. 前記動作パターンは、第1の期間の動作の後に第2の期間のモーションの休止が続くことを含む、請求項29に記載の非一時的機械可読媒体。
  31. 前記ユーザの視野の前記低解像度フレームをキャプチャする前記ステップは、低フレームレートで前記視野の複数のフレームをキャプチャするステップを含む、請求項28に記載の非一時的機械可読媒体。
  32. 前記低解像度フレームから前記画像ターゲットを判断する前記ステップは、前記低解像度フレーム上でARターゲットマッチングアルゴリズムを実行してターゲットデータベースから前記画像ターゲットを特定するステップを含む、請求項28に記載の非一時的機械可読媒体。
  33. 前記画像ターゲットが利用可能であることを前記ユーザにアラートする前記ステップは、前記画像ターゲットが利用可能であることについての情報を視覚的に表示するステップを含む、請求項28に記載の非一時的機械可読媒体。
  34. 前記画像ターゲットが利用可能であることを前記ユーザにアラートする前記ステップは、前記ユーザの視野の前記低解像度フレームをキャプチャする前記ステップの後、前記ユーザが前記第1の状態に留まっていることを判断するステップを含む、請求項28に記載の非一時的機械可読媒体。
  35. 前記方法は、前記リンク付けされたARコンテンツと後で対話することを前記ユーザが望むことを示す前記命令に基づき、前記画像ターゲットを保存するステップをさらに含む、請求項28に記載の非一時的機械可読媒体。
  36. 前記ユーザの視野の前記フル解像度フレームをキャプチャする前記ステップは、前記フル解像度フレームを使用し前記画像ターゲットをトラッキングするステップを含む、請求項28に記載の非一時的機械可読媒体。
  37. 前記方法は、前記ユーザの視野の前記フル解像度フレームを使用し前記リンク付けされたARコンテンツを拡張するステップをさらに含む、請求項28に記載の非一時的機械可読媒体。
  38. 前記方法は、前記ユーザの視野の前記フル解像度フレームから1つまたは複数の追加の画像ターゲットを判断するステップをさらに含み、前記1つまたは複数の追加の画像ターゲットはリンク付けされたARコンテンツを有する、請求項28に記載の非一時的機械可読媒体。
  39. ユーザが第1の状態にあることを検出するための手段と、
    前記第1の状態を検出することに応答して前記ユーザの視野の低解像度フレームをキャプチャするための手段と、
    前記低解像度フレームから画像ターゲットを判断するための手段であって、前記画像ターゲットはリンク付けされた拡張現実(AR)コンテンツを有する、手段と、
    前記画像ターゲットが利用可能であることを前記ユーザにアラートするための手段と、
    前記リンク付けされたARコンテンツのための命令を受信するための手段と、
    前記リンク付けされたARコンテンツのための前記命令に基づき、前記ユーザの視野のフル解像度フレームをキャプチャするための手段と、
    前記リンク付けされたARコンテンツを前記ユーザに提供するための手段と
    を含む、システム。
  40. 前記ユーザが前記第1の状態にあることを検出するための前記手段は、前記ユーザの動作パターンを検出するための手段を含む、請求項39に記載のシステム。
  41. 前記動作パターンは、第1の期間の動作の後に第2の期間のモーションの休止が続くことを含む、請求項40に記載のシステム。
  42. 前記ユーザの視野の前記低解像度フレームをキャプチャするための前記手段は、低フレームレートで前記視野の複数のフレームをキャプチャするための手段を含む、請求項39に記載のシステム。
  43. 前記低解像度フレームから前記画像ターゲットを判断するための前記手段は、前記低解像度フレーム上でARターゲットマッチングアルゴリズムを実行してターゲットデータベースから前記画像ターゲットを特定するための手段を含む、請求項39に記載のシステム。
  44. 前記画像ターゲットが利用可能であることを前記ユーザにアラートするための前記手段は、前記画像ターゲットが利用可能であることについての情報を視覚的に表示するための手段を含む、請求項39に記載のシステム。
  45. 前記画像ターゲットが利用可能であることを前記ユーザにアラートするための前記手段は、前記ユーザの視野の前記低解像度フレームをキャプチャした後、前記ユーザが前記第1の状態に留まっていることを判断するための手段を含む、請求項39に記載のシステム。
  46. 前記リンク付けされたARコンテンツと後で対話することを前記ユーザが望むことを示す前記命令に基づき、前記画像ターゲットを保存するための手段をさらに含む、請求項39に記載のシステム。
  47. 前記ユーザの視野の前記フル解像度フレームをキャプチャするための前記手段は、前記フル解像度フレームを使用し前記画像ターゲットをトラッキングするための手段を含む、請求項39に記載のシステム。
  48. 前記ユーザの視野の前記フル解像度フレームを使用し前記リンク付けされたARコンテンツを拡張するための手段をさらに含む、請求項39に記載のシステム。
  49. 前記ユーザの視野の前記フル解像度フレームから1つまたは複数の追加の画像ターゲットを判断するための手段をさらに含み、前記1つまたは複数の追加の画像ターゲットはリンク付けされたARコンテンツを有する、請求項39に記載のシステム。
JP2016502021A 2013-03-15 2014-03-13 拡張現実ターゲット検出のための方法および装置 Expired - Fee Related JP6055156B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/834,669 US9401048B2 (en) 2013-03-15 2013-03-15 Methods and apparatus for augmented reality target detection
US13/834,669 2013-03-15
PCT/US2014/026000 WO2014151561A1 (en) 2013-03-15 2014-03-13 Methods and apparatus for augmented reality target detection

Publications (3)

Publication Number Publication Date
JP2016517583A JP2016517583A (ja) 2016-06-16
JP2016517583A5 true JP2016517583A5 (ja) 2016-11-24
JP6055156B2 JP6055156B2 (ja) 2016-12-27

Family

ID=50543680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016502021A Expired - Fee Related JP6055156B2 (ja) 2013-03-15 2014-03-13 拡張現実ターゲット検出のための方法および装置

Country Status (6)

Country Link
US (1) US9401048B2 (ja)
EP (1) EP2974270B1 (ja)
JP (1) JP6055156B2 (ja)
KR (1) KR101743858B1 (ja)
CN (1) CN105191282B (ja)
WO (1) WO2014151561A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070217B2 (en) * 2013-03-15 2015-06-30 Daqri, Llc Contextual local image recognition dataset
JP6600310B2 (ja) * 2013-09-04 2019-10-30 エシロール エンテルナショナル シースルー頭部装着型装置に基づいたナビゲーション方法
US11343487B2 (en) 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR20160041435A (ko) * 2014-10-07 2016-04-18 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20160171739A1 (en) * 2014-12-11 2016-06-16 Intel Corporation Augmentation of stop-motion content
US9696549B2 (en) * 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9940521B2 (en) * 2015-02-27 2018-04-10 Sony Corporation Visibility enhancement devices, systems, and methods
US10380657B2 (en) * 2015-03-04 2019-08-13 International Business Machines Corporation Rapid cognitive mobile application review
KR101735484B1 (ko) * 2015-06-04 2017-05-15 엘지전자 주식회사 헤드 마운티드 디스플레이
US10380966B2 (en) 2015-08-31 2019-08-13 International Business Machines Corporation Power and processor management for a personal imaging system
US10133407B2 (en) * 2015-12-28 2018-11-20 Seiko Epson Corporation Display apparatus, display system, method for controlling display apparatus, and program
CN108702549B (zh) * 2016-03-17 2022-03-04 惠普发展公司有限责任合伙企业 帧传输
JP2017228942A (ja) * 2016-06-22 2017-12-28 富士通株式会社 ヘッドマウントディスプレイ、送信制御プログラムおよび送信制御方法
US10652284B2 (en) * 2016-10-12 2020-05-12 Samsung Electronics Co., Ltd. Method and apparatus for session control support for field of view virtual reality streaming
JP2018078475A (ja) * 2016-11-10 2018-05-17 富士通株式会社 制御プログラム、制御方法および制御装置
US10394313B2 (en) * 2017-03-15 2019-08-27 Microsoft Technology Licensing, Llc Low latency cross adapter VR presentation
US10304207B2 (en) 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
US11048325B2 (en) 2017-07-10 2021-06-29 Samsung Electronics Co., Ltd. Wearable augmented reality head mounted display device for phone content display and health monitoring
GB2567012B (en) * 2017-10-02 2021-05-12 Advanced Risc Mach Ltd Motion Sensing
US10403123B2 (en) 2017-10-31 2019-09-03 Global Tel*Link Corporation Augmented reality system for guards of controlled environment residents
US10921127B2 (en) 2017-11-02 2021-02-16 Sony Corporation Augmented reality based electronic device to provide location tagging assistance in an indoor or outdoor area
CN107864225A (zh) * 2017-12-21 2018-03-30 北京小米移动软件有限公司 基于ar的信息推送方法、装置及电子设备
CN109391849B (zh) * 2018-09-30 2020-11-20 联想(北京)有限公司 处理方法及系统、多媒体输出装置及存储器
CN110658916A (zh) * 2019-09-18 2020-01-07 中国人民解放军海军航空大学 目标跟踪方法和系统
KR20210053554A (ko) * 2019-11-04 2021-05-12 엘지전자 주식회사 멀티미디어 디바이스 및 그 제어 방법
KR20210063928A (ko) 2019-11-25 2021-06-02 삼성전자주식회사 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
EP3883234B1 (en) * 2020-03-17 2022-02-02 Axis AB Wearable camera and a method for power consumption optimization in the wearable camera
US11561611B2 (en) * 2020-10-29 2023-01-24 Micron Technology, Inc. Displaying augmented reality responsive to an input
US20220138994A1 (en) * 2020-11-04 2022-05-05 Micron Technology, Inc. Displaying augmented reality responsive to an augmented reality image
US11582392B2 (en) 2021-03-25 2023-02-14 International Business Machines Corporation Augmented-reality-based video record and pause zone creation
US11960345B2 (en) 2021-05-25 2024-04-16 Samsung Electronics Co., Ltd. System and method for controlling operational modes for XR devices for performance optimization
CN113724398A (zh) * 2021-09-01 2021-11-30 北京百度网讯科技有限公司 增强现实方法、装置、设备以及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3368614B2 (ja) * 1993-04-01 2003-01-20 セイコーエプソン株式会社 頭部装着型表示装置
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
GB2378339A (en) 2001-07-31 2003-02-05 Hewlett Packard Co Predictive control of multiple image capture devices.
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
CN102906623A (zh) 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
US20120194549A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses specific user interface based on a connected external device type
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
JP2012002568A (ja) 2010-06-15 2012-01-05 Brother Ind Ltd ナビゲーションシステム、携帯機器及び携帯機器用プログラム
KR101672212B1 (ko) * 2010-06-15 2016-11-04 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
KR101431366B1 (ko) * 2010-07-20 2014-08-19 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 증강 현실 근접 감지
KR101317401B1 (ko) 2010-08-25 2013-10-10 주식회사 팬택 객체 저장이 가능한 단말 장치 및 방법
US9274744B2 (en) * 2010-09-10 2016-03-01 Amazon Technologies, Inc. Relative position-inclusive device interfaces
US8698843B2 (en) * 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US8890896B1 (en) 2010-11-02 2014-11-18 Google Inc. Image recognition in an augmented reality application
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
JP5960796B2 (ja) 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
US8203605B1 (en) 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US20130007672A1 (en) 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
US20130201344A1 (en) 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
US9219901B2 (en) 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display

Similar Documents

Publication Publication Date Title
JP2016517583A5 (ja)
JP2016509705A5 (ja)
JP2012145981A5 (ja)
JP2013101528A5 (ja)
WO2015066491A3 (en) Hand hygiene use and tracking in the clinical setting via wearable computers
MX2014015052A (es) Sistema para medicion de signos vitales basado en camara.
EP3154031A3 (en) Information processing device, information processing method, and computer-readable medium
RU2012157285A (ru) Устройство обработки информации, способ обработки информации и компьютерная программа
RU2014117669A (ru) Устройство обработки информации, способ обработки информации и программа
JP2017502338A5 (ja)
JP2015069432A5 (ja)
JP2014116912A5 (ja)
FR2967804B1 (fr) Procede et dispositif de detection et de suivi d'objets non rigides en mouvement, en temps reel, dans un flux video, permettant a un utilisateur d'interagir avec un systeme informatique
JP2016143157A5 (ja)
JP2017129567A5 (ja)
GB2562641A8 (en) Tracking assistance device, tracking assistance system, and tracking assistance method
JP2014023127A5 (ja)
JP2015103104A5 (ja)
JP2013161391A5 (ja)
JP2012028950A5 (ja)
GB2553926A (en) Automatic detection of panoramic gestures
JP2017010210A5 (ja)
JP2019036791A5 (ja) 画像処理装置およびその制御方法、プログラム
EP3046080A3 (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP2015046861A5 (ja)