JP2022537574A - ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム - Google Patents

ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム Download PDF

Info

Publication number
JP2022537574A
JP2022537574A JP2021576012A JP2021576012A JP2022537574A JP 2022537574 A JP2022537574 A JP 2022537574A JP 2021576012 A JP2021576012 A JP 2021576012A JP 2021576012 A JP2021576012 A JP 2021576012A JP 2022537574 A JP2022537574 A JP 2022537574A
Authority
JP
Japan
Prior art keywords
data
user
laser projection
gesture
processors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021576012A
Other languages
English (en)
Other versions
JP7508492B2 (ja
Inventor
イムラン・エー・チャウドリ
パトリック・ゲーツ
モニーク・レロヴァ
ベサニー・ボンジョルノ
ブライアン・フッピー
シャザド・チャウドリ
Original Assignee
ヒューメイン・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒューメイン・インコーポレイテッド filed Critical ヒューメイン・インコーポレイテッド
Publication of JP2022537574A publication Critical patent/JP2022537574A/ja
Priority to JP2024012972A priority Critical patent/JP2024050736A/ja
Application granted granted Critical
Publication of JP7508492B2 publication Critical patent/JP7508492B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/10Telephonic communication systems specially adapted for combination with other electrical systems with dictation recording and playback systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/54Details of telephonic subscriber devices including functional features of a projector or beamer module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

ウェアラブルマルチメディアデバイス、およびウェアラブルマルチメディアデバイスによって捕捉されるマルチメディアデータを処理するためのアプリケーションエコシステムを伴うクラウドコンピューティングプラットフォームのためのシステム、方法、デバイスおよび非一時的コンピュータ可読記憶媒体が開示される。一実施形態において、身体装着装置が、カメラと、深度センサと、レーザ投影システムと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、カメラを使用して、一組のデジタル画像を捕捉することと、一組のデジタル画像内のオブジェクトを識別することと、深度センサを使用して、深度データを捕捉することと、深度データ内の装置を装着しているユーザのジェスチャを識別することと、オブジェクトをジェスチャと関連付けることと、オブジェクトと関連したデータを取得することと、レーザ投影システムを使用して、表面上にデータのレーザ投影を投影することとを含む動作を行わせる命令を記憶したメモリとを備える。

Description

関連出願の相互参照
本出願は、2019年6月18日出願の「Wearable Multimedia Device and Cloud Computing Platform With Application Ecosystem」のための米国仮特許出願第62/863,222号からの、かつ2018年5月20日出願の「Wearable Multimedia Device and Cloud Computing Platform With Application Ecosystem」のための米国特許出願第15/976,632号の一部継続出願である、2020年6月17日出願の「Wearable Multimedia Device and Cloud Computing Platform With Laser Projection System」のための米国特許出願第16/904,544号に対する優先権の利益を主張するものであり、これらの特許出願の各々は、その全体が参照により本明細書に組み込まれている。
本開示は、概してクラウドコンピューティングおよびマルチメディア編集に関する。
現代のモバイルデバイス(例えば、スマートフォン、タブレットコンピュータ)は、ユーザが自発的な出来事のデジタル画像またはビデオを撮れるようにする組込みカメラをしばしば含む。これらのデジタル画像およびビデオは、モバイルデバイス上のメモリを解放するために、ユーザアカウントと関連したオンラインデータベースに記憶できる。ユーザは、友人および家族と自分の画像およびビデオを共有し、また自分の様々な再生デバイスを使用してオンデマンドで画像およびビデオをダウンロードまたはストリーミングできる。これらの組込みカメラは、かさばりかつ撮影の準備をするのにより多くの時間をしばしば必要とする従来のデジタルカメラに比べて著しい利点を提供する。
モバイルデバイス組込みカメラの利便性にもかかわらず、これらのデバイスによって捕捉されない多くの重要な瞬間があるというのは、それらの瞬間があまりに急に発生するか、またはユーザが瞬間にのまれて画像もしくはビデオを撮るのを単に忘れるからである。
ウェアラブルマルチメディアデバイス、およびウェアラブルマルチメディアデバイスによって捕捉されるマルチメディアデータを処理するためのアプリケーションエコシステムを伴うクラウドコンピューティングプラットフォームのためのシステム、方法、デバイスおよび非一時的コンピュータ可読記憶媒体が開示される。
一実施形態において、身体装着装置が、カメラと、深度センサと、レーザ投影システムと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、カメラを使用して、一組のデジタル画像を捕捉することと、一組のデジタル画像内のオブジェクトを識別することと、深度センサを使用して、深度データを捕捉することと、深度データ内の装置を装着しているユーザのジェスチャを識別することと、オブジェクトをジェスチャと関連付けることと、オブジェクトと関連したデータを取得することと、レーザ投影システムを使用して、表面上にデータのレーザ投影を投影することとを含む動作を行わせる命令を記憶したメモリとを備える。
一実施形態において、レーザ投影は、オブジェクトに対するテキストラベルを含む。
一実施形態において、レーザ投影は、オブジェクトに対するサイズテンプレートを含む。
一実施形態において、レーザ投影は、オブジェクトにアクションを行うための命令を含む。
一実施形態において、身体装着装置が、カメラと、深度センサと、レーザ投影システムと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、センサを使用して、深度データを捕捉することと、深度データ内の第1のジェスチャであって、装置を装着しているユーザによってなされた、ジェスチャを識別することと、第1のジェスチャを要求またはコマンドと関連付けることと、レーザ投影システムを使用して、表面上に要求またはコマンドと関連したレーザ投影を投影することとを含む動作を行わせる命令を記憶したメモリとを備える。
一実施形態において、動作は、深度センサを使用して、レーザ投影と関連した第2のジェスチャを取得することと、第2のジェスチャに基づいてユーザ入力を決定することと、ユーザ入力に従って1つまたは複数のアクションを開始することとを更に含む。
一実施形態において、動作は、第2のジェスチャをしているユーザの手にデータを投影するのを防止するためにレーザ投影をマスクすることを更に含む。
一実施形態において、動作は、深度センサまたはカメラを使用して、表面の幾何形状、材質またはテクスチャを示す深度または画像データを取得することと、表面の幾何形状、材質またはテクスチャに基づいてレーザ投影システムの1つまたは複数のパラメータを調整することとを更に含む。
一実施形態において、動作は、カメラを使用して、表面からのレーザ投影の反射を捕捉することと、レーザ投影が均一な明るさを有するようにレーザ投影の強度を、異なる屈折率を補償するように自動的に調整することとを更に含む。
一実施形態において、装置は、ユーザの被服を通してバッテリパックに磁気結合するように構成される磁気取付け機構であって、バッテリパックから誘導充電を受けるように更に構成される、磁気取付け機構を含む。
一実施形態において、方法が、身体装着装置の深度センサを使用して、深度データを捕捉するステップと、装置の1つまたは複数のプロセッサを使用して、深度データ内の第1のジェスチャであって、装置を装着しているユーザによってなされた、第1のジェスチャを識別するステップと、1つまたは複数のプロセッサを使用して、第1のジェスチャを要求またはコマンドと関連付けるステップと、装置のレーザ投影システムを使用して、表面上に要求またはコマンドと関連したレーザ投影を投影するステップとを含む。
一実施形態において、方法は、深度センサを使用して、ユーザによる第2のジェスチャであって、レーザ投影と関連した、第2のジェスチャを取得するステップと、第2のジェスチャに基づいてユーザ入力を決定するステップと、ユーザ入力に従って1つまたは複数のアクションを開始するステップとを更に含む。
一実施形態において、1つまたは複数のアクションは、別のデバイスを制御することを含む。
一実施形態において、方法は、第2のジェスチャをしているユーザの手にデータを投影するのを防止するためにレーザ投影をマスクするステップを更に含む。
一実施形態において、方法は、深度センサまたはカメラを使用して、表面の幾何形状、材質またはテクスチャを示す深度または画像データを取得するステップと、表面の幾何形状、材質またはテクスチャに基づいてレーザ投影システムの1つまたは複数のパラメータを調整するステップとを更に含む。
一実施形態において、方法が、クラウドコンピューティングプラットフォームの1つまたは複数のプロセッサによって、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含むウェアラブルマルチメディアデバイスからコンテキストデータを受信するステップと、1つまたは複数のプロセッサによって、コンテキストデータの1つまたは複数の特性およびユーザ要求に基づいて1つまたは複数のアプリケーションでデータ処理パイプラインを作成するステップと、1つまたは複数のプロセッサによって、データ処理パイプラインを通してコンテキストデータを処理するステップと、1つまたは複数のプロセッサによって、データ処理パイプラインの出力をウェアラブルマルチメディアデバイスまたは出力の提示のための他のデバイスに送るステップとを含む。
一実施形態において、システムが、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、クラウドコンピューティングプラットフォームの1つまたは複数のプロセッサによって、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、ウェアラブルマルチメディアデバイスからコンテキストデータを受信することと、1つまたは複数のプロセッサによって、コンテキストデータの1つまたは複数の特性およびユーザ要求に基づいて1つまたは複数のアプリケーションでデータ処理パイプラインを作成することと、1つまたは複数のプロセッサによって、データ処理パイプラインを通してコンテキストデータを処理することと、1つまたは複数のプロセッサによって、データ処理パイプラインの出力をウェアラブルマルチメディアデバイスまたは出力の提示のための他のデバイスに送ることとを含む動作を行わせる命令を記憶したメモリとを備える。
一実施形態において、非一時的コンピュータ可読記憶媒体が、クラウドコンピューティングプラットフォームの1つまたは複数のプロセッサによって、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含むウェアラブルマルチメディアデバイスからコンテキストデータを受信し、1つまたは複数のプロセッサによって、コンテキストデータの1つまたは複数の特性およびユーザ要求に基づいて1つまたは複数のアプリケーションでデータ処理パイプラインを作成し、1つまたは複数のプロセッサによって、データ処理パイプラインを通してコンテキストデータを処理し、そして1つまたは複数のプロセッサによって、データ処理パイプラインの出力をウェアラブルマルチメディアデバイスまたは出力の提示のための他のデバイスに送るための命令を含む。
一実施形態において、方法が、ウェアラブルマルチメディアデバイスのコントローラによって、ウェアラブルマルチメディアデバイスの1つまたは複数のセンサによって提供される、表面幾何形状、材質またはテクスチャを示す深度または画像データを受けるステップと、コントローラによって、表面幾何形状、材質またはテクスチャに基づいてウェアラブルマルチメディアデバイスのプロジェクタの1つまたは複数のパラメータを調整するステップと、ウェアラブルマルチメディアデバイスのプロジェクタによって、表面上へテキストまたは画像データを投影するステップと、コントローラによって、表面上に投影されたテキストまたは画像データとのユーザ対話を示す1つまたは複数のセンサからの深度または画像データを受けるステップと、コントローラによって、ユーザ対話に基づいてユーザ入力を決定するステップと、ウェアラブルマルチメディアデバイスのプロセッサによって、ユーザ入力に従って1つまたは複数のアクションを開始するステップとを含む。
一実施形態において、ウェアラブルマルチメディアデバイスが、1つまたは複数のセンサと、プロジェクタと、表面幾何形状、材質またはテクスチャを示す、深度または画像データであって、ウェアラブルマルチメディアデバイスの1つまたは複数のセンサによって提供される、深度または画像データを1つまたは複数のセンサから受け、表面幾何形状、材質またはテクスチャに基づいてプロジェクタの1つまたは複数のパラメータを調整し、プロジェクタを使用して表面上へテキストまたは画像データを投影し、表面上に投影されたテキストまたは画像データとのユーザ対話を示す1つまたは複数のセンサからの深度または画像データを受け、ユーザ対話に基づいてユーザ入力を決定し、そしてユーザ入力に従って1つまたは複数のアクションを開始するように構成されるコントローラとを備える。
本明細書に開示される特定の実施形態は以下の利点の1つまたは複数を提供する。ウェアラブルマルチメディアデバイスは、ユーザによる最小の対話で自発的な瞬間および取引のマルチメディアデータを捕捉する。マルチメディアデータは、ユーザ嗜好に基づいてクラウドコンピューティングプラットフォーム上で自動的に編集およびフォーマットされ、次いで各種のユーザ再生デバイス上での再生のためにユーザに利用可能にされる。一実施形態において、データ編集および/または処理は、プロプライエタリであるおよび/またはサードパーティ開発者から提供/ライセンス供与されるアプリケーションのエコシステムによって行われる。アプリケーションエコシステムは、サードパーティ開発者が自身のアプリケーションをアップロード、検証および更新できるようにする様々なアクセスポイント(例えば、ウェブサイト、ポータル、API)を提供する。クラウドコンピューティングプラットフォームは、エコシステムアプリケーションの1つまたは複数、ユーザ嗜好ならびに他の情報(例えば、データの型または形式、データの量および質)を使用して各マルチメディアデータストリームのためのカスタム処理パイプラインを自動的に構築する。
追加的に、ウェアラブルマルチメディアデバイスは、オブジェクトおよびユーザによる空中ジェスチャを検出し、次いでカメラ画像内のオブジェクトにラベル付けするまたは他のデバイスを制御するなど、検出に基づいて様々なアクションを行うまたは推論することができるカメラおよび深度センサを含む。一実施形態において、ウェアラブルマルチメディアデバイスはディスプレイを含んでおらず、ユーザが、スマートフォンおよびタブレットコンピュータユーザに関する目下の課題であるようにディスプレイに没入することなく、友人、家族および同僚と対話し続けられるようにする。そのため、ウェアラブルマルチメディアデバイスは、例えば、ユーザが現実世界環境から更に離れている、拡張現実(AR)および仮想現実(VR)のためのスマートゴーグルまたはスマートグラスとは異なる技術手法をとる。他との協同を容易にするために、かつディスプレイなしを埋め合わせるために、ウェアラブルマルチメディアコンピュータは、テーブル、壁およびユーザの手のひらさえ含め、いかなる表面上へもレーザ投影を投影するレーザ投影システムを含む。レーザ投影は、オブジェクトにラベル付けし、オブジェクトに関連するテキストまたは命令を提供し、かつユーザがメッセージを作り、他のデバイスを制御し、または単に他人とコンテンツを共有して話し合えるようにするエフェメラルユーザインタフェース(例えば、キーボード、数値キーパッド、デバイスコントローラ)を提供することができる。
開示される実施形態の詳細が添付図面および以下の説明に述べられる。他の特徴、目的および利点は同説明、図面および請求項から明らかである。
一実施形態に係る、ウェアラブルマルチメディアデバイスおよびウェアラブルマルチメディアデバイスによって捕捉されたマルチメディアデータを処理するためのアプリケーションエコシステムを伴うクラウドコンピューティングプラットフォームのための動作環境のブロック図である。 一実施形態に係る、図1のクラウドコンピューティングプラットフォームによって実装されるデータ処理システムのブロック図である。 一実施形態に係る、コンテキストデータストリームを処理するためのデータ処理パイプラインのブロック図である。 一実施形態に係る、輸送アプリケーションのためにコンテキストデータストリームを処理するための別のデータ処理のブロック図である。 一実施形態に係る、図2のデータ処理システムによって使用されるデータオブジェクトを例示する。 一実施形態に係る、データパイプラインプロセスのフロー図である。 一実施形態に係る、クラウドコンピューティングプラットフォームのためのアーキテクチャである。 一実施形態に係る、ウェアラブルマルチメディアデバイスのためのアーキテクチャである。 一実施形態に係る、図3に関して記載されたシーン識別アプリケーションのためのグラフィカルユーザインタフェース(GUI)例のスクリーンショットである。 一実施形態に係る、図9のGUIを使用して検索できるオブジェクトおよびメタデータへ生または前処理コンテキストデータを分類するための分類器フレームワークを例示する。 一実施形態に係る、ウェアラブルマルチメディアデバイスのためのハードウェアアーキテクチャを図示するシステムブロック図である。 一実施形態に係る、ウェアラブルマルチメディアデバイスから受信される生または前処理コンテキストデータを処理するためにクラウドコンピューティングプラットフォームに実装される処理フレームワークを図示するシステムブロック図である。 一実施形態に係る、ウェアラブルマルチメディアデバイスのためのソフトウェアコンポーネントを例示する。 一実施形態に係る、ユーザの手のひらに様々な種類の情報を投影するウェアラブルマルチメディアデバイスのプロジェクタの使用を例示する。 一実施形態に係る、ユーザの手のひらに様々な種類の情報を投影するウェアラブルマルチメディアデバイスのプロジェクタの使用を例示する。 一実施形態に係る、ユーザの手のひらに様々な種類の情報を投影するウェアラブルマルチメディアデバイスのプロジェクタの使用を例示する。 一実施形態に係る、ユーザの手のひらに様々な種類の情報を投影するウェアラブルマルチメディアデバイスのプロジェクタの使用を例示する。 一実施形態に係る、ユーザが自分のエンジンオイルを点検するのを支援するために自動車エンジン上に情報が投影される、プロジェクタの応用を例示する。 一実施形態に係る、ユーザが自分のエンジンオイルを点検するのを支援するために自動車エンジン上に情報が投影される、プロジェクタの応用を例示する。 一実施形態に係る、家庭の調理人が野菜を切るのを支援するための情報がまな板上へ投影される、プロジェクタの応用を例示する。 一実施形態に係る、プロジェクタアーキテクチャのシステムブロック図である。 一実施形態に係る、異なる表面幾何形状または材質に基づくレーザパラメータの調整を例示する。
様々な図面に使用される同じ参照記号は同様の要素を示す。
概観
ウェアラブルマルチメディアデバイスは、テンションクラスプ、インタロックピンバック、磁石または任意の他の取付け機構を使用してユーザの被服または物体に取り付けることができる軽量で小型状のバッテリ給電デバイスである。ウェアラブルマルチメディアデバイスは、ユーザが最小のユーザ対話またはデバイスセットアップで自発的に生活上の出来事(「瞬間」)のマルチメディアデータ(例えば、ビデオ、オーディオ、深度データ)を捕捉し、また取引(例えば、金融取引)を文書化できるようにするデジタル画像捕捉デバイス(例えば、光学画像安定器(OIS)付き180°FOV)を含む。ワイヤレスマルチメディアデバイスによって捕捉されるマルチメディアデータ(「コンテキストデータ」)は、コンテキストデータを1つまたは複数のアプリケーション(例えば、人工知能(AI)アプリケーション)によって、ウェアラブルマルチメディアデバイスおよび/または任意の他の再生デバイス上にダウンロードおよび再生できる任意の所望の提示形式(例えば、単一画像、画像ストリーム、ビデオクリップ、オーディオクリップ、マルチメディア提示、画像ギャラリ)へ処理、編集およびフォーマットできるようにするアプリケーションエコシステムを伴うクラウドコンピューティングプラットフォームにアップロードされる。例えば、クラウドコンピューティングプラットフォームは、ビデオデータおよびオーディオデータをユーザによって指定される任意の所望の撮影スタイル(例えば、ドキュメンタリー、ライフスタイル、スナップショット、フォトジャーナリズム、スポーツ、ストリート)へ変換できる。
一実施形態において、コンテキストデータは、ユーザ嗜好に基づいてクラウドコンピューティングプラットフォームのサーバコンピュータによって処理される。例えば、ユーザ嗜好に基づいて、ユーザが再現したい瞬間に完璧に合わせて画像をカラーグレーディング、安定化およびトリミングできる。ユーザ嗜好は、ウェブサイトもしくはポータルを通じてアクセス可能なオンラインアカウントを通じてユーザによって作成されるユーザプロファイルに記憶でき、またはユーザ嗜好は、(例えば、機械学習を使用して)時間と共にプラットフォームによって学習できる。一実施形態において、クラウドコンピューティングプラットフォームはスケーラブルな分散コンピューティング環境である。例えば、クラウドコンピューティングプラットフォームは、データのストリームを変換するまたはそれらに反応するリアルタイムストリーミングデータパイプラインおよびストリーミングアプリケーションを伴う分散ストリーミングプラットフォーム(例えば、Apache Kafka(商標))であることができる。
一実施形態において、ユーザは、単純なタッチジェスチャ(例えば、タップもしくはスワイプ)で、コマンドを発することまたは任意の他の入力機構によって、ウェアラブルマルチメディアデバイス上のコンテキストデータ捕捉セッションを開始および停止できる。ウェアラブルマルチメディアデバイスの全部または一部は、1つまたは複数のセンサ(例えば、近接センサ、光学センサ、加速度計、ジャイロスコープ)を使用してデバイスがユーザによって装着されていないことを検出すると自動的に電源を切ることができる。
コンテキストデータは、任意の所望の暗号化または圧縮技術を使用して暗号化および圧縮され、ユーザアカウントと関連したオンラインデータベースに記憶できる。コンテキストデータは、ユーザによって設定できる指定の期間の間記憶できる。ユーザには、ウェブサイト、ポータルまたはモバイルアプリケーションを通じて、自分のデータおよびデータプライバシーを管理するためのオプトイン機構および他のツールを提供できる。
一実施形態において、コンテキストデータは、例えばアプリケーションエコシステムにおける拡張現実(AR)および仮想現実(VR)アプリケーションを使用して処理できる3次元(3D)表面マッピングオブジェクトを提供するために点群データを含む。点群データは、ウェアラブルマルチメディアデバイス上に組み込まれる深度センサ(例えば、ライダまたは飛行時間(TOF))によって生成できる。
一実施形態において、ウェアラブルマルチメディアデバイスは、コンテキストデータが捕捉されたときにデバイスを装着しているユーザの位置および向きを決定するための全地球航法衛星システム(GNSS)受信器(例えば、全地球測位システム(GPS))および1つまたは複数の慣性センサ(例えば、加速度計、ジャイロスコープ)を含む。一実施形態において、ユーザの場所および向きを決定するためにアプリケーションエコシステムにおける、ビジュアルオドメトリアプリケーションなどの位置確認アプリケーションによってコンテキストデータにおける1つまたは複数の画像を使用できる。
一実施形態において、ウェアラブルマルチメディアデバイスは、周囲光センサ、磁力計、圧力センサ、音声活動検出器等を含むがこれらに限定されない、1つまたは複数の環境センサも含むことができる。このセンサデータをコンテキストデータに含めて、瞬間を捕捉するために使用できる追加情報でコンテンツ提示を強化できる。
一実施形態において、ウェアラブルマルチメディアデバイスは、心拍数センサ、指紋スキャナ等などの1つまたは複数の生体測定センサを含むことができる。このセンサデータをコンテキストデータに含めて、取引を文書化する、または瞬間の間のユーザの情緒状態を示すことができる(例えば、高心拍数は興奮もしくは恐れを示し得る)。
一実施形態において、ウェアラブルマルチメディアデバイスは、ヘッドセットまたはイヤーバッドを接続するヘッドホンジャック、および音声コマンドを受けかつ周囲のオーディオを捕捉するための1つまたは複数のマイクロホンを含む。代替実施形態において、ウェアラブルマルチメディアデバイスは、ブルートゥース、IEEE802.15.4(ZigBee(商標))および近距離無線通信(NFC)を含むがこれらに限定されない、狭域通信技術を含む。狭域通信技術は、ヘッドホンジャックに加えて、もしくはそれの代わりにワイヤレスヘッドセットもしくはイヤーバッドにワイヤレスで接続するために使用でき、かつ/または任意の他の外部デバイス(例えば、コンピュータ、プリンタ、プロジェクタ、テレビジョンおよび他のウェアラブルデバイス)にワイヤレスで接続できる。
一実施形態において、ウェアラブルマルチメディアデバイスは、ワイヤレス送受信器ならびに、WiFi、3G、4Gおよび5G通信技術を含め、各種の通信技術のための通信プロトコルスタックを含む。一実施形態において、ヘッドセットまたはイヤーバッドは、頭部ジェスチャ等でコマンドを提供するために、ユーザが向いている方向についての情報を提供するセンサ(例えば、生体測定センサ、慣性センサ)も含む。一実施形態において、カメラ方向は、カメラ視野がユーザの視野方向に追従するように、頭部ジェスチャによって制御できる。一実施形態において、ウェアラブルマルチメディアデバイスはユーザの眼鏡に組み込むまたは取り付けることができる。
一実施形態において、ウェアラブルマルチメディアデバイスは、ユーザが壁またはテーブル天板などの表面上に瞬間を再生できるようにする、プロジェクタ(例えば、レーザプロジェクタ、LCoS、DLP、LCD)を含む、または外部プロジェクタに配線もしくはワイヤレスで結合できる。別の実施形態において、ウェアラブルマルチメディアデバイスは、プロジェクタまたは他の出力デバイスに接続できる出力ポートを含む。
一実施形態において、ウェアラブルマルチメディア捕捉デバイスは、タッチジェスチャ(例えば、タップ、マルチタップまたはスワイプジェスチャ)に応答するタッチ面を含む。ウェアラブルマルチメディアデバイスは、情報を提示するための小型ディスプレイおよびオン/オフステータス、電力状況または任意の他の所望のステータスを示す1つまたは複数の光インジケータを含んでよい。
一実施形態において、クラウドコンピューティングプラットフォームは、ユーザが自分の環境における物体を指差して「その建物は何か」と言うなど、音声クエリと組み合わせてコンテキストベースのジェスチャ(例えば、空中ジェスチャ)によって駆動できる。クラウドコンピューティングプラットフォームは、空中ジェスチャを使用して、カメラのビューポートの範囲を狭めて建物を分離する。建物の1つまたは複数の画像が捕捉されてクラウドコンピューティングプラットフォームに送られ、そこで画像認識アプリケーションが画像クエリを実行して、結果を記憶するまたはユーザに返すことができる。空中およびタッチジェスチャは、投影されたエフェメラルディスプレイ上で、例えばユーザインタフェース要素に応答して行うこともできる。
一実施形態において、コンテキストデータは、ユーザまたは任意の許可された閲覧者だけが接続された画面(例えば、スマートフォン、コンピュータ、テレビジョン等)上でまたは表面上の投影として瞬間を再現できるように、デバイス上でおよびクラウドコンピューティングプラットフォーム上で暗号化できる。ウェアラブルマルチメディアデバイスのためのアーキテクチャ例は図8に関して記載される。
個人的な生活上の出来事に加えて、ウェアラブルマルチメディアデバイスは、今スマートフォンによって処理されている金融取引の捕捉を簡単にする。日々の取引(例えば、商取引、マイクロ取引)の捕捉は、ウェアラブルマルチメディアデバイスによって提供される視覚支援コンテキストアウェアネスを使用することによって、より簡単、より迅速かつより潤滑にされる。例えば、ユーザが金融取引(例えば、購入をすること)に関与するとき、ウェアラブルマルチメディアデバイスは、日付、時刻、金額、当事者のデジタル画像またはビデオ、オーディオ(例えば、取引を説明するユーザ注釈)および環境データ(例えば、位置データ)を含め、金融取引を記憶するデータを生成することになる。データは、クラウドコンピューティングプラットフォームに送られるマルチメディアデータストリームに含めることができ、そこでデータをオンラインで記憶できかつ/または1つもしくは複数の金融アプリケーション(例えば、財務管理、会計、予算、税務申告書作成、在庫等)によって処理できる。
一実施形態において、クラウドコンピューティングプラットフォームは、ウェブサイトまたはポータル上に、様々なサードパーティアプリケーション開発者がアプリケーションエコシステムにおいて自身のアプリケーションをアップロード、更新および管理できるようにするグラフィカルユーザインタフェースを提供する。一部のアプリケーション例には、個人生配信(例えば、Instagram(商標)Live、Snapchat(商標))、高齢者監視(例えば、大切な人が薬を飲んだことを確認するため)、想起(例えば、先週の子供のサッカーの試合を見せること)および個人ガイド(例えば、ユーザの位置を知っており、またアクションを行うようユーザを導くAI対応個人ガイド)を含むことができるが、これらに限定されない。
一実施形態において、ウェアラブルマルチメディアデバイスは、1つまたは複数のマイクロホンおよびヘッドセットを含む。一部の実施形態において、ヘッドセットワイヤはマイクロホンを含む。一実施形態において、ウェアラブルマルチメディアデバイス上に、ユーザクエリ、要求およびコマンドに応答するデジタルアシスタントが実装される。例えば、親によって装着されるウェアラブルマルチメディアデバイスは、子供のサッカーの試合に対する瞬間コンテキストデータ、特に子供がゴールを決める「瞬間」を捕捉する。ユーザは、プラットフォームがゴールのビデオクリップを作成して、それをユーザのユーザアカウントに記憶するように(例えば、音声コマンドを使用して)要求できる。ユーザによるいかなる更なるアクションもなしで、クラウドコンピューティングプラットフォームは、ゴールが決められたときに(例えば、顔認識、ビジュアルまたはオーディオキューを使用して)瞬間コンテキストデータの正しい部分を識別し、瞬間コンテキストデータをビデオクリップへ編集し、そしてビデオクリップをユーザアカウントと関連したデータベースに記憶する。
一実施形態において、デバイスは、バッテリ寿命を持続する光起電面技術ならびに、充電マット上の誘導充電およびワイヤレスオーバージエア(OTA)充電を可能にする誘導充電回路網(例えば、Qi)を含むことができる。
一実施形態において、ウェアラブルマルチメディアデバイスは、再充電携帯バッテリパックと磁気結合するまたは合わさるように構成される。携帯バッテリパックは、上に永久磁石(例えば、N極)が設けられる合わせ面を含み、そしてウェアラブルマルチメディアデバイスは、上に永久磁石(例えば、S極)が設けられる対応する合わせ面を有する。任意の所望の形状またはサイズを有する任意の数の永久磁石を合わせ面上に任意の所望のパターンで配置できる。
永久磁石は、携帯バッテリパックおよびウェアラブルマルチメディアデバイスを共に被服(例えば、ユーザのシャツ)を間にして合わさった構成に保つ。一実施形態において、携帯バッテリパックおよびウェアラブルマルチメディアデバイスは同じ合わせ面寸法を有し、その結果、合わさった構成にあるときに張出し部分がない。ユーザは、自分の被服の裏側に携帯バッテリパックを置き、そして自分の被服の外側で携帯バッテリパックの上にウェアラブルマルチメディアデバイスを置き、その結果、永久磁石が被服を通して互いを引きつけることによって、自分の被服にウェアラブルマルチメディアデバイスを磁気的に留める。一実施形態において、携帯バッテリパックは、共振誘導結合の原理を使用して合わさった構成にある間ウェアラブルマルチメディアデバイスにワイヤレスで給電するために使用される組込みワイヤレス送電器を有する。一実施形態において、ウェアラブルマルチメディアデバイスは、合わさった構成にある間、携帯バッテリパックから電力を受けるために使用される組込みワイヤレス受電器を含む。
動作環境例
図1は、一実施形態に係る、ウェアラブルマルチメディアデバイスおよびウェアラブルマルチメディアデバイスによって捕捉されたマルチメディアデータを処理するためのアプリケーションエコシステムを伴うクラウドコンピューティングプラットフォームのための動作環境のブロック図である。動作環境100は、ウェアラブルマルチメディアデバイス101、クラウドコンピューティングプラットフォーム102、ネットワーク103、アプリケーション(「アプリ」)開発者104およびサードパーティプラットフォーム105を含む。クラウドコンピューティングプラットフォーム102は、ウェアラブルマルチメディアデバイス101によってアップロードされたコンテキストデータを記憶するための1つまたは複数のデータベース106に結合される。
前記したように、ウェアラブルマルチメディアデバイス101は、テンションクラスプ、インタロックピンバック、磁石または任意の他の取付け機構を使用してユーザの被服または物体に取り付けることができる軽量で小型状のバッテリ給電デバイスである。ウェアラブルマルチメディアデバイス101は、ユーザが最小のユーザ対話またはデバイスセットアップで自発的に「瞬間」のマルチメディアデータ(例えば、ビデオ、オーディオ、深度データ)を捕捉し、また日々の取引(例えば、金融取引)を文書化できるようにするデジタル画像捕捉デバイス(例えば、OIS付き180°FOV)を含む。ワイヤレスマルチメディアデバイス101によって捕捉されたコンテキストデータはクラウドコンピューティングプラットフォーム102にアップロードされる。クラウドコンピューティングプラットフォーム102は、コンテキストデータを1つまたは複数のサーバ側アプリケーションによって、ウェアラブルマルチメディアデバイスおよび/または他の再生デバイス上にダウンロードおよび再生できる任意の所望の提示形式(例えば、単一画像、画像ストリーム、ビデオクリップ、オーディオクリップ、マルチメディア提示、画像ギャラリ)へ処理、編集およびフォーマットできるようにするアプリケーションエコシステムを含む。
例として、子供の誕生会で、親は、カメラレンズが自分の視野方向に向いているように自分の被服上にウェアラブルマルチメディアデバイスを留める(またはネックレスもしくはチェーンにデバイスを取り付けて自分の首周りに装着する)ことができる。カメラは、ユーザが今見ているほとんど全てをカメラが捕捉できるようにする180°FOVを含む。ユーザは、単にデバイスの表面をタップするまたはボタンを押すことによって記録を開始できる。追加のセットアップは必要とされない。誕生日の特別な瞬間(例えば、ロウソクの吹消し)を捕捉したマルチメディアデータストリーム(例えば、オーディオ付きビデオ)が記録される。この「コンテキストデータ」は、ワイヤレスネットワーク(例えば、WiFi、セルラ)を通じてリアルタイムでクラウドコンピューティングプラットフォーム102に送られる。一実施形態において、コンテキストデータは、それを後になってアップロードできるようにウェアラブルマルチメディアデバイス上に記憶される。別の実施形態において、ユーザは、コンテキストデータを別のデバイス(例えば、パーソナルコンピュータのハードドライブ、スマートフォン、タブレットコンピュータ、サムドライブ)に転送し、そして後になってアプリケーションを使用してコンテキストデータをクラウドコンピューティングプラットフォーム102にアップロードできる。
一実施形態において、コンテキストデータは、クラウドコンピューティングプラットフォーム102によってホストおよび管理されるアプリケーションエコシステムの1つまたは複数のアプリケーションによって処理される。アプリケーションは、それらの個々のアプリケーションプログラミングインタフェース(API)を通じてアクセスできる。コンテキストデータをデータ型、データ量、データ品質、ユーザ嗜好、テンプレートおよび/または任意の他の情報の1つまたは複数に基づいて処理して、ユーザ嗜好に基づく所望の提示を生成するように、クラウドコンピューティングプラットフォーム102によってカスタム分散ストリーミングパイプラインが作成される。一実施形態において、ユーザ嗜好の有無にかかわらずデータ処理パイプラインに含めるのに適切なアプリケーションを自動的に選択するために機械学習技術を使用できる。例えば、任意の適切な機械学習技術(例えば、深層学習または畳込みニューラルネットワーク)を使用してデータ処理のためのユーザ嗜好を決定するために、データベース(例えば、NoSQLデータベース)に記憶された履歴ユーザコンテキストデータを使用できる。
一実施形態において、アプリケーションエコシステムは、コンテキストデータを処理するサードパーティプラットフォーム105を含むことができる。コンテキストデータを送/受信するためにクラウドコンピューティングプラットフォーム102とサードパーティプラットフォーム105との間にセキュアセッションが確立される。この設計は、サードパーティアプリプロバイダがそれ自体のアプリケーションへのアクセスを制御し、また更新を提供できるようにする。他の実施形態において、アプリケーションはクラウドコンピューティングプラットフォーム102のサーバ上で実行され、そして更新はクラウドコンピューティングプラットフォーム102に送られる。後者の実施形態において、アプリ開発者104は、クラウドコンピューティングプラットフォーム102によって提供されるAPIを使用して、アプリケーションエコシステムに含まれるべきアプリケーションをアップロードおよび更新できる。
データ処理システム例
図2は、一実施形態に係る、図1のクラウドコンピューティングプラットフォームによって実装されるデータ処理システムのブロック図である。データ処理システム200は、レコーダ201、ビデオバッファ202、オーディオバッファ203、写真バッファ204、取込サーバ(ingestion server)205、データストア206、ビデオプロセッサ207、オーディオプロセッサ208、写真プロセッサ209およびサードパーティプロセッサ210を含む。
ウェアラブルマルチメディアデバイス上で実行されるレコーダ201(例えば、ソフトウェアアプリケーション)は、カメラおよびオーディオサブシステムによって捕捉されるビデオ、オーディオおよび写真データ(「コンテキストデータ」)を記録し、そしてデータをそれぞれバッファ202、203、204に記憶する。このコンテキストデータは、次いでクラウドコンピューティングプラットフォーム102の取込サーバ205に(例えば、ワイヤレスOTA技術を使用して)送られる。一実施形態において、データは、各々一意のストリーム識別子(streamid)を伴う別々のデータストリームで送ることができる。ストリームは、属性例として、位置(例えば、緯度、経度)、ユーザ、オーディオデータ、様々な継続時間のビデオストリームおよびN個の写真を含み得る別個のデータ片である。ストリームは、1~MAXSTREAM_LEN秒の継続時間を有することができ、本例ではMAXSTREAM_LEN=20秒である。
取込サーバ205は、ストリームを取り込み、そしてデータストア206にストリームレコードを作成してプロセッサ207~209の結果を記憶する。一実施形態において、オーディオストリームが最初に処理され、必要とされるその他のストリームを決定するために使用される。取込サーバ205は、streamidに基づいてストリームを適切なプロセッサ207~209に送る。例えば、ビデオストリームはビデオプロセッサ207に送られ、オーディオストリームはオーディオプロセッサ208に送られ、そして写真ストリームは写真プロセッサ209に送られる。一実施形態において、ウェアラブルマルチメディアデバイスから収集されたデータ(例えば、画像データ)の少なくとも一部分を、それが所与のアプリケーションによって更に処理できるようにメタデータへ処理して暗号化し、そしてウェアラブルマルチメディアデバイスまたは他のデバイスに送り返す。
プロセッサ207~209は、前記したようにプロプライエタリまたはサードパーティアプリケーションを実行することができる。例えば、ビデオプロセッサ207は、ビデオバッファ202に記憶された生ビデオデータをユーザ嗜好または他の情報に基づいて一組の1つまたは複数の画像処理/編集アプリケーション211、212に送るビデオ処理サーバであることができる。プロセッサ207は、アプリケーション211、212に要求を送り、そして取込サーバ205に結果を返す。一実施形態において、サードパーティプロセッサ210は、それ自体のプロセッサおよびアプリケーションを使用してストリームの1つまたは複数を処理できる。別の例では、オーディオプロセッサ208は、オーディオバッファ203に記憶された音声データを音声テキスト変換アプリケーション213に送るオーディオ処理サーバであることができる。
シーン識別アプリケーション例
図3は、一実施形態に係る、コンテキストデータストリームを処理するためのデータ処理パイプラインのブロック図である。本実施形態において、データ処理パイプライン300は、ユーザによって装着されるウェアラブルマルチメディアデバイスによって捕捉されたコンテキストデータに基づいてユーザが何を見ているか判定するように作成および構成される。取込サーバ301は、ウェアラブルマルチメディアデバイスのオーディオバッファ203から(例えば、ユーザ注釈を含む)オーディオストリームを受信し、そしてオーディオストリームをオーディオプロセッサ305に送る。オーディオプロセッサ305は、オーディオストリームを、音声テキスト変換を行って、解析されたテキストをオーディオプロセッサ305に返すアプリ306に送る。オーディオプロセッサ305は、解析されたテキストを取込サーバ301に返す。
ビデオプロセッサ302は、取込サーバ301から解析されたテキストを受け、そしてビデオ処理アプリ307に要求を送る。ビデオ処理アプリ307は、ビデオシーン内のオブジェクトを識別し、そして解析されたテキストを使用してオブジェクトにラベル付けする。ビデオ処理アプリ307は、シーンを記述する応答(例えば、ラベル付きオブジェクト)をビデオプロセッサ302に送る。ビデオプロセッサは、次いで応答を取込サーバ301に転送する。取込サーバ301は応答をデータマージプロセス308に送り、これが応答をユーザの位置、向きおよびマップデータとマージする。データマージプロセス308は、ウェアラブルマルチメディアデバイス上のレコーダ304にシーン記述で応答を返す。例えば、応答は、マップ位置およびシーン内のオブジェクトの記述(例えば、シーン内の人々を識別する)を含め、シーンを子供の誕生会と記述するテキストを含むことができる。レコーダ304は、シーン記述をウェアラブルマルチメディアデバイス上に記憶されたマルチメディアデータと(例えばstreamidを使用して)関連付ける。ユーザがデータを呼び出すと、データはシーン記述で強化される。
一実施形態において、データマージプロセス308は、単なる位置およびマップデータ以上のものを使用し得る。オントロジの概念もあることができる。例えば、画像に捕捉されるユーザのお父さんの顔特徴はクラウドコンピューティングプラットフォームによって認識でき、ユーザの名前ではなく「お父さん」として返すことができ、そして「555 Main Street, San Francisco, CA」などの住所は「自宅」として返すことができる。オントロジはユーザに固有であることができ、かつユーザの入力から成長および学習できる。
輸送アプリケーション例
図4は、一実施形態に係る、輸送アプリケーションのためにコンテキストデータストリームを処理するための別のデータ処理のブロック図である。本実施形態において、データ処理パイプライン400は、自宅まで乗せてもらうために輸送会社(例えば、Uber(登録商標)、Lyft(登録商標))を呼ぶように作成される。ウェアラブルマルチメディアデバイスからのコンテキストデータが取込サーバ401によって受信され、そしてオーディオバッファ203からのオーディオストリームがオーディオプロセッサ405に送られる。オーディオプロセッサ405はオーディオストリームをアプリ406に送り、アプリ406は音声をテキストに変換する。解析されたテキストはオーディオプロセッサ405に返され、オーディオプロセッサ405は解析されたテキストを取込サーバ401に返す(例えば、ユーザの音声による輸送の要求)。処理されたテキストがサードパーティプロセッサ402に送られる。サードパーティプロセッサ402は、サードパーティアプリケーション407(例えば、Uber(登録商標)またはLyft(商標)(登録商標)アプリケーション)にユーザ位置およびトークンを送る。一実施形態において、トークンは、ユーザに代わって要求を仲介するために使用されるAPIおよび許可トークンである。アプリケーション407はサードパーティプロセッサ402に応答データ構造を返し、応答データ構造は取込サーバ401に転送される。取込サーバ401は、応答データ構造における乗車到着ステータス(例えば、ETA)を確認して、ユーザコールバックキュー408にユーザへのコールバックを設定する。取込サーバ401はレコーダ404に車両記述で応答を返し、これをウェアラブルマルチメディアデバイス上のラウドスピーカを通して、または有線もしくは無線接続を介してユーザのヘッドホンもしくはイヤーバッドを通してデジタルアシスタントによってユーザに発することができる。
図5は、一実施形態に係る、図2のデータ処理システムによって使用されるデータオブジェクトを例示する。データオブジェクトは、クラウドコンピューティングプラットフォーム上でインスタンス化されるソフトウェアコンポーネントインフラストラクチャの一部である。「Streams(ストリーム)」オブジェクトはデータstreamid、deviceid、start、end、lat、lon、attributesおよびentitiesを含む。「streamid」はストリーム(例えば、ビデオ、オーディオ、写真)を識別し、「deviceid」はウェアラブルマルチメディアデバイス(例えば、モバイルデバイスID)を識別し、「start」はコンテキストデータストリームの開始時間であり、「end」はコンテキストデータストリームの終了時間であり、「lat」はウェアラブルマルチメディアデバイスの緯度であり、「lon」はウェアラブルマルチメディアデバイスの経度であり、「attributes」は例えば誕生日、顔特徴点、肌色、オーディオ特性、住所、電話番号等を含み、そして「entities」はオントロジを構成する。例えば、名前「John Do」は、ユーザに応じて「お父さん」または「兄(もしくは弟)」にマッピングされる。
「Users(ユーザ)」オブジェクトはデータuserid、deviceid、email、fnameおよびlnameを含む。useridはユーザを一意識別子で識別し、deviceidはウェアラブルデバイスを一意識別子で識別し、emailはユーザの登録電子メールアドレスであり、fnameはユーザの名であり、そしてlnameはユーザの姓である。「Userdevices(ユーザデバイス)」オブジェクトはデータuseridおよびdeviceidを含む。「Devices(デバイス)」オブジェクトはデータdeviceid、started、state、modifiedおよびcreatedを含む。一実施形態において、deviceidはデバイスに対する(例えば、MACアドレスとは別個の)一意識別子である。startedは、デバイスが初めて開始された時である。stateはオン/オフ/スリープである。modifiedは最終修正日であり、最後の状態変更またはオペレーティングシステム(OS)変更を反映する。createdは、デバイスがオンにされた初回である。
「ProcessingResults(処理結果)」オブジェクトはデータstreamid、ai、result、callback、durationおよびaccuracyを含む。一実施形態において、streamidは汎用一意識別子(UUID)としての各ユーザストリームである。例えば、8:00AMから10:00AMに開始されたストリームはid:15h158dhb4を有することになり、そして10:15AMから10:18AMに開始するストリームは、このストリームのために接触されたUUIDを有することになる。aiは、このストリームのために接触されたプラットフォームアプリケーションに対する識別子である。resultは、プラットフォームアプリケーションから送られたデータである。callbackは、使用されたコールバックである(バージョンが変更し得るため、プラットフォームが要求を再生する必要がある場合に備えてコールバックは追跡される)。accuracyは、結果セットがどれくらい正確であるかに対するスコアである。一実施形態において、処理結果は、1)マージサーバに全セットの結果を通知するため、2)ユーザ体験を向上できるように最速のAIを決定するため、および3)最も正確なaiを決定するためなど、複数タスクに対して使用できる。ユースケースに応じて、精度より速度を優先しても、その逆でもよい。
「Entities(エンティティ)」オブジェクトはデータentityID、userID、entityName、entityTypeおよびentityAttributeを含む。entityIDはエンティティに対するUUIDであり、エンティティは、entityIDがその1つのエンティティを参照する複数項目を有する。例えば、「バラク・オバマ」が144のentityIDを有すると、これは、関連テーブルにおいてPOTUS44または「バラク・フセイン・オバマ」または「オバマ大統領」にリンクされ得る。userIDは、エンティティレコードが作られたユーザを識別する。entityNameは、userIDがエンティティを呼ぶ名前である。例えば、entityID 144に対するマリア・オバマのentityNameは「お父さん」または「パパ」であり得る。entityTypeは人、場所または物である。entityAttributeは、userIDによるエンティティの理解に固有であるそのエンティティについての属性の配列である。これにより、例えばマリアが音声クエリ:「あなたにお父さんが見えますか」を発すると、クラウドコンピューティングプラットフォームは、クエリをバラク・フセイン・オバマに翻訳し、サードパーティに要求を仲介するまたはシステムで情報を調べる際にそれを使用できるように、エンティティを共にマッピングする。
プロセス例
図6は、一実施形態に係る、データパイプラインプロセスのフロー図である。プロセス600は、図1~図5に関して記載されたウェアラブルマルチメディアデバイス101およびクラウドコンピューティングプラットフォーム102を使用して実装できる。
プロセス600は、ウェアラブルマルチメディアデバイスからコンテキストデータを受信すること(601)によって始まることができる。例えば、コンテキストデータは、ウェアラブルマルチメディアデバイスのカメラおよびオーディオサブシステムによって捕捉されたビデオ、オーディオおよび静止画像を含むことができる。
プロセス600は、コンテキストデータおよびユーザ要求/嗜好に基づいてアプリケーションでデータ処理パイプラインを作成(例えば、インスタンス化)すること(602)によって続くことができる。例えば、ユーザ要求または嗜好に基づいて、かつデータ型(例えば、オーディオ、ビデオ、写真)にも基づいて、1つまたは複数のアプリケーションが論理的に接続されて、コンテキストデータをウェアラブルマルチメディアデバイスまたは別のデバイス上で再生されるべき提示へ処理するデータ処理パイプラインを形成できる。
プロセス600は、データ処理パイプラインでコンテキストデータを処理すること(603)によって続くことができる。例えば、瞬間または取引の間のユーザ注釈からの音声をテキストへ変換でき、次いでこれを使用してビデオクリップ内のオブジェクトにラベル付けする。
プロセス600は、データ処理パイプラインの出力をウェアラブルマルチメディアデバイスおよび/または他の再生デバイスに送ること(604)によって続くことができる。
クラウドコンピューティングプラットフォームアーキテクチャ例
図7は、一実施形態に係る、図1~図6および図9に関して記載されるクラウドコンピューティングプラットフォーム102のためのアーキテクチャ例700である。より多くのまたはより少ないコンポーネントを伴うアーキテクチャを含め、他のアーキテクチャも可能である。一部の実装例において、アーキテクチャ700は、1つまたは複数のプロセッサ702(例えば、デュアルコアIntel(登録商標)Xeon(登録商標)プロセッサ)、1つまたは複数のネットワークインタフェース706、1つまたは複数の記憶デバイス704(例えば、ハードディスク、光ディスク、フラッシュメモリ)および1つまたは複数のコンピュータ可読媒体708(例えば、ハードディスク、光ディスク、フラッシュメモリ等)を含む。これらのコンポーネントは1つまたは複数の通信チャネル710(例えば、バス)を通じて通信およびデータを交換でき、同チャネルは、コンポーネント間のデータおよび制御信号の転送を容易にするための様々なハードウェアおよびソフトウェアを活用できる。
用語「コンピュータ可読媒体」は、不揮発性媒体(例えば、光または磁気ディスク)、揮発性媒体(例えば、メモリ)および伝送媒体を、限定することなく含む、実行のためにプロセッサ702に命令を提供することに関与する任意の媒体を指す。伝送媒体は、同軸ケーブル、銅線および光ファイバを、限定することなく含む。
コンピュータ可読媒体708は、オペレーティングシステム712(例えば、Mac OS(登録商標)サーバ、Windows(登録商標)NTサーバ、Linuxサーバ)、ネットワーク通信モジュール714、インタフェース命令718およびデータ処理命令716を更に含むことができる。
オペレーティングシステム712は、マルチユーザ、マルチプロセッシング、マルチタスキング、マルチスレッディング、リアルタイム等であることができる。オペレーティングシステム712は、デバイス702、704、706および708からの入力を認識し、それらに出力を提供すること、コンピュータ可読媒体708(例えば、メモリまたは記憶デバイス)上のファイルおよびディレクトリを追跡および管理すること、周辺デバイスを制御すること、ならびに1つまたは複数の通信チャネル710上のトラフィックを管理することを含むがこれらに限定されない、基本タスクを行う。ネットワーク通信モジュール714は、ネットワーク接続を確立および維持するための様々なコンポーネント(例えば、TCP/IP、HTTP等などの通信プロトコルを実装するためのソフトウェア)、ならびに例えばApache Kafka(商標)を使用して分散ストリーミングプラットフォームを作成するための様々なコンポーネントを含む。データ処理命令716は、図1~図6に関して記載されたように、サーバ側動作を実装するためのサーバ側またはバックエンドソフトウェアを含む。インタフェース命令718は、図1に関して記載されたように、ウェアラブルマルチメディアデバイス101、サードパーティアプリケーション開発者104およびサードパーティプラットフォーム105に/からデータを送受信するためのウェブサーバおよび/またはポータルを実装するためのソフトウェアを含む。
アーキテクチャ700は、各々1つまたは複数の処理コアを有するローカルまたは分散ネットワーク内の1つまたは複数のサーバコンピュータを含む、任意のコンピュータデバイスに含めることができる。アーキテクチャ700は、並列処理もしくはピアツーピアインフラストラクチャに、または1つもしくは複数のプロセッサを伴う単一のデバイス上に実装できる。ソフトウェアは、複数ソフトウェアコンポーネントを含むことができ、または単一のコードの本体であることができる。
ウェアラブルマルチメディアデバイスアーキテクチャ例
図8は、図1~図6および図9に関して記載される特徴およびプロセスを実装するウェアラブルマルチメディアデバイスのためのアーキテクチャ例800のブロック図である。アーキテクチャ800は、メモリインタフェース802、データプロセッサ、画像プロセッサまたは中央処理ユニット804、および周辺機器インタフェース806を含んでよい。メモリインタフェース802、プロセッサ804または周辺機器インタフェース806は別々のコンポーネントでよく、または1つもしくは複数の集積回路に集積されてよい。1つまたは複数の通信バスまたは信号ラインが様々なコンポーネントを結合し得る。
センサ、デバイスおよびサブシステムを周辺機器インタフェース806に結合して複数機能を容易にし得る。例えば、モーションセンサ810、生体測定センサ812、深度センサ814を周辺機器インタフェース806に結合して、モーション、向き、生体測定および深度検出機能を容易にし得る。一部の実装例において、ウェアラブルマルチメディアデバイスの移動および向きを検出するためにモーションセンサ810(例えば、加速度計、レートジャイロスコープ)が活用されてよい。
環境センサ(例えば、温度センサ、気圧計、周辺光)など、他のセンサも周辺機器インタフェース806に接続して環境感知機能を容易にし得る。例えば、生体測定センサは、指紋、顔認識、心拍数および他のフィットネスパラメータを検出できる。一実施形態において、触覚モータ(図示せず)を周辺機器インタフェースに結合でき、ユーザへの触覚フィードバックとして振動パターンを提供できる。
位置プロセッサ815(例えば、GNSS受信器チップ)を周辺機器インタフェース806に接続してジオリファレンスを提供してよい。電子磁力計816(例えば、集積回路チップ)も周辺機器インタフェース806に接続して、磁北の方向を決定するために使用され得るデータを提供してよい。このように、電子磁力計816は電子コンパスアプリケーションによって使用されてよい。
写真およびビデオクリップを記録することなどのカメラ機能を容易にするためにカメラサブシステム820および光センサ822、例えば電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)光センサが活用されてよい。一実施形態において、カメラは180°FOVおよびOISを有する。深度センサは、物体/被写体上へ既知のパターンでドットを投影する赤外線エミッタを含むことができる。ドットは、次いで専用の赤外線カメラによって撮影され、そして深度データを決定するために分析される。一実施形態において、飛行時間(TOF)カメラを使用して、既知の光の速さに基づいて距離を決定し、画像の各点に対してカメラと物体/被写体との間の光信号の飛行時間を測定できる。
1つまたは複数の通信サブシステム824を通じて通信機能が容易にされ得る。通信サブシステム824は1つまたは複数のワイヤレス通信サブシステムを含んでよい。ワイヤレス通信サブシステム824は、無線周波数受信器および送信器ならびに/または光(例えば、赤外線)受信器および送信器を含んでよい。有線通信システムが、他の通信デバイス、ネットワークアクセスデバイス、パーソナルコンピュータ、プリンタ、ディスプレイスクリーン、またはデータを受信もしくは送信することが可能な他の処理デバイス(例えば、プロジェクタ)などの、他のコンピューティングデバイスへの有線接続を確立するために使用され得るポートデバイス、例えばユニバーサルシリアルバス(USB)ポートまたは何らかの他の有線ポート接続を含んでよい。
通信サブシステム824の具体的な設計および実装は、デバイスが動作すると意図される通信ネットワークまたは媒体に依存してよい。例えば、デバイスは、移動通信グローバルシステム(GSM)ネットワーク、GPRSネットワーク、拡張データGSM環境(EDGE)ネットワーク、IEEE802.xx通信ネットワーク(例えば、WiFi、WiMax、ZigBee(商標))、3G、4G、4G LTE、符号分割多元接続(CDMA)ネットワーク、近距離無線通信(NFC)、Wi-Fi DirectおよびBluetooth(商標)ネットワークを通じて動作するように設計されたワイヤレス通信サブシステムを含んでよい。ワイヤレス通信サブシステム824は、デバイスが他のワイヤレスデバイスのための基地局として構成され得るようにホスティングプロトコルを含んでよい。別の例として、通信サブシステムは、デバイスが、例えばTCP/IPプロトコル、HTTPプロトコル、UDPプロトコル、ICMPプロトコル、POPプロトコル、FTPプロトコル、IMAPプロトコル、DCOMプロトコル、DDEプロトコル、SOAPプロトコル、HTTP Live Streaming、MPEG Dashおよび任意の他の公知の通信プロトコルまたは技術などの、1つまたは複数のプロトコルまたは通信技術を使用してホストデバイスと同期できるようにし得る。
オーディオサブシステム826をスピーカ828および1つまたは複数のマイクロホン830に結合して、音声認識、音声複製、デジタル録音、電話機能およびビームフォーミングなどの音声対応機能を容易にし得る。
I/Oサブシステム840は、タッチコントローラ842および/または別の入力コントローラ844を含んでよい。タッチコントローラ842はタッチ面846に結合されてよい。タッチ面846およびタッチコントローラ842は、例えば、容量性、抵抗性、赤外線および弾性表面波技術を含むがこれらに限定されない幾つかのタッチ感度技術の他に、他の近接センサアレイまたはタッチ面846との1つもしくは複数の接触点を決定するための他の要素のいずれかを使用して、その接触および移動または遮断を検出してよい。1つの実装例において、タッチ面846は仮想またはソフトボタンを表示してよく、これらはユーザによる入出力デバイスとして使用されてよい。
他の入力コントローラ844は、1つもしくは複数のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、および/またはスタイラスなどのポインタデバイスなどの、他の入力/制御デバイス848に結合されてよい。1つまたは複数のボタン(図示せず)は、スピーカ828および/またはマイクロホン830の音量調節のための上/下ボタンを含んでよい。
一部の実装例において、デバイス800は、MP3、AACおよびMPEGビデオファイルなどのユーザ記録オーディオおよび/またはビデオファイルを再生する。一部の実装例において、デバイス800は、MP3プレーヤの機能性を含んでよく、かつ他のデバイスにテザリングするためのピンコネクタまたは他のポートを含んでよい。他の入出力および制御デバイスも使用され得る。一実施形態において、デバイス800は、直接または間接通信リンクを通じてアクセサリデバイスにオーディオをストリーミングするためのオーディオ処理ユニットを含んでよい。
メモリインタフェース802はメモリ850に結合されてよい。メモリ850は、1つもしくは複数の磁気ディスク記憶デバイス、1つもしくは複数の光記憶デバイスまたはフラッシュメモリ(例えば、NAND、NOR)などの、高速ランダムアクセスメモリまたは不揮発性メモリを含んでよい。メモリ850は、Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS、またはVxWorksなどの組込みオペレーティングシステムなどの、オペレーティングシステム852を記憶してよい。オペレーティングシステム852は、基本システムサービスを扱うためのおよびハードウェア依存タスクを行うための命令を含んでよい。一部の実装例において、オペレーティングシステム852はカーネル(例えば、UNIXカーネル)を含んでよい。
メモリ850は、図1~図6に関して記載されたように、ワイヤレスアクセサリデバイスとのピアツーピア通信を含め、1つまたは複数の追加デバイス、1つまたは複数のコンピュータまたはサーバと通信することを容易にする通信命令854も記憶してよい。通信命令854は、デバイスの地理的位置に基づいてデバイスによる使用のための動作モードまたは通信媒体を選択するためにも使用されてよい。
メモリ850は、図1~図6に関して記載されたように、センサ関連の処理および機能を容易にするセンサ処理命令858ならびに記録機能を容易にするレコーダ命令860を含んでよい。他の命令には、GNSSおよびナビゲーション関連のプロセスを容易にするGNSS/ナビゲーション命令、カメラ関連のプロセスを容易にするカメラ命令、ならびにタッチ入力を解釈するためのタッチモデルを含め、ユーザインタフェース処理を容易にするユーザインタフェース命令を含むことができる。
上記の識別された命令およびアプリケーションの各々は、上記した1つまたは複数の機能を行うための命令のセットに相当し得る。これらの命令は、別々のソフトウェアプログラム、手順またはモジュールとして実装される必要はない。メモリ850は追加命令またはより少ない命令を含み得る。更には、デバイスの様々な機能は、1つまたは複数の信号処理および/または特定用途向け集積回路(ASIC)で、を含め、ハードウェアでかつ/またはソフトウェアで実装され得る。
グラフィカルユーザインタフェース例
図9は、一実施形態に係る、図3に関して記載されたシーン識別アプリケーションとの使用のためのグラフィカルユーザインタフェース(GUI)900例のスクリーンショットである。GUI900は、ビデオペイン901、時間/位置データ902、オブジェクト903、906a、906b、906c、検索ボタン904、カテゴリ905のメニューおよびサムネイル画像907を含む。GUI900は、例えば、クライアントアプリケーションを通じてまたはクラウドコンピューティングプラットフォーム102のウェブサーバによって提供されるウェブページを通じてユーザデバイス(例えば、スマートフォン、タブレットコンピュータ、ウェアラブルデバイス、デスクトップコンピュータ、ノートブックコンピュータ)上に提示できる。本例では、ユーザは、時間/位置データ902によって示されるように、2018年10月18日12:45PMにOrchard Street、New York、New Yorkに立っているビデオペイン901内の青年のデジタル画像を捕捉した。
一実施形態において、画像は、Viola-Jonesオブジェクト検出ネットワークなどの、クラウドコンピューティングプラットフォーム102上に実装されるオブジェクト検出フレームワークを通じて処理される。例えば、モデルまたはアルゴリズムを使用して、デジタル画像全体に及ぶ一組の境界ボックスを含む関心領域または領域提案を生成する。境界ボックスの各々に対して視覚特徴が抽出され、そして視覚特徴に基づいて、領域提案にオブジェクトが存在するかどうか、およびどのオブジェクトが存在するかを判定するために評価される。重複するボックスは、(例えば非最大抑制を使用して)単一の境界ボックスへ結合される。一実施形態において、重複するボックスは、ビッグデータストレージのカテゴリへオブジェクトを編成するためにも使用される。例えば、オブジェクト903(青年)が親オブジェクトと考えられ、そしてオブジェクト906a~906c(彼が着用している衣料品)は、重複する境界ボックスのためオブジェクト903の子オブジェクト(靴、シャツ、パンツ)と考えられる。このように、検索エンジンを使用した「人」の検索の結果として、「人」とラベル付けされた全てのオブジェクトおよび、もしあれば、その子オブジェクトが検索結果に含まれる。
実施形態において、画像内のオブジェクトを識別するために、境界ボックスよりむしろ複合ポリゴンが使用される。複合ポリゴンは、例えばユーザが指差している画像内のハイライト/ホットスポット領域を決定するために使用される。複合ポリセグメンテーション部分だけが(画像全部ではなくて)クラウドコンピューティングプラットフォームに送られるので、プライバシー、セキュリティおよび速度が改善される。
デジタル画像内のオブジェクトを検出およびラベル付けするためにクラウドコンピューティングプラットフォーム102によって実装できるオブジェクト検出フレームワークの他の例には、領域畳込みニューラルネットワーク(R-CNN)、Fast R-CNNおよびFaster R-CNNを含むが、これらに限定されない。
本例では、デジタル画像内に識別されるオブジェクトには、人、車、建物、道路、窓、ドア、階段、標識、テキストを含む。識別されたオブジェクトは、ユーザが検索するためのカテゴリとして編成および提示される。ユーザは、カーソルまたは(タッチ感応スクリーンを使用している場合)指を使用してカテゴリ「人」を選択した。カテゴリ「人」を選択することによって、オブジェクト903(すなわち、画像内の青年)はデジタル画像の残りのオブジェクトから分離され、そしてオブジェクト906a~906cの部分集合はそれらのそれぞれのメタデータと共にサムネイル画像907に表示される。オブジェクト906aは「オレンジ、シャツ、ボタン、半そで」とラベル付けされ、オブジェクト906bは「青、ジーンズ、裂け、デニム、ポケット、電話」とラベル付けされ、そしてオブジェクト906cは「青、ナイキ、靴、左、エアマックス、赤い靴下、白いスウッシュ、ロゴ」とラベル付けされる。
検索ボタン904が押されると、ユーザによって選択されたカテゴリおよびビデオペイン901内の特定の画像に基づいて新たな検索を開始する。検索結果はサムネイル画像907を含む。同様に、ユーザがカテゴリ「車」を選択して次いで検索ボタン904を押せば、新たなサムネイル907の集合が表示され、画像に捕捉された全ての車をそれらのそれぞれのメタデータと共に示す。
図10は、一実施形態に係る、図9のGUI900を使用して検索できるオブジェクトおよびメタデータへ生または前処理コンテキストデータを分類するための分類器フレームワーク1000を例示する。フレームワーク1000は、API1001、分類器1002a~1002nおよびデータストア1005を含む。ウェアラブルマルチメディアデバイス上で捕捉された生または前処理コンテキストデータはAPI1001を通じてアップロードされる。コンテキストデータは分類器1002a~1002n(例えば、ニューラルネットワーク)を通される。一実施形態において、分類器1002a~1002nは、多数のウェアラブルマルチメディアデバイスからクラウドソースされるコンテキストデータを使用して訓練される。分類器1002a~1002nの出力は、データストア1005に記憶されるオブジェクトおよびメタデータ(例えば、ラベル)である。データストア1005内のオブジェクト/メタデータに対して検索インデックスが生成されるが、これを検索エンジンによって使用して、GUI900を使用して入力された検索クエリを満たすオブジェクト/メタデータを求めて検索できる。ツリーインデックス、サフィックスツリーインデックス、転置インデックス、引用インデックス分析およびnグラムインデックスを含むがこれらに限定されない、様々な種類の検索インデックスを使用できる。
データ型、データ量、データ品質、ユーザ嗜好、ユーザ起動もしくはアプリケーション起動検索クエリ、音声コマンド、アプリケーション要件、テンプレートおよび/または任意の他の情報の1つまたは複数に基づいて分類器1002a~1002nが選択されて動的データ処理パイプラインへ追加されて、所望の提示を生成する。ニューラルネットワーク、サポートベクトルマシン(SVM)、ランダムフォレスト、ブースト決定木、ならびに投票、スタッキングおよびグレーディング技術を使用するこれらの個々の分類器の任意の組合せを含め、任意の公知の分類器を使用できる。一実施形態において、分類器の一部はユーザ個人用である、すなわち、分類器は特定のユーザデバイスからのコンテキストデータだけで訓練される。そのような分類器は、ユーザにとって個人的である人および物体を検出およびラベル付けするように訓練できる。例えば、1つの分類器を、ユーザに知られている個人(例えば、家族、友人)の、例えばユーザ入力によってラベル付けされた画像内の顔を検出する顔検出のために使用できる。
例として、ユーザは、「私のビデオからニューオーリンズにいるお母さんとお父さんを含むムービーを作成して」、「サウンドトラックとしてジャズ音楽を加えて」、「カクテル『ハリケーン』を作るためのドリンクレシピを私に送って」および「最寄りの酒屋への行き方を私に送って」などの複数フレーズを発することができる。クラウドコンピューティングプラットフォーム102によって音声フレーズが解析され、単語が使用されて、ユーザの父母の顔を検出するための分類器を追加することを含め、要求されたタスクを行う個人用処理パイプラインを組み立てる。
一実施形態において、AIを使用して、ユーザがメッセージセッションの間にどのようにクラウドコンピューティングプラットフォームと対話するか判定する。例えば、ユーザがメッセージ「ボブ、『トイ・ストーリー4』を見たか」を発すれば、クラウドコンピューティングプラットフォームは、ボブが誰であるか判定し、そしてクラウドコンピューティングプラットフォーム上のメッセージ中継サーバに送られるストリングから「ボブ」を解析する。同様に、メッセージが「ボブ、これを見て」と言っていれば、プラットフォームデバイスは、別個のトランザクションとして画像を添付する必要なく一段階でメッセージと共に画像を送る。画像は、プロジェクタ1115および任意の所望の表面を使用して、ボブに送る前にユーザによって視覚的に確認できる。また、プラットフォームは、しばらくの間ボブとの持続的かつ個人用通信チャネルを維持し、メッセージセッションの間、各通信に名前「ボブ」を先行させる必要はなくなる。
コンテキストデータブローカサービス
一実施形態において、クラウドコンピューティングプラットフォーム102を通じてコンテキストデータブローカサービスが提供される。本サービスは、ユーザが自分で選んだエンティティに自分のプライベート生または処理コンテキストデータを販売できるようにする。プラットフォーム102は、コンテキストデータブローカサービスをホストし、そしてユーザコンテキストデータのプライバシーを保護するために必要とされるセキュリティプロトコルを提供する。プラットフォーム102は、エンティティとユーザとの間の取引および金銭の授受または決済も容易にする。
生および前処理コンテキストデータは、ビッグデータストレージを使用して記憶できる。ビッグデータストレージは、多数のデータファイルおよびオブジェクトを伴うストレージ上の記憶および入出力動作をサポートする。一実施形態において、ビッグデータストレージは、ダイレクトアタッチトストレージ(DAS)プール、スケールアウトもしくはクラスタネットワークアタッチトストレージ(NAS)またはオブジェクト記憶形式に基づくインフラストラクチャの冗長かつスケーラブルな供給から構成されるアーキテクチャを含む。ストレージインフラストラクチャは、大量のデータの迅速な処理および検索を可能にするコンピューティングサーバノードに接続される。一実施形態において、ビッグデータストレージアーキテクチャは、Hadoop(商標)、Cassandra(商標)およびNoSQL(商標)などのビッグデータ解析ソリューションのネイティブサポートを含む。
一実施形態において、生または処理コンテキストデータを購入することに関心があるエンティティは、クラウドコンピューティングプラットフォーム102の登録GUIまたはウェブページを通じてコンテキストデータブローカサービスに加入する。一旦登録されると、エンティティ(例えば、会社、広告代理店)は、データ仲介を容易にするように調整された1つまたは複数のGUIを通じてユーザと直接的または間接的に取引できるようにされる。一実施形態において、プラットフォーム102は、特定の種類のコンテキストデータに対するエンティティの要求をコンテキストデータを提供できるユーザと合わせることができる。例えば、被服会社は、自身の被服または競合会社のロゴが検出された全ての画像に関心があり得る。被服会社は、次いでコンテキストデータを使用して自身の顧客の人口統計をより良好に識別できる。別の例では、報道機関または政治運動は、カバーストーリーまたは特集記事に使用する報道価値のある出来事のビデオ映像に関心があり得る。様々な会社が、改善された広告ターゲティングまたは他のマーケティングプロジェクトのためにユーザの検索履歴または購入履歴に関心があり得る。様々なエンティティが、自動運転車両のための物体検出器など、他の物体検出器のための訓練データとして使用するためにコンテキストデータを購入することに関心があり得る。
一実施形態において、ユーザの生または処理コンテキストデータは、ユーザのプライバシーを保護するためにセキュアな形式で入手可能とされる。ユーザもエンティティも、仲介取引から生じる金銭を預けるおよび引き出すための自身のオンライン口座を有することができる。一実施形態において、データブローカサービスは、価格決定モデルに基づいて取引手数料を徴収する。手数料は、従前のオンライン広告(例えば、バナー広告のクリックスルー等)を通じても取得できる。
一実施形態において、個人がウェアラブルマルチメディアデバイスを使用して自分自身のメタデータを作成できる。例えば、有名シェフが、食事を準備している間ウェアラブルマルチメディアデバイス101を装着してよい。画像内のオブジェクトは、シェフによって提供されるメタデータを使用してラベル付けされる。ユーザは、ブローカサービスからメタデータへのアクセスを取得できる。ユーザが自分自身のウェアラブルマルチメディアデバイス101を装着している間に料理を準備しようとするとき、オブジェクトが検出され、そしてシェフによって提供された、ユーザが何かを再現するのに役立つメタデータ(例えば、タイミング、量、順序、スケール)が、寸法、調理時間および追加ヒント等など、ユーザの作業台(例えば、まな板、カウンタトップ、レンジ、オーブン等)上へ投影される。例えば、まな板上に肉片が検出され、そして肉を繊維に対して直角に切ることをユーザに気づかせるテキストがプロジェクタ1115によってまな板上に投影され、更にはシェフのメタデータに従って均一な厚さでスライスを切る際にユーザを導く寸法ガイドを肉面上に投影する。レーザ投影ガイドは、均一な厚さで野菜を切る(例えば、千切り、みじん切り)ためにも使用できる。ユーザは、クラウドサービスプラットフォームに自分のメタデータをアップロードし、自分自身のチャネルを作成し、そしてYouTube(登録商標)プラットフォームと同様に、サブスクリプションおよび広告によって収入を得ることができる。
図11は、一実施形態に係る、ウェアラブルマルチメディアデバイスのためのハードウェアアーキテクチャ1100を図示するシステムブロック図である。アーキテクチャ1100は、システムオンチップ(SoC)1101(例えば、Qualcomm Snapdragon(登録商標)チップ)、メインカメラ1102、3Dカメラ1103、静電容量センサ1104、モーションセンサ1105(例えば、加速度計、ジャイロ、磁力計)、マイクロホン1106、メモリ1107、全地球航法衛星システム受信器(例えば、GPS受信器)1108、WiFi/ブルートゥースチップ1109、ワイヤレス送受信器チップ1110(例えば、4G、5G)、無線周波数(RF)送受信器チップ1112、RFフロントエンド電子回路(RFFE)1113、LED1114、プロジェクタ1115(例えば、レーザ投影、ピコプロジェクタ、LCoS、DLP、LCD)、オーディオ増幅器1116、スピーカ1117、外部バッテリ1118(例えば、バッテリパック)、磁気インダクタンス回路網1119、電力管理チップ(PMIC)1120および内部バッテリ1121を含む。これらのコンポーネントの全てが協働して、本明細書に記載される様々なタスクを容易にする。
図12は、一実施形態に係る、ウェアラブルマルチメディアデバイスから受信される生または前処理コンテキストデータを処理するための代替のクラウドコンピューティングプラットフォーム1200を図示するシステムブロック図である。エッジサーバ1201が、ワイヤレス通信リンクを通じてウェアラブルマルチメディアデバイス1202から生または前処理コンテキストデータを受信する。エッジサーバ1201は、AIまたはカメラビデオ(CV)処理およびジェスチャ検出などの、限られたローカル前処理を提供する。エッジサーバ1201において、ディスパッチャ1203が生または前処理コンテキストデータを状態/コンテキスト検出器1204、ファーストパーティハンドラ1205および/または限られたAIタスクを行うための限定AIリゾルバ1206に宛てる。状態/コンテキスト検出器1204は、例えばウェアラブルマルチメディアデバイス1202のGPS受信器または他の測位技術(例えば、Wi-Fi、セルラ、ビジュアルオドメトリ)によって提供されるGNSSデータを使用して、コンテキストデータが捕捉された位置を決定する。状態/コンテキスト検出器1204は、画像および音声技術ならびにAIも使用して、コンテキストデータに含まれる画像、オーディオおよびセンサデータ(例えば、モーションセンサデータ、生体測定データ)を分析して、ユーザ活動、ムードおよび関心を決定する。
エッジサーバ1201は、ファイバおよびルータによって領域データセンタ1207に結合される。領域データセンタ1207は、前処理または生コンテキストデータの完全AIおよび/またはCV処理を行う。領域データセンタ1207において、ディスパッチャ1208が生または前処理コンテキストデータを状態/コンテキスト検出器1209、完全AIリゾルバ1210、第1のハンドラ1211および/または第2のハンドラ1212に宛てる。状態/コンテキスト検出器1209は、例えばウェアラブルマルチメディアデバイス1202のGPS受信器または他の測位技術(例えば、Wi-Fi、セルラ、ビジュアルオドメトリ)によって提供されるGNSSデータを使用して、コンテキストデータが捕捉された位置を決定する。状態/コンテキスト検出器1209は、画像および音声認識技術ならびにAIも使用して、コンテキストデータに含まれる画像、オーディオおよびセンサデータ(例えば、モーションセンサデータ、生体測定データ)を分析して、ユーザ活動、ムードおよび関心を決定する。
図13は、一実施形態に係る、ウェアラブルマルチメディアデバイスのためのソフトウェアコンポーネント1300を例示する。例えば、ソフトウェアコンポーネントは、AIおよびCV、ジェスチャ認識、メッセージング、メディア捕捉、サーバ接続性ならびにアクセサリ接続性のためのデーモン1301を含む。ソフトウェアコンポーネントは、グラフィック処理ユニット(GPU)、機械学習(ML)、カメラビデオ(CV)およびネットワークサービスのためのライブラリ1302を更に含む。ソフトウェアコンポーネントは、ハードウェア抽象化およびLinuxカーネルを含むアンドロイド(登録商標)ネイティブ開発キット(NDK)などのオペレーティングシステム1303を含む。他のソフトウェアコンポーネント1304には、電力管理、接続性、セキュリティ+暗号化およびソフトウェア更新のためのコンポーネントを含む。
図14A~図14Dは、一実施形態に係る、ユーザの手のひらにプロジェクタ1115によって投影される様々な種類の情報を投影するウェアラブルマルチメディアデバイスのプロジェクタ1115の使用を例示する。特に、図14Aは、電話番号にダイヤルする際および番号入力を必要とする他のタスクの際に使用するためにユーザの手のひらへの数字パッドのレーザ投影を図示する。3Dカメラ1103(深度センサ)を使用して数字パッド上のユーザの指の場所を決定する。ユーザは、電話番号にダイヤルすることなどを使用して、数字パッドと対話できる。図14Bは、ユーザの手のひらに投影されたターンバイターン方向を図示する。図14Cは、ユーザの手のひらに投影された時計を図示する。図14Dは、ユーザの手のひらの温度示度を図示する。3Dカメラ1103によって様々な1本または2本指ジェスチャ(例えば、タップ、長押し、スワイプ、ピンチ/デピンチ)を検出できる結果として、ウェアラブルマルチメディアデバイス上で異なるアクションがトリガされる。
図14A~図14Dがユーザの手のひらへのレーザ投影を図示するが、壁、床、天井、カーテン、被服、投影スクリーン、テーブル/机/カウンタトップ、電化製品(例えば、レンジ、洗濯機/乾燥機)、および装置(例えば、車のエンジン、電子回路板、まな板)を含むがこれらに限定されない、任意の投影面を使用できる。
図15Aおよび図15Bは、一実施形態に係る、ユーザが自分のエンジンオイルを点検するのを支援する情報が自動車エンジン上へ投影される、プロジェクタ1115の応用を例示する。図15Aおよび図15Bは、その画像の前後の画像を図示する。ユーザは言葉:「どうやってオイルを点検するのか」を口に出す。本例では、音声はマイクロホン1106によって受信され、そしてウェアラブルマルチメディアデバイス1202のメインカメラ1102および/または3Dカメラ1103がエンジンの画像を捕捉する。画像および音声は圧縮されてエッジサーバ1201に送られる。エッジサーバ1201は、画像およびオーディオを領域データセンタ1207に送る。領域データセンタ1207において、画像およびオーディオは伸長され、そして1つまたは複数の分類器を使用して、画像内の検油棒および給油口キャップの位置を検出およびラベル付けする。ラベルおよびそれらの画像座標がウェアラブルマルチメディアデバイス1202に送り返される。プロジェクタ1115は、画像座標に基づいて車のエンジン上へラベルを投影する。
図16は、一実施形態に係る、家庭の調理人が野菜を切るのを支援するための情報がまな板上へ投影される、プロジェクタの応用を例示する。ユーザは言葉:「どのくらいの大きさにこれを切るべきか」を口に出す。本例では、音声はマイクロホン1106によって受信され、そしてウェアラブルマルチメディアデバイス1202のメインカメラ1102および/または3Dカメラ1103がまな板および野菜の画像を捕捉する。画像および音声は圧縮されてエッジサーバ1201に送られる。エッジサーバ1201は、画像およびオーディオを領域データセンタ1207に送る。領域データセンタ1207において、画像およびオーディオは伸長され、そして1つまたは複数の分類器を使用して、画像内の野菜の種類(例えば、カリフラワー)、そのサイズおよびその位置を検出する。画像情報およびオーディオに基づいて、カット命令(例えば、データベースまたは他のデータソースから取得される)および画像座標が決定され、ウェアラブルマルチメディアデバイス1202に送り返される。プロジェクタ1115は、情報および画像座標を使用して野菜を囲んでまな板上へサイズテンプレートを投影する。
図17は、一実施形態に係る、プロジェクタアーキテクチャ1700のシステムブロック図である。プロジェクタ1115は、画素を2次元に走査し、画素の2Dアレイを撮像し、または撮像および走査を混合する。走査プロジェクタが、レーザビームの狭い発散および2次元(2D)走査を直接活用して、画像を画素ごとに「塗布」する。一部の実施形態において、水平および垂直走査方向に対して別々のスキャナが使用される。他の実施形態において、単一の2軸スキャナが使用される。特定のビーム軌道も、使用されるスキャナの種類に応じて変動する。
図示した例では、プロジェクタ1700は、コントローラ1701、バッテリ1118/1121、電力管理チップ(PMIC)1120、固体レーザ1704、X-Yスキャナ1705、ドライバ1706、メモリ1707、デジタルアナログ変換器(DAC)1708およびアナログデジタル変換器(ADC)1709を含む走査ピコプロジェクタである。
コントローラ1701はX-Yスキャナ1705に制御信号を提供する。X-Yスキャナ1705は可動ミラーを使用して、固体レーザ1704によって発生されるレーザビームを、制御信号に応答して2次元に操向する。X-Yスキャナ1705は、1または2次元に制御可能な傾斜角を有する1つまたは複数の微小電気機械(MEMS)マイクロミラーを含む。ドライバ1706は、X-Yスキャナ1705に制御信号(例えば、電圧または電流)を提供する電力増幅器および他の電子回路網(例えば、フィルタ、スイッチ)を含む。メモリ1707は、投影されるべきテキストおよび画像のためのレーザパターンを含む、プロジェクタによって使用される様々なデータを記憶する。DAC1708およびADC1709はデジタルおよびアナログ領域間のデータ変換を提供する。PMIC1120は、固体レーザ1704のオンオフおよび固体レーザ1704に供給される電力量の調整を含め、固体レーザ1704の電力およびデューティサイクルを管理する。固体レーザ1704は、例えば垂直共振器面発光レーザ(VCSEL)である。
一実施形態において、コントローラ1701は、メインカメラ1102からの画像データおよび3Dカメラ1103からの深度データを使用してレーザ投影上のユーザの手および/または指位置を認識および追跡し、その結果、レーザ投影を入力インタフェースとして使用してウェアラブルマルチメディアデバイス101によってユーザ入力が受け取られる。
別の実施形態において、プロジェクタ1115は、電力を節約するためにベクトルグラフィック投影ディスプレイおよび低電力固定MEMSマイクロミラーを使用する。プロジェクタ1115が深度センサを含むので、投影範囲は、レーザ投影画像と対話している指/手に投影することを防止するために必要に応じてマスクできる。一実施形態において、深度センサは、ジェスチャを追跡して別のデバイス上の入力(例えば、テレビ画面上の画像をスワイプする、コンピュータ、スマートスピーカと対話する等)も制御できる。
他の実施形態において、ピコプロジェクタの代わりに、液晶オンシリコン(LCoSもしくはLCOS)、デジタル光処理(DLP)または液晶ディスプレイ(LCD)デジタル投影技術を使用できる。
図18は、表面によって反射される光量に基づくレーザパラメータの調整を例示する。多種多様な表面上で投影が明瞭かつ読みやすいことを確実にするために、3Dカメラ1103からのデータを使用して、表面反射に基づいてプロジェクタ1115の1つまたは複数のパラメータを調整する。一実施形態において、表面からのレーザビームの反射を使用して、レーザビームの強度を、異なる屈折率を補償するように自動的に調整して、均一な明るさの投影を作成する。強度は、例えば固体レーザ1115に供給される電力を調整することによって調整できる。調整の量は、反射レーザビームのエネルギー準位に基づいてコントローラ1701によって計算できる。
図示した例では、円パターン1800が表面1801上に投影されており、ここには第1の表面反射を有する領域1802および第1の表面反射とは異なる第2の表面反射を有する領域1803を含む。領域1802、1803における表面反射の差(例えば、異なる屈折率による)の結果として、円パターン1800が領域1802において領域1803より明るくなくなる。均一な強度の円パターン1800を発生させるために、固体レーザ1704は、固体レーザ1704に供給される電力を増減させて、領域1802において走査するときにレーザビームの強度を上げるようコントローラ1701によって(PMIC1120を通じて)指令される。結果は均一な明るさの円パターン1800である。領域1802および1803の表面幾何形状が異なる場合、1つまたは複数のレンズを使用して、表面上の投影テキストまたは画像のサイズを調整できる。例えば、領域1802を湾曲させることができる一方で、領域1803は平坦であることができる。このシナリオでは、領域1802におけるテキストまたは画像のサイズは、領域1802における表面の曲率を補償するように調整できる。
一実施形態において、レーザ投影は、ユーザによる空中ジェスチャ(例えば、関心物体を特定するために指差す、データへの動作を示すためにスワイプする、数を示すために指を立てる、嗜好を示すために親指を立てるまたは下げる、等)によって自動的にまたは手動で要求され、そして環境における任意の表面または物体に投影できる。例えば、ユーザは自分の家のサーモスタットを指差すことができ、自分の手のひらまたは他の表面上に温度データが投影される。カメラおよび深度センサは、ユーザがどこを指差しているか検出し、サーモスタットとして指差している物体を識別し、クラウドコンピューティングプラットフォーム上でサーモスタットアプリケーションを走らせ、そしてウェアラブルマルチメディアデバイスにアプリケーションデータをストリーミングし、それが表面(例えば、ユーザの手のひら、壁、テーブル)上に表示される。別の例では、ユーザが自分の家の正面ドアのスマートロックの前に立っており、かつ自分の家の全てのロックが連動されていれば、スマートロックに対する制御手段が、そのロックもしくは自分の家の他のロックにアクセスするために、スマートロックまたはドアの表面上に投影される。
一実施形態において、カメラおよびその大きな視野(FOV)によって撮られた画像は、クラウドコンピューティングプラットフォーム上で実行されるAI駆動の仮想写真家を使用して「コンタクトシート」でユーザに提示できる。例えば、専門の写真家によって作成された画像/メタデータで訓練された機械学習(例えば、ニューラルネットワーク)を使用して異なるトリミングおよび処理により画像の様々な提示が作成される。この特徴により、あらゆる撮られる画像は、センサデータ(例えば、深度、周辺光、加速度計、ジャイロ)によって通知される動作を含む原画像への多重画像処理動作を伴う複数の「見た目」を有し得る。
記載された特徴は、デジタル電子回路網で、またはコンピュータハードウェア、ファームウェア、ソフトウェアもしくはそれらの組合せで実装され得る。上記特徴は、プログラマブルプロセッサによる実行のために情報担体で、例えば機械可読記憶デバイスで有形に具現化されたコンピュータプログラム製品で実装され得る。方法ステップは、入力データに作用して出力を生成することによって記載された実装例の機能を行う命令のプログラムを実行するプログラマブルプロセッサによって行われ得る。
記載された特徴は、データ記憶システム、少なくとも1つの入力デバイスおよび少なくとも1つの出力デバイスからデータおよび命令を受信するように、かつそれらにデータおよび命令を送信するように結合される少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能である1つまたは複数のコンピュータプログラムで有利に実装され得る。コンピュータプログラムは、或る活動を行うまたは或る結果をもたらすためにコンピュータにおいて直接的または間接的に使用され得る命令のセットである。コンピュータプログラムは、コンパイラまたはインタープリタ型言語を含め、任意の形態のプログラミング言語(例えば、Objective-C、Java)で書かれ得、そしてそれは、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境での使用に適切な他のユニットとしてを含め、任意の形態で展開され得る。
命令のプログラムの実行のための適切なプロセッサには、例として、汎用および専用の両マイクロプロセッサ、ならびに任意の種類のコンピュータの単独プロセッサまたはマルチプロセッサもしくはコアの1つを含む。一般に、プロセッサは、リードオンリメモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受けることになる。コンピュータの必須要素は、命令を実行するためのプロセッサならびに命令およびデータを記憶するための1つまたは複数のメモリである。一般に、コンピュータは、データファイルを記憶するための大容量記憶デバイスと通信し得る。これらの大容量記憶デバイスには、内部ハードディスクおよびリムーバブルディスクなどの磁気ディスク、光磁気ディスク、ならびに光ディスクを含み得る。コンピュータプログラム命令およびデータを有形に具現化するのに適切な記憶デバイスには、例として、EPROM、EEPROMおよびフラッシュメモリデバイスなどの半導体メモリデバイス、内部ハードディスクおよびリムーバブルディスクなどの磁気ディスク、光磁気ディスク、ならびにCD-ROMおよびDVD-ROMディスクを含め、全ての形態の不揮発性メモリを含む。プロセッサおよびメモリは、ASIC(特定用途向け集積回路)によって補足され、またはそれに組み込まれ得る。ユーザとの対話を提供するために、上記特徴は、作成者に情報を表示するためのCRT(陰極線管)、LED(発光ダイオード)またはLCD(液晶ディスプレイ)ディスプレイまたはモニタなどのディスプレイデバイス、作成者がコンピュータに入力を提供し得るキーボードおよび、マウスまたはトラックボールなどのポインティングデバイスを有するコンピュータ上に実装され得る。
開示された実施形態の1つまたは複数の特徴またはステップは、アプリケーションプログラミングインタフェース(API)を使用して実装され得る。APIは、呼出しアプリケーションと、サービスを提供する、データを提供する、または動作もしくは計算を行う他のソフトウェアコード(例えば、オペレーティングシステム、ライブラリルーチン、関数)との間で受け渡される1つまたは複数のパラメータを定義し得る。APIは、API仕様書に定義される呼出し規約に基づいてパラメータリストまたは他の構造を通じて1つまたは複数のパラメータを送るまたは受けるプログラムコードの1つまたは複数の呼出しとして実装され得る。パラメータは、定数、キー、データ構造、オブジェクト、オブジェクトクラス、変数、データ型、ポインタ、アレイ、リストまたは別の呼出しであり得る。API呼出しおよびパラメータは任意のプログラミング言語で実装され得る。プログラミング言語は、APIをサポートする機能にアクセスするためにプログラマが利用するであろう語彙および呼出し規約を定義し得る。一部の実装例において、API呼出しは、アプリケーションを実行するデバイスの、入力能力、出力能力、処理能力、電力能力、通信能力等などの能力をアプリケーションに報告し得る。
幾つかの実装例が記載された。にもかかわらず、様々な修正がなされ得ることが理解されるであろう。1つまたは複数の実装例の要素が組み合わされて、削除されて、修正されて、または補足されて更なる実装例を形成し得る。更に別の例では、図に描かれる論理フローは、望ましい結果を達成するために、図示される特定の順序または順番を必要としない。加えて、他のステップが設けられてよく、または記載されたフローからステップが排除されてよく、そして記載されたシステムに他のコンポーネントが追加され、またはそこからコンポーネントが削除されてよい。したがって、他の実装例は以下の請求項の範囲内である。
100 動作環境
101 ウェアラブルマルチメディアデバイス
102 クラウドコンピューティングプラットフォーム
103 ネットワーク
104 アプリケーション開発者
105 サードパーティプラットフォーム
106 データベース
200 データ処理システム
201 レコーダ
202 ビデオバッファ
203 オーディオバッファ
204 写真バッファ
205 取込サーバ
206 データストア
207 ビデオプロセッサ
208 オーディオプロセッサ
209 写真プロセッサ
210 サードパーティプロセッサ
211 アプリ1
212 アプリ2
213 アプリ1
214 アプリ2
215 アプリ1
216 アプリ2
217 アプリ
300 データ処理パイプライン
301 取込サーバ
302 ビデオプロセッサ
304 レコーダ
305 オーディオプロセッサ
306 アプリ
307 ビデオ処理アプリ
308 データマージプロセス
400 データ処理パイプライン
401 取込サーバ
402 サードパーティプロセッサ
404 レコーダ
405 オーディオプロセッサ
406 アプリ
407 サードパーティアプリケーション
408 ユーザコールバックキュー
700 アーキテクチャ
702 プロセッサ
704 記憶デバイス
706 ネットワークインタフェース
708 コンピュータ可読媒体
710 通信チャネル
712 オペレーティングシステム
714 ネットワーク通信モジュール
716 データ処理命令
718 インタフェース命令
800 アーキテクチャ
802 メモリインタフェース
804 プロセッサ
806 周辺機器インタフェース
810 モーションセンサ
812 生体測定センサ
814 深度センサ
815 位置プロセッサ
816 電子磁力計
817 環境センサ
820 カメラサブシステム
822 光センサ
824 通信サブシステム
826 オーディオサブシステム
828 スピーカ
830 マイクロホン
840 I/Oサブシステム
842 タッチコントローラ
844 他の入力コントローラ
846 タッチ面
848 他の入力/制御デバイス
850 メモリ
852 オペレーティングシステム
854 通信命令
858 センサ処理命令
860 レコーダ命令
900 グラフィカルユーザインタフェース
901 ビデオペイン
902 時間/位置データ
903 オブジェクト
904 検索ボタン
905 カテゴリ
906a、906b、906c オブジェクト
907 サムネイル画像
1000 分類器フレームワーク
1001 API
1002a~1002n 分類器
1005 データストア
1100 ハードウェアアーキテクチャ
1101 システムオンチップ
1102 メインカメラ
1103 3Dカメラ
1104 静電容量センサ
1105 モーションセンサ
1106 マイクロホン
1107 メモリ
1108 全地球航法衛星システム受信器
1109 WiFi/ブルートゥースチップ
1110 ワイヤレス送受信器チップ
1112 無線周波数送受信器チップ
1113 RFフロントエンド電子回路
1114 LED
1115 プロジェクタ
1116 オーディオ増幅器
1117 スピーカ
1118 外部バッテリ
1119 磁気インダクタンス回路網
1120 電力管理チップ
1121 内部バッテリ
1200 クラウドコンピューティングプラットフォーム
1201 エッジサーバ
1202 ウェアラブルマルチメディアデバイス
1203 ディスパッチャ
1204 状態/コンテキスト検出器
1205 ファーストパーティハンドラ
1206 限定AIリゾルバ
1207 領域データセンタ
1208 ディスパッチャ
1209 状態/コンテキスト検出器
1210 完全AIリゾルバ
1211 第1のハンドラ
1212 第2のハンドラ
1300 ソフトウェアコンポーネント
1301 デーモン
1302 ライブラリ
1303 オペレーティングシステム
1304 他のソフトウェアコンポーネント
1700 プロジェクタ、プロジェクタアーキテクチャ
1701 コントローラ
1704 固体レーザ
1705 X-Yスキャナ
1706 ドライバ
1707 メモリ
1708 デジタルアナログ変換器
1709 アナログデジタル変換器
1800 円パターン
1801 表面
1802、1803 領域

Claims (15)

  1. 身体装着装置であって、
    カメラと、
    深度センサと、
    レーザ投影システムと、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
    前記カメラを使用して、一組のデジタル画像を捕捉することと、
    前記一組のデジタル画像内のオブジェクトを識別することと、
    前記深度センサを使用して、深度データを捕捉することと、
    前記深度データ内の前記装置を装着しているユーザのジェスチャを識別することと、
    前記オブジェクトを前記ジェスチャと関連付けることと、
    前記オブジェクトと関連したデータを取得することと、
    前記レーザ投影システムを使用して、表面上に前記データのレーザ投影を投影することとを含む動作を行わせる命令を記憶したメモリとを備える、身体装着装置。
  2. 前記レーザ投影が、前記オブジェクトに対するテキストラベルを含む、請求項1に記載の装置。
  3. 前記レーザ投影が、前記オブジェクトに対するサイズテンプレートを含む、請求項1または2に記載の装置。
  4. 前記レーザ投影が、前記オブジェクトにアクションを行うための命令を含む、請求項1から3のいずれか一項に記載の装置。
  5. 身体装着装置であって、
    カメラと、
    深度センサと、
    レーザ投影システムと、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
    前記センサを使用して、深度データを捕捉することと、
    前記深度データ内の第1のジェスチャであり、前記装置を装着しているユーザによってなされた、ジェスチャを識別することと、
    前記第1のジェスチャを要求またはコマンドと関連付けることと、
    前記レーザ投影システムを使用して、表面上に前記要求またはコマンドと関連したレーザ投影を投影することとを含む動作を行わせる命令を記憶したメモリとを備える、身体装着装置。
  6. 前記動作が、
    前記深度センサを使用して、前記レーザ投影と関連した第2のジェスチャを取得することと、
    前記第2のジェスチャに基づいてユーザ入力を決定することと、
    前記ユーザ入力に従って1つまたは複数のアクションを開始することとを更に含む、請求項5に記載の装置。
  7. 前記動作が、
    前記第2のジェスチャをしている前記ユーザの手に前記データを投影するのを防止するために前記レーザ投影をマスクすることを更に含む、請求項6に記載の装置。
  8. 前記動作が、
    前記深度センサまたはカメラを使用して、前記表面の幾何形状、材質またはテクスチャを示す深度または画像データを取得することと、
    前記表面の前記幾何形状、材質またはテクスチャに基づいて前記レーザ投影システムの1つまたは複数のパラメータを調整することとを更に含む、請求項1から7のいずれか一項に記載の装置。
  9. 前記動作が、
    前記カメラを使用して、前記表面からの前記レーザ投影の反射を捕捉することと、
    前記レーザ投影が均一な明るさを有するように前記レーザ投影の強度を、異なる屈折率を補償するように自動的に調整することとを更に含む、請求項1から8のいずれか一項に記載の装置。
  10. ユーザの被服を通してバッテリパックに磁気結合するように構成される磁気取付け機構であり、前記バッテリパックから誘導充電を受けるように更に構成される、磁気取付け機構
    を更に備える、請求項1から9のいずれか一項に記載の装置。
  11. 身体装着装置の深度センサを使用して、深度データを捕捉するステップと、
    前記装置の1つまたは複数のプロセッサを使用して、前記深度データ内の第1のジェスチャであって、前記装置を装着しているユーザによってなされた、第1のジェスチャを識別するステップと、
    前記1つまたは複数のプロセッサを使用して、前記第1のジェスチャを要求またはコマンドと関連付けるステップと、
    前記装置のレーザ投影システムを使用して、表面上に前記要求またはコマンドと関連したレーザ投影を投影するステップと
    を含む方法。
  12. 前記深度センサを使用して、前記ユーザによる第2のジェスチャであって、前記レーザ投影と関連した、第2のジェスチャを取得するステップと、
    前記第2のジェスチャに基づいてユーザ入力を決定するステップと、
    前記ユーザ入力に従って1つまたは複数のアクションを開始するステップと
    を更に含む、請求項11に記載の方法。
  13. 前記1つまたは複数のアクションが、別のデバイスを制御することを含む、請求項12に記載の方法。
  14. 前記第2のジェスチャをしている前記ユーザの手に前記データを投影するのを防止するために前記レーザ投影をマスクするステップ
    を更に含む、請求項11から13のいずれか一項に記載の方法。
  15. 前記深度センサまたはカメラを使用して、前記表面の幾何形状、材質またはテクスチャを示す深度または画像データを取得するステップと、
    前記表面の前記幾何形状、材質またはテクスチャに基づいて前記レーザ投影システムの1つまたは複数のパラメータを調整するステップと
    を更に含む、請求項11から14のいずれか一項に記載の方法。
JP2021576012A 2019-06-18 2020-06-18 ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム Active JP7508492B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024012972A JP2024050736A (ja) 2019-06-18 2024-01-31 ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962863222P 2019-06-18 2019-06-18
US62/863,222 2019-06-18
US16/904,544 2020-06-17
US16/904,544 US20210117680A1 (en) 2017-05-10 2020-06-17 Wearable multimedia device and cloud computing platform with laser projection system
PCT/US2020/038505 WO2020257506A1 (en) 2019-06-18 2020-06-18 Wearable multimedia device and cloud computing platform with laser projection system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024012972A Division JP2024050736A (ja) 2019-06-18 2024-01-31 ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム

Publications (2)

Publication Number Publication Date
JP2022537574A true JP2022537574A (ja) 2022-08-26
JP7508492B2 JP7508492B2 (ja) 2024-07-01

Family

ID=74040924

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021576012A Active JP7508492B2 (ja) 2019-06-18 2020-06-18 ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム
JP2024012972A Pending JP2024050736A (ja) 2019-06-18 2024-01-31 ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024012972A Pending JP2024050736A (ja) 2019-06-18 2024-01-31 ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム

Country Status (8)

Country Link
US (1) US20210117680A1 (ja)
EP (1) EP3987357A4 (ja)
JP (2) JP7508492B2 (ja)
KR (1) KR20220031896A (ja)
CN (1) CN114270257A (ja)
CA (1) CA3144363A1 (ja)
GB (1) GB2600052A (ja)
WO (1) WO2020257506A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190106948A (ko) * 2019-08-30 2019-09-18 엘지전자 주식회사 지능형 디바이스 및 그 제어 방법
US12100194B1 (en) * 2020-07-14 2024-09-24 Apple Inc. Image enhancement
US11902107B2 (en) * 2021-05-19 2024-02-13 Snap Inc. Eyewear experience hub for network resource optimization
US20220400235A1 (en) * 2021-06-11 2022-12-15 Humane, Inc. Dynamic Optical Projection With Wearable Multimedia Devices
US20230015697A1 (en) * 2021-07-13 2023-01-19 Citrix Systems, Inc. Application programming interface (api) authorization
US11372620B1 (en) * 2021-08-11 2022-06-28 Family Tech Innovations, LLC Voice monitoring system and method
US11899911B2 (en) * 2022-03-04 2024-02-13 Humane, Inc. Message composition interfaces for use with wearable multimedia devices
US11954289B2 (en) 2022-03-04 2024-04-09 Humane, Inc. Laser projected virtual interface
US11847256B2 (en) 2022-03-04 2023-12-19 Humane, Inc. Presenting and aligning laser projected virtual interfaces
US11868516B2 (en) 2022-03-04 2024-01-09 Humane, Inc. Hand-specific laser projected virtual interfaces and operations
JP2023136237A (ja) * 2022-03-16 2023-09-29 株式会社リコー ウエアラブル機器、作業支援装置、情報処理システム、及び作業支援システム
JP2023136239A (ja) * 2022-03-16 2023-09-29 株式会社リコー 情報処理装置、情報処理システム、支援システム、及び情報処理方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
JP2013083985A (ja) * 2012-11-20 2013-05-09 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2014132478A (ja) * 2014-02-18 2014-07-17 Oki Electric Ind Co Ltd 表示制御装置、表示制御方法及びプログラム
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2017120329A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム
JP2018028922A (ja) * 2011-09-19 2018-02-22 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース
JP2018180840A (ja) * 2017-04-11 2018-11-15 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
JP2019032495A (ja) * 2017-08-10 2019-02-28 キヤノン株式会社 画像投射装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8195006B2 (en) * 2004-08-30 2012-06-05 Bauhaus-Universitaet Weimar Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US9760123B2 (en) * 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
JP6040564B2 (ja) * 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
CN105027030B (zh) * 2012-11-01 2018-10-23 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
WO2014101955A1 (en) * 2012-12-28 2014-07-03 Metaio Gmbh Method of and system for projecting digital information on a real object in a real environment
CN204048340U (zh) * 2014-04-28 2014-12-31 京东方科技集团股份有限公司 穿戴式投影设备
AU2015292789A1 (en) * 2014-07-21 2017-03-16 Beam Authentic, Inc. Wearable display devices
US10176642B2 (en) * 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10295972B2 (en) * 2016-04-29 2019-05-21 Brain Corporation Systems and methods to operate controllable devices with gestures and/or noises
KR20200040212A (ko) * 2017-05-10 2020-04-17 휴메인, 인코포레이티드 웨어러블 멀티미디어 디바이스 및 애플리케이션 에코 시스템을 갖는 클라우드 컴퓨팅 플랫폼

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
JP2018028922A (ja) * 2011-09-19 2018-02-22 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース
JP2013083985A (ja) * 2012-11-20 2013-05-09 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP2014132478A (ja) * 2014-02-18 2014-07-17 Oki Electric Ind Co Ltd 表示制御装置、表示制御方法及びプログラム
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2017120329A (ja) * 2015-12-28 2017-07-06 株式会社ブリリアントサービス 調理用ヘッドマウントディスプレイおよび調理用ヘッドマウントディスプレイのプログラム
JP2018180840A (ja) * 2017-04-11 2018-11-15 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
JP2019032495A (ja) * 2017-08-10 2019-02-28 キヤノン株式会社 画像投射装置

Also Published As

Publication number Publication date
EP3987357A4 (en) 2023-07-05
JP2024050736A (ja) 2024-04-10
CN114270257A (zh) 2022-04-01
EP3987357A1 (en) 2022-04-27
JP7508492B2 (ja) 2024-07-01
GB2600052A (en) 2022-04-20
CA3144363A1 (en) 2020-12-24
WO2020257506A1 (en) 2020-12-24
US20210117680A1 (en) 2021-04-22
KR20220031896A (ko) 2022-03-14

Similar Documents

Publication Publication Date Title
JP7508492B2 (ja) ウェアラブルマルチメディアデバイスおよびレーザ投影システムを伴うクラウドコンピューティングプラットフォーム
US20230239567A1 (en) Wearable Multimedia Device and Cloud Computing Platform with Application Ecosystem
US20240126363A1 (en) Hand-specific laser projected virtual interfaces and operations
US20220400235A1 (en) Dynamic Optical Projection With Wearable Multimedia Devices
US20230280867A1 (en) Laser projection on fingernail
US11954289B2 (en) Laser projected virtual interface
US11917286B2 (en) Displaying images using wearable multimedia devices
US11949808B2 (en) Context-sensitive home screens for use with wearable multimedia devices
US11847256B2 (en) Presenting and aligning laser projected virtual interfaces
US11924541B2 (en) Automatic camera exposures for use with wearable multimedia devices
US11899911B2 (en) Message composition interfaces for use with wearable multimedia devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240619

R150 Certificate of patent or registration of utility model

Ref document number: 7508492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150