JP2020520206A - アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム - Google Patents

アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム Download PDF

Info

Publication number
JP2020520206A
JP2020520206A JP2020512774A JP2020512774A JP2020520206A JP 2020520206 A JP2020520206 A JP 2020520206A JP 2020512774 A JP2020512774 A JP 2020512774A JP 2020512774 A JP2020512774 A JP 2020512774A JP 2020520206 A JP2020520206 A JP 2020520206A
Authority
JP
Japan
Prior art keywords
data
multimedia device
wearable multimedia
video
applications
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020512774A
Other languages
English (en)
Other versions
JP7379326B2 (ja
Inventor
イムラン・エー・チャウドリ
ベサニー・ボンジョルノ
シャザド・チャウドリ
Original Assignee
ヒューメイン・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒューメイン・エルエルシー filed Critical ヒューメイン・エルエルシー
Publication of JP2020520206A publication Critical patent/JP2020520206A/ja
Priority to JP2023186584A priority Critical patent/JP2024028693A/ja
Application granted granted Critical
Publication of JP7379326B2 publication Critical patent/JP7379326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • G06Q20/123Shopping for digital content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/322Aspects of commerce using mobile devices [M-devices]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/322Aspects of commerce using mobile devices [M-devices]
    • G06Q20/3224Transactions dependent on location of M-devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/53Network services using third party service providers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/28Mobile studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Computational Linguistics (AREA)

Abstract

ウェアラブルマルチメディアデバイスによって捕捉されたマルチメディアデータを処理するためのアプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォームのためのシステム、方法、デバイス、及び非一時的なコンピュータ可読記憶媒体を開示する。一実施形態では、方法は、クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、ウェアラブルマルチメディアデバイスが、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、データ処理パイプラインを通してコンテキストデータを処理することと、データ処理パイプラインの出力を、ウェアラブルマルチメディアデバイス又は出力を提示するための他のデバイスに送信することと、を含む。

Description

本開示は、概して、クラウドコンピューティング及びマルチメディア編集に関する。
最新のモバイルデバイス(例えば、スマートフォン、タブレットコンピュータ)は、多くの場合、ユーザが自発的出来事のデジタル画像又はビデオを撮ることを可能にする、埋め込み型カメラを含む。これらのデジタル画像及びビデオは、モバイルデバイスのメモリを解放するために、ユーザアカウントに関連付けられたオンラインデータベースに記憶され得る。ユーザは、それらの画像及びビデオを友人及び家族と共有し、彼らの様々なプレイバックデバイスを使用して、要求に応じて画像及びビデオをダウンロード又はストリームすることができる。これらの埋め込み型カメラは、より大きくて扱いにくく、多くの場合、ショットをセットアップするためにより多くの時間を必要とする従来のデジタルカメラと比べて、著しい利点を提供する。
カメラが埋め込まれたモバイルデバイスの利便性にもかかわらず、瞬間が発生するのが急すぎるため、これらのデバイスによって捕捉されないか、又はユーザがその瞬間に感情的に巻き込まれてしまうため、ユーザが単に画像やビデオを撮るのを忘れてしまう、多くの重要な瞬間がある。
ウェアラブルマルチメディアデバイスによって捕捉されたマルチメディアデータを処理するためのアプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォームのためのシステム、方法、デバイス、及び非一時的なコンピュータ可読記憶媒体を開示する。
一実施形態では、方法は、クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、ウェアラブルマルチメディアデバイスが、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、1つ以上のプロセッサによって、コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、1つ以上のプロセッサによって、データ処理パイプラインを通してコンテキストデータを処理することと、1つ以上のプロセッサによって、データ処理パイプラインの出力を、ウェアラブルマルチメディアデバイス又は出力を提示するための他のデバイスに送信することと、を含む。
一実施形態では、システムは、1つ以上のプロセッサと、命令を記憶するメモリと、を備え、命令は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、ウェアラブルマルチメディアデバイスが、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、1つ以上のプロセッサによって、コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、1つ以上のプロセッサによって、データ処理パイプラインを通してコンテキストデータを処理することと、1つ以上のプロセッサによって、データ処理パイプラインの出力を、ウェアラブルマルチメディアデバイス又は出力を提示するための他のデバイスに送信することと、を含む動作を実施させる。
一実施形態では、非一時的なコンピュータ可読記憶媒体は、クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、ウェアラブルマルチメディアデバイスが、コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、1つ以上のプロセッサによって、コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、1つ以上のプロセッサによって、データ処理パイプラインを通してコンテキストデータを処理することと、1つ以上のプロセッサによって、データ処理パイプラインの出力を、ウェアラブルマルチメディアデバイス又は出力を提示するための他のデバイスに送信することと、を行うための命令を含む。
本明細書に開示される特定の実施形態は、以下の利点のうちの1つ以上を提供する。ウェアラブルマルチメディアデバイスは、ユーザによる最小限のインタラクションを伴う自発的瞬間及び取引のマルチメディアデータを捕捉する。マルチメディアデータは、ユーザの好みに基づいて、クラウドコンピューティングプラットフォーム上で自動的に編集及びフォーマットされ、次いで、様々なユーザプレイバックデバイスで再生するためにユーザに対して利用可能にされる。一実施形態では、データ編集及び/又は処理は、プロプライエタリであり、かつ/又は第三者開発者から提供/許諾されているアプリケーションのエコシステムによって実施される。アプリケーションエコシステムは、第三者開発者が当該開発者のアプリケーションをアップロード、検証、及び更新することを可能にする様々なアクセスポイント(例えば、ウェブサイト、ポータル、API)を提供する。クラウドコンピューティングプラットフォームは、エコシステムアプリケーション、ユーザの好み、並びに他の情報(例えば、データのタイプ若しくはフォーマット、データの量及び品質)のうちの1つ以上を使用して、各マルチメディアデータストリームのためのカスタム処理パイプラインを自動的に構築する。
開示される実施形態の詳細を、添付の図面及び以下の説明に記載する。他の特徴、目的、及び利点は、説明、図面、及び特許請求の範囲から明らかである。
一実施形態に係る、ウェアラブルマルチメディアデバイスによって捕捉されたマルチメディアデータを処理するためのアプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォームのための動作環境のブロック図である。 一実施形態に係る、図1のクラウドコンピューティングプラットフォームによって実装されるデータ処理システムのブロック図である。 一実施形態に係る、コンテキストデータストリームを処理するためのデータ処理パイプラインのブロック図である。 一実施形態に係る、輸送アプリケーションのコンテキストデータストリームを処理するための別のデータ処理のブロック図である。 一実施形態に係る、図2のデータ処理システムによって使用されるデータオブジェクトを例示する。 一実施形態に係る、データパイプライン処理のフロー図である。 一実施形態に係る、クラウドコンピューティングプラットフォームのアーキテクチャである。 一実施形態に係る、ウェアラブルマルチメディアデバイスのアーキテクチャである。
様々な図面において使用される同じ参照記号は、同様の要素を指標する。
概要
ウェアラブルマルチメディアデバイスは、張力留め金、インターロックピンバック、磁石、又は任意の他の取り付け機構を使用して、ユーザの衣類又はオブジェクトに取り付けることができる、軽量で小さなフォームファクタのバッテリ式電動デバイスである。ウェアラブルマルチメディアデバイスは、ユーザが、最小限のユーザインタラクション又はデバイスセットアップで、生活の出来事(「瞬間」)のマルチメディアデータ(例えば、ビデオ、オーディオ、深度データ)及び文書取引(例えば、金融取引)を自発的に捕捉することを可能にする、デジタル画像捕捉デバイス(例えば、光学画像安定装置(optical image stabilizer、OIS)を備える180°FOV)を含む。無線マルチメディアデバイスによって捕捉されたマルチメディアデータ(「コンテキストデータ」)は、コンテキストデータを、1つ以上のアプリケーション(例えば、人工知能(Artificial Intelligence、AI)アプリケーション)によって、ウェアラブルマルチメディアデバイス及び/又は任意の他のプレイバックデバイスでダウンロード及び再生することができる任意の所望の提示フォーマット(例えば、単一画像、画像ストリーム、ビデオクリップ、オーディオクリップ、マルチメディア提示、画像ギャラリ)に処理、編集、及びフォーマットすることができるアプリケーションエコシステムを備えるクラウドコンピューティングプラットフォームにアップロードされる。例えば、クラウドコンピューティングプラットフォームは、ビデオデータ及びオーディオデータを、ユーザによって指定された任意の所望の映画製作様式(例えば、ドキュメンタリー、ライフスタイル、キャンディッド、フォトジャーナリズム、スポーツ、ストリート)に変形させ得る。
一実施形態では、コンテキストデータは、ユーザの好みに基づいて、クラウドコンピューティングプラットフォームのサーバコンピュータ(複数可)によって処理される。例えば、ユーザの好みに基づいて、ユーザが追体験することを望む瞬間に対して、画像を完全に色等級付けし、安定化させ、及びトリミングすることができる。ユーザの好みを、ウェブサイト又はポータルを通じてアクセス可能なオンラインアカウントを介してユーザによって作成されたユーザプロファイルに記憶することができるか、又はユーザの好みを、(例えば、機械学習を使用して)経時的にプラットフォームによって学習することができる。一実施形態では、クラウドコンピューティングプラットフォームは、拡張可能な分散コンピューティング環境である。例えば、クラウドコンピューティングプラットフォームは、データストリームに変形させるか、又はそれに反応する、リアルタイムストリーミングデータパイプライン及びストリーミングアプリケーションを備える、分散ストリーミングプラットフォーム(例えば、Apache Kafka(商標))であり得る。
一実施形態では、ユーザは、コマンド又は任意の他の入力機構を発語することによって、ウェアラブルマルチメディアデバイスでのコンテキストデータ捕捉セッションを、単純なタッチジェスチャ(例えば、タップ又はスワイプ)で、開始及び停止することができる。ウェアラブルマルチメディアデバイスの全て又は一部は、1つ以上のセンサ(例えば、近接センサ、光センサ、加速度計、ジャイロスコープ)を使用して、当該デバイスがユーザによって着用されていないことを検出すると、自動的に電力を落とすことができる。一実施形態では、デバイスは、バッテリ寿命及び誘導充電回路構成(例えば、Qi)を持続させて、充電マット及び無線オーバージエア(over-the-air、OTA)充電に対する誘導充電を可能にするための光起電表面技術を含み得る。
コンテキストデータは、暗号化及び圧縮され、任意の所望の暗号化又は圧縮技術を使用して、ユーザアカウントに関連付けられたオンラインデータベースに記憶され得る。コンテキストデータは、ユーザによって設定することができる、指定された期間にわたって記憶され得る。ユーザは、ウェブサイト、ポータル、又はモバイルアプリケーションを介して、オプトイン機構と、それらのデータ及びデータプライバシーを管理するための他のツールとを備えることができる。
一実施形態では、コンテキストデータは、例えば、アプリケーションエコシステム内の拡張現実(augmented reality、AR)及び仮想現実(virtual reality、VR)アプリケーションを使用して処理することができる、三次元(three-dimensional、3D)表面のマップされたオブジェクトを提供するためのポイントクラウドデータを含む。ポイントクラウドデータは、ウェアラブルマルチメディアデバイスに埋め込まれた深度センサ(例えば、LiDAR又は飛行時間(Time of Flight、TOF))によって生成され得る。
一実施形態では、ウェアラブルマルチメディアデバイスは、コンテキストデータが捕捉されたときに、デバイスを着用しているユーザの位置及び向きを判定するための、全地球航法衛星システム(Global Navigation Satellite System、GNSS)受信機(例えば、全地球測位システム(Global Positioning System、GPS))、及び1つ以上の慣性センサ(例えば、加速度計、ジャイロスコープ)を含む。一実施形態では、コンテキストデータ内の1つ以上の画像を、アプリケーションエコシステム内の、視覚オドメトリアプリケーションなどの位置特定アプリケーションによって使用して、ユーザの位置及び向きを判定することができる。
一実施形態では、ウェアラブルマルチメディアデバイスはまた、周囲光センサ、磁力計、圧力センサ、音声活動検出器などを含むが、これらに限定されない、1つ以上の環境センサを含み得る。このセンサデータをコンテキストデータに含めて、瞬間を捕捉するために使用することができる追加情報を含むコンテンツ提示を強化することができる。
一実施形態では、ウェアラブルマルチメディアデバイスは、心拍センサ、指紋スキャナなどの1つ以上の生物測定センサを含み得る。このセンサデータをコンテキストデータに含めて、取引を文書化するか、又は瞬間の間のユーザの感情的状態を指標することができる(例えば、心拍数の上昇は、興奮又は恐怖を指標し得る)。
一実施形態では、ウェアラブルマルチメディアデバイスは、音声コマンドを受信し、周囲オーディオを捕捉するための、ヘッドセット又はイヤフォン、及び1つ以上のマイクロフォンを接続するヘッドフォンジャックを含む。代替的な実施形態では、ウェアラブルマルチメディアデバイスは、Bluetooth(登録商標)、IEEE802.15.4(ZigBee(商標))、及び近距離無線通信(near field communication、NFC)を含むが、これらに限定されない、狭域通信技術を含む。狭域通信技術は、ヘッドフォンジャックに加えて、又はその代わりに、無線ヘッドセット若しくはイヤフォンに無線接続するために使用されてもよく、かつ/又は任意の他の外部デバイス(例えば、コンピュータ、プリンタ、レーザプロジェクタ、テレビ、及び他のウェアラブルデバイス)に無線接続することができる。
一実施形態では、ウェアラブルマルチメディアデバイスは、無線送受信機と、WiFi、3G、4G、及び5G通信技術を含む様々な通信技術のための通信プロトコルスタックと、を含む。一実施形態では、ヘッドセット又はイヤフォンはまた、ヘッドジェスチャを用いてコマンドを提供するために、ユーザが向いている方向に関する情報を提供するセンサ(例えば、生物測定センサ、慣性センサ)を含む。一実施形態では、カメラ視野がユーザの視野方向を追従するように、カメラ方向をヘッドジェスチャによって制御することができる。一実施形態では、ウェアラブルマルチメディアデバイスは、ユーザの眼鏡に埋め込まれ得るか、又はそれに取り付けられ得る。
一実施形態では、ウェアラブルマルチメディアデバイスは、ユーザが壁又はテーブル面などの表面上で瞬間を再生することを可能にするレーザプロジェクタを含む(又は、外部レーザプロジェクタに有線若しくは無線で結合され得る)。別の実施形態では、ウェアラブルマルチメディアデバイスは、レーザプロジェクタ又は他の出力デバイスに接続し得る出力ポートを含む。
一実施形態では、ウェアラブルマルチメディア捕捉デバイスは、タッチジェスチャ(例えば、タップ、マルチタップ、又はスワイプジェスチャ)に応答するタッチ面を含む。ウェアラブルマルチメディアデバイスは、情報を提示するための小さいディスプレイと、オン/オフのステータス、電力状態、又は任意の他の所望のステータスを指標するための1つ以上の光インジケータと、を含み得る。
一実施形態では、クラウドコンピューティングプラットフォームは、ユーザが自身の環境内のオブジェクトを指し、「その建物は何ですか?」と言うなどの発話クエリと組み合わせて、コンテキストベースのジェスチャ(例えば、エアジェスチャ)によって駆動され得る。クラウドコンピューティングプラットフォームは、エアジェスチャを使用して、カメラの視野ポートの範囲を狭め、建物を隔離する。建物の1つ以上の画像が捕捉され、クラウドコンピューティングプラットフォームに送信され、ここで、画像認識アプリケーションは、画像クエリを作動し、その結果を記憶するか、又はそれをユーザに返却することができる。エアジェスチャ及びタッチジェスチャを、例えば、ユーザインターフェース要素に応答する、投影された一過性のディスプレイ上で実施することもできる。
一実施形態では、コンテキストデータをデバイス及びクラウドコンピューティングプラットフォーム上で暗号化することができ、その結果、ユーザ又は任意の認可された視認者のみが、接続されたスクリーン(例えば、スマートフォン、コンピュータ、テレビなど)上で、又は表面上へのレーザ投影として、瞬間を追体験することができる。図8を参照して、ウェアラブルマルチメディアデバイスのための例示的なアーキテクチャを説明する。
個人的な生活の出来事に加えて、ウェアラブルマルチメディアデバイスは、スマートフォンによって現在扱われている金融取引の捕捉を単純化する。日々の取引(例えば、ビジネス取引、マイクロ取引)の捕捉は、ウェアラブルマルチメディアデバイスによって提供される視力支援型コンテキストアウェアネスを使用することによって、より単純で、より速く、より流動的に行われる。例えば、ユーザが金融取引(例えば、購入を行うこと)に従事しているとき、ウェアラブルマルチメディアデバイスは、日付、時間、量、当事者のデジタル画像若しくはビデオ、オーディオ(例えば、取引を説明するユーザ解説)、及び環境データ(例えば、位置データ)を含む、金融取引をメモリアライズするデータを生成するであろう。データは、クラウドコンピューティングプラットフォームに送信されたマルチメディアデータストリームに含まれてもよく、ここで、そのデータをオンラインで記憶し、かつ/又は1つ以上の金融アプリケーション(例えば、金融管理、会計、予算、納税、在庫など)によって処理することができる。
一実施形態では、クラウドコンピューティングプラットフォームは、グラフィカルユーザインターフェースをウェブサイト又はポータル上に提供し、これにより、様々な第三者アプリケーション開発者が、アプリケーションエコシステム内で開発者自身のアプリケーションをアップロード、更新、及び管理することを可能にする。いくつかの例示的なアプリケーションとしては、個人的な生放送(例えば、Instagram(商標)Life、Snapchat(商標))、高齢者監視(例えば、最愛の人が薬剤をとったことを確実にするため)、メモリ呼び出し(例えば、先週の子供のサッカーの試合を見せること)、及び個人的なガイド(例えば、ユーザの位置を認知し、措置を実施するようにユーザをガイドする、AI対応型の個人的なガイド)を挙げることができるが、これらに限定されない。
一実施形態では、ウェアラブルマルチメディアデバイスは、1つ以上のマイクロフォン及びヘッドセットを含む。いくつかの実施形態では、ヘッドセットワイヤは、マイクロフォンを含む。一実施形態では、デジタルアシスタントがウェアラブルマルチメディアデバイスに実装され、これは、ユーザのクエリ、要求、及びコマンドに応答する。例えば、親が着用したウェアラブルマルチメディアデバイスは、子供のサッカーの試合の瞬間のコンテキストデータ、特に、子供がゴールを決めた「瞬間」を捕捉する。ユーザは、プラットフォームがゴールのビデオクリップを作成し、それをユーザ自身のユーザアカウントに記憶することを(例えば、発話コマンドを使用して)要求することができる。ユーザによる任意の更なる措置なしに、クラウドコンピューティングプラットフォームは、ゴールが決められたときに、瞬間のコンテキストデータの正しい部分を(例えば、顔認識、視覚的合図、又は可聴合図を使用して)識別し、瞬間のコンテキストデータをビデオクリップに編集し、そのビデオクリップをユーザアカウントに関連付けられたデータベースに記憶する。
例示的な動作環境
図1は、一実施形態に係る、ウェアラブルマルチメディアデバイスによって捕捉されたマルチメディアデータを処理するためのアプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォームのための動作環境のブロック図である。動作環境100は、ウェアラブルマルチメディアデバイス101、クラウドコンピューティングプラットフォーム102、ネットワーク103、アプリケーション(「アプリ」)開発者104、及び第三者プラットフォーム105を含む。クラウドコンピューティングプラットフォーム102は、ウェアラブルマルチメディアデバイス101によってアップロードされたコンテキストデータを記憶するための1つ以上のデータベース106に結合される。
前述のように、ウェアラブルマルチメディアデバイス101は、張力留め金、インターロックピンバック、磁石、又は任意の他の取り付け機構を使用して、ユーザの衣類又はオブジェクトに取り付けることができる、軽量で小さなフォームファクタのバッテリ式電動デバイスである。ウェアラブルマルチメディアデバイス101は、ユーザが、最小限のユーザインタラクション又はデバイスセットアップで、「瞬間」のマルチメディアデータ(例えば、ビデオ、オーディオ、深度データ)を自発的に捕捉し、日々の取引(例えば、金融取引)を文書化することを可能にする、デジタル画像捕捉デバイス(例えば、OISを備える180°FOV)を含む。無線マルチメディアデバイス101によって捕捉されたコンテキストデータは、クラウドコンピューティングプラットフォーム102にアップロードされる。クラウドコンピューティングプラットフォーム101は、コンテキストデータを、1つ以上のサーバ側のアプリケーションによって、ウェアラブルマルチメディアデバイス及び/又は他のプレイバックデバイスでダウンロード及び再生することができる任意の所望の提示フォーマット(例えば、単一画像、画像ストリーム、ビデオクリップ、オーディオクリップ、マルチメディア提示、画像ギャラリ)に処理、編集、及びフォーマットすることができるアプリケーションエコシステムを含む。
一例として、子供の誕生日会において、親は、カメラレンズが親自身の視認方向に向くように、ウェアラブルマルチメディアデバイスを親自身の衣類にクリップ留めする(又は、デバイスをネックレス又はチェーンに取り付け、親自身の首の周りに着用する)ことができる。カメラは、ユーザが現在見ているほぼ全てをカメラが捕捉することを可能にする、180°FOVを含む。ユーザは、デバイスの表面を単にタップするか、又はボタンを押すことによって、記録を開始することができる。追加のセットアップは必要ない。誕生日の特別な瞬間(例えば、ロウソクを吹き消す瞬間)を捕捉するマルチメディアデータストリーム(例えば、オーディオを含むビデオ)が記録される。この「コンテキストデータ」は、無線ネットワーク(例えば、WiFi、セルラー)を介してリアルタイムでクラウドコンピューティングプラットフォーム102に送信される。一実施形態では、コンテキストデータは、それを後でアップロードすることができるように、ウェアラブルマルチメディアデバイスに記憶される。別の実施形態では、ユーザは、コンテキストデータを別のデバイス(例えば、パーソナルコンピュータハードドライブ、スマートフォン、タブレットコンピュータ、サムドライブ)に伝達し、後でアプリケーションを使用して、コンテキストデータをクラウドコンピューティングプラットフォーム102にアップロードすることができる。
一実施形態では、コンテキストデータは、クラウドコンピューティングプラットフォーム102によってホスト及び管理されるアプリケーションエコシステムの1つ以上のアプリケーションによって処理される。アプリケーションは、それらの個々のアプリケーションプログラミングインターフェース(application programming interface、API)を通じてアクセスされ得る。カスタム分散ストリーミングパイプラインは、データのタイプ、データの量、データの品質、ユーザの好み、テンプレート、及び/又は任意の他の情報のうちの1つ以上に基づいて、コンテキストデータを処理して、ユーザの好みに基づいて所望の提示を生成するように、クラウドコンピューティングプラットフォーム102によって作成される。一実施形態では、機械学習技術を使用して、ユーザの好みの有無にかかわらず、データ処理パイプライン内に含めるための好適なアプリケーションを自動的に選択することができる。例えば、データベース(例えば、NoSQLデータベース)に記憶された履歴ユーザコンテキストデータを使用して、任意の好適な機械学習技術(例えば、深層学習又は畳み込みニューラルネットワーク)を使用するデータ処理のためのユーザの好みを判定することができる。
一実施形態では、アプリケーションエコシステムは、コンテキストデータを処理する第三者プラットフォーム105を含み得る。セキュアなセッションは、コンテキストデータを送信/受信するように、クラウドコンピューティングプラットフォーム102と第三者プラットフォーム105との間にセットアップされる。この設計は、第三者アプリプロバイダが、プロバイダ自身のアプリケーションへのアクセスを制御し、更新を提供することを可能にする。他の実施形態では、アプリケーションはクラウドコンピューティングプラットフォーム102のサーバ上で作動され、更新はクラウドコンピューティングプラットフォーム102に送信される。後者の実施形態では、アプリ開発者104は、クラウドコンピューティングプラットフォーム102によって提供されるAPIを使用して、アプリケーションエコシステム内に含まれるアプリケーションをアップロード及び更新することができる。
例示的なデータ処理システム
図2は、一実施形態に係る、図1のクラウドコンピューティングプラットフォームによって実装されるデータ処理システムのブロック図である。データ処理システム200は、レコーダ201、ビデオバッファ202、オーディオバッファ203、写真バッファ204、吸収サーバ205、データストア206、ビデオプロセッサ207、オーディオプロセッサ208、写真プロセッサ209、及び第三者プロセッサ210を含む。
ウェアラブルマルチメディアデバイスで作動中のレコーダ201(例えば、ソフトウェアアプリケーション)は、カメラ及びオーディオサブシステムによって捕捉されたビデオ、オーディオ、及び写真データ(「コンテキストデータ」)を記録し、データをバッファ202、203、204にそれぞれ記憶する。次いで、このコンテキストデータは、クラウドコンピューティングプラットフォーム102の吸収サーバ205に(例えば、無線OTA技術を使用して)送信される。一実施形態では、データは、各々が一意のストリーム識別子(ストリームID)を有する別々のデータストリームで送信され得る。ストリームは、次の例示的な属性、位置(例えば、緯度、経度)、ユーザ、オーディオデータ、様々な持続時間のビデオストリーム、及びN個の写真、を包含し得る別個のデータ片である。ストリームは、1〜MAXSTREAM_LEN秒の持続時間を有することができ、この例では、MAXSTREAM_LEN=20秒である。
吸収サーバ205は、ストリームを吸収し、ストリームレコードをデータストア206に作成して、プロセッサ207〜209の結果を記憶する。一実施形態では、オーディオストリームを最初に処理し、それを使用して、必要とされる他のストリームを判定する。吸収サーバ205は、ストリームIDに基づいて、ストリームを適切なプロセッサ207〜209に送信する。例えば、ビデオストリームはビデオプロセッサ207に送信され、オーディオストリームはオーディオプロセッサ208に送信され、写真ストリームは写真プロセッサ209に送信される。一実施形態では、ウェアラブルマルチメディアデバイス(例えば、画像データ)から収集されたデータの少なくとも一部は、所与のアプリケーションによって更に処理され、ウェアラブルマルチメディアデバイス又は他のデバイスに送信し戻され得るように、メタデータに処理されて暗号化される。
プロセッサ207〜209は、前述のように、プロプライエタリなアプリケーション又は第三者アプリケーションを作動し得る。例えば、ビデオプロセッサ207は、ビデオバッファ202に記憶された生ビデオデータを、ユーザの好み又は他の情報に基づいて、1つ以上の画像処理/編集アプリケーション211、212のセットに送信する、ビデオ処理サーバであり得る。プロセッサ207は、要求をアプリケーション211、212に送信し、その結果を吸収サーバ205に返却する。一実施形態では、第三者プロセッサ210は、それ自体のプロセッサ及びアプリケーションを使用して、ストリームのうちの1つ以上を処理し得る。別の例では、オーディオプロセッサ208は、オーディオバッファ203に記憶された発話データを発話ツーテキスト変換器アプリケーション213に送信する、オーディオ処理サーバであり得る。
例示的な場面識別アプリケーション
図3は、一実施形態に係る、コンテキストデータストリームを処理するためのデータ処理パイプラインのブロック図である。この実施形態では、データ処理パイプライン300は、ユーザによって着用されたウェアラブルマルチメディアデバイスによって捕捉されたコンテキストデータに基づいて、ユーザが見ているものを判定するように作成及び構成される。吸収サーバ301は、ウェアラブルマルチメディアデバイスのオーディオバッファ203からオーディオストリーム(例えば、ユーザ解説を含む)を受信し、オーディオストリームをオーディオプロセッサ305に送信する。オーディオプロセッサ305は、オーディオストリームをアプリ306に送信し、アプリ306は、発話ツーテキスト変換を実施し、解析されたテキストをオーディオプロセッサ305に返却する。オーディオプロセッサ305は、解析されたテキストを吸収サーバ301に返却する。
ビデオプロセッサ302は、解析されたテキストを吸収サーバ301から受信し、要求をビデオ処理アプリ307に送信する。ビデオ処理アプリ307は、ビデオ場面内のオブジェクトを識別し、解析されたテキストを使用して、オブジェクトをラベル付けする。ビデオ処理アプリ307は、場面(例えば、ラベル付けされたオブジェクト)を説明する応答をビデオプロセッサ302に送信する。次いで、ビデオプロセッサは、応答を吸収サーバ301に転送する。吸収サーバ301は、応答をデータマージ処理308に送信し、データマージ処理308は、応答をユーザの位置、向き、及びマップデータとマージする。データマージ処理308は、場面説明を有する応答を、ウェアラブルマルチメディアデバイス上のレコーダ304に返却する。例えば、応答は、マップの位置及び場面内のオブジェクトの説明(例えば、場面内の人々を識別する)を含む、子供の誕生日会のような場面を説明するテキストを含み得る。レコーダ304は、場面説明を、ウェアラブルマルチメディアデバイスに記憶されたマルチメディアデータに(例えば、ストリームIDを使用して)関連付ける。ユーザがデータを呼び出すと、データは場面説明で強化される。
一実施形態では、データマージ処理308は、位置及びマップデータ以上のものを使用し得る。オントロジの概念も存在し得る。例えば、画像内に捕捉されたユーザの父の顔の特徴を、クラウドコンピューティングプラットフォームによって認識し、ユーザの名前ではなく「父」として返却することができ、「555 Main Street,San Francisco,CA」などの住所を「自宅」として返却することができる。オントロジは、ユーザに固有であり得、ユーザの入力から成長及び学習することができる。
例示的な輸送アプリケーション
図4は、一実施形態に係る、輸送アプリケーションのコンテキストデータストリームを処理するための別のデータ処理のブロック図である。本実施形態では、データ処理パイプライン400は、自宅への交通手段を得るために、輸送会社(例えば、Uber(登録商標)、Lyft(登録商標))を呼ぶように作成される。ウェアラブルマルチメディアデバイスからのコンテキストデータは、吸収サーバ401によって受信され、オーディオバッファ203からのオーディオストリームは、オーディオプロセッサ405に送信される。オーディオプロセッサ405は、オーディオストリームを、発話をテキストに変換するアプリ406に送信する。解析されたテキストは、解析されたテキストを吸収サーバ401に返却するオーディオプロセッサ405に返却される(例えば、輸送のためのユーザ発話要求)。処理されたテキストは、第三者プロセッサ402に送信される。第三者プロセッサ402は、ユーザ位置及びトークンを第三者アプリケーション407(例えば、Uber(登録商標)又はLyft(商標)(登録商標)アプリケーション)に送信する。一実施形態では、トークンは、ユーザの代わりに要求を仲介するために使用されるAPI及び認可トークンである。アプリケーション407は、応答データ構造を第三者プロセッサ402に返却し、これは、吸収サーバ401に転送される。吸収サーバ401は、応答データ構造内の交通手段到着ステータス(例えば、ETA)を確認し、ユーザコールバック待ち行列408内のユーザへのコールバックをセットアップする。吸収サーバ401は、車両説明を有する応答を、ウェアラブルマルチメディアデバイス上のラウドスピーカを通じて、又は有線若しくは無線接続を介してユーザのヘッドフォン若しくはイヤフォンを通じて、デジタルアシスタントによってユーザに対して発話することができるレコーダ404に返却する。
図5は、一実施形態に係る、図2のデータ処理システムによって使用されるデータオブジェクトを例示する。データオブジェクトは、クラウドコンピューティングプラットフォームでインスタンス化されたソフトウェア構成要素インフラストラクチャの一部である。「ストリーム」オブジェクトは、データのストリームID、デバイスID、開始、終了、緯度、経度、属性、及びエンティティを含む。「ストリームID」は、ストリーム(例えば、ビデオ、オーディオ、写真)を識別し、「デバイスID」は、ウェアラブルマルチメディアデバイス(例えば、モバイルデバイスID)を識別し、「開始」は、コンテキストデータストリームの開始時間であり、「終了」は、コンテキストデータストリームの終了時間であり、「緯度」は、ウェアラブルマルチメディアデバイスの緯度であり、「経度」は、ウェアラブルマルチメディアデバイスの経度であり、「属性」は、例えば、誕生日、顔の点、肌の色調、オーディオ特性、住所、電話番号などを含み、「エンティティ」は、オントロジを構成する。例えば、「John Do」という名前は、ユーザに応じて、「父」又は「兄弟」にマッピングされることになる。
「ユーザ」オブジェクトは、データのユーザID、デバイスID、電子メール、f名、及びl名を含む。ユーザIDは、一意の識別子を有するユーザを識別し、デバイスIDは、一意の識別子を有するウェアラブルデバイスを識別し、電子メールは、ユーザの登録された電子メールアドレスであり、f名は、ユーザの第1の名前であり、l名は、ユーザの姓である。「ユーザデバイス」オブジェクトは、データのユーザID及びデバイスIDを含む。「デバイス」オブジェクトは、データのデバイスID、開始、状態、修正、及び作成を含む。一実施形態では、デバイスIDは、デバイスの一意の識別子である(例えば、MACアドレスとは別個である)。開始は、デバイスが最初に開始されたときである。状態は、オン/オフ/スリープである。修正は、最後の状態の変化、又はオペレーティングシステム(operating system、OS)の変化を反映する最後の修正日である。作成は、デバイスをオンにした最初の時間である。
「処理結果」オブジェクトは、データのストリームID、ai、結果、コールバック、持続時間の精度を含む。一実施形態では、ストリームIDは、汎用一意識別子(Universally Unique Identifier、UUID)としての各ユーザストリームである。例えば、8:00AM〜10:00AMに開始されたストリームは、id:15h158dhb4を有し、10:15AM〜10:18AMに開始するストリームは、このストリームに接触したUUIDを有するであろう。AIは、このストリームに接触したプラットフォームアプリケーションの識別子である。結果は、プラットフォームアプリケーションから送信されたデータである。コールバックは、使用されたコールバックである(バージョンは変更することができ、したがって、プラットフォームが要求を再生する必要がある場合にはコールバックが追跡される)。精度は、結果セットがどのくらい正確であるかについてのスコアである。一実施形態では、処理結果は、1)マージサーバに結果の全セットを通知するため、2)ユーザ体験を強化することができるように最速のaiを判定するため、及び3)最も正確なaiを判定するためなど、多くの事項のために使用され得る。使用事例に応じて、精度よりも速度を優先するか、又はその逆の場合もある。
「エンティティ」オブジェクトは、データのエンティティID、ユーザID、エンティティ名、エンティティタイプ、及びエンティティ属性を含む。エンティティIDは、エンティティのUUIDであり、エンティティIDが1つのエンティティを参照する複数の入力を有するエンティティである。例えば、「Barack Obama」は、144のエンティティIDを有し得、これは、関連表においてPOTUS44又は「Barack Hussein Obama」若しくは「President Obama」にリンクされ得る。ユーザIDは、エンティティレコードが作成されたユーザを識別する。エンティティ名は、ユーザIDがエンティティを呼ぶ名前である。例えば、エンティティID144のMalia Obamaのエンティティ名は、「父」又は「お父さん」であり得る。エンティティタイプは、人、場所、又はものである。エンティティ属性は、そのエンティティのユーザIDの理解に特有のエンティティに関する属性の配列である。このマップは、例えば、Maliaが「父が見えますか?」という発話クエリを行うと、クラウドコンピューティングプラットフォームが、クエリをBarack Hussein Obamaに翻訳し、それを、第三者に要求を仲介する際、及びシステム内で情報を検索する際に使用することができるように、エンティティを一緒にマッピングする。
例示的な処理
図6は、一実施形態に係る、データパイプライン処理のフロー図である。処理600は、図1〜図5を参照して説明される、ウェアラブルマルチメディアデバイス101及びクラウドコンピューティングプラットフォーム102を使用して実装され得る。
処理600は、ウェアラブルマルチメディアデバイス(601)からコンテキストデータを受信することによって開始し得る。例えば、コンテキストデータは、ウェアラブルマルチメディアデバイスのカメラ及びオーディオサブシステムによって捕捉されたビデオ、オーディオ、並びに静止画像を含み得る。
処理600は、コンテキストデータ及びユーザの要求/好みに基づいて、アプリケーションを含むデータ処理パイプラインを作成する(例えば、インスタンス化する)ことによって継続し得る(602)。例えば、ユーザの要求又は好みに基づいて、並びにまたデータのタイプ(例えば、オーディオ、ビデオ、写真)に基づいて、1つ以上のアプリケーションを論理的に接続して、データ処理パイプラインを形成し、コンテキストデータを、ウェアラブルマルチメディアデバイス又は別のデバイスでプレイバックされる提示に処理することができる。
処理600は、データ処理パイプライン内のコンテキストデータを処理することによって継続し得る(603)。例えば、瞬間又は取引中のユーザ解説からの発語をテキストに変換することができ、次いで、それを使用して、ビデオクリップ内のオブジェクトをラベル付けする。
処理600は、データ処理パイプラインの出力をウェアラブルマルチメディアデバイス及び/又は他のプレイバックデバイスに送信することによって継続し得る(604)。
例示的なクラウドコンピューティングプラットフォームアーキテクチャ
図7は、一実施形態に係る、図1〜図6を参照して説明されるクラウドコンピューティングプラットフォーム102の例示的なアーキテクチャ700である。より多いか又はより少ない構成要素を有するアーキテクチャを含む、他のアーキテクチャが可能である。いくつかの実施態様では、アーキテクチャ700は、1つ以上のプロセッサ(複数可)702(例えば、デュアルコアIntel(登録商標)Xeon(登録商標)プロセッサ)、1つ以上のネットワークインターフェース(複数可)706、1つ以上の記憶デバイス(複数可)704(例えば、ハードディスク、光ディスク、フラッシュメモリ)、及び1つ以上のコンピュータ可読媒体(複数可)708(例えば、ハードディスク、光ディスク、フラッシュメモリなど)を含む。これらの構成要素は、1つ以上の通信チャネル(複数可)710(例えば、バス)を介して通信及びデータを交換することができ、当該通信チャネルは、構成要素間のデータ及び制御信号の伝達を容易にするための様々なハードウェア及びソフトウェアを利用することができる。
「コンピュータ可読媒体」という用語は、不揮発性媒体(例えば、光学ディスク又は磁気ディスク)、揮発性媒体(例えば、メモリ)、及び伝送媒体を含むが、これらに限定されない、実行用にプロセッサ(複数可)702に命令を提供することに関与する任意の媒体を指す。伝送媒体としては、同軸ケーブル、銅ワイヤ、及び光ファイバが挙げられるが、これらに限定されない。
コンピュータ可読媒体(複数可)708は、オペレーティングシステム712(例えば、Mac OS(登録商標)サーバ、Windows(登録商標)NTサーバ、Linux(登録商標)サーバ)、ネットワーク通信モジュール714、インターフェース命令716、及びデータ処理命令718を更に含み得る。
オペレーティングシステム712は、マルチユーザ、マルチ処理、マルチタスキング、マルチスレッド、リアルタイムなどであり得る。オペレーティングシステム712は、デバイス702、704、706、及び708からの入力を認識し、これらのデバイスに出力を提供することと、コンピュータ可読媒体(複数可)708(例えば、メモリ又は記憶デバイス)のファイル及びディレクトリを追跡及び管理することと、周辺機器デバイスを制御することと、1つ以上の通信チャネル(複数可)710のトラフィックを管理することと、を含むが、これらに限定されない、基本タスクを実施する。ネットワーク通信モジュール714は、ネットワーク接続(例えば、TCP/IP、HTTPなどのような通信プロトコルを実装するためのソフトウェア)を確立及び維持するため、並びに、例えば、Apache Kafka(商標)を使用して、分散ストリーミングプラットフォームを作成するための、様々な構成要素を含む。データ処理命令716は、図1〜図6を参照して説明されるように、サーバ側動作を実装するためのサーバ側又はバックエンドソフトウェアを含む。インターフェース命令718は、図1を参照して説明されるように、ウェアラブルマルチメディアデバイス101、第三者アプリケーション開発者104、及び第三者プラットフォーム105とデータの送信及び受信を行うためのウェブサーバ及び/又はポータルを実装するためのソフトウェアを含む。
アーキテクチャ700は、各々が1つ以上の処理コアを有するローカルネットワーク又は分散ネットワーク内の1つ以上のサーバコンピュータを含む、任意のコンピュータデバイス内に含まれ得る。アーキテクチャ700は、並列処理若しくはピアツーピアインフラストラクチャ、又は1つ以上のプロセッサを備える単一のデバイスで実装され得る。ソフトウェアは、複数のソフトウェア構成要素を含み得るか、又は単一のコード本体であり得る。
例示的なウェアラブルマルチメディアデバイスアーキテクチャ
図8は、図1〜図6を参照して説明される、特徴及び処理を実装するウェアラブルマルチメディアデバイスのための例示的なアーキテクチャ800のブロック図である。アーキテクチャ800は、図1〜図6を参照して説明される、特徴及びプロセッサを実装するための任意のウェアラブルマルチメディアデバイス101内に実装され得る。アーキテクチャ800は、メモリインターフェース802、データプロセッサ(複数可)、画像プロセッサ(複数可)又は中央処理ユニット(複数可)804、及び周辺機器インターフェース806を含み得る。メモリインターフェース802、プロセッサ(複数可)804、又は周辺機器インターフェース806は、別々の構成要素であり得るか、又は1つ以上の集積回路内に統合され得る。1つ以上の通信バス又は信号線は、様々な構成要素を結合し得る。
センサ、デバイス、及びサブシステムを周辺機器インターフェース806に結合して、複数の機能を容易にすることができる。例えば、運動センサ(複数可)810、生物測定センサ(複数可)812、深度センサ814を周辺機器インターフェース806に結合して、運動、向き、生物測定、及び深度の検出機能を容易にすることができる。いくつかの実装例では、運動センサ(複数可)810(例えば、加速度計、レートジャイロスコープ)を利用して、ウェアラブルマルチメディアデバイスの動き及び向きを検出することができる。
環境センサ(複数可)(例えば、温度センサ、気圧計、周囲光)などの他のセンサを周辺機器インターフェース806に接続して、環境検知機能を容易にすることもできる。例えば、生物測定センサは、指紋、顔認識、心拍数、及び他のフィットネスパラメータを検出することができる。一実施形態では、触覚モータ(図示せず)を周辺機器インターフェースに結合することができ、これにより、触覚フィードバックとして振動パターンをユーザに提供することができる。
位置プロセッサ815(例えば、GNSS受信機チップ)を周辺機器インターフェース806に接続して、ジオ参照を提供することができる。電子磁力計816(例えば、集積回路チップ)を周辺機器インターフェース806に接続して、磁北方向を判定するために使用され得るデータを提供することもできる。したがって、電子磁力計816を、電子コンパスアプリケーションによって使用することができる。
カメラサブシステム820及び光学センサ822、例えば、電荷結合デバイス(charged coupled device、CCD)又は相補型金属酸化膜半導体(complementary metal-oxide semiconductor、CMOS)光学センサを利用して、写真及びビデオクリップを記録するなどのカメラ機能を容易にすることができる。一実施形態では、カメラは、180°FOV及びOISを有する。深度センサは、ドットを既知のパターンでオブジェクト/サブジェクトに投影する赤外線エミッタを含み得る。次いで、ドットを専用赤外線カメラによって撮影し、分析して、深度データを判定する。一実施形態では、飛行時間(TOF)カメラを使用して、既知の光の速度に基づいて距離を決定し、カメラと、画像の各点についてのオブジェクト/サブジェクトとの間の光信号の飛行時間を測定することができる。
通信機能を、1つ以上の通信サブシステム824を介して容易にすることができる。通信サブシステム(複数可)824は、1つ以上の無線通信サブシステムを含み得る。無線通信サブシステム824は、ラジオ周波数受信機及び伝送機、並びに/又は光(例えば、赤外線)受信機及び伝送機を含み得る。有線通信システムは、ポートデバイス、例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)ポート、又はいくつかの他の有線接続ポートの接続を含むことができ、これらを使用して、他の通信デバイス、ネットワークアクセスデバイス、パーソナルコンピュータ、プリンタ、ディスプレイスクリーン、又はデータを受信若しくは伝送することができる他の処理デバイス(例えば、レーザプロジェクタ)などの他のコンピューティングデバイスへの有線接続を確立することができる。
通信サブシステム824の具体的な設計及び実装例は、デバイスが動作することが意図されている、通信ネットワーク(複数可)又は媒体(複数可)に依存し得る。例えば、デバイスは、グローバルシステムフォーモバイルコミュニケーションズ(global system for mobile communications、GSM(登録商標、以下同じ))ネットワーク、GPRSネットワーク、拡張データGSM環境(enhanced data GSM environment、EDGE)ネットワーク、IEEE802.xx通信ネットワーク(例えば、WiFi、WiMax、ZigBee(商標))、3G、4G、4G LTE、符号分割多元接続(code division multiple access、CDMA)ネットワーク、近距離無線通(NFC)、Wi−Fiダイレクト、及びBluetooth(登録商標)ネットワークを介して動作するように設計された無線通信サブシステムを含み得る。無線通信サブシステム824は、デバイスが他の無線デバイスのための基地局として構成され得るように、ホスティングプロトコルを含み得る。別の例として、通信サブシステムは、デバイスが、例えば、TCP/IPプロトコル、HTTPプロトコル、UDPプロトコル、ICMPプロトコル、POPプロトコル、FTPプロトコル、IMAPプロトコル、DCOMプロトコル、DDEプロトコル、SOAPプロトコル、HTTPライブストリーミング、MPEG Dash、及び任意の他の既知の通信プロトコル又は技術など、1つ以上のプロトコル又は通信技術を使用して、ホストデバイスと同期することを可能にし得る。
オーディオサブシステム826をスピーカ828及び1つ以上のマイクロフォン830に結合して、音声認識、音声複製、デジタル記録、電話機能、及びビーム形成などの音声対応機能を容易にすることができる。
I/Oサブシステム840は、タッチコントローラ842及び/又は別の入力コントローラ(複数可)844を含み得る。タッチコントローラ842をタッチ面846に結合することができる。タッチ面846及びタッチコントローラ842は、例えば、容量性技術、抵抗性技術、赤外線技術、及び表面弾性波技術、並びにタッチ面846との1つ以上の接触点を判定するための他の近接センサ配列又は他の要素を含むが、これらに限定されない、いくつかのタッチ感度技術のいずれかを使用して、タッチ面846及びタッチコントローラ842の接触及び動き、又は故障を検出し得る。一実装例では、タッチ面846は、ユーザによる入力/出力デバイスとして使用され得る、仮想ボタン又はソフトボタンを表示し得る。
他の入力コントローラ(複数可)844は、1つ以上のボタン、ロッカスイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスなどのポインタデバイスなどの他の入力/制御デバイス848に結合され得る。1つ以上のボタン(図示せず)は、スピーカ828及び/又はマイクロフォン830の音量制御のためのアップ/ダウンボタンを含み得る。
いくつかの実装例では、デバイス800は、MP3、AAC、及びMPEGビデオファイルなどの、ユーザが記録したオーディオファイル及び/又はビデオファイルをプレイバックする。いくつかの実装例では、デバイス800は、MP3プレイヤの機能性を含み得、他のデバイスにテザリングするためのピンコネクタ又は他のポートを含み得る。他の入力/出力及び制御デバイスを使用することができる。一実施形態では、デバイス800は、直接通信リンク又は間接通信リンクを介してアクセサリデバイスにオーディオをストリーミングするためのオーディオ処理ユニットを含み得る。
メモリインターフェース802をメモリ850に結合することができる。メモリ850は、1つ以上の磁気ディスク記憶デバイス、1つ以上の光学記憶デバイス、又はフラッシュメモリ(例えば、NAND、NOR)などの、高速ランダムアクセスメモリ又は不揮発性メモリを含み得る。メモリ850は、Darwin、RTXC、LINUX(登録商標)、UNIX(登録商標)、OS X、iOS、WINDOWS(登録商標)、又はVxWorksのような埋め込み型オペレーティングシステムなどのオペレーティングシステム852を記憶し得る。オペレーティングシステム852は、基本システムサービスを扱うため、及びハードウェア依存タスクを実施するための命令を含み得る。いくつかの実装例では、オペレーティングシステム852は、カーネル(例えば、UNIX(登録商標)カーネル)を含み得る。
メモリ850はまた、図1〜図6を参照して説明されるように、無線アクセサリデバイスとのピアツーピア通信を含む、1つ以上の追加のデバイス、1つ以上のコンピュータ又はサーバとの通信を容易にするための通信命令854を記憶し得る。通信命令854はまた、デバイスの地理的位置に基づいて、デバイスによって使用するための動作モード又は通信媒体を選択するために使用され得る。
メモリ850は、図1〜図6を参照して説明されるように、センサ関連の処理及び機能を容易にするためのセンサ処理命令858と、記録機能を容易にするためのレコーダ命令860と、を含み得る。他の命令としては、GNSS及びナビゲーション関連処理を容易にするためのGNSS/ナビゲーション命令、カメラ関連処理を促進するためのカメラ命令、及びタッチ入力を解釈するためのタッチモデルを含むユーザインターフェース処理を容易にするためのユーザインターフェース命令を挙げることができる。
上で識別される命令及びアプリケーションの各々は、上に記載される1つ以上の機能を実施するための命令のセットに対応し得る。これらの命令は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はない。メモリ850は、追加の命令又はより少ない命令を含み得る。更に、デバイスの様々な機能は、1つ以上の信号処理及び/又は特定用途向け集積回路(application specific integrated circuit、ASIC)を含む、ハードウェア及び/又はソフトウェアに実装され得る。
記載される特徴は、デジタル電子回路構成、又はコンピュータハードウェア、ファームウェア、ソフトウェア、若しくはそれらの組み合わせで実装され得る。特徴は、プログラム可能なプロセッサによる実行のために、情報搬送機内、例えば、機械可読記憶デバイス内に有形的に具現化されたコンピュータプログラム製品で実装され得る。方法ステップは、入力データ上で動作し、出力を生成することによって、記載される実装例の機能を実施するための命令のプログラムを実行するプログラム可能なプロセッサによって実施され得る。
記載される特徴は、データ記憶システム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスからデータ及び命令を受信し、データ記憶システム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスにデータ及び命令を伝送するように結合された少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステムで実行可能な1つ以上のコンピュータプログラムにおいて有利に実装され得る。コンピュータプログラムは、ある特定の活動を実施するため、又はある特定の結果をもたらすために、コンピュータにおいて直接的又は間接的に使用され得る命令のセットである。コンピュータプログラムは、コンパイル又は解釈された言語を含む任意の形態のプログラミング言語(例えば、Objective−C、Java(登録商標))に書き込まれてもよいし、スタンドアロンプログラムとして、又はモジュール、構成要素、サブルーチン、若しくはコンピューティング環境での使用に好適な他のユニットとしてのものを含む、任意の形態で展開されてもよい。
命令のプログラムの実行に好適なプロセッサとしては、例えば、汎用マイクロプロセッサ及び専用マイクロプロセッサの両方、並びに任意の種類のコンピュータの単独のプロセッサ、又は複数のプロセッサ若しくはコアのうちの1つが挙げられる。概して、プロセッサは、リードオンリーメモリ若しくはランダムアクセスメモリ又はその両方から命令及びデータを受信するであろう。コンピュータの必須要素は、命令を実行するためのプロセッサ、並びに命令及びデータを記憶するための1つ以上のメモリである。概して、コンピュータは、データファイルを記憶するための大容量記憶デバイスと通信し得る。これらの大容量記憶デバイスは、内部ハードディスク及び取り外し可能なディスク、光磁気ディスク、並びに光学ディスクなどの、磁気ディスクを含み得る。コンピュータプログラム命令及びデータを有形的に具現化するのに好適な記憶デバイスとしては、例えば、EPROM、EEPROM、及びフラッシュメモリデバイスなどの半導体メモリデバイス、内部ハードディスク及び取り外し可能なディスクなどの磁気ディスク、光磁気ディスク、並びにCD−ROM及びDVD−ROMディスクを含む、全ての形態の不揮発性メモリが挙げられる。プロセッサ及びメモリは、ASIC(特定用途向け集積回路)によって補完され得るか、又はASIC内に組み込まれ得る。ユーザとのインタラクションを提供するために、特徴は、情報を作成者に表示するための、CRT(ブラウン管:cathode ray tube)、LED(発光ダイオード:light emitting diode)、又はLCD(液晶ディスプレイ:liquid crystal display)ディスプレイ又はモニタなどの表示デバイス、キーボード、並びに作成者が入力をコンピュータに提供し得るマウス又はトラックボールなどのポインティングデバイス、を有するコンピュータ上に実装され得る。
開示される実施形態の1つ以上の特徴又はステップは、アプリケーションプログラミングインターフェース(API)を使用して実装され得る。APIは、呼び出しアプリケーションと、データを提供するサービス又は動作若しくは計算を実施するサービスを提供する他のソフトウェアコード(例えば、オペレーティングシステム、ライブラリルーチン、機能)との間で渡される、1つ以上のパラメータを定義し得る。APIは、API仕様書で定義される呼び出し規約に基づいて、パラメータリスト又は他の構造を介して1つ以上のパラメータを送信又は受信する、プログラムコード内の1つ以上の呼び出しとして実装され得る。パラメータは、定数、キー、データ構造、オブジェクト、オブジェクトクラス、変数、データタイプ、ポインタ、配列、リスト、又は別の呼び出しであり得る。API呼び出し及びパラメータは、任意のプログラミング言語で実施され得る。プログラミング言語は、プログラマがAPIをサポートする機能にアクセスするために用いるであろう、語彙及び呼び出し規約を定義し得る。いくつかの実装例では、API呼び出しは、入力能力、出力能力、処理能力、電力能力、通信能力などのような、アプリケーションを作動するデバイスの能力をアプリケーションに報告し得る。
いくつかの実装例を記載してきた。それにもかかわらず、様々な修正が行われ得ることが理解されよう。1つ以上の実装例の要素は、更なる実装例を形成するために組み合わされても、削除されても、修正されても、補完されてもよい。更に別の実施例では、図に描写される論理フローは、所望の結果を達成するために、示される特定の順序、又は連続的な順序を必要としない。加えて、他のステップが提供されても、ステップが、記載されるフローから排除されてもよいし、他の構成要素が、記載されるシステムに追加されても、又はそこから除去されてもよい。したがって、他の実装例は、以下の特許請求の範囲の範囲内である。
100 動作環境
101 ウェアラブルマルチメディアデバイス
102 クラウドコンピューティングプラットフォーム
103 ネットワーク
104 アプリ開発者
105 第三者プラットフォーム
106 データベース
200 データ処理システム
201 レコーダ
202 ビデオバッファ
203 オーディオバッファ
204 写真バッファ
205 吸収サーバ
206 データストア
207 ビデオプロセッサ
208 オーディオプロセッサ
209 写真プロセッサ
210 第三者プロセッサ
211、212、213 アプリケーション
300 データ処理パイプライン
301 吸収サーバ
302 ビデオプロセッサ
304 レコーダ
305 オーディオプロセッサ
306 アプリ
307 ビデオ処理アプリ
308 データマージ処理
400 データ処理パイプライン
401 吸収サーバ
402 第三者プロセッサ
404 レコーダ
405 オーディオプロセッサ
406、407 アプリケーション
408 ユーザコールバック待ち行列
700 アーキテクチャ
702 プロセッサ(複数可)
704 記憶デバイス(複数可)
706 ネットワークインターフェース(複数可)
708 コンピュータ可読媒体(複数可)
710 通信チャネル(複数可)
712 オペレーティングシステム
714 ネットワーク通信モジュール
716 データ処理命令
718 インターフェース命令
800 デバイス
802 メモリインターフェース
804 プロセッサ(複数可)
806 周辺機器インターフェース
810 運動センサ(複数可)
812 生物測定センサ(複数可)
814 深度センサ
815 位置プロセッサ
816 電子磁力計
820 カメラサブシステム
822 光学センサ
824 無線通信サブシステム
826 オーディオサブシステム
828 スピーカ
830 マイクロフォン
840 サブシステム
842 タッチコントローラ
844 他の入力コントローラ(複数可)
846 タッチ面
846 タッチ面
848 制御デバイス
850 メモリ
852 オペレーティングシステム命令
854 通信命令
858 センサ処理命令
860 レコーダ命令

Claims (20)

  1. 方法であって、
    クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、前記ウェアラブルマルチメディアデバイスが、前記コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、
    前記1つ以上のプロセッサによって、前記コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、
    前記1つ以上のプロセッサによって、前記データ処理パイプラインを通して前記コンテキストデータを処理することと、
    前記1つ以上のプロセッサによって、前記データ処理パイプラインの出力を、前記ウェアラブルマルチメディアデバイス又は前記出力を提示するための他のデバイスに送信することと、を含む、方法。
  2. 前記コンテキストデータが、ビデオ及びオーディオを含み、前記処理が、
    前記オーディオが発話の形態でユーザ要求を含むと判定することと、
    前記発話をテキストに変換することと、
    前記テキストをビデオプロセッサに送信することと、
    前記テキストに少なくとも部分的に基づいて、前記ビデオ内のオブジェクトを識別することと、
    マップ位置を含む場面説明、及び前記場面内のオブジェクトの説明を生成することと、
    前記場面説明を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  3. 前記コンテキストデータが、ビデオ及びオーディオを含み、前記処理が、
    前記オーディオが発話の形態で前記ユーザ要求を含むと判定することと、
    前記発話をテキストに変換することと、
    前記テキストを輸送サービスプロセッサに送信することと、
    前記テキストに従って、データ構造を受信することと、
    輸送ステータスを確認するようにコールバックをセットアップすることと、
    前記輸送ステータス及び車両の説明を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  4. 前記コンテキストデータが、ビデオ及びポイントクラウドデータを含み、前記1つ以上のアプリケーションが、仮想現実(virtual reality、VR)又は拡張現実(augmented reality、AR)アプリケーションを含み、前記処理が、
    前記VR又はARアプリケーションによって、前記ビデオに基づいて、VR又はARコンテンツを生成することと、
    前記VR又はARコンテンツを前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  5. 前記1つ以上のアプリケーションが、人工知能アプリケーションを含み、前記処理が、
    前記人工知能アプリケーションによって、ユーザ要求の過去の履歴からユーザの好みを判定することと、
    前記1つ以上のアプリケーションによって、前記ユーザの好みに従って、前記コンテキストデータを処理することと、を更に含む、請求項1に記載の方法。
  6. 前記コンテキストデータが、1つ以上の画像を含み、前記1つ以上のアプリケーションが、位置特定アプリケーションを含み、前記処理が、
    前記位置特定アプリケーションによって、前記1つ以上の画像に基づいて、前記ウェアラブルマルチメディアデバイスの位置を判定することと、
    前記位置を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  7. 前記コンテキストデータが、金融取引の金融取引データ、生物測定データ、及び前記金融取引の位置を指標する位置データを含み、前記1つ以上のアプリケーションが、金融アプリケーションを含み、前記処理が、
    前記金融アプリケーションによって、前記金融取引データ、生物測定データ、及び位置データに基づいて、前記金融取引の金融記録を作成することと、
    前記金融記録を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  8. 前記コンテキストデータが、環境センサデータを含み、前記1つ以上のアプリケーションが、環境アプリケーションを含み、前記処理が、
    前記環境アプリケーションによって、環境センサデータに基づいて、前記ウェアラブルマルチメディアデバイスの動作環境に関連付けられたコンテンツを生成することと、
    前記コンテンツを前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  9. 前記コンテキストデータが、ビデオ及びオーディオを含み、前記1つ以上のアプリケーションが、ビデオ編集アプリケーションを含み、前記処理が、
    特定の映画様式に対するユーザ要求又はユーザの好みに従って、前記ビデオ及びオーディオを編集することと、
    前記編集されたビデオ及びオーディオを前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項1に記載の方法。
  10. システムであって、
    1つ以上のプロセッサと、
    命令を記憶するメモリであって、前記命令が、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、前記ウェアラブルマルチメディアデバイスが、前記コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、
    前記1つ以上のプロセッサによって、前記コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、
    前記1つ以上のプロセッサによって、前記データ処理パイプラインを通して前記コンテキストデータを処理することと、
    前記1つ以上のプロセッサによって、前記データ処理パイプラインの出力を、前記ウェアラブルマルチメディアデバイス又は前記出力を提示するための他のデバイスに送信することと、を含む動作を実施させる、システム。
  11. 前記コンテキストデータが、ビデオ及びオーディオを含み、前記処理が、
    前記オーディオが発話の形態でユーザ要求を含むと判定することと、
    前記発話をテキストに変換することと、
    前記テキストをビデオプロセッサに送信することと、
    前記テキストに少なくとも部分的に基づいて、前記ビデオ内のオブジェクトを識別することと、
    マップ位置を含む場面説明、及び前記場面内のオブジェクトの説明を生成することと、
    前記場面説明を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  12. 前記コンテキストデータが、ビデオ及びオーディオを含み、前記処理が、
    前記オーディオが発話の形態で前記ユーザ要求を含むと判定することと、
    前記発話をテキストに変換することと、
    前記テキストを輸送サービスプロセッサに送信することと、
    前記テキストに従って、データ構造を受信することと、
    輸送ステータスを確認するようにコールバックをセットアップすることと、
    前記輸送ステータス及び車両の説明を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  13. 前記コンテキストデータが、ビデオ及びポイントクラウドデータを含み、前記1つ以上のアプリケーションが、仮想現実(VR)又は拡張現実(AR)アプリケーションを含み、前記処理が、
    前記VR又はARアプリケーションによって、前記ビデオに基づいて、VR又はARコンテンツを生成することと、
    前記VR又はARコンテンツを前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  14. 前記1つ以上のアプリケーションが、人工知能アプリケーションを含み、前記処理が、
    前記人工知能アプリケーションによって、ユーザ要求の過去の履歴からユーザの好みを判定することと、
    前記1つ以上のアプリケーションによって、前記ユーザの好みに従って、前記コンテキストデータを処理することと、を更に含む、請求項10に記載のシステム。
  15. 前記コンテキストデータが、1つ以上の画像を含み、前記1つ以上のアプリケーションが、位置特定アプリケーションを含み、前記処理が、
    前記位置特定アプリケーションによって、前記1つ以上の画像に基づいて、前記ウェアラブルマルチメディアデバイスの位置を判定することと、
    前記位置を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  16. 前記コンテキストデータが、金融取引の金融取引データ、生物測定データ、及び前記金融取引の位置を指標する位置データを含み、前記1つ以上のアプリケーションが、金融アプリケーションを含み、前記処理が、
    前記金融アプリケーションによって、前記金融取引データ、生物測定データ、及び位置データに基づいて、前記金融取引の金融記録を作成することと、
    前記金融記録を前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  17. 前記コンテキストデータが、環境センサデータを含み、前記1つ以上のアプリケーションが、環境アプリケーションを含み、前記処理が、
    前記環境アプリケーションによって、環境センサデータに基づいて、前記ウェアラブルマルチメディアデバイスの動作環境に関連付けられたコンテンツを生成することと、
    前記コンテンツを前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  18. 前記クラウドコンピューティングプラットフォームが、分散ストリーミングプラットフォームである、請求項10に記載のシステム。
  19. 前記コンテキストデータが、ビデオ及びオーディオを含み、前記1つ以上のアプリケーションが、ビデオ編集アプリケーションを含み、前記処理が、
    特定の映画様式に対するユーザ要求又はユーザの好みに従って、前記ビデオ及びオーディオを編集することと、
    前記編集されたビデオ及びオーディオを前記ウェアラブルマルチメディアデバイス又は他のデバイスに送信することと、を更に含む、請求項10に記載のシステム。
  20. 非一時的なコンピュータ可読記憶媒体であって、そこに記憶された命令を有し、前記命令が、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    クラウドコンピューティングプラットフォームの1つ以上のプロセッサによって、ウェアラブルマルチメディアデバイスからのコンテキストデータを受信することであって、前記ウェアラブルマルチメディアデバイスが、前記コンテキストデータを捕捉するための少なくとも1つのデータ捕捉デバイスを含む、受信することと、
    前記1つ以上のプロセッサによって、前記コンテキストデータ及びユーザ要求の1つ以上の特性に基づいて、1つ以上のアプリケーションを含むデータ処理パイプラインを作成することと、
    前記1つ以上のプロセッサによって、前記データ処理パイプラインを通して前記コンテキストデータを処理することと、
    前記1つ以上のプロセッサによって、前記データ処理パイプラインの出力を、前記ウェアラブルマルチメディアデバイス又は前記出力を提示するための他のデバイスに送信することと、を含む動作を実施させる、非一時的なコンピュータ可読記憶媒体。
JP2020512774A 2017-05-10 2018-05-10 アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム Active JP7379326B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023186584A JP2024028693A (ja) 2017-05-10 2023-10-31 アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762504488P 2017-05-10 2017-05-10
US62/504,488 2017-05-10
PCT/US2018/032089 WO2018209105A2 (en) 2017-05-10 2018-05-10 Wearable multimedia device and cloud computing platform with application ecosystem

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023186584A Division JP2024028693A (ja) 2017-05-10 2023-10-31 アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム

Publications (2)

Publication Number Publication Date
JP2020520206A true JP2020520206A (ja) 2020-07-02
JP7379326B2 JP7379326B2 (ja) 2023-11-14

Family

ID=64096693

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020512774A Active JP7379326B2 (ja) 2017-05-10 2018-05-10 アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム
JP2023186584A Pending JP2024028693A (ja) 2017-05-10 2023-10-31 アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023186584A Pending JP2024028693A (ja) 2017-05-10 2023-10-31 アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム

Country Status (7)

Country Link
US (3) US10924651B2 (ja)
EP (1) EP3622703A4 (ja)
JP (2) JP7379326B2 (ja)
KR (2) KR20230148854A (ja)
CN (2) CN118055104A (ja)
CA (1) CA3063365A1 (ja)
WO (1) WO2018209105A2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210117680A1 (en) * 2017-05-10 2021-04-22 Humane, Inc. Wearable multimedia device and cloud computing platform with laser projection system
US11656922B2 (en) * 2018-01-29 2023-05-23 Microsoft Technology Licensing, Llc Personalized notification brokering
US10489639B2 (en) 2018-02-12 2019-11-26 Avodah Labs, Inc. Automated sign language translation and communication using multiple input and output modalities
US10304208B1 (en) * 2018-02-12 2019-05-28 Avodah Labs, Inc. Automated gesture identification using neural networks
US11715042B1 (en) 2018-04-20 2023-08-01 Meta Platforms Technologies, Llc Interpretability of deep reinforcement learning models in assistant systems
US11676220B2 (en) 2018-04-20 2023-06-13 Meta Platforms, Inc. Processing multimodal user input for assistant systems
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
US11010179B2 (en) 2018-04-20 2021-05-18 Facebook, Inc. Aggregating semantic information for improved understanding of users
US10949861B2 (en) * 2019-04-16 2021-03-16 Caastle, Inc. Systems and methods for deriving platform feedback data for dynamic retrieval by downstream subsystems
JP7487237B2 (ja) * 2019-06-18 2024-05-20 ヒューメイン・インコーポレイテッド 被服を通して装着式装置にワイヤレスで充電するための携帯バッテリパック
US11722013B1 (en) 2020-05-29 2023-08-08 Humane, Inc. Portable battery pack for wirelessly charging and communicating with portable electronic device through clothing
WO2022022668A1 (en) * 2020-07-31 2022-02-03 Pine Field Holding Incorporated Spatial and context aware software applications using digital enclosures bound to physical spaces
US11899840B2 (en) * 2021-03-23 2024-02-13 Lenovo (Singapore) Pte. Ltd. Haptic emulation of input device
KR20220153381A (ko) * 2021-05-11 2022-11-18 삼성전자주식회사 미디어 서비스를 제공하기 위한 방법 및 장치
US20230015697A1 (en) * 2021-07-13 2023-01-19 Citrix Systems, Inc. Application programming interface (api) authorization
CN113709506A (zh) * 2021-08-26 2021-11-26 北京百度网讯科技有限公司 基于云手机的多媒体播放方法、装置、介质及程序产品
CN114615431B (zh) * 2022-03-11 2023-09-19 联想(北京)有限公司 多媒体数据处理方法、装置、终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133588A (ja) * 2000-10-18 2002-05-10 Mitsubishi Heavy Ind Ltd タクシー配車運用システムおよび配車方法、ならびに配車用プログラムを記録した記録媒体
JP2009239466A (ja) * 2008-03-26 2009-10-15 Nec Corp 電話受付システム、電話受付方法、プログラム、及び記録媒体
JP2011239141A (ja) * 2010-05-10 2011-11-24 Sony Corp 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム
US20120245944A1 (en) * 2010-01-18 2012-09-27 Apple Inc. Intelligent Automated Assistant
US20160335506A1 (en) * 2014-04-10 2016-11-17 Smartvue Corporation Systems and Methods for Automated Cloud-Based Analytics and 3-Dimensional (3D) Display for Surveillance Systems
JP2017016056A (ja) * 2015-07-06 2017-01-19 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6842877B2 (en) 1998-12-18 2005-01-11 Tangis Corporation Contextual responses based on automated learning techniques
US9342829B2 (en) * 2002-10-01 2016-05-17 Andrew H B Zhou Systems and methods for mobile application, wearable application, transactional messaging, calling, digital multimedia capture and payment transactions
US20090238538A1 (en) 2008-03-20 2009-09-24 Fink Franklin E System and method for automated compilation and editing of personalized videos including archived historical content and personal content
US9760123B2 (en) * 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
US20120041675A1 (en) 2010-08-10 2012-02-16 Steven Juliver Method and System for Coordinating Transportation Service
US20150181272A1 (en) * 2011-08-26 2015-06-25 Google Inc. System and method for presenting a video stream
US9619852B2 (en) * 2012-04-17 2017-04-11 Zighra Inc. Context-dependent authentication system, method and device
JP6040564B2 (ja) 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
US20150237300A1 (en) * 2012-09-25 2015-08-20 Indika Charles Mendis On Demand Experience Sharing for Wearable Computing Devices
US20140281975A1 (en) * 2013-03-15 2014-09-18 Glen J. Anderson System for adaptive selection and presentation of context-based media in communications
US9955286B2 (en) * 2013-05-08 2018-04-24 Natalya Segal Smart wearable devices and system therefor
KR101865486B1 (ko) * 2013-10-25 2018-06-07 인텔 코포레이션 사용자 경험들을 캡처하고 생성하는 장치 및 방법들
US9794475B1 (en) * 2014-01-29 2017-10-17 Google Inc. Augmented video capture
WO2015127383A1 (en) * 2014-02-23 2015-08-27 Catch Motion Inc. Person wearable photo experience aggregator apparatuses, methods and systems
EP3174759A4 (en) * 2014-07-28 2018-05-02 Beam Authentic LLC Mountable display devices
WO2016018044A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of controlling the same
US20160189051A1 (en) * 2014-12-23 2016-06-30 Junayd Fahim Mahmood Method of conditionally prompting wearable sensor users for activity context in the presence of sensor anomalies
US10691476B2 (en) 2015-06-27 2020-06-23 Mcafee, Llc Protection of sensitive data
WO2017035384A1 (en) * 2015-08-25 2017-03-02 The Joan and Irwin Jacobs Technion-Cornell Innovation Institute Methods, systems, and apparatuses for accurate measurement and real-time feedback of solar ultraviolet exposure
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
CN105338117B (zh) * 2015-11-27 2018-05-29 亮风台(上海)信息科技有限公司 用于生成ar应用和呈现ar实例的方法、设备与系统
US20170206899A1 (en) * 2016-01-20 2017-07-20 Fitbit, Inc. Better communication channel for requests and responses having an intelligent agent
US10325407B2 (en) * 2016-09-15 2019-06-18 Microsoft Technology Licensing, Llc Attribute detection tools for mixed reality

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133588A (ja) * 2000-10-18 2002-05-10 Mitsubishi Heavy Ind Ltd タクシー配車運用システムおよび配車方法、ならびに配車用プログラムを記録した記録媒体
JP2009239466A (ja) * 2008-03-26 2009-10-15 Nec Corp 電話受付システム、電話受付方法、プログラム、及び記録媒体
US20120245944A1 (en) * 2010-01-18 2012-09-27 Apple Inc. Intelligent Automated Assistant
JP2011239141A (ja) * 2010-05-10 2011-11-24 Sony Corp 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム
US20160335506A1 (en) * 2014-04-10 2016-11-17 Smartvue Corporation Systems and Methods for Automated Cloud-Based Analytics and 3-Dimensional (3D) Display for Surveillance Systems
JP2017016056A (ja) * 2015-07-06 2017-01-19 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム

Also Published As

Publication number Publication date
EP3622703A2 (en) 2020-03-18
WO2018209105A2 (en) 2018-11-15
JP7379326B2 (ja) 2023-11-14
US10924651B2 (en) 2021-02-16
US20230239567A1 (en) 2023-07-27
CN111033444B (zh) 2024-03-05
CN118055104A (zh) 2024-05-17
EP3622703A4 (en) 2021-03-17
WO2018209105A3 (en) 2020-02-13
KR20230148854A (ko) 2023-10-25
CA3063365A1 (en) 2018-11-15
JP2024028693A (ja) 2024-03-05
KR20200040212A (ko) 2020-04-17
CN111033444A (zh) 2020-04-17
US20180332211A1 (en) 2018-11-15
US20220038615A1 (en) 2022-02-03

Similar Documents

Publication Publication Date Title
JP7379326B2 (ja) アプリケーションエコシステムを備える、ウェアラブルマルチメディアデバイス及びクラウドコンピューティングプラットフォーム
US20210117680A1 (en) Wearable multimedia device and cloud computing platform with laser projection system
US11868516B2 (en) Hand-specific laser projected virtual interfaces and operations
US11954289B2 (en) Laser projected virtual interface
US20230280867A1 (en) Laser projection on fingernail
US11847256B2 (en) Presenting and aligning laser projected virtual interfaces
US11895368B2 (en) Generating, storing, and presenting content based on a memory metric
US11936802B2 (en) Laser projected wayfinding interface
US11924541B2 (en) Automatic camera exposures for use with wearable multimedia devices
US11917286B2 (en) Displaying images using wearable multimedia devices
US11949808B2 (en) Context-sensitive home screens for use with wearable multimedia devices
EP4352956A1 (en) Dynamic optical projection with wearable multimedia devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R150 Certificate of patent or registration of utility model

Ref document number: 7379326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150