JP2017508229A - ジェスチャによって操作する手首装着型カメラシステム - Google Patents
ジェスチャによって操作する手首装着型カメラシステム Download PDFInfo
- Publication number
- JP2017508229A JP2017508229A JP2016572372A JP2016572372A JP2017508229A JP 2017508229 A JP2017508229 A JP 2017508229A JP 2016572372 A JP2016572372 A JP 2016572372A JP 2016572372 A JP2016572372 A JP 2016572372A JP 2017508229 A JP2017508229 A JP 2017508229A
- Authority
- JP
- Japan
- Prior art keywords
- user
- camera
- wristband
- sensor
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
Abstract
メディアをキャプチャするシステムおよび方法を開示する。第1の態様においては、本システムは、少なくとも1つのセンサを含むリストバンド型デバイスと、リストバンド型デバイスに結合されているカメラとを備えている。カメラは、少なくとも1つのセンサを使用して判定される少なくとも1つのジェスチャによって制御される。第1の態様においては、本方法は、少なくとも1つのセンサを含むリストバンド型デバイスを作製するステップと、リストバンド型デバイスにカメラを結合するステップと、少なくとも1つのセンサを使用して少なくとも1つのジェスチャを判定するステップと、少なくとも1つのジェスチャを使用することによってカメラを制御するステップと、を含む。【選択図】 図1
Description
本発明は、ウェアラブルデバイスに関し、より詳細には、ウェアラブルカメラシステムに関する。
瞬間を捉える写真撮影およびビデオ撮影において、タイミングおよびフレーミングは重要な要素である。瞬間を捉えるのにかかる時間をますます短縮することが望まれている。これまでのカメラの解決策では、写真を撮影するために必要な準備、または撮影の準備に必要な予備準備が多すぎる。さらに、これまでの解決策は、架台(mount)、光学式の従来のファインダ、シャッターボタンに依存する。これまでのカメラの解決策としては、従来のデジタル小型カメラ、デジタル一眼レフカメラ(DSLR)、搭載型カメラ(mounted camera)、スマートフォン、ウェアラブルコンピュータが挙げられる。
写真撮影およびビデオ撮影を通じて瞬間を捉えるのにかかる時間を効果的かつ効率的に短縮する解決策が強く求められている。
メディアをキャプチャするシステムおよび方法を開示する。第1の態様においては、本システムは、少なくとも1つのセンサを含むリストバンド型デバイスと、リストバンド型デバイスに結合されているカメラとを備えている。カメラは、少なくとも1つのセンサを使用して判定される少なくとも1つのジェスチャによって制御される。
第2の態様においては、本方法は、少なくとも1つのセンサを含むリストバンド型デバイスを作製するステップと、リストバンド型デバイスにカメラを結合するステップと、少なくとも1つのセンサを使用して少なくとも1つのジェスチャを判定するステップと、少なくとも1つのジェスチャを使用することによってカメラを制御するステップと、を含む。
添付の図面は、本発明のいくつかの実施形態を示しており、これらの図面は、説明文と合わせて、本発明の原理を説明する役割を果たす。この技術分野における通常の技能を有する者には、図に示した実施形態が例示的なものにすぎず、本発明の範囲を制限するようには意図されていないことが容易に認識されるであろう。
本発明は、ウェアラブルデバイスに関し、より詳細には、ウェアラブルカメラシステムに関する。以下の説明は、この技術分野における通常の技能を有する者が本発明を作製および使用できるようにする目的で提示されており、特許出願およびその必要書類の形で提供されている。当業者には、好ましい実施形態に対するさまざまな修正と、本明細書に記載されている一般的な原理および特徴が容易に理解されるであろう。したがって本発明は、示した実施形態に限定されるようには意図されておらず、本明細書に記載されている原理および特徴に矛盾しない最も広い範囲を包含するものとする。
従来のカメラの解決策としては、デジタル小型カメラ(例:DSLR)、搭載型カメラ、スマートフォン、メガネ型カメラが挙げられる。従来のカメラの解決策では、一般に、ショットをフレーミングするための3つの方法のうちの1つを使用する。第1の方法では、光学ファインダを利用し、その欠点として、ユーザの目を光学窓に極めて近づける必要があり、これは時間がかかり不便である(ただしこれに限定されない)。第2の方法では、デジタルビューファインダを利用し、その欠点として、デジタル画面が必要である、デジタル画面の大きさおよび重量によってその解決策の携帯性が制限される、画面を表示および更新するためのソフトウェアが必要でありソフトウェアの動作が遅いことがある、画面用の電力および追加のハードウェアが必要である、ユーザが自分の目で見ることのできる目の前の被写体のデジタル表現を見る必要のある不自然なインタフェースが提供される(ただしこれらに限定されない)。第3の方法では、ファインダを利用せず、したがってユーザは撮影する前にショットをフレーミングすることができない。
上のいずれの方法においても、ユーザはケースからカメラを取り出して、ファインダを覗き込む、または苦労してショットをフレーミングし、さらにはシャッターボタン/メカニズムの操作方法を調べて認識しておく必要がある。カメラは、一般にはユーザの手に収まるようなサイズおよび重さである。しかしながら、従来のカメラの解決策に共通する標準的なシャッターボタン/メカニズムの位置は存在せず、また、ケースからカメラを取り出してファインダを覗くのに時間がかかる。これらの課題は、瞬間を対象とするメディア(写真やビデオなど)を極めてすばやく捉えたいときに問題である。
本発明によるシステムおよび方法では、ジェスチャによって操作され、ユーザの手首に取り付けられる/装着されるウェアラブルカメラシステム(ウェアラブルカメラデバイス)を提供することによって、上述した課題に対処する。ジェスチャによって操作するウェアラブルカメラデバイスでは、従来のデジタルカメラに付随するサイズ、ケース、取り出し、および操作方法の知識の制約が排除される。本ウェアラブルカメラデバイスのユーザは、デバイスを取り出したりケースに入れる必要がなく(なぜならデバイスはユーザの手首にすでに装着されている)、シャッターボタンの操作方法を調べて認識しておく必要がなく、架台を保持または使用することによってデバイスを準備する必要もない。
さらに、ジェスチャによって操作するウェアラブルカメラデバイスでは、従来の搭載型カメラに付随する制約が排除される。ウェアラブルカメラデバイスのユーザは、追加の時間および労力と受け入れ部が必要であり可動範囲も限られる架台を使用する必要がなく、フレーミングの範囲をあらかじめ決めたり事前に搭載する技術を使用する必要もなく、さらにはフレーミングするのにデジタルビューファインダまたは光学ファインダに頼る必要もない。
これに加えて、ジェスチャによって操作するウェアラブルカメラデバイスでは、従来のスマートフォンのカメラに付随する制約および限られた可動範囲が排除される。ジェスチャによって操作するカメラシステムのユーザは、画像をキャプチャする前に(例えばパターンやパスコードを使用して)デバイスにアクセスする、またはデバイスをロック解除する必要がなく、画像をキャプチャするための特定の写真アプリケーションを利用する必要もなく、写真撮影用に最適化されていないデバイスを使用する必要もない。
さらに、ジェスチャによって操作するウェアラブルカメラデバイスでは、従来のメガネ型カメラに付随する制約が排除される。ジェスチャによって操作するウェアラブルカメラデバイスのユーザは、ユーザの目に固定されるレンズまたは何らかのタイプの特殊なアイウェアを利用する必要がなく、さまざまな動作によって視野が遮られることもなく、音声コマンドやウィンクなど直感的でないカメラトリガーも含まれない。
本発明によるシステムおよび方法は、ジェスチャ認識を利用することでユーザが高品質の写真/ビデオ/メディアをすばやく効果的に撮影することを可能にするウェアラブルカメラデバイスを提供する。写真もしくはビデオまたはその両方は、単純にユーザの手を使用することでさまざまな角度に写真を容易にフレーミングすることによって撮影され、ファインダの必要がなく、ユーザの手の手の掌または指がハードウェアに接触する必要もなく、ユーザのもう一方の自由な手を使用してシャッターボタンをトリガーする必要もない。一実施形態においては、本ウェアラブルカメラデバイスのユーザは、空いている手を持ち上げて、従来のカメラで写真を撮影しているかのようにこの手でジェスチャし、既知のフレーミングされた領域の中に写真(またはビデオ)をキャプチャする。本ウェアラブルカメラデバイスの利点として、準備、フレーミングしてメディア(写真/ビデオ)をキャプチャするのに要する時間が短縮される。
一実施形態においては、本ウェアラブルカメラデバイスは、リストバンド型デバイス(バンド要素)と、リストバンド型デバイスに結合されているカメラ(したがってユーザはカメラのタイプをアップグレードまたは交換することが可能である)、またはリストバンド型デバイス内に組み込まれているカメラ、とを備えている。リストバンド型デバイスは、複数の埋め込まれたセンサ、例えば、ユーザの動きおよびジェスチャを検出する微小電気機械システム(MEMS)デバイス、ジャイロスコープ、加速度計、圧力センサ、光センサ、生体測定センサ、電磁センサ、モーションセンサを含み(ただしこれらに限定されない)、さらに、リストバンド型デバイスは、検出されたジェスチャを解析および分類するプロセッサデバイス/ユニットを含む。
別の実施形態においては、本ウェアラブルカメラデバイスは、ユーザの指に接触する手袋状のデバイスと、手袋状のデバイスに結合されている取り付けられたカメラと、を備えている。このデバイスにおいては、ウェアラブルカメラデバイスはリストバンド型デバイス部分を含まず、センサならびにプロセッサおよびコンピューティング要素は、一般的な手袋のようにユーザによって着用される手袋状デバイス内に格納されている。
一実施形態においては、カメラはサイズが小さく軽量である。カメラはカメラレンズを含む。一実施形態においては、カメラレンズは、親指の爪のサイズ、ナノサイズ、ペン先端部のサイズ、スマートフォンに配置されている従来のカメラレンズのサイズ、その他の小さいサイズ、のいずれかである。別の実施形態においては、カメラレンズは、親指の爪のサイズよりも小さい。一実施形態においては、カメラはさまざまなタイプのレンズと交換可能であり、したがってユーザは本ウェアラブルカメラデバイスをアップグレードすることができる。一実施形態においては、リストバンド型デバイスは、カスタマイズできるように、さまざまな色や模様、宝飾品を選択することができる。
一実施形態においては、カメラレンズを有するカメラは、リストバンド型デバイスに結合されており、カメラレンズがユーザの手首の動きもしくは回転またはその両方に滑らかにかつ自動的かつ連続的に従うことができるような方法で、手首付近に配置されている。一実施形態においては、カメラレンズは、ユーザの手の外縁付近においてリストバンド型デバイスに柔軟に固定されている。これにより、手首が回転したとき、または手が動いたときに、カメラレンズが手首に合わせて動くことができる。
別の実施形態においては、カメラレンズは、リストバンド型デバイスの一部分に強固に固定されており、リストバンド型デバイス内に埋め込まれているMEMSデバイスおよびセンサによって検出される手首または手の動きに応えて生成される、リストバンド型デバイスからの電気信号によって、電気機械的に作動する。
リストバンド型デバイスは、筋肉の動き、腱の動き、骨の動き、手首の形状の変化、手の形状の変化、指の形状の変化、および/または生体電磁気学的な状態、ユーザのその他の動きおよび変化を、監視、フィルタリング/検出、分類、および処理することによって、センサ信号検出機能、特徴抽出機能、およびジェスチャ認識機能を動作させ、さまざまな技術に基づいて、腕、手首、手、および指のジェスチャを認識する。
一実施形態においては、リストバンド型デバイスは、ジェスチャを認識するための主たる入力として、手首の輪郭の生体測定技術および輪郭マップ作成メカニズムを利用する。別の実施形態においては、リストバンド型デバイスは、追加の入力およびセンサデータを検出する追加のセンサを利用して、ジェスチャを判定しジェスチャ認識を実行する。一実施形態においては、リストバンド型デバイス内に埋め込まれたシステム上で実行されるファームウェアが、ジェスチャを監視、フィルタリング、特徴抽出、分類、解釈し、認識されたジェスチャをカメラのファームウェアコマンドとしてカメラに送信して、カメラのファームウェア、ハードウェアコンポーネント、およびカメラの電気機械的機能を制御することができる。
特定の時点(N)において、リストバンド型デバイスを着用しているユーザの手、ユーザの指、およびユーザの手首は、すべて特定の方向を向いている。ユーザの手、手首、または指が動く、または位置が変化すると、筋肉/腱が収縮または弛緩し、さらにユーザの骨および皮膚も動く、または位置が変化する/移動する。これらの変化によって、手首の表面における肉体的な解剖学的変化につながる、または生体電磁気学的な変化を引き起こすことがあり、これらの変化を輪郭マップ作成メカニズムによって記録してカメラを制御する。
一実施形態においては、リストバンド型デバイスまたはバンドは、ユーザの手首を完全に一周するように既知の周期で所定の距離に互いに隔てられているセンサアレイを含む。別の実施形態においては、リストバンド型デバイスは、ユーザの手首を完全には一周せずに特定の位置または領域を対象とするセンサアレイを含む。センサアレイは、手首の表面までの距離を測定する、または、各センサの位置において手首によって加えられる圧力を測定する。次いで、アナログ−デジタルコンバータ(ADC)が、センサアレイによって検出されたセンサ信号を値の配列に変換する。リストバンド型デバイスによってユーザの手首から集められた値の配列は、時点Nにおけるユーザの手首、手、および指の状態を表している。
次いで、リストバンド型デバイスは、複数のフィルタ(例えばメジアンフィルタおよび無限インパルス応答(IIR)フィルタ、ただしこれらに限定されない)を使用して値の配列をフィルタリングすることでノイズおよびモーションアーチファクトを低減/除去し、既知の許容差基準(すなわち各センサ位置における距離または圧力の測定値の許容される±誤差)内の特定のしきい値を満たす特徴を抽出/認識する。リストバンド型デバイスによって信号がフィルタリングされて特徴が抽出されると、センサデータ分類を使用してそれらの特徴を分類する。
一実施形態においては、リストバンド型デバイスはセンサデータ分類ユニットを含み、センサデータ分類ユニットは、認識されているジェスチャ(例えば、ユーザの手首、手、および/または指の特定の配置)ごとの特徴集合を含む事前定義された分類器または所定の分類器を含む。一実施形態においては、事前定義された分類器および特徴集合は、十分に大きく多様なトレーニング母集団データから事前に集められた縮小されたトレーニングセットから、リストバンド型デバイスのファームウェアにあらかじめロードされる。
別の実施形態においては、事前定義された分類器および特徴集合は、本ウェアラブルカメラデバイスを使用しているユーザ全員に関連するデータを格納しているクラウドベースのデータベースから、リアルタイムで集められる。別の実施形態においては、事前定義された分類器および特徴集合は、本ウェアラブルカメラデバイスの現在の着用者/ユーザに基づいて所定の期間にわたりトレーニングされる。トレーニングとしては、機械学習手法、デバイスフィードバック、ユーザフィードバックが挙げられる(ただしこれらに限定されない)。
一連の抽出された特徴が、複数の認識されているジェスチャ(例えば、本ウェアラブルカメラデバイスのカメラを制御することに関連するユーザのジェスチャ)のうちの少なくとも1つの既知のジェスチャに一致するものとして、リストバンド型デバイスによって分類されると、リストバンド型デバイスのファームウェアは、リストバンド型デバイスによるアクション(例えば、警告や通知を解除する、データをクラウドストレージにアップロードするなど)を実行させるコマンド/コールバックを、リストバンド型デバイスのファームウェアに発行する、または、カメラに関連するアクション(例えば、写真を撮る、カメラのシャッターを制御する、カメラのモードを変更する、カメラレンズを作動させるなど)をカメラに実行させるコマンド/コールバックを、カメラのファームウェアに発行する。
一実施形態においては、リストバンド型デバイスは、ユーザの動きに関連付けられるセンサデータ値の配列を、頻度Kで検出する。検出された値の配列と、その後の特徴抽出およびジェスチャ認識に基づいて、時点Nにおける一連のコマンドを、認識されているジェスチャから抽出し、イベントN+1/K,N+1/K*2,N+1/K*3などにおいて分類する。これらのイベントはループにおいて連続的に処理され、ウェアラブルカメラデバイスに絶え間ないコマンド制御を提供する。別の実施形態においては、ノイズ、特徴の誤検出、ジェスチャやコマンドの誤分類を低減するため、圧力センサおよび光センサと組み合わせて、追加のセンサ(例えば生体測定センサ、脳波検査(EEG)センサ、脳磁図検査(MEG)センサ、筋電図検査(EMG)センサ、ただしこれらに限定されない)を使用することができる。
一実施形態においては、リストバンド型デバイスは、ユーザの腕、手首、手、指、および親指の動きを監視する。ユーザは、写真またはビデオを撮影する準備ができているとき、本ウェアラブルカメラデバイスを持った手を持ち上げて、写真/ビデオをフレーミングする位置に持っていく。ユーザの手が持ち上がり、ユーザの手によって写真/ビデオがフレーミングされた時点で、本ウェアラブルカメラデバイスによって認識される複数の指の動きおよびジェスチャによって、写真/ビデオ(メディア)をキャプチャすることができる。
一実施形態においては、人差し指と親指を互いに約90度に広げ、実質的にカメラのフレームの1つの角部を形成する。別の実施形態においては、ユーザの指の間、または人差し指と親指の間のさまざまな角度および位置によってカメラのフレームを形成する一方で、使いやすさを高め、ユーザの疲れを最小にすることが可能である。例えば、ユーザは、4本の指すべてを立てて、親指をこれら4本の指から約90度に広げてカメラのフレームを形成する、あるいは、1本の指を立てるだけで写真/ビデオをフレーミングすることができる。ユーザの複数の動きおよびジェスチャを本ウェアラブルカメラデバイスの複数の機能に関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
一実施形態においては、ユーザが人差し指と親指を互いに約90度に広げている場合、シャッター平面(shutter plane)の位置は、たとえユーザの手首が回転しても、人差し指と親指によって形成される平面につねに実質的に平行である。この実施形態においては、リストバンド型デバイスは、特徴抽出およびジェスチャ認識を使用して、筋肉、腱、および手首の動きと、手首の輪郭、手の形状、および動きを監視、処理、分類、および認識することによって、広げられた人差し指と親指を検出してカメラを制御することができる。
リストバンド型デバイスは、ユーザが人差し指と親指を互いに約90度に広げたこと(またはユーザが手/指を特定のジェスチャに関連付けられる別の向きに配置させたこと)を検出すると、シャッターを開いて写真またはビデオを撮影/キャプチャするための準備完了状態で待機するように、命令/コマンド/コールを発行する。
一実施形態においては、ユーザは、人差し指によるジェスチャとして、伸ばした指をわずかに縮めることによって、ボタンを押す動作をシミュレートする。別の実施形態においては、ユーザは、指で「フリックする」または被写体を「指す」ジェスチャを行う。リストバンド型デバイスは、筋肉の変化、腱の変化、生体電磁気学的な変化、および解剖学的輪郭の変化を収集/検出する複数の埋め込まれたセンサと、検出された動きをアルゴリズム(例えば機械学習分類器)を利用して解析および分類するプロセッサデバイスとを使用して、指と手首の動きを監視および分類し、これらの動きから特徴を抽出することによって、これらのジェスチャを、カメラをトリガーするジェスチャとして認識する。
この実施形態においては、リストバンド型デバイスは、カメラをトリガーするジェスチャとして分類される検出された動きに応えて、写真またはビデオをキャプチャするようにカメラをトリガーする。別の実施形態においては、リストバンド型デバイスは、カメラに関連する機能(写真/ビデオをキャプチャする、動作モードを変更/選択する、ズームイン/ズームアウトするなど)に対応する別のジェスチャを検出する。
一実施形態においては、動作モードには、手首の周りでリストバンド型デバイスを回転させることによってレンズの位置を調整することが含まれる(ただしこれに限定されない)。一実施形態においては、リストバンド型デバイスは、ユーザの手首に表示される大きさの発光型ユーザインタフェース(UI)を有し、このユーザインタフェース(UI)は、検出されたユーザの動き/ジェスチャによって、またはユーザがユーザインタフェースのディスプレイ画面に直接タッチするジェスチャによって、操作することができる。ユーザインタフェース(UI)は、従来のビデオディスプレイより小さい、同程度の大きさ、またはより大きくすることができる。ユーザインタフェース(UI)は、液晶ディスプレイ、LEDディスプレイ、または別のタイプのディスプレイユニットとすることができる。
一実施形態においては、本ウェアラブルカメラデバイスまたはリストバンド型デバイス自体が、WiFi通信機能およびBluetooth(登録商標)通信機能のいずれかを含む通信装置(例えばWiFiまたはBluetooth(登録商標)受信機および送信機)を含み、したがって、検出および解析されたセンサの動きデータのみならず、キャプチャされた写真およびビデオを、別のデバイス(例えばスマートフォン、ノートパソコンなど)またはクラウドストレージシステムに、この通信装置によって無線で伝達することができる。ユーザの情報がシームレスにバックアップされるように、キャプチャされた写真およびビデオを、デバイスまたはクラウドストレージシステムに自動的に送信する(または所定のスケジュールに従って送信する)ことができる。
一実施形態においては、リストバンド型デバイスを、ユーザの反対側の手における第2のリストバンド型デバイスと連動して使用することができる。第1のリストバンド型デバイスおよび第2のリストバンド型デバイスは、さまざまなモード、動作、およびデータを互いに伝えることができ、さらにマルチカメラシステムとして連動して機能することもできる。このマルチカメラシステムは、高度な写真/ビデオ撮影(例えばパノラマ写真/ビデオや3D写真/ビデオ、ただしこれらに限定されない)を可能にするための追加のジェスチャ認識機能およびその他の機能を含むことができる。
本発明によるシステムおよび方法は、ジェスチャによって操作する手首装着型カメラシステム(ウェアラブルカメラデバイス)を提供し、このデバイスは、ユーザが1日に24時間着用することのできる控えめなアクセサリ型のリストバンドカメラであり、したがってユーザはいつでもどこでも瞬間を捉えることができる。したがって、本ウェアラブルカメラデバイスは使い勝手がよく、高品質のフレーミングされたカメラショットをすばやく生成する。物理的なファインダ(光学式またはデジタル式の両方)、シャッターボタン、およびコマンドボタン/制御ボタンの必要性がなくなる。準備、フレーミング、サイズ設定、およびシャッター操作に、物理的なボタンが必要ない。さらに、ユーザは、リストバンドに関連付けられる複数の異なるスタイル、カラー、デザイン、および模様を選択することによって、ウェアラブルカメラデバイスをカスタマイズすることもできる。
本ウェアラブルカメラデバイスのフォームファクタは、リストバンド型デバイスに組み込まれるカメラハードウェアを提供するものであり、したがって、コストのかかるハードウェア(物理的画面またはデジタル画面)やファインダの必要がなく、これによりフットプリント(サイズ、電力、複雑さ)が減少する。リストバンド型デバイスは、手首にフィットし、調整可能であり、位置決めされた調整可能な小型のカメラおよびレンズを含むことができる。別の実施形態においては、リストバンド型デバイスは、追加機能用のファインダとしての役割を果たすことのできるディスプレイユニットを含む。
一実施形態においては、カメラは、豆状骨と尺骨の接合部においてリストバンド型デバイスに結合されている。別の実施形態においては、カメラは、小指外転筋の縁部または縁部付近においてリストバンド型デバイスに結合されている。これらの位置では、手首がいかなる角度に動いたり回転しても、人差し指と親指(またはユーザの別の手/指の配置)によって自然に形成される視野の平面が、カメラレンズに平行であるようにすることができる(潜在的な障害物が排除される)。別の実施形態においては、カメラレンズの位置を、手および手首の動きに合わせて電気機械的に動かすことができる。
本ウェアラブルカメラデバイスは、特徴抽出およびジェスチャ認識を使用して、筋肉の動き、腱の動き、手の形状、および手首の輪郭を、監視、検出、処理、および分類することによって、腕、手首、手、および指のジェスチャ、動き、および変化を、監視、認識、および解釈することができる。一実施形態においては、カメラを初期化する、カメラを準備完了状態にする、写真やビデオを撮影するために本ウェアラブルカメラデバイスが検出することのできるジェスチャとしては、半円形、円形、OK動作、ハングルーズ動作、人差し指で左にスワイプ、人差し指で右にスワイプ、指同士のタップまたはダブルタップ、人差し指によるタップまたはダブルタップ、90度のフレーミング、コーナーボックスフレーミング(corner box framing)、ダブルビューフレーミング、フレーミング、動作モードの切替え(例:カメラからビデオへ)、モードおよびオプションのスクロール、オプションの選択、シャッターのトリガー、キャプチャの開始、モーションキャプチャ、符号化、ズームイン/ズームアウトが挙げられる(ただしこれらに限定されない)。
リストバンド型デバイスは、カメラ機能、さまざまな処理、および無線通信以外の機能として、時計、タイマー、およびインターネット/電子メール機能を含むことができる(ただしこれらに限定されない)。一実施形態においては、リストバンド型デバイスは、カメラレンズの位置を調整または(手首の周りに)回転させる機能を含み、リストバンド上に複数のレンズを有する(前部、後部、表側面など)。一実施形態においては、リストバンド型デバイスは、さまざまなパターン、形状、デザインによってユーザに知らせるための光を放射することのできる(例えば発光ダイオードやLED)穿孔部をバンドの外側に沿って含み、この穿孔部は、ユーザへのフィードバック情報(例えば、写真が撮影された、クラウドストレージに写真がアップロードされた、写真撮影時のエラーなど)を提供するためのインタフェースディスプレイとして機能する。LEDディスプレイおよびパターンは、ユーザによってプログラム可能とする、またはあらかじめ決めることができる。
一実施形態においては、リストバンド型デバイスは、筋肉や腱に基づく認識、および生体電磁気学的な認識に加えて、リストバンド型デバイス(またはリストバンド型デバイスのディスプレイユニット)における直接的なタッチジェスチャが認識されるようにタッチ対応型である。一実施形態においては、リストバンド型デバイスは、リストバンドの外側部分の周囲の発光ベースの通知およびオブジェクトをタップ、ドラッグ、およびフリックするための機能を含む。これによりユーザは、発光型ディスプレイの位置を操作および調整する、ユーザにもはや関連しない通知を制御する、特定の通知に対してさまざまな入力応答、タッチ応答、およびジェスチャ応答によって応えることができる。
一実施形態においては、リストバンド型デバイスは、片手のみによってジェスチャを実行することによって(片手が自由になる)、動作モード、オプション、およびインタフェースディスプレイを操作するための機能を含む。一実施形態においては、リストバンド型デバイスは、向きを含めてショットをフレーミングすることを支援する少なくとも1つの加速度計を含む。一実施形態においては、リストバンド型デバイスは、(LED通知に加えて)ユーザへのフィードバックを提供するインタフェースディスプレイの一部として、振動することのできる信号センサを含む。一実施形態においては、リストバンド型デバイスは、(音声形式での)追加のフィードバックを提供することができるように、インタフェースディスプレイの一部として音声を出力するスピーカーを含む。
一実施形態においては、リストバンド型デバイスは、ユーザおよびユーザの周囲環境からのさまざまなデータを検出する目的で、埋め込まれて回路を介して接続されている複数のセンサを含む。これら複数のセンサには、MEMSデバイス、ジャイロスコープ、加速度計、トルクセンサ、重量センサ、圧力センサ、磁力計、温度センサ、光センサ、カメラ、マイクロフォン、GPS、無線検出センサ、高度センサ、血圧センサ、心拍センサ、生体測定センサ、無線周波数認識装置(RFID)、近距離無線通信(NFC)、移動通信、Wi−Fi、ひずみゲージ、指紋センサ、匂いセンサ、気体センサ、化学センサ、色センサ、音センサ、音響センサ、紫外線センサ、電界センサ、磁界センサ、重力センサ、風速センサ、風向センサ、コンパスセンサ、位置情報センサ、偏光センサ、赤外線放射センサ、反射型フォトセンサのいずれか、またはこれらの組合せ、を含めることができる(ただしこれらに限定されない)。
一実施形態においては、リストバンド型デバイスは、複数のアルゴリズム的処理を利用するセンサデータ分類ユニットを使用して、(複数のセンサからの)検出されたセンサデータを解析するプロセッサデバイス、を含む。複数のアルゴリズム的処理には、バックプロパゲーション、ベイズネットワーク、機械学習、ディープラーニング、ニューラルネットワーク、ファジィ平均最大ニューラルネットワーク(fuzzy mean max neural network)、隠れマルコフチェーン、階層型一時メモリ、k最近傍法(KNN)、アダブースト、ヒストグラム解析のいずれか、またはこれらの任意の組合せ、を含めることができる(ただしこれらに限定されない)。
一実施形態においては、ユーザは、両方の手に着用した複数のリストバンド型デバイスを利用する。この実施形態においては、複数のリストバンド型デバイス間の無線通信および同期によって、マルチカメラ機能(例えば、新規のフレーミングオプション、より大きなフレーミング領域、3D機能、および360度機能のうちの1つまたは複数、ただしこれらに限定されない)を提供することができる。一実施形態においては、本ウェアラブルカメラデバイスは、さまざまな(パブリックまたはプライベート)ネットワークに接続する機能を含む。
以下では、本発明の特徴について、添付の図面を参照しながらさらに詳しく説明する。
図1は、一実施形態による、メディアをキャプチャするためのシステム100を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。システム100は、リストバンド型デバイス150と、リストバンド型デバイス150に結合されているカメラ134とを含むウェアラブルカメラデバイスである。カメラ134は、レンズと、本体と、アクチュエータとを備えている。一実施形態においては、リストバンド型デバイス150は、複数の構成要素として、以下に限定されないが、電源102、ランダムアクセスメモリ(RAM)104、マイクロコントローラ(MCU)106、読み出し専用メモリ(ROM)108、時計110、ストレージ/メモリデバイス112(例えばフラッシュメモリ、ただしこれに限定されない)、無線装置114(例えばBluetooth(登録商標)、WiFi、ただしこれらに限定されない)、アンテナ116、触覚/振動センサ118、加速度計120、ジャイロスコープ122、アナログ−デジタルコンバータ(ADC)124、前置増幅器/フィルタ/増幅器/バイアス装置126、複数の外部センサ128(例えば、EKG、EEG、MEG、EMG、圧力、光など)、インシステムプログラミングコンポーネント(ISP)130、内部センサ132、を含む。別の実施形態においては、埋め込まれている加速度計120およびジャイロスコープ122は、複数の外部センサに含まれている。別の実施形態においては、リストバンド型デバイスは、プロセッサと、メモリデバイスと、アプリケーションと、送信機/受信機装置とを含む。
複数の外部センサ128は、ユーザの動き(例えば筋肉や腱の動き)を検出し、リストバンド型デバイス150の複数の構成要素は、検出されたユーザの動きを監視および分類し、これらの動きから特徴を抽出することによって、複数のジェスチャを判定する。複数のジェスチャは、リストバンド型デバイス150自体によって、またはカメラ134によって実行されるさまざまなアクション(例えば、写真またはビデオを撮影する、さまざまなオプションをスクロールする、さまざまなモードをスクロールする、ただしこれらに限定されない)を制御する。
図2は、一実施形態による、ウェアラブルカメラデバイスによるセンサデータ分類のためのシステム200を示している。システム200は、アプリケーションコンポーネント202と、オペレーティングシステム(OS)コンポーネント204と、複数のドライバ206とを含む。一実施形態においては、アプリケーションコンポーネント202は、入力/出力(I/O)要素と、デジタイザ/分類器と、ジェスチャ検出要素と、センサデータ分類ユニットと、コマンド要素とを含む。一実施形態においては、オペレーティングシステム(OS)204は、スケジューリング/メモリ管理要素と、メッセージパッシング要素とを含む。一実施形態においては、複数のドライバ206の各ドライバとしては、通信ドライバ、センサドライバ、汎用I/O(GPIO)ドライバ、ファイルシステム(FS)ドライバが挙げられる。一実施形態においては、システム200は、リストバンド型デバイスのセンサを使用してユーザの動きを検出し、検出されたユーザの動きを、アプリケーションコンポーネント202およびセンサデータ分類ユニットを使用して処理して、カメラを制御するジェスチャおよび対応するコマンドを求める。
図3は、一実施形態による、メディアをキャプチャする方法300を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。方法300は、少なくとも1つのセンサを含むリストバンド型デバイスを作製するステップ302と、リストバンド型デバイスにカメラを結合するステップ304と、少なくとも1つのジェスチャを少なくとも1つのセンサを使用して判定するステップ306と、少なくとも1つのジェスチャを使用することによってカメラを制御するステップ308と、を含む。
一実施形態においては、本方法は、ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、解剖学的輪郭の変化(輪郭マップ作成メカニズムを使用する)のうちの1つまたは複数を利用することによって、少なくとも1つのセンサによってユーザの動きを検出するステップ、をさらに含む。次いで、リストバンド型デバイスのプロセッサが、センサデータ分類ユニットを使用してユーザの動きを解析し、ユーザの動きから特徴を抽出し、抽出された特徴から、さまざまな分類器を使用して少なくとも1つのジェスチャを判定する。例えば、検出されたユーザの動きが、ユーザが人差し指と親指を互いに約90度に広げる少なくとも1つのジェスチャであるものと判定された場合、リストバンド型デバイスは、シャッターを開いて写真/ビデオのキャプチャを待機するようにカメラに命令する/カメラを制御する。
リストバンド型デバイスは、ユーザが人差し指をわずかに縮めることによってボタンを押す動作をシミュレートする追加のジェスチャを判定すると、シャッターをトリガーしてメディア(写真/ビデオ)をキャプチャするための命令をカメラに送信する。一実施形態においては、リストバンド型デバイスおよびカメラの両方に通信装置が結合されており、通信装置は、リストバンド型デバイスからのデータ(例えばジェスチャの分類)およびカメラからのデータ(例えば写真およびビデオ)の両方を、別のデバイス(スマートフォン、ノートパソコン、デスクトップパソコン、クラウドベースのサーバシステムのうちの1つまたは複数を備えている)に送信する。
図4は、別の実施形態による、メディアをキャプチャする方法400を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。方法400は、ウェアラブルカメラデバイスを使用しているユーザが動きを起こすステップ402と、電圧センサがユーザの動きを検出するステップ404と、電圧センサが、検出されたユーザの動きを信号として記録するステップ406と、この信号を前置増幅器に通すステップ408と、予備増幅された信号を複数のフィルタに通してノイズおよび追加のモーションアーチファクトを除去するステップ410と、フィルタリングされた信号を増幅器に通すステップ412と、増幅された信号をアナログ−デジタルコンバータ(ADC)に通すステップ414と、を含む。
フィルタリング、増幅、および変換を行った後の信号から特徴を抽出し(ステップ416)、抽出された特徴から、ジェスチャと、対応する命令、コールバック、および通知を求める(ステップ418)。ウェアラブルカメラデバイスによってコールバックおよび通知を登録し(ステップ420)、命令またはコールバックをリストバンド型デバイスからカメラに送信して実行し(ステップ422)、これによりカメラの特定の制御および機能(例えば写真/ビデオを撮影する)を準備する(ステップ424)。制御および機能を符号化し(ステップ426)、これにより対応するカメラの機能(例えばデータをキャプチャする)をトリガーし(ステップ428)、キャプチャされたメディアをウェアラブルカメラデバイスが送信する(ステップ430)。
図5は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス500を示している。ウェアラブルカメラデバイス500は、カメラに結合されているリストバンド型デバイス502を含む(またはカメラがリストバンド型デバイス502に埋め込まれている)。さらに、リストバンド型デバイス502は、それ以外のハードウェアコンポーネントと、筋肉、腱、指によるジェスチャの認識器またはセンサ検出デバイスを含む。このウェアラブルカメラデバイス500は、写真/ビデオをフレーミングするときのユーザの視点から示してあり、(従来のデジタルビューファインダまたは光学ファインダの代わりに)ユーザのファインダの役割を果たすビューフレーム(frame of view)を含む。この実施形態においては、ウェアラブルカメラデバイス500は、従来の光学ファインダもデジタルビューファインダも含まず、これによりユーザは、ビューフレーム504を使用することによって自然な写真およびビデオを高い柔軟性で撮影することができる。
別の実施形態においては、リストバンド型デバイスのユーザインタフェース(UI)のディスプレイユニット/画面(例えば液晶/LED画面)に、ファインダが表示される。この実施形態においては、ユーザが自分の指/手を使用して被写体にフォーカスして被写体をフレーミングするとき、カメラレンズからの信号を表示するリストバンド型デバイスのディスプレイユニットをチェックすることによって、ユーザは正しいフレームがキャプチャされていることを確認することができる。
この図5においては、被写体をフレーミングするためユーザの人差し指と親指が互いに約90度に広げられている。別の実施形態においては、ユーザの指の間、または人差し指と親指の間のさまざまな角度および位置によってカメラのフレームを形成する一方で、使いやすさを高め、ユーザの疲れを最小にすることが可能である。ユーザが自分の指をこの形状(人差し指と親指が互いに90度をなす)に広げると、リストバンドの内部センサが、ユーザの動きおよび形状(親指に対する人差し指の配置)を筋肉の動きとして検出する。検出された筋肉の動きは、カメラの焦点およびシャッターを準備する特定のジェスチャであるものと判定される。次いで、ウェアラブルカメラデバイス500は、カメラの別のアクション(写真/ビデオを撮影するなど)をトリガーする特定のジェスチャと判定されるユーザの別の動きが検出されるのを待機する。
別の実施形態においては、本ウェアラブルカメラデバイスを着用しているユーザは、4本の指すべてを立てた状態で(さらにこれら4本の指から親指を約90度に広げる、または人差し指に親指を沿わせることができる)、自分の手の掌を外側、被写体の方に向ける。この実施形態においては、ユーザが、立てている4本の指のうちの少なくとも1本を下げると、リストバンド型デバイスはユーザの動きを検出し、検出されたユーザの動きからジェスチャを判定し、判定されたジェスチャに基づいて、カメラのアクション(例えばカメラのシャッターをトリガーするアクション、ただしこれに限定されない)を実行させるコマンド/命令を、カメラに送信する。別の実施形態においては、ユーザは、本ウェアラブルカメラデバイス(具体的にはリストバンド型デバイス部分)を、通常の着用位置から180度回転した位置、すなわち反対側の位置に着用する。この実施形態においては、カメラレンズはユーザの方に向いており、したがってユーザは、同様の動きおよびジェスチャ(例えば、立てていた指のうちの1本を下げるなど)を使用して、「自撮り」撮影を行うことができる。
図6は、一実施形態による、ウェアラブルカメラデバイス600の側面図を示している。ウェアラブルカメラデバイス600は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス602と、リストバンド型デバイス602に結合されているカメラとを含む。カメラは、被写体608にフォーカスされているカメラレンズ604を含む。ビューフレーム606は被写体608にフォーカスされている。ユーザの人差し指および親指は同じ位置にあり(互いに約90度に広げられている)、したがってカメラはこの場合も、ユーザの別の動きおよび対応するジェスチャが判定されるのを待機する準備完了状態にある。
図7は、一実施形態による、被写体から見たウェアラブルカメラデバイス700を示している。ウェアラブルカメラデバイス700は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス702と、リストバンド型デバイス702に結合されているカメラとを含む。カメラはカメラレンズ704を含む。ユーザの人差し指および親指は同じ位置にあり(互いに約90度に広げられている)、したがってカメラはこの場合も、ユーザの別の動きおよび対応するジェスチャが判定されるのを待機する準備完了状態にある。
図8は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス800を示している。ウェアラブルカメラデバイス800は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス802と、リストバンド型デバイス802に結合されているかまたは組み込まれているカメラとを含む。ユーザの人差し指および親指は、互いに約90度に広げられた姿勢から、ボタンを押すことをシミュレートする動き(806)に移行した。この実施形態においては、ボタンを押すことをシミュレートする動き(806)は、ユーザの人差し指がわずかに下がったときである。別の実施形態においては、別のタイプのユーザの動きを、ボタンを押すことをシミュレートする動き(806)に関連付けることができる。
ユーザの人差し指が動くと、リストバンド型デバイス802のセンサが、ユーザのこの動きを検出し、リストバンド型デバイス802の内部コンポーネントおよびセンサデータ分類ユニットが、検出されたユーザの動きに関連付けられる特定のジェスチャが行われたものと判定する。判定されたジェスチャは、ビューフレーム804によってフレーミングされている遠方の被写体808の写真を撮影するようにカメラをトリガーする。
本ウェアラブルカメラデバイスのリストバンド型デバイスは、複数のセンサ信号を検出し、それら複数のセンサ信号を使用して複数のジェスチャを判定する。複数のセンサ信号は、1つのジェスチャ(例えば1本の指による「ボタンを押す」動き)を表す、または、リストバンド型デバイスのファームウェアによって1つの動作としてみなされる、特定の順序での一連のジェスチャ(例えば指を左または右にすべらせてタップする)を表すことができる。検出されたセンサ信号からジェスチャが判定されると、リストバンド型デバイスのファームウェアは、カメラを制御するための対応するコマンドを送信する。図9〜図11は、リストバンド型デバイスが1つの動作として判定することのできる、さらなる一連のジェスチャを表している。
図9は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス900を示している。ウェアラブルカメラデバイス900は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス902と、リストバンド型デバイス902に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス902は、ユーザが親指をタップまたはダブルタップする動きを含むジェスチャ904を判定した。ジェスチャ904は、リストバンド型デバイス902に写真/ビデオのターゲット/被写体を表示するように、ウェアラブルカメラデバイス900をトリガーする。この実施形態においては、ユーザが写真またはビデオを撮影しようとしているターゲット/被写体にカメラが正しくフォーカスされているかを確認するため、リストバンド型デバイス902は、カメラによって撮影される被写体を表示することのできるユーザインタフェースディスプレイを含む。
図10は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1000を示している。ウェアラブルカメラデバイス1000は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1002と、リストバンド型デバイス1002に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1002は、ユーザが親指によって左にスワイプする動きを含むジェスチャ1004を判定した。ジェスチャ1004は、カメラのさまざまなモードを変更してリストバンド型デバイス1002のユーザインタフェースにモード変更を表示するように、ウェアラブルカメラデバイス1000をトリガーする。この実施形態においては、リストバンド型デバイス1002は、さまざまなモードを表示することのできるユーザインタフェースディスプレイを含む。一実施形態においては、モードは、交互のLEDパターンを使用して変わっていく。別の実施形態においては、モードが変わり、テキスト(例えば「写真撮影」、「ビデオ撮影」、「夜間写真」など)がユーザインタフェースディスプレイに表示される。
図11は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1100を示している。ウェアラブルカメラデバイス1100は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1102と、リストバンド型デバイス1102に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1102は、ユーザが親指によって右にスワイプする動きを含むジェスチャ1104を判定した。ジェスチャ1104も、カメラのさまざまなモードを変更し(左にスワイプする場合とは反対方向であり、したがってユーザはさまざまなオプションを左右にスクロールすることができる)、リストバンド型デバイス1102のユーザインタフェースにモード変更を表示するように、ウェアラブルカメラデバイスをトリガーする。この実施形態においては、リストバンド型デバイス1102は、さまざまなモードを表示することのできるユーザインタフェースディスプレイを含む。一実施形態においては、モードは、交互のLEDパターンを使用して変わっていく。別の実施形態においては、モードが変わり、テキスト(例えば「写真撮影」、「ビデオ撮影」、「夜間写真」など)がユーザインタフェースディスプレイに表示される。
図12は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1200を示している。ウェアラブルカメラデバイス1200は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1202と、リストバンド型デバイス1202に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1202は、ユーザが指を「C」形状に保持する動きを含むジェスチャ1204を判定した。ジェスチャ1204は、ユーザが(左または右にスワイプすることによって)スクロールした先のモードを選択するように、ウェアラブルカメラデバイス1200をトリガーする。別の実施形態においては、ユーザは、モードの選択に関連付けられる、手によるさまざまな別のジェスチャおよび形状を入力することができる。
図13は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1300を示している。ウェアラブルカメラデバイス1300は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1302と、リストバンド型デバイス1302に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1302は、ユーザが指をパチンと鳴らす動きを含むジェスチャ1304を判定した。ジェスチャ1304は、ウェアラブルカメラデバイス1300に対する「OK」動作をトリガーする。一実施形態においては、「OK」動作は、デバイスのインタフェース出力(例えばLED、ユーザインタフェースディスプレイなど)上にフィードバックとしてユーザに表示される特定の設定またはコマンドを、ユーザが設定または了解することを表す。
図14は、一実施形態による、ユーザの視点におけるウェアラブルカメラデバイス1400を示している。ウェアラブルカメラデバイス1400は、図5のウェアラブルカメラデバイス500に類似する構成要素を有し、リストバンド型デバイス1402と、リストバンド型デバイス1402に結合されているかまたは組み込まれているカメラとを含む。リストバンド型デバイス1402は、ユーザが人差し指および中指の両方を親指にタップまたはダブルタップする動きを含むジェスチャ1404を判定した。ジェスチャ1404は、ウェアラブルカメラデバイス1400に対する「OK」動作をトリガーする。一実施形態においては、「OK」動作は、デバイスのインタフェース出力(例えばLED、ユーザインタフェースディスプレイなど)上にフィードバックとしてユーザに表示される特定の設定またはコマンドを、ユーザが設定または了解することを表す。「OK」動作にユーザの別の動きを関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
図15は、一実施形態による、ユーザの視点におけるマルチウェアラブルカメラデバイスシステム1500を示している。マルチウェアラブルカメラデバイスシステム1500は、第2のウェアラブルカメラデバイス1504に結合されている第1のウェアラブルカメラデバイス1502を含む。第1のウェアラブルカメラデバイス1502および第2のウェアラブルカメラデバイス1504によって、ユーザがターゲット/被写体1506をフレーミングする機能が向上する。さらに、第1のウェアラブルカメラデバイス1502および第2のウェアラブルカメラデバイス1504は、互いに通信し、ユーザがさまざまなデュアルリストバンドモードから選択することを可能にする。一実施形態においては、マルチウェアラブルカメラデバイスシステム1500は、画像/ビデオのキャプチャを同期および互いに結合し(stiches together)、これによってパノラマ撮影または広角撮影を行う。別の実施形態においては、マルチウェアラブルカメラデバイスシステム1500は、3D画像または3Dビデオの同期撮影、3D立体映像、および3Dズーミングを提供する。
図16は、一実施形態による、ウェアラブルカメラデバイス1600のユーザインタフェースディスプレイを示している。ウェアラブルカメラデバイス1600は、ユーザインタフェースディスプレイ1602を含む。一実施形態においては、ユーザインタフェースディスプレイ1602は、カメラの設定および通知に基づいてさまざまなパターン(パターン1604など)を表示するLEDを備えている。一実施形態においては、LEDは、ユーザインタフェースディスプレイ1602にレーザ切断によって形成された穴によって組み込まれている。ユーザは、手によるジェスチャ(ユーザインタフェースディスプレイ1602の上で左右に動かす)またはタッチジェスチャ(ユーザインタフェースディスプレイ1602を押す)を使用して、さまざまな通知に応える、またはそれらを削除することができる。本ウェアラブルカメラデバイスはさまざまなタイプのディスプレイユニットおよびユーザインタフェースを含むことができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
図17は、一実施形態による、ウェアラブルカメラデバイスによってジェスチャ認識を使用してメディアをキャプチャする方法を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。方法1700は、2つの時点(NおよびN+1)を表している。本ウェアラブルカメラデバイスのユーザは、時点Nにおいて姿勢A(人差し指と親指を互いに約90度に広げる)から開始し、時点N+1において姿勢B(「ボタンを押す」動きにおいて人差し指をわずかに下げる)で終了する。ウェアラブルカメラデバイスは、複数の埋め込まれているセンサを使用して、ユーザの手の姿勢および動きを検出し、検出された姿勢および動きからさまざまなジェスチャを判定する(ステップ1702)。
検出されたユーザの動きからジェスチャを判定する目的で、本ウェアラブルカメラデバイスは、ウェアラブルカメラデバイスのリストバンド型デバイスを着用しているユーザの手首の解剖学的輪郭の輪郭マップを提供する輪郭マップ作成メカニズムを利用する(ステップ1704)。ユーザの手首の周りのリストバンド型デバイス(バンドおよび埋め込まれているセンサ)の位置を、実線によって表してあり、ユーザの手首の輪郭を点線によって表してある。時点Nにおいてユーザの手が姿勢Aであるとき、ユーザの手首の輪郭マップは、手首輪郭形状1であり、時点N+1においてユーザの手の姿勢が姿勢Aから姿勢Bに移行するとき、ユーザの手首の輪郭マップは、手首輪郭形状2である。
リストバンド型デバイスは、輪郭マップの変化を求めた後(ステップ1704)、輪郭の形状から、特徴抽出機能および対応する分類器を使用して輪郭の変化を分類する(ステップ1706)。グラフは分類器の重要な機能を示しており、このグラフは、y軸が距離(ミリメートル(mm)単位)であり、x軸が、輪郭マップに基づく手首の周囲のセンサ位置である。時点Nにおいてユーザの手が姿勢Aであるとき、プロットされたグラフは、第1のセンサ配置状態における手首の輪郭形状1を表しており、時点N+1においてユーザの手が姿勢Bであるとき、プロットされたグラフは、第2のセンサ配置状態における手首の輪郭形状2を表している。
本ウェアラブルカメラデバイスは、センサ配置状態を分類してジェスチャを判定した後、判定されたジェスチャを、後からカメラに送信される特定のコマンドに関連付ける(ステップ1708)。例えば、ウェアラブルカメラデバイスによって(第1のジェスチャに関連付けられている)第1のセンサ配置状態が判定されたとき、カメラは「カメラ準備完了」コマンドを受信し(なぜならこのコマンドは第1のジェスチャに関連付けられているため)、ウェアラブルカメラデバイスによって(ユーザが手の配置を変更した後の、第2のジェスチャに関連付けられる)第2のセンサ配置状態が判定されたとき、カメラは「シャッターを押す」コマンドを受信し(なぜならこのコマンドは第2のジェスチャに関連付けられているため)、ウェアラブルカメラデバイスによって写真/ビデオがキャプチャされる。さまざまな輪郭形状およびセンサ配置をさまざまなジェスチャに、したがってさまざまなコマンドに関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
図18は、一実施形態による、ウェアラブルカメラデバイスによってジェスチャ認識を使用してメディアをキャプチャする方法1800を示している。メディアとしては、写真、ビデオ、およびそれ以外のタイプのメディアを含むことができる。本ウェアラブルカメラデバイスは、本ウェアラブルカメラデバイス(リストバンド型デバイスと、リストバンド型デバイスに結合されているかまたは組み込まれているカメラとを含む)を着用しているユーザの手を監視する(ステップ1802)。ユーザが、手、指、および/または手首の一部分を動かすと(ユーザの動き)、そのユーザの動きに起因して、筋肉、皮膚、腱、および骨も動き(ステップ1804)、これによりウェアラブルカメラデバイスは、ウェアラブルカメラデバイスのリストバンド型デバイス内に埋め込まれているセンサを使用することによって、時点Nにおいてユーザの動きをセンサ値として検出することができる(ステップ1806)。検出されたセンサ値を、アナログ−デジタルコンバータ(ADC)を使用して信号に変換し、値の配列(AV)として格納する(ステップ1808)。格納した後、値の配列(AV)にフィルタ(例えばメジアンフィルタ)を適用する(ステップ1810)。ステップ1802〜ステップ1810は、ウェアラブルカメラデバイスによって利用される方法1800の「監視」段階に相当する。
ウェアラブルカメラデバイスは、監視段階を繰り返して、特定のジェスチャ(G、G1など)のための十分なトレーニングデータを作成する(ステップ1812)。十分なトレーニングデータが作成された時点で(またはウェアラブルカメラデバイスにあらかじめダウンロードされる)、各ジェスチャ(G、G1など)について共通の特徴を識別し(ステップ1814)、この場合、各ジェスチャ(G、G1など)は特定のジェスチャ分類器(C、C1など)に関連付けられ、各ジェスチャ分類器は特定のアクション(A、A1など)に関連付けられる。ウェアラブルカメラデバイスは、判定されたジェスチャを受け取り、それぞれに対するジェスチャ分類器を作成する(ステップ1816)。ステップ1812〜ステップ1816は、ウェアラブルカメラデバイスによって利用される方法1800の「分類」段階に相当する。
ウェアラブルカメラデバイスによる分類段階が完了し、十分なトレーニングデータが作成された後(ステップ1816)、ウェアラブルカメラデバイスは、フィルタリングされたAV値を、マッチング法(例えば機械学習、k最近傍アルゴリズム(KNN)、ただしこれらに限定されない)を使用して、(ステップ1816で作成された)ジェスチャ分類器と比較する(ステップ1818)。フィルタリングされたAV値からの特徴が特定のジェスチャ分類器と一致する場合、ウェアラブルカメラデバイスは、その特定のジェスチャ分類器に関連付けられるアクションを呼び出す(コマンドをカメラに送信する)(ステップ1820)。例えば、フィルタリングされたAV値(またはセンサデータ)が、アクションA1に関連付けられる分類器C1に関連付けられる特定のジェスチャG1に一致する場合、ウェアラブルカメラデバイスは、アクションA1のコマンド/命令を呼び出してカメラに送信する。ステップ1818〜ステップ1820は、ウェアラブルカメラデバイスによって利用される方法1800の「認識」段階に相当する。
ウェアラブルカメラデバイスによる認識段階が完了した後、アクションコマンドまたはコール(例えばカメラのシャッター)がカメラによって受け取られ(ステップ1822)、カメラのファームウェアが、カメラの制御および機能の符号化を開始する(ステップ1824)。アクションコマンドまたはコールを符号化し(ステップ1826)、アクションを実行する(例えばカメラが画像をキャプチャする)(ステップ1828)。画像(またはビデオ)がキャプチャされると、ウェアラブルカメラデバイスはメディアをローカルストレージまたはリモートストレージに送信し(ステップ1830)、ユーザはそのメディアを見ることができる(ステップ1832)。ウェアラブルカメラデバイスが複数のセンサ値を、ジェスチャ、分類器、およびアクションに関連付けることができ、そのことが本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。
図19は、一実施形態による、被写体から見たウェアラブルカメラデバイス1900を示している。ウェアラブルカメラデバイス1900は、ユーザの手首の周囲を包むリストバンド型デバイス1902(またはバンド)と、リストバンド型デバイス1902に結合されているかまたは組み込まれているカメラ1904とを含む。カメラ1904は、カメラレンズ1906とカメラのサブアセンブリとを含む。一実施形態においては、カメラレンズ1906は、ユーザの手の掌の底部付近においてリストバンド型デバイス1902に機械的に柔軟に取り付けられている。カメラレンズ1906を柔軟に取り付けることによって、ユーザの手首および手の掌の動き/ジェスチャとともに機械的に動く。別の実施形態においては、カメラレンズ1906は、リストバンド型デバイス1902の一部分に強固に固定されており、動き/ジェスチャに基づく電気機械的な作動によって制御することができる。
被写体から見たこの図は、カメラレンズ1906をまっすぐに見ている被写体からの図を表す。被写体から見たこの図は、ユーザの手の掌とさまざまな指(中指、薬指、小指)を示している。リストバンド型デバイス1902は、複数の構成要素として、以下に限定されないが、センサ、ディスプレイユニット、ハードウェアプラットフォーム、電池、記憶装置、無線装置を含む。一実施形態においては、リストバンド型デバイス1902がユーザの手首の周りで回転し、これによりカメラレンズ1906を被写体の方に外側に向ける、または「自撮り」撮影機能においてユーザの方に内側に向けることができる。
本発明によるシステムおよび方法は、メディア(写真/ビデオ)をキャプチャするためのウェアラブルカメラシステム(ウェアラブルカメラデバイス)を開示する。本ウェアラブルカメラデバイスは、少なくとも1つのセンサを含むリストバンド型デバイスを備えている。一実施形態においては、本ウェアラブルカメラデバイスは、リストバンド型デバイスに結合されているカメラも備えている。別の実施形態においては、カメラは、一体型デバイスとしてのリストバンド型デバイス内に組み込まれている。カメラは、少なくとも1つのセンサによって検出されるユーザの動きおよびセンサデータから判定される少なくとも1つのジェスチャによって制御される。
リストバンド型デバイスは、追加のハードウェアコンポーネントとして、少なくとも1つのセンサによって検出されるユーザの動きを解析するプロセッサと、さまざまなデータ(検出されたユーザの動き、判定されたジェスチャなど)を格納するメモリデバイスを含む(ただしこれらに限定されない)。少なくとも1つのセンサは、ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、解剖学的輪郭の変化のうちの1つまたは複数を検出することによって、ユーザの動きを検出する。一実施形態においては、プロセッサは、検出されたユーザの動きを、フィルタを利用するセンサデータ分類ユニットと、ユーザの動きから特徴を抽出するアルゴリズムとを使用して、少なくとも1つのジェスチャを判定する。センサデータ分類ユニットは、バックプロパゲーション、ベイズネットワーク、ニューラルネットワーク、機械学習のうちの1つまたは複数を利用して、ユーザのジェスチャを判定する。
一実施形態においては、少なくとも1つのセンサは、ジャイロスコープ、加速度計、圧力センサ、温度センサ、光センサのうちの1つまたは複数である。一実施形態においては、カメラは、光学ファインダまたはデジタルビューファインダのいずれも使用せずに制御され、ユーザの指によって形成される自然なファインダを使用する。一実施形態においては、カメラは、小型の(例えば親指の爪の大きさの)レンズを含み、レンズは、ユーザの回転動作に従うように配置されている。これによりレンズは、視野が遮られることがなく、ユーザがキャプチャしようとする写真/ビデオ/メディアの被写体をクリアに狙うことができる方法でユーザの手首に配置される。
本ウェアラブルカメラデバイスは、さまざまなカメラのアクションをトリガーする複数のジェスチャを判定することができる。一実施形態においては、ジェスチャは、ユーザが人差し指と親指を互いに約90度に広げてカメラのフレームの1つの角部を形成する動きを含む。この実施形態においては、カメラのシャッター平面は、人差し指と親指を広げることによって形成される平面に実質的に平行である。別の実施形態においては、ユーザは、手によるさまざまなジェスチャおよび動作を定め、これらの手によるジェスチャおよび動作それぞれを特定のカメラアクションに関連付けることができる。別の実施形態においては、本ウェアラブルカメラデバイスは、継続的に更新されるデータベースまたはソフトウェアアップデートに基づいて、追加のジェスチャおよび対応するカメラアクションを判定する。
一実施形態においては、ユーザが特定のジェスチャにおいて人差し指と親指を互いに約90度に広げ、ウェアラブルカメラデバイスがその特定のジェスチャを判定すると、ウェアラブルカメラデバイスのリストバンド型デバイスは、シャッターを開いてユーザからの写真/ビデオ/メディアキャプチャのジェスチャを待機するように、カメラに命令する、またはカメラを制御する、またはそのようなメッセージをカメラに送信する。一実施形態においては、ユーザは、ボタンを押す動きをシミュレートすることによって、写真/ビデオ/メディアキャプチャのジェスチャを提供する。別の実施形態においては、ユーザは、あらかじめ決められた別のジェスチャによって、または指をパチンと鳴らすなどユーザによって入力される別のジェスチャによって、写真/ビデオ/メディアキャプチャのジェスチャを提供する。
一実施形態においては、ウェアラブルカメラデバイスが判定することのできる少なくとも1つのジェスチャまたは複数のジェスチャとしては、カメラの機能を初期化する、半円形、円形、OK動作、ハングルーズ動作、人差し指で左にスワイプ、人差し指で右にスワイプ、指同士のタップ、指同士のダブルタップ、モードを切り替える、オプションを選択する、ズーミング、シャッターをトリガーしてキャプチャを開始する、シャッターをトリガーしてモーションキャプチャを開始する、が挙げられる。
一実施形態においては、本ウェアラブルカメラデバイスは、リストバンド型デバイスおよびカメラの両方(またはリストバンド型デバイスとカメラのいずれか一方のみ)に結合されている通信装置(例えば送信機/受信機装置)を含む。この実施形態においては、通信装置は、リストバンド型デバイスからのデータ(例えばユーザの動き、ジェスチャなど)およびカメラからのデータ(例えば写真、ビデオ、メディアなど)の一方または両方を、別のデバイス(スマートフォンおよびクラウドベースのサーバシステムのうちの少なくとも一方を備えている)に送信する。一実施形態においては、リストバンド型デバイスは、カメラのアクションやユーザへの通知および警告に関連付けられるさまざまなパターンを生成する複数の発光ダイオード(LED)を備えたユーザインタフェースディスプレイを含む。
上述したように、本発明によるシステムおよび方法では、複数のセンサとプロセッサとを含むリストバンド型デバイスと、リストバンド型デバイスに取り付けられているカメラとを利用して、ジェスチャによって操作する手首装着型カメラシステム(ウェアラブルカメラデバイス)を提供する。本ウェアラブルカメラデバイスは、ユーザが1日に24時間着用することのできる控えめなアクセサリ型のリストバンドカメラであり、したがってユーザはいつでも写真やビデオを容易にキャプチャすることができる。したがって、本ウェアラブルカメラデバイスは、(アクセス性、サイズ、形、重さなどの点で)使い勝手がよく、さまざまなコマンドに関連付けられているユーザの動きおよびジェスチャが本ウェアラブルカメラデバイスによって検出されると、高品質のフレーミングされたカメラショットやビデオをすばやく生成する。
ジェスチャを利用して手首装着型カメラシステムを操作するシステムおよび方法を開示した。本明細書に記載されている実施形態は、完全にハードウェアに実施する、または完全にソフトウェアに実施する、またはハードウェア要素およびソフトウェア要素の両方を含む実施形態の形をとることができる。実施形態はソフトウェアにおいて実施することができ、ソフトウェアとしては、アプリケーションソフトウェア、ファームウェア、常駐ソフトウェア、マイクロコードが挙げられる(ただしこれらに限定されない)。
本明細書に記載されているステップは、任意の適切なコントローラまたはプロセッサと、ソフトウェアアプリケーションとを使用して実施することができ、ソフトウェアアプリケーションは、任意の適切な格納場所またはコンピュータ可読媒体に格納することができる。ソフトウェアアプリケーションは、本明細書に記載されている機能をプロセッサが実行することを可能にする命令を提供する。
さらに、実施形態は、コンピュータが使用可能な媒体またはコンピュータ可読媒体においてアクセス可能なコンピュータプログラム製品であって、コンピュータまたは任意の命令実行システムによって、または関連して使用するためのプログラムコードを提供するコンピュータプログラム製品、の形をとることができる。この説明の目的においては、コンピュータが使用可能な媒体またはコンピュータ可読媒体は、命令実行システム、命令実行装置、または命令実行デバイスによって、またはこれらに関連して使用するためのプログラムを含む、格納する、伝達する、伝搬する、または移動させることのできる任意の装置とすることができる。
上記の媒体は、電子的システム、磁気的システム、光学的システム、電磁気的システム、赤外システム、または半導体システム(もしくは装置またはデバイス)、または伝搬媒体(非一時的)とすることができる。コンピュータ可読媒体の例としては、半導体メモリまたは固体メモリ、磁気テープ、リムーバブルディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、固定磁気ディスク、光ディスクが挙げられる。光ディスクの現在の例としては、DVD、コンパクトディスク読み出し専用メモリ(CD−ROM)、コンパクトディスク読み取り/書き込み(CD−R/W)が挙げられる。
ここまで、本発明について、図示した実施形態に基づいて説明してきたが、これらの実施形態の変形形態が存在することと、そのような変形形態が本発明の趣旨および範囲内であることは、この技術分野における通常の技能を有する者には容易に認識されるであろう。したがって、この技術分野における通常の技能を有する者には、添付の請求項の趣旨および範囲から逸脱することなく、多くの修正を行うことができる。
本出願は、米国仮特許出願第61/946,622号「GESTURE OPERATED WRIST MOUNTED CAMERA SYSTEM」(出願日:2014年2月28日)および米国仮特許出願第62/101,289号「GESTURE OPERATED WRIST MOUNTED CAMERA SYSTEM」(出願日:2015年1月8日)の利益を主張し、これらの文書の開示内容全体は参照によって本明細書に組み込まれている。
Claims (20)
- メディアをキャプチャするシステムであって、
リストバンド型デバイスであって、少なくとも1つのセンサを含む、前記リストバンド型デバイスと、
前記リストバンド型デバイスに結合されているカメラであって、前記少なくとも1つのセンサを使用して判定される少なくとも1つのジェスチャによって制御される、前記カメラと、
を備えている、システム。 - 前記リストバンド型デバイスがプロセッサを含み、前記プロセッサが、前記少なくとも1つのセンサによって検出されるユーザの動きを解析する、請求項1に記載のシステム。
- 前記ユーザの動きが、ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、および解剖学的輪郭の変化のうちの1つまたは複数を使用して前記少なくとも1つのセンサによって検出される、請求項2に記載のシステム。
- 前記ユーザの動きが、前記ユーザの動きから特徴を抽出して前記少なくとも1つのジェスチャを判定するセンサデータ分類、を使用して前記プロセッサによって解析される、請求項2に記載のシステム。
- 前記センサデータ分類が、バックプロパゲーション、ベイズネットワーク、ニューラルネットワーク、機械学習のうちの1つまたは複数を含む、請求項4に記載のシステム。
- 前記少なくとも1つのセンサが、ジャイロスコープ、加速度計、圧力センサ、温度センサ、光センサのうちの1つまたは複数である、請求項1に記載のシステム。
- 前記カメラが、光学ファインダおよびデジタルビューファインダのいずれも使用せずに制御される、請求項1に記載のシステム。
- 前記カメラが、親指の爪のサイズであるレンズを含み、さらに前記レンズが、ユーザの回転動作に従うように配置されている、請求項1に記載のシステム。
- 前記少なくとも1つのジェスチャが、ユーザが人差し指と親指を互いに約90度に広げてカメラのフレームの1つの角部を形成する動き、を含む、請求項1に記載のシステム。
- シャッターの平面が、人差し指と親指を広げることによって形成される平面に実質的に平行である、請求項9に記載のシステム。
- ユーザが人差し指と親指を互いに約90度に広げることに応えて、前記リストバンド型デバイスが、シャッターを開いてメディアのキャプチャを待機するように前記カメラに命令する、請求項10に記載のシステム。
- 前記リストバンド型デバイスが、ユーザが人差し指をわずかに縮めることによってボタンを押す動作をシミュレートしていることを判定し、これによりメディアをキャプチャするように前記カメラをトリガーする、請求項11に記載のシステム。
- 前記少なくとも1つのジェスチャが、カメラの機能を初期化する、半円形、円形、OK動作、ハングルーズ動作、人差し指で左にスワイプ、人差し指で右にスワイプ、指同士のタップ、指同士のダブルタップ、モードを切り替える、オプションを選択する、ズーミング、シャッターをトリガーしてキャプチャを開始する、シャッターをトリガーしてモーションキャプチャを開始する、のうちの1つまたは複数を含む、請求項1に記載のシステム。
- 前記リストバンド型デバイスおよび前記カメラの両方に結合されている通信装置であって、前記リストバンド型デバイスおよび前記カメラの両方から、スマートフォンおよびクラウドベースのサーバシステムの少なくとも一方を備えている別のデバイスにデータを送信する、前記通信装置、
をさらに備えている、請求項1に記載のシステム。 - 前記リストバンド型デバイスが、発光ダイオード(LED)を使用して複数の通知を生成する発光型ユーザインタフェース、を含む、請求項1に記載のシステム。
- メディアをキャプチャする方法であって、
リストバンド型デバイスを作製するステップであって、前記リストバンド型デバイスが少なくとも1つのセンサを含む、ステップと、
前記リストバンド型デバイスにカメラを結合するステップと、
前記少なくとも1つのセンサを使用して少なくとも1つのジェスチャを判定するステップと、
前記少なくとも1つのジェスチャを使用することによって前記カメラを制御するステップと、
を含む、方法。 - ユーザの筋肉の変化、腱の変化、生体電磁気学的な変化、および解剖学的輪郭の変化のうちの1つまたは複数を使用することによって、前記少なくとも1つのセンサを使用してユーザの動きを検出するステップと、
前記ユーザの動きを、前記ユーザの動きから特徴を抽出するセンサデータ分類を使用して前記リストバンド型デバイスのプロセッサによって解析するステップと、
前記抽出された特徴を使用して前記少なくとも1つのジェスチャを判定するステップと、
をさらに含む、請求項16に記載の方法。 - 前記少なくとも1つのジェスチャが、ユーザが人差し指と親指を互いに約90度に広げる動きであることに応えて、シャッターを開いてメディアのキャプチャを待機するように、前記リストバンド型デバイスによって前記カメラに命令するステップ、
をさらに含む、請求項16に記載の方法。 - ユーザが人差し指をわずかに縮めることによってボタンを押す動作をシミュレートしていることを、前記リストバンド型デバイスによって判定し、これによりメディアをキャプチャするように前記カメラをトリガーするステップ、
をさらに含む、請求項18に記載の方法。 - 前記リストバンド型デバイスおよび前記カメラの両方に通信装置を結合するステップであって、前記通信装置が、前記リストバンド型デバイスおよび前記カメラの両方から、スマートフォンおよびクラウドベースのサーバシステムの少なくとも一方を備えている別のデバイスにデータを送信する、ステップ、
をさらに含む、請求項16に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461946622P | 2014-02-28 | 2014-02-28 | |
US61/946,622 | 2014-02-28 | ||
US201562101289P | 2015-01-08 | 2015-01-08 | |
US62/101,289 | 2015-01-08 | ||
PCT/US2015/018191 WO2015131157A1 (en) | 2014-02-28 | 2015-02-27 | Gesture operated wrist mounted camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017508229A true JP2017508229A (ja) | 2017-03-23 |
Family
ID=54009693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016572372A Pending JP2017508229A (ja) | 2014-02-28 | 2015-02-27 | ジェスチャによって操作する手首装着型カメラシステム |
Country Status (4)
Country | Link |
---|---|
US (3) | US10254843B2 (ja) |
EP (1) | EP3111303A4 (ja) |
JP (1) | JP2017508229A (ja) |
WO (1) | WO2015131157A1 (ja) |
Families Citing this family (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
WO2015131157A1 (en) * | 2014-02-28 | 2015-09-03 | Vikas Gupta | Gesture operated wrist mounted camera system |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US9942222B1 (en) * | 2014-09-02 | 2018-04-10 | Amazon Technologies, Inc. | Authentication with wearable device |
CN104394312B (zh) * | 2014-10-23 | 2017-08-22 | 小米科技有限责任公司 | 拍摄控制方法及装置 |
US20160132642A1 (en) * | 2014-11-06 | 2016-05-12 | Raz Carmi | Device and method for monitoring food intake |
US20170090583A1 (en) * | 2015-09-25 | 2017-03-30 | Intel Corporation | Activity detection for gesture recognition |
US10630871B2 (en) * | 2015-11-03 | 2020-04-21 | Sam Salemnia | Body mounted camera system |
US10324494B2 (en) | 2015-11-25 | 2019-06-18 | Intel Corporation | Apparatus for detecting electromagnetic field change in response to gesture |
US20170177203A1 (en) * | 2015-12-18 | 2017-06-22 | Facebook, Inc. | Systems and methods for identifying dominant hands for users based on usage patterns |
WO2017111972A1 (en) * | 2015-12-22 | 2017-06-29 | Intel Corporation | System and method to collect gesture input through wrist tendon and muscle sensing |
JP6727921B2 (ja) * | 2016-05-18 | 2020-07-22 | ソニーモバイルコミュニケーションズ株式会社 | 情報処理装置、情報処理システム、情報処理方法 |
US10638316B2 (en) | 2016-05-25 | 2020-04-28 | Intel Corporation | Wearable computer apparatus with same hand user authentication |
US10185817B2 (en) * | 2016-06-16 | 2019-01-22 | International Business Machines Corporation | Device security via swipe pattern recognition |
DE112016007020T5 (de) * | 2016-06-28 | 2019-03-21 | Intel Corporation | Video mit eingebetteter geste |
CN109416733B (zh) * | 2016-07-07 | 2023-04-18 | 哈曼国际工业有限公司 | 便携式个性化 |
US10990174B2 (en) | 2016-07-25 | 2021-04-27 | Facebook Technologies, Llc | Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors |
US11331045B1 (en) | 2018-01-25 | 2022-05-17 | Facebook Technologies, Llc | Systems and methods for mitigating neuromuscular signal artifacts |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
US11337652B2 (en) | 2016-07-25 | 2022-05-24 | Facebook Technologies, Llc | System and method for measuring the movements of articulated rigid bodies |
US11635736B2 (en) | 2017-10-19 | 2023-04-25 | Meta Platforms Technologies, Llc | Systems and methods for identifying biological structures associated with neuromuscular source signals |
US10687759B2 (en) | 2018-05-29 | 2020-06-23 | Facebook Technologies, Llc | Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods |
WO2018022597A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | Methods and apparatus for inferring user intent based on neuromuscular signals |
WO2018022658A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | Adaptive system for deriving control signals from measurements of neuromuscular activity |
US20200073483A1 (en) | 2018-08-31 | 2020-03-05 | Ctrl-Labs Corporation | Camera-guided interpretation of neuromuscular signals |
JP6897037B2 (ja) * | 2016-09-15 | 2021-06-30 | オムロン株式会社 | 作業性評価装置 |
US10845885B2 (en) | 2017-02-27 | 2020-11-24 | International Business Machines Corporation | Object scrolling and selection on a wearable computing device |
CN106951109B (zh) * | 2017-03-31 | 2020-02-14 | 殷超 | 一种采集手部姿态的方法及其装置 |
US10905374B2 (en) * | 2017-05-25 | 2021-02-02 | Samsung Electronics Co., Ltd. | Method and wearable device for performing actions using body sensor array |
US20190007536A1 (en) * | 2017-07-03 | 2019-01-03 | Essential Products, Inc. | Handheld writing implement form factor mobile device |
US10481699B2 (en) * | 2017-07-27 | 2019-11-19 | Facebook Technologies, Llc | Armband for tracking hand motion using electrical impedance measurement |
US10462345B2 (en) | 2017-08-11 | 2019-10-29 | Essential Products, Inc. | Deformable structure that compensates for displacement of a camera module of a camera accessory |
WO2019060298A1 (en) | 2017-09-19 | 2019-03-28 | Neuroenhancement Lab, LLC | METHOD AND APPARATUS FOR NEURO-ACTIVATION |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
EP3732672A4 (en) | 2017-12-27 | 2021-09-15 | Adesanya, Olaoluwa O. | PORTABLE COMPUTER DEVICE FOR AUGMENTED REALITY, VIRTUAL REALITY AND ARTIFICIAL INTELLIGENCE INTERACTIONS, AND RELATED PROCESSES |
US11478603B2 (en) | 2017-12-31 | 2022-10-25 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to enhance emotional response |
US10523976B2 (en) | 2018-01-09 | 2019-12-31 | Facebook, Inc. | Wearable cameras |
WO2019147996A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Calibration techniques for handstate representation modeling using neuromuscular signals |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
WO2019148002A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Techniques for anonymizing neuromuscular signal data |
CN112074870A (zh) | 2018-01-25 | 2020-12-11 | 脸谱科技有限责任公司 | 重构的手部状态信息的可视化 |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
WO2019147958A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | User-controlled tuning of handstate representation model parameters |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US10970936B2 (en) | 2018-10-05 | 2021-04-06 | Facebook Technologies, Llc | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment |
CN112005198A (zh) * | 2018-01-25 | 2020-11-27 | 脸谱科技有限责任公司 | 基于多个输入的手部状态重建 |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
WO2019147949A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Real-time processing of handstate representation model estimates |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
WO2019173678A1 (en) * | 2018-03-09 | 2019-09-12 | Siemens Aktiengesellschaft | Optimal hand pose tracking using a flexible electronics-based sensing glove and machine learning |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
US11281302B2 (en) * | 2018-05-18 | 2022-03-22 | Steven Reynolds | Gesture based data capture and analysis device and system |
CN112469469A (zh) | 2018-05-25 | 2021-03-09 | 脸谱科技有限责任公司 | 用于提供肌肉下控制的方法和装置 |
US10970374B2 (en) | 2018-06-14 | 2021-04-06 | Facebook Technologies, Llc | User identification and authentication with neuromuscular signatures |
WO2020018892A1 (en) | 2018-07-19 | 2020-01-23 | Ctrl-Labs Corporation | Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device |
US10802598B2 (en) * | 2018-08-05 | 2020-10-13 | Pison Technology, Inc. | User interface control of responsive devices |
US11099647B2 (en) * | 2018-08-05 | 2021-08-24 | Pison Technology, Inc. | User interface control of responsive devices |
EP3836836B1 (en) | 2018-08-13 | 2024-03-20 | Meta Platforms Technologies, LLC | Real-time spike detection and identification |
WO2020056418A1 (en) | 2018-09-14 | 2020-03-19 | Neuroenhancement Lab, LLC | System and method of improving sleep |
EP3853698A4 (en) | 2018-09-20 | 2021-11-17 | Facebook Technologies, LLC | NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY |
CN112771478A (zh) | 2018-09-26 | 2021-05-07 | 脸谱科技有限责任公司 | 对环境中的物理对象的神经肌肉控制 |
US11797087B2 (en) | 2018-11-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US10788897B1 (en) | 2019-01-15 | 2020-09-29 | Facebook Technologies, Llc | Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems |
US10986287B2 (en) | 2019-02-19 | 2021-04-20 | Samsung Electronics Co., Ltd. | Capturing a photo using a signature motion of a mobile device |
US10905383B2 (en) | 2019-02-28 | 2021-02-02 | Facebook Technologies, Llc | Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
US11422623B2 (en) * | 2019-10-23 | 2022-08-23 | Interlake Research, Llc | Wrist worn computing device control systems and methods |
US11126267B2 (en) * | 2019-12-19 | 2021-09-21 | Giantplus Technology Co., Ltd | Tactile feedback device and operation method thereof |
US11914791B2 (en) * | 2020-01-28 | 2024-02-27 | Pison Technology, Inc. | Gesture control using biopotential-based analog front end |
US11199908B2 (en) | 2020-01-28 | 2021-12-14 | Pison Technology, Inc. | Wrist-worn device-based inputs for an operating system |
US11157086B2 (en) * | 2020-01-28 | 2021-10-26 | Pison Technology, Inc. | Determining a geographical location based on human gestures |
US11397466B2 (en) * | 2020-03-31 | 2022-07-26 | Apple Inc. | Skin-to-skin contact detection |
US11397468B2 (en) | 2020-03-31 | 2022-07-26 | Apple Inc. | Skin-to-skin contact detection |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US20230260155A1 (en) * | 2020-04-24 | 2023-08-17 | Cornell University | Deep continuous 3d hand pose tracking |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
TWI811600B (zh) * | 2020-12-21 | 2023-08-11 | 研能科技股份有限公司 | 車內空汙防治解決方法 |
CN114643826A (zh) * | 2020-12-21 | 2022-06-21 | 研能科技股份有限公司 | 车内空气污染防治解决方法 |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
US11861070B2 (en) | 2021-04-19 | 2024-01-02 | Snap Inc. | Hand gestures for animating and controlling virtual and graphical elements |
US11543892B2 (en) * | 2021-04-28 | 2023-01-03 | Google Llc | Touch pressure input for devices |
US11366529B1 (en) | 2021-07-14 | 2022-06-21 | Steven Reynolds | Gesture based data capture and analysis device and system with states, confirmatory feedback and timeline |
US11954263B1 (en) * | 2022-09-26 | 2024-04-09 | Pison Technology, Inc. | Gesture control using biopotential wristband |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6899255B2 (en) * | 2003-06-26 | 2005-05-31 | Christopher Robert Pringle | Forearm camera mount |
US6953990B2 (en) * | 2003-09-19 | 2005-10-11 | Agilent Technologies, Inc. | Wafer-level packaging of optoelectronic devices |
GB2407635B (en) * | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
US8107599B2 (en) * | 2005-02-15 | 2012-01-31 | Fastvdo, Llc | Methods and apparatus for the composition and communication of digital composition coded multisensory messages (DCC MSMS) |
US8428135B2 (en) * | 2005-11-14 | 2013-04-23 | Fastvdo, Llc | Device and method for fast sub sample block-matching motion estimation in video encoders |
US20140035805A1 (en) * | 2009-04-02 | 2014-02-06 | David MINNEN | Spatial operating environment (soe) with markerless gestural control |
US8890813B2 (en) * | 2009-04-02 | 2014-11-18 | Oblong Industries, Inc. | Cross-user hand tracking and shape recognition user interface |
US20090089682A1 (en) * | 2007-09-27 | 2009-04-02 | Rockwell Automation Technologies, Inc. | Collaborative environment for sharing visualizations of industrial automation data |
US8073198B2 (en) * | 2007-10-26 | 2011-12-06 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger framing |
US8447704B2 (en) * | 2008-06-26 | 2013-05-21 | Microsoft Corporation | Recognizing gestures from forearm EMG signals |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8520736B2 (en) * | 2009-04-14 | 2013-08-27 | Fastvdo, Llc | Real-time superresolution and video transmission |
WO2010120303A2 (en) * | 2009-04-16 | 2010-10-21 | Hewlett-Packard Development Company, L.P. | Managing shared content in virtual collaboration systems |
JP4988016B2 (ja) * | 2009-08-27 | 2012-08-01 | 韓國電子通信研究院 | 指の動き検出装置およびその方法 |
US8861797B2 (en) | 2010-11-12 | 2014-10-14 | At&T Intellectual Property I, L.P. | Calibrating vision systems |
US9436286B2 (en) * | 2011-01-05 | 2016-09-06 | Qualcomm Incorporated | Method and apparatus for tracking orientation of a user |
US8971588B2 (en) * | 2011-03-30 | 2015-03-03 | General Electric Company | Apparatus and method for contactless high resolution handprint capture |
US10061387B2 (en) * | 2011-03-31 | 2018-08-28 | Nokia Technologies Oy | Method and apparatus for providing user interfaces |
US20120281129A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Camera control |
JP2012243007A (ja) * | 2011-05-18 | 2012-12-10 | Toshiba Corp | 映像表示装置及びそれを用いた映像領域選択方法 |
US9116666B2 (en) * | 2012-06-01 | 2015-08-25 | Microsoft Technology Licensing, Llc | Gesture based region identification for holograms |
EP2698686B1 (en) * | 2012-07-27 | 2018-10-10 | LG Electronics Inc. | Wrist-wearable terminal and control method thereof |
US20140049417A1 (en) * | 2012-08-20 | 2014-02-20 | Playtabase, LLC | Wireless motion activated command transfer device, system, and method |
US20140140590A1 (en) * | 2012-11-21 | 2014-05-22 | Microsoft Corporation | Trends and rules compliance with depth video |
US10133342B2 (en) * | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
US9524028B2 (en) * | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9390500B1 (en) * | 2013-03-14 | 2016-07-12 | Amazon Technologies, Inc. | Pointing finger detection |
US9696812B2 (en) * | 2013-05-29 | 2017-07-04 | Samsung Electronics Co., Ltd. | Apparatus and method for processing user input using motion of object |
JP5919439B2 (ja) * | 2013-08-01 | 2016-05-18 | 富士フイルム株式会社 | 撮像モジュール |
KR102157313B1 (ko) * | 2013-09-03 | 2020-10-23 | 삼성전자주식회사 | 촬영된 영상을 이용하여 객체를 인식하는 방법 및 컴퓨터 판독 가능한 기록 매체 |
US20150138078A1 (en) * | 2013-11-18 | 2015-05-21 | Eyal Krupka | Hand pose recognition using boosted look up tables |
JPWO2015076206A1 (ja) * | 2013-11-22 | 2017-03-16 | シャープ株式会社 | 通信端末、通信端末の制御方法、および制御プログラム |
US10691332B2 (en) * | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
WO2015131157A1 (en) * | 2014-02-28 | 2015-09-03 | Vikas Gupta | Gesture operated wrist mounted camera system |
US9785247B1 (en) * | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
WO2016006731A1 (ko) * | 2014-07-09 | 2016-01-14 | 엘지전자 주식회사 | 촬영 모드를 제어하는 포터블 디바이스 및 그 제어 방법 |
US9953216B2 (en) * | 2015-01-13 | 2018-04-24 | Google Llc | Systems and methods for performing actions in response to user gestures in captured images |
JP6464889B2 (ja) * | 2015-03-31 | 2019-02-06 | 富士通株式会社 | 画像処理装置、画像処理プログラム、及び画像処理方法 |
-
2015
- 2015-02-27 WO PCT/US2015/018191 patent/WO2015131157A1/en active Application Filing
- 2015-02-27 JP JP2016572372A patent/JP2017508229A/ja active Pending
- 2015-02-27 EP EP15754414.9A patent/EP3111303A4/en not_active Withdrawn
- 2015-02-27 US US14/634,674 patent/US10254843B2/en active Active
-
2019
- 2019-03-25 US US16/363,261 patent/US20190220098A1/en not_active Abandoned
-
2022
- 2022-03-09 US US17/690,754 patent/US11861069B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220334647A1 (en) | 2022-10-20 |
WO2015131157A1 (en) | 2015-09-03 |
US20190220098A1 (en) | 2019-07-18 |
US11861069B2 (en) | 2024-01-02 |
EP3111303A1 (en) | 2017-01-04 |
US20150309582A1 (en) | 2015-10-29 |
EP3111303A4 (en) | 2017-08-23 |
US10254843B2 (en) | 2019-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11861069B2 (en) | Gesture operated wrist mounted camera system | |
JP7423685B2 (ja) | 画像処理装置およびその制御方法 | |
US9886111B2 (en) | Wearable electronic apparatus and acquisition control method | |
TWI666429B (zh) | 用於增強非接觸身體溫度測量的精確度的電子器件和方法 | |
KR102302197B1 (ko) | 촬영 장치, 그 제어 방법 및 컴퓨터로 판독 가능한 기록매체. | |
KR102184272B1 (ko) | 글래스 타입 단말기 및 이의 제어방법 | |
KR102494698B1 (ko) | 카메라의 초점을 변경하는 방법 및 장치 | |
US20200258314A1 (en) | Information processing device, information processing method, and recording medium | |
CN112118380B (zh) | 相机操控方法、装置、设备及存储介质 | |
WO2014045683A1 (ja) | 制御装置および記憶媒体 | |
KR102655625B1 (ko) | 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치. | |
CN107637063A (zh) | 用于基于用户的手势控制功能的方法和拍摄装置 | |
JP2016177658A (ja) | 仮想入力装置、入力方法、およびプログラム | |
US10979632B2 (en) | Imaging apparatus, method for controlling same, and storage medium | |
CN109117819B (zh) | 目标物识别方法、装置、存储介质及穿戴式设备 | |
US20160034252A1 (en) | Smart device control | |
JP2015011404A (ja) | 動作認識処理装置 | |
US20230359422A1 (en) | Techniques for using in-air hand gestures detected via a wrist-wearable device to operate a camera of another device, and wearable devices and systems for performing those techniques | |
WO2018076371A1 (zh) | 动作识别方法、网络训练方法、装置及设备 | |
CN104427226B (zh) | 图像采集方法和电子设备 | |
WO2019044135A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2018133063A1 (zh) | 一种基于运动手势识别的测量仪控制方法及测量仪 | |
WO2023181862A1 (ja) | 情報処理装置、情報処理方法、記憶媒体 | |
CN111061372B (zh) | 设备控制方法及相关设备 | |
JP6595292B2 (ja) | 記録装置、記録装置の制御方法、記録システム、装着型情報処理装置、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20171101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20171102 |