JP6235161B1 - 信号出力装置および撮像装置 - Google Patents

信号出力装置および撮像装置 Download PDF

Info

Publication number
JP6235161B1
JP6235161B1 JP2016555846A JP2016555846A JP6235161B1 JP 6235161 B1 JP6235161 B1 JP 6235161B1 JP 2016555846 A JP2016555846 A JP 2016555846A JP 2016555846 A JP2016555846 A JP 2016555846A JP 6235161 B1 JP6235161 B1 JP 6235161B1
Authority
JP
Japan
Prior art keywords
electric field
threshold
unit
change
magnitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016555846A
Other languages
English (en)
Other versions
JPWO2017145382A1 (ja
Inventor
実 稲見
実 稲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Blincam
Original Assignee
Blincam
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Blincam filed Critical Blincam
Application granted granted Critical
Publication of JP6235161B1 publication Critical patent/JP6235161B1/ja
Publication of JPWO2017145382A1 publication Critical patent/JPWO2017145382A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/12Supports; Mounting means
    • H01Q1/22Supports; Mounting means by structural association with other equipment or articles
    • H01Q1/24Supports; Mounting means by structural association with other equipment or articles with receiving set
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Abstract

検出精度を高める。撮像装置1は、人体に非接触の位置に配置され、電界を発生させる電界発生用アンテナ32と、発生させた電界の変位を検出する電界変化認識部33と、電界変化認識部33の検出に応じて信号を出力するCPU31と、を有する。

Description

本発明は信号出力装置および撮像装置に関する。
センサの検出結果に基づいて、外部機器に制御信号を出力する装置が知られている。
例えば、人間の下顎の動きに伴う表皮の変動を検出する少なくとも1つのセンサと、表皮の変動に基づいて制御信号を生成する信号生成部とを備える装置が知られている。
また、ヘッドフォンを用いた視線インタフェースが提案されている。具体的には、ヘッドフォンが装着される両耳近傍の位置に複数の電極を貼り付けることにより、人間の眼球運動に伴うEOGを検出信号として検出し、例えば、カルマンフィルタを用いることによって人間の視線の方向を推定する装置が知られている。
特開2008−304451号公報
真鍋宏幸、福本雅朗、「ヘッドフォンを用いた常時装用視線インタフェース」、インタラクション2006論文集、社団法人情報処理学会、2006年、p23−24
センサに光センサを用いた場合を考える。この場合、太陽光の下では太陽光の光の方が強いため、センサの検出精度が落ちるという問題がある。
また、人体に接触するセンサを用いると、装着および取り外しが煩わしかったり、外観を損ねたりするという問題がある。
1つの側面では、本発明は、検出精度を高めることを目的とする。
上記目的を達成するために、開示の信号出力装置が提供される。この信号出力装置は、人体に非接触の位置に配置され、電界を発生させる発生部と、発生させた電界の変位を検出する検出部と、検出部の検出に応じて信号を出力する信号出力部と、を有する。
1態様では、検出精度を高めることを目的とする。
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
実施の形態の撮像装置を示す図である。 実施の形態の撮像装置のハードウェア構成を示す図である。 RAMに記憶されるパラメータの一例を示す図である。 RAMに記憶されるデータの一例を示す図である。 実施の形態の撮像装置の全体処理を説明するフローチャートである。 キャリブレーション処理を説明するフローチャートである。 キャリブレーション実行決定処理を説明するフローチャートである。 センサモニタリング処理を説明するフローチャートである。 シャッター決定処理を説明するフローチャートである。
以下、実施の形態の撮像装置を、図面を参照して詳細に説明する。
<実施の形態>
図1は、実施の形態の撮像装置を示す図である。
図1(a)は、撮像装置を斜めから見た図であり、図1(b)は、撮像装置を正面から見た図である。
第1の実施の形態の撮像装置1は、眼鏡型の装置である。なお、実施の形態では眼鏡型の装置として説明するが、これに限らず、ハンズフリーで顔近傍に装着できるようになっていれば、装置の形状は特に限定されない。
撮像装置1は、耳に取り付ける取付部を備え顔の一部に装着されるフレーム2と、制御部3とを備えている。
制御部3は、フレーム2を介して目と反対側に配置されている。
図2は、実施の形態の撮像装置のハードウェア構成を示す図である。
制御部3は、ハウジング(ケーシング)30と、CPU31と、電界発生用アンテナ32と、電界変化認識部33と、カメラ34と、メモリ35と、通信インタフェース36とを備えている。
制御部3は、CPU(Central Processing Unit)31によって装置全体が制御されている。
CPU31が備えるRAM(Random Access Memory)は、撮像装置1の主記憶装置として使用される。RAMには、CPU31に実行させるプログラムの少なくとも一部が格納される。また、RAMには、CPU31による処理に使用する各種データが格納される。
また、CPU31は、カメラ34のシャッターを切るためのシャッター信号を生成する。
電界発生用アンテナ32は、CPU31の指示に応じて電界を発生させる。図2では、発生する電界のイメージを点線で図示している。
電界発生用アンテナ32は、電極面から最大15cm離れた面で挟む空間に電界を作り出す。
電界変化認識部33は、電界発生用アンテナ32が発生した電界の変化を検出する。具体的には、電界変化認識部33は、例えば、目や目尻、眉間、こめかみ等、人体の動き(特に顔面の動き)変化を検出する。そして、電界変化認識部33は、検出した変化量に応じた大きさのアナログ信号(アナログ検出信号)を出力する。
この電界変化認識部33は、電界の変化を検出可能な箇所(軸)を複数設定できる。このため、例えば、目の変化に着目した場合は、まばたきの検知以外にも、眼球の動きを検出(眼球が左右上下どこをみているか、眼球がどこにフォーカスしているか)したり、複雑なまばたきの検知(まばたきの強弱や複数回まばたきの検知)をしたりすることが可能となる。また、目と眉間、目とこめかみ等、複数の動きを検知することもできる。
以下、一例としてまばたきを検出してカメラ34のシャッターを切る場合を説明する。
電界変化認識部33は、ハウジング30内部に収納しても電極面から最大15cm離れた面で挟む空間内のまばたきを検出可能なので、カメラ方式や赤外線方式のようにケースに穴を開ける必要がない。また、周囲の光/音に影響されず、まばたき動作を検出することができる。
CPU31は、電界変化認識部33が出力したアナログ検出信号をデジタル化してRAMに記憶する。
なお、電界変化認識部33としては、例えば、マイクロチップ社のMGC3030や、MGC3130等の制御ICが挙げられる。
カメラ34は、撮像素子を備え、CPU31からシャッター信号が送られてくると、シャッターを切る。
カメラ34に用いる撮像素子の種別としては、例えばCCD(Charged-coupled devices)や、CMOS(Complementary metal-oxide-semiconductor)等が挙げられる。
内蔵メモリ35は、カメラ34により撮像されたデータの書き込みおよび読み出しを行う。なお、内蔵メモリ35としては、例えばフラッシュメモリ等の半導体記憶装置が挙げられる。
通信インタフェース36は、他のコンピュータまたは通信機器にデータを送信する。通信インタフェース36としては、例えばBluetooth(登録商標)等が挙げられる。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
次に、RAMに記憶される情報を説明する。
図3は、RAMに記憶されるパラメータの一例を示す図である。
図3では、パラメータがテーブル化されて記憶されている。
パラメータ管理テーブルT1には、パラメータ、および数値の欄が設けられている。横方向に並べられた情報同士が互いに関連づけられている。
パラメータの欄には、CPU31の処理に用いるパラメータが設定されている。
CMAの欄には、後述するキャリブレーション処理により得られたアナログ検出信号の最頻値が設定される。
閾値の欄には、シャッターを押すか否かを決める際の閾値が設定される。閾値の値は、後述するキャリブレーション実行決定処理により決定される。
SMAの欄には、後述するシャッター決定処理の際に、閾値を超えた値が格納される。
SCNTの欄には、シャッター処理の際に、閾値を超えた回数が格納される。
SFLAGの欄には、CPU31がカメラ34にシャッターを切らせるか否かを識別するための値が格納される。この欄に「1」が格納されれば、CPU31は、カメラ34のシャッターを切るためのシャッター信号を生成する。
図4は、RAMに記憶されるデータの一例を示す図である。
図4では、データがテーブル化されて記憶されている。
データ管理テーブルT1には、ID、および数値の欄が設けられている。横方向に並べられた情報同士が互いに関連づけられている。
IDの欄には、CPU31がアナログ検出信号をデジタル化した単位(分解能)が設定される。
取得値の欄には、CPU31がアナログ検出信号をデジタル化した信号の値が格納される。
次に、撮像装置1の処理を、フローチャートを用いて説明する。
図5は、実施の形態の撮像装置の全体処理を説明するフローチャートである。
[ステップS1] 電源が投入されると、CPU31は、電界発生用アンテナ32に電界を発生させる。その後、ステップS2に遷移する。
[ステップS2] CPU31は、メインループを初期化する。具体的には、CPU31は、パラメータ管理テーブルT1の数値の欄に設定されている数値を0にリセットする。そして、閾値の欄に、予め決定された初期値を設定する。その後、ステップS3に遷移する。
[ステップS3] CPU31は、キャリブレーション処理を実行し、状況に応じてキャリブレーションを行う。なお、キャリブレーション処理の処理内容については、後に詳述する。その後、ステップS4に遷移する。
[ステップS4] CPU31は、センサモニタリング処理を実行し、状況に応じてシャッターを切るか否かを決定する。CPU31は、シャッターを切ると判断した場合は、パラメータ管理テーブルT1のSGLAGの欄の数値を「1」に設定する。なお、センサモニタリング処理の処理内容については、後に詳述する。その後、ステップS5に遷移する。
[ステップS5] CPU31は、ステップS4にてシャッターを切ると判断した場合にシャッターを切るためのシャッター信号をカメラ34に送るシャッター信号出力処理を実行する。具体的には、CPU31は、パラメータ管理テーブルT1のSGLAGの欄を参照する。そしてSGFLAGが「1」であれば、シャッターを切るためのシャッター信号をカメラ34に送る。その後、ステップS6に遷移する。
[ステップS6] CPU31は、電源オフか否かを判断する。電源オフではない場合(ステップS6のNo)、ステップS2に遷移し、ステップS2以降の処理を引き続き実行する。電源オフの場合(ステップS6のYes)、図5の処理を終了する。
なお、全体処理の1ループ辺りの処理時間は、一例として1000msである。
ステップ毎の処理時間は、一例としてステップS2が0ms−2ms、ステップS3のキャリブレーション処理が3ms−100ms、ステップS4のセンサモニタリング処理が101ms−998msである。
次に、ステップS3のキャリブレーション処理をフローチャートを用いて説明する。
図6は、キャリブレーション処理を説明するフローチャートである。
[ステップS3a] CPU31は、電界変化認識部33からアナログ検出信号の入力を受け付ける。CPU31は、受け付けたアナログ検出信号をデジタル化し、データ管理テーブルT2の取得値の欄に格納していく。その後、ステップS3bに遷移する。
[ステップS3b] CPU31は、キャリブレーションを実行するか否かを決定するキャリブレーション実行決定処理を実行する。処理内容については、後に詳述する。その後、キャリブレーション処理を終了する。
以上でキャリブレーション処理の説明を終了する。
次に、ステップS3bのキャリブレーション実行決定処理をフローチャートを用いて説明する。
図7は、キャリブレーション実行決定処理を説明するフローチャートである。
[ステップS3b1] CPU31は、アナログデータ管理テーブルT2の取得値の欄を参照する。そして、取得値の最頻値を決定する。そして、CPU31は決定した最頻値をパラメータ管理テーブルのCMAの欄に設定する。その後、ステップS3b2に遷移する。
[ステップS3b2] CPU31は、キャリブレーションを実行するか否かを判断する。具体的には、パラメータ管理テーブルT1のCMAの欄に格納されている数値と、閾値の欄に格納されている数値とを比較する。そして、両方の値が予め定めた値以上離れている場合、キャリブレーションを実行すると判断する。キャリブレーションを実行する場合(ステップS3b2のYes)、ステップS3b3に遷移する。キャリブレーションを実行しない場合(ステップS3b2のNo)、キャリブレーション実行決定処理を終了する。
[ステップS3b3] CPU31は、パラメータ管理テーブルT1のCMAの欄に格納されている値を閾値の欄に設定(上書き)する。その後、キャリブレーション実行決定処理を終了する。
なお、キャリブレーション実行決定処理の処理時間は、一例として48ms−100msである。
次に、ステップS4のセンサモニタリング処理をフローチャートを用いて説明する。
図8は、センサモニタリング処理を説明するフローチャートである。
[ステップS4a] CPU31は、電界変化認識部33から検出信号の入力を受け付ける。CPU31は、受け付けた検出信号をアナログデータ管理テーブルT2の取得値の欄に格納していく。その後、ステップS4bに遷移する。
[ステップS4b] CPU31は、シャッターを押すか否かを決定するシャッター決定処理を実行する。処理内容については、後に詳述する。その後、センサモニタリング処理を終了する。
以上でセンサモニタリング処理の説明を終了する。
次に、ステップS4bのシャッター決定処理をフローチャートを用いて説明する。
図9は、シャッター決定処理を説明するフローチャートである。
[ステップS4b1] CPU31は、パラメータ管理テーブルT1とデータ管理テーブルT2を参照する。そして、CPU31は、データ管理テーブルT2の各取得値のうち、閾値を超えた回数が何回あったかを計数する。そして、閾値を超えた回数があった場合、超えた値をパラメータ管理テーブルT1のSMAの欄に格納する。また、閾値を超えた回数をパラメータ管理テーブルT1のSCNTの欄に格納する。その後、ステップS4b2に遷移する。
[ステップS4b2] CPU31は、パラメータ管理テーブルT1を参照する。そして、SMAの欄に格納されている値と、SCNTの欄に格納されている値を用いてシャッターを押すか否かを決定する。具体的には、CPU31は、SMAの欄に格納されている値が予め定めた値以上、かつ、SCNTの回数が予め定めた回数以上の場合(ステップS4b2のYes)、ステップS4b3に遷移する。SMAの欄に格納されている値が予め定めた値未満、または、SCNTの回数が予め定めた回数未満である場合(ステップS4b2のNo)、シャッター決定処理を終了する。
[ステップS4b3] CPU31は、パラメータ管理テーブルT1のSFLAGの欄に「1」を設定する。その後、シャッター決定処理を終了する。
なお、シャッター決定処理の処理時間は、一例として450ms−998msである。
なお、本実施の形態ではステップS4b1にて回数を計数したが、閾値を超えた時間を計測してもよい。この場合、ステップS4b2では、CPU31は、SMAの欄に格納されている値が予め定めた値より大きく、かつ、閾値を超えた時間が一定時間より長い場合、ステップS4b3に遷移する。
本実施の形態のシャッター決定処理を実行することにより、意識的な人体の動きの変化を検出したときはシャッターを切ることを決定し、無意識な(自然な)人体の動きによりシャッターを切ることを抑制することができる。
以上述べたように、撮像装置1によれば、電極をハウジング内部に収納しても電極面から最大15cm程度離れた面で挟む空間内の人間の動作(例えばまばたき等)を検出可能である。このため、カメラで顔の動きを撮像してシャッターを切る方式や、赤外線で顔の動きを検知してシャッターを切る方式のようにケースに穴を開ける必要がない。また、フレーム2を介して目と反対側に配置することも可能である。さらに、周囲の光/音に影響されないで人間の動作の検出が可能である。
さらに、前述したように、電界変化認識部33は、電界の変化を検出可能な箇所(軸)を複数設定できる。このため、例えば、目の変化に着目した場合は、まばたきの検知以外にも、眼球の動きを検出(眼球が左右上下どこをみているか、眼球がどこにフォーカスしているか)したり、複雑なまばたきの検知(まばたきの強弱や複数回まばたきの検知)をしたりすることが可能となる。また、目と眉間、目とこめかみ等、複数の動きを検知することもできる。このため、予め設定しておいた人体の複数の動作パターンを検出させることにより、撮像装置1に複数の機能を実行させることもできる。例えば、人体の意図的なまばたき動作を検出したときにはカメラ34のシャッターを切って静止画を撮像する。人体の意図的なまばたき動作を2回連続で検出したときにはカメラ34のシャッターを切って動画像を撮像する等が可能となる。
なお、本実施の形態では、カメラを制御部3に含めて一体的なモジュールとした。しかし、これに限らず、カメラを含まない信号出力装置として用いてもよい。この信号出力装置の用途としては、例えば、電子機器の動作のON、OFF(例えば、車のエンジンのスターターや、自宅の電子ドアの施錠、解錠や、テレビのON/OFFやチャンネル操作、コンピューターのマウスのような複雑な操作等)に用いることができる。
以上、本発明の信号出力装置および撮像装置を、図示の実施の形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物や工程が付加されていてもよい。
また、本発明は、前述した実施の形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
上記については単に本発明の原理を示すものである。さらに、多数の変形、変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
1 撮像装置
2 フレーム
3 制御部
30 ハウジング
31 CPU
32 電界発生用アンテナ
33 電界変化認識部
34 カメラ
35 メモリ
36 通信インタフェース
T1 パラメータ管理テーブル
T2 データ管理テーブル

Claims (2)

  1. 撮像部と、
    電界を発生させる横長形状の発生部と、
    第1の閾値と第2の閾値とを記憶する記憶部と、
    前記発生部が発生させた電界の変化の大きさと、前記記憶部に記憶された第1の閾値が所定値以上離れている場合に、前記発生部が発生させた電界の変化の大きさを前記記憶部に記憶される第1の閾値として設定する設定部と、
    前記撮影者のこめかみ又は目尻の近傍の複数の箇所の動きによって生じる前記発生部が発生させた電界の変化の大きさが第1の閾値を超え、かつ、前記電界の変化の大きさが第1の閾値を超えた時間が第2の閾値を超えた場合、又は前記電界の変化の大きさが第1の閾値を超えた回数が前記第2の閾値を超えた場合に、前記撮像部が撮像する信号を生成する処理部と、
    眼鏡のテンプルに撮像装置を装着するためのものであって、前記発生部から撮影者の方向に電界を発生させ、かつ、前記発生部の横長形状の長手方向が、前記テンプルに沿うように、前記撮像装置を装着するための取付部を備える撮像装置。
  2. 撮像部と、第1の閾値と第2の閾値とを記憶する記憶部と、電界を発生させる横長形状の発生部と、前記発生部が発生させた電界の変化に基づいて前記撮像部が撮像する信号を生成する処理部とを備えた撮像装置を用いた撮像方法であって、
    発生部の横長形状の長手方向が眼鏡のテンプルに沿うように前記撮像装置が配置された状態で、前記発生部から撮影者の方向に電界を発生させる第1のステップと、
    前記発生部が発生させた電界の変化の大きさと、前記記憶部に記憶された第1の閾値が所定値以上離れている場合に、前記発生部が発生させた電界の変化の大きさを前記記憶部に記憶される第1の閾値として設定する第2のステップと、
    前記撮影者のこめかみ又は目尻の近傍の複数の箇所の動きによって生じる前記発生部が発生させた電界の変化の大きさが第1の閾値を超え、かつ、前記電界の変化の大きさが第1の閾値を超えた時間が第2の閾値を超えた場合、又は前記電界の変化の大きさが第1の閾値を超えた回数が前記第2の閾値を超えた場合に、前記処理部に撮像部が撮像する信号を生成させる第3のステップを備える撮像方法。
JP2016555846A 2016-02-26 2016-02-26 信号出力装置および撮像装置 Expired - Fee Related JP6235161B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/055892 WO2017145382A1 (ja) 2016-02-26 2016-02-26 信号出力装置および撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017206195A Division JP2018077219A (ja) 2017-10-25 2017-10-25 信号出力装置および撮像装置

Publications (2)

Publication Number Publication Date
JP6235161B1 true JP6235161B1 (ja) 2017-11-22
JPWO2017145382A1 JPWO2017145382A1 (ja) 2018-03-01

Family

ID=59684983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016555846A Expired - Fee Related JP6235161B1 (ja) 2016-02-26 2016-02-26 信号出力装置および撮像装置

Country Status (5)

Country Link
US (1) US20190028635A1 (ja)
EP (1) EP3421926A1 (ja)
JP (1) JP6235161B1 (ja)
CN (1) CN108779974A (ja)
WO (1) WO2017145382A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11720168B1 (en) * 2022-05-25 2023-08-08 Microsoft Technology Licensing, Llc Inferred body movement using wearable RF antennas
US11775057B1 (en) 2022-05-25 2023-10-03 Microsoft Technology Licensing, Llc Head-mounted display operation based on face tracking

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164186A (ja) * 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画像記録装置
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
JP2005098030A (ja) * 2003-09-26 2005-04-14 Honda Lock Mfg Co Ltd 車両用ドアのアウトハンドル装置
JP2006129885A (ja) * 2004-11-02 2006-05-25 Yoshimichi Yonezawa 咀嚼運動検出装置
JP2009273861A (ja) * 2008-04-16 2009-11-26 Scalar Corp 疲労予防装置
JP2014160473A (ja) * 2012-04-19 2014-09-04 Panasonic Intellectual Property Corp Of America 携帯電子機器
JP2015522841A (ja) * 2012-06-11 2015-08-06 三井化学株式会社 眼鏡用アダプタ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1027627B1 (en) * 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20150365575A1 (en) * 2014-06-13 2015-12-17 Sony Corporation Lifelog camera and method of controlling same according to transitions in activity
JP6426589B2 (ja) * 2015-11-27 2018-11-21 株式会社東芝 眼電位検出装置、眼電位検出方法、アイウエア及びフレーム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164186A (ja) * 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画像記録装置
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
JP2005098030A (ja) * 2003-09-26 2005-04-14 Honda Lock Mfg Co Ltd 車両用ドアのアウトハンドル装置
JP2006129885A (ja) * 2004-11-02 2006-05-25 Yoshimichi Yonezawa 咀嚼運動検出装置
JP2009273861A (ja) * 2008-04-16 2009-11-26 Scalar Corp 疲労予防装置
JP2014160473A (ja) * 2012-04-19 2014-09-04 Panasonic Intellectual Property Corp Of America 携帯電子機器
JP2015522841A (ja) * 2012-06-11 2015-08-06 三井化学株式会社 眼鏡用アダプタ

Also Published As

Publication number Publication date
WO2017145382A1 (ja) 2017-08-31
JPWO2017145382A1 (ja) 2018-03-01
EP3421926A1 (en) 2019-01-02
US20190028635A1 (en) 2019-01-24
CN108779974A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
KR102296396B1 (ko) 비접촉 체온 측정 시 정확도를 향상시키기 위한 장치 및 방법
US10044927B2 (en) Capturing a stable image using an ambient light sensor-based trigger
EP3011495B1 (en) Multiple mode image acquisition for iris imaging
US10806364B2 (en) Methods and apparatuses for electrooculogram detection, and corresponding portable devices
US20190297240A1 (en) Wearable device, control apparatus, photographing control method and automatic imaging apparatus
EP3067782B1 (en) Information processing apparatus, control method, and program
US10254842B2 (en) Controlling a device based on facial expressions of a user
KR20170028942A (ko) 안전한 웨어러블 컴퓨터 인터페이스
WO2016153700A1 (en) Voice activity detection technologies, systems and methods employing the same
US20150193658A1 (en) Enhanced Photo And Video Taking Using Gaze Tracking
WO2018082162A1 (zh) 用于虚拟现实设备的功能触发方法、装置及虚拟现实设备
CN111291338B (zh) 用户识别方法、用户识别装置、存储介质与头戴式设备
JP6750697B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2015225374A (ja) 情報処理装置、方法及びプログラム並びに記録媒体
JP6235161B1 (ja) 信号出力装置および撮像装置
JP2018077219A (ja) 信号出力装置および撮像装置
US9400920B2 (en) Display screen controlling apparatus in mobile terminal and method thereof
JP6087615B2 (ja) 画像処理装置およびその制御方法、撮像装置、および表示装置
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2019142621A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5919323B2 (ja) 瞬き検出装置及び眼鏡型電子機器
KR20200029270A (ko) 객체를 인식하는 전자 장치 및 그 전자 장치를 제어하는 방법
WO2015170663A1 (ja) 眼球検出装置及び眼鏡型電子機器
JP2017011454A (ja) ウェアラブルデバイス
CN108227906B (zh) 一种人机交互方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171025

R150 Certificate of patent or registration of utility model

Ref document number: 6235161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees