JP2006146479A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2006146479A
JP2006146479A JP2004334315A JP2004334315A JP2006146479A JP 2006146479 A JP2006146479 A JP 2006146479A JP 2004334315 A JP2004334315 A JP 2004334315A JP 2004334315 A JP2004334315 A JP 2004334315A JP 2006146479 A JP2006146479 A JP 2006146479A
Authority
JP
Japan
Prior art keywords
image
computer
input
user
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004334315A
Other languages
English (en)
Inventor
Yasuhiro Fukui
康裕 福井
Ayako Kato
綾子 加藤
Kenji Machida
健治 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2004334315A priority Critical patent/JP2006146479A/ja
Publication of JP2006146479A publication Critical patent/JP2006146479A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 人体部位の動作をコンピュータに対する操作命令に対応付け、その人体部位の動作によってコンピュータの操作を可能とした入力装置において、実用に充分な精度を確保することができる入力装置を提供することである。
【解決手段】 コンピュータに対する操作命令を入力する入力装置において、前記操作命令を入力する使用者を撮像するカメラと、前記カメラで撮像した画像データの特徴画像の動作を判別する判別手段と、前記判別手段で判別した動作に基づいて定まる前記コンピュータに対する操作命令を、前記コンピュータに引き渡す操作命令引渡手段とを備えた。
【選択図】 図2

Description

本発明は入力装置に関し、詳しくはカメラで撮影した画像の変化に応じたコンピュータの操作を可能とした入力装置に関する。
いわゆるパソコンのようなコンピュータを操作しようとしたときにそのコンピュータの使用者が操作命令を入力する入力装置としては、キーボード、マウス、タブレット等がよく知られている。これらの従来の入力装置では、その操作命令の入力に当って指先などをある程度使わなければ入力を行うことができない。
このため、様々な理由で手に何らかの障害があるような場合、コンピュータの操作が非常に困難で、操作できない場合さえもあった。しかしながら、最近ではインターネットの発達にも伴い情報収集など様々な用途にコンピュータが用いられており、健常者も障害者も変わることなくコンピュータを利用できることが望ましい。
そこで特許文献1に記載の「マンマシン・インターフェース」では、使用者の顔画像等を撮像するカメラを設け、このカメラで撮像した画像の動きすなわち顔等の人体部位の動作に応じてコンピュータに対して操作命令を与えられるようにしている。
特開平8−315118号公報
ところが上述した特許文献1に記載の発明では、撮像した画像において人体部位があらかじめ定めた動作をしたことを判別し、その動作に対応付けたコンピュータ操作をコンピュータにて実行することが提案されているものの、その人体部位の動作の判別方法についての具体的な開示はされておらず、その実施に当っては実用に充分な判別精度を得られず、誤判別のおそれが大きく、使用者の意思どおりにコンピュータを操作することができないという問題があった。
本発明は上記の点にかんがみてなされたもので、人体部位の動作をコンピュータに対する操作命令に対応付け、その人体部位の動作によってコンピュータの操作を可能とした入力装置において、実用に充分な精度を確保することができる入力装置を提供することを目的とする。
本発明は上記の目的を達成するために、コンピュータに対する操作命令を入力する入力装置において、前記操作命令を入力する使用者を撮像するカメラと、前記カメラで撮像した画像データの特徴画像の動作を判別する判別手段と、前記判別手段で判別した動作に基づいて定まる前記コンピュータに対する操作命令を、前記コンピュータに引き渡す操作命令引渡手段とを備えた。
また本発明は請求項1に記載の発明において、前記判別手段がニューラルネットワークによって特徴画像の動作を判別することを特徴とする。
また本発明は請求項2に記載の発明において、前記ニューラルネットワークが自己組織化マップであることを特徴とする請求項2に記載の入力装置。
本発明によれば、人体部位の動作をコンピュータに対する操作命令に対応付け、その人体部位の動作によってコンピュータの操作を可能とした入力装置において、実用に充分な精度を確保することができる入力装置を提供することができる。
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明による入力装置の一実施の形態を備えたコンピュータシステムの構成を示すブロック図である。
本実施の形態の入力装置1は、使用者5の動作の判別処理を行うとともに使用者5が操作する対象であってたとえば一般にパーソナルコンピュータ(PC)と呼ばれるコンピュータ2と、コンピュータ2からの映像信号により映像表示するディスプレイ装置3と、使用者5の動作を撮像してその撮像信号をコンピュータ2に対して出力するカメラ4とを備えたコンピュータシステムに包含され、少なくともカメラ4と使用者5の動作の判別処理を行うコンピュータ2とを有して構成される。
カメラ4としては、コンピュータ2にUSB接続されるような安価な小型カメラを用いることができる。また、コンピュータ2に内蔵された、コンピュータ2と一体型のカメラを用いてもよい。カメラ4とコンピュータ2とのインターフェイスとしては、有線のUSB接続のほかに、無線のUSB接続、IEEE1394接続、PC接続などが可能であり、どのような接続形態であってもかまわない。
本実施の形態では、コンピュータ2に対する操作命令のそれぞれ(たとえば、カーソルの移動、仮想キーボードの起動および表示、仮想キーボードによる文字等の入力、マウスのクリック動作)に対応付けた使用者5の動作(たとえば、目の開閉、凝視方向の変更、口の開閉、発音(ただし、音声を発する必要はなく、口の形状を様々に変えればよい))を、あらかじめコンピュータ2に登録しておき、使用者5がコンピュータ2を操作する際には、使用者5は自身の動作がカメラによって撮像されるように自身とカメラ4との位置調整を行い、所望の操作命令にあらかじめ対応付けた動作を行う。この動作の画像をカメラ4によって得たコンピュータ2では、その動作画像(その動作時の顔の形状、目の形状、口の形状等)を判別し、その動作に対応付けられた操作命令を実行する。
図2は、図1に示した入力装置1の機能構成を示す機能ブロック図である。
画像入力部41では、使用者5をカメラ4によって撮像して撮像信号を得て、この撮像信号に基づいて撮像した画像の画素ごとのたとえば輝度値から成る画像データを得て、この画像データを、コンピュータ2でソフトウェアプログラムを実行して実現される画像判別部21に引き渡す。
画像判別部21は、カメラ4によって撮像された入力画像(後述する入力層のニューロンに相当)がどのような動作の画像であるかを判別するための基準画像(テンプレート、後述する出力層のニューロンに相当)を記憶する画像データベース22と、入力画像が画像データベース22の複数の基準画像のうちのどれに分類されるものであったかの情報(たとえば基準画像のID)をバッファリングするバッファ23とを有し、基準画像を作成する処理(後述の学習処理)および入力画像が複数の基準画像のうちのいずれに分類されるものであるかを求める処理(後述の分類検索処理)を行う。これが、カメラで撮像した画像データの特徴画像の動作を判別する判別手段である。
画像データベース22に記憶された複数の基準画像のそれぞれ(使用者5の動作のそれぞれ)(状態遷移パタン25)は、PC操作変換部24において、コンピュータ2に対する操作命令のそれぞれ(操作命令26)に対応付けられている。また、時系列的な基準画像の組み合わせ(使用者5の動作の遷移)に対してコンピュータ2に対する操作命令のそれぞれを対応付けるようにしてもよい。
PC操作変換部24では、この対応付けに基づいて、画像判別部21によって判別した使用者5の動作に応じたコンピュータ2に対する操作命令を求め、それを出力する。その出力先は、その操作命令を実行する、コンピュータ2で動作するアプリケーション(ソフトウェアプログラム)27である。アプリケーション27では入力された操作命令を実行する。なお、このコンピュータ2に対する操作命令のコンピュータ2に対する引渡しは、OS(オペレーティングシステム)の何らかの機能を介して行われるものであってもよいし、操作するアプリケーションに直接的に引き渡されるものであってもよい。これが、判別手段で判別した動作に基づいて定まるコンピュータに対する操作命令を、コンピュータに引き渡す操作命令引渡手段である。
次に、本実施の形態の入力装置1において、基準画像を作成する処理である学習処理および入力画像が複数の基準画像のうちのいずれに分類されるものであるかを求める処理である分類検索処理について説明する。
図3は、図1に示した入力装置1における学習処理および分類検索処理の概要を説明する図である。
本実施の形態の入力装置1では、ニューラルネットワークの一種である自己組織化マップを利用して学習処理および分類検索処理を行う。本発明はこれに限られるものではなく、自己組織化マップ以外のニューラルネットワークを用いるものであってもかまわない。
自己組織化マップはニューラルネットワークの1つであり、図3に示すように、入力層(データ入力されるデータ層)と出力層(マップ層)とを有する。この自己組織化マップによれば、入力層に入力されたデータセットの特徴を出力層にマッピングすることができる。この出力層へのマッピングが学習である。この学習においては、教師を必要とせず、入力データセットの特徴を出力層にて自動的に分類することができる。これが本実施の形態の入力装置1の学習処理である。出力層のニューロンの数はあらかじめ定めておけばよく、その状態で入力層にデータセットを入力すれば、入力されたデータに基づいてあらかじめ定めた数のニューロンすなわち基準画像(テンプレート)が作成される。
学習の後においては、入力層に入力されたデータは出力層に並ぶ複数のニューロンのうちの1つにマッピングされる。具体的には、あるデータが入力されると、そのデータの特徴に最も近い出力層のただ1つのニューロン(勝ちニューロン)が発火する。これが本実施の形態の入力装置1の分類検索処理であり、勝ちニューロンが検索結果の基準画像(テンプレート)である。
より詳細に説明すると、出力層の個々のニューロンは入力層のすべてのニューロンと固有の結合荷重(たとえばw11〜wnm)がかけられて結合されており、出力層の1つのニューロンに着目すると、w1i〜wniまでの結合荷重はn次元のベクトルと考えることができる。また、入力層に入力されるデータ(たとえばa〜a)もn次元のベクトルと考えることができる。したがって、出力層の複数のニューロンのうち、その結合荷重ベクトルが、入力されたデータのデータベクトルと最も近いニューロンが勝ちニューロンとして発火することになる。
本実施の形態の入力装置1では、使用者5を撮像した画像の特徴をマッピングする自己組織化マップを構築している。
入力層のニューロンへは、使用者5を撮像した画像の各画素の輝度値を入力する。このため、入力層のニューロン数は画像データの画素数となる。入力層に入力する画像データは、カメラ4で撮影したそのままのものでもよいし、その中から使用者5の目の部分や口の部分のみを切り出した画像データであってもよい。
また、たとえば使用者5が右を凝視する動作および左を凝視する動作の2種類のみを行うこととし、その分類ができればよいのであれば、出力層のニューロン数は2つあればよい。この使用者5の動作の種類を増やし、出力層のニューロン数を増やせば、それだけ、コンピュータ2に対する操作命令の種類も増やすことができる。ただし、動作を増やしすぎて識別しづらい動作が増えてしまうと、入力データが期待した出力層ニューロンが勝ちニューロンとならないおそれもある。
ここで、自己組織化マップにデータを入力した場合の動作についてさらに詳しく説明する。
まず、画像データベース22に記憶してある基準画像の画像データのいずれに分類されるかを検索したい画像データを自己組織化マップの入力層に入力する。入力する画像データはあらかじめ256階調のグレースケール画像にしておく。このため、入力される画像の各画素の輝度値は0〜255の値となる。
ここで、n個の画素から成る入力画像を各画素の輝度値(a〜a)を要素としたベクトルxで表すものとする。また、入力層のj番目のニューロンから出力層のi番目のニューロンへの結合荷重をwjiとし、入力層のすべてのニューロンから出力層のi番目のニューロンへの結合荷重(w1i〜wni)を要素としたベクトルをwとすると、すなわちxを数1に示すようにし、wを数2に示すようにすると、xとwとのユークリッド距離dは数3に示すようになる。
Figure 2006146479
Figure 2006146479
Figure 2006146479
入力画像xを入力した場合の勝ちニューロンは、数3に示すユークリッド距離dが最小のニューロンである。
上述したように自己組織化マップを利用することによって、本実施の形態の入力装置1における学習処理および分類検索処理が実現される。
次に、本実施の形態の入力装置1において扱う画像データについて説明する。
上述したように自己組織化マップに入力する画像データは、カメラ4で撮像した画像データの全体でもかまわないが、そうすると画像の画素数が多く処理時間がかかるし、また、たとえば目を動かすという動作を出力層で分類したい場合に、顔全体の画像を入力とする場合では、目の周囲の画像のみを入力とした場合と比べ、画像全体に対する動作する部分(特徴部分)の割合が小さく、動作変化の特徴を捉えづらいものとなってしまう。
このため、入力装置1では、カメラ4で撮像した画像から使用者5の目の部分や口の部分などの必要な部分のみを切り出した画像データを用いる。この必要な部分を切り出す処理(特徴画像の抽出)について図4を参照して説明する。
図4は、図1に示した入力装置1における処理であって、カメラ4で撮像した画像データから必要な部分を切り出す処理(特徴画像の抽出)のフローチャートを示す図である。
カメラ4は対象画像(使用者5)を常時撮像しており、コンピュータ2では、たとえば30フレーム/秒でキャプチャを行い、動画像を連続的な静止画像に変換する。
次に、画像のフレームごとに特徴画像の抽出を行う。ここでは目と口を特徴画像として抽出する場合について説明する。
まず、画像の粗さやノイズを取り除くために画像全体に平滑化フィルタをかけて平滑化を行う(A−1)。
次に、たとえばラプラシアンフィルタを用いてエッジを強調した後に、そのエッジの抽出を行い(A−2)、エッジで囲まれた個所を抽出する特徴画像の候補として選択しておく(A−3)。
このエッジで囲まれる箇所としては、顔でいえば眉、目、鼻の穴、口などが挙げられる。複数のフレーム画像のうちの最初のフレームの画像では、コンピュータ2では、眉、目、口などの区別がつかないので、1回目すなわち最初のフレームの画像のときには、エッジで囲まれた箇所のうちのどれが目であり、どれが口であるかを、ディスプレイ装置3に表示した画像上で、たとえば使用者5またはその補助者が手動で指定する(A−4、A−5)。この指定には従来からのマウス等の入力装置を用いればよい。
これに対して、最初のフレーム以外の画像である場合には、前フレームの画像で目、口とされた箇所の近傍であって、今回の画像においてエッジで囲まれた箇所が、今回の画像の目、口であると自動的に選択する(A−4、A−6)。
次に、目として指定、選択された2つ(両目に対応)のエッジで囲まれた個所のそれぞれにおいて重心点を求め、この2つの重心点を結ぶ直線を想定し、この直線が水平になるように画像全体を回転させる(A−7)。回転の中心点は、目の重心点を結んだ直線の中心点でもよいし、画像全体の中心点でもよい。このように画像の回転処理を施すのは、使用者5が無意識に少し首を傾けたりして、いつでも水平な画像、同じ角度の画像を撮像できるとは限らないからである。
その後、目、口として指定、選択されたエッジで囲まれた個所のそれぞれを、エッジの外側までを含んだ所定形状で切り出し、これによって部位画像(特徴画像)の抽出を行う(A−8)。この切り出しの際の所定形状は、矩形であってもよいし、楕円形であってもよいが、目や口の形状を考慮すると、楕円形の画像を切り出す、または矩形で切り出した後に楕円形になるようにマスクするのが望ましい。また、目だけまたは口だけを特徴画像としてもよいし、目と口の組み合わせで特徴画像としてもよい。このようにして抽出した特徴画像を、自己組織化マップの入力データとする。
続いて、特徴画像を抽出する処理の要部について画像を示す図5を参照してさらに説明する。
図5は、図1に示した入力装置1における処理であって、カメラ4で撮像した画像データから必要な部分を切り出す処理(特徴画像の抽出)のフローチャートを、その処理を施した画像とともに示す図である。
図4に示した処理と図5の処理とでは、細部において異なるが、特徴画像を抽出する処理の要部は同様である。
まず、画像の粗さやノイズを取り除くために画像全体に平滑化フィルタをかけて平滑化を行い(B−1)、たとえばラプラシアンフィルタを用いてエッジを強調した後に、そのエッジの抽出を行い(B−2)、エッジで囲まれた個所のそれぞれにおいて重心点を求める(B−3)。
その後、図4と同様にして、エッジで囲まれた個所のうち特徴画像として抽出したい箇所、部位を選択する(B−4)。
続いてたとえば目として選択された2つ(両目に対応)のエッジで囲まれた個所のそれぞれの重心点を結ぶ直線を想定し、この直線が水平になるように画像全体を回転させ(B−5)、
選択された箇所を、エッジの外側までを含んだ所定形状たとえば楕円形で切り出し、これによって部位画像(特徴画像)の抽出を行う(B−6)。このようにして抽出した特徴画像を、自己組織化マップの入力データとする。
自己組織化マップの学習処理は、出力層のニューロン数を定義した上で学習用の入力データを入力層に入力することによって行われる。この学習によって得られる出力層のニューロンの例を図6に示す。
図6は、図1に示した入力装置1における学習処理において生成される出力層のニューロンのそれぞれを示す図であって、(a)は目を特徴画像とした場合の各ニューロンの画像を示す図であり、(b)は口を特徴画像とした場合の各ニューロンの画像を示す図である。
入出力装置1によれば、使用者5が所定の動作(顔の表情)をした学習用の入力データを、図4や図5を参照して説明したようにして得て、出力層のニューロン数(図6(a)、図6(b)の例ではそれぞれ20)を定義した上で、この入力データを自己組織化マップの入力層に入力することによって、学習処理が行われる。
出力数のニューロンのそれぞれは、図6(a)や図6(b)に示すように、入力データに基づいた基準画像(テンプレート)であり、これらが画像データベース22に記憶されることによって学習が行われたことになる。
このようにして自己組織化マップの出力層のニューロンのそれぞれが得られたならば、それぞれに対して、コンピュータ2に対する操作命令のいずれかを対応させ、その対応付けをPC操作変換部24にて記憶しておく。この対応付けは、出力層のニューロン1つに対してコンピュータ2に対するいずれかの操作命令1つを対応付けるようにしてもよいし、出力層のニューロンのうちの所定のものが所定の順番で発生したという時系列的な基準画像の組み合わせ(使用者5の動作の遷移)1つに対してコンピュータ2に対するいずれかの操作命令1つを対応付けるようにしてもよいし、逆に、出力層のニューロン1つに対してコンピュータ2に対する複数の操作命令の組み合わせを対応付けるようにしてもよいし、出力層のニューロンのうちの所定のものが所定の順番で発生したという時系列的な基準画像の組み合わせ(使用者5の動作の遷移)1つに対してコンピュータ2に対する複数の操作命令の組み合わせを対応付けるようにしてもよい。
上述したようにして学習や、使用者5の動作とコンピュータ2に対する操作命令との対応付けが完了したならば、使用者5が入力装置1を用いてコンピュータ2に対する操作命令を入力する際の動作について図7を参照して説明する。この図7では、出力層のニューロンのうちの所定のものが所定の順番で発生したという時系列的な基準画像の組み合わせ1つに対してコンピュータ2に対するいずれかの操作命令1つを対応付けるようにした場合について説明する。
図7は、図1に示した入力装置1における処理であって、使用者5が入力装置1を用いてコンピュータ2に対する操作命令を入力する際の動作のフローチャートを示す図である。
上述したように、カメラ4は対象画像(使用者5)を常時撮像しており、コンピュータ2では、たとえば30フレーム/秒でキャプチャを行い、動画像を連続的な静止画像に変換する。
この状態で使用者5は、自分が実行したいコンピュータ2への操作命令に対してあらかじめ対応付けた動作を行う。
コンピュータ2では、カメラ4によってこの使用者5の動作を撮像し、画像のフレームごとに、図4で説明したのと同様にして特徴画像の抽出を行う。得られた特徴画像は自己組織化マップの入力層に入力され、上述したユークリッド距離dが最小である勝ちニューロンが決定され、画像の判別が行われる(C−1)。これが分類検索処理である。
続いて、使用者5の1つの動作を確定させるのに充分な時間が経過するのを待ち(C−2)、その時点での勝ちニューロンを第1の動作状態としてバッファ23に蓄積し(C−3)、その後、その蓄積結果が、あらかじめ登録、対応付けした状態遷移パタン25内のいずれかと一致するまで(C−4)、使用者5の次なる動作による勝ちニューロンをバッファ23へ順番に追加蓄積していく。
バッファ23の蓄積結果が、あらかじめ登録、対応付けした状態遷移パタン25内のいずれかと一致したならば、その一致したパタンに対応付けられた操作命令26内の操作命令をアプリケーション27に引渡し(C−5)、コンピュータ2にて実行する。
次に、使用者5の動作の状態遷移について、図8の例を参照してさらに説明する。
図8は、使用者5の動作の状態遷移と、その動作の自己組織化マップによる判別結果とをグラフに示す図であり、(a)は目を特徴画像とした場合を示す図であり、(b)は口を特徴画像とした場合を示す図である。
図8(a)および(b)において、横軸は時間の流れに伴なう使用者5の動作の状態遷移を示し、縦軸は図6(a)および(b)に示した出力層のニューロンのそれぞれに付した番号を示す。
図8(a)を参照すると、目を普通に開いた状態(開眼)では、図6(a)のNo.5のニューロンが勝ちニューロンとして発火し、右下を見た状態(右下)では、図6(a)のNo.10のニューロンが勝ちニューロンとして発火し、また、図8(b)を参照すると、「う」と発音した状態(「う」)では、図6(b)のNo.15のニューロンが勝ちニューロンとして発火し、口を強く閉じた状態(強閉)では、図6(b)のNo.10のニューロンが勝ちニューロンとして発火する。
このように本実施の形態によれば、動作によって発火するニューロンが異なることによって、精度よく動作の判別を行うことができる。また、より精度の向上が必要な場合には、出力層のニューロン数を減らし、より極端な動作が各ニューロンに対応付けられるようにして、識別性を向上すればよい。
ところで、目の動作を特徴画像としたとき、使用者5がディスプレイ装置3の表示内容を閲覧する際の目の動作が、コンピュータ2の操作命令を入力する際の目の動作と混同してしまうようであると、入力装置1は使い物にならないおそれがある。この点について図9を参照して説明する。
図9は、使用者5がディスプレイ装置3の表示内容を閲覧する際の目の動作と、コンピュータ2の操作命令を入力する際の目の動作との区別について説明する図であり、(a)は各動作ごとに、使用者5の動作の状態遷移と、その動作の自己組織化マップによる判別結果とをグラフに示す図であり、(b)はこのときに用いた出力層の各ニューロンの画像を示す図である。
この例では、図9(b)に示すように、自己組織化マップの出力層のニューロン数を10にしている。
図9(a)において、横軸は時間の流れに伴なう使用者5の動作の状態遷移を示し、縦軸は図9(b)に示す出力層のニューロンのそれぞれに付した番号を示す。
図9(a)の上段のグラフは、使用者5がコンピュータ2の操作命令を入力する際の目の動作をした場合のものであり、図9(b)の下段のグラフは、使用者5がディスプレイ装置3の表示内容を閲覧する際の目の動作をした場合のものである。
図9(a)の下段のグラフに示すように、使用者5がディスプレイ装置3の表示内容を閲覧している場合、出力層の複数のニューロンのうちのある限られたニューロンのみが勝ちニューロンとなっている。そこで、コンピュータ2の操作命令に対応付けるニューロンは、ディスプレイ閲覧時の勝ちニューロンと区別できるもの、またはそれらの組み合わせにすればよい。
ところで、たとえば使用者5の経時的または突発的な顔表情の変化(太ったり、やせたり、しわが増えたり、顔に傷を負ったりなど)によって、動作判別の精度の劣化を防ぐために、本実施の形態の入力装置1によれば随時学習を行うことが可能であり、その時々に応じて出力層のニューロンの書き換えが可能である。
なお、上述した発明の実施の形態では、使用者の顔を撮像し、目や口を特徴画像としたが、本発明はこれに限られるものではなく、使用者の意思で動作可能な身体的部位や使用者が操作する何らかの道具を撮像し、それらを特徴画像としてコンピュータの操作命令に対応付けるものであってもよい。
本発明による入力装置の一実施の形態を備えたコンピュータシステムの構成を示すブロック図である。 図1に示した入力装置の機能構成を示す機能ブロック図である。 図1に示した入力装置における学習処理および分類検索処理の概要を説明する図である。 図1に示した入力装置における処理であって、カメラで撮像した画像データから必要な部分を切り出す処理(特徴画像の抽出)のフローチャートを示す図である。 図1に示した入力装置における処理であって、カメラで撮像した画像データから必要な部分を切り出す処理(特徴画像の抽出)のフローチャートを、その処理を施した画像とともに示す図である。 図1に示した入力装置における学習処理において生成される出力層のニューロンのそれぞれを示す図であって、(a)は目を特徴画像とした場合の各ニューロンの画像を示す図であり、(b)は口を特徴画像とした場合の各ニューロンの画像を示す図である。 図1に示した入力装置における処理であって、使用者が入力装置を用いてコンピュータに対する操作命令を入力する際の動作のフローチャートを示す図である。 使用者の動作の状態遷移と、その動作の自己組織化マップによる判別結果とをグラフに示す図であり、(a)は目を特徴画像とした場合を示す図であり、(b)は口を特徴画像とした場合を示す図である。 使用者がディスプレイ装置の表示内容を閲覧する際の目の動作と、コンピュータの操作命令を入力する際の目の動作との区別について説明する図であり、(a)は各動作ごとに、使用者の動作の状態遷移と、その動作の自己組織化マップによる判別結果とをグラフに示す図であり、(b)はこのときに用いた出力層の各ニューロンの画像を示す図である。
符号の説明
1 入力装置
2 コンピュータ
3 ディスプレイ装置
4 カメラ
5 使用者
21 画像判別部
22 画像データベース
23 バッファ
24 PC操作変換部
25 状態遷移パタン
26 操作命令
27 アプリケーション
41 画像入力部

Claims (3)

  1. コンピュータに対する操作命令を入力する入力装置において、
    前記操作命令を入力する使用者を撮像するカメラと、
    前記カメラで撮像した画像データの特徴画像の動作を判別する判別手段と、
    前記判別手段で判別した動作に基づいて定まる前記コンピュータに対する操作命令を、前記コンピュータに引き渡す操作命令引渡手段と
    を備えたことを特徴とする入力装置。
  2. 前記判別手段がニューラルネットワークによって特徴画像の動作を判別することを特徴とする請求項1に記載の入力装置。
  3. 前記ニューラルネットワークが自己組織化マップであることを特徴とする請求項2に記載の入力装置。
JP2004334315A 2004-11-18 2004-11-18 入力装置 Pending JP2006146479A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004334315A JP2006146479A (ja) 2004-11-18 2004-11-18 入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004334315A JP2006146479A (ja) 2004-11-18 2004-11-18 入力装置

Publications (1)

Publication Number Publication Date
JP2006146479A true JP2006146479A (ja) 2006-06-08

Family

ID=36626097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004334315A Pending JP2006146479A (ja) 2004-11-18 2004-11-18 入力装置

Country Status (1)

Country Link
JP (1) JP2006146479A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117901A1 (ja) * 2011-03-01 2012-09-07 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (ja) * 1990-10-19 1992-05-29 Fujitsu Ltd ニューラルネットワークを用いた人間の動作自動認識装置
JPH05197810A (ja) * 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> 映像によるコマンド入力処理方法
JPH08315118A (ja) * 1995-05-19 1996-11-29 Sony Corp マンマシン・インターフェース
JP2001202379A (ja) * 2000-01-21 2001-07-27 Kobe University 仮想空間における仮想人物動作データブラウジング装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (ja) * 1990-10-19 1992-05-29 Fujitsu Ltd ニューラルネットワークを用いた人間の動作自動認識装置
JPH05197810A (ja) * 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> 映像によるコマンド入力処理方法
JPH08315118A (ja) * 1995-05-19 1996-11-29 Sony Corp マンマシン・インターフェース
JP2001202379A (ja) * 2000-01-21 2001-07-27 Kobe University 仮想空間における仮想人物動作データブラウジング装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117901A1 (ja) * 2011-03-01 2012-09-07 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム
JP2012181646A (ja) * 2011-03-01 2012-09-20 Mega Chips Corp データ処理装置、データ処理システム、及びプログラム
US9230156B2 (en) 2011-03-01 2016-01-05 Megachips Corporation Data processor, data processing system, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
WO2019128508A1 (zh) 图像处理方法、装置、存储介质及电子设备
US9690982B2 (en) Identifying gestures or movements using a feature matrix that was compressed/collapsed using principal joint variable analysis and thresholds
Hasan et al. Hand gesture modeling and recognition using geometric features: a review
WO2021042547A1 (zh) 行为识别方法、装置及计算机可读存储介质
TWI754806B (zh) 利用深度學習定位虹膜之裝置與方法
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP4998637B1 (ja) 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
US20130300650A1 (en) Control system with input method using recognitioin of facial expressions
JP2005202653A (ja) 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
Boutellaa et al. On the use of Kinect depth data for identity, gender and ethnicity classification from facial images
JP2011253292A (ja) 情報処理装置および方法、並びにプログラム
JP6460862B2 (ja) ジェスチャ認識装置、システム及びそのプログラム
KR102148151B1 (ko) 디지털 커뮤니케이션 네트워크에 기반한 지능형 채팅
WO2021196721A1 (zh) 一种舱内环境的调整方法及装置
Tu et al. Human computer interaction using face and gesture recognition
Chowdhury et al. Gesture recognition based virtual mouse and keyboard
Raees et al. Image based recognition of Pakistan sign language
Kumar et al. A hybrid gesture recognition method for American sign language
CN109919128A (zh) 控制指令的获取方法、装置及电子设备
CN109947243A (zh) 基于触摸手检测的智能电子设备手势捕获与识别技术
Naidoo et al. Vision-based static hand gesture recognition using support vector machines
JP5904730B2 (ja) 動作認識装置および動作認識方法
Tu et al. Face and gesture based human computer interaction
JP2020107037A (ja) 情報処理装置、情報処理方法及びプログラム
JP2020107038A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101005