JP6161244B2 - 携帯端末装置、プログラムおよび入力方法 - Google Patents

携帯端末装置、プログラムおよび入力方法 Download PDF

Info

Publication number
JP6161244B2
JP6161244B2 JP2012198186A JP2012198186A JP6161244B2 JP 6161244 B2 JP6161244 B2 JP 6161244B2 JP 2012198186 A JP2012198186 A JP 2012198186A JP 2012198186 A JP2012198186 A JP 2012198186A JP 6161244 B2 JP6161244 B2 JP 6161244B2
Authority
JP
Japan
Prior art keywords
terminal device
mobile terminal
movement
operator
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012198186A
Other languages
English (en)
Other versions
JP2014052934A (ja
Inventor
基康 田中
基康 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2012198186A priority Critical patent/JP6161244B2/ja
Publication of JP2014052934A publication Critical patent/JP2014052934A/ja
Application granted granted Critical
Publication of JP6161244B2 publication Critical patent/JP6161244B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯端末装置に情報を入力する技術に関する。
昨今、携帯電話、スマートフォン、電子書籍閲覧端末など、ユーザによって携帯されることを想定したコンピュータ(以下、「携帯端末装置」と総称する。)が広く普及し、一般のユーザが出先や移動中に携帯端末装置を使用する状況が頻繁に生じている。特に移動中において、ユーザは携帯端末装置を片手で保持しながら、当該携帯端末装置の画面に表示される内容を閲覧する。この状態で、ユーザが何らかの情報を携帯端末装置に対して手入力しなければならないとすると、ユーザは携帯端末装置を保持していない方の手によって携帯端末装置を操作しなければならない。この場合は、携帯端末装置の操作中において、ユーザの両手はふさがれた状態となり、鞄や傘などを持つことができないといった不便性もさることながら、転倒などの原因にもなりかねず、危険である。
したがって、従来より、携帯端末装置において、手入力せずに携帯端末装置を操作する技術が提案されている。特許文献1には、携帯端末装置を利用している人の顔を検出して、当該人の顔の軸に対応する向きにディスプレイ上の表示方向を決定する技術が記載されている。すなわち、携帯端末装置とユーザの顔の軸との相対的な位置関係を、当該ユーザの顔を検出することにより判別して、ディスプレイ上の表示方向を自動的に変更するための情報とするのである。より詳細には、特許文献1に記載されている技術は、顔を携帯端末装置に正対させるというユーザの行動により、表示方向を変更するための情報が入力できるように構成していると解することもできる。また、特許文献2には、加速度センサから得られる情報によって携帯端末装置の傾きを判別し、ディスプレイ上の表示方向を変更するための情報とする技術が記載されている。このような技術により、ユーザは、表示方向を切り替えるための情報を操作部(キーやタッチパネルなど)を操作して入力する必要がなくなる。したがって、操作性が向上するとともに、携帯端末装置の利用中に、両手がふさがる事態を抑制することができる。
特開2011−258191号公報 特開2012−058847号公報
ところが、上記特許文献1および2に記載されている技術は、表示方向(縦横方向)を切り替えるだけの技術であり、擬似的に表示されたページをめくったり、拡大縮小表示をしたり、表示する部分をスライドさせたりといった細かい操作ができないという問題があった。すなわち、従来の技術では、このような操作が必要になったときには、あいかわらず、もう片方の手によって操作する必要があった。
この問題を解決するためには、携帯端末装置の動きをより細かく判別して、必要となる多種類の操作をそれぞれの動きに対応付ける必要がある。また、定義される操作の内容によっては、動きの種類のみならず、動きの量を検出する必要性が生じる場合もある。すなわち、判別すべき動きの種類が増加することにより、動きの検出精度も向上させる必要がある。
ところが、特許文献1に記載されている技術のように、操作者の顔の画像により携帯端末装置の動きを検出しようとしても、操作者の顔が携帯端末装置の動きに追随して動く場合には、正確に携帯端末装置の動きを検出できないという問題があった。また、特許文献2に記載されているように、加速度センサを用いる場合、電車やバス、エレベーターといった乗り物に乗車している状況では、携帯端末装置1の動き以外に起因する加速度変化を検出してしまうという問題があった。
本発明は、上記課題に鑑みてなされたものであり、携帯端末装置を保持した状態において、当該保持した手でより細かな操作が可能なユーザインタフェースを提供することを目的とする。
上記の課題を解決するため、請求項1の発明は、操作者によって操作される携帯端末装置であって、周囲を撮像した画像データを取得する画像取得手段と、前記画像取得手段により取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記携帯端末装置の動きを検出する検出手段と、前記検出手段により検出された前記携帯端末装置の動きに応じて、前記操作者による操作を特定する操作解析手段とを備える。
また、請求項2の発明は、請求項1の発明に係る携帯端末装置であって、前記検出手段は、前記画像取得手段により取得された画像データから前記操作者以外の人物を表現した人物データを除いた部分である検出対象データに基づいて、前記携帯端末装置の動きを検出する。
また、請求項3の発明は、請求項1または2の発明に係る携帯端末装置であって、前記検出手段は、前記携帯端末装置の動きの前後における検出対象データに基づいて各画素の移動量を検出する。
また、請求項4の発明は、請求項3の発明に係る携帯端末装置であって、前記検出手段は、前記各画素の移動量に基づいて、前記各画素の移動量ごとの画素数を求め、画素数が最も多い前記各画素の移動量に応じて、前記携帯端末装置の動きを検出する。
また、請求項5の発明は、請求項3または4の発明に係る携帯端末装置であって、前記検出手段は、前記各画素の移動量に応じて、前記携帯端末装置の動きにおける移動量を検出し、前記操作解析手段は、前記検出手段により検出された前記携帯端末装置の動きにおける移動量に応じて、前記操作者による操作量を特定する。
また、請求項6の発明は、請求項5の発明に係る携帯端末装置であって、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を推定する距離推定手段をさらに備える。
また、請求項7の発明は、請求項6の発明に係る携帯端末装置であって、前記距離推定手段は、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を測定する測距センサである。
また、請求項8の発明は、請求項6または7の発明に係る携帯端末装置であって、前記画像取得手段は、三次元センサであり、前記距離推定手段は、前記三次元センサにより取得される距離データに応じて、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を推定する。
また、請求項9の発明は、請求項6ないし8のいずれかの発明に係る携帯端末装置であって、前記距離推定手段は、特徴量に応じて、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を推定する。
また、請求項10の発明は、請求項1ないし9のいずれかの発明に係る携帯端末装置であって、前記検出手段は、前記携帯端末装置の動きにおける回転を検出し、前記操作解析手段は、前記検出手段により検出された回転に応じて、前記操作者による操作を特定する。
また、請求項11の発明は、請求項1ないし10のいずれかの発明に係る携帯端末装置であって、前記操作者に対して情報を表示する表示手段と、前記操作解析手段により特定された前記操作者による操作に応じて、前記表示手段を制御する表示制御手段とをさらに備える。
また、請求項12の発明は、コンピュータ読み取り可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、周囲を撮像した画像データを取得する画像取得手段と、前記画像取得手段により取得された画像データから前記コンピュータを操作する操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記コンピュータの動きを検出する検出手段と、前記検出手段により検出された前記コンピュータの動きに応じて、前記操作者による操作を特定する操作解析手段とを備える携帯端末装置として機能させる。
また、請求項13の発明は、携帯端末装置において操作者による指示を前記携帯端末装置に入力する入力方法であって、周囲を撮像した画像データを取得する工程と、取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記携帯端末装置の動きを検出する工程と、検出された前記携帯端末装置の動きに応じて、前記操作者による操作を特定する工程とを有する。
請求項1ないし13に記載の発明は、周囲を撮像した画像データを取得し、取得された画像データから操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、携帯端末装置の動きを検出し、検出された携帯端末装置の動きに応じて、操作者による操作を特定することにより、動きの検出精度が向上する。したがって、操作の誤検出が減少し、応答精度が向上する。
第1の実施の形態における携帯端末装置の外観を例示する図である。 第1の実施の形態における携帯端末装置のブロック図である。 第1の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 携帯端末装置の操作モードにおける動作を例示する流れ図である。 携帯端末装置の動きの中で、回転が加わる一例を示す図である。 携帯端末装置の動きの中で、回転が加わる別の一例を示す図である。 携帯端末装置におけるアプリケーションの例を示す図である。 携帯端末装置におけるアプリケーションの例を示す図である。 携帯端末装置におけるアプリケーションの例を示す図である。 第2の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 変換倍率αを決定する原理を説明する図である。 第3の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 第4の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。
以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。
<1. 第1の実施の形態>
図1は、第1の実施の形態における携帯端末装置1の外観を例示する図である。また、図2は、第1の実施の形態における携帯端末装置1のブロック図である。図1に示すように、携帯端末装置1は、操作者によって携帯される装置であり、操作者によって操作される。
携帯端末装置1は、各種情報を処理しつつ携帯端末装置1の各構成を制御するCPU10、CPU10によって実行されるプログラム110を格納するROM11、および、CPU10の一時的なワーキングエリアとして使用されるRAM12を備えている。このように、携帯端末装置1は、一般的なコンピュータとしての構成を有している。CPU10の動作および機能については、後述する。
また、携帯端末装置1は、操作部13、表示部14、撮像部15、および、画像信号処理部16を備えている。
操作部13は、操作者によって操作されるボタン類やキー、スイッチなどである。操作部13は、携帯端末装置1の電源を投入する電源ボタンなどを備えている。また、操作部13は、後述する表示部14の表面を構成するタッチパネルを備えており、操作者が表示部14の画面(すなわちタッチパネル)に触れることにより、指示を入力することが可能となっている。
表示部14は、操作者に対して各種の情報を表示する。表示部14としては、例えば、液晶パネルやランプ、LEDなどが該当する。
撮像部15は、詳細は図示しないが、レンズなどの光学素子と、CCDなどの光電変換素子とを備えている。撮像部15は、レンズから入射した光をデジタル電気信号に変換して画像信号処理部16に伝達する機能を有している。なお、第1の実施の形態における撮像部15は、市場に広く流通しているいわゆるデジタルカメラを構成しており、ある瞬間におけるカラー写真(映像)を撮像する機能を有しているが、本発明を実施するためには、カラー写真のように人間の目によって被写体を認識する画像を撮像する機能までは必要ない。すなわち、被写体と携帯端末装置1との相対的な距離や向きの変化を被写体から照射される光(可視光線とは限らない。)を捉えることにより検出できれば充分であり、例えば、赤外線カメラのようなものでもよい。
画像信号処理部16は、撮像部15から入力される画像を表現した電気信号を処理して、所定のフォーマットを有する画像データ160に変換するハードウェアである。すなわち、画像データ160は、直接的には画像信号処理部16によって作成されるデータではあるが、撮像部15によって撮像されたデータでもある。すなわち、携帯端末装置1では、撮像部15および画像信号処理部16が、周囲を撮像した画像データ160を取得する画像取得手段としての機能を有している。
なお、以下の説明において、画像データ160に含まれる被写体のうち、操作者以外の部分を「背景」と称する。すなわち、「背景」には、操作者以外の人物が含まれる場合がある。また、画像データ160において被写体としての操作者が含まれていない場合、当該画像データ160は背景のみの画像データ160である。また、被写体における「操作者」とは、特に断らない限り、操作者本人の身体のみならず、操作者が身に付けている物体も含むものとして説明する。例えば、操作者が帽子を着用している場合には、当該帽子は被写体としての「操作者」であり、背景ではないものとする。
詳細は後述するが、本実施の形態における携帯端末装置1は、操作者が携帯端末装置1を移動または回転させたときに、当該移動または回転における移動方向、移動量、回転方向および回転量を「操作(携帯端末装置1に対する何らかの指示を入力する操作)」と認識する。さらに、携帯端末装置1は、自機の移動または回転を、撮像部15および画像信号処理部16によって取得された画像データ160に基づいて検出する。加速度センサや回転センサによって動きを検出する従来の技術では、操作者が携帯端末装置1を乗り物内で使用している場合に、乗り物の動きによって誤検出を生じる。しかし、画像データ160に基づいて自機の移動または回転を検出するのであれば、このような問題は生じない。
図3は、第1の実施の形態における携帯端末装置1が備える機能ブロックをデータの流れとともに示す図である。図3に示すデータ作成部100、検出部101、操作解析部102および表示制御部103は、CPU10がプログラム110に従って動作することにより実現される機能ブロックである。
データ作成部100は、画像データ160を解析して、撮像されている被写体の特徴を抽出し、検出対象データ121、顔部データ122および人物データ123を作成する。
データ作成部100は、画像データ160において操作者が撮像されている場合には、操作者を表現した部分(画像データ160の一部分)に基づいて顔部データ122を作成する。そして、画像データ160において顔部データ122を除外した部分を検出対象データ121とする。言い換えれば、検出対象データ121は、被写体として背景のみを含むデータとなる。すなわち、データ作成部100は、画像データ160に操作者の顔を表現した部分が含まれている場合、当該画像データ160から少なくとも当該操作者の顔を表現した部分を除いて検出対象データ121を作成する。
携帯端末装置1が移動または回転した場合において、操作者の顔は、当該携帯端末装置1(表示部14)を注視し続けるために、当該携帯端末装置1の動きに応じて、動いてしまうことが懸念される。より詳細に言えば、操作者が携帯端末装置1の表示部14を視認するときには、当該操作者にとって見やすい相対位置関係(操作者の顔と携帯端末装置1との相対位置関係)が存在し、携帯端末装置1を動かしたときには、その動きに応じて、当該相対位置が変化しないように、無意識に自身の顔を動かしてしまうことが考えられる。もちろん、「操作時に、顔を動かさないこと」と定義することも可能であるが、それでは操作性が低下し、使いやすいユーザインターフェースとは言えない。そして、当該相対位置関係が変化しない場合、携帯端末装置1の動きの前後において、画像データ160における操作者の顔の位置は移動しない。
したがって、携帯端末装置1の動きの前後で取得された画像データ160において、操作者の顔が動いていても(あるいは静止していても)、それが携帯端末装置1の動きのみを反映した結果であるか、携帯端末装置1の動きに追随して操作者の顔が動いた結果をも含んでいるのかが判断できないという問題がある。すなわち、携帯端末装置1の動きを検出しようとする場合において、特開2011−258191号公報に記載されている技術のように、撮像された操作者の顔を基準にすると、検出精度が低下する。
また、被写体としての操作者のうち顔以外の部分は、当然のことながら「背景」ではない。また、被写体としての操作者のうち顔以外の部分は、操作者の顔と同様に、画像データ160に含まれる被写体の中で、携帯端末装置1の移動および回転とは独立して動く可能性の高い被写体である。携帯端末装置1の動きと独立して動いている被写体の動きに応じて携帯端末装置1の動きを検出しようとすると検出精度が低下する。したがって、本実施の形態における携帯端末装置1は、操作者の顔とともに操作者全体を画像データ160から除外して、被写体としての操作者を含まない検出対象データ121を作成する。
しかし、詳細は後述するが、通常、操作者が携帯端末装置1を使用しているときにおいて、当該操作者の顔以外の部分(例えば胴体部分)は動きが少なく、後の処理における影響が少ないとみなせる場合もある。したがって、そのような場合には、当該操作者の顔以外の部分を検出対象データ121に残しておいてもよい。すなわち、検出対象データ121は、画像データ160から操作者の少なくとも顔の部分を除いた部分を表現したデータであればよい。
また、データ作成部100は、画像データ160に操作者以外の人物が撮像されている場合には、当該人物を表現した部分(画像データ160の一部分)に基づいて人物データ123を作成する。より具体的には、上述のように、画像データ160から顔部データ122を除外し、残りの部分に人物とみなせる被写体が含まれている場合は、当該人物とみなせる被写体部分を抽出して人物データ123とする。そして、画像データ160において人物データ123を除外した部分を検出対象データ121とする。したがって、本実施の形態における検出対象データ121は、人物の部分を除いた部分を表現したデータとなる。
検出部101は、画像データ160から少なくとも顔部データ122を除いた部分(本実施の形態では、さらに人物データ123を除いた部分)である検出対象データ121に基づいて、携帯端末装置1の動きを検出する。より詳細には、携帯端末装置1の動きにおける移動方向、移動量、回転方向および回転量を検出する機能を有している。ただし、本実施の形態における検出部101は、顔部データ122も携帯端末装置1の動きの検出に使用する。
また、検出部101は、検出した移動方向および移動量に基づいて移動データ126を作成するとともに、検出した回転方向および回転量に基づいて回転データ127を作成する。言い換えれば、検出部101は、操作者が携帯端末装置1自体をどのように動かしたかを検出する機能を有している。
操作解析部102は、検出部101により検出された携帯端末装置1の動きに応じて、操作者による操作を特定する。より詳細には、操作解析部102は、検出部101により検出された携帯端末装置1の動きにおける移動量(移動データ126)に応じて、操作者による操作量を特定する。また、操作解析部102は、検出部101により検出された回転(回転データ127)に応じて、操作者による操作を特定する機能も有する。また、操作解析部102は、操作部13から伝達される電気信号を解析して、操作者による操作を特定する機能も有している。さらに、操作解析部102は、特定した操作を表現した操作データ129を作成する。
表示制御部103は、操作データ129(より詳細には、操作データ129のうち、表示部14に関わる情報)に従って表示部14を制御する。すなわち、操作解析部102により特定された操作者による操作に応じて、表示部14を制御する。これにより、操作者は、意図したとおりに、少なくとも表示部14に表示されている情報(画面)を操作することができる。
以上が、第1の実施の形態における携帯端末装置1の構成および機能の説明である。次に、携帯端末装置1に対する情報(操作データ129)の入力方法について説明する。
図4は、携帯端末装置1の操作モードにおける動作を例示する流れ図である。操作モードとは、本発明に係る入力方法により、携帯端末装置1が操作者の操作を受け付けることが可能とされる動作モードである。
なお、図4に示す各工程が実行される前に、携帯端末装置1において操作モードが選択されているものとする。また、操作モードの選択は、操作者によるキー操作やタッチパネル操作などにより直接的に選択されてもよいし、特定のアプリケーションが起動されたときなどに自動的に選択されてもよい。また、特に断らない限り、図4に示す各工程は、CPU10がプログラム110に従って動作することにより実現される。
操作モードが開始されると、CPU10は、撮像タイミングが到来しているか否か(ステップS1)、入力操作があったか否か(ステップS7)、および、操作モードを終了するか否か(ステップS10)を監視する状態となる。以下、この状態を監視状態と称する。
監視状態において、撮像タイミングが到来している場合(ステップS1においてYes。)、撮像部15が撮像を行い(ステップS2)電気信号を画像信号処理部16に伝達する。次に、画像信号処理部16が画像データ160を作成する(ステップS3)。これにより、RAM12に新たな画像データ160が記憶される。
新たな画像データ160がRAMに記憶されると、データ作成部100が、新たに作成された画像データ160に対して画像解析による特徴抽出を実行し(ステップS4)、検出対象データ121、顔部データ122、および、人物データ123を作成する(ステップS5)。これにより、被写体としての操作者を表現した部分および操作者以外の人物を表現した部分を除いた検出対象データ121が新たに作成される。なお、画像データ160に、被写体としての操作者や操作者以外の人物が含まれていない場合には、画像データ160はそのまま検出対象データ121となる。
新たに検出対象データ121が作成されると、検出部101は、前回ステップS5が実行されたときに作成された検出対象データ121と、今回作成された検出対象データ121とを比較することにより、その間の携帯端末装置1の動きを検出する(ステップS6)。なお、以下では、比較される2つの検出対象データ121のうち、先に作成された検出対象データ121を「前の検出対象データ121」と称し、後に作成された検出対象データ121を「後の検出対象データ121」と称する。
ここで、検出部101が携帯端末装置1の動きを検出する原理について説明する。
検出部101は、携帯端末装置1の動きの前後における検出対象データ121に基づいて各画素(ピクセル)の移動量を検出する。より詳細には、前の検出対象データ121と後の検出対象データ121とを比較して、各画素の移動ベクトル(移動量だけでなく移動方向も含まれる。)を求める。すなわち、検出対象データ121における被写体の移動ベクトルを求める。
なお、必ずしも全画素について検出対象データ121から移動ベクトルを求める必要はない。複数の画素について、代表する画素の移動ベクトルを求めてもよい。例えば、隣接する4つ(2個×2個)の画素の中の1つの画素についてのみ検出対象データ121から移動ベクトルを求め、当該移動ベクトルをこれら4つの画素に共通の移動ベクトルとしてもよい。
次に、検出部101は、検出された各画素の移動ベクトルに基づいて、逆に、同じ移動ベクトルとなっている画素の総数を各移動ベクトルごとに求め、画素数が最も多い移動ベクトルを特定する。すなわち、検出部101は、前の検出対象データ121と後の検出対象データ121において、同じ動きをしている最も広い領域(最も画素数の多い被写体)の移動ベクトルを特定する。以下、このようにして求めた移動ベクトルを「最多移動ベクトル」と称する。
画像データ160に基づいて携帯端末装置1の動きを検出するためには、画像データ160に含まれる被写体の中で、携帯端末装置1の動きと独立して動く被写体を検出対象から除外することが好ましい。携帯端末装置1の動きと独立して動く物体は携帯端末装置1の動きのみを反映しないからである。そして、本実施の形態においては、そのために、顔部データ122および人物データ123を除外している。しかし、このような被写体がデータ作成部100によって完全に除外できるとは限らない。また、人物以外にも、携帯端末装置1の動きとは独立して動く物体が被写体として背景に映り込んでいることも予想される。
しかし、このような物体は、移動しない物体(携帯端末装置1の動きを検出するための指標として最適な物体)に比べれば、画像データ160に占める領域としては小さな領域となっていることが多いと考えられる。背景に含まれる被写体の多くは動かない物体であると考えられるためである。したがって、いくつかの移動ベクトルが検出されたときには、上記のとおり、画素による、いわば多数決を導入することにより、携帯端末装置1の動きと独立して移動する少物体(被写体)の影響を抑えることができる。なお、完全に同じ移動ベクトルごとの画素数を求めるのではなく、多少の幅を持たせてもよい。すなわち、同じ動きをしているとみなせる範囲を設けて、それぞれの画素数をカウントしてもよい。
さらに、例えば、無地の壁などが背景において広い領域を占める被写体として含まれている場合、実際には携帯端末装置1の動きに応じて背景が移動していたとしても、検出対象データ121から検出される最多移動ベクトルにおける移動量がほとんど「0」となる場合がある。このような場合、操作者が正常に携帯端末装置1を動かしたにもかかわらず、検出部101が移動量を「0」と誤認し、意図した操作が受け付けられないことになる。
そこで、最多移動ベクトルが求まると、検出部101は、最多移動ベクトルにおける移動量が閾値以下か否かを判定し、最多移動ベクトルで移動している被写体が実際に移動していると言えるレベルか否かを判定する。そして、当該被写体が移動していないと判定されると、検出部101は、先述のような誤認が発生する状況か否かを確認するために、当該被写体が無地で濃淡の少ない被写体であるか否かをさらに判定する。当該判定は、例えば、最多移動ベクトルで移動した画素(当該被写体を表現している画素)について、エッジ強度を求め、閾値と比較し、当該エッジ強度が閾値以下である場合には、当該被写体が無地で濃淡の少ない被写体であるとみなすことにより判定できる。
当該被写体が無地で濃淡の少ない被写体であると判定された場合、検出部101は、検出した最多移動ベクトルを破棄し、次点の移動ベクトル(次に画素数の多い移動ベクトル)を新たに最多移動ベクトルとして特定する。なお、次点以下の移動ベクトルを最多移動ベクトルとして特定した場合も、検出部101は、上記の判定を行い、最多移動ベクトルとして採用すべきか否かを判定する。
このように、携帯端末装置1は、無地の壁などの濃淡の少ない被写体が背景において広い領域を占めている場合、他の部分(例えば、当該壁のシミやキズ、小さな模様あるいは当該壁の前に存在する電柱など)を動き検出の対象に変更する。これにより、背景の移動ベクトルとして正しい移動ベクトルを求めることができるため検出精度が向上する。したがって、携帯端末装置1の操作性が向上する。
ここまでに説明したように、検出部101は、背景(検出対象データ121)において、同じ動きをする最も広い領域(ただし、無地で濃淡の少ない動きの小さな被写体を除く。)の動きに応じて最多移動ベクトルを決定する。
このようにして求まる最多移動ベクトルは、画像データ160における移動ベクトルであるので、二次元の移動ベクトルである。しかしながら、実際の携帯端末装置1の動きは三次元の移動ベクトルと回転ベクトルを含むものである。本実施の形態では、アプリケーションが要求する操作として、二次元の移動ベクトルと回転ベクトルで充分な場合について説明する。
検出部101は、求めた最多移動ベクトルの逆ベクトルの方向を、携帯端末装置1の動きにおける移動方向とする。また、検出部101は、最多移動ベクトルにおける移動量に応じて、携帯端末装置1の動きにおける移動量を検出する。最多移動ベクトルにおける移動量を「P[画素数]」、変換倍率を「α[mm/画素数]」とすると、携帯端末装置1の動きにおける移動量「R[mm]」は、R=α×Pで求めることができる。ただし、変換倍率αは、被写体(最多移動ベクトルで移動した被写体)と携帯端末装置1との相対距離に応じて変化するが、本実施の形態では一定値(初期値)を用いる。変換倍率αとして一定値を用いることができる理由については後述する。
図5は、携帯端末装置1の動きの中で、回転が加わる一例を示す図である。なお、携帯端末装置1と操作者との対向する方向をZ軸方向と定義し、操作者に向かう方向をZ軸の「正方向」と定義する。また、図5において実線で示す位置は動く前の位置であり、破線で示す位置は動いた後の位置である。
図5に示すように、携帯端末装置1を動かしたときにおいて、操作者の頭部(顔部)は、携帯端末装置1を注視するために回転している。このような場合、携帯端末装置1との相対的な位置関係は変化しない。しかし、背景を構成する被写体(静止している被写体)は、画像データ160において移動する。
したがって、検出部101は、最多移動ベクトルにおける移動量が閾値以上であり、携帯端末装置1が動いたとみなせる場合には、さらに顔部データ122において操作者の顔が移動しているか否かを判定する。
操作者の顔が移動していない場合は、検出部101は、携帯端末装置1の動きは操作者を略中心とした回転移動(図5に示す動き)であるとみなす。最多移動ベクトルにおける移動方向に応じて回転方向を特定するとともに、最多移動ベクトルにおける移動量に応じて回転量を求める。すなわち、回転による補正を行う。厳密には、このような補正を行うには回転半径が必要となるが、人が携帯端末装置1を保持した状態において携帯端末装置1と人の顔とのおよその距離(回転半径:10ないし50[cm]の範囲内であり、より多くの場合、20ないし30[cm]の範囲内である。)は推定可能である。なお、ここにいう「操作者の顔が移動していない」とは、操作者の顔の中心部がほぼ動いていないという状態も含む意味である。
操作者の顔が移動している場合は、検出部101は、携帯端末装置1の動きがZ軸に垂直な面内における動きであるとみなす。すなわち、回転方向はなく、回転量は「0」であるとみなす(回転角が「0」)。
なお、図5に示す動きと、Z軸に垂直な面内における動きとが複合する場合もある。これらを操作としてそれぞれ見分ける必要がある場合には、顔部データ122における操作者の画素数をカウントしてZ軸方向の相対距離の変化を検出するとともに、最多移動ベクトルにおける移動量と顔部データ122における操作者の移動ベクトルとの差に基づいて演算することにより、携帯端末装置1の移動ベクトルおよび回転ベクトルを求めることができる。
図6は、携帯端末装置1の動きの中で、回転が加わる別の一例を示す図である。図6に示す動きは、Z軸に対して垂直な軸を中心軸として、携帯端末装置1がその場で回転する動きである。
図6に示すような動きであった場合、携帯端末装置1(撮像部15)の向きが瞬時に大きく変化するため、最多移動ベクトルにおける移動量は比較的大きな値となる。したがって、検出部101は、最多移動ベクトルにおける移動量を閾値(動きがあったか否かを判定するときの閾値よりも大きな値の閾値)と比較する。そして、最多移動ベクトルが非常に大きな値として検出されている場合には、さらに顔部データ122において操作者の顔が大きく移動し、かつ、Z軸方向の相対距離の変化が小さいか否かを判定する。このような判定を行うことにより、検出部101は、携帯端末装置1の動きとして、図6に示すような動きも検出可能である。なお、図6に示すような携帯端末装置1の動きによれば、操作者の顔が撮像部15の撮像範囲から外れ、画像データ160において顔部データ122に相当する部分が存在しないことも起こり得る。この場合も、操作者の顔が大きく移動したものと判定してよい。
以上のような原理により、検出部101は、ステップS6において、携帯端末装置1の動きを検出して、移動データ126および回転データ127を作成する。なお、ステップS6において、携帯端末装置1の動きが検出されなかったとき、検出部101は、携帯端末装置1が静止しているものとみなして、移動データ126および回転データ127を作成しない。また、図5および図6には示していないが、携帯端末装置1は、Z軸を中心として回転する場合もある。しかし、このときの動きは、顔部データ122を用いて、特開2011−25819号公報に記載の技術を用いれば検出可能である。
図4に戻って、操作モード中の監視状態において携帯端末装置1に対して入力操作がされると、CPU10はステップS7においてYesと判定する。ステップS7においてYesと判定する場合とは、操作部13(キーやボタン、タッチパネルなど)が操作された場合のみならず、携帯端末装置1の動きが検出された場合(移動データ126および回転データ127が新たに作成された場合)である。
ステップS7においてYesと判定されると、操作解析部102が、新たに作成された移動データ126、回転データ127あるいは操作部13からの電気信号に応じて、操作者が意図する操作を特定する(ステップS8)。
操作解析部102は、携帯端末装置1の動き(移動データ126および回転データ127によって示されている。)から、予め操作モードにおいて受け付けるように定義されている動きのパターンを検出し、検出した動きのパターンに対応付けられている「操作(指示もしくは命令)」を特定する。
また、操作量(何らかの数値、例えば、ボリュームや表示倍率、移動させる画素数等)が必要な操作である場合は、移動量または回転量からこれらの数値を決定する。例えば、移動ベクトル中の移動量R、および、変換倍率βとすると、操作量V(単位は制御対象によって様々)は、V=β×Rで求めることができる。
なお、操作部13からの電気信号に応じて操作を特定する手法は従来技術であるため、説明は省略する。また、操作解析部102は、ステップS8において、特定した操作を示す操作データ129を作成する。
操作解析部102によって操作(場合によっては操作量を含む。)が特定されると、携帯端末装置1は、操作データ129に応じて、ステップS8において特定された操作に従って当該操作を実行する(ステップS9)。このとき、表示部14における表示を変更する指示がされていれば、表示制御部103が表示部14の表示を変更するように制御する。
このように、携帯端末装置1における操作モードにおいては、操作者が携帯端末装置1を手で保持しつつ、当該携帯端末装置1の位置を移動させる(動かす)ことによって、所望の指示を入力する操作が可能となっている。すなわち、携帯端末装置1において、当該携帯端末装置1の位置の移動による指示入力というユーザインタフェース(マンマシンインタフェース)が提供されている。
ステップS9において操作モードの終了が実行される場合には、ステップS10においてYesと判定され、携帯端末装置1は操作モードを終了する。
次に、上記ユーザインタフェースを使ったアプリケーションの一例を示すことにより、携帯端末装置1の動き(動かし方)による、携帯端末装置1の操作の具体例を説明する。
図7ないし図9は、携帯端末装置1におけるアプリケーションの例を示す図である。紙面9は、仮想的な紙面であり、本実施の形態においては日本地図である。紙面9において破線で示す部分は、仮想的な紙面9のうち、表示部14における表示対象となっていない部分である。
図7に示すように、「大阪」を閲覧していた操作者が、「青森」を閲覧したいと所望した場合、携帯端末装置1を図7において右上方向(紙面9において青森が存在する方向)に動かす。これにより、図8に示す位置に携帯端末装置1が移動する。このときの携帯端末装置1の動き(移動方向および移動量)を検出部101が検出することにより、「画像切替(スライド)操作」が特定、実行されて、表示部14に表示されている部分が、図8に示すように、「青森」周辺に変化する。
なお、図7に示す状態から図8に示す状態に移動させたにも関わらず、「青森」周辺が表示されない場合がある。それは、変換倍率α,βが適切ではなく、最多移動ベクトルにおける移動量が適切な操作量に変換されていない場合である。このような場合、操作者は、表示部14に表示されているスライダー140を指で操作する。例えば、携帯端末装置1の移動量に比べて、紙面9上の移動量が小さく違和感がある場合、操作者はスライダー140を拡大方向(例えば右方向)に指でなぞる操作を行う。
このように、第1の実施の形態における携帯端末装置1では、タッチパネルを用いたスライダー140によって変換倍率α,βを調整可能に構成している。したがって、変換倍率α,βの初期値が不適切であり、スライダー140による調整が必要なときだけは操作者の両手がふさがることになるが、被写体と携帯端末装置1との距離が不明であっても、一度の調整で、その後は保持した手だけで紙面9を自由に閲覧できる。
次に、操作者が携帯端末装置1を操作者に近づけた場合(+Z軸方向に移動させた場合)、図9に示すように、携帯端末装置1は、+Z方向の移動量に応じて、表示部14に表示される画像を縮小する。これにより、携帯端末装置1を顔に近づける操作により、紙面9を俯瞰することができる。逆に、−Z方向に動いた場合は、−Z方向の移動量に応じて、表示部14に表示される画像を拡大し、スポットを当てることができる。
Z軸方向の移動量に応じた画像の変換倍率γ(拡大率および縮小率)は、検出対象データ121に基づいて、例えば、次のようにして決定することができる。
まず、前の検出対象データ121の画像上における2つの画素を決定するとともに、当該2つの画素の画像上の距離D1を求める。次に、当該2つの画素によって表現されていた被写体の部分に相当するそれぞれの画素を後の検出対象データ121において特定する。次に、後の検出対象データ121において特定された2つの画素の画像上の距離D2を求める。さらに、変換倍率γを、γ=a×(D1/D2)として求める。
なお、「a」は携帯端末装置1のZ軸方向の移動を表示部14における画像の変換倍率γにどの程度反映させるかを決定するための数値であって、予め実験等で求めておくことができる。「a」が適当でなく、操作者が閲覧したときに違和感がある場合には、スライダー140によって操作者が独自に調整可能としてもよい。
また、Z軸方向の移動量に応じた画像の変換倍率γは、操作者の顔のサイズの変化によって、決定することもできる。例えば、携帯端末装置1の動きの前後において、顔部データ122の画素数の変化により変換倍率γを決定してもよい。
また、逆に、例えば、+Z方向の移動を「拡大」と定義し、−Z方向の移動を「縮小」と定義してもよい。このように定義すると、携帯端末装置1のZ軸方向の移動により、仮想的な紙面9のZ軸方向の位置が変化するかのように表示がされることになる。すなわち、携帯端末装置1の動きをどのような「操作」として定義するかは、アプリケーションにおける設計事項である。
図7ないし図9には図示していないが、ここに示す例では、携帯端末装置1をその場で回転(図6に示す動き)させると、「ページめくり操作」とする。例えば、携帯端末装置1の図7における右側を+Z軸方向に動かす回転を、「右ページめくり」、携帯端末装置1の図7における左側を+Z軸方向に動かす回転を、「左ページめくり」と定義すれば、ページをめくる操作も保持した手のみで行うことができる。なお、このようなページめくり操作を行った場合、そのままでは表示部14の画面が傾いて閲覧しにくいため、直後に逆向きの操作がされることになる。したがって、逆向きの操作によってページがもとに戻らないように、携帯端末装置1は、当該逆向きの操作を無視する。ただし、一連の動きを一つのページめくり操作と定義してもよい。また、ページめくり操作は操作量が不要な操作であるので、移動量(回転量)は検出しなくてもよい。
以上のように、第1の実施の形態における携帯端末装置1は、周囲を撮像した画像データ160を取得する撮像部15および画像信号処理部16と、取得された画像データ160から操作者の顔を表現した顔部データ122を除いた部分である検出対象データ121に基づいて、携帯端末装置1の動きを検出する検出部101と、検出部101により検出された携帯端末装置1の動きに応じて、操作者による操作を特定する操作解析部102とを備える。これにより、操作者が乗り物内に居る場合などにおいて、加速度センサや回転センサで動きを検出する場合に比べて、動きの検出精度が向上する。したがって、操作の誤検出が減少し、応答精度が向上する。また、細かな動きを検出することにより、様々な操作を定義することができるので、操作性が向上する。
また、検出部101は、取得された画像データ160画像データから操作者以外の人物を表現した人物データを除いた部分である検出対象データ121に基づいて、携帯端末装置1の動きを検出する。携帯端末装置1と無関係に移動する人物を除外して、携帯端末装置1の動きを検出することができるので、画像データ160に人物が映り込んでいることによる検出(操作)精度の低下を抑制できる。
また、検出部101は、携帯端末装置1の動きの前後における検出対象データ121に基づいて各画素の移動量を検出する。そして、検出部101は、当該移動量に基づいて、当該移動量ごとの画素数を求め、画素数が最も多い移動量(最多移動ベクトルにおける移動量)に応じて、携帯端末装置1の動きを検出する。これにより、人物や車など、携帯端末装置1の動きと無関係に動く可能性のある被写体の影響を抑制できる。
また、検出部101は、各画素の移動量に応じて、携帯端末装置1の動きにおける移動量を検出し、操作解析部102は、検出部101により検出された携帯端末装置1の動きにおける移動量に応じて、操作者による操作量を特定する。これにより、量的な操作も可能となる。
また、検出部101は、携帯端末装置1の動きにおける回転を検出し、操作解析部101は、検出部101により検出された回転に応じて、操作者による操作を特定する。回転による操作も可能となるため、より細かい多様な指示が可能となる。
<2. 第2の実施の形態>
第1の実施の形態では、変換倍率αは、被写体(最多移動ベクトルで移動した被写体)と携帯端末装置1との距離に関係なく、一定値(初期値)を用いると説明した。そして、スライダー140によって調整することにより、違和感なく操作できるように構成すると説明した。
しかし、検出対象データ121に表現されている被写体(最多移動ベクトルで移動した被写体)と、携帯端末装置1との相対距離を推定して、当該相対距離に応じて変換倍率を決定してもよい。
図10は、第2の実施の形態における携帯端末装置1aが備える機能ブロックをデータの流れとともに示す図である。なお、以下の説明では、第2の実施の形態における携帯端末装置1aにおいて、第1の実施の形態における携帯端末装置1と同様の構成については同符号を付し、適宜、説明を省略する。
第2の実施の形態における携帯端末装置1aは、検出部101の代わりに検出部101aを備えている点と、距離推定部104aを新たに備えている点とが、第1の実施の形態における携帯端末装置1と異なっている。検出部101aおよび距離推定部104aは、いずれもCPU10がプログラム110に従って動作することにより実現される機能ブロックである。
第2の実施の形態における検出部101aは、携帯端末装置1の動きを検出する際に、最多移動ベクトルを決定した段階で、当該最多移動ベクトルで移動した被写体の画像を検出対象データ121から抽出して、距離推定部104aに伝達する。
また、検出部101aは、距離推定部104aにより作成された距離データ124に応じて、変換倍率αを決定し、これに基づいて移動量Rを求める。
図11は、変換倍率αを決定する原理を説明する図である。図11に示すように、遠い被写体の場合は、携帯端末装置1の動きにおける移動量Rが同じでも、近い被写体の場合に比べて画素数Pは小さくなる。したがって、距離データ124に応じて、遠い被写体ほど変換倍率αの値が大きくなるように構成すれば、一定値を用いる場合に比べて移動量Rの精度が向上する。したがって、後に、操作者がスライダー140等によって、手動で調整する必要性が低下する。ただし、携帯端末装置1aにおいても、スライダー140のような調整機能を備えている方が好ましい。
距離推定部104aは、被写体(最多移動ベクトルで移動した被写体)の特徴量に応じて、検出対象データ121に表現されている当該被写体と、携帯端末装置1との相対距離を推定する。また、距離推定部104aは、当該被写体の特徴を抽出するに際し、検出対象データ121を参照する。例えば、検出対象データ121により、操作者の存在する周囲の状況(車内、屋内、屋外など)を参照して、被写体が何であるか、どの程度操作者(携帯端末装置1)から離れている物体であるか等を推定する。
以上のように、第2の実施の形態における携帯端末装置1aは、上記第1の実施の形態における携帯端末装置1と同様の効果を得ることができる。
また、携帯端末装置1aは、検出対象データ121に表現されている被写体と、携帯端末装置1aとの相対距離を推定する距離推定部104aをさらに備えている。これにより、変換倍率αとして、一定値を用いる場合に比べて移動量Rの精度が向上する。したがって、後に、操作者がスライダー140等によって、手動で調整する必要性が低下し操作性が向上する。ただし、携帯端末装置1aにおいても、スライダー140のような調整機能を備えている方が好ましい。
また、距離推定部104aは、特徴量に応じて、検出対象データ121に表現されている被写体と、携帯端末装置1aとの相対距離を推定する。このように、ソフトウェアで実現することによって、専用のハードウェア(電子回路)が不要となる。
<3. 第3の実施の形態>
第2の実施の形態では、特徴量によって被写体と携帯端末装置1aとの相対距離を推定すると説明した。しかし、被写体と携帯端末装置1aとの相対距離を推定する手法はこれに限定されるものではない。
図12は、第3の実施の形態における携帯端末装置1bが備える機能ブロックをデータの流れとともに示す図である。なお、以下の説明では、第3の実施の形態における携帯端末装置1bにおいて、第2の実施の形態における携帯端末装置1aと同様の構成については同符号を付し、適宜、説明を省略する。
図12に破線で示すように、第3の実施の形態における携帯端末装置1bは、ハードウェアとしての測距センサ17を備えている一方で、距離推定部104aを備えていない点が、第2の実施の形態における携帯端末装置1aと異なっている。
測距センサ17は、検出対象データ121に表現されている被写体と、携帯端末装置1bとの相対距離を測定する。すなわち、第3の実施の形態においては、測距センサ17が距離推定手段に相当する。測距センサ17としては、従来の技術を適用できるため、詳細な説明を省略する。ただし、測距センサ17を用いる場合には、検出対象データ121における被写体(最多移動ベクトルで移動した被写体)との距離を測定する必要がある。
そのための解決手法としては、検出部101aが当該被写体の座標を測距センサ17に伝達し、測距センサ17が伝達された座標に存在する被写体との相対距離を測定することが考えられる。この場合、測距センサ17は任意の座標に存在する被写体との相対距離を測定可能に構成されている必要がある。
あるいは、測距センサ17が測定する被写体の座標を固定し、当該座標に存在する被写体の移動ベクトルを最多移動ベクトルと決定してもよい。その場合は、必ずしも最適な移動ベクトルが最多移動ベクトルとして特定されないために、精度が低下するおそれはあるが、コストは抑制できる。
以上のように、第3の実施の形態における携帯端末装置1bにおいても上記実施の形態と同様の効果を得ることができる。
なお、第3の実施の形態における携帯端末装置1bにおいて、第2の実施の形態における距離推定手段104aを設けて、相補的に相対距離を推定してもよい。以下に説明する第4の実施の形態についても同様である。
<4. 第4の実施の形態>
被写体と携帯端末装置との相対距離を推定する手法は、第2および第3の実施の形態に記載した例に限定されるものではない。
図13は、第4の実施の形態における携帯端末装置1cが備える機能ブロックをデータの流れとともに示す図である。なお、以下の説明では、第4の実施の形態における携帯端末装置1cにおいて、第2の実施の形態における携帯端末装置1aと同様の構成については同符号を付し、適宜、説明を省略する。
第4の実施の形態における携帯端末装置1cは、撮像部15および画像信号処理部16の代わりに、撮像部15cおよび画像信号処理部16cを備える一方で、距離推定部104aを備えていない点が、第2の実施の形態における携帯端末装置1aと異なっている。
撮像部15cおよび画像信号処理部16cは、いわゆる三次元センサを構成しており、三次元の画像データ160を取得するとともに、三次元センサにより取得される距離に関する情報に応じて、検出対象データ121に表現されている被写体と、携帯端末装置1cとの相対距離を示す距離データ124を作成する。
なお、ここでは説明の都合上、画像信号処理部16cが画像データ160と距離データ124とを別々に出力するかのように説明した。しかし、実際には、三次元の画像データ160に被写体との距離に関する情報(距離データ124)が含まれている。すなわち、本実施の形態では、画像データ160だけでなく、検出対象データ121、顔部データ122および人物データ123のいずれもが三次元のデータであり、それぞれが被写体との距離に関する情報を含んでいる。そして、検出部101aが検出対象データ121において最多移動ベクトルで移動した被写体に関する距離の情報を、当該検出対象データ121から抽出することにより、当該被写体と携帯端末装置1cとの相対距離を推定する。
以上のように、第4の実施の形態における携帯端末装置1cにおいても上記実施の形態と同様の効果を得ることができる。
<5. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
例えば、上記実施の形態に示した各工程は、あくまでも例示であって、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。
また、上記実施の形態に示した機能ブロックは、CPU10がプログラム110に従って動作することによりソフトウェア的に実現されると説明したが、これらの機能ブロックのうちの一部または全部が専用の電子回路によってハードウェア的に実現されていてもよい。
また、説明の都合上、データ作成部100が人物データ123を作成するとして説明した。しかし、例えば、第1の実施の形態における携帯端末装置1は、人物データ123を参照して携帯端末装置1の動きを検出することがないので、人物データ123は必ずしも必要のないデータである。したがって、人物データ123は作成されなくてもよい。すなわち、人物データ123に相当する部分が検出対象データ121において除外されていればよい。
また、携帯端末装置1の動きを検出するための検出対象データ121から人物データ123に相当する部分が予め除外されていなくてもよい。すでに説明したように、検出部101は、画素数による多数決によって最多移動ベクトルを特定する。操作者以外の人物は画像データ160において比較的小さい領域となるため、人物データ123が除外されていなくても、操作者以外の人物の動きが最多移動ベクトルとして特定されるおそれは少ない。
また、上記実施の形態では、データ作成部100によって顔部データ122および人物データ123に相当する部分を画像データ160から除外して、検出対象データ121を作成すると説明したが、検出対象データ121は必ずしも作成されなくてもよい。例えば、顔部データ122および人物データ123に対応するマスクデータ(除外対象領域を示す情報)を作成し、当該マスクデータに基づいて画像データ160内のデータを検出対象データ121に相当する部分であるか否かを判定しつつ、移動方向、移動量、回転方向および回転量を検出してもよい。
また、上記実施の形態では、画像データ160に対して特徴抽出を実行することにより、操作者を表現した部分である顔部データ122を特定すると説明した。しかし、このような処理は画像データ160に対する特徴抽出以外の方法でも実現できる。通常、画像データ160において、操作者が映り込む位置はほぼ特定できるので、操作者が映り込んでいる蓋然性の高い部分を、実際に映り込んでいるか否かに関わらず、検出対象データ121から除外するように構成してもよい。あるいはニューラルネットを用いて特定することも可能である。
また、説明の都合上、操作解析部102が操作者の意図する操作を特定したときには、操作データ129を作成すると説明した。しかし、操作解析部102が操作者の意図する操作を特定したときには、操作データ129を作成するまでもなく、当該操作を意味する電気信号を生成して、直接、制御対象に伝達するように構成してもよい。
さらに、加速度センサや回転センサを設けて、検出部101,101aによって検出される動きを補間するように構成してもよい。
1,1a,1b,1c 携帯端末装置
10 CPU
100 データ作成部
101 操作解析部
101,101a 検出部
102 操作解析部
103 表示制御部
104a 距離推定部
11 ROM
110 プログラム
12 RAM
121 検出対象データ
122 顔部データ
123 人物データ
124 距離データ
126 移動データ
127 回転データ
129 操作データ
13 操作部
14 表示部
140 スライダー
15,15c 撮像部
16,16c 画像信号処理部
160 画像データ
17 測距センサ
9 紙面

Claims (13)

  1. 操作者によって操作される携帯端末装置であって、
    周囲を撮像した画像データを取得する画像取得手段と、
    前記画像取得手段により取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記携帯端末装置の動きを検出する検出手段と、
    前記検出手段により検出された前記携帯端末装置の動きに応じて、前記操作者による操作を特定する操作解析手段と、
    を備える携帯端末装置。
  2. 請求項1に記載の携帯端末装置であって、
    前記検出手段は、前記画像取得手段により取得された画像データから前記操作者以外の人物を表現した人物データを除いた部分である検出対象データに基づいて、前記携帯端末装置の動きを検出する携帯端末装置。
  3. 請求項1または2に記載の携帯端末装置であって、
    前記検出手段は、前記携帯端末装置の動きの前後における検出対象データに基づいて各画素の移動量を検出する携帯端末装置。
  4. 請求項3に記載の携帯端末装置であって、
    前記検出手段は、前記各画素の移動量に基づいて、前記各画素の移動量ごとの画素数を求め、画素数が最も多い前記各画素の移動量に応じて、前記携帯端末装置の動きを検出する携帯端末装置。
  5. 請求項3または4に記載の携帯端末装置であって、
    前記検出手段は、前記各画素の移動量に応じて、前記携帯端末装置の動きにおける移動量を検出し、
    前記操作解析手段は、前記検出手段により検出された前記携帯端末装置の動きにおける移動量に応じて、前記操作者による操作量を特定する携帯端末装置。
  6. 請求項5に記載の携帯端末装置であって、
    前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を推定する距離推定手段をさらに備える携帯端末装置。
  7. 請求項6に記載の携帯端末装置であって、
    前記距離推定手段は、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を測定する測距センサである携帯端末装置。
  8. 請求項6または7に記載の携帯端末装置であって、
    前記画像取得手段は、三次元センサであり、
    前記距離推定手段は、前記三次元センサにより取得される距離データに応じて、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を推定する携帯端末装置。
  9. 請求項6ないし8のいずれかに記載の携帯端末装置であって、
    前記距離推定手段は、特徴量に応じて、前記検出対象データに表現されている被写体と、前記携帯端末装置との相対距離を推定する携帯端末装置。
  10. 請求項1ないし9のいずれかに記載の携帯端末装置であって、
    前記検出手段は、前記携帯端末装置の動きにおける回転を検出し、
    前記操作解析手段は、前記検出手段により検出された回転に応じて、前記操作者による操作を特定する携帯端末装置。
  11. 請求項1ないし10のいずれかに記載の携帯端末装置であって、
    前記操作者に対して情報を表示する表示手段と、
    前記操作解析手段により特定された前記操作者による操作に応じて、前記表示手段を制御する表示制御手段と、
    をさらに備える携帯端末装置。
  12. コンピュータ読み取り可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、
    周囲を撮像した画像データを取得する画像取得手段と、
    前記画像取得手段により取得された画像データから前記コンピュータを操作する操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記コンピュータの動きを検出する検出手段と、
    前記検出手段により検出された前記コンピュータの動きに応じて、前記操作者による操作を特定する操作解析手段と、
    を備える携帯端末装置として機能させるプログラム。
  13. 携帯端末装置において操作者による指示を前記携帯端末装置に入力する入力方法であって、
    周囲を撮像した画像データを取得する工程と、
    取得された画像データから前記操作者の顔を表現した顔部データを除いた部分である検出対象データに基づいて、前記携帯端末装置の動きを検出する工程と、
    検出された前記携帯端末装置の動きに応じて、前記操作者による操作を特定する工程と、
    を有する入力方法。
JP2012198186A 2012-09-10 2012-09-10 携帯端末装置、プログラムおよび入力方法 Expired - Fee Related JP6161244B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012198186A JP6161244B2 (ja) 2012-09-10 2012-09-10 携帯端末装置、プログラムおよび入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012198186A JP6161244B2 (ja) 2012-09-10 2012-09-10 携帯端末装置、プログラムおよび入力方法

Publications (2)

Publication Number Publication Date
JP2014052934A JP2014052934A (ja) 2014-03-20
JP6161244B2 true JP6161244B2 (ja) 2017-07-12

Family

ID=50611337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012198186A Expired - Fee Related JP6161244B2 (ja) 2012-09-10 2012-09-10 携帯端末装置、プログラムおよび入力方法

Country Status (1)

Country Link
JP (1) JP6161244B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6371683B2 (ja) * 2014-11-14 2018-08-08 株式会社デンソーテン 電子装置、通信システム、携帯通信端末、通信方法、及びプログラム
JP6408241B2 (ja) * 2014-04-18 2018-10-17 シャープ株式会社 携帯端末装置
CN112419413B (zh) * 2020-12-07 2024-01-05 萱闱(北京)生物科技有限公司 终端设备的运动方向监测方法、介质、装置和计算设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178594A (ja) * 1996-12-19 1998-06-30 Sanyo Electric Co Ltd 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末
JP4337266B2 (ja) * 2001-01-31 2009-09-30 コニカミノルタセンシング株式会社 3次元測定方法および3次元測定システム
JP3649242B2 (ja) * 2003-04-04 2005-05-18 三菱電機株式会社 携帯電話装置および携帯電話装置の文字入力方法
JP2010034652A (ja) * 2008-07-25 2010-02-12 Nippon Computer:Kk 多方位カメラ搭載型携帯端末装置
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
JP2010252068A (ja) * 2009-04-16 2010-11-04 Panasonic Corp 動き検出方法および装置
JP5703788B2 (ja) * 2011-01-28 2015-04-22 株式会社ニコン 撮像装置、画像処理装置、画像処理プログラム

Also Published As

Publication number Publication date
JP2014052934A (ja) 2014-03-20

Similar Documents

Publication Publication Date Title
EP3293620B1 (en) Multi-screen control method and system for display screen based on eyeball tracing technology
US8666115B2 (en) Computer vision gesture based control of a device
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
US9454837B2 (en) Image processing apparatus, method, and computer-readable storage medium calculating size and position of one of an entire person and a part of a person in an image
US20160299604A1 (en) Method and apparatus for controlling a mobile device based on touch operations
EP2866123A2 (en) Screen operation apparatus and screen operation method
US9544556B2 (en) Projection control apparatus and projection control method
JP5606281B2 (ja) 表示装置
KR101747892B1 (ko) 제스처 인식 기반 사용자 상호 작용 방법 및 이를 위한 장치
US20140053115A1 (en) Computer vision gesture based control of a device
JP2012238293A (ja) 入力装置
JP6911834B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016224686A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
EP3617851B1 (en) Information processing device, information processing method, and recording medium
JP6161244B2 (ja) 携帯端末装置、プログラムおよび入力方法
CN109947243B (zh) 基于触摸手检测的智能电子设备手势捕获与识别技术
EP2685355A2 (en) Camera cursor system
WO2014042143A1 (ja) 携帯端末装置、プログラム、手ぶれ補正方法および状況検知方法
WO2011096571A1 (ja) 入力装置
CN109960406B (zh) 基于双手手指之间动作的智能电子设备手势捕获与识别技术
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
JP4088282B2 (ja) コンピュータ入力方法と装置
JP6108732B2 (ja) 携帯端末装置、プログラムおよび状況検知方法
CN109993059B (zh) 智能电子设备上基于单摄像头的双目视觉与物体识别技术
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

R150 Certificate of patent or registration of utility model

Ref document number: 6161244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees