JP2014238750A - 入力装置、そのプログラム及び画像表示システム - Google Patents

入力装置、そのプログラム及び画像表示システム Download PDF

Info

Publication number
JP2014238750A
JP2014238750A JP2013121585A JP2013121585A JP2014238750A JP 2014238750 A JP2014238750 A JP 2014238750A JP 2013121585 A JP2013121585 A JP 2013121585A JP 2013121585 A JP2013121585 A JP 2013121585A JP 2014238750 A JP2014238750 A JP 2014238750A
Authority
JP
Japan
Prior art keywords
terminal device
state
input
proximity sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013121585A
Other languages
English (en)
Inventor
美木子 中西
Mikiko Nakanishi
美木子 中西
堀越 力
Tsutomu Horikoshi
力 堀越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013121585A priority Critical patent/JP2014238750A/ja
Publication of JP2014238750A publication Critical patent/JP2014238750A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】入力装置が水平である場合に、ユーザーがどの方向から入力操作を行っているかを判別し、タッチ操作の入力方向を変換する。【解決手段】入力装置11は、ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部140と、入力装置11の傾きを検出する傾きセンサ111と、物体が近づいたことを検出する近接センサ112と、入力装置11の状態として、その傾きが水平を含む所定の角度範囲内にあり、且つ物体が近接センサ111から所定範囲内にある第1状態と、その傾きが所定の角度範囲内にあり、且つ物体が近接センサ111から所定範囲内にない第2状態とを判別する状態判別部130と、第1状態であるか第2状態であるかに応じて、入力操作信号C1の示すタッチ操作の入力方向を変換した出力操作信号C2を生成する入力方向変換部150とを備える。【選択図】図3

Description

本発明は、ユーザーのタッチ操作に応じた操作指示の入力に関する。
近年、携帯型の入力装置を用いて、ユーザーの操作指示を入力するシステムが知られている。特許文献1には、ユーザーが端末装置を傾けると、その傾きを検出し、検出結果に応じた操作コマンドを生成する技術が開示されている。
また、特許文献2には、ユーザーが操作指示を入力するタッチパッドを備えた端末装置において、端末装置が横向きか縦向きかを判定し、判定結果に応じて、タッチパッドから出力されるタッチ操作の方向の座標軸を変換する技術が開示されている。
特許3582433号公報
特開2013−21378号公報
ところで、特許文献1に記載された従来技術では、端末装置の傾きを検出して表示コンテンツの方向を変更する場合、入力の方向とコンテンツの方向は一致しているため、コンテンツの向きに合わせて入力操作を行えばよく、ユーザーがどの方向から入力操作を行っているか判定する必要はない。
しかしながら、画像を表示する表示装置として、ヘッドマウントディスプレイ(以下、HMDと称する)などの眼鏡型端末に映像が表示されていて、端末装置を入力操作を行うための装置として用いる場合は、ユーザーは端末装置を視認して、端末装置の上下を確認することができない。仮に、上下逆だった場合には、コンテンツが眼鏡型端末に表示されているにもかかわらず、わざわざ手に持っている端末装置に目を向け、上下を確認しなければならない。
特許文献2に記載の従来技術では、端末装置が縦向きであるか、横向きであるかに応じて、座標軸を変換するが、端末装置が水平である場合に、ユーザーがどの方向から入力操作を行っているかを判別することができなかった。
また、端末装置の傾きが分かっても、どのようにユーザーが端末装置を持っているかは不明であった。
そこで、本発明は、上述した事情に鑑みてなされたものであり、ユーザーの入力操作が端末装置に対してどの方向から行われているのか、簡易な構成で判別し、タッチ操作の入力方向を自動的に変換することを解決課題とする。
かかる課題を解決するために、本発明に係る端末装置の第1の態様は、ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部と、当該端末装置の傾きを検出する傾きセンサと、前記入力面と同一の面に設けられ、物体が近づいたことを検出する近接センサと、前記傾きセンサの出力信号及び前記近接センサの出力信号に基づいて、当該端末装置の状態として、当該端末装置の傾きが水平を含む所定の角度範囲内にあり、且つ物体が前記近接センサから所定範囲内にある第1状態と、当該端末装置の傾きが前記所定の角度範囲内にあり、且つ物体が前記近接センサから前記所定範囲内にない第2状態とを判別する状態判別部と、前記状態判別部の判別結果が前記第1状態であるか前記第2状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する入力方向変換部とを備える。
また、本発明に係る端末装置の第2の態様は、ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部と、前記入力面と同一の面に設けられ、物体が近づいたことを検出する近接センサと、記前入力面と反対側の面に設けられ、画像を撮像する撮像部と、前記近接センサの出力信号及び前記撮像部の出力信号に基づいて、当該端末装置の状態として、物体が前記近接センサから所定範囲内にあり、且つ前記撮像部がユーザーの手で覆われている第3状態と、物体が前記近接センサから所定範囲内にあり、且つ前記撮像部がユーザーの手で覆われていない第4状態とを判別する状態判別部と、前記状態判別部の判別結果が前記第3状態であるか前記第4状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する入力方向変換部とを、備える。
本発明に係る端末装置の第1の態様によれば、端末装置の傾きが水平を含む所定の角度範囲内にある場合に、近接センサの出力信号に基づいて、ユーザーの手が近接センサを覆うように近づいたのか(第1状態)、あるいは、ユーザーの手が近接センサを避けるように近づいたのか(第2状態)を判別し、判別結果に応じてタッチ操作の入力方向を変換する。よって、端末装置が机の上に置かれている場合であっても、ユーザーは端末装置を視認して上下を確認することなく、入力操作を行うことが可能となる。
また、本発明に係る端末装置の第2の態様によれば、物体が近接センサから所定範囲内にないことを前提とし、入力面と反対側に設けられた撮像部の出力信号に基づいて、撮像部がユーザーの手で覆われているか(第3状態)、あるいは撮像部がユーザーの手で覆われていないか(第4状態)を判別し、判別結果に応じてタッチ操作の入力方向を変換する。入力面に指でタッチ操作を行うので、端末装置をユーザーが把持する場合、入力面と反対側の裏面を掌で握ることになる。入力面と同じ面に設けられた近接センサは物体が所定範囲内にあることを検知しない。このような場合に、撮像部がユーザーの手で覆われているか否かを判別することによって、端末装置において撮像部が配置されている位置に応じてユーザーが端末装置のどの部分を把持しているかを特定することができる。例えば、撮像部が端末装置の上部に配置されているのであれば、撮像部がユーザーの手で覆われている場合、ユーザーは端末装置の上部を掌で把持している。一方、撮像部が端末装置の下部に配置されているのであれば、撮像部がユーザーの手で覆われている場合、ユーザーは端末装置の下部を掌で把持している。このように、端末装置の状態を判別するので、ユーザーは端末装置を視認して上下を確認することなく、入力操作を行うことが可能となる。
画像表示システムの構成を示すブロック図である。 端末装置の外観を示す平面図である。 端末装置の構成を示すブロック図である。 表示装置に表示される画像の一例を示す説明図である。 端末装置の上部下部とタッチ操作の入力方向との関係を示す説明図である。 端末装置が机上に置かれる第1の態様を示す説明図である。 ユーザーが端末装置を手持ちとする第2の態様を示す説明図である。 ユーザーが端末装置をポケット中に入れる第3の態様を示す説明図である。 第1の態様において、端末装置の上部からユーザーの手が近づく状態と、端末装置の下部からユーザーの手が近づく状態とを示す説明図である。 コンテンツ画面、オーバーレイ用の画面、及び合成画面を説明するための説明図である。 画像表示システムの動作を示すフローチャートである。 入力装置の状態判別処理の内容を示すフローチャートである。 変形例に係る近接センサの配置例を示す平面図である。 変形例に係るアウトカメラの配置例を示す平面図である。
<実施形態>
以下、本発明に係る画像表示システムの一実施形態を、図面を参照しながら説明する。図1は画像表示システムの構成を示すブロック図である。
この図に示すように、画像表示システム1は、端末装置10、表示装置20、及びコンテンツサーバ30を備える。コンテンツサーバ30は、動画や静止画などの各種のコンテンツを蓄積しており、コンテンツ蓄積部として機能する。端末装置10は、通信網NETを介してコンテンツサーバ30と通信可能であり、コンテンツサーバ30から受信したコンテンツデータに基づいて画像信号を生成し、生成した画像信号を表示装置20に供給する。端末装置10は、表示装置20との間で、有線又は無線で通信することが可能である。
表示装置20は、画像を表示できるのであれば、いかなる装置であってもよい。本実施形態においては、表示装置20の一例として、非シースルー式のHMDを用いる。ユーザーはHMDを装着し、端末装置10をタッチ操作することによって各種の操作指示を入力する。しかしながら、ユーザーがHMDを装着した状態では、端末装置10の上下を確認することができない。なお、シースルー式のHMDを用いる場合には、ユーザーはHMDを装着した状態であっても端末装置10を視認すること可能である。但し、端末装置10の外観が上下対称のデザインである場合には、端末装置10に映像が表示されないと、非シースルー式のHMDと同様に上下を確認することができない。
例えば、非シースルー式のHMDを装着したユーザーが端末装置10を左手で持って、右手の指で上から下へタッチ操作したとする。端末装置10で読み取られるタッチ操作の方向は、指が触れているタッチパネル上の座標の変化に基づいて特定される。ユーザーが端末装置10を視認して上下を確認できる場合には、端末装置10を一定の方向に持つことができるが、ユーザーが非シースルー式のHMDを装着しており端末装置10を視認不能な場合には、端末装置10を逆さまに持つことがあり得る。本実施形態の端末装置10は、そのような場合を考慮して、端末装置10の状態を判別し、判別結果に応じて、タッチ操作の入力方向を変換する。これにより、ユーザーは端末装置10を視認しなくても、タッチ操作によって各種の入力操作を行えるようになっている。
図2を参照して、端末装置10の外観を説明する。図2において、右側は端末装置10の外観を示す正面図であり、左側は端末装置10の外観を示す裏面図である。この図に示すように、端末装置10の正面には、スピーカ125、物体が近づいたことを検出する近接センサ112、インカメラ121、及び入力操作部140が設けられている。入力操作部140は、タッチセンサを備えており、ユーザーのタッチ操作に応じた入力操作信号C1を出力する。具体的には、入力操作部140は、タッチセンサを備えた液晶パネルや有機ELパネルなどの表示パネルによって構成され、そこには、画像が表示される。
また、スピーカ125や近接センサ112が配置されるのが端末装置10の上部であり、その逆側が端末装置10の下部である。なお、インカメラ121、近接センサ112、及びスピーカ125は、入力操作部140の入力面の上辺X1から端末装置10の上端部X2までの第1上部領域R1に配置される。ユーザーは、端末装置10を携帯電話として使用する場合は、スピーカ125を耳に押し当てて話す。この際、近接センサ112にはユーザーの顔が押し当てられる。携帯電話の使用時においては、近接センサ112の出力信号に基づいて、ユーザーの顔が押し当てられたことが検知されると、入力操作部140に対する入力を受け付けないようになっている。これによって、通話中の誤作動を防ぐことができる。このように通話時の端末装置10の状態を検知できるように、近接センサ112は、入力操作部140におけるユーザーの入力面と同一の面に設けられている。
次に、端末装置10の裏面の上部には、アウトカメラ122が設けられている。より具体的には、第1上部領域R1に対応した第2上部領域R2にアウトカメラ122は位置する。インカメラ121は、ユーザー側の画像を撮像する一方、アウトカメラ122はユーザーと反対に位置する外側の画像を撮像する。
次に、端末装置10は、上述したスピーカ125、近接センサ112、インカメラ121、及びアウトカメラ122の他、CPU(Central Processing Unit)、メモリ、マイク及び通信インターフェースなどを備え、携帯電話としての無線通信やインターネットを介したコンテンツの閲覧が可能である。
図3に、端末装置10の機能構成を示す。この図に示すように端末装置10は、ユーザーのタッチ操作を受け付けて、タッチ操作に応じた出力操作信号C2を生成する入力装置11、コンテンツデータDを取得するコンテンツ取得部160、及びコンテンツデータDと出力操作信号C2に基づいて、画像信号Gを生成して表示装置20に供給する表示画像生成部170とを備える。
そして、入力装置11は、傾きセンサ111及び近接センサ112を含むセンサ部110、インカメラ121及びアウトカメラ122を含む撮像部120、端末装置10の状態を判別する状態判別部130、上述した入力操作部140並びに入力方向変換部150を備える。なお、状態判別部130及び入力方向変換部150は、CPUがメモリに記憶されたアプリケーションプログラムを実行することによって実現される。また、アプリケーションプログラムは、例えば、インターネット上のサイトからダウンロードすることによって取得可能である。また、傾きセンサ111は、端末装置10の傾きを検出できるのであれば、どのようなセンサであってもよいが、例えば、3軸の加速度センサを用いることができる。加速度センサによれば、重力加速度の方向を知ることができるので、端末装置10の傾きを検出できる。また、センサ部110は、方位を検出する地磁気センサ、照度を検出する照度センサ、又は圧力を検出する圧力センサを備えてもよい。
入力方向変換部150は、状態判別部130において判別した端末装置10の状態に応じて、タッチ操作の入力方向を変換する。本実施形態では、例えば、図4に示す画像を表示装置20に表示させ、カーソルCをタッチ操作によって移動させて、各種の操作指示を行う。ここで、カーソルCを矢印Yで示すように下から上に移動させる場合を想定する。
ユーザーの端末装置10の持ち方によって、図5の左側に示すように端末装置10の上部とタッチ操作の上が一致する場合と、端末装置10の上部とタッチ操作の上が逆になる場合がある。なお、図5において矢印Yはタッチ操作の方向を示しており、下から上に操作している。以下の説明では、端末装置10の上部とタッチ操作の上が一致する場合を、入力操作部140によって得られたタッチ操作の入力方向をそのまま利用するこができる順方向、端末装置10の上部とタッチ操作の上が逆になる場合を、入力操作部140によって得られたタッチ操作の入力方向を逆の変換する必要がある逆方向と称する。
状態判別部130は、センサ部110及び撮像部120の各々から供給される出力信号に基づいて、端末装置10の状態を判別する。状態判別部130が判別する状態には、以下の態様がある。第1の態様は、図6に示すように端末装置10が机の上に置かれており、水平な状態にある。第2の態様は、図7に示すようにユーザーが端末装置10を手に持っている状態である。第3の態様は、図8に示すようにユーザーが端末装置10をポケットの中に入れている状態である。状態判別部130は、第1乃至第3の態様にいずれに該当するかを判別し、更に、端末装置10の状態が順方向に対応するものであるか、あるいは、逆方向に対応するものであるかを判別する。
より具体的には、第1の態様において、状態判別部130は、図9に示すように端末装置10の上部からユーザーの手が近づく状態か、あるいは端末装置10の下部からユーザーの手が近づく状態かを判別する。以下の説明では、第1の態様において、端末装置10の上部からユーザーの手が近づく状態を第1状態、端末装置10の上部からユーザーの手が近づく状態を第2状態と称する。
また、第2の態様において、状態判別部130は、アウトカメラ122がユーザーの手で覆われている状態か、あるいは、アウトカメラ122がユーザーの手で覆われていない状態かを判別する。以下の説明では、第2の態様において、アウトカメラ122がユーザーの手で覆われている状態を第3状態、アウトカメラ122がユーザーの手で覆われていない状態を第4状態と称する。この例では、図2に示すようにアウトカメラ122が端末装置10の上部に設けられているので、第3状態ではユーザーが端末装置10の上部を把持しており、第4状態ではユーザーが端末装置10の下部を把持しているといえる。
また、第3の態様において、状態判別部130は、端末装置10の上部が地面を向いている状態か、あるいは、端末装置10の下部が地面を向いている状態かを判別する。以下の説明では、第3の態様において、端末装置10の上部が地面を向いている状態を第5状態、端末装置10の下部が地面を向いている状態を第6状態と称する。
次に、第1状態、第3状態、又は第5状態は逆方向に相当する。この場合、入力方向変換部150は、入力操作信号C1の示すタッチ操作の入力方向を変更して出力操作信号C2を生成する。一方、第2状態、第4状態、又は第6状態は順方向に相当する。この場合、入力方向変換部150は、入力操作信号C1の示すタッチ操作の入力方向を変更せずに出力操作信号C2を生成する。
ところで、本実施形態におけるタッチ操作は、ユーザーが端末装置10を視認しなくても入力指示を可能にするものであり、ユーザーが指でタッチした位置のボタンを押下する入力操作とは異なる。即ち、いわゆるトラックパッドを用いた操作と同じであり、カーソルCを表示させる必要がある。本実施形態のようにコンテンツデータDを端末装置10で受信し、コンテンツデータDに基づいて生成した画像信号GをHMDなどの表示装置20に出力する場合、端末装置10に対するタッチ操作によってカーソルCを移動させる点は、マウスなどのポインティングデバイス操作によってカーソルCを移動させるのと同様である。
このため、図10に示すようにコンテンツ画面とオーバーレイ用の画面とを合成して合成画面を生成する。カーソルCは背景が透明なオーバーレイ用の画面に含まれる。ユーザーがタッチパネルなどの入力操作部140に対して行うタッチ操作は、オーバーレイ用の画面にのみ反映される。これらの機能は、図3に示す表示画像生成部170が担う。カーソル画像生成部171は、出力操作信号C2に基づいてカーソル画像(オーバーレイ用の画面)を生成し、画像合成部172に出力する。画像合成部172は、コンテンツデータDの示すコンテンツ画像(コンテンツ画面)とカーソル画像とを合成して画像信号Gを生成する。これによって、コンテンツ画像にカーソル画像が重なった画像を得ることができ、タッチ操作の入力方向に応じてカーソルCを移動させることが可能となる。
また、表示画像生成部170は、出力操作信号C2に基づいて表示画像の制御を行う。例えば、図4において示されるカーソルCをボタンB1に重なるように移動させた状態で、ユーザーが入力面をタップすると1つ前の画像を表示させる。この場合、表示画像生成部170は、コンテンツ取得部160に一つ前の画像を取得するように要求する。
次に、画像表示システム1の全体動作を図11に示す。まず、端末装置10は、状態判別処理を実行する(S1)。状態判別処理では、端末装置10の状態判別部130が、端末装置10の状態が上述した第1状態乃至第6状態の何れに該当するかを判別する。次に、端末装置10の入力方向変換部150は、判別結果に基づいてタッチ操作の入力方向を変換して出力操作信号C2を生成する(S2)。
この後、表示画像生成部170は、コンテンツデータDに出力操作信号C2に基づく入力指示を反映させて画像信号Gを生成する(S3)。画像信号GがHMDなどの表示装置20に供給されると、画像が表示される(S4)。
次に、図12に示す状態判別部130の動作を示すフローチャートを参照して、状態判別処理の内容を説明する。まず、状態判別部130は、傾きセンサ111の出力信号に基づいて、端末装置10の傾きが水平を含む所定の角度範囲内にあるか否かを判定する(S100)。例えば、端末装置10の傾きが、水平を基準として±5度の角度範囲内にあるか否かを判定する。ステップS100に判定結果が肯定である場合には、端末装置10の姿勢は、ほぼ水平となっている。この場合は、図6に示すように端末装置10が机の上に置かれており、上述した第1の態様に該当する。
次に、状態判別部130は、近接センサ112の出力信号に基づいて、近接センサ112から所定範囲内に物体が有るか否かを判定する(S101)。図9に示すように端末装置10の上部からユーザーの手が近づき、近接センサ112によって手が検知される。一方、端末装置10の下部からユーザーの手が近づく場合には、近接センサ112によって手が検知されない。従って、スッテプS101の判定結果が肯定である場合、状態判別部130は、第1の態様において、端末装置10の上部からユーザーの手が近づく第1状態であると判別する(S102)。この場合、タッチ操作の入力方向は逆方向であり、入力方向の変換が必要となる。一方、スッテプS101の判定結果が否定である場合、状態判別部130は、第1の態様において、端末装置10の下部からユーザーの手が近づく第2状態であると判別する(S103)。この場合、タッチ操作の入力方向は順方向であり、入力方向の変換は不要となる。
ステップS100の判定結果が否定の場合、端末装置10は水平ではないので、上述した第2の態様又は第3の態様であると考えることができる。この場合、状態判別部130は、近接センサ112から所定範囲内に物体が有るか否かを判定する(S104)。図5に示す第2の態様では、近接センサ112を遮るようにユーザーの手やポケットの服地が無い。一方、図6に示す第3の態様では、近接センサ112の近傍にはポケットの服地がある。従って、ステップS104の判定結果が否定である場合、端末装置10は、第2の態様である一方、ステップS104の判定結果が肯定である場合、端末装置10は、第3の態様であると考えることができる。
ステップS104の判定結果が否定である場合、状態判別部130は、アウトカメラ122の出力信号に基づいて、アウトカメラ122で撮像された画像が暗いか否かを判定する(S105)。より具体的には、アウトカメラ122の出力信号を基準レベルと比較し、出力信号が基準レベル未満である場合に、アウトカメラ122で撮像された画像が暗いと判定する。ここで、基準レベルは、アウトカメラ122を手で覆った場合と、手で覆わない場合とが判別できるように定めればよい。また、アウトカメラ122の出力信号を、所定期間、積分し、積分結果と基準レベルを比較してもよい。
アウトカメラ122は、図2に示すように端末装置10の裏面の上部に配置されている。このため、ユーザーが端末装置10の上部を把持すると、掌がアウトカメラ122を覆うので、アウトカメラ122で撮像された画像は暗くなる。一方、ユーザーが端末装置10の下部を把持すると、掌はアウトカメラ122を覆わないので、アウトカメラ122で撮像された画像は暗くならない。
従って、スッテプS105の判定結果が否定である場合、状態判別部130は、第2の態様において、端末装置10の上部をユーザーが把持しており、アウトカメラ122がユーザーの手で覆われている第3状態であると判別する(S106)。この場合、タッチ操作の入力方向は逆方向であり、入力方向の変換が必要となる。一方、スッテプS105の判定結果が肯定である場合、状態判別部130は、第2の態様において、端末装置10の下部をユーザーが把持しており、アウトカメラ122がユーザーの手で覆われていない第4状態であると判別する(S107)。この場合、タッチ操作の入力方向は順方向であり、入力方向の変換は不要となる。
次に、ステップS104の判定結果が肯定である場合、状態判別部130は、傾きセンサ111の出力信号に基づいて、端末装置10の上部が地面を向いているか否かを判定する(S108)。ステップS108の判定結果が肯定である場合は、状態判別部130は、第3の態様において、端末装置10の上部が地面を向いている第5状態であると判別する(S109)。この場合、図5の右側に示すように、タッチ操作の入力方向は逆方向となり、入力方向の変換が必要となる。一方、ステップS108の判定結果が否定である場合は、状態判別部130は、第3の態様において、端末装置10の下部が地面を向いている第6状態であると判別する(S110)。この場合、図5の左側に示すように、タッチ操作の入力方向は順方向となり、入力方向の変換が不要となる。
上述したように本実施形態においては、端末装置10の状態をセンサ部110の出力信号や撮像部120の出力信号に基づいて判別し、判別結果に応じてタッチ操作の入力方向を変換したので、ユーザーは端末装置10を視認することなく、操作指示を入力することが可能になる。
また、端末装置10の状態を判別するために用いた傾きセンサ111、近接センサ112、アウトカメラ122は、スマートホンなどでは、通常用いられる構成要素である。従って、新たな構成要素を追加することなく、端末装置10の状態を判別することが可能となる。
<変形例>
本発明は、上述した実施形態に限定されるものではなく、例えば、以下に述べる各種の変形が可能である。
(1)上述した実施形態では、ユーザーが端末装置10のどの部分を把持したかを特定するために、アウトカメラ122の出力信号に基づいて判別を行ったが(図12に示すS105)、本発明はこれに限定されるものではなく、把持した部分が特定できるのであれば、どのようなセンサを用いてもよい。例えば、端末装置10の上部側面、あるいは下部側面に圧力センサを設け、圧力センサの出力信号に基づいて、ユーザーが把持している部分を判別してもよい。
(2)上述した実施形態では、端末装置10に表示画像生成部170とコンテンツ取得部160とを設けたが、本発明はこれに限定されるものではなく、それらのうち少なくとも一方を表示装置20に設けてもよい。例えば、インターネットに接続可能なディスプレイを表示装置20として用いる場合には、表示画像生成部170及びコンテンツ取得部160を表示装置20に設けることが好ましい。この場合、端末装置10から表示装置20へ出力操作信号C2を供給すればよい。
また、表示装置20がパーソナルコンピュータとプロジェクタとから構成されてもよい。プレゼンテーションでは、ユーザーは視聴者やプロジェクタによって映し出された画面を見ながらプレゼンテーション進行させることが好ましい。このような場合、パーソナルコンピュータにコンテンツが蓄積するコンテンツ蓄積部と表示画像生成部170が配置されている。この場合、ユーザーは端末装置10を用いて各種の操作指示を入力するが、ユーザーは端末装置10を見る必要がなく、プレゼンテーションに集中することができる。
(3)上述した実施形態では、近接センサ112が第1上部領域R1に設けられており、アウトカメラ122が第2上部領域R2に設けられていたが本発明は、これに限定されるものではなく、ユーザーの手がどの方向から近づくのか、あるいは、ユーザーが端末装置10のどの部分を把持しているのかを判定できるのであれば、どこに配置してもよい。例えば、近接センサ112を図13に示すように端末装置10に表面の下部に配置してもよい。この場合、図12に示すステップS101の判定結果が肯定である場合、第2状態と判別し、判定結果が否定である場合、第1状態と判別すればよい。
また、例えば、アウトカメラ122を図14に示すように端末装置10に裏面の下部に配置してもよい。この場合、図12に示すステップS105の判定結果が肯定である場合、第4状態と判別し、判定結果が否定である場合、第3状態と判別すればよい。
なお、実施形態で説明したように近接センサ112が当該端末装置10の上部に配置される場合、入力方向変換部150は、第1状態において入力操作信号C1の示すタッチ操作の入力方向を逆方向に変換し、第2状態において入力操作信号の示すタッチ操作の入力方向を変更せずに出力操作信号C2を生成することが好ましい。
また、アウトカメラ122(撮像部120)が当該端末装置10の上部に配置される場合、入力方向変換部150は、第3状態において入力操作信号C1の示すタッチ操作の入力方向を逆方向に変換し、第4状態において入力操作信号C1の示すタッチ操作の入力方向を変更せずに出力操作信号C2を生成することが好ましい。
(4)上述した実施形態においては、状態判別処理において、まず、端末装置10の傾きが所定の角度範囲内にあるか否かを判定したが(図12に示すS100)、水平状態におけるユーザーの手が近づく方向を判定しないのであれば、ステップS100〜S103を省略してもよい。即ち、ステップS100は必須ではない。
また、実施形態では、ステップS104の後にステップS105を実行したが、逆の順序であってもよい。但し、アウトカメラ122の出力信号を用いる場合には電力を消費するので、所費電力を削減する観点からは、ステップS104の後にステップS105を実行し、ステップS105を実行する際に、アウトカメラ122に電源を供給することが好ましい。
10…端末装置、20…表示装置、111…傾きセンサ、112…近接センサ、120…撮像部、130…状態判別部、140…入力操作部、150…入力方向変換部、171…カーソル画像生成部、172…画像合成部、C1…入力操作信号、C2…出力操作信号、G…画像信号。

Claims (7)

  1. ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部と、
    当該端末装置の傾きを検出する傾きセンサと、
    前記入力面と同一の面に設けられ、物体が近づいたことを検出する近接センサと、
    前記傾きセンサの出力信号及び前記近接センサの出力信号に基づいて、当該端末装置の状態として、当該端末装置の傾きが水平を含む所定の角度範囲内にあり、且つ物体が前記近接センサから所定範囲内にある第1状態と、当該端末装置の傾きが前記所定の角度範囲内にあり、且つ物体が前記近接センサから前記所定範囲内にない第2状態とを判別する状態判別部と、
    前記状態判別部の判別結果が前記第1状態であるか前記第2状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する入力方向変換部とを、
    備えることを特徴とする端末装置。
  2. ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部と、
    前記入力面と同一の面に設けられ、物体が近づいたことを検出する近接センサと、
    記前入力面と反対側の面に設けられ、画像を撮像する撮像部と、
    前記近接センサの出力信号及び前記撮像部の出力信号に基づいて、当該端末装置の状態として、物体が前記近接センサから所定範囲内にあり、且つ前記撮像部がユーザーの手で覆われている第3状態と、物体が前記近接センサから所定範囲内にあり、且つ前記撮像部がユーザーの手で覆われていない第4状態とを判別する状態判別部と、
    前記状態判別部の判別結果が前記第3状態であるか前記第4状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する入力方向変換部とを、
    備えることを特徴とする端末装置。
  3. 当該端末装置の傾きを検出する傾きセンサを備え、
    前記状態判別部は、前記近接センサの出力信号及び前記傾きセンサの出力信号に基づいて、当該端末装置の状態として、物体が前記近接センサから所定範囲内にあり、且つ当該端末装置の上部が地面を向いている第5状態と、物体が前記近接センサから所定範囲内にあり、且つ当該端末装置の下部が地面を向いている第6状態とを判別し、
    前記入力方向変換部は、前記状態判別部の判別結果が前記第5状態であるか前記第6状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する、
    ことを特徴とする請求項2に記載の端末装置。
  4. 前記出力操作信号に基づいてカーソルを示すカーソル画像を生成するカーソル画像生成部と、
    コンテンツ画像と前記カーソル画像とを合成した画像を示す画像信号を生成する画像合成部とを備える、
    ことを特徴とする請求項1乃至3のうちいずれか1項に記載の端末装置。
  5. 請求項1乃至3のうちいずれか1項に記載の端末装置と、
    画像を表示すると共に、前記出力操作信号に基づいて、表示する画像を制御する表示装置と、
    を備えた画像表示システム。
  6. ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部と、 当該端末装置の傾きを検出する傾きセンサと、前記入力面と同一の面に設けられ、物体が近づいたことを検出する近接センサと、コンピュータとを備えた端末装置のプログラムであって、
    前記コンピュータを、
    前記傾きセンサの出力信号及び前記近接センサの出力信号に基づいて、当該端末装置の状態として、当該端末装置の傾きが水平を含む所定の角度範囲内にあり、且つ物体が前記近接センサから所定範囲内にある第1状態と、当該端末装置の傾きが前記所定の角度範囲内にあり、且つ物体が前記近接センサから前記所定範囲内にない第2状態とを判別する状態判別部と、
    前記状態判別部の判別結果が前記第1状態であるか前記第2状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する入力方向変換部として、機能させる、
    ことを特徴とする端末装置のプログラム。
  7. ユーザーの入力面に対するタッチ操作に応じた入力操作信号を出力する入力操作部と、 前記入力面と同一の面に設けられ、物体が近づいたことを検出する近接センサと、記前入力面と反対側の面に設けられ、画像を撮像する撮像部と、コンピュータとを備えた端末装置のプログラムであって、
    前記近接センサの出力信号及び前記撮像部の出力信号に基づいて、当該端末装置の状態として、物体が前記近接センサから所定範囲内にあり、且つ前記撮像部がユーザーの手で覆われている第3状態と、物体が前記近接センサから所定範囲内にあり、且つ前記撮像部がユーザーの手で覆われていない第4状態とを判別する状態判別部と、
    前記状態判別部の判別結果が前記第3状態であるか前記第4状態であるかに応じて、前記入力操作信号の示すタッチ操作の入力方向を変換した出力操作信号を生成する入力方向変換部として、機能させる、
    ことを特徴とする端末装置のプログラム。
JP2013121585A 2013-06-10 2013-06-10 入力装置、そのプログラム及び画像表示システム Pending JP2014238750A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013121585A JP2014238750A (ja) 2013-06-10 2013-06-10 入力装置、そのプログラム及び画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013121585A JP2014238750A (ja) 2013-06-10 2013-06-10 入力装置、そのプログラム及び画像表示システム

Publications (1)

Publication Number Publication Date
JP2014238750A true JP2014238750A (ja) 2014-12-18

Family

ID=52135851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013121585A Pending JP2014238750A (ja) 2013-06-10 2013-06-10 入力装置、そのプログラム及び画像表示システム

Country Status (1)

Country Link
JP (1) JP2014238750A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6293953B1 (ja) * 2017-04-04 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6293953B1 (ja) * 2017-04-04 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2018180647A (ja) * 2017-04-04 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法

Similar Documents

Publication Publication Date Title
CN105335001B (zh) 具有弯曲显示器的电子设备以及用于控制其的方法
US11704016B2 (en) Techniques for interacting with handheld devices
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US10739985B2 (en) Computer-readable storage medium having stored thereon display control program, display control system, display control apparatus, and display control method
US20150054730A1 (en) Wristband type information processing apparatus and storage medium
WO2014054211A1 (en) Information processing device, display control method, and program for modifying scrolling of automatically scrolled content
KR20150025385A (ko) 이동 단말기 및 이의 제어 방법
US9538086B2 (en) Method of performing previewing and electronic device for implementing the same
US8860661B2 (en) Information processing apparatus and program
JP7495459B2 (ja) 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法
KR20180002208A (ko) 단말기 및 그 제어 방법
CN107656794B (zh) 界面显示方法和装置
JP2014238750A (ja) 入力装置、そのプログラム及び画像表示システム
KR20160149066A (ko) 이동단말기 및 그 제어방법
KR102288431B1 (ko) 가상현실을 이용한 이미지입력시스템 및 이를 이용한 이미지데이터 생성방법
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법
EP4400956A1 (en) Touchless user interface provision method based on an electronic device case
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
WO2024149693A1 (en) Touchless user interface provision method based on an electronic device case
CN116149490A (zh) 字符输入方法、装置、设备及存储介质
CN118586099A (zh) 一种座椅头枕高度与前表面位置设计方法、装置及终端

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150413