JP2012216095A - 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 - Google Patents

検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 Download PDF

Info

Publication number
JP2012216095A
JP2012216095A JP2011081169A JP2011081169A JP2012216095A JP 2012216095 A JP2012216095 A JP 2012216095A JP 2011081169 A JP2011081169 A JP 2011081169A JP 2011081169 A JP2011081169 A JP 2011081169A JP 2012216095 A JP2012216095 A JP 2012216095A
Authority
JP
Japan
Prior art keywords
display
user
detection area
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011081169A
Other languages
English (en)
Other versions
JP5341126B2 (ja
Inventor
Masaki Hamamoto
将樹 濱本
Hirohisa Yamada
博久 山田
Hideharu Tajima
秀春 田島
Atsushi Eito
淳 栄藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011081169A priority Critical patent/JP5341126B2/ja
Priority to CN201210086057.9A priority patent/CN102736846B/zh
Publication of JP2012216095A publication Critical patent/JP2012216095A/ja
Application granted granted Critical
Publication of JP5341126B2 publication Critical patent/JP5341126B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】表示装置の操作性を向上させることができる。
【解決手段】本実施形態に係る制御部7は、ユーザによる入力操作を検出し、かつ、選択オブジェクトOBの表示が可能な入力ディスプレイ5を有する立体表示装置1に用いられる。制御部7は、入力ディスプレイ5に表示されるボタンなどの選択オブジェクトを選択するユーザの入力操作を検出する検出領域を、選択オブジェクトが表示される表示領域よりも拡げる領域設定部71を備える。
【選択図】図1

Description

本発明は、表示装置に立体的に表示されたボタンなどの選択オブジェクトに対する、ユーザの入力操作を検出する検出領域を拡げる検出領域拡大装置などに関するものである。
近年、3次元ディスプレイを用いて、ボタンなどの選択オブジェクトを立体的に表示し、ユーザインターフェースのリアリティを高める工夫がなされている。また、立体的に表示した選択オブジェクトを、タッチパネルを用いて選択するときの視認性を向上させる技術が提案されている。
例えば、特許文献1には、タッチパネルで選択された選択オブジェクトを前面に押し出して表示することで、ユーザの視認性を高める技術が開示されている。
特許03971694号公報(2007年9月5日公開)
ところが、タッチパネル式の3次元ディスプレイにおいて、輻輳点以外の奥行き位置に表示される選択オブジェクトに対してユーザが入力操作を行うとき、タッチパネルがユーザの入力操作を適正に検出することができず、誤操作が生じる場合がる。
これは、タッチパネル式の3次元ディスプレイでは、3次元ディスプレイ上に表示される選択オブジェクトの表示領域と、ユーザが視覚的に認識する選択オブジェクトの視認位置とが一致しないため、ユーザが身体感覚的に3次元ディスプレイに対して垂直な方向に選択オブジェクトを押下した場合、ユーザのタッチ位置が3次元ディスプレイに表示される選択オブジェクトの表示領域上からズレるためである。
図9は、従来のタッチパネル式の3次元ディスプレイ151における入力操作の位置ズレの原理を説明するための模式図である。なお、図9では、説明の便宜上、タッチパネルを省略して図示している。
図9において、P1は3次元ディスプレイ151における選択オブジェクトOBの表示領域、P2はユーザによって視認される選択オブジェクトOBの視認位置、a1は選択オブジェクトOBに対するユーザの入力操作を検出するタッチパネル上の検出領域、P3は視認位置P2で視認される選択オブジェクトOBを3次元ディスプレイ151に対して垂直な方向に投影したときのタッチパネル上の投影領域、Iは実験結果から得られたユーザによるタッチ領域をそれぞれ示している。
図9に示されるように、タッチパネル式の3次元ディスプレイ151では、表示領域P1に表示される選択オブジェクトOBは、選択オブジェクトOBの立体視に伴い、ユーザによって視認位置P2で視認される。このように、3次元ディスプレイ151では、3次元ディスプレイ151における選択オブジェクトOBの表示領域P1と、ユーザが視覚的に認識する選択オブジェクトOBの視認位置P2とが必ずしも一致しない。
このような場合に、視認位置P2で視認される選択オブジェクトOBに対してユーザが入力操作を行うとき、ユーザは、検出領域a1および投影領域P3を含む領域であるタッチ領域Iのいずれかの位置をタッチすることが実験結果から得られた。これは、ユーザの視覚的感覚および身体感覚的が、ユーザごとにそれぞれ異なることに起因するものである。
このため、ユーザのタッチ位置が表示領域P1上に設定された検出領域a1からズレる場合があり、このような場合に、タッチパネルがユーザの入力操作を適正に検出することができず、誤操作が生じていた。
このようなご操作を防止するために、従来では、輻輳点に相当する距離に選択オブジェクトOBを表示することで、上述のような位置ズレを防止していたが、選択オブジェクトOBの微細な立体表現など3次元機能を充分に活用した表示が困難であった。
本発明は、上記の課題に鑑みてなされたものであって、その目的は、表示装置に立体的に表示される立体オブジェクトに対するユーザの誤操作を防止して、表示装置の操作性を向上させることが可能な検出領域拡大装置などを実現することにある。
本発明に係る検出領域拡大装置は、上記課題を解決するために、ユーザによる入力操作を検出し、かつ、立体オブジェクトの表示が可能な入力表示部を有する表示装置に用いられ、上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも拡げる領域拡大手段を備えることを特徴としている。
また、本発明に係る検出領域拡大方法は、上記課題を解決するために、ユーザによる入力操作を検出し、かつ、立体オブジェクトの表示が可能な入力表示部を有する表示装置に用いられ、上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも拡げる領域拡大ステップを有することを特徴としている。
入力表示部を有する表示装置において、入力表示部に表示される立体オブジェクトの表示領域と、ユーザが視覚的に認識する立体オブジェクトの視認位置とが一致せず、ユーザの入力操作の位置が、入力表示部における立体オブジェクトの表示領域上からズレる場合がある。
この点、本発明に係る検出領域拡大装置は、入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも大きくする領域拡大手段を備える構成である。つまり、本発明に係る検出領域拡大装置は、上記検出領域を上記表示領域よりも拡げることにより、ユーザの入力操作の位置が、入力表示部における立体オブジェクトの表示領域上からズレた場合であっても、ユーザの入力操作が行われたことを検知させることを可能とする。
それゆえ、本発明に係る検出領域拡大装置は、表示装置に立体的に表示される立体オブジェクトに対するユーザの誤操作を防止して、表示装置の操作性を向上させることができる。
また、本発明に係る検出領域拡大装置では、上記領域拡大手段は、上記検出領域を拡大するために付加する長さを示す拡大量、および拡大方向を算出して、当該検出領域を拡げることが好ましい。
上記の構成によれば、領域拡大手段は、検出領域の拡大量、および拡大方向を算出して当該検出領域を拡大する。これにより、本発明に係る検出領域拡大装置は、ユーザの入力操作の位置が、立体オブジェクトの表示領域上からズレた場合であっても、ユーザの入力操作が行われたことを検知させることを可能とする。
また、本発明に係る検出領域拡大装置では、上記入力表示部の表示面とユーザの目との距離をL[mm]、当該表示面からの上記立体オブジェクトの視覚的な飛び出し量をh[mm]、当該表示面から上記入力操作が検出可能となる位置までの距離をd[mm]、上記入力表示部の高さ方向を縦方向として規定したときの、当該表示面の縦方向の長さをSH[mm]、上記入力表示部の幅方向を横方向として規定したときの、当該表示面の横方向の長さをSW[mm]としたとき、上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、SH・(h−d)/(L−d)[mm]拡大し、上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、SW・(h−d)/(L−d)[mm]拡大することが好ましい。
上記の構成によれば、想定されるユーザの入力操作の位置にまで検出領域を拡大することが可能となる。このため、本発明に係る検出領域拡大装置は、ユーザの入力操作の位置が、立体オブジェクトの表示領域上からズレた場合であっても、ユーザの入力操作を検知させることができる。
また、上記入力表示部がユーザの入力操作を上記入力表示部への近接動作により検出可能である場合においても、本発明に係る検出領域拡大装置を好適に適用することができる。
また、本発明に係る検出領域拡大装置では、上記領域拡大手段は、上記検出領域の縦方向の長さを、SH・(h−d)/600[mm]以上、SH・(h−d)/(100−d)[mm]以下の範囲で拡大し、上記検出領域の横方向の長さを、SW・(h−d)/600[mm]以上、SW・(h−d)/(100−d)[mm]以下の範囲で拡大することが好ましい。
一般的に、人の手の長さは平均して約600[mm]程度であると言われている。このため、(L−d)を600[mm]に選定し、検出領域を拡大する下限値をSH(h−d)/600[mm]、或いはSW(h−d)/600[mm]とすることにより、ユーザが指によって立体オブジェクトを選択する場合に、表示面から最も離れた位置で入力操作を行う際の位置ズレによる誤操作を防止することが可能となる。
また、入力表示部に表示された立体オブジェクトをユーザが適切に知覚するには、入力表示部の表示面とユーザの目との距離は、通常、約100[mm]以上確保する必要がある。このため、Lを100[mm]に選定し、検出領域を拡大する上限値をSH・(h−d)/(100−d)[mm]、或いはSW・(h−d)/(100−d)[mm]とすることにより、ユーザが表示面に最も近づいた位置から入力操作を行う際の位置ズレによる誤操作を防止することが可能となる。
また、本発明に係る検出領域拡大装置では、上記入力表示部に表示される立体オブジェクトの立体視を可能とする右目用画像と左目用画像像との間における位置ズレ量をp[mm]、上記入力表示部の高さ方向を縦方向として規定したときの、当該入力表示部の表示面の縦方向の長さをSH[mm]、上記入力表示部の幅方向を横方向として規定したときの、当該表示面の横方向の長さをSW[mm]としたとき、上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、SH・p/(75+p)[mm]以下の範囲で拡大し、上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、SW・p/(75+p)[mm]以下の範囲で拡大することが好ましい。
上記の構成によれば、領域拡大手段は、検出領域の縦方向の長さを、20p/(75+p)[mm]以上、SH・p/(75+p)[mm]以下の範囲で拡大する。
また、領域拡大手段は、検出領域の横方向の長さを、20p/(75+p)[mm]以上、SW・p/(75+p)[mm]以下の範囲で拡大する。
ここで、ユーザが入力表示部に表示される画像を視聴する際、自らの身体の動きによって、少なくとも20[mm]程度の目線の位置変化が常時生じているという実験結果が得られた。このため、検出領域を拡大する下限値を少なくとも20p/(75+p)とすることにより、ユーザの身体の動きによる目線の位置変化に起因した誤操作を防止することが可能となる。
また、入力表示部に対して垂直方向に規定される空間内にユーザの目が存在する場合、入力表示部上における、ユーザの目の位置と立体オブジェクトの表示領域との縦方向の最大距離はSH、横方向の最大距離はSWとなる。このため、検出領域を拡大する上限値をSH・p/(75+p)[mm]、或いはSW・p/(75+p)[mm]とすることにより、ユーザによる立体オブジェクトの視認位置から表示面に対して垂直に投影したときの領域にまで、検出領域を確実に拡大することが可能となる。
さらに、上記の構成によれば、入力表示部とユーザとの距離、立体オブジェクトの飛び出し量、および入力表示部から入力操作が検出可能となる位置までの距離などを用いる必要がないため、領域拡大手段による検出領域の設定が容易となる。
それゆえ、本発明に係る検出領域拡大装置は、ユーザの誤操作を効果的に防止することができると共に、領域拡大手段の処理負担を軽減することができる。
また、本発明に係る検出領域拡大装置では、上記領域拡大手段は、上記入力表示部の表示面の中心方向に向けて、上記検出領域を拡大することが好ましい。
上記の構成によれば、領域拡大手段は、入力表示部の表示面の中心方向に向けて、検出領域を拡大する。
一般的に、ユーザの入力操作の位置は、上記入力表示部に表示される立体オブジェクトの表示領域上から、当該上記入力表示部の表示面の中心方向にズレる傾向がある。このため、検出領域を入力表示部の表示面の中心方向に向けて拡大することにより、検出領域の拡大方向と、ユーザの入力操作の位置がズレる方向とを一致させることができる。
それゆえ、本発明に係る検出領域拡大装置は、検出領域を必要な方向にのみに拡大して、検出領域の不要な拡大を防止することができる。
また、本発明に係る検出領域拡大装置では、上記入力表示部に対するユーザの目の位置を検出する位置検出部と、上記位置検出部により検出されるユーザの目の位置と、ユーザにより視覚的に知覚される立体オブジェクトの位置とを上記入力表示部の表示面に対して垂直に投影したときの距離を、上記入力表示部の高さ方向として規定される縦方向の距離、および、上記入力表示部の幅方向として規定される横方向の距離として算出する算出手段と、を備え、上記表示面とユーザの目との距離をL[mm]、当該表示面からの上記立体オブジェクトの視覚的な飛び出し量をh[mm]、当該表示面から上記入力操作が検出可能となる位置までの距離をd[mm]、上記算出手段により算出された上記縦方向の距離をH[mm]、上記横方向の距離をW[mm]としたとき、上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、H・(h−d)/(L−d)[mm]拡大し、上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、W・(h−d)/(L−d)[mm]拡大することが好ましい。
上記の構成によれば、算出手段によって算出された表示面上におけるユーザの目の位置と、ユーザにより視覚的に知覚される立体オブジェクトとの縦方向の距離Hおよび横方向の距離Wを用いて、検出領域拡大手段は検出領域を拡大する。このため、検出領域拡大手段は、ユーザの目の位置に応じて、必要な検出領域を設定することが可能となる。
それゆえ、本発明に係る検出領域拡大装置は、ユーザの目の位置に応じた検出領域を適宜設定することにより、ユーザの誤操作を効果的に防止することができる。
また、本発明に係る検出領域拡大装置では、上記領域拡大手段は、上記検出領域の縦方向の長さを、H・(h−d)/600[mm]以上、H・(h−d)/(100−d)[mm]以下の範囲で拡大し、上記検出領域の横方向の長さを、W・(h−d)/600[mm]以上、W・(h−d)/(100−d)[mm]以下の範囲で拡大することが好ましい。
上記の構成によれば、検出領域を拡大する下限値を少なくともH・(h−d)/600[mm]、或いはW・(h−d)/600[mm]とすることにより、ユーザが指によって立体オブジェクトを選択する場合に、表示面から最も離れた位置で入力操作を行う際の位置ズレによる誤操作を防止することが可能となる。
また、検出領域を拡大する上限値をSH・(h−d)/(100−d)[mm]、或いはW・(h−d)/(100−d)[mm]]とすることにより、ユーザが表示面に最も近づいた位置から入力操作を行う際の位置ズレによる誤操作を防止することが可能となる。
それゆえ、本発明に係る検出領域拡大装置は、ユーザの誤操作をより効果的に防止することができる。
また、本発明に係る検出領域拡大装置では、上記入力表示部に対するユーザの目の位置を検出する位置検出部と、上記位置検出部により検出されるユーザの目の位置と、ユーザにより視覚的に知覚される立体オブジェクトの位置とを上記入力表示部の表示面に対して垂直に投影したときの距離を、上記入力表示部の高さ方向として規定される縦方向の距離、および、上記入力表示部の幅方向として規定される横方向の距離として算出する算出手段と、を備え、上記入力表示部に表示される立体オブジェクトの立体視を可能とする右目用画像と左目用画像像との間の位置ズレ量をp[mm]、上記算出手段により算出された上記縦方向の距離をH[mm]、上記横方向の距離をW[mm]としたとき、上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、H・p/(75+p)[mm]以下の範囲で拡大し、上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、W・p/(75+p)[mm]以下の範囲で拡大することが好ましい。
上記の構成によれば、算出手段によって算出された入力表示部の表示面上におけるユーザの目の位置と、ユーザにより視覚的に知覚される立体オブジェクトとの縦方向の距離Hおよび横方向の距離Wを用いて、検出領域拡大手段は検出領域を拡大する。このため、検出領域拡大手段はユーザの目の位置に応じて、必要な検出領域を設定することが可能となる。
また、上記の構成によれば、入力表示部とユーザとの距離、立体オブジェクトの飛び出し量、および入力表示部から入力操作が検出可能となる位置までの距離などを用いる必要がないため、領域拡大手段による検出領域の設定が容易となる。
それゆえ、本発明に係る検出領域拡大装置は、ユーザの目の位置に応じた検出領域を適宜設定することができると共に、領域拡大手段の処理負担を軽減することができる。
また、本発明に係る検出領域拡大装置では、上記入力表示部に表示される立体オブジェクトの表示位置を変更する表示位置変更手段を備え、上記表示位置変更手段は、上記入力表示部に立体オブジェクトが複数表示されているときに、上記領域拡大手段により拡大された上記検出領域が互いに重なり合わないように、上記立体オブジェクトそれぞれの表示位置を変更することが好ましい。
上記入力表示部に立体オブジェクトが複数表示されている場合に、検出領域拡大手段によって検出領域が拡大された結果、隣り合う検出領域が互いに重なり合うように設定される場合もありえる。この場合、表示位置変更手段は、検出領域が互いに重なり合わないように、当該検出領域に対応する立体オブジェクトの表示位置を変更することで、検出領域が互いに重なり合わないようにすることができる。
それゆえ、本発明に係る検出領域拡大装置は、立体オブジェクトごとにユーザの入力操作を確実に検出して、誤作動を防止することができる。
また、本発明に係る検出領域拡大装置では、ユーザの入力操作の入力操作の位置が上記検出領域に含まれるときに、上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作が行われたものと判定する判定手段と、上記入力表示部からの上記立体オブジェクトの視覚的な飛び出し量を調整する飛出量調整手段と、を備え、上記飛出量調整手段は、上記判定手段がユーザの入力操作が行われたものと判定したときに、上記立体オブジェクトの飛び出し量を減少させることが好ましい。
上記の構成によれば、本発明に係る検出領域拡大装置は、判定手段によって選択されたと判定された立体オブジェクトの飛び出し量を減少させる飛出し調整手段を備える。このため、ユーザが選択した立体オブジェクトは、未選択の立体オブジェクトよりも視覚的な飛び出し量が減少するので、ユーザは、すでに選択した立体オブジェクトを視覚的に識別することが可能となる。
それゆえ、本発明に係る検出領域拡大装置は、ユーザの視認性および操作性を向上させることができる。
また、本発明に係る検出領域拡大装置では、上記入力表示部は、タッチパネル式であることが好ましい。
上記の成により、接触型の検出を可能とし、また、タッチパネルは汎用品でもあるため、入力表示部の製造コストを低減することができる。
また、本発明に係る検出領域拡大装置では、上記入力表示部は、ユーザによる入力操作を距離センサにより検出することが好ましい。
上記の成によれば、非接触型の検出が可能となり、ユーザの操作性を向上させることができる。
また、域拡大装置は、上記課題を解決するために、上記検出領域拡大装置を備えるこが好ましい。
上記の構成によれば、表示する立体オブジェクトに対するユーザの誤操作を防止して、操作性を向上させた表示装置を実現することができる。
なお、上記立体画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより複合機をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
以上のように、本発明に係る検出領域拡大装置は、上記課題を解決するために、ユーザによる入力操作を検出し、かつ、立体オブジェクトの表示が可能な入力表示部を有する表示装置に用いられ、上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも拡げる領域拡大手段を備える。
また、本発明に係る検出領域拡大方法は、上記課題を解決するために、ユーザによる入力操作を検出し、かつ、立体オブジェクトの表示が可能な入力表示部を有する表示装置に用いられ、上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも拡げる領域拡大ステップを含む。
それゆえ、本発明に係る検出領域拡大装置および検出領域拡大方法によれば、表示装置に立体的に表示される立体オブジェクトに対するユーザの誤操作を防止して、表示装置の操作性を向上させることができる。
実施形態1に係る立体表示装置の概略構成を示すブロック図である。 図1に示される領域設定部による検出領域の拡大量を算出する方法を説明するための模式図である。 図1に示される領域設定部による検出領域の拡大量を算出する他の方法を説明するための模式図である。 (a)〜(d)は、検出領域の拡大方向の一例を示す上面図である。 本実施形態に係る立体表示装置の処理例1の流れを示すフローチャートである。 本実施形態に係る立体表示装置の処理例2の流れを示すフローチャートである。 他の実施形態に係る立体表示装置の概略構成を示すブロック図である。 図7に示される演算部による縦方向の距離を算出する方法の一例を説明するための模式図である。 従来のタッチパネル式の3次元ディスプレイにおける入力操作の位置ズレの原理を説明するための模式図である。
〔実施形態1〕
本発明に係る検出領域拡大装置に関する第一の実施形態について、図1〜図6に基づいて説明すれば、以下のとおりである。本実施形態では、本発明に係る検出領域拡大装置を備える立体表示装置について説明する。
〔立体表示装置の構成〕
まず、本実施形態に係る立体表示装置の構成について、図1を参照して説明する。
図1は、本実施形態に係る立体表示装置(表示装置)1の概略構成を示すブロック図である。図1に示されるように、立体表示装置1は、コンテンツ処理部2と、3次元描画エンジン3と、表示ドライバ4と、入力ディスプレイ(入力表示部)5と、座標算出部6と、制御部(検出領域拡大装置)7とを備えている。以下、立体表示装置1が備える各部について説明する。
〔コンテンツ処理部〕
コンテンツ処理部2は、入力ディスプレイが備えるディスプレイ(表示面)51に画像を表示するために利用される画像データを、単位画像ごとに生成するものである。コンテンツ処理部2は、画像コンテンツを記録した記録媒体であるメディアM、アプリケーションソフトなどからオブジェクト情報を読み出して、オブジェクト情報に基づいた画像データを生成する。
ここで、画像コンテンツとは、例えば、静止画像、動画像などの3次元コンテンツ、或いは、これらの組み合わせからなるマルチメディアコンテンツなどを含むものである。具体的には、VRMLやOpenGLなどの3次元グラフィック言語により定義された画像、アプリケーションソフトによる画像、メールやワープロソフトなどによるテキスト文書のページング形式の画像、Webページの画像、デジタルカメラのプレビュー画像などが例示される。
また、オブジェクト情報とは、2次元または3次元の空間座標上に配置される表示要素であるオブジェクトの位置やサイズ、外形の属性、および色彩などを特定する情報である。例えば、オブジェクト情報には、オブジェクトの位置やサイズ、外形の属性を示す座標情報として、3次元の座標値が含まれている。この3次元の座標値には、後述するディスプレイ51の高さ方向を規定するy軸方向(縦方向)、ディスプレイ51の幅方向を規定するx軸方向(横方向)、x軸およびy軸に垂直な方向を規定するz軸方向(垂直方向)としたときの、これら3つの軸方向の座標値が含まれる。
さらに、単位画像とは、1ファイル、1フレームまたは1ページの画像など画像処理の基本単位となる画像のことであり、静止画像、動画像の1フレーム画像を含む。
具体的には、コンテンツ処理部2は、メディアMから取得したオブジェクト情報に基づいて画像データを生成し、生成した画像データと、当該画像データに含まれるオブジェクトの座標情報とを関連付けて、3次元描画エンジン3に出力する。
また、コンテンツ処理部2は、生成した画像データに、ボタンなどの選択オブジェクト(立体オブジェクト)が含まれる場合、選択オブジェクトの座標情報を制御部7に出力する。
さらに、コンテンツ処理部2は、制御部7から出力された制御信号を取得したとき、当該制御信号にしたがって、所定の処理を実行する。
〔3次元描画エンジン〕
3次元描画エンジン3は、ディスプレイ51に表示される画像を3次元とするために、画像データに対して3次元画像処理を行うものである。具体的には、3次元描画エンジン3は、コンテンツ処理部2から出力された画像データおよび座標情報を取得すると、立体視するための左目用画像データおよび右目用画像データを生成する。3次元描画エンジン3は、生成した左目用画像データおよび右目用画像データを表示ドライバ4に出力する。
〔表示ドライバ〕
表示ドライバ4は、3次元描画エンジン3から出力された左目用画像データおよび右目用画像データをディスプレイ51に表示させるために、ディスプレイ51を駆動させるものである。表示ドライバ4は、左目用ドライバ41と右目用ドライバ42とを備えており、左目用ドライバ41が左目用画像データを、右目用ドライバ42が右目用画像データをそれぞれ入力ディスプレイ5に出力し、ディスプレイ51に表示させる。
〔入力ディスプレイ〕
入力ディスプレイ5は、表示ドライバ4から出力された左目用画像データおよび右目用画像データに応じた画像を表示すると共に、ユーザの入力操作を検出するものである。入力ディスプレイ5は、ディスプレイ51とタッチパネル52とを備えている。
ディスプレイ51は、画像を表示してユーザに提示する表示デバイスである。ディスプレイ51は、例えば、液晶ディスプレイやプラズマディスプレイとして実現される。
タッチパネル52は、ユーザの入力操作を受け付ける入力デバイスである。タッチパネル52は、ディスプレイ51に対するユーザの指やタッチペンなどを用いたタッチによる入力操作を検出する。
また、タッチパネル52は、ディスプレイ51上においてタッチされている位置を検出し、この検出結果をユーザの入力操作の内容を示す信号として、座標算出部6に出力する。
なお、タッチパネル52は、上記の機能を有するものであればよく、例えば、従来から広く用いられている感圧式または静電式のパネルを適用してもよい。これにより、接触型の検出を可能とすることができる。
或いは、タッチパネル52に代えて、Time of Flight方式、ステレオカメラ方式、またはパターン投影方式などの距離センサを用いてもよい。これにより、非接触型の検出を可能とし、ユーザは、指やタッチペンを選択オブジェクトに向かって近づける近接動作を行うだけでよいので、ユーザの操作性を向上させることができる。
〔座標算出部〕
座標算出部6は、タッチパネル52からディスプレイ51上においてタッチされているタッチ位置を示す信号が出力されたとき、そのタッチ位置に対応する座標値を算出するものである。座標算出部6は、算出した座標値を制御部7に出力する。
〔制御部〕
制御部7は、立体表示装置1の動作を統括して制御するものである。制御部7は、領域設定部(領域拡大手段)71と、選択判定部(判定手段)72と、飛出量調整部(飛出量調整手段)73と、レイアウト変更部(表示位置変更手段)74とを備えている。
〔領域設定部〕
領域設定部71は、選択オブジェクトに対するユーザの入力操作を検出する検出領域を設定するものである。制御部7は、コンテンツ処理部2から選択オブジェクトの座標情報を取得したとき、当該座標情報に基づいて、選択オブジェクトごとの検出領域を設定する。
このとき、領域設定部71は、ディスプレイ51における選択オブジェクトの表示領域よりも検出領域を拡げて設定する。具体的には、領域設定部71は、検出領域の拡大量を所定の計算式を用いて算出し、算出した拡大量をディスプレイ51における選択オブジェクトの表示領域のサイズに付加した検出領域を設定する。
これにより、立体表示装置1では、ユーザのタッチ位置が、選択オブジェクトの表示領域上からズレた場合であっても、ユーザの入力操作を検知することが可能となる。なお、領域設定部71による検出領域の設定について詳細は後述する。
また、領域設定部71は、単位画像において複数の検出領域を設定した場合、隣り合う検出領域に重なり合う部分がないかを判定する。すなわち、検出領域を拡大して設定した結果、隣り合う検出領域が互いに重なり合うように設定される場合もあり得る。このため、領域設定部71は、設定した検出領域に重なり合う部分がある場合、当該重なりを解消するために、検出領域を再設定する。
具体的には、領域設定部71は、重なり合う検出領域のうち少なくとも一方の検出領域を、他方の検出領域に対して離間する方向に移動させ、検出領域同士が重なり合わない位置に検出領域の再設定を行う。
これにより、立体表示装置1では、選択オブジェクトごとにユーザの入力操作を確実に検出して、誤作動を防止することができる。
なお、領域設定部71は、設定した選択オブジェクトごとの検出領域の座標情報を、選択判定部72に出力する。
〔選択判定部〕
選択判定部72は、ユーザが、所定の選択オブジェクトを選択したか否かを判定するものである。具体的には、選択判定部72は、領域設定部71から出力された検出領域に、座標算出部6から出力されたユーザのタッチ位置に対応する座標値が含まれるか否かを判定する。検出領域にタッチ位置の座標値が含まれる場合、選択判定部72は、当該検出領域に対応する選択オブジェクトがユーザによって選択されたものと判定し、判定結果をコンテンツ処理部2に出力する。
〔飛出量調整部〕
飛出量調整部73は、ディスプレイ51からの選択オブジェクトの視覚的な飛び出し量を調整するものである。具体的には、飛出量調整部73は、ユーザによって選択された所定の選択オブジェクトの飛び出し量dを減少させる制御信号を生成し、コンテンツ処理部2に出力する。これにより、ディスプレイ51に表示される選択オブジェクトのうち、ユーザによって選択された選択オブジェクトの視覚的な飛び出し量を、未選択の選択オブジェクトよりも減少させることができる。したがって、ユーザは、すでに選択した立体オブジェクトと未選択の選択オブジェクトとを視覚的に識別することが可能となるため、ユーザの視認性および操作性を向上させることができる。
〔レイアウト変更部〕
レイアウト変更部74は、ディスプレイ51に表示される選択オブジェクトのレイアウトを変更するものである。ここで、レイアウトとは、オブジェクトが2次元または3次元の空間座標上に、位置とサイズ、外形の属性をもって配置される位置である。位置やサイズは、例えば、画素の集まりからなるディスプレイ51に表示する場合は、一般に(画素)ドットの単位で表現される。
具体的には、レイアウト変更部74は、領域設定部71によって検出領域が再設定された場合、再設定された検出領域の座標情報に応じて、ディスプレイ51における選択オブジェクトの表示間隔を拡げる制御信号を生成し、コンテンツ処理部2に出力する。
これにより、再設定された検出領域に応じて、ディスプレイ51における選択オブジェクトの表示間隔を拡げることが可能となるため、ユーザの視認性および操作性を向上させることができる。
〔領域設定部による検出領域の設定〕
次に、領域設定部71による検出領域の設定について、図2および図3を参照して説明する。領域設定部71は、検出領域を設定するとき、検出領域を拡大するために付加する拡大量および拡大方向を算出する。
〔拡大量の算出方法〕
まず、領域設定部71による検出領域の拡大量を算出する方法について、図2および図3を参照して説明する。
図2は、領域設定部71による検出領域の拡大量を算出する方法を説明するための模式図である。図2では、P1はディスプレイ51における選択オブジェクトOBの表示領域、P2はユーザによって視認される選択オブジェクトOBの視認位置、Aは選択オブジェクトOBに対するユーザの入力操作を検出するタッチパネル52上の検出領域、P3は視認位置P2で視認される選択オブジェクトOBをディスプレイ51に対して垂直な方向に投影したときのタッチパネル52上の投影領域、Iは実験結果から得られたユーザによるタッチ領域をそれぞれ示している。
図2に示されるように、検出領域Aは、ベース領域A1と、拡大領域A2とから構成されている。ベース領域A1は、ディスプレイ51に表示される選択オブジェクトOBの表示領域P1上に設定されており、そのサイズは表示領域P1と同一である。すなわち、ベース領域A1は、図9に示される従来のタッチパネル式の3次元ディスプレイ151における検出領域a1に相当するものである。
立体表示装置1では、ディスプレイ51上の表示領域P1に表示された選択オブジェクトOBは、視認位置P2でユーザによって知覚される。このような場合に、視認位置P2の選択オブジェクトOBに対してユーザが入力操作を行うとき、ユーザは、ベース領域A1および投影領域P3を含む領域であるタッチ領域Iのいずれかの位置をタッチすることが実験結果から得られた。これは、ユーザの視覚的感覚および身体感覚的が、ユーザごとにそれぞれ異なることに起因するものである。
このため、従来では、表示領域P1(ベース領域A1)とユーザのタッチ位置との間に位置ズレが生じた場合、タッチパネル52が選択オブジェクトOBに対するユーザの入力操作を検出することができなかった。
そこで、領域設定部71は、ディスプレイ51における選択オブジェクトOBの表示領域P1よりも検出領域Aを拡げて設定する。具体的には、領域設定部71は、ベース領域A1に拡大領域A2を付加した検出領域Aを設定する。
以下、領域設定部71における検出領域Aの拡大量の算出方法の一例について説明する。
〔算出方法1〕
まず、検出領域Aの拡大量の算出する算出方法1について、図2を参照して説明する。
領域設定部71は、検出領域Aの縦(y軸)方向の拡大量をAH[mm](図4参照)としたとき、下記の計算式1を用いて、縦方向の拡大量AHを算出する。
AH[mm]=SH・(h−d)/(L−d)[mm]・・・(計算式1)
同様に、領域設定部71は、検出領域Aの横(x軸)方向の拡大量をAW[mm](図4参照)としたとき、下記の計算式2を用いて、横方向の拡大量AWを算出する。
AW[mm]=SW・(h−d)/(L−d)[mm]・・・(計算式2)
なお、上記の計算式1および計算式2において、Lはディスプレイ51とユーザの目との距離[mm]、hはディスプレイ51からの選択オブジェクトOBの視覚的な飛び出し量[mm]、dはディスプレイ51からユーザの入力操作を検出する位置までの距離[mm]、SHは入力ディスプレイ5の高さ方向を縦方向として規定したときの、ディスプレイ51の縦方向の長さ[mm]、SW(不図示)は入力ディスプレイ5の幅方向を横方向として規定したときの、ディスプレイ51の横方向の長さ[mm]をそれぞれ示している。
ここで、本実施形態のように、入力デバイスとしてタッチパネル52を用いた場合、ディスプレイ51からユーザの入力操作を検出する位置までの距離dは、タッチパネル52の厚みを示す。また、入力デバイスとして距離センサを用いた場合、ディスプレイ51からユーザの入力操作を検出する位置までの距離dは、ディスプレイ51から距離センサがユーザの入力操作を検出する位置までの検出距離を示す。
なお、ディスプレイ51とユーザの目との距離Lは、例えば、ディスプレイ51とユーザの右目との距離、およびディスプレイ51とユーザの左目との距離の平均値、或いは、ディスプレイ51と右目または左目のいずれか一方との距離であってもよい。
このように、領域設定部71は、上記の計算式1を用いて算出した縦方向の拡大量AHを、ベース領域A1のy軸方向のうち少なくとも一方に付加する。また、領域設定部71は、上記の計算式2を用いて算出した横方向の拡大量AWを、ベース領域A1のx軸方向のうち少なくとも一方に付加する。これにより、領域設定部71は、ベース領域A1に拡大領域A2を付加した検出領域Aを設定する。
このように、領域設定部71は、上記の計算式1および計算式2を用いて拡大量AH・AWを算出して、検出領域Aを設定することにより、投影領域P3を含む領域まで検出領域Aを拡大することが可能となる。これにより、検出領域Aとタッチ領域Iとを一致させることができるため、立体表示装置1は、表示領域P1(ベース領域A1)とユーザのタッチ位置との間に位置ズレが生じた場合であっても、ユーザの入力操作を確実に検出することができる。
なお、算出方法1を用いて検出領域Aの拡大量の算出する場合、領域設定部71は、検出領域Aの縦方向の拡大量AHを、SH・(h−d)/600[mm]以上、SH・(h−d)/(100−d)[mm]以下とすることが好ましい。同様に、領域設定部71は、検出領域Aの横方向の拡大量AWを、SW・(h−d)/600[mm]以上、SW・(h−d)/(100−d)[mm]以下とすることが好ましい。
一般的に、人の手の長さは平均して約600[mm]程度であると言われている。このため、(L−d)を600[mm]と選定し、拡大領域A2の下限値をSH(h−d)/600[mm]、或いはSW(h−d)/600[mm]とすることにより、ユーザが指によって選択オブジェクトOBを選択する場合に、ディスプレイ51から最も離れた位置で入力操作を行う際の位置ズレによる誤操作を防止することが可能となる。
また、ディスプレイ51に表示された選択オブジェクトOBを適切に知覚するには、ディスプレイ51とユーザの目との距離は、通常、約100[mm]以上確保する必要がある。このため、Lを100[mm]と選定し、拡大領域A2の上限値をSH・(h−d)/(100−d)[mm]、或いはSW・(h−d)/(100−d)[mm]とすることにより、ユーザがディスプレイ51に最も近づいた位置から入力操作を行う際の位置ズレによる誤操作を防止することが可能となる。
〔算出方法2〕
次に、検出領域Aの拡大量を算出する算出方法2について、図3を参照して説明する。
図3は、領域設定部71による検出領域Aの拡大量を算出する他の方法を説明するための模式図である。図3に示されるように、ディスプレイ51に表示される選択オブジェクトOBの立体視を可能とする右目用画像と左目用画像像との間における位置ズレ量をp[mm]としたとき、領域設定部71は、検出領域Aの縦(y軸)方向の拡大量AHを、20p/(75+p)[mm]以上、SH・p/(75+p)[mm]以下とし、検出領域Aの横(x軸)方向の拡大量AWを、20p/(75+p)[mm]以上、SW・p/(75+p)[mm]以下とすることが好ましい。
ここで、ユーザがディスプレイ51に表示される画像を視聴する際、自らの身体の動きによって、少なくとも20[mm]程度の目線の位置変化が常時生じているという実験結果が得られた。このため、拡大領域A2の下限値を少なくとも20p/(75+p)とすることにより、ユーザの身体の動きによる目線の位置変化に起因した誤操作を防止することが可能となる。
また、z軸方向、すなわち、ディスプレイ51に対して垂直に規定される空間内にユーザの目が存在する場合、ディスプレイ51上における、ユーザの目の位置と選択オブジェクトOBの表示領域P1との縦方向の最大距離はSH、横方向の最大距離はSWとなる。このため、拡大領域A2の上限値をSH・p/(75+p)[mm]、或いはSW・p/(75+p)[mm]とすることにより、ユーザによる選択オブジェクトOBの視認位置P2の下方まで、検出領域Aを確実に拡大することが可能となる。
さらに、算出方法2によれば、ディスプレイ51とユーザとの距離L、選択オブジェクトOBの飛び出し量h、およびディスプレイ51から入力操作が検出可能となる位置までの距離dなどを用いる必要がないため、領域設定部71による検出領域Aの設定が容易となる。
〔拡大方向の算出〕
次に、領域設定部71による検出領域Aの拡大方向の算出方法について、図2および図4を参照して説明する。
通常、ユーザのタッチ位置は、ディスプレイ51に表示される選択オブジェクトOBの表示領域P1から、ディスプレイ51の中心方向にズレる傾向がある。例えば、図2に示されるように、ユーザの目線よりも選択オブジェクトOBが上方に表示される場合、ユーザはベース領域A1の下方をタッチする傾向がある。
このため、検出領域Aをディスプレイ51の中心方向に向けて拡大することにより、検出領域Aの拡大方向と、ユーザのタッチ位置がズレる方向とを一致させることができる。具体的には、領域設定部71は、ディスプレイ51の中心座標値と、選択オブジェクトの表示領域P1の中心座標値とを比較することによって、検出領域Aの拡大方向を算出する。
図4(a)〜(d)は、検出領域Aの拡大方向の一例を示す上面図である。図4(a)に示されるように、領域設定部71は、ベース領域A1の外周を囲うように、拡大領域A2を付加することで検出領域Aを設定してもよい。これにより、選択オブジェクトOBに対するユーザの目の位置にかかわらず、上述した位置ズレが生じた場合であっても、ユーザの入力操作を確実に検出することが可能となる。
また、領域設定部71は、検出領域Aをディスプレイ51の中心方向に向けて拡大する場合、図4(b)〜(d)に示されるような検出領域Aを設定すればよい。例えば、ディスプレイ51の中心座標値が、選択オブジェクトOBの表示領域P1の中心座標値に対して右下方向に位置するとき、領域設定部71は、図4(b)に示されるように、ベース領域A1の右辺および下辺に拡大領域A2を付加して検出領域Aを設定する。
また、ディスプレイ51の中心座標値が、選択オブジェクトOBの表示領域P1の中心座標値に対して上方向に位置するとき、領域設定部71は、図4(c)に示されるように、ベース領域A1の上辺に拡大領域A2を付加して検出領域Aを設定する。
さらに、ディスプレイ51の中心座標値が、選択オブジェクトの表示領域P1の中心座標値に対して左方向に位置するとき、領域設定部71は、図4(d)に示されるように、ベース領域A1の左辺に拡大領域A2を付加して検出領域Aを設定する。
図4(b)〜(c)に示されるように、検出領域Aをディスプレイ51の中心方向に向けて拡大することにより、検出領域Aの不要な拡大設定を防止して、検出領域Aが重なり合って設定されることを防止することができる。
〔立体表示装置の処理〕
次に、本実施形態に係る立体表示装置1の処理について、図5および図6を参照して説明する。
〔処理例1〕
まず、本実施形態に係る立体表示装置1の基本的な処理である処理例1について、図5を参照して説明する。
図5は、本実施形態に係る立体表示装置1の処理例1の流れを示すフローチャートである。図5に示されるように、処理例1は、S1〜S11を有している。
まず、コンテンツ処理部2は、メディアMなどに記録された画像コンテンツを読み出し(S1)、単位画像ごとに画像データを生成する。
次に、コンテンツ処理部2は、生成した単位画像ごとの画像データに、ボタンなどの選択オブジェクトOBが含まれるか否かを判定する(S2)。
画像データに選択オブジェクトOBが含まれない場合(S2でNO)、コンテンツ処理部2は、画像データと各オブジェクトの座標情報とを関連付けて3次元描画エンジン3に出力し(S3)、ディスプレイ51に画像データに示される画像を表示させる。
一方、画像データに選択オブジェクトOBが含まれる場合(S2でYES)、コンテンツ処理部2は、画像データと各オブジェクトの座標情報とを関連付けて3次元描画エンジン3に出力して、ディスプレイ51に画像データに示される画像を表示させると共に、選択オブジェクトOBの座標情報を制御部7に出力する(S4)。
制御部7の領域設定部71は、コンテンツ処理部2から出力された選択オブジェクトOBの座標情報を取得したとき、当該座標情報に基づいて、検出領域Aを拡大設定するために付加する長さを示す拡大量AH・AWおよび拡大方向を算出する(S5)。
次に、領域設定部71は、S5にて算出した拡大量AH・AWおよび拡大方向に基づいて、選択オブジェクトOBごとに検出領域Aを設定する(S6)。具体的には、領域設定部71は、ディスプレイ51に表示される選択オブジェクトの表示領域P1に対応するベース領域A1に、算出した拡大量AH・AWを所定の方向に付加した検出領域Aを設定する。
次に、領域設定部71は、単位画像において複数の検出領域Aを設定した場合、隣り合う検出領域Aに重なり合う部分があるか否かを判定する(S7)。検出領域Aに重なり合う部分がある場合(S7でYES)、領域設定部71は、当該重なりを解消するために、検出領域Aの再設定を行う(S8)。具体的には、領域設定部71は、互いに重なり合う検出領域Aのうち少なくとも一方の検出領域Aを、他方の検出領域Aに対して離間する方向に移動させ、検出領域A同士が重なり合わないように検出領域Aの再設定を行う。
次に、レイアウト変更部74は、ディスプレイ51に表示される選択オブジェクトOBのレイアウトを変更する(S9)。具体的には、レイアウト変更部74は、領域設定部71によって再設定された検出領域Aの座標情報に応じて、対応する選択オブジェクトOBのディスプレイ51における表示位置を変更する制御信号を生成し、コンテンツ処理部2に出力する。コンテンツ処理部2は、レイアウト変更部74から出力された制御信号を取得したとき、当該制御信に示される所定の選択オブジェクトOBの座標情報を改変し、3次元描画エンジン3に出力する。これにより、検出領域Aの再設定に応じて、選択オブジェクトOBのレイアウトを変更させた画像をディスプレイ51に表示させることができる。
一方、検出領域Aに重なり合う部分がない場合(S7でNO)、領域設定部71は、S8およびS9の処理を省略する。
次に、選択判定部72は、領域設定部71から出力された検出領域Aの座標情報と、座標算出部6から出力されたユーザのタッチ位置を示す座標値とに基づいて、選択オブジェクトOBが選択されたか否かを判定する(S10)。具体的には、選択判定部72は、ユーザのタッチ位置を示す座標値を座標算出部6から取得したとき、当該タッチ位置の座標値が領域設定部71によって設定された所定の検出領域Aの座標値に含まれるか否かを判定する。
タッチ位置の座標値が検出領域Aの座標値に含まれない場合(S10でNO)、選択判定部72は、何れの選択オブジェクトOBも選択されなかったものと判断し、選択オブジェクトOBが選択されるまでS10を繰り返し行う。一方、タッチ位置の座標値が検出領域Aの座標値に含まれる場合(S10でYES)、選択判定部72は、当該検出領域Aに対応する所定の選択オブジェクトOBが選択されたものと判断する。そして、選択判定部72は、所定の選択オブジェクトOBが選択されたことを示す制御信号を生成し、コンテンツ処理部2に出力する。
コンテンツ処理部2は、選択判定部72から出力された制御信号を取得したとき、当該制御信に示される所定の選択オブジェクトOBに対するユーザの入力操作に応じた画像コンテンツの処理を進行させる(S11)。
このように、処理例1によれば、ユーザのタッチ位置が、選択オブジェクトOBの表示領域P1上からズレた場合であっても、ユーザの入力操作を検知することが可能となる。また、ユーザの入力操作を確実に検出して、立体表示装置1の誤作動を防止することができる。
〔処理例2〕
次に、本実施形態に係る立体表示装置1の他の処理例2について、図6を参照して説明する。処理例2では、ユーザの入力操作後、同一の表示画像において引き続きユーザの入力操作を求める場合の処理について説明する。
図6は、本実施形態に係る立体表示装置1の処理例2の流れを示すフローチャートである。図6に示されるように、処理例2は、S21〜S30を有している。なお、S21〜S27は、図5に示されるS1〜S6、およびS10での処理と同一であるため、ここでは説明を省略する。
S27において、タッチ位置の座標値が検出領域Aの座標値に含まれる場合(S27でYES)、選択判定部72は、当該検出領域Aに対応する所定の選択オブジェクトOBが選択されたものと判断する。そして、選択判定部72は、所定の選択オブジェクトOBが選択されたことを示す制御信号を生成し、コンテンツ処理部2に出力する。
コンテンツ処理部2は、選択判定部72から所定の選択オブジェクトOBが選択されたことを示す制御信号を取得したとき、同一の表示画像において引き続きユーザの入力操作を求めるか否かを判定する(S28)。
引き続きユーザの入力操作を求める場合(S28でYES)、コンテンツ処理部2は、選択された選択オブジェクトOBの座標情報を飛出量調整部73に出力する。
飛出量調整部73は、コンテンツ処理部2から出力された所定の選択オブジェクトOBの座標情報を取得したとき、当該選択オブジェクトOBの飛出し量が減少するように座標情報を改変して、コンテンツ処理部2に出力する(S29)。
コンテンツ処理部2は、飛出量調整部73から出力された制御信号を取得したとき、改変された座標情報を3次元描画エンジン3に出力して、所定の選択オブジェクトOBの飛出し量を低下させた画像をディスプレイ51に表示させると共に、当該選択オブジェクトOBの座標情報を制御部7に出力して、飛出し量に応じた検出領域を新たに設定させる(S24)。
一方、ユーザの入力操作を求めない場合(S28でNO)、コンテンツ処理部2は、図5に示されるS11と同様に、選択判定部72から出力された制御信号に示される所定の選択オブジェクトOBに対するユーザの入力操作に応じた画像コンテンツの処理を進行させる(S30)。
このように、処理例2によれば、ユーザは、すでに選択した選択オブジェクトOBと未選択の選択オブジェクトOBとを視覚的に識別することが可能となるため、ユーザの視認性および操作性を向上させることができる。
〔まとめ〕
以上のように、本実施形態に係る制御部7は、ユーザによる入力操作を検出し、かつ、選択オブジェクトOBの表示が可能な入力ディスプレイ5を有する立体表示装置1に用いられ、入力ディスプレイ5に表示される選択オブジェクトOBを選択するユーザの入力操作を検出する検出領域を、選択オブジェクトOBが表示される表示領域P1よりも拡げる領域設定部71を備える。
上述したように、従来、入力ディスプレイ5に表示される選択オブジェクトOBの表示領域P1と、ユーザが視覚的に認識する選択オブジェクトOBの視認位置P2とが一致せず、ユーザのタッチ位置が、入力ディスプレイ5における選択オブジェクトOBの表示領域P1上からズレる場合がある。
この点、本実施形態に係る制御部7は、入力ディスプレイ5に表示される選択オブジェクトOBを選択するユーザの入力操作を検出する検出領域Aを、選択オブジェクトOBが表示される表示領域P1よりも大きくする領域設定部71を備える構成である。
つまり、本実施形態に係る制御部7は、検出領域Aを表示領域P1よりも拡げることにより、ユーザのタッチ位置が、入力ディスプレイ5における選択オブジェクトOBの表示領域P1上からズレた場合であっても、ユーザの入力操作が行われたことを検知させることを可能とする。
それゆえ、本実施形態に係る制御部7によれば、立体表示装置1に立体的に表示される選択オブジェクトOBに対するユーザの誤操作を防止して、立体表示装置1の操作性を向上させることができる。
〔実施形態2〕
本発明に係る検出領域拡大装置に関する第二の実施形態について、図7および図8に基づいて説明すれば、以下のとおりである。
なお、説明の便宜上、上述した実施形態1にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
〔立体表示装置の構成〕
まず、本実施形態に係る立体表示装置の構成について、図7を参照して説明する。
図7は、本実施形態に係る立体表示装置1aの概略構成を示すブロック図である。図7に示されるように、立体表示装置1aは、撮像部75と、位置検出部76と、演算部(算出手段)77とを備える点で、実施形態1の立体表示装置1と異なっている。
〔撮像部〕
撮像部75は、例えば、CCD(Charge Coupled Device)、或いはCMOS(Complementary Metal Oxide Semiconductor)カメラなどであり、立体表示装置1のディスプレイ51の前方を撮像し、画像データを制御部7に出力する。なお、撮像部75が取り付けられる位置は特に限定されないが、立体表示装置1を操作するユーザの顔が撮像範囲に含まれるように取り付けられる必要がある。本実施形態では、撮像部75は、レンズの光軸が、ディスプレイ51に対する垂線と平行になるように、入力ディスプレイ5に取り付けられている。なお、撮像部75によって撮像された画像データは、制御部7が備える位置検出部76におけるユーザの目の位置を検出する処理に用いられる。
〔位置検出部〕
位置検出部76は、ディスプレイ51に対して垂直方向にあるユーザの目の位置を検出するものである。具体的には、位置検出部76は、撮像部75から出力された画像データを解析し、当該画像データに含まれるユーザの目の位置を検出する。例えば、位置検出部76は、画像データから肌の色に近い領域を抽出し、その領域内に目の特徴を示す特徴量が所定の閾値以上である領域をユーザの目の位置として検出する。
位置検出部76は、検出したディスプレイ51に対するユーザの目の位置を、演算部77に出力する。このとき、位置検出部76は、ディスプレイ51に対するユーザの目の位置から、ユーザの目の位置に対応するディスプレイ51の座標値を算出して、演算部77に出力してもよい。この場合、位置検出部76は、例えば、撮像部75とディスプレイ51との間で座標値を換算するための換算テーブルを用いて、ユーザの目の位置に対応するディスプレイ51の座標値を算出すればよい。
〔演算部〕
演算部77は、ユーザの目の位置と、ユーザにより視覚的に知覚される選択オブジェクトOBの位置とをディスプレイ51に対して垂直に投影したときの距離を、ディスプレイ51の高さ方向として規定される縦方向の距離、およびディスプレイ51の幅方向として規定される横方向の距離として算出するものである。
すなわち、演算部77は、ディスプレイ51の高さ方向を規定するy軸方向(縦方向)、ディスプレイ51の幅方向を規定するx軸方向(横方向)、x軸およびy軸に垂直な方向を規定するz軸方向(垂直方向)としたとき、x軸、y軸およびz軸で規定される空間座標における、ユーザの目の位置と、選択オブジェクトOBの視認位置P2とのy座標の差分を縦方向の距離、x座標の差分を横方向の距離として算出する。
図8は、図7に示される演算部77による縦方向の距離Hを算出する方法の一例を説明するための模式図である。
なお、以下では、縦方向の距離Hを算出する方法について説明するが、横方向の距離W(不図示)を算出する方法は、y軸方向をx軸方向に読み替えればよいので、ここでは説明を省略する。
図8では、Lはディスプレイ51とユーザの目との距離[mm]、Rは撮像部75の光軸と、ディスプレイ51の中心を通る垂線との距離[mm]、αは撮像部75の画角、SHは入力ディスプレイ5の高さ方向を縦方向として規定したときの、ディスプレイ51の縦方向の長さ[mm]をそれぞれ示している。
また、ディスプレイ51とユーザの目との距離Lは、例えば、ディスプレイ51とユーザの右目との距離、およびディスプレイ51とユーザの左目との距離の平均値、或いは、ディスプレイ51と右目または左目のいずれか一方との距離であってもよい。
ここで、ディスプレイ51の縦方向のピクセル数を2Y、視認位置P2のy座標をy、目のy座標をy、撮像部75の縦方向のピクセル数を2Y2、ディスプレイ51の中心座標値を(0,0)としたとき、距離Lにおける撮像部75の画角(図中h1)はL・tan(α/2)、選択オブジェクトOBの空間座標におけるy座標(図中h2)は(y/Y)・(SH/2)となる。
よって、空間座標における目の位置のy座標は、(y/Y)・L・tan(α/2)+Rとなる。
したがって、縦方向の距離Hは、R−(y/Y)・L・tan(α/2)−(y/Y)(SH/2)と算出することができる。
なお、縦方向の距離H、および横方向の距離Wを算出する方法は、上記の方法に限られず、他の公知の方法を用いてもよい。
〔算出方法3〕
次に、立体表示装置1aにおける、検出領域Aの拡大量AH・AWの算出する方法について説明する。
領域設定部71は、検出領域Aの縦方向の拡大量をAH[mm]としたとき、下記の計算式3を用いて、縦方向の拡大量AHを算出する。
AH[mm]=H・(h−d)/(L−d)[mm]・・・(計算式3)
同様に、領域設定部71は、検出領域Aの横方向の拡大量をAWとしたとき、下記の計算式4を用いて、横方向の拡大量AWを算出する。
AW[mm]=W・(h−d)/(L−d)[mm]・・・(計算式4)
上記の計算式3および計算式4において、Lはディスプレイ51とユーザの目との距離[mm]、hはディスプレイ51からの選択オブジェクトの視覚的な飛び出し量[mm]、dはディスプレイ51からユーザの入力操作を検出する位置までの距離[mm]、Hは演算部77により算出された縦方向の距離[mm]、Wは演算部77により算出された縦方向の距離[mm]をそれぞれ示している。
このように、領域設定部71は、実施形態1で説明した計算式1および計算式2のうち、ディスプレイ51の縦方向の長さSHおよび横方向の長さSWに代えて、演算部77によって算出された縦方向の距離Hおよび横方向の距離Wを用いて、検出領域Aの拡大量AH・AWを算出する。このため、領域設定部71は、ユーザの目の位置に応じて、必要な検出領域Aを設定することが可能となる。
それゆえ、本実施形態に係る立体表示装置1aによれば、ユーザの目の位置に応じた検出領域Aを適宜設定することにより、ユーザの誤操作を効果的に防止することができる。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、立体表示装置1の各ブロックは、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
すなわち、立体表示装置1は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリなどの記憶装置(記録媒体)などを備えている。
そして、本発明の目的は、上述した機能を実現するソフトウェアである制御部7の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、立体表示装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープなどのテープ系、フロッピー(登録商標)ディスク/ハードディスクなどの磁気ディスクやCD−ROM/MO/MD/DVD/CD−Rなどの光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カードなどのカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROMなどの半導体メモリ系などを用いることができる。
また、立体表示装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網などが利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線などの有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網などの無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
〔補足〕
なお、本発明に係る表示装置の特徴は、下記のように表現することも可能である。
すなわち、本発明に係る表示装置は、ユーザの、身体もしくはその代替品による指示を検出する指示動作検出機構を備えた立体映像出力装置であり、同装置により立体表示された操作対象に対するユーザの指示動作検出の際に、上記指示動作検出領域を、上記立体表示領域よりも拡大設定する機能を有することを特徴としている。
また、本発明に係る表示装置は、上記指示動作検出機構はタッチパネルであり、上記ユーザの指示動作は前記タッチパネルにおける検出領域への近接動作を含み、想定視聴距離をL、オブジェクト飛び出し量をh、画面と上記タッチパネル検出領域との間隔をd、方形画面の縦方向の長さをSH、画面の横方向の長さをSWとした際に、上記の縦方向の拡大設定距離がSH・(h−d)/(L-d)以下であって、横方向の拡大設定距離がSW・(h−d)/(L−d)以下であることを特徴としている。
また、本発明に係る表示装置は、上記指示動作検出機構はタッチパネルであり、上記ユーザの指示動作は前記タッチパネルにおける検出領域への近接動作を含み、画面に表示された上記操作対象の左右画像間での位置ズレをp〔mm〕、画面サイズをSH〔mm〕とした際に、上記の縦横拡大設定距離がSH・p/(75+p)〔mm〕およびSW・p/(75+p)〔mm〕以下であることを特徴としている。
また、本発明に係る表示装置は、上記拡大領域が、本立体映像出力装置における画面中央へ向かう方向に限定されていることを特徴としている。
また、本発明に係る表示装置は、ユーザ正対位置取得手段を更に有し、上記ユーザー正対位置取得手段により得られたユーザー正対位置と、上記ボタンが配される位置との画面内距離がS2を算出する手段を更に有し、上記SHおよびSWに代えて上記S2を用いることを特徴としている。
また、本発明に係る表示装置は、複数ボタンの表示時に、2次元表示の際よりもボタンの間隔を大きく開けて配置する機能を有することを特徴としている。
本発明は、画像を立体表示可能なテレビ/モニタ、デジタルサイネージ、電子黒板、タブレット端末、スマートフォン、ゲーム機など各種の表示装置に広く適用することができる。
1 立体表示装置(表示装置)
1a 立体表示装置(表示装置)
5 入力ディスプレイ(入力表示部)
7 制御部(検出領域拡大装置)
7a 制御部(検出領域拡大装置)
51 ディスプレイ(表示面)
52 タッチパネル
71 領域設定部(領域拡大手段)
72 選択判定部(判定手段)
73 飛出量調整部(飛出量調整手段)
74 レイアウト変更部(表示位置変更手段)
75 撮像部
76 位置検出部
77 演算部(算出手段)
AH 拡大量
AW 拡大量
H 縦方向の距離
OB 選択オブジェクト(立体オジェクト)
P1 表示領域

Claims (17)

  1. ユーザによる入力操作を検出し、かつ、立体オブジェクトの表示が可能な入力表示部を有する表示装置に用いられ、
    上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも拡げる領域拡大手段を備えることを特徴とする検出領域拡大装置。
  2. 上記領域拡大手段は、上記検出領域を拡大するために付加する長さを示す拡大量、および拡大方向を算出して、当該検出領域を拡げることを特徴とする請求項1に記載の検出領域拡大装置。
  3. 上記入力表示部の表示面とユーザの目との距離をL[mm]、当該表示面からの上記立体オブジェクトの視覚的な飛び出し量をh[mm]、当該表示面から上記入力操作が検出可能となる位置までの距離をd[mm]、上記入力表示部の高さ方向を縦方向として規定したときの、当該表示面の縦方向の長さをSH[mm]、上記入力表示部の幅方向を横方向として規定したときの、当該表示面の横方向の長さをSW[mm]としたとき、
    上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、SH・(h−d)/(L−d)[mm]拡大し、
    上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、SW・(h−d)/(L−d)[mm]拡大することを特徴とする請求項1または2に記載の検出領域拡大装置。
  4. 上記領域拡大手段は、上記検出領域の縦方向の長さを、SH・(h−d)/600[mm]以上、SH・(h−d)/(100−d)[mm]以下の範囲で拡大し、
    上記検出領域の横方向の長さを、SW・(h−d)/600[mm]以上、SW・(h−d)/(100−d)[mm]以下の範囲で拡大することを特徴とする請求項3に記載の検出領域拡大装置。
  5. 上記入力表示部に表示される立体オブジェクトの立体視を可能とする右目用画像と左目用画像像との間における位置ズレ量をp[mm]、上記入力表示部の高さ方向を縦方向として規定したときの、当該入力表示部の表示面の縦方向の長さをSH[mm]、上記入力表示部の幅方向を横方向として規定したときの、当該表示面の横方向の長さをSW[mm]としたとき、
    上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、SH・p/(75+p)[mm]以下の範囲で拡大し、
    上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、SW・p/(75+p)[mm]以下の範囲で拡大することを特徴とする請求項1または2に記載の検出領域拡大装置。
  6. 上記領域拡大手段は、上記入力表示部の表示面の中心方向に向けて、上記検出領域を拡大することを特徴とする請求項1から5のいずれか1項に記載の検出領域拡大装置。
  7. 上記入力表示部に対するユーザの目の位置を検出する位置検出部と、
    上記位置検出部により検出されるユーザの目の位置と、ユーザにより視覚的に知覚される立体オブジェクトの位置とを上記入力表示部の表示面に対して垂直に投影したときの距離を、上記入力表示部の高さ方向として規定される縦方向の距離、および、上記入力表示部の幅方向として規定される横方向の距離として算出する算出手段と、を備え、
    上記表示面とユーザの目との距離をL[mm]、当該表示面からの上記立体オブジェクトの視覚的な飛び出し量をh[mm]、当該表示面から上記入力操作が検出可能となる位置までの距離をd[mm]、上記算出手段により算出された上記縦方向の距離をH[mm]、上記横方向の距離をW[mm]としたとき、
    上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、H・(h−d)/(L−d)[mm]拡大し、
    上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、W・(h−d)/(L−d)[mm]拡大することを特徴とする請求項1または2に記載の検出領域拡大装置。
  8. 上記領域拡大手段は、
    上記検出領域の縦方向の長さを、H・(h−d)/600[mm]以上、H・(h−d)/(100−d)[mm]以下の範囲で拡大し、
    上記検出領域の横方向の長さを、W・(h−d)/600[mm]以上、W・(h−d)/(100−d)[mm]以下の範囲で拡大することを特徴とする請求項7に記載の検出領域拡大装置。
  9. 上記入力表示部に対するユーザの目の位置を検出する位置検出部と、
    上記位置検出部により検出されるユーザの目の位置と、ユーザにより視覚的に知覚される立体オブジェクトの位置とを上記入力表示部の表示面に対して垂直に投影したときの距離を、上記入力表示部の高さ方向として規定される縦方向の距離、および、上記入力表示部の幅方向として規定される横方向の距離として算出する算出手段と、を備え、
    上記入力表示部に表示される立体オブジェクトの立体視を可能とする右目用画像と左目用画像像との間の位置ズレ量をp[mm]、上記算出手段により算出された上記縦方向の距離をH[mm]、上記横方向の距離をW[mm]としたとき、
    上記領域拡大手段は、上記検出領域の縦方向の長さを、当該縦方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、H・p/(75+p)[mm]以下の範囲で拡大し、
    上記検出領域の横方向の長さを、当該横方向の少なくとも一方に向けて、20p/(75+p)[mm]以上、W・p/(75+p)[mm]以下の範囲で拡大することを特徴とする請求項1または2に記載の検出領域拡大装置。
  10. 上記入力表示部に表示される立体オブジェクトの表示位置を変更する表示位置変更手段を備え、
    上記表示位置変更手段は、上記入力表示部に立体オブジェクトが複数表示されているときに、上記領域拡大手段により拡大された上記検出領域が互いに重なり合わないように、上記立体オブジェクトそれぞれの表示位置を変更することを特徴とする請求項1から9のいずれか1項に記載の検出領域拡大装置。
  11. ユーザの入力操作の入力操作の位置が上記検出領域に含まれるときに、上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作が行われたものと判定する判定手段と、
    上記入力表示部からの上記立体オブジェクトの視覚的な飛び出し量を調整する飛出量調整手段と、を備え、
    上記飛出量調整手段は、上記判定手段がユーザの入力操作が行われたものと判定したときに、上記立体オブジェクトの飛び出し量を減少させることを特徴とする請求項1から10のいずれか1項に記載の検出領域拡大装置。
  12. 上記入力表示部は、タッチパネル式であることを特徴とする請求項1から11のいずれか1項に記載の検出領域拡大装置。
  13. 上記入力表示部は、ユーザによる入力操作を距離センサにより検出することを特徴とする請求項1から11のいずれか1項に記載の検出領域拡大装置。
  14. 請求項1から13のいずれか1項に記載の検出領域拡大装置を備えることを特徴とする表示装置。
  15. ユーザによる入力操作を検出し、かつ、立体オブジェクトの表示が可能な入力表示部を有する表示装置に用いられ、
    上記入力表示部に表示される立体オブジェクトを選択するユーザの入力操作を検出する検出領域を、上記立体オブジェクトが表示される表示領域よりも拡げる領域拡大ステップを含むことを特徴とする検出領域拡大方法。
  16. 請求項15に記載の領域拡大ステップをコンピュータに実行させるための検出領域拡大プログラム。
  17. 請求項16に記載の検出領域拡大プログラムを記録したコンピュータ読取可能な記録媒体。
JP2011081169A 2011-03-31 2011-03-31 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体 Expired - Fee Related JP5341126B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011081169A JP5341126B2 (ja) 2011-03-31 2011-03-31 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体
CN201210086057.9A CN102736846B (zh) 2011-03-31 2012-03-28 检测区域扩大装置、显示装置以及检测区域扩大方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011081169A JP5341126B2 (ja) 2011-03-31 2011-03-31 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2012216095A true JP2012216095A (ja) 2012-11-08
JP5341126B2 JP5341126B2 (ja) 2013-11-13

Family

ID=46992434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011081169A Expired - Fee Related JP5341126B2 (ja) 2011-03-31 2011-03-31 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体

Country Status (2)

Country Link
JP (1) JP5341126B2 (ja)
CN (1) CN102736846B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103522A1 (ja) * 2014-12-26 2016-06-30 株式会社ニコン 制御装置、電子機器、制御方法およびプログラム
JP6175550B1 (ja) * 2016-11-04 2017-08-02 株式会社 ディー・エヌ・エー プログラム、情報処理装置、及び、情報処理方法
US10359883B2 (en) 2014-12-26 2019-07-23 Nikon Corporation Detection device, electronic apparatus, detection method and program
US11137857B2 (en) 2014-12-26 2021-10-05 Nikon Corporation Detection device and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104750401B (zh) * 2013-12-30 2018-03-13 华为技术有限公司 一种触控方法、相关装置以及终端设备
JP5920678B1 (ja) * 2014-11-21 2016-05-18 東芝エレベータ株式会社 エレベータの制御装置
CN115802014A (zh) * 2021-09-09 2023-03-14 卡西欧计算机株式会社 记录介质、设置模拟方法和设置模拟装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372013A (ja) * 1991-06-21 1992-12-25 Hitachi Ltd 自動処理装置
JPH06161659A (ja) * 1992-11-19 1994-06-10 Nec Eng Ltd タッチ式入力装置
JPH0895708A (ja) * 1994-09-22 1996-04-12 Aisin Aw Co Ltd 画面タッチ式入力装置
JP2004272354A (ja) * 2003-03-05 2004-09-30 Sanyo Electric Co Ltd 立体表示型操作パネル
JP2006103363A (ja) * 2004-09-30 2006-04-20 Mazda Motor Corp 車両用情報表示装置
JP2010066899A (ja) * 2008-09-09 2010-03-25 Sony Computer Entertainment Inc 入力装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318823A (ja) * 2003-03-28 2004-11-11 Seiko Epson Corp 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
JP5087532B2 (ja) * 2008-12-05 2012-12-05 ソニーモバイルコミュニケーションズ株式会社 端末装置、表示制御方法および表示制御プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04372013A (ja) * 1991-06-21 1992-12-25 Hitachi Ltd 自動処理装置
JPH06161659A (ja) * 1992-11-19 1994-06-10 Nec Eng Ltd タッチ式入力装置
JPH0895708A (ja) * 1994-09-22 1996-04-12 Aisin Aw Co Ltd 画面タッチ式入力装置
JP2004272354A (ja) * 2003-03-05 2004-09-30 Sanyo Electric Co Ltd 立体表示型操作パネル
JP2006103363A (ja) * 2004-09-30 2006-04-20 Mazda Motor Corp 車両用情報表示装置
JP2010066899A (ja) * 2008-09-09 2010-03-25 Sony Computer Entertainment Inc 入力装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103522A1 (ja) * 2014-12-26 2016-06-30 株式会社ニコン 制御装置、電子機器、制御方法およびプログラム
JPWO2016103522A1 (ja) * 2014-12-26 2017-09-14 株式会社ニコン 制御装置、電子機器、制御方法およびプログラム
US10359883B2 (en) 2014-12-26 2019-07-23 Nikon Corporation Detection device, electronic apparatus, detection method and program
US10748509B2 (en) 2014-12-26 2020-08-18 Nikon Corporation Control device, electronic apparatus, control method and program
US10860139B2 (en) 2014-12-26 2020-12-08 Nikon Corporation Detection device, electronic apparatus, detection method and program
US11137857B2 (en) 2014-12-26 2021-10-05 Nikon Corporation Detection device and program
JP6175550B1 (ja) * 2016-11-04 2017-08-02 株式会社 ディー・エヌ・エー プログラム、情報処理装置、及び、情報処理方法
JP2018068984A (ja) * 2016-11-04 2018-05-10 株式会社 ディー・エヌ・エー プログラム、情報処理装置、及び、情報処理方法

Also Published As

Publication number Publication date
JP5341126B2 (ja) 2013-11-13
CN102736846B (zh) 2014-08-13
CN102736846A (zh) 2012-10-17

Similar Documents

Publication Publication Date Title
US11194388B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP6551502B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
JP5341126B2 (ja) 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体
US9454837B2 (en) Image processing apparatus, method, and computer-readable storage medium calculating size and position of one of an entire person and a part of a person in an image
US10009603B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
US8441435B2 (en) Image processing apparatus, image processing method, program, and recording medium
TWI471820B (zh) 行動終端機及其操作控制方法
KR101815020B1 (ko) 인터페이스 제어 장치 및 방법
US20150370337A1 (en) Apparatus and method for controlling interface
US10642348B2 (en) Display device and image display method
KR102461232B1 (ko) 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체
JP7005161B2 (ja) 電子機器及びその制御方法
US20130009891A1 (en) Image processing apparatus and control method thereof
US10506211B2 (en) Recording medium, image generation apparatus, and image generation method
CN114647317A (zh) 由外围设备启用的远程触摸检测
US20150033157A1 (en) 3d displaying apparatus and the method thereof
JP2019174984A (ja) 表示制御装置、その制御方法、プログラム及び記憶媒体
EP3088991B1 (en) Wearable device and method for enabling user interaction
CN109426425B (zh) 信息处理装置、图像形成装置以及存储介质
JP7005160B2 (ja) 電子機器及びその制御方法
JP2012105172A (ja) 画像生成装置、画像生成方法、コンピュータプログラムおよび記録媒体
KR20190129982A (ko) 전자기기 및 그 제어 방법
WO2012105703A1 (ja) 表示装置、表示画像生成方法、プログラム、及び記録媒体
KR101153120B1 (ko) 입체영상의 깊이감 조정 방법 및 이를 위한 사용자 기기
JP2022051376A (ja) 情報処理装置、閲覧装置、及び情報処理プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130807

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees