JP2011164676A - Display device and program - Google Patents
Display device and program Download PDFInfo
- Publication number
- JP2011164676A JP2011164676A JP2010023145A JP2010023145A JP2011164676A JP 2011164676 A JP2011164676 A JP 2011164676A JP 2010023145 A JP2010023145 A JP 2010023145A JP 2010023145 A JP2010023145 A JP 2010023145A JP 2011164676 A JP2011164676 A JP 2011164676A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- user
- unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims description 88
- 238000000034 method Methods 0.000 claims description 60
- 238000010586 diagram Methods 0.000 description 20
- 210000003811 finger Anatomy 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 210000003813 thumb Anatomy 0.000 description 8
- 238000011161 development Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、表示装置の持ち方に応じた表示制御に関する。 The present invention relates to display control according to how to hold a display device.
タッチスクリーン(タッチパネルともいう。)を有する電子機器を片手で持った場合のデータ入力について、特許文献1には、入力ボタン群を表示すべきタッチパネル上の領域を入力者に指などであらかじめ指定させる技術が記載されている。 With respect to data input when an electronic device having a touch screen (also referred to as a touch panel) is held with one hand, Patent Document 1 allows an input person to specify in advance an area on the touch panel where an input button group should be displayed with a finger or the like. The technology is described.
しかし、画像の表示に際し、タッチパネルに対する事前の指定を要するのでは、使い勝手が悪い。
そこで、本発明の目的は、ユーザが表示装置を持つと、その持ち方に応じた画像が表示されるようにすることにある。
However, it is inconvenient to display an image when prior designation on the touch panel is required.
Therefore, an object of the present invention is to display an image according to how a user holds a display device.
本発明の一態様に係る表示装置は、筐体と、前記筐体の一部の面である表示面に画像を表示する表示部と、前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザによる前記筐体の持ち方を検知する第1検知部と、前記表示面のうちの前記ユーザにより指示された位置を検知する第2検知部と、前記第1検知部及び前記第2検知部による検知結果に応じた制御を行う制御部とを備え、前記制御部が、前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御し、前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行する構成を有する。 A display device according to one embodiment of the present invention is not provided with a housing, a display portion that displays an image on a display surface that is a partial surface of the housing, and the display surface of the housing is not provided. A first detection unit that is provided in a portion and detects how the user holds the housing; a second detection unit that detects a position indicated by the user on the display surface; and the first detection unit; A control unit that performs control according to a detection result by the second detection unit, and the control unit is displayed on the display surface of the display unit according to a holding method detected by the first detection unit. And a control unit configured to control a display mode of the first image that receives the instruction from the user, and to execute processing according to the position detected by the second detection unit of the first image displayed on the display unit. Have.
本発明の好ましい態様において、前記第1検知部は、前記ユーザが前記筐体を右手で持つ第1の持ち方と、前記ユーザが前記筐体を左手で持つ第2の持ち方とを検知し、前記制御部は、前記第1の画像の表示態様を、前記第1の持ち方と前記第2の持ち方とで異ならせてもよい。
この態様において、前記制御部は、前記第1の画像を、決められた方向に展開するように表示される画像として表示し、前記第1の画像が展開される方向を、前記第1の持ち方と前記第2の持ち方とで異ならせてもよい。
さらに、前記制御部は、前記第1の画像を、複数の項目に相当する領域を有する画像として表示し、前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像の表示態様を、前記第1検知部により検知された持ち方に応じて制御してもよい。
本発明の別の好ましい態様において、前記第1検知部は、前記ユーザによる接触を検知する検知領域を前記表示面の所定方向に沿うように複数有し、前記制御部は、前記第1の画像の前記所定方向についての表示位置を前記第1検知部により接触が検知された検知領域に応じて制御してもよい。
In a preferred aspect of the present invention, the first detection unit detects a first way in which the user holds the housing with a right hand and a second way in which the user holds the housing with a left hand. The control unit may change the display mode of the first image between the first holding method and the second holding method.
In this aspect, the control unit displays the first image as an image displayed so as to be developed in a predetermined direction, and the direction in which the first image is developed has the first holding. And the second holding method may be different.
Further, the control unit displays the first image as an image having a region corresponding to a plurality of items, and a second displayed according to the item corresponding to the position detected by the second detection unit. You may control the display mode of an image according to the holding method detected by the said 1st detection part.
In another preferable aspect of the present invention, the first detection unit has a plurality of detection regions that detect contact by the user along a predetermined direction of the display surface, and the control unit includes the first image. The display position in the predetermined direction may be controlled in accordance with a detection area where contact is detected by the first detection unit.
本発明の別の態様に係るプログラムは、筐体と、前記筐体の一部の面である表示面に画像を表示する表示部と、前記筐体のうちの前記表示面が設けられていない部分に設けられ、前記ユーザによる前記筐体の持ち方を検知する第1検知部と、前記表示面のうちのユーザにより指示された位置を検知する第2検知部とを備える表示装置のコンピュータに、前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御するステップと、前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行するステップとを実行させる構成を有する。 A program according to another aspect of the present invention includes a housing, a display unit that displays an image on a display surface that is a part of the housing, and the display surface of the housing is not provided. A computer of a display device provided with a first detection unit that is provided in a portion and that detects how the user holds the housing and a second detection unit that detects a position designated by the user on the display surface. Controlling a display mode of a first image that is displayed on the display surface of the display unit and accepts the instruction by the user according to the holding method detected by the first detection unit; and the display unit And a step of executing a process corresponding to the position detected by the second detection unit of the first image displayed on the screen.
本発明によれば、ユーザが表示装置を持つと、その持ち方に応じた画像が表示されるようにすることが可能である。 According to the present invention, when a user has a display device, it is possible to display an image according to how the user holds the display device.
[第1実施形態]
図1は、本発明の実施の一形態である表示装置の外観を示す図である。図1において、表示装置10は、筐体11を有する電子機器である。表示装置10は、ここでは、いわゆるスマートフォン(又は携帯電話機)であるとする。また、筐体11は、図1に直方体状で記載されるが、他の形状であることを妨げない。筐体11は、その一部の面に表示面11Dを有し、表示面11Dが設けられていない部分にセンサ面11S1及び11S2を有する。なお、センサ面11S2は、図1においては隠れた位置にあって図示されていないが、センサ面11S1と対称に設けられている。
[First Embodiment]
FIG. 1 is a diagram illustrating an appearance of a display device according to an embodiment of the present invention. In FIG. 1, the
表示面11Dは、画像が表示される面であり、タッチスクリーンを構成している。表示面11Dは、例えば、液晶表示素子や、有機EL(electro luminescence)表示素子で構成される複数の画素によって画像を表示する。なお、表示面11Dは、ここでは長方形の領域であるとする。センサ面11S1及び11S2は、ユーザの手指の接触を検知する面である。センサ面11S1及び11S2は、ユーザによる接触を検知するセンサを有する。ここでいうセンサは、例えば、圧力を検知するセンサや、接触している位置とそうでない位置とを電圧によって区別する抵抗膜などである。なお、センサ面11S1及び11S2を構成するセンサの検知対象は、指等の物体の接触に応じて変化する物理量であれば、上述した圧力や電圧に限定されない。センサ面11S1及び11S2は、それぞれ、表示面11Dの長辺に沿って複数の領域に分割され、各々の領域において接触を個別に検知する。この領域は、本発明に係る検知領域に相当する。
The
なお、本実施形態においては、筐体11が有する6面のうち、表示面11Dが設けられている面をユーザに対する正面、センサ面11S1及び11S2が設けられている面を側面、正面の反対側の面を背面とする。また、センサ面11S1がユーザからみて左側にあり、センサ面11S2がユーザからみて右側にあるものとする。センサ面11S1及び11S2は、側面の全体を占める必要はなく、その一部に設けられていてもよい。
In the present embodiment, among the six faces of the
図2は、表示装置10のハードウェア構成を示すブロック図である。同図に示すように、表示装置10は、制御部110と、記憶部120と、表示部130と、第1検知部140と、第2検知部150とを備える。なお、表示装置10は、スマートフォンとしての機能を実現するために、図2に記載の構成に加え、通信網に接続するための無線通信部などを備えるが、ここでは図示を省略する。
FIG. 2 is a block diagram illustrating a hardware configuration of the
制御部110は、CPU(Central Processing Unit)等の演算処理装置やメモリを備え、プログラムを実行することによって表示装置10の動作を制御する。記憶部120は、フラッシュメモリ、ハードディスク等の記憶手段を備え、表示装置10が用いるデータを記憶する。記憶部120に記憶されているデータには、制御部110が実行するプログラムに加え、後述する表示装置10の持ち方のパターンなどが含まれ得る。表示部130は、表示面11Dを構成する表示素子と、表示面11Dに画像を表示させるための駆動回路とを備え、表示面11Dに表示させる画像の切り替えを、制御部110からの命令に応じて行う。
The
第1検知部140は、センサ面11S1及び11S2を構成するセンサ(以下「第1のセンサ」という。)を備え、ユーザの持ち方(保持する方法・作法)を検知する。第2検知部150は、表示面11Dに重ねて設けられたセンサを備え、表示面11Dへの指等の物体の接触を検知する。なお、第2検知部150のセンサ(以下「第2のセンサ」という。)は、例えば静電容量方式(指先の距離に応じて変化する静電容量を検知する方式)を採用した場合のように、接触ではなく接近を検知するものであってもよい。第1検知部140及び第2検知部150は、その検知結果を表す情報(以下「検知情報」という。)を制御部110に供給する。制御部110は、この検知情報に応じて制御を行う。検知情報は、接触の有無を表す二値の情報でもよいし、接触(又は接近)の程度を表す多値(二値より多い値)の情報でもよいが、ここでは前者とする。
The
図3は、制御部110が実現する機能を示す機能ブロック図である。制御部110は、プログラムを実行することにより、同図に示す第1判定部111、第2判定部112、表示制御部113及び処理実行部114に相当する機能を実現する。なお、これらの機能は、OS(operating system)の機能の一部として提供されてもよく、また、ユーザインタフェース(以下「UI」という。)に関連する独立したアプリケーションとして提供されてもよいものである。また、これらの機能は、そのすべてが単一のハードウェア(例えばCPU)によって構成されている必要はなく、一部が専用の回路によって別個に構成されていてもよい。
FIG. 3 is a functional block diagram illustrating functions realized by the
第1判定部111は、第1検知部140から供給される検知情報(以下「第1の検知情報」という。)を取得し、第1の検知情報に基づいて筐体11の持ち方を判定する。この判定には、後述する持ち手(利き手)の判定などが含まれ、あらかじめいくつかの持ち方がパターンとして分類されている。第2判定部112は、第2検知部150から供給される検知情報(以下「第2の検知情報」という。)を取得し、表示面11Dのうちのユーザにより指示された位置を判定する。この判定には、タッチスクリーン上の位置検知に関する周知の技術が用いることが可能である。
The
表示制御部113は、第1判定部111による判定結果(すなわちユーザの持ち方)に応じて表示部130による画像の表示を制御するとともに、第2判定部112による判定結果(すなわちユーザの指示位置)に応じて表示部130による画像の表示を制御する。処理実行部114は、表示部130の表示制御以外の処理を実行する。処理実行部114は、例えば、スマートフォンが有する機能(音声通話、データ通信、ゲームなど)を実現するために必要な処理を実行する。かかる処理は、該当する機能そのものを実行する処理であってもよいが、該当する機能が別個のアプリケーションとして用意されている場合には、当該アプリケーションを起動する処理である。
The
表示装置10の構成は、以上のとおりである。表示装置10は、かかる構成のもと、プログラムによりあらかじめ予定された設定やユーザの操作に応じて、スマートフォンとしての所定の機能を実現するための処理を実行する。なお、本実施形態において、「操作」とは、表示面11Dへの指示と同意である。また、表示装置10は、表示部130においてユーザによる指示を受け付ける前に、ユーザが表示装置10をどのように持っているかを検知及び判定し、ユーザの持ち方に基づいて、その後の指示が容易となるような画像の表示を推測し、表示部130にかかる表示を行わせる。
The configuration of the
図4は、表示装置10の持ち方を例示する図であり、ユーザによる左手LHでの持ち方と右手RHでの持ち方とを例示する図である。ユーザは、表示面11Dを母指で指示するため、表示装置10の背面を掌で覆うようにし、母指以外の示指、中指、薬指及び小指と母指の付け根周辺の部分とで表示装置10を支える。以下においては、表示装置10をこのように持ったときに、ユーザの手首に近い側を「下方」といい、ユーザの手首から遠い側を「上方」という。
なお、図4の例は、表示装置10の持ち方の一例にすぎない。ユーザは、自身の手の大きさや癖などに応じて、例えば、小指を立てたり、示指で側面ではなく背面を支えたりしてもよい。表示装置10は、持ち手の左右に限らず、このようないくつかの持ち方をパターン化して記憶しておくとよい。
FIG. 4 is a diagram illustrating how the
The example of FIG. 4 is merely an example of how to hold the
図5は、制御部110が実行する処理を示すフローチャートである。制御部110は、まず、第1検知部140により供給される第1の検知情報に基づき、ユーザが表示装置10を持っているか否かを判断する(ステップS1)。この判断は、例えば、接触を検知している検知領域の数に基づいて行われる。制御部110は、ユーザが表示装置10を持っていると判断すると、持ち方の判定を所定の時間待機する(ステップS2)。ここで制御部110が待機する時間のことを、以下においては「待機時間」という。
FIG. 5 is a flowchart illustrating processing executed by the
待機時間を設ける理由は、次のとおりである。すなわち、ユーザは、鞄などに収納された表示装置10を取り出したり、あるいは机などの平らな面に置かれた表示装置10を持ち上げたりする場合には、最初に持ったままの持ち方で操作を行うとは限らないからである。ユーザは、多くの場合、表示装置10をいったん持ってから、自身が操作しやすい位置にこれを持ち替える。待機時間は、この持ち替えを考慮して設けられるものである。
The reason for setting the waiting time is as follows. That is, when the user takes out the
なお、待機時間は、あらかじめ設定された値(例えば、0〜1秒程度)であってもよいが、第1検知部140の検知結果に応じて決められていてもよい。例えば、制御部110は、第1の検知情報の出力結果が安定した状態(すなわち、接触を検知する検知領域の変動が所定の閾値未満となり、表示装置10を保持する手指がほとんど動かなくなったとみなせる状態)になったときに待機時間が終わるようにしてもよい。
The standby time may be a preset value (for example, about 0 to 1 second), but may be determined according to the detection result of the
待機時間が終了すると、制御部110は、ユーザによる表示装置10の持ち方を判定する処理(以下「判定処理」という。)を実行する(ステップS3)。この判定処理には、いくつかの態様が考えられる。制御部110は、複数ある判定処理のいずれかを選択的に、又は組み合わせて実行する。ここで例示する判定処理は、ユーザの持ち手を判定する第1の判定処理と、ユーザが持っている位置の上下を判定する第2の判定処理である。
When the standby time ends, the
図6は、第1の判定処理を示すフローチャートである。第1の判定処理において、制御部110は、センサ面11S1及び11S2のそれぞれについて、第1の検知情報に基づいて不連続点を抽出する(ステップS311)。続いて、制御部110は、センサ面11S1及び11S2のそれぞれについて抽出された不連続点の数又は大きさを比較する(ステップS312)。ここにおいて、「不連続点」とは、接触を検知した検知領域に挟まれた状態で存在する接触を検知していない検知領域をいい、単独又は群で存在する検知領域である。
図7は、不連続点を例示する図である。ここにおいて、センサ面11S2は、指の接触を検知した検知領域が黒色で示され、指の接触を検知していない検知領域が白色で示されている。
FIG. 6 is a flowchart showing the first determination process. In the first determination process, the
FIG. 7 is a diagram illustrating discontinuous points. Here, on the sensor surface 11S 2 , a detection area where a finger contact is detected is shown in black, and a detection area where no finger contact is detected is shown in white.
ユーザがセンサ面11S1又は11S2に指で触れる場合、指と指の間には、不連続点が生じる。例えば、ユーザがセンサ面11S1又は11S2を4本の指で支えれば、不連続点は3箇所に生じる。一方、ユーザがセンサ面11S1又は11S2に母指の付け根周辺の部分(図4参照)で触れる場合には、指で触れる場合に比べ、不連続点が生じにくい。制御部110は、この不連続点の生じやすさ、すなわち不連続点の数又は大きさ(若しくはこれらの組み合わせ)に基づいて、持ち手の左右を判定することが可能である。例えば、制御部110は、センサ面11S1に生じた不連続点がセンサ面11S2に生じた不連続点よりも多ければ、ユーザが右手で表示装置10を持っていると判定する。
When the user touches the sensor surface 11S 1 or 11S 2 with a finger, a discontinuity occurs between the fingers. For example, if the user supports the sensor surface 11S 1 or 11S 2 with four fingers, discontinuities occur at three locations. On the other hand, when the user touches the sensor surface 11S 1 or 11S 2 with the portion around the base of the thumb (see FIG. 4), discontinuous points are less likely to occur than when the user touches with the finger. The
制御部110は、以上のようにして不連続点をセンサ面11S1及び11S2について比較し、その比較結果に応じた情報(以下「判定情報」という。)を生成する(ステップS313)。第1の判定処理における判定情報は、ユーザの持ち手が右手であるか左手であるかを表す情報であり、例えば「11」と「10」や「L」と「R」のようにして区別されるものである。
As described above, the
図8は、第2の判定処理を示すフローチャートである。第2の判定処理において、制御部110は、センサ面11S1及び11S2のそれぞれについて、接触を検知した検知領域の数と位置を第2の検知情報に基づいて特定する(ステップS321)。制御部110は、かかる検知領域のセンサ面11S1及び11S2の上下方向についての分布を特定し、これをあらかじめ決められた基準の分布と比較する(ステップS322)。制御部110は、ステップS321において特定した分布が基準の分布よりも上寄りであれば、ユーザが表示装置10の上方を保持していると判定し、ステップS321において特定した分布が基準の分布よりも下寄りであれば、ユーザが表示装置10の下方を保持していると判定する。制御部110は、ステップS322の比較結果に応じた判定情報を生成する(ステップS323)。第2の判定処理における判定情報は、ユーザの持つ位置が上方であるか下方であるかを表す情報であり、例えば「21」と「20」のようにして区別されるものである。
なお、以上の説明においては、ユーザによる持ち方が上下方向について2段階で判定されたが、例えば「上方」、「中間」、「下方」といったように、3以上の段階で判定されてもよい。
FIG. 8 is a flowchart showing the second determination process. In the second determination process, the
In the above description, how to hold by the user is determined in two stages in the vertical direction, but may be determined in three or more stages such as “upward”, “middle”, and “downward”. .
このような判定処理を終えると、制御部110は、判定結果に応じた画像を表示部130に表示させる(ステップS4)。ここで表示される画像は、ユーザによる指示を受け付けるための画像であり、例えば、ボタンの形状を有していたり、あるいはアイコンや絵文字などである。ステップS4において表示される画像のことを、以下においては「第1の画像」という。制御部110は、判定処理の結果に応じて第1の画像の表示態様を制御する。ここにおいて、表示態様には、画像の表示位置や、後述する展開の態様などが含まれ、さらには、画像の色や形状も含まれ得る。なお、第1の画像は、指示を受け付ける画像であれば足り、必ずしも展開を要するものではない。
When such determination processing is completed, the
制御部110は、第1の画像が表示部130に表示されると、第1の検知情報に基づいて、表示面11Dに対するユーザの指示があるか否かを判断する(ステップS5)。制御部110は、かかる指示があれば、ユーザに指示され、第2検知部150により検知された位置に応じた処理を実行する(ステップS6)。なお、ステップS6において実行される処理には、処理実行部114が実行する処理と、表示制御部113による画像の表示制御とが含まれる。ステップS6において表示される画像のうち、第1の画像を操作することにより表示される画像のことを、以下においては「第2の画像」という。第2の画像は、第1の画像において指示された位置に従って表示内容が決まるものである。第2の画像は、本実施形態においてはユーザの指示を受け付けるための画像であるとするが、かかる画像に限定されるものではない。
When the first image is displayed on
図9は、第1の画像の第1の表示例を示す図である。図9(a)は、持ち手が左手であると検知された場合の表示例であり、図9(b)は、持ち手が右手であると検知された場合の表示例である。同図において、第1の画像I11及びI12は、それぞれ、「A」、「B」、「C」、「D」、「E」で表される5つの項目に相当する領域を有する。ここにおいて、項目は、特定の機能に割り当てられており、例えば、「A」が“電話”、「B」が“電子メール”、「C」が“Webブラウザ”、「D」が“ゲーム”、などといった具合である。 FIG. 9 is a diagram illustrating a first display example of the first image. FIG. 9A is a display example when the handle is detected as the left hand, and FIG. 9B is a display example when the handle is detected as the right hand. In the figure, the first images I11 and I12 have areas corresponding to five items represented by “A”, “B”, “C”, “D”, and “E”, respectively. Here, the items are assigned to specific functions. For example, “A” is “telephone”, “B” is “e-mail”, “C” is “web browser”, and “D” is “game”. And so on.
また、第1の画像I11及びI12は、左右方向に展開するように表示される画像である。ここにおいて、「展開」とは、所定の決められた方向に広がりを有することをいい、ここでは、広がりが項目の数に応じている。ここでいう展開は、アニメーション表示によって、例えば、項目A、B、C、D、Eの順番で徐々に表示されるような視覚効果を有するものであってもよい。この第1の表示例において、第1の画像I11と第1の画像I12とでは、その展開の方向が異なっている。具体的には、第1の画像I11は、左から右へと項目が展開され、第1の画像I12は、これとは逆に、右から左へと項目が展開される。このようにすると、両者の画像が鏡像の関係になり、ユーザが指示に用いる指を基準とした場合の各項目の相対的な位置が右手持ちの場合と左手持ちの場合とで同じようになるため、ユーザの持ち手が異なっても操作感が同じようになる。
なお、第1の画像I11及びI12は、展開の方向だけでなく、位置が異なってもよい。例えば、表示装置10は、第1の画像I11を左寄りに表示し、第1の画像I12を右寄りに表示してもよい。
The first images I11 and I12 are images that are displayed so as to expand in the left-right direction. Here, “development” means having a spread in a predetermined determined direction, and the spread here corresponds to the number of items. The development here may have a visual effect that is gradually displayed in the order of items A, B, C, D, E, for example, by animation display. In the first display example, the first image I11 and the first image I12 have different development directions. Specifically, in the first image I11, items are developed from left to right, and in the first image I12, items are developed from right to left. If it does in this way, both images will be in a mirror image relationship, and the relative position of each item when the user uses the finger used for the instruction as a reference will be the same when holding the right hand and when holding the left hand. Therefore, the operation feeling is the same even if the user's handle is different.
The first images I11 and I12 may have different positions as well as the development direction. For example, the
図10は、第1の画像の第2の表示例を示す図である。図10(a)は、ユーザが表示装置10を上方寄りに持っていると検知された場合の表示例であり、図10(b)は、ユーザが表示装置10を下方寄りに持っていると検知された場合の表示例である。第1の画像I13及びI14は、その展開方向が上下方向である点において第1の表示例と相違する。また、第1の画像I13は、第1の画像I14よりも上寄りに表示され、第1の画像I14は、第1の画像I13よりも下寄りに表示される。
FIG. 10 is a diagram illustrating a second display example of the first image. FIG. 10A is a display example when it is detected that the user is holding the
図11は、第2の画像の表示例を示す図であり、第1の表示例において項目Bが選択(すなわち指示)された場合を例示する図である。図11(a)において、第2の画像I21は、「B1」、「B2」、「B3」、「B4」で表される4つの項目に相当する領域を有する。これらの項目は、項目Bが“電子メール”あれば、例えば、「B1」が“(電子メールの)新規作成”、「B2」が“(電子メールの)受信”、「B3」が“(電子メールの)送信”、などといった具合である。この表示例において、第2の画像I21は、第1の画像I11と異なる方向に展開されている。 FIG. 11 is a diagram illustrating a display example of the second image, and illustrates a case where item B is selected (that is, instructed) in the first display example. In FIG. 11A, the second image I21 has areas corresponding to four items represented by “B1”, “B2”, “B3”, and “B4”. For example, if item B is “e-mail”, for example, “B1” is “newly created (e-mail)”, “B2” is “received (e-mail)”, and “B3” is “( For example, “send email”. In this display example, the second image I21 is developed in a direction different from that of the first image I11.
図11(b)及び図11(c)は、第2の画像の展開の態様をユーザの持ち手に応じて異ならせた表示例である。図11(b)に示す第2の画像I22は、各々の項目が項目Bから遠くなるに従って左寄りになるように展開されるものであり、図11(c)に示す第2の画像I23は、各々の項目が項目Bから遠くなるに従って右寄りになるように展開されるものである。第2の画像I22は、第2の画像I21と比較すると、左手で持った場合に、ユーザが母指を伸ばさなくても(あるいは母指が比較的短いユーザであっても)、項目Bからより遠い項目(例えば項目B4)を指示しやすいように各項目が表示されている。したがって、第2の画像I22は、第2の画像I21と比較した場合に、ユーザが項目B4をより指示しやすいようになっている。 FIG. 11B and FIG. 11C are display examples in which the manner in which the second image is developed differs depending on the user's handle. The second image I22 shown in FIG. 11 (b) is developed so that each item is shifted to the left as it gets farther from the item B. The second image I23 shown in FIG. Each item is developed so as to become to the right as it is farther from item B. Compared with the second image I21, the second image I22 is obtained from the item B even if the user does not extend the thumb (or the user with a relatively short thumb) when held with the left hand. Each item is displayed so that it is easy to specify a farther item (for example, item B4). Therefore, when compared with the second image I21, the second image I22 makes it easier for the user to specify the item B4.
なお、制御部110は、ユーザの上下方向の保持位置に応じて第2の画像の表示態様を異ならせてもよい。
図12は、第2の画像の上下方向の位置を異ならせた表示例を示す図である。図12(a)において、第1の画像I15は、第1の画像I11よりも上方に表示されている画像であり、ユーザが図11(a)の表示例の場合よりも表示装置10の上寄りを保持している場合に表示される画像である。このとき、第2の画像I24は、上方向ではなく下方向に展開される。なお、制御部110は、図12(b)に示す第2の画像I251及びI252のように、一部の項目を上方向に展開させ、残りの項目を下方向に展開させてもよい。
Note that the
FIG. 12 is a diagram illustrating a display example in which the vertical position of the second image is changed. In FIG. 12A, the first image I15 is an image that is displayed above the first image I11, and the user is above the
以上のとおり、表示装置10は、ユーザによる持ち方を検知し、検知した持ち方に応じた表示態様で第1の画像や第2の画像を表示することを可能にする。すなわち、表示装置10によれば、第1の画像や第2の画像の表示態様(すなわちUI)をワンパターンにさせずに、ユーザの手の大きさ、利き手、癖などに応じたものにすることが可能であり、各々のユーザにおける使い勝手を向上させることを期待できる。表示装置10は、特に、ユーザがこれを片手で持つ場合に効果が期待できる。
As described above, the
なお、本実施形態で説明された表示制御は、表示装置10において常に実行されることが求められるものではなく、必要に応じて実行されればよい。例えば、表示装置10は、ユーザによる持ち方をパターン化して記憶し、ある程度のパターンが蓄積された後には、蓄積されたパターンに応じた表示を行うことも可能である。具体的には、例えば、あるユーザが表示装置10をほぼ毎回右手で持つ場合には、右手用の第1の画像及び第2の画像を表示する、といった態様が考えられる。また、表示装置10は、持ち方の検知の有無をユーザが設定できる機能を設け、持ち方に応じた表示制御をユーザが必要とする場合に限って行うようにしてもよい。
Note that the display control described in the present embodiment is not always required to be executed in the
[第2実施形態]
図13は、本発明の実施の一形態であって、上述した第1実施形態と異なる形態である表示装置の外観を正面から示す図である。本実施形態の表示装置20は、上述した表示装置10と同様の表示面21Dを有する筐体21と、複数のキー22Kを有する筐体22とを備えるものである。すなわち、表示装置20は、ユーザの操作を受け付ける手段として、タッチスクリーンに加えてキー22Kを備える点が表示装置10と相違するものである。よって、本実施形態においては、「操作」には表示面21Dへの指示とキー22Kの選択による指示とが含まれ、この点が第1実施形態と相違する。なお、キー22Kは、操作子の一例であり、レバーやスイッチなどに代替可能である。また、筐体21と筐体22とは、その連結部分においてヒンジ等によって折り畳み可能に構成されていてもよいし、着脱が可能であってもよい。また、筐体21と筐体22とは、一体に構成されていてもよいし、一方が他方に重なるようにスライドする構成であってもよい。
[Second Embodiment]
FIG. 13 is a diagram showing an external appearance of a display device, which is an embodiment of the present invention and is different from the above-described first embodiment, from the front. The
また、表示装置20は、筐体21にセンサ面21Sを有し、筐体22にセンサ面22Sを有する。センサ面21Sは、筐体21の背面にあってもよいし、側面にあってもよい。これは、センサ面22Sについても同様である。なお、本実施形態においては、ユーザが筐体21を左手側に持ち、筐体22を右手側に持つことを想定する。また、センサ面21S及び22Sの具体的な構造は、第1実施形態のセンサ面11S1及び11S2と同様である。したがって、センサ面21S及び22Sも、複数の検知領域を有する。
In addition, the
図14は、表示装置20のハードウェア構成を示すブロック図である。表示装置20は、制御部210と、記憶部220と、表示部230と、第1検知部240と、第2検知部250と、操作部260とを備える。なお、表示装置20が有する各部は、第1実施形態の表示装置10と名称が同一のものについては、第1実施形態の該当する部分と共通する機能を有する。よって、かかる共通の部分については、その説明が適宜省略される。表示装置20は、操作部260を有する点が表示装置10と異なる。操作部260は、複数のキー22Kを有し、ユーザの操作(すなわち指示)を受け付ける。操作部260は、ユーザの操作に応じた情報(以下「キー情報」という。)を制御部210に供給する。
FIG. 14 is a block diagram illustrating a hardware configuration of the
図15は、制御部210が実現する機能を示す機能ブロック図である。制御部210は、プログラムを実行することにより、同図に示す第1判定部211、第2判定部212、受付部213、切替部214及び処理実行部215に相当する機能を実現する。第1判定部211は、第1検知部240から供給される第1の検知情報を取得し、ユーザの筐体21及び22の持ち方を判定する。第2判定部212は、第2検知部250から供給される第2の検知情報を取得し、表示面21Dのうちのユーザにより指示された位置を判定する。第1判定部211及び第2判定部212は、判定結果を切替部214に供給する。受付部213は、操作部260からキー情報を取得し、キー情報を切替部214に供給する。
FIG. 15 is a functional block diagram illustrating functions realized by the
切替部214は、第1判定部211、第2判定部212及び受付部213から供給される情報を用いて、表示面21Dとキー22Kのいずれからの操作を受け付けるかを切り替える。すなわち、切替部214は、表示面21D及びキー22Kの有効・無効を切り替える。そして、切替部214は、有効な操作のみが処理実行部215に反映されるように情報の伝達を制御する。処理実行部215は、切替部214から供給される情報に応じた処理を実行する。処理実行部215が実行する処理には、上述した処理実行部114が実行する処理と同様の処理に加え、表示部230の表示制御が含まれる。
Using the information supplied from the
表示装置20の構成は、以上のとおりである。表示装置20は、かかる構成のもと、表示面21Dとキー22Kの双方で受け付けることが可能な操作を受け付けるUIを、ユーザが表示装置20のどの位置を持っているか(特に、筐体21と筐体22のいずれを主として持っているか)に応じて切り替える。表示装置20は、具体的には、ユーザが筐体21を片手で持っている場合には、表示面21Dによる操作を有効にし、ユーザが筐体22を片手で持っている場合には、表示面22Kによる操作を有効にする。
The configuration of the
図16は、制御部210が実行する処理を示すフローチャートである。制御部210は、まず、第1検知部240により供給される第1の検知情報に基づき、ユーザが表示装置20を持っているか否かを判断する(ステップSa1)。また、制御部210は、ユーザが表示装置20を持っていると判断すると、持ち方の判定を所定の時間待機する(ステップSa2)。ここまでの処理は、第1実施形態(図5参照)と同様のものである。
FIG. 16 is a flowchart illustrating processing executed by the
制御部210は、待機時間が終了すると、ユーザによる表示装置20の持ち方を判定する(ステップSa3)。本実施形態において、制御部210は、例えば、センサ面21Sとセンサ面22Sのいずれの検出領域がより多くの接触を検出しているかによって、ユーザが筐体21と筐体22のいずれを主として持っているのかを判定する。また、制御部210は、この判定結果に基づいて、表示面21Dとキー22Kの一方による入力を有効にし、他方を無効にするようにUIの切り替えを行う(ステップSa4)。
なお、制御部210は、ユーザによる指示を受け付けるための画像を表示面21Dにあらかじめ表示させてもよいが、ステップSa3の判定により筐体21を持っていると判定された後にかかる画像を表示させてもよい。
When the standby time ends, the
The
制御部210は、ステップSa4の切り替えの後、第2の検知情報及びキー情報に基づいて、表示面21D又はキー22Kに対するユーザの指示があるか否かを判断する(ステップSa5)。制御部210は、ユーザから指示があると、当該指示を受け付けたUIが有効か否かを判断する(ステップSa6)。そして、制御部210は、指示を受け付けたUIが有効である場合には、当該指示に応じた処理を実行する(ステップSa7)。一方、制御部210は、指示を受け付けたUIが無効である場合には、当該指示を無視して、ステップSa5に戻って新たな別の指示を待機する。
After switching at Step Sa4, the
図17は、本実施形態の切り替えの利用例を示す図であり、これから実行しようとする処理についてユーザの認否(YES又はNO)を確認する場合を例示したものである。この利用例において、画像IYは、ユーザが処理の実行を認める場合に行う指示を受け付けるための画像である。一方、画像INは、ユーザが処理の実行を認めない場合に行う指示を受け付けるための画像である。また、キーKYは、画像IYと同様の指示を受け付けるためのキーである。一方、キーKNは、画像INと同様の指示を受け付けるためのキーである。 FIG. 17 is a diagram illustrating an example of use of switching according to the present embodiment, and illustrates a case where the user's approval / disapproval (YES or NO) is confirmed for a process to be executed. In this usage example, the image IY is an image for accepting an instruction given when the user permits the execution of the process. On the other hand, the image IN is an image for accepting an instruction given when the user does not permit the execution of the process. The key KY is a key for accepting the same instruction as the image IY. On the other hand, the key KN is a key for receiving an instruction similar to that for the image IN.
図17の例において、表示装置20は、ユーザが筐体21を左手で持っていると検出及び判定した場合には、画像IY又はINによる指示を受け付け、キーKY又はKNによる指示を受け付けない。一方、表示装置20は、ユーザが筐体22を右手で持っていると検出及び判定した場合には、キーKY又はKNによる指示を受け付け、画像IY又はINによる指示を受け付けない。
In the example of FIG. 17, when the
以上のとおり、表示装置20によれば、ユーザの持ち方に応じてUIの切り替えが行われるため、ユーザが持った場所により近い(あるいは入力がより容易な)位置にあるUIが使用可能になる。また、表示装置20によれば、同じ指示を受け付けることが可能な複数のUIがある場合において、あるUIが有効になった場合には、他のUIが無効になるため、相異なるUIから同じ指示が入力されたり、あるいは相反する指示が同時に入力されるといった、本来あるべき入力と異なる入力が行われないようにすることができる。
As described above, according to the
なお、表示装置20は、表示面21Dとキー22Kの双方で受け付けることが可能な操作について、その操作の有効・無効を切り替えることを特徴とするものである。よって、表示装置20は、表示面21Dとキー22Kのいずれか一方でしか受け付けられない操作がある場合には、当該操作を受け付けることを妨げない(無効にしない)ようにしてもよい。例えば、表示装置20は、キー22Kでしか受け付けられない操作がある場合には、たとえ表示面21Dが有効で、キー22Kが無効であったとしても、当該操作を有効にする。また、例えば、電源をオフにする操作については表示面21Dとキー22Kのいずれでも有効にする、といったように、本実施形態に係る切り替えの制御に依存しない指示が存在してもよい。
Note that the
[変形例]
上述した実施形態は、本発明の実施の一例にすぎない。本発明は、上述した実施形態に対して、以下の変形を適用することが可能である。なお、以下に示す変形例は、必要に応じて、各々を適当に組み合わせて実施されてもよいものである。同様に、第2実施形態の表示装置20に第1実施形態の表示制御を行わせたりすることも可能である。
[Modification]
The above-described embodiment is merely an example of the implementation of the present invention. The present invention can apply the following modifications to the embodiments described above. In addition, the modification shown below may be implemented combining each suitably as needed. Similarly, it is possible to cause the
本発明において、持ち手の判定には、圧力の大小や動きの多少を用いることも可能である。例えば、ユーザが図4に示したような持ち方をする場合には、母指を頻繁に動かすため、母指の付け根周辺の方に圧力や動きの変化が生じやすくなることが考えられる。このような場合、制御部110は、圧力や動きの変化をセンサ面11S1とセンサ面11S2とで比較し、その相違に基づいて持ち手を判定することができる。
In the present invention, it is possible to use the magnitude of the pressure or the amount of movement for the determination of the handle. For example, when the user holds as shown in FIG. 4, the thumb is frequently moved, so that it is considered that changes in pressure and movement are likely to occur near the base of the thumb. In such a case, the
本発明において、表示面を指示するものは、指でなくともよい。本発明は、例えば、指先に指示用の器具を装着し、この器具を介して操作を行うことも可能である。なお、本発明は、かかる器具が光や磁気を発するものであれば、その光や磁気を検出することによって指示位置を特定するものであってもよい。 In the present invention, what designates the display surface may not be a finger. In the present invention, for example, an instruction device can be attached to the fingertip, and the operation can be performed via this device. In the present invention, if the instrument emits light or magnetism, the pointing position may be specified by detecting the light or magnetism.
なお、本発明は、スマートフォンや携帯電話機に限らず、その他の表示装置に適用することが可能である。例えば、本発明は、タッチスクリーンを用いて操作するものであれば、デジタルスチルカメラ、音楽プレーヤ、ゲーム機、電子機器のリモートコンロトーラなどにも適用することができる。 Note that the present invention is not limited to smartphones and mobile phones, and can be applied to other display devices. For example, the present invention can be applied to a digital still camera, a music player, a game machine, a remote controller of an electronic device, and the like as long as the operation is performed using a touch screen.
また、本発明は、タッチスクリーン等を有する表示装置のコンピュータ(CPU等)に本発明を実現させるためのプログラムや、かかるプログラムを記憶させた光ディスク等の記録媒体としても特定され得る。本発明に係るプログラムは、インターネット等のネットワークを介して、表示装置にダウンロードさせ、これをインストールして利用可能にするなどの形態でも提供され得る。 The present invention can also be specified as a program for realizing the present invention on a computer (CPU or the like) of a display device having a touch screen or the like, or a recording medium such as an optical disk storing such a program. The program according to the present invention may be provided in a form such that the program is downloaded to a display device via a network such as the Internet, and the program is installed and made available.
10、20…表示装置、11、21、22…筐体、11D、21D…表示面、11S1、11S2、21S、22S…センサ面、22K…キー、110、210…制御部、111、211…第1判定部、112、212…第2判定部、113…表示制御部、114、215…処理実行部、213…受付部、214…切替部、120、220…記憶部、130、230…表示部、140、240…第1検知部、150、250…第2検知部、260…操作部 10, 20 ... display unit, 11, 21, and 22 ... housing, 11D, 21D ... display surface, 11S 1, 11S 2, 21S , 22S ... sensor surface, 22K ... key, 110, 210 ... control unit, 111, 211 ... 1st judgment part, 112, 212 ... 2nd judgment part, 113 ... Display control part, 114, 215 ... Processing execution part, 213 ... Reception part, 214 ... Switching part, 120, 220 ... Storage part, 130, 230 ... Display unit, 140, 240 ... first detection unit, 150, 250 ... second detection unit, 260 ... operation unit
Claims (6)
前記筐体の一部の面である表示面に画像を表示する表示部と、
前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザによる前記筐体の持ち方を検知する第1検知部と、
前記表示面のうちの前記ユーザにより指示された位置を検知する第2検知部と、
前記第1検知部及び前記第2検知部による検知結果に応じた制御を行う制御部とを備え、
前記制御部が、
前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御し、
前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行する
ことを特徴とする表示装置。 A housing,
A display unit for displaying an image on a display surface which is a part of the housing;
A first detection unit that is provided in a portion of the housing where the display surface is not provided and detects how the user holds the housing;
A second detection unit for detecting a position instructed by the user on the display surface;
A control unit that performs control according to a detection result by the first detection unit and the second detection unit,
The control unit is
In accordance with the holding method detected by the first detection unit, the display mode of the first image that is displayed on the display surface of the display unit and receives the instruction by the user is controlled,
The display apparatus characterized by performing the process according to the position detected by the said 2nd detection part of the 1st image displayed on the said display part.
前記制御部は、前記第1の画像の表示態様を、前記第1の持ち方と前記第2の持ち方とで異ならせる
ことを特徴とする請求項1に記載の表示装置。 The first detection unit detects a first way the user holds the casing with a right hand and a second way the user holds the casing with a left hand;
The display device according to claim 1, wherein the control unit changes a display mode of the first image between the first holding method and the second holding method.
前記第1の画像を、決められた方向に展開するように表示される画像として表示し、
前記第1の画像が展開される方向を、前記第1の持ち方と前記第2の持ち方とで異ならせる
ことを特徴とする請求項2に記載の表示装置。 The controller is
Displaying the first image as an image displayed so as to expand in a determined direction;
The display device according to claim 2, wherein a direction in which the first image is developed is different between the first holding method and the second holding method.
前記第1の画像を、複数の項目に相当する領域を有する画像として表示し、
前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像の表示態様を、前記第1検知部により検知された持ち方に応じて制御する
ことを特徴とする請求項3に記載の表示装置。 The controller is
Displaying the first image as an image having areas corresponding to a plurality of items;
The display mode of the second image displayed according to the item corresponding to the position detected by the second detection unit is controlled according to the way of holding detected by the first detection unit. Item 4. The display device according to Item 3.
前記制御部は、前記第1の画像の前記所定方向についての表示位置を前記第1検知部により接触が検知された検知領域に応じて制御する
ことを特徴とする請求項1ないし4のいずれかに記載の表示装置。 The first detection unit has a plurality of detection regions for detecting contact by the user so as to follow a predetermined direction of the display surface,
5. The control unit according to claim 1, wherein the control unit controls the display position of the first image in the predetermined direction in accordance with a detection area in which contact is detected by the first detection unit. The display device described in 1.
前記筐体の一部の面である表示面に画像を表示する表示部と、
前記筐体のうちの前記表示面が設けられていない部分に設けられ、前記ユーザによる前記筐体の持ち方を検知する第1検知部と、
前記表示面のうちのユーザにより指示された位置を検知する第2検知部と
を備える表示装置のコンピュータに、
前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御するステップと、
前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行するステップと
を実行させるプログラム。 A housing,
A display unit for displaying an image on a display surface which is a part of the housing;
A first detection unit that is provided in a portion of the casing where the display surface is not provided and detects how the user holds the casing;
A computer of a display device comprising: a second detection unit that detects a position instructed by a user on the display surface;
Controlling a display mode of a first image that is displayed on the display surface of the display unit and accepts the instruction by the user in accordance with the holding method detected by the first detection unit;
Executing a process according to a position detected by the second detection unit of the first image displayed on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023145A JP5411733B2 (en) | 2010-02-04 | 2010-02-04 | Display device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023145A JP5411733B2 (en) | 2010-02-04 | 2010-02-04 | Display device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011164676A true JP2011164676A (en) | 2011-08-25 |
JP5411733B2 JP5411733B2 (en) | 2014-02-12 |
Family
ID=44595333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010023145A Active JP5411733B2 (en) | 2010-02-04 | 2010-02-04 | Display device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5411733B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117915A (en) * | 2011-12-05 | 2013-06-13 | Nikon Corp | Electronic apparatus |
JP2013235468A (en) * | 2012-05-10 | 2013-11-21 | Fujitsu Ltd | Mobile terminal and mobile terminal cover |
KR20140082760A (en) * | 2011-09-30 | 2014-07-02 | 마이크로소프트 코포레이션 | Omni-spatial gesture input |
KR20150008118A (en) * | 2012-04-23 | 2015-01-21 | 후아웨이 디바이스 컴퍼니 리미티드 | Method for automatically switching handheld modes and wireless handheld device |
JP2015102943A (en) * | 2013-11-22 | 2015-06-04 | 富士通株式会社 | Portable device, screen display program, and screen display method |
JP2016521021A (en) * | 2013-03-14 | 2016-07-14 | クアルコム,インコーポレイテッド | User detection system and low power voice command activation method in wireless communication system |
JP2017045091A (en) * | 2015-08-24 | 2017-03-02 | 京セラ株式会社 | Electronic device, control program, and electronic device operation method |
JP2017510868A (en) * | 2014-01-21 | 2017-04-13 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Grip state detection |
US9785278B2 (en) | 2013-08-22 | 2017-10-10 | Sharp Kabushiki Kaisha | Display device and touch-operation processing method |
US9870081B2 (en) | 2013-08-22 | 2018-01-16 | Sharp Kabushiki Kaisha | Display device and touch-operation processing method |
US20190332220A1 (en) * | 2016-12-12 | 2019-10-31 | Microsoft Technology Licensing, Llc | Apparatus and method of adjusting power mode of a display of a device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282115A (en) * | 1992-02-07 | 1993-10-29 | Internatl Business Mach Corp <Ibm> | Method and device for menu display |
JP2007122287A (en) * | 2005-10-26 | 2007-05-17 | Sharp Corp | Information processor, hierarchical information output method, and program |
JP2008027183A (en) * | 2006-07-21 | 2008-02-07 | Sharp Corp | Information processor |
JP2008152441A (en) * | 2006-12-15 | 2008-07-03 | Hitachi Software Eng Co Ltd | Character data input device |
JP2008165451A (en) * | 2006-12-28 | 2008-07-17 | Sharp Corp | Display device-integrated input device |
JP2009110286A (en) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | Information processor, launcher start control program, and launcher start control method |
JP2009163278A (en) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | Portable device |
JP2009169820A (en) * | 2008-01-18 | 2009-07-30 | Panasonic Corp | Mobile terminal |
JP2009294725A (en) * | 2008-06-02 | 2009-12-17 | Toshiba Corp | Mobile terminal |
-
2010
- 2010-02-04 JP JP2010023145A patent/JP5411733B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282115A (en) * | 1992-02-07 | 1993-10-29 | Internatl Business Mach Corp <Ibm> | Method and device for menu display |
JP2007122287A (en) * | 2005-10-26 | 2007-05-17 | Sharp Corp | Information processor, hierarchical information output method, and program |
JP2008027183A (en) * | 2006-07-21 | 2008-02-07 | Sharp Corp | Information processor |
JP2008152441A (en) * | 2006-12-15 | 2008-07-03 | Hitachi Software Eng Co Ltd | Character data input device |
JP2008165451A (en) * | 2006-12-28 | 2008-07-17 | Sharp Corp | Display device-integrated input device |
JP2009110286A (en) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | Information processor, launcher start control program, and launcher start control method |
JP2009163278A (en) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | Portable device |
JP2009169820A (en) * | 2008-01-18 | 2009-07-30 | Panasonic Corp | Mobile terminal |
JP2009294725A (en) * | 2008-06-02 | 2009-12-17 | Toshiba Corp | Mobile terminal |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101981822B1 (en) * | 2011-09-30 | 2019-05-23 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Omni-spatial gesture input |
KR20140082760A (en) * | 2011-09-30 | 2014-07-02 | 마이크로소프트 코포레이션 | Omni-spatial gesture input |
JP2014531688A (en) * | 2011-09-30 | 2014-11-27 | マイクロソフト コーポレーション | Omni-directional gesture input |
JP2013117915A (en) * | 2011-12-05 | 2013-06-13 | Nikon Corp | Electronic apparatus |
KR101665414B1 (en) * | 2012-04-23 | 2016-10-12 | 후아웨이 디바이스 컴퍼니 리미티드 | Method and wireless handheld device for automatically switching handheld mode |
JP2015515698A (en) * | 2012-04-23 | 2015-05-28 | ▲華▼▲為▼▲終▼端有限公司 | Method and wireless handheld device for automatically switching handheld modes |
KR20150008118A (en) * | 2012-04-23 | 2015-01-21 | 후아웨이 디바이스 컴퍼니 리미티드 | Method for automatically switching handheld modes and wireless handheld device |
US10282073B2 (en) | 2012-04-23 | 2019-05-07 | Huawei Device Co., Ltd. | Method and wireless handheld device for automatically switching handheld mode |
EP2833607B1 (en) * | 2012-04-23 | 2020-01-08 | Huawei Device Co., Ltd. | Method for automatically switching handheld modes and wireless handheld device |
JP2013235468A (en) * | 2012-05-10 | 2013-11-21 | Fujitsu Ltd | Mobile terminal and mobile terminal cover |
JP2016521021A (en) * | 2013-03-14 | 2016-07-14 | クアルコム,インコーポレイテッド | User detection system and low power voice command activation method in wireless communication system |
US9785278B2 (en) | 2013-08-22 | 2017-10-10 | Sharp Kabushiki Kaisha | Display device and touch-operation processing method |
US9870081B2 (en) | 2013-08-22 | 2018-01-16 | Sharp Kabushiki Kaisha | Display device and touch-operation processing method |
JP2015102943A (en) * | 2013-11-22 | 2015-06-04 | 富士通株式会社 | Portable device, screen display program, and screen display method |
JP2017510868A (en) * | 2014-01-21 | 2017-04-13 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Grip state detection |
JP2017045091A (en) * | 2015-08-24 | 2017-03-02 | 京セラ株式会社 | Electronic device, control program, and electronic device operation method |
US20190332220A1 (en) * | 2016-12-12 | 2019-10-31 | Microsoft Technology Licensing, Llc | Apparatus and method of adjusting power mode of a display of a device |
Also Published As
Publication number | Publication date |
---|---|
JP5411733B2 (en) | 2014-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5411733B2 (en) | Display device and program | |
US8775966B2 (en) | Electronic device and method with dual mode rear TouchPad | |
KR101452038B1 (en) | Mobile device and display controlling method thereof | |
KR101701492B1 (en) | Terminal and method for displaying data thereof | |
US7783789B2 (en) | Apparatus with programmable touch screen and method thereof | |
CN104932809B (en) | Apparatus and method for controlling display panel | |
EP2354904A2 (en) | Multi-display device and method for controlling the same | |
US20090164930A1 (en) | Electronic device capable of transferring object between two display units and controlling method thereof | |
KR20180134668A (en) | Mobile terminal and method for controlling the same | |
US20150160842A1 (en) | Electronic device and controlling method and program therefor | |
JP6940353B2 (en) | Electronics | |
JP2010039772A (en) | Input operation device | |
JP5780438B2 (en) | Electronic device, position designation method and program | |
CN109683763A (en) | A kind of icon moving method and mobile terminal | |
TWI659353B (en) | Electronic apparatus and method for operating thereof | |
US9377944B2 (en) | Information processing device, information processing method, and information processing program | |
US20200089362A1 (en) | Device and control method capable of touch sensing and touch pressure sensing | |
TW201331812A (en) | Electronic apparatus and method for controlling the same | |
JP2005301668A (en) | Information processor and information processing program | |
US20130159934A1 (en) | Changing idle screens | |
JP5628991B2 (en) | Display device, display method, and display program | |
JP5057115B2 (en) | Terminal device and program | |
JP6122355B2 (en) | Mobile terminal device | |
JP2012174247A (en) | Mobile electronic device, contact operation control method, and contact operation control program | |
JP6213467B2 (en) | Terminal device, display control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5411733 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |