JP2011164676A - Display device and program - Google Patents

Display device and program Download PDF

Info

Publication number
JP2011164676A
JP2011164676A JP2010023145A JP2010023145A JP2011164676A JP 2011164676 A JP2011164676 A JP 2011164676A JP 2010023145 A JP2010023145 A JP 2010023145A JP 2010023145 A JP2010023145 A JP 2010023145A JP 2011164676 A JP2011164676 A JP 2011164676A
Authority
JP
Japan
Prior art keywords
display
image
user
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010023145A
Other languages
Japanese (ja)
Other versions
JP5411733B2 (en
Inventor
Idea Kano
出亜 加納
Kazuhiro Yamada
和宏 山田
Yasushi Onda
靖 恩田
Hiromitsu Miyazawa
祐光 宮沢
Takahiro Ohori
敬広 大堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010023145A priority Critical patent/JP5411733B2/en
Publication of JP2011164676A publication Critical patent/JP2011164676A/en
Application granted granted Critical
Publication of JP5411733B2 publication Critical patent/JP5411733B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display an image according to how a user grips a display device. <P>SOLUTION: In a display device 10, a casing 11 includes a display surface 11D functioning as a touch screen and sensor surfaces 11S<SB>1</SB>and 11S<SB>2</SB>. The display device 10 detects how a user grips the display device, by using the sensor surfaces 11S<SB>1</SB>and 11S<SB>2</SB>. The display device 10 detects, for example, a hand (right or left hand) of the user that grips the display device 10 or a part (upper or lower part) of the display device 10 gripped by the user. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示装置の持ち方に応じた表示制御に関する。   The present invention relates to display control according to how to hold a display device.

タッチスクリーン(タッチパネルともいう。)を有する電子機器を片手で持った場合のデータ入力について、特許文献1には、入力ボタン群を表示すべきタッチパネル上の領域を入力者に指などであらかじめ指定させる技術が記載されている。   With respect to data input when an electronic device having a touch screen (also referred to as a touch panel) is held with one hand, Patent Document 1 allows an input person to specify in advance an area on the touch panel where an input button group should be displayed with a finger or the like. The technology is described.

特開2008−152441号公報JP 2008-152441 A

しかし、画像の表示に際し、タッチパネルに対する事前の指定を要するのでは、使い勝手が悪い。
そこで、本発明の目的は、ユーザが表示装置を持つと、その持ち方に応じた画像が表示されるようにすることにある。
However, it is inconvenient to display an image when prior designation on the touch panel is required.
Therefore, an object of the present invention is to display an image according to how a user holds a display device.

本発明の一態様に係る表示装置は、筐体と、前記筐体の一部の面である表示面に画像を表示する表示部と、前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザによる前記筐体の持ち方を検知する第1検知部と、前記表示面のうちの前記ユーザにより指示された位置を検知する第2検知部と、前記第1検知部及び前記第2検知部による検知結果に応じた制御を行う制御部とを備え、前記制御部が、前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御し、前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行する構成を有する。   A display device according to one embodiment of the present invention is not provided with a housing, a display portion that displays an image on a display surface that is a partial surface of the housing, and the display surface of the housing is not provided. A first detection unit that is provided in a portion and detects how the user holds the housing; a second detection unit that detects a position indicated by the user on the display surface; and the first detection unit; A control unit that performs control according to a detection result by the second detection unit, and the control unit is displayed on the display surface of the display unit according to a holding method detected by the first detection unit. And a control unit configured to control a display mode of the first image that receives the instruction from the user, and to execute processing according to the position detected by the second detection unit of the first image displayed on the display unit. Have.

本発明の好ましい態様において、前記第1検知部は、前記ユーザが前記筐体を右手で持つ第1の持ち方と、前記ユーザが前記筐体を左手で持つ第2の持ち方とを検知し、前記制御部は、前記第1の画像の表示態様を、前記第1の持ち方と前記第2の持ち方とで異ならせてもよい。
この態様において、前記制御部は、前記第1の画像を、決められた方向に展開するように表示される画像として表示し、前記第1の画像が展開される方向を、前記第1の持ち方と前記第2の持ち方とで異ならせてもよい。
さらに、前記制御部は、前記第1の画像を、複数の項目に相当する領域を有する画像として表示し、前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像の表示態様を、前記第1検知部により検知された持ち方に応じて制御してもよい。
本発明の別の好ましい態様において、前記第1検知部は、前記ユーザによる接触を検知する検知領域を前記表示面の所定方向に沿うように複数有し、前記制御部は、前記第1の画像の前記所定方向についての表示位置を前記第1検知部により接触が検知された検知領域に応じて制御してもよい。
In a preferred aspect of the present invention, the first detection unit detects a first way in which the user holds the housing with a right hand and a second way in which the user holds the housing with a left hand. The control unit may change the display mode of the first image between the first holding method and the second holding method.
In this aspect, the control unit displays the first image as an image displayed so as to be developed in a predetermined direction, and the direction in which the first image is developed has the first holding. And the second holding method may be different.
Further, the control unit displays the first image as an image having a region corresponding to a plurality of items, and a second displayed according to the item corresponding to the position detected by the second detection unit. You may control the display mode of an image according to the holding method detected by the said 1st detection part.
In another preferable aspect of the present invention, the first detection unit has a plurality of detection regions that detect contact by the user along a predetermined direction of the display surface, and the control unit includes the first image. The display position in the predetermined direction may be controlled in accordance with a detection area where contact is detected by the first detection unit.

本発明の別の態様に係るプログラムは、筐体と、前記筐体の一部の面である表示面に画像を表示する表示部と、前記筐体のうちの前記表示面が設けられていない部分に設けられ、前記ユーザによる前記筐体の持ち方を検知する第1検知部と、前記表示面のうちのユーザにより指示された位置を検知する第2検知部とを備える表示装置のコンピュータに、前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御するステップと、前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行するステップとを実行させる構成を有する。   A program according to another aspect of the present invention includes a housing, a display unit that displays an image on a display surface that is a part of the housing, and the display surface of the housing is not provided. A computer of a display device provided with a first detection unit that is provided in a portion and that detects how the user holds the housing and a second detection unit that detects a position designated by the user on the display surface. Controlling a display mode of a first image that is displayed on the display surface of the display unit and accepts the instruction by the user according to the holding method detected by the first detection unit; and the display unit And a step of executing a process corresponding to the position detected by the second detection unit of the first image displayed on the screen.

本発明によれば、ユーザが表示装置を持つと、その持ち方に応じた画像が表示されるようにすることが可能である。   According to the present invention, when a user has a display device, it is possible to display an image according to how the user holds the display device.

表示装置の外観を示す図(第1実施形態)The figure which shows the external appearance of a display apparatus (1st Embodiment). 表示装置のハードウェア構成を示すブロック図Block diagram showing hardware configuration of display device 表示装置の制御部が実現する機能を示す機能ブロック図Functional block diagram showing functions realized by the control unit of the display device 表示装置の持ち方を例示する図Diagram illustrating how to hold display device 制御部が実行する処理を示すフローチャートThe flowchart which shows the process which a control part performs 第1の判定処理を示すフローチャートA flowchart showing the first determination process 不連続点を例示する図Diagram illustrating discontinuity 第2の判定処理を示すフローチャートFlow chart showing second determination process 第1の画像の表示例を示す図The figure which shows the example of a display of a 1st image 第1の画像の表示例を示す図The figure which shows the example of a display of a 1st image 第2の画像の表示例を示す図The figure which shows the example of a display of a 2nd image 第2の画像の表示例を示す図The figure which shows the example of a display of a 2nd image 表示装置の外観を示す図(第2実施形態)The figure which shows the external appearance of a display apparatus (2nd Embodiment). 表示装置のハードウェア構成を示すブロック図Block diagram showing hardware configuration of display device 表示装置の制御部が実現する機能を示す機能ブロック図Functional block diagram showing functions realized by the control unit of the display device 制御部が実行する処理を示すフローチャートThe flowchart which shows the process which a control part performs ユーザインタフェースの切り替えの利用例を示す図Figure showing an example of user interface switching

[第1実施形態]
図1は、本発明の実施の一形態である表示装置の外観を示す図である。図1において、表示装置10は、筐体11を有する電子機器である。表示装置10は、ここでは、いわゆるスマートフォン(又は携帯電話機)であるとする。また、筐体11は、図1に直方体状で記載されるが、他の形状であることを妨げない。筐体11は、その一部の面に表示面11Dを有し、表示面11Dが設けられていない部分にセンサ面11S1及び11S2を有する。なお、センサ面11S2は、図1においては隠れた位置にあって図示されていないが、センサ面11S1と対称に設けられている。
[First Embodiment]
FIG. 1 is a diagram illustrating an appearance of a display device according to an embodiment of the present invention. In FIG. 1, the display device 10 is an electronic device having a housing 11. Here, it is assumed that the display device 10 is a so-called smartphone (or mobile phone). Moreover, although the housing | casing 11 is described by the rectangular parallelepiped shape in FIG. 1, it does not prevent that it is another shape. The housing 11 has a display surface 11D on a part of the surface, and sensor surfaces 11S 1 and 11S 2 on a portion where the display surface 11D is not provided. The sensor surface 11S 2 is hidden in FIG. 1 and is not shown, but is provided symmetrically with the sensor surface 11S 1 .

表示面11Dは、画像が表示される面であり、タッチスクリーンを構成している。表示面11Dは、例えば、液晶表示素子や、有機EL(electro luminescence)表示素子で構成される複数の画素によって画像を表示する。なお、表示面11Dは、ここでは長方形の領域であるとする。センサ面11S1及び11S2は、ユーザの手指の接触を検知する面である。センサ面11S1及び11S2は、ユーザによる接触を検知するセンサを有する。ここでいうセンサは、例えば、圧力を検知するセンサや、接触している位置とそうでない位置とを電圧によって区別する抵抗膜などである。なお、センサ面11S1及び11S2を構成するセンサの検知対象は、指等の物体の接触に応じて変化する物理量であれば、上述した圧力や電圧に限定されない。センサ面11S1及び11S2は、それぞれ、表示面11Dの長辺に沿って複数の領域に分割され、各々の領域において接触を個別に検知する。この領域は、本発明に係る検知領域に相当する。 The display surface 11D is a surface on which an image is displayed, and constitutes a touch screen. The display surface 11D displays an image by a plurality of pixels configured by, for example, a liquid crystal display element or an organic EL (electroluminescence) display element. Here, the display surface 11D is assumed to be a rectangular region. The sensor surfaces 11S 1 and 11S 2 are surfaces that detect contact of a user's finger. The sensor surfaces 11S 1 and 11S 2 have sensors that detect contact by the user. The sensor here is, for example, a sensor that detects pressure, or a resistance film that distinguishes a position in contact with a position that is not in contact with a voltage. Note that the detection targets of the sensors that constitute the sensor surfaces 11S 1 and 11S 2 are not limited to the pressures and voltages described above as long as they are physical quantities that change according to the contact of an object such as a finger. The sensor surfaces 11S 1 and 11S 2 are each divided into a plurality of regions along the long side of the display surface 11D, and contact is individually detected in each region. This area corresponds to the detection area according to the present invention.

なお、本実施形態においては、筐体11が有する6面のうち、表示面11Dが設けられている面をユーザに対する正面、センサ面11S1及び11S2が設けられている面を側面、正面の反対側の面を背面とする。また、センサ面11S1がユーザからみて左側にあり、センサ面11S2がユーザからみて右側にあるものとする。センサ面11S1及び11S2は、側面の全体を占める必要はなく、その一部に設けられていてもよい。 In the present embodiment, among the six faces of the housing 11 has a front with respect to the user the plane display surface 11D is provided, the sensor surfaces 11S 1 and side surfaces of 11S 2 is provided, the front The opposite side is the back side. Further, it is assumed that the sensor surface 11S 1 is on the left side when viewed from the user and the sensor surface 11S 2 is on the right side when viewed from the user. The sensor surfaces 11S 1 and 11S 2 do not have to occupy the entire side surface, and may be provided at a part thereof.

図2は、表示装置10のハードウェア構成を示すブロック図である。同図に示すように、表示装置10は、制御部110と、記憶部120と、表示部130と、第1検知部140と、第2検知部150とを備える。なお、表示装置10は、スマートフォンとしての機能を実現するために、図2に記載の構成に加え、通信網に接続するための無線通信部などを備えるが、ここでは図示を省略する。   FIG. 2 is a block diagram illustrating a hardware configuration of the display device 10. As shown in the figure, the display device 10 includes a control unit 110, a storage unit 120, a display unit 130, a first detection unit 140, and a second detection unit 150. In addition, in order to implement | achieve the function as a smart phone, the display apparatus 10 is provided with the radio | wireless communication part etc. for connecting to a communication network in addition to the structure of FIG. 2, but illustration is abbreviate | omitted here.

制御部110は、CPU(Central Processing Unit)等の演算処理装置やメモリを備え、プログラムを実行することによって表示装置10の動作を制御する。記憶部120は、フラッシュメモリ、ハードディスク等の記憶手段を備え、表示装置10が用いるデータを記憶する。記憶部120に記憶されているデータには、制御部110が実行するプログラムに加え、後述する表示装置10の持ち方のパターンなどが含まれ得る。表示部130は、表示面11Dを構成する表示素子と、表示面11Dに画像を表示させるための駆動回路とを備え、表示面11Dに表示させる画像の切り替えを、制御部110からの命令に応じて行う。   The control unit 110 includes an arithmetic processing device such as a CPU (Central Processing Unit) and a memory, and controls the operation of the display device 10 by executing a program. The storage unit 120 includes storage means such as a flash memory and a hard disk, and stores data used by the display device 10. The data stored in the storage unit 120 may include a pattern of how to hold the display device 10 to be described later, in addition to a program executed by the control unit 110. The display unit 130 includes a display element that configures the display surface 11D and a drive circuit for displaying an image on the display surface 11D, and switches an image to be displayed on the display surface 11D according to a command from the control unit 110. Do it.

第1検知部140は、センサ面11S1及び11S2を構成するセンサ(以下「第1のセンサ」という。)を備え、ユーザの持ち方(保持する方法・作法)を検知する。第2検知部150は、表示面11Dに重ねて設けられたセンサを備え、表示面11Dへの指等の物体の接触を検知する。なお、第2検知部150のセンサ(以下「第2のセンサ」という。)は、例えば静電容量方式(指先の距離に応じて変化する静電容量を検知する方式)を採用した場合のように、接触ではなく接近を検知するものであってもよい。第1検知部140及び第2検知部150は、その検知結果を表す情報(以下「検知情報」という。)を制御部110に供給する。制御部110は、この検知情報に応じて制御を行う。検知情報は、接触の有無を表す二値の情報でもよいし、接触(又は接近)の程度を表す多値(二値より多い値)の情報でもよいが、ここでは前者とする。 The first detection unit 140 includes sensors that constitute the sensor surfaces 11S 1 and 11S 2 (hereinafter referred to as “first sensors”), and detects how the user holds (a method and manner of holding). The second detection unit 150 includes a sensor provided so as to overlap the display surface 11D, and detects contact of an object such as a finger on the display surface 11D. The sensor of the second detection unit 150 (hereinafter referred to as “second sensor”) is, for example, a case where a capacitance method (a method of detecting a capacitance that changes according to the distance of the fingertip) is employed. In addition, it may be one that detects approach rather than contact. The first detection unit 140 and the second detection unit 150 supply information indicating the detection result (hereinafter referred to as “detection information”) to the control unit 110. The control unit 110 performs control according to the detection information. The detection information may be binary information indicating the presence or absence of contact, or may be multi-value information (a value greater than binary) indicating the degree of contact (or approach), but here the former is used.

図3は、制御部110が実現する機能を示す機能ブロック図である。制御部110は、プログラムを実行することにより、同図に示す第1判定部111、第2判定部112、表示制御部113及び処理実行部114に相当する機能を実現する。なお、これらの機能は、OS(operating system)の機能の一部として提供されてもよく、また、ユーザインタフェース(以下「UI」という。)に関連する独立したアプリケーションとして提供されてもよいものである。また、これらの機能は、そのすべてが単一のハードウェア(例えばCPU)によって構成されている必要はなく、一部が専用の回路によって別個に構成されていてもよい。   FIG. 3 is a functional block diagram illustrating functions realized by the control unit 110. The control unit 110 implements functions corresponding to the first determination unit 111, the second determination unit 112, the display control unit 113, and the process execution unit 114 illustrated in FIG. These functions may be provided as a part of an OS (operating system) function or may be provided as an independent application related to a user interface (hereinafter referred to as “UI”). is there. All of these functions do not need to be configured by a single hardware (for example, a CPU), and some of them may be configured separately by a dedicated circuit.

第1判定部111は、第1検知部140から供給される検知情報(以下「第1の検知情報」という。)を取得し、第1の検知情報に基づいて筐体11の持ち方を判定する。この判定には、後述する持ち手(利き手)の判定などが含まれ、あらかじめいくつかの持ち方がパターンとして分類されている。第2判定部112は、第2検知部150から供給される検知情報(以下「第2の検知情報」という。)を取得し、表示面11Dのうちのユーザにより指示された位置を判定する。この判定には、タッチスクリーン上の位置検知に関する周知の技術が用いることが可能である。   The first determination unit 111 acquires detection information (hereinafter referred to as “first detection information”) supplied from the first detection unit 140, and determines how to hold the housing 11 based on the first detection information. To do. This determination includes determination of a handle (dominant hand), which will be described later, and several ways of holding are classified as patterns in advance. The second determination unit 112 acquires detection information (hereinafter referred to as “second detection information”) supplied from the second detection unit 150, and determines a position designated by the user on the display surface 11D. For this determination, a well-known technique relating to position detection on the touch screen can be used.

表示制御部113は、第1判定部111による判定結果(すなわちユーザの持ち方)に応じて表示部130による画像の表示を制御するとともに、第2判定部112による判定結果(すなわちユーザの指示位置)に応じて表示部130による画像の表示を制御する。処理実行部114は、表示部130の表示制御以外の処理を実行する。処理実行部114は、例えば、スマートフォンが有する機能(音声通話、データ通信、ゲームなど)を実現するために必要な処理を実行する。かかる処理は、該当する機能そのものを実行する処理であってもよいが、該当する機能が別個のアプリケーションとして用意されている場合には、当該アプリケーションを起動する処理である。   The display control unit 113 controls the display of the image by the display unit 130 according to the determination result by the first determination unit 111 (that is, how the user holds), and the determination result by the second determination unit 112 (that is, the user's designated position ) Controls display of an image on the display unit 130. The process execution unit 114 executes processes other than the display control of the display unit 130. The process execution part 114 performs a process required in order to implement | achieve the function (voice call, data communication, a game, etc.) which a smart phone has, for example. Such processing may be processing for executing the corresponding function itself, but is processing for starting the application when the corresponding function is prepared as a separate application.

表示装置10の構成は、以上のとおりである。表示装置10は、かかる構成のもと、プログラムによりあらかじめ予定された設定やユーザの操作に応じて、スマートフォンとしての所定の機能を実現するための処理を実行する。なお、本実施形態において、「操作」とは、表示面11Dへの指示と同意である。また、表示装置10は、表示部130においてユーザによる指示を受け付ける前に、ユーザが表示装置10をどのように持っているかを検知及び判定し、ユーザの持ち方に基づいて、その後の指示が容易となるような画像の表示を推測し、表示部130にかかる表示を行わせる。   The configuration of the display device 10 is as described above. Based on this configuration, the display device 10 executes processing for realizing a predetermined function as a smartphone in accordance with settings scheduled in advance by a program and user operations. In the present embodiment, the “operation” is an instruction and consent on the display surface 11D. In addition, the display device 10 detects and determines how the user has the display device 10 before accepting an instruction from the user in the display unit 130, and can easily give subsequent instructions based on how the user holds the display device 10. The display of such an image is estimated and the display unit 130 performs the display.

図4は、表示装置10の持ち方を例示する図であり、ユーザによる左手LHでの持ち方と右手RHでの持ち方とを例示する図である。ユーザは、表示面11Dを母指で指示するため、表示装置10の背面を掌で覆うようにし、母指以外の示指、中指、薬指及び小指と母指の付け根周辺の部分とで表示装置10を支える。以下においては、表示装置10をこのように持ったときに、ユーザの手首に近い側を「下方」といい、ユーザの手首から遠い側を「上方」という。
なお、図4の例は、表示装置10の持ち方の一例にすぎない。ユーザは、自身の手の大きさや癖などに応じて、例えば、小指を立てたり、示指で側面ではなく背面を支えたりしてもよい。表示装置10は、持ち手の左右に限らず、このようないくつかの持ち方をパターン化して記憶しておくとよい。
FIG. 4 is a diagram illustrating how the display device 10 is held, and is a diagram illustrating how the user holds the left hand LH and how to hold the display device 10 with the right hand RH. In order to instruct the display surface 11D with the thumb, the user covers the back surface of the display device 10 with the palm, and the display device 10 includes the index finger, middle finger, ring finger, little finger other than the thumb, and the portion around the base of the thumb. Support. In the following, when the display device 10 is held in this way, the side close to the user's wrist is referred to as “downward”, and the side far from the user's wrist is referred to as “upward”.
The example of FIG. 4 is merely an example of how to hold the display device 10. The user may raise, for example, the little finger or support the back surface instead of the side surface with the index finger according to the size of the hand or the heel. The display device 10 is not limited to the left and right sides of the hand, and it is preferable to store a number of such holding methods in a pattern.

図5は、制御部110が実行する処理を示すフローチャートである。制御部110は、まず、第1検知部140により供給される第1の検知情報に基づき、ユーザが表示装置10を持っているか否かを判断する(ステップS1)。この判断は、例えば、接触を検知している検知領域の数に基づいて行われる。制御部110は、ユーザが表示装置10を持っていると判断すると、持ち方の判定を所定の時間待機する(ステップS2)。ここで制御部110が待機する時間のことを、以下においては「待機時間」という。   FIG. 5 is a flowchart illustrating processing executed by the control unit 110. First, the control unit 110 determines whether or not the user has the display device 10 based on the first detection information supplied by the first detection unit 140 (step S1). This determination is made based on, for example, the number of detection areas in which contact is detected. When determining that the user has the display device 10, the control unit 110 waits for a predetermined time for determination of how to hold the display device 10 (step S2). Here, the time for which the control unit 110 waits is referred to as “standby time” below.

待機時間を設ける理由は、次のとおりである。すなわち、ユーザは、鞄などに収納された表示装置10を取り出したり、あるいは机などの平らな面に置かれた表示装置10を持ち上げたりする場合には、最初に持ったままの持ち方で操作を行うとは限らないからである。ユーザは、多くの場合、表示装置10をいったん持ってから、自身が操作しやすい位置にこれを持ち替える。待機時間は、この持ち替えを考慮して設けられるものである。   The reason for setting the waiting time is as follows. That is, when the user takes out the display device 10 stored in a bag or lifts the display device 10 placed on a flat surface such as a desk, the user operates with the first holding method. This is because it is not always done. In many cases, the user once holds the display device 10 and then changes it to a position where the user can easily operate the display device 10. The waiting time is provided in consideration of this changeover.

なお、待機時間は、あらかじめ設定された値(例えば、0〜1秒程度)であってもよいが、第1検知部140の検知結果に応じて決められていてもよい。例えば、制御部110は、第1の検知情報の出力結果が安定した状態(すなわち、接触を検知する検知領域の変動が所定の閾値未満となり、表示装置10を保持する手指がほとんど動かなくなったとみなせる状態)になったときに待機時間が終わるようにしてもよい。   The standby time may be a preset value (for example, about 0 to 1 second), but may be determined according to the detection result of the first detection unit 140. For example, the control unit 110 can assume that the output result of the first detection information is stable (that is, the fluctuation of the detection region for detecting contact is less than a predetermined threshold value, and the finger holding the display device 10 almost stops moving. The standby time may be over when the state is reached.

待機時間が終了すると、制御部110は、ユーザによる表示装置10の持ち方を判定する処理(以下「判定処理」という。)を実行する(ステップS3)。この判定処理には、いくつかの態様が考えられる。制御部110は、複数ある判定処理のいずれかを選択的に、又は組み合わせて実行する。ここで例示する判定処理は、ユーザの持ち手を判定する第1の判定処理と、ユーザが持っている位置の上下を判定する第2の判定処理である。   When the standby time ends, the control unit 110 executes a process for determining how the user holds the display device 10 (hereinafter referred to as “determination process”) (step S3). There are several possible modes for this determination process. The control unit 110 executes any of a plurality of determination processes selectively or in combination. The determination process exemplified here is a first determination process for determining the user's handle and a second determination process for determining the upper and lower positions of the position held by the user.

図6は、第1の判定処理を示すフローチャートである。第1の判定処理において、制御部110は、センサ面11S1及び11S2のそれぞれについて、第1の検知情報に基づいて不連続点を抽出する(ステップS311)。続いて、制御部110は、センサ面11S1及び11S2のそれぞれについて抽出された不連続点の数又は大きさを比較する(ステップS312)。ここにおいて、「不連続点」とは、接触を検知した検知領域に挟まれた状態で存在する接触を検知していない検知領域をいい、単独又は群で存在する検知領域である。
図7は、不連続点を例示する図である。ここにおいて、センサ面11S2は、指の接触を検知した検知領域が黒色で示され、指の接触を検知していない検知領域が白色で示されている。
FIG. 6 is a flowchart showing the first determination process. In the first determination process, the control unit 110 extracts discontinuous points based on the first detection information for each of the sensor surfaces 11S 1 and 11S 2 (step S311). Subsequently, the control unit 110 compares the number or size of the discontinuous points extracted for each of the sensor surfaces 11S 1 and 11S 2 (step S312). Here, the “discontinuous point” refers to a detection region that does not detect a contact that is sandwiched between detection regions that detect contact, and is a detection region that exists alone or in groups.
FIG. 7 is a diagram illustrating discontinuous points. Here, on the sensor surface 11S 2 , a detection area where a finger contact is detected is shown in black, and a detection area where no finger contact is detected is shown in white.

ユーザがセンサ面11S1又は11S2に指で触れる場合、指と指の間には、不連続点が生じる。例えば、ユーザがセンサ面11S1又は11S2を4本の指で支えれば、不連続点は3箇所に生じる。一方、ユーザがセンサ面11S1又は11S2に母指の付け根周辺の部分(図4参照)で触れる場合には、指で触れる場合に比べ、不連続点が生じにくい。制御部110は、この不連続点の生じやすさ、すなわち不連続点の数又は大きさ(若しくはこれらの組み合わせ)に基づいて、持ち手の左右を判定することが可能である。例えば、制御部110は、センサ面11S1に生じた不連続点がセンサ面11S2に生じた不連続点よりも多ければ、ユーザが右手で表示装置10を持っていると判定する。 When the user touches the sensor surface 11S 1 or 11S 2 with a finger, a discontinuity occurs between the fingers. For example, if the user supports the sensor surface 11S 1 or 11S 2 with four fingers, discontinuities occur at three locations. On the other hand, when the user touches the sensor surface 11S 1 or 11S 2 with the portion around the base of the thumb (see FIG. 4), discontinuous points are less likely to occur than when the user touches with the finger. The control unit 110 can determine the right and left of the handle based on the likelihood of the occurrence of discontinuities, that is, the number or size of discontinuities (or a combination thereof). For example, if there are more discontinuous points generated on the sensor surface 11S 1 than discontinuous points generated on the sensor surface 11S 2 , the control unit 110 determines that the user has the display device 10 with the right hand.

制御部110は、以上のようにして不連続点をセンサ面11S1及び11S2について比較し、その比較結果に応じた情報(以下「判定情報」という。)を生成する(ステップS313)。第1の判定処理における判定情報は、ユーザの持ち手が右手であるか左手であるかを表す情報であり、例えば「11」と「10」や「L」と「R」のようにして区別されるものである。 As described above, the control unit 110 compares the discontinuous points with respect to the sensor surfaces 11S 1 and 11S 2 and generates information (hereinafter referred to as “determination information”) according to the comparison result (step S313). The determination information in the first determination process is information indicating whether the user's handle is the right hand or the left hand. For example, “11” and “10” or “L” and “R” are distinguished. It is what is done.

図8は、第2の判定処理を示すフローチャートである。第2の判定処理において、制御部110は、センサ面11S1及び11S2のそれぞれについて、接触を検知した検知領域の数と位置を第2の検知情報に基づいて特定する(ステップS321)。制御部110は、かかる検知領域のセンサ面11S1及び11S2の上下方向についての分布を特定し、これをあらかじめ決められた基準の分布と比較する(ステップS322)。制御部110は、ステップS321において特定した分布が基準の分布よりも上寄りであれば、ユーザが表示装置10の上方を保持していると判定し、ステップS321において特定した分布が基準の分布よりも下寄りであれば、ユーザが表示装置10の下方を保持していると判定する。制御部110は、ステップS322の比較結果に応じた判定情報を生成する(ステップS323)。第2の判定処理における判定情報は、ユーザの持つ位置が上方であるか下方であるかを表す情報であり、例えば「21」と「20」のようにして区別されるものである。
なお、以上の説明においては、ユーザによる持ち方が上下方向について2段階で判定されたが、例えば「上方」、「中間」、「下方」といったように、3以上の段階で判定されてもよい。
FIG. 8 is a flowchart showing the second determination process. In the second determination process, the control unit 110 specifies the number and position of detection areas where contact is detected for each of the sensor surfaces 11S 1 and 11S 2 based on the second detection information (step S321). The control unit 110 identifies the distribution in the vertical direction of the sensor surfaces 11S 1 and 11S 2 in the detection area, and compares this with a predetermined reference distribution (step S322). If the distribution specified in step S321 is higher than the reference distribution, the control unit 110 determines that the user holds the display device 10 above, and the distribution specified in step S321 is higher than the reference distribution. If it is lower, it is determined that the user is holding the lower side of the display device 10. The control part 110 produces | generates the determination information according to the comparison result of step S322 (step S323). The determination information in the second determination process is information indicating whether the position of the user is above or below, and is distinguished, for example, as “21” and “20”.
In the above description, how to hold by the user is determined in two stages in the vertical direction, but may be determined in three or more stages such as “upward”, “middle”, and “downward”. .

このような判定処理を終えると、制御部110は、判定結果に応じた画像を表示部130に表示させる(ステップS4)。ここで表示される画像は、ユーザによる指示を受け付けるための画像であり、例えば、ボタンの形状を有していたり、あるいはアイコンや絵文字などである。ステップS4において表示される画像のことを、以下においては「第1の画像」という。制御部110は、判定処理の結果に応じて第1の画像の表示態様を制御する。ここにおいて、表示態様には、画像の表示位置や、後述する展開の態様などが含まれ、さらには、画像の色や形状も含まれ得る。なお、第1の画像は、指示を受け付ける画像であれば足り、必ずしも展開を要するものではない。   When such determination processing is completed, the control unit 110 causes the display unit 130 to display an image corresponding to the determination result (step S4). The image displayed here is an image for accepting an instruction from the user, and has, for example, a button shape, an icon, a pictograph, or the like. The image displayed in step S4 is hereinafter referred to as “first image”. The control unit 110 controls the display mode of the first image according to the result of the determination process. Here, the display mode includes an image display position, a development mode described later, and the like, and may further include the color and shape of the image. Note that the first image need only be an image that accepts an instruction, and need not be expanded.

制御部110は、第1の画像が表示部130に表示されると、第1の検知情報に基づいて、表示面11Dに対するユーザの指示があるか否かを判断する(ステップS5)。制御部110は、かかる指示があれば、ユーザに指示され、第2検知部150により検知された位置に応じた処理を実行する(ステップS6)。なお、ステップS6において実行される処理には、処理実行部114が実行する処理と、表示制御部113による画像の表示制御とが含まれる。ステップS6において表示される画像のうち、第1の画像を操作することにより表示される画像のことを、以下においては「第2の画像」という。第2の画像は、第1の画像において指示された位置に従って表示内容が決まるものである。第2の画像は、本実施形態においてはユーザの指示を受け付けるための画像であるとするが、かかる画像に限定されるものではない。   When the first image is displayed on display unit 130, control unit 110 determines whether there is a user instruction on display surface 11D based on the first detection information (step S5). If there is such an instruction, the control unit 110 is instructed by the user and executes a process according to the position detected by the second detection unit 150 (step S6). Note that the processing executed in step S <b> 6 includes processing executed by the processing execution unit 114 and image display control by the display control unit 113. Of the images displayed in step S6, the image displayed by operating the first image is hereinafter referred to as “second image”. The display content of the second image is determined according to the position designated in the first image. In the present embodiment, the second image is an image for accepting a user instruction, but is not limited to such an image.

図9は、第1の画像の第1の表示例を示す図である。図9(a)は、持ち手が左手であると検知された場合の表示例であり、図9(b)は、持ち手が右手であると検知された場合の表示例である。同図において、第1の画像I11及びI12は、それぞれ、「A」、「B」、「C」、「D」、「E」で表される5つの項目に相当する領域を有する。ここにおいて、項目は、特定の機能に割り当てられており、例えば、「A」が“電話”、「B」が“電子メール”、「C」が“Webブラウザ”、「D」が“ゲーム”、などといった具合である。   FIG. 9 is a diagram illustrating a first display example of the first image. FIG. 9A is a display example when the handle is detected as the left hand, and FIG. 9B is a display example when the handle is detected as the right hand. In the figure, the first images I11 and I12 have areas corresponding to five items represented by “A”, “B”, “C”, “D”, and “E”, respectively. Here, the items are assigned to specific functions. For example, “A” is “telephone”, “B” is “e-mail”, “C” is “web browser”, and “D” is “game”. And so on.

また、第1の画像I11及びI12は、左右方向に展開するように表示される画像である。ここにおいて、「展開」とは、所定の決められた方向に広がりを有することをいい、ここでは、広がりが項目の数に応じている。ここでいう展開は、アニメーション表示によって、例えば、項目A、B、C、D、Eの順番で徐々に表示されるような視覚効果を有するものであってもよい。この第1の表示例において、第1の画像I11と第1の画像I12とでは、その展開の方向が異なっている。具体的には、第1の画像I11は、左から右へと項目が展開され、第1の画像I12は、これとは逆に、右から左へと項目が展開される。このようにすると、両者の画像が鏡像の関係になり、ユーザが指示に用いる指を基準とした場合の各項目の相対的な位置が右手持ちの場合と左手持ちの場合とで同じようになるため、ユーザの持ち手が異なっても操作感が同じようになる。
なお、第1の画像I11及びI12は、展開の方向だけでなく、位置が異なってもよい。例えば、表示装置10は、第1の画像I11を左寄りに表示し、第1の画像I12を右寄りに表示してもよい。
The first images I11 and I12 are images that are displayed so as to expand in the left-right direction. Here, “development” means having a spread in a predetermined determined direction, and the spread here corresponds to the number of items. The development here may have a visual effect that is gradually displayed in the order of items A, B, C, D, E, for example, by animation display. In the first display example, the first image I11 and the first image I12 have different development directions. Specifically, in the first image I11, items are developed from left to right, and in the first image I12, items are developed from right to left. If it does in this way, both images will be in a mirror image relationship, and the relative position of each item when the user uses the finger used for the instruction as a reference will be the same when holding the right hand and when holding the left hand. Therefore, the operation feeling is the same even if the user's handle is different.
The first images I11 and I12 may have different positions as well as the development direction. For example, the display device 10 may display the first image I11 on the left side and display the first image I12 on the right side.

図10は、第1の画像の第2の表示例を示す図である。図10(a)は、ユーザが表示装置10を上方寄りに持っていると検知された場合の表示例であり、図10(b)は、ユーザが表示装置10を下方寄りに持っていると検知された場合の表示例である。第1の画像I13及びI14は、その展開方向が上下方向である点において第1の表示例と相違する。また、第1の画像I13は、第1の画像I14よりも上寄りに表示され、第1の画像I14は、第1の画像I13よりも下寄りに表示される。   FIG. 10 is a diagram illustrating a second display example of the first image. FIG. 10A is a display example when it is detected that the user is holding the display device 10 upward, and FIG. 10B is that the user is holding the display device 10 downward. It is an example of a display when it is detected. The first images I13 and I14 differ from the first display example in that the development direction is the vertical direction. In addition, the first image I13 is displayed on the upper side than the first image I14, and the first image I14 is displayed on the lower side than the first image I13.

図11は、第2の画像の表示例を示す図であり、第1の表示例において項目Bが選択(すなわち指示)された場合を例示する図である。図11(a)において、第2の画像I21は、「B1」、「B2」、「B3」、「B4」で表される4つの項目に相当する領域を有する。これらの項目は、項目Bが“電子メール”あれば、例えば、「B1」が“(電子メールの)新規作成”、「B2」が“(電子メールの)受信”、「B3」が“(電子メールの)送信”、などといった具合である。この表示例において、第2の画像I21は、第1の画像I11と異なる方向に展開されている。   FIG. 11 is a diagram illustrating a display example of the second image, and illustrates a case where item B is selected (that is, instructed) in the first display example. In FIG. 11A, the second image I21 has areas corresponding to four items represented by “B1”, “B2”, “B3”, and “B4”. For example, if item B is “e-mail”, for example, “B1” is “newly created (e-mail)”, “B2” is “received (e-mail)”, and “B3” is “( For example, “send email”. In this display example, the second image I21 is developed in a direction different from that of the first image I11.

図11(b)及び図11(c)は、第2の画像の展開の態様をユーザの持ち手に応じて異ならせた表示例である。図11(b)に示す第2の画像I22は、各々の項目が項目Bから遠くなるに従って左寄りになるように展開されるものであり、図11(c)に示す第2の画像I23は、各々の項目が項目Bから遠くなるに従って右寄りになるように展開されるものである。第2の画像I22は、第2の画像I21と比較すると、左手で持った場合に、ユーザが母指を伸ばさなくても(あるいは母指が比較的短いユーザであっても)、項目Bからより遠い項目(例えば項目B4)を指示しやすいように各項目が表示されている。したがって、第2の画像I22は、第2の画像I21と比較した場合に、ユーザが項目B4をより指示しやすいようになっている。   FIG. 11B and FIG. 11C are display examples in which the manner in which the second image is developed differs depending on the user's handle. The second image I22 shown in FIG. 11 (b) is developed so that each item is shifted to the left as it gets farther from the item B. The second image I23 shown in FIG. Each item is developed so as to become to the right as it is farther from item B. Compared with the second image I21, the second image I22 is obtained from the item B even if the user does not extend the thumb (or the user with a relatively short thumb) when held with the left hand. Each item is displayed so that it is easy to specify a farther item (for example, item B4). Therefore, when compared with the second image I21, the second image I22 makes it easier for the user to specify the item B4.

なお、制御部110は、ユーザの上下方向の保持位置に応じて第2の画像の表示態様を異ならせてもよい。
図12は、第2の画像の上下方向の位置を異ならせた表示例を示す図である。図12(a)において、第1の画像I15は、第1の画像I11よりも上方に表示されている画像であり、ユーザが図11(a)の表示例の場合よりも表示装置10の上寄りを保持している場合に表示される画像である。このとき、第2の画像I24は、上方向ではなく下方向に展開される。なお、制御部110は、図12(b)に示す第2の画像I251及びI252のように、一部の項目を上方向に展開させ、残りの項目を下方向に展開させてもよい。
Note that the control unit 110 may change the display mode of the second image according to the holding position in the vertical direction of the user.
FIG. 12 is a diagram illustrating a display example in which the vertical position of the second image is changed. In FIG. 12A, the first image I15 is an image that is displayed above the first image I11, and the user is above the display device 10 than in the display example of FIG. It is an image displayed when a shift is held. At this time, the second image I24 is developed not in the upward direction but in the downward direction. Note that the control unit 110 may expand some items upward and expand the remaining items downward as in the second images I251 and I252 illustrated in FIG.

以上のとおり、表示装置10は、ユーザによる持ち方を検知し、検知した持ち方に応じた表示態様で第1の画像や第2の画像を表示することを可能にする。すなわち、表示装置10によれば、第1の画像や第2の画像の表示態様(すなわちUI)をワンパターンにさせずに、ユーザの手の大きさ、利き手、癖などに応じたものにすることが可能であり、各々のユーザにおける使い勝手を向上させることを期待できる。表示装置10は、特に、ユーザがこれを片手で持つ場合に効果が期待できる。   As described above, the display device 10 can detect how the user holds the image, and can display the first image and the second image in a display mode corresponding to the detected method. In other words, according to the display device 10, the display mode (that is, UI) of the first image and the second image is not set to one pattern, but according to the size of the user's hand, the dominant hand, the eyelid, etc. It is possible to improve the usability for each user. The display device 10 can be expected to be particularly effective when the user holds it with one hand.

なお、本実施形態で説明された表示制御は、表示装置10において常に実行されることが求められるものではなく、必要に応じて実行されればよい。例えば、表示装置10は、ユーザによる持ち方をパターン化して記憶し、ある程度のパターンが蓄積された後には、蓄積されたパターンに応じた表示を行うことも可能である。具体的には、例えば、あるユーザが表示装置10をほぼ毎回右手で持つ場合には、右手用の第1の画像及び第2の画像を表示する、といった態様が考えられる。また、表示装置10は、持ち方の検知の有無をユーザが設定できる機能を設け、持ち方に応じた表示制御をユーザが必要とする場合に限って行うようにしてもよい。   Note that the display control described in the present embodiment is not always required to be executed in the display device 10, and may be executed as necessary. For example, the display device 10 can store how the user holds it in a pattern, and can display according to the accumulated pattern after a certain amount of pattern is accumulated. Specifically, for example, when a certain user holds the display device 10 with the right hand almost every time, a mode in which the first image and the second image for the right hand are displayed is conceivable. Further, the display device 10 may be provided with a function that allows the user to set whether or not the holding method is detected, and may be performed only when the user needs display control according to the holding method.

[第2実施形態]
図13は、本発明の実施の一形態であって、上述した第1実施形態と異なる形態である表示装置の外観を正面から示す図である。本実施形態の表示装置20は、上述した表示装置10と同様の表示面21Dを有する筐体21と、複数のキー22Kを有する筐体22とを備えるものである。すなわち、表示装置20は、ユーザの操作を受け付ける手段として、タッチスクリーンに加えてキー22Kを備える点が表示装置10と相違するものである。よって、本実施形態においては、「操作」には表示面21Dへの指示とキー22Kの選択による指示とが含まれ、この点が第1実施形態と相違する。なお、キー22Kは、操作子の一例であり、レバーやスイッチなどに代替可能である。また、筐体21と筐体22とは、その連結部分においてヒンジ等によって折り畳み可能に構成されていてもよいし、着脱が可能であってもよい。また、筐体21と筐体22とは、一体に構成されていてもよいし、一方が他方に重なるようにスライドする構成であってもよい。
[Second Embodiment]
FIG. 13 is a diagram showing an external appearance of a display device, which is an embodiment of the present invention and is different from the above-described first embodiment, from the front. The display device 20 of the present embodiment includes a housing 21 having a display surface 21D similar to the display device 10 described above, and a housing 22 having a plurality of keys 22K. That is, the display device 20 is different from the display device 10 in that it includes a key 22K in addition to the touch screen as a means for receiving a user operation. Therefore, in the present embodiment, the “operation” includes an instruction to the display surface 21D and an instruction by selecting the key 22K, which is different from the first embodiment. The key 22K is an example of an operator, and can be replaced with a lever, a switch, or the like. Moreover, the housing | casing 21 and the housing | casing 22 may be comprised by the hinge etc. so that folding is possible in the connection part, and attachment or detachment may be possible. Moreover, the housing | casing 21 and the housing | casing 22 may be comprised integrally, and the structure which slides so that one may overlap with the other may be sufficient.

また、表示装置20は、筐体21にセンサ面21Sを有し、筐体22にセンサ面22Sを有する。センサ面21Sは、筐体21の背面にあってもよいし、側面にあってもよい。これは、センサ面22Sについても同様である。なお、本実施形態においては、ユーザが筐体21を左手側に持ち、筐体22を右手側に持つことを想定する。また、センサ面21S及び22Sの具体的な構造は、第1実施形態のセンサ面11S1及び11S2と同様である。したがって、センサ面21S及び22Sも、複数の検知領域を有する。 In addition, the display device 20 includes a sensor surface 21 </ b> S on the housing 21 and a sensor surface 22 </ b> S on the housing 22. The sensor surface 21S may be on the back surface of the housing 21 or on the side surface. The same applies to the sensor surface 22S. In the present embodiment, it is assumed that the user holds the casing 21 on the left hand side and the casing 22 on the right hand side. The specific structures of the sensor surfaces 21S and 22S are the same as the sensor surfaces 11S 1 and 11S 2 of the first embodiment. Accordingly, the sensor surfaces 21S and 22S also have a plurality of detection areas.

図14は、表示装置20のハードウェア構成を示すブロック図である。表示装置20は、制御部210と、記憶部220と、表示部230と、第1検知部240と、第2検知部250と、操作部260とを備える。なお、表示装置20が有する各部は、第1実施形態の表示装置10と名称が同一のものについては、第1実施形態の該当する部分と共通する機能を有する。よって、かかる共通の部分については、その説明が適宜省略される。表示装置20は、操作部260を有する点が表示装置10と異なる。操作部260は、複数のキー22Kを有し、ユーザの操作(すなわち指示)を受け付ける。操作部260は、ユーザの操作に応じた情報(以下「キー情報」という。)を制御部210に供給する。   FIG. 14 is a block diagram illustrating a hardware configuration of the display device 20. The display device 20 includes a control unit 210, a storage unit 220, a display unit 230, a first detection unit 240, a second detection unit 250, and an operation unit 260. In addition, each part which the display apparatus 20 has the function which is common in the part to which 1st Embodiment corresponds about the thing with the same name as the display apparatus 10 of 1st Embodiment. Therefore, description of such common parts is omitted as appropriate. The display device 20 is different from the display device 10 in that the operation device 260 is provided. The operation unit 260 includes a plurality of keys 22K and receives user operations (that is, instructions). The operation unit 260 supplies information corresponding to the user operation (hereinafter referred to as “key information”) to the control unit 210.

図15は、制御部210が実現する機能を示す機能ブロック図である。制御部210は、プログラムを実行することにより、同図に示す第1判定部211、第2判定部212、受付部213、切替部214及び処理実行部215に相当する機能を実現する。第1判定部211は、第1検知部240から供給される第1の検知情報を取得し、ユーザの筐体21及び22の持ち方を判定する。第2判定部212は、第2検知部250から供給される第2の検知情報を取得し、表示面21Dのうちのユーザにより指示された位置を判定する。第1判定部211及び第2判定部212は、判定結果を切替部214に供給する。受付部213は、操作部260からキー情報を取得し、キー情報を切替部214に供給する。   FIG. 15 is a functional block diagram illustrating functions realized by the control unit 210. The control unit 210 implements functions corresponding to the first determination unit 211, the second determination unit 212, the reception unit 213, the switching unit 214, and the process execution unit 215 illustrated in FIG. The first determination unit 211 acquires the first detection information supplied from the first detection unit 240 and determines how the user's casings 21 and 22 are held. The second determination unit 212 acquires the second detection information supplied from the second detection unit 250, and determines the position indicated by the user on the display surface 21D. The first determination unit 211 and the second determination unit 212 supply the determination result to the switching unit 214. The accepting unit 213 acquires key information from the operation unit 260 and supplies the key information to the switching unit 214.

切替部214は、第1判定部211、第2判定部212及び受付部213から供給される情報を用いて、表示面21Dとキー22Kのいずれからの操作を受け付けるかを切り替える。すなわち、切替部214は、表示面21D及びキー22Kの有効・無効を切り替える。そして、切替部214は、有効な操作のみが処理実行部215に反映されるように情報の伝達を制御する。処理実行部215は、切替部214から供給される情報に応じた処理を実行する。処理実行部215が実行する処理には、上述した処理実行部114が実行する処理と同様の処理に加え、表示部230の表示制御が含まれる。   Using the information supplied from the first determination unit 211, the second determination unit 212, and the reception unit 213, the switching unit 214 switches whether to accept an operation from the display surface 21D or the key 22K. That is, the switching unit 214 switches between valid / invalid of the display surface 21D and the key 22K. Then, the switching unit 214 controls the transmission of information so that only valid operations are reflected in the process execution unit 215. The process execution unit 215 executes a process according to the information supplied from the switching unit 214. The process executed by the process execution unit 215 includes display control of the display unit 230 in addition to the same process as the process executed by the process execution unit 114 described above.

表示装置20の構成は、以上のとおりである。表示装置20は、かかる構成のもと、表示面21Dとキー22Kの双方で受け付けることが可能な操作を受け付けるUIを、ユーザが表示装置20のどの位置を持っているか(特に、筐体21と筐体22のいずれを主として持っているか)に応じて切り替える。表示装置20は、具体的には、ユーザが筐体21を片手で持っている場合には、表示面21Dによる操作を有効にし、ユーザが筐体22を片手で持っている場合には、表示面22Kによる操作を有効にする。   The configuration of the display device 20 is as described above. With this configuration, the display device 20 has a UI on the display device 20 that accepts an operation that can be accepted by both the display surface 21D and the key 22K. Switching according to which of the housings 22 is mainly held. Specifically, the display device 20 enables the operation by the display surface 21D when the user holds the casing 21 with one hand, and displays when the user holds the casing 22 with one hand. The operation by the surface 22K is validated.

図16は、制御部210が実行する処理を示すフローチャートである。制御部210は、まず、第1検知部240により供給される第1の検知情報に基づき、ユーザが表示装置20を持っているか否かを判断する(ステップSa1)。また、制御部210は、ユーザが表示装置20を持っていると判断すると、持ち方の判定を所定の時間待機する(ステップSa2)。ここまでの処理は、第1実施形態(図5参照)と同様のものである。   FIG. 16 is a flowchart illustrating processing executed by the control unit 210. First, the control unit 210 determines whether or not the user has the display device 20 based on the first detection information supplied by the first detection unit 240 (step Sa1). If the control unit 210 determines that the user has the display device 20, the control unit 210 waits for a predetermined time for determination of how to hold the display device 20 (step Sa2). The processing so far is the same as that in the first embodiment (see FIG. 5).

制御部210は、待機時間が終了すると、ユーザによる表示装置20の持ち方を判定する(ステップSa3)。本実施形態において、制御部210は、例えば、センサ面21Sとセンサ面22Sのいずれの検出領域がより多くの接触を検出しているかによって、ユーザが筐体21と筐体22のいずれを主として持っているのかを判定する。また、制御部210は、この判定結果に基づいて、表示面21Dとキー22Kの一方による入力を有効にし、他方を無効にするようにUIの切り替えを行う(ステップSa4)。
なお、制御部210は、ユーザによる指示を受け付けるための画像を表示面21Dにあらかじめ表示させてもよいが、ステップSa3の判定により筐体21を持っていると判定された後にかかる画像を表示させてもよい。
When the standby time ends, the controller 210 determines how the user holds the display device 20 (step Sa3). In the present embodiment, for example, the control unit 210 has either the housing 21 or the housing 22 depending on which detection area of the sensor surface 21S or the sensor surface 22S detects more contact. It is determined whether it is. Further, based on the determination result, the control unit 210 switches the UI so that the input from one of the display surface 21D and the key 22K is validated and the other is invalidated (step Sa4).
The control unit 210 may display an image for accepting an instruction from the user on the display surface 21D in advance, but displays the image after it is determined that the housing 21 is held by the determination in step Sa3. May be.

制御部210は、ステップSa4の切り替えの後、第2の検知情報及びキー情報に基づいて、表示面21D又はキー22Kに対するユーザの指示があるか否かを判断する(ステップSa5)。制御部210は、ユーザから指示があると、当該指示を受け付けたUIが有効か否かを判断する(ステップSa6)。そして、制御部210は、指示を受け付けたUIが有効である場合には、当該指示に応じた処理を実行する(ステップSa7)。一方、制御部210は、指示を受け付けたUIが無効である場合には、当該指示を無視して、ステップSa5に戻って新たな別の指示を待機する。   After switching at Step Sa4, the controller 210 determines whether or not there is a user instruction for the display surface 21D or the key 22K based on the second detection information and the key information (Step Sa5). When receiving an instruction from the user, the control unit 210 determines whether the UI that has received the instruction is valid (step Sa6). Then, when the UI that has received the instruction is valid, the control unit 210 executes processing according to the instruction (step Sa7). On the other hand, if the UI that received the instruction is invalid, the control unit 210 ignores the instruction, returns to step Sa5, and waits for another new instruction.

図17は、本実施形態の切り替えの利用例を示す図であり、これから実行しようとする処理についてユーザの認否(YES又はNO)を確認する場合を例示したものである。この利用例において、画像IYは、ユーザが処理の実行を認める場合に行う指示を受け付けるための画像である。一方、画像INは、ユーザが処理の実行を認めない場合に行う指示を受け付けるための画像である。また、キーKYは、画像IYと同様の指示を受け付けるためのキーである。一方、キーKNは、画像INと同様の指示を受け付けるためのキーである。   FIG. 17 is a diagram illustrating an example of use of switching according to the present embodiment, and illustrates a case where the user's approval / disapproval (YES or NO) is confirmed for a process to be executed. In this usage example, the image IY is an image for accepting an instruction given when the user permits the execution of the process. On the other hand, the image IN is an image for accepting an instruction given when the user does not permit the execution of the process. The key KY is a key for accepting the same instruction as the image IY. On the other hand, the key KN is a key for receiving an instruction similar to that for the image IN.

図17の例において、表示装置20は、ユーザが筐体21を左手で持っていると検出及び判定した場合には、画像IY又はINによる指示を受け付け、キーKY又はKNによる指示を受け付けない。一方、表示装置20は、ユーザが筐体22を右手で持っていると検出及び判定した場合には、キーKY又はKNによる指示を受け付け、画像IY又はINによる指示を受け付けない。   In the example of FIG. 17, when the display device 20 detects and determines that the user holds the casing 21 with the left hand, the display device 20 accepts an instruction by the image IY or IN and does not accept an instruction by the key KY or KN. On the other hand, if the display device 20 detects and determines that the user holds the housing 22 with the right hand, the display device 20 accepts an instruction by the key KY or KN and does not accept an instruction by the image IY or IN.

以上のとおり、表示装置20によれば、ユーザの持ち方に応じてUIの切り替えが行われるため、ユーザが持った場所により近い(あるいは入力がより容易な)位置にあるUIが使用可能になる。また、表示装置20によれば、同じ指示を受け付けることが可能な複数のUIがある場合において、あるUIが有効になった場合には、他のUIが無効になるため、相異なるUIから同じ指示が入力されたり、あるいは相反する指示が同時に入力されるといった、本来あるべき入力と異なる入力が行われないようにすることができる。   As described above, according to the display device 20, since the UI is switched according to how the user holds the UI, it is possible to use the UI located at a position closer to the user's place (or easier to input). . Further, according to the display device 20, when there are a plurality of UIs that can accept the same instruction, when a certain UI becomes valid, the other UIs become invalid. It is possible to prevent an input that is different from the original input, such as an instruction being input or a conflicting instruction being input simultaneously.

なお、表示装置20は、表示面21Dとキー22Kの双方で受け付けることが可能な操作について、その操作の有効・無効を切り替えることを特徴とするものである。よって、表示装置20は、表示面21Dとキー22Kのいずれか一方でしか受け付けられない操作がある場合には、当該操作を受け付けることを妨げない(無効にしない)ようにしてもよい。例えば、表示装置20は、キー22Kでしか受け付けられない操作がある場合には、たとえ表示面21Dが有効で、キー22Kが無効であったとしても、当該操作を有効にする。また、例えば、電源をオフにする操作については表示面21Dとキー22Kのいずれでも有効にする、といったように、本実施形態に係る切り替えの制御に依存しない指示が存在してもよい。   Note that the display device 20 is characterized in that the operation that can be accepted by both the display surface 21D and the key 22K is switched between valid / invalid of the operation. Therefore, when there is an operation that can be accepted by only one of the display surface 21D and the key 22K, the display device 20 may not prevent (not invalidate) accepting the operation. For example, if there is an operation that can be accepted only with the key 22K, the display device 20 validates the operation even if the display surface 21D is valid and the key 22K is invalid. Further, for example, there may be an instruction that does not depend on the switching control according to the present embodiment, such as enabling the operation to turn off the power using either the display surface 21D or the key 22K.

[変形例]
上述した実施形態は、本発明の実施の一例にすぎない。本発明は、上述した実施形態に対して、以下の変形を適用することが可能である。なお、以下に示す変形例は、必要に応じて、各々を適当に組み合わせて実施されてもよいものである。同様に、第2実施形態の表示装置20に第1実施形態の表示制御を行わせたりすることも可能である。
[Modification]
The above-described embodiment is merely an example of the implementation of the present invention. The present invention can apply the following modifications to the embodiments described above. In addition, the modification shown below may be implemented combining each suitably as needed. Similarly, it is possible to cause the display device 20 of the second embodiment to perform the display control of the first embodiment.

本発明において、持ち手の判定には、圧力の大小や動きの多少を用いることも可能である。例えば、ユーザが図4に示したような持ち方をする場合には、母指を頻繁に動かすため、母指の付け根周辺の方に圧力や動きの変化が生じやすくなることが考えられる。このような場合、制御部110は、圧力や動きの変化をセンサ面11S1とセンサ面11S2とで比較し、その相違に基づいて持ち手を判定することができる。 In the present invention, it is possible to use the magnitude of the pressure or the amount of movement for the determination of the handle. For example, when the user holds as shown in FIG. 4, the thumb is frequently moved, so that it is considered that changes in pressure and movement are likely to occur near the base of the thumb. In such a case, the control unit 110 can compare changes in pressure and movement between the sensor surface 11S 1 and the sensor surface 11S 2 and determine a handle based on the difference.

本発明において、表示面を指示するものは、指でなくともよい。本発明は、例えば、指先に指示用の器具を装着し、この器具を介して操作を行うことも可能である。なお、本発明は、かかる器具が光や磁気を発するものであれば、その光や磁気を検出することによって指示位置を特定するものであってもよい。   In the present invention, what designates the display surface may not be a finger. In the present invention, for example, an instruction device can be attached to the fingertip, and the operation can be performed via this device. In the present invention, if the instrument emits light or magnetism, the pointing position may be specified by detecting the light or magnetism.

なお、本発明は、スマートフォンや携帯電話機に限らず、その他の表示装置に適用することが可能である。例えば、本発明は、タッチスクリーンを用いて操作するものであれば、デジタルスチルカメラ、音楽プレーヤ、ゲーム機、電子機器のリモートコンロトーラなどにも適用することができる。   Note that the present invention is not limited to smartphones and mobile phones, and can be applied to other display devices. For example, the present invention can be applied to a digital still camera, a music player, a game machine, a remote controller of an electronic device, and the like as long as the operation is performed using a touch screen.

また、本発明は、タッチスクリーン等を有する表示装置のコンピュータ(CPU等)に本発明を実現させるためのプログラムや、かかるプログラムを記憶させた光ディスク等の記録媒体としても特定され得る。本発明に係るプログラムは、インターネット等のネットワークを介して、表示装置にダウンロードさせ、これをインストールして利用可能にするなどの形態でも提供され得る。   The present invention can also be specified as a program for realizing the present invention on a computer (CPU or the like) of a display device having a touch screen or the like, or a recording medium such as an optical disk storing such a program. The program according to the present invention may be provided in a form such that the program is downloaded to a display device via a network such as the Internet, and the program is installed and made available.

10、20…表示装置、11、21、22…筐体、11D、21D…表示面、11S1、11S2、21S、22S…センサ面、22K…キー、110、210…制御部、111、211…第1判定部、112、212…第2判定部、113…表示制御部、114、215…処理実行部、213…受付部、214…切替部、120、220…記憶部、130、230…表示部、140、240…第1検知部、150、250…第2検知部、260…操作部 10, 20 ... display unit, 11, 21, and 22 ... housing, 11D, 21D ... display surface, 11S 1, 11S 2, 21S , 22S ... sensor surface, 22K ... key, 110, 210 ... control unit, 111, 211 ... 1st judgment part, 112, 212 ... 2nd judgment part, 113 ... Display control part, 114, 215 ... Processing execution part, 213 ... Reception part, 214 ... Switching part, 120, 220 ... Storage part, 130, 230 ... Display unit, 140, 240 ... first detection unit, 150, 250 ... second detection unit, 260 ... operation unit

Claims (6)

筐体と、
前記筐体の一部の面である表示面に画像を表示する表示部と、
前記筐体のうちの前記表示面が設けられていない部分に設けられ、ユーザによる前記筐体の持ち方を検知する第1検知部と、
前記表示面のうちの前記ユーザにより指示された位置を検知する第2検知部と、
前記第1検知部及び前記第2検知部による検知結果に応じた制御を行う制御部とを備え、
前記制御部が、
前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御し、
前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行する
ことを特徴とする表示装置。
A housing,
A display unit for displaying an image on a display surface which is a part of the housing;
A first detection unit that is provided in a portion of the housing where the display surface is not provided and detects how the user holds the housing;
A second detection unit for detecting a position instructed by the user on the display surface;
A control unit that performs control according to a detection result by the first detection unit and the second detection unit,
The control unit is
In accordance with the holding method detected by the first detection unit, the display mode of the first image that is displayed on the display surface of the display unit and receives the instruction by the user is controlled,
The display apparatus characterized by performing the process according to the position detected by the said 2nd detection part of the 1st image displayed on the said display part.
前記第1検知部は、前記ユーザが前記筐体を右手で持つ第1の持ち方と、前記ユーザが前記筐体を左手で持つ第2の持ち方とを検知し、
前記制御部は、前記第1の画像の表示態様を、前記第1の持ち方と前記第2の持ち方とで異ならせる
ことを特徴とする請求項1に記載の表示装置。
The first detection unit detects a first way the user holds the casing with a right hand and a second way the user holds the casing with a left hand;
The display device according to claim 1, wherein the control unit changes a display mode of the first image between the first holding method and the second holding method.
前記制御部は、
前記第1の画像を、決められた方向に展開するように表示される画像として表示し、
前記第1の画像が展開される方向を、前記第1の持ち方と前記第2の持ち方とで異ならせる
ことを特徴とする請求項2に記載の表示装置。
The controller is
Displaying the first image as an image displayed so as to expand in a determined direction;
The display device according to claim 2, wherein a direction in which the first image is developed is different between the first holding method and the second holding method.
前記制御部は、
前記第1の画像を、複数の項目に相当する領域を有する画像として表示し、
前記第2検知部により検知された位置に対応する前記項目に従って表示される第2の画像の表示態様を、前記第1検知部により検知された持ち方に応じて制御する
ことを特徴とする請求項3に記載の表示装置。
The controller is
Displaying the first image as an image having areas corresponding to a plurality of items;
The display mode of the second image displayed according to the item corresponding to the position detected by the second detection unit is controlled according to the way of holding detected by the first detection unit. Item 4. The display device according to Item 3.
前記第1検知部は、前記ユーザによる接触を検知する検知領域を前記表示面の所定方向に沿うように複数有し、
前記制御部は、前記第1の画像の前記所定方向についての表示位置を前記第1検知部により接触が検知された検知領域に応じて制御する
ことを特徴とする請求項1ないし4のいずれかに記載の表示装置。
The first detection unit has a plurality of detection regions for detecting contact by the user so as to follow a predetermined direction of the display surface,
5. The control unit according to claim 1, wherein the control unit controls the display position of the first image in the predetermined direction in accordance with a detection area in which contact is detected by the first detection unit. The display device described in 1.
筐体と、
前記筐体の一部の面である表示面に画像を表示する表示部と、
前記筐体のうちの前記表示面が設けられていない部分に設けられ、前記ユーザによる前記筐体の持ち方を検知する第1検知部と、
前記表示面のうちのユーザにより指示された位置を検知する第2検知部と
を備える表示装置のコンピュータに、
前記第1検知部により検知された持ち方に応じて、前記表示部の前記表示面に表示されて前記ユーザによる前記指示を受け付ける第1の画像の表示態様を制御するステップと、
前記表示部に表示された第1の画像の前記第2検知部により検知された位置に応じた処理を実行するステップと
を実行させるプログラム。
A housing,
A display unit for displaying an image on a display surface which is a part of the housing;
A first detection unit that is provided in a portion of the casing where the display surface is not provided and detects how the user holds the casing;
A computer of a display device comprising: a second detection unit that detects a position instructed by a user on the display surface;
Controlling a display mode of a first image that is displayed on the display surface of the display unit and accepts the instruction by the user in accordance with the holding method detected by the first detection unit;
Executing a process according to a position detected by the second detection unit of the first image displayed on the display unit.
JP2010023145A 2010-02-04 2010-02-04 Display device and program Active JP5411733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023145A JP5411733B2 (en) 2010-02-04 2010-02-04 Display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023145A JP5411733B2 (en) 2010-02-04 2010-02-04 Display device and program

Publications (2)

Publication Number Publication Date
JP2011164676A true JP2011164676A (en) 2011-08-25
JP5411733B2 JP5411733B2 (en) 2014-02-12

Family

ID=44595333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023145A Active JP5411733B2 (en) 2010-02-04 2010-02-04 Display device and program

Country Status (1)

Country Link
JP (1) JP5411733B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117915A (en) * 2011-12-05 2013-06-13 Nikon Corp Electronic apparatus
JP2013235468A (en) * 2012-05-10 2013-11-21 Fujitsu Ltd Mobile terminal and mobile terminal cover
KR20140082760A (en) * 2011-09-30 2014-07-02 마이크로소프트 코포레이션 Omni-spatial gesture input
KR20150008118A (en) * 2012-04-23 2015-01-21 후아웨이 디바이스 컴퍼니 리미티드 Method for automatically switching handheld modes and wireless handheld device
JP2015102943A (en) * 2013-11-22 2015-06-04 富士通株式会社 Portable device, screen display program, and screen display method
JP2016521021A (en) * 2013-03-14 2016-07-14 クアルコム,インコーポレイテッド User detection system and low power voice command activation method in wireless communication system
JP2017045091A (en) * 2015-08-24 2017-03-02 京セラ株式会社 Electronic device, control program, and electronic device operation method
JP2017510868A (en) * 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー Grip state detection
US9785278B2 (en) 2013-08-22 2017-10-10 Sharp Kabushiki Kaisha Display device and touch-operation processing method
US9870081B2 (en) 2013-08-22 2018-01-16 Sharp Kabushiki Kaisha Display device and touch-operation processing method
US20190332220A1 (en) * 2016-12-12 2019-10-31 Microsoft Technology Licensing, Llc Apparatus and method of adjusting power mode of a display of a device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282115A (en) * 1992-02-07 1993-10-29 Internatl Business Mach Corp <Ibm> Method and device for menu display
JP2007122287A (en) * 2005-10-26 2007-05-17 Sharp Corp Information processor, hierarchical information output method, and program
JP2008027183A (en) * 2006-07-21 2008-02-07 Sharp Corp Information processor
JP2008152441A (en) * 2006-12-15 2008-07-03 Hitachi Software Eng Co Ltd Character data input device
JP2008165451A (en) * 2006-12-28 2008-07-17 Sharp Corp Display device-integrated input device
JP2009110286A (en) * 2007-10-30 2009-05-21 Toshiba Corp Information processor, launcher start control program, and launcher start control method
JP2009163278A (en) * 2007-12-21 2009-07-23 Toshiba Corp Portable device
JP2009169820A (en) * 2008-01-18 2009-07-30 Panasonic Corp Mobile terminal
JP2009294725A (en) * 2008-06-02 2009-12-17 Toshiba Corp Mobile terminal

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282115A (en) * 1992-02-07 1993-10-29 Internatl Business Mach Corp <Ibm> Method and device for menu display
JP2007122287A (en) * 2005-10-26 2007-05-17 Sharp Corp Information processor, hierarchical information output method, and program
JP2008027183A (en) * 2006-07-21 2008-02-07 Sharp Corp Information processor
JP2008152441A (en) * 2006-12-15 2008-07-03 Hitachi Software Eng Co Ltd Character data input device
JP2008165451A (en) * 2006-12-28 2008-07-17 Sharp Corp Display device-integrated input device
JP2009110286A (en) * 2007-10-30 2009-05-21 Toshiba Corp Information processor, launcher start control program, and launcher start control method
JP2009163278A (en) * 2007-12-21 2009-07-23 Toshiba Corp Portable device
JP2009169820A (en) * 2008-01-18 2009-07-30 Panasonic Corp Mobile terminal
JP2009294725A (en) * 2008-06-02 2009-12-17 Toshiba Corp Mobile terminal

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981822B1 (en) * 2011-09-30 2019-05-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Omni-spatial gesture input
KR20140082760A (en) * 2011-09-30 2014-07-02 마이크로소프트 코포레이션 Omni-spatial gesture input
JP2014531688A (en) * 2011-09-30 2014-11-27 マイクロソフト コーポレーション Omni-directional gesture input
JP2013117915A (en) * 2011-12-05 2013-06-13 Nikon Corp Electronic apparatus
KR101665414B1 (en) * 2012-04-23 2016-10-12 후아웨이 디바이스 컴퍼니 리미티드 Method and wireless handheld device for automatically switching handheld mode
JP2015515698A (en) * 2012-04-23 2015-05-28 ▲華▼▲為▼▲終▼端有限公司 Method and wireless handheld device for automatically switching handheld modes
KR20150008118A (en) * 2012-04-23 2015-01-21 후아웨이 디바이스 컴퍼니 리미티드 Method for automatically switching handheld modes and wireless handheld device
US10282073B2 (en) 2012-04-23 2019-05-07 Huawei Device Co., Ltd. Method and wireless handheld device for automatically switching handheld mode
EP2833607B1 (en) * 2012-04-23 2020-01-08 Huawei Device Co., Ltd. Method for automatically switching handheld modes and wireless handheld device
JP2013235468A (en) * 2012-05-10 2013-11-21 Fujitsu Ltd Mobile terminal and mobile terminal cover
JP2016521021A (en) * 2013-03-14 2016-07-14 クアルコム,インコーポレイテッド User detection system and low power voice command activation method in wireless communication system
US9785278B2 (en) 2013-08-22 2017-10-10 Sharp Kabushiki Kaisha Display device and touch-operation processing method
US9870081B2 (en) 2013-08-22 2018-01-16 Sharp Kabushiki Kaisha Display device and touch-operation processing method
JP2015102943A (en) * 2013-11-22 2015-06-04 富士通株式会社 Portable device, screen display program, and screen display method
JP2017510868A (en) * 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー Grip state detection
JP2017045091A (en) * 2015-08-24 2017-03-02 京セラ株式会社 Electronic device, control program, and electronic device operation method
US20190332220A1 (en) * 2016-12-12 2019-10-31 Microsoft Technology Licensing, Llc Apparatus and method of adjusting power mode of a display of a device

Also Published As

Publication number Publication date
JP5411733B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP5411733B2 (en) Display device and program
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
KR101452038B1 (en) Mobile device and display controlling method thereof
KR101701492B1 (en) Terminal and method for displaying data thereof
US7783789B2 (en) Apparatus with programmable touch screen and method thereof
CN104932809B (en) Apparatus and method for controlling display panel
EP2354904A2 (en) Multi-display device and method for controlling the same
US20090164930A1 (en) Electronic device capable of transferring object between two display units and controlling method thereof
KR20180134668A (en) Mobile terminal and method for controlling the same
US20150160842A1 (en) Electronic device and controlling method and program therefor
JP6940353B2 (en) Electronics
JP2010039772A (en) Input operation device
JP5780438B2 (en) Electronic device, position designation method and program
CN109683763A (en) A kind of icon moving method and mobile terminal
TWI659353B (en) Electronic apparatus and method for operating thereof
US9377944B2 (en) Information processing device, information processing method, and information processing program
US20200089362A1 (en) Device and control method capable of touch sensing and touch pressure sensing
TW201331812A (en) Electronic apparatus and method for controlling the same
JP2005301668A (en) Information processor and information processing program
US20130159934A1 (en) Changing idle screens
JP5628991B2 (en) Display device, display method, and display program
JP5057115B2 (en) Terminal device and program
JP6122355B2 (en) Mobile terminal device
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
JP6213467B2 (en) Terminal device, display control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131108

R150 Certificate of patent or registration of utility model

Ref document number: 5411733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250