JP5994428B2 - Programs and mobile devices - Google Patents

Programs and mobile devices Download PDF

Info

Publication number
JP5994428B2
JP5994428B2 JP2012142750A JP2012142750A JP5994428B2 JP 5994428 B2 JP5994428 B2 JP 5994428B2 JP 2012142750 A JP2012142750 A JP 2012142750A JP 2012142750 A JP2012142750 A JP 2012142750A JP 5994428 B2 JP5994428 B2 JP 5994428B2
Authority
JP
Japan
Prior art keywords
posture
display
display unit
object image
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012142750A
Other languages
Japanese (ja)
Other versions
JP2014006761A (en
Inventor
弘和 佐藤
弘和 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012142750A priority Critical patent/JP5994428B2/en
Publication of JP2014006761A publication Critical patent/JP2014006761A/en
Application granted granted Critical
Publication of JP5994428B2 publication Critical patent/JP5994428B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本願は、画像を表示部に表示させるプログラムおよび携帯端末に関する。   The present application relates to a program for displaying an image on a display unit and a portable terminal.

特許文献1には、画像再生時に画像データに付された画像の姿勢情報と携帯端末の姿勢情報とに基づき、液晶モニタに表示される画像の上下が重力方向の上下と一致するように、液晶モニタの表示を制御する技術が開示されている。また、携帯端末の姿勢がポートレートモードかランドスケープモードかによって、液晶モニタに表示される複数のボタン画像等のレイアウトを適宜に調整することが行われている。ポートレートモードとは、液晶モニタの短辺が水平方向に伸び、長辺が垂直方向に伸びる配置をした場合に、液晶モニタの表示面に正対したユーザが表示内容を正しく見ることができるモードである。ランドスケープモードとは、液晶モニタの長辺が水平方向に伸び、短辺が垂直方向に伸びる配置をした場合に、液晶モニタの表示面に正対したユーザが表示内容を正しく見ることができるモードである。   Japanese Patent Application Laid-Open No. 2005-228867 describes a liquid crystal display based on the posture information of an image attached to image data at the time of image reproduction and the posture information of the mobile terminal so that the vertical direction of the image displayed on the liquid crystal monitor coincides with the vertical direction of the gravity direction. A technique for controlling display on a monitor is disclosed. Further, the layout of a plurality of button images displayed on the liquid crystal monitor is appropriately adjusted depending on whether the mobile terminal is in portrait mode or landscape mode. Portrait mode is a mode in which the user who is facing the LCD monitor's display screen can correctly view the display contents when the LCD monitor is arranged so that the short side extends in the horizontal direction and the long side extends in the vertical direction. It is. The landscape mode is a mode that allows the user who is facing the LCD monitor's display screen to correctly view the display contents when the LCD monitor is arranged so that the long side extends in the horizontal direction and the short side extends in the vertical direction. is there.

特開2006−27017号公報JP 2006-27017 A

ユーザは、両手で操作する態様、右手のみで操作する態様、左手のみで操作する態様など、様々な態様で携帯端末を操作する。そして、用いる操作態様によって、携帯端末の液晶モニタ上に指先が届く範囲や、入力可能な操作の種類が異なる。すると、用いる操作態様によっては、操作性が低下してしまう場合がある。本明細書では、このような不便性を解消することができる技術を提供する。   The user operates the mobile terminal in various modes such as a mode operated with both hands, a mode operated only with the right hand, and a mode operated only with the left hand. The range in which the fingertip can reach on the liquid crystal monitor of the portable terminal and the types of operations that can be input vary depending on the operation mode used. Then, depending on the operation mode to be used, the operability may be reduced. In this specification, the technique which can eliminate such inconvenience is provided.

本明細書に記載されているプログラムは、携帯端末自身の姿勢に基づくセンサ情報を出力するセンサ情報出力部と、表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、を備えた携帯端末のコンピュータが読み取り可能なプログラムであって、コンピュータを、センサ情報出力部が出力するセンサ情報が示す携帯端末の姿勢がポートレート姿勢である場合には、表示部を備える面とは反対の面に掌をあて、筐体の一方の長辺側から親指を指示体として表示部に接触させる場合に指示体による入力操作を適切に受け付けることができる態様である第1態様で、各種の処理の実行開始命令を受け付けるためのオブジェクト画像を表示部に表示させ、センサ情報が示す携帯端末の姿勢がランドスケープ姿勢である場合には、第1態様で、オブジェクト画像を表示部に表示させない第1表示制御手段と、第1態様でオブジェクト画像が表示されている場合には、座標検出部によって検出される指示座標がオブジェクト画像に対応する座標である場合に、当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行し、第1態様でオブジェクト画像が表示されていない場合には、指示座標が予め定められた所定の入力態様で入力されることに応じて、所定の入力態様に対応するオブジェクト画像に割り当てられている処理と同様の処理を実行する第1処理実行手段と、して機能させることを特徴とする。   The program described in this specification includes a sensor information output unit that outputs sensor information based on the attitude of the mobile terminal itself, and indication coordinates that are coordinates indicating a position where the indicator contacts the display area of the display unit. A computer that can be read by a computer of a mobile terminal equipped with a coordinate detection unit that detects the computer, and when the attitude of the mobile terminal indicated by the sensor information output from the sensor information output unit is a portrait attitude A mode in which an input operation by an indicator can be appropriately received when a palm is placed on a surface opposite to the surface provided with the display unit and the thumb is used as an indicator from one long side of the housing. In the first aspect, the object image for accepting the execution start instruction of various processes is displayed on the display unit, and the attitude of the mobile terminal indicated by the sensor information is a landscape figure. In the first mode, the first display control means that does not display the object image on the display unit, and the instruction coordinates detected by the coordinate detection unit when the object image is displayed in the first mode. Is a coordinate corresponding to the object image, the process in which the designated coordinate is assigned to the corresponding object image is executed, and when the object image is not displayed in the first mode, the designated coordinate is determined in advance. And a first process execution unit that performs the same process as the process assigned to the object image corresponding to the predetermined input mode in response to being input in the predetermined input mode. Features.

本明細書に記載されているプログラムでは、携帯端末の姿勢に応じて、オブジェクト画像の表示態様を、携帯端末が片手で操作される場合に入力操作を適切に受け付けることができる態様である第1態様と、第1態様以外の態様との間で、変化させることができる。これにより、携帯端末を片手で操作しやすいポートレート姿勢の場合には、親指を指示体とした入力操作を適切に受け付けることが可能となる。また、携帯端末を両手で操作しやすいランドスケープ姿勢の場合には、オブジェクト画像に代えて、指示座標の所定の入力態様によって、各種の処理の実行命令を受け付けることができる。これにより、オブジェクト画像の表示を省略することが可能となるため、表示部の表示領域を有効に使用することができる。以上より、片手操作の場合と両手操作の場合との違いに応じてオブジェクト画像のレイアウトを調整することができるため、ユーザの操作性を高めることができる。   In the program described in the present specification, the display mode of the object image is a mode that can appropriately accept an input operation when the mobile terminal is operated with one hand according to the attitude of the mobile terminal. It can change between an aspect and aspects other than a 1st aspect. Thereby, in the portrait posture in which the mobile terminal can be easily operated with one hand, it is possible to appropriately accept an input operation using the thumb as an indicator. Further, in a landscape posture in which the mobile terminal can be easily operated with both hands, execution commands for various processes can be accepted according to a predetermined input mode of designated coordinates instead of the object image. Thereby, the display of the object image can be omitted, so that the display area of the display unit can be used effectively. As described above, since the layout of the object image can be adjusted according to the difference between the case of one-handed operation and the case of two-handed operation, user operability can be improved.

携帯端末を片手のみで操作する場合には、筐体の他方の辺に人差し指から小指を添え、筐体の一方の辺から親指を表示部へ伸ばすようにして操作する場合が多い。この場合、親指の指先が表示部の中央まで届かない場合がある。本明細書に記載のプログラムによれば、携帯端末が片手で操作される場合には、オブジェクト画像を筐体の一方の長辺に近い位置に表示させることができる。これにより、指先が届き易い位置にオブジェクト画像を表示することができるため、ユーザの操作性を高めることができる。 When the portable terminal is operated with only one hand, it is often operated by attaching a pinky finger from the index finger to the other side of the casing and extending a thumb from one side of the casing to the display unit. In this case, the fingertip of the thumb may not reach the center of the display unit. According to the program described in this specification, when the portable terminal is operated with one hand, the object image can be displayed at a position close to one long side of the housing. Thereby, the object image can be displayed at a position where the fingertip can easily reach, so that the operability for the user can be improved.

本明細書に記載のプログラムによれば、筐体の一方の長辺に近い領域にオブジェクト画像を表示させることができるため、ユーザの操作性を高めることができる。 According to the program described in the present specification , an object image can be displayed in an area close to one long side of the casing, so that user operability can be improved.

携帯端末を両手で操作する場合には、一方の手で携帯端末を保持し、他方の手で表示部を操作する場合が多い。この場合、同時に複数の指示座標を入力することが可能となる。本明細書に記載のプログラムによれば、同時に入力された2つの指示座標間の距離の変化を用いて、各種の画像の拡縮処理を行うことができる。よって、ユーザの操作性を高めることができる。 When the portable terminal is operated with both hands, the portable terminal is often held with one hand and the display unit is operated with the other hand. In this case, a plurality of designated coordinates can be input simultaneously. According to the program described in the present specification, it is possible to perform various image enlargement / reduction processes using a change in the distance between two designated coordinates input simultaneously. Therefore, user operability can be improved.

携帯端末を片手のみで操作する場合には、両手で操作する場合に比して、表示部上で指先が届く範囲が狭くなる。本明細書に記載のプログラムによれば、携帯端末が片手で操作される場合には、両手で操作される場合よりも、文字列入力画像を小さく表示することができる。これにより、文字列入力画像の隅々まで指先が届き易くすることができるため、ユーザの操作性を高めることができる。 When the portable terminal is operated with only one hand, the range that the fingertip can reach on the display unit is narrower than when the portable terminal is operated with both hands. According to the program described in this specification, when the portable terminal is operated with one hand, the character string input image can be displayed smaller than when the portable terminal is operated with both hands. As a result, the fingertip can easily reach every corner of the character string input image, and the operability for the user can be improved.

右手のみで携帯端末を操作する場合には、右手の親指を携帯端末の右辺側から表示部へ伸ばすようにして操作する場合が多い。また、左手のみで携帯端末を操作する場合には、左手の親指を携帯端末の左辺側から表示部へ伸ばすようにして操作する場合が多い。本明細書に記載のプログラムによれば、右手のみで携帯端末が操作されている場合には、オブジェクト画像を表示部の右辺に近づくように表示する。また、左手のみで携帯端末が操作されている場合には、オブジェクト画像を表示部の左辺に近づくように表示する。これにより、オブジェクト画像へ指先が届き易くすることができるため、ユーザの操作性を高めることができる。 When operating the mobile terminal with only the right hand, the mobile terminal is often operated by extending the thumb of the right hand from the right side of the mobile terminal to the display unit. Further, when operating the mobile terminal only with the left hand, the operation is often performed by extending the thumb of the left hand from the left side of the mobile terminal to the display unit. According to the program described in this specification, when the mobile terminal is operated with only the right hand, the object image is displayed so as to approach the right side of the display unit. When the mobile terminal is operated only with the left hand, the object image is displayed so as to approach the left side of the display unit. As a result, the fingertip can easily reach the object image, and the operability for the user can be improved.

本明細書に記載のプログラムによれば、指示座標の移動範囲が表示部の右辺寄りに位置している場合には、右手のみで携帯端末が操作されている状態であると判断することができる。これは、右手のみで指示座標を移動させる操作を入力する場合には、携帯端末の右辺側から表示部へ伸ばした右手の親指を、表示部上で移動させる場合が多いためである。同様にして、指示座標の移動範囲が表示部の左辺寄りに位置している場合には、左手のみで携帯端末が操作されている状態であると判断することができる。これにより、指先が届き易い位置にオブジェクト画像を表示すること可能となるため、ユーザの操作性を高めることができる。 According to the program described in this specification, when the movement range of the designated coordinates is located closer to the right side of the display unit, it can be determined that the mobile terminal is being operated with only the right hand. . This is because, when inputting an operation for moving the designated coordinates only with the right hand, the thumb of the right hand extended from the right side of the mobile terminal to the display unit is often moved on the display unit. Similarly, when the movement range of the designated coordinates is located closer to the left side of the display unit, it can be determined that the mobile terminal is being operated with only the left hand. As a result, the object image can be displayed at a position where the fingertip can easily reach, so that the operability for the user can be improved.

本明細書に記載のプログラムによれば、表示部の下辺に対して右斜め上方向の角度を有して指示座標が移動している場合には、右手のみで携帯端末が操作されている状態であると判断することができる。これは、右手のみで指示座標を移動させる操作を入力する場合には、携帯端末の右辺側から表示部へ伸ばした右手の親指を、親指の根元を支点として動かすためである。このため、親指の指先が左辺側から右辺側へ移動するに従って、指先の位置が表示部の上方向に移動しやすい傾向がある。同様にして、表示部の下辺に対して左斜め上方向の角度を有して指示座標が移動している場合には、左手のみで携帯端末が操作されている状態であると判断することができる。これにより、指先が届き易い位置にオブジェクト画像を表示すること可能となるため、ユーザの操作性を高めることができる。 According to the program described in this specification, when the designated coordinates are moving with an angle in the upper right direction with respect to the lower side of the display unit, the portable terminal is operated only with the right hand. Can be determined. This is to move the thumb of the right hand extended from the right side of the portable terminal to the display unit using the base of the thumb as a fulcrum when inputting an operation for moving the designated coordinates with only the right hand. For this reason, as the fingertip of the thumb moves from the left side to the right side, the position of the fingertip tends to move upward in the display unit. Similarly, when the designated coordinate moves with an angle in the upper left direction with respect to the lower side of the display unit, it can be determined that the mobile terminal is being operated only with the left hand. it can. As a result, the object image can be displayed at a position where the fingertip can easily reach, so that the operability for the user can be improved.

本明細書に記載のプログラムによれば、第1の辺が右辺寄りに位置している場合には、右手のみで携帯端末が操作されている状態であると判断することができる。これは、右手のみで携帯端末を保持する場合には、重心が偏っている第1の辺が右辺となる向きが持ちやすくなるため、ユーザは、第1の辺が右辺となるように携帯端末を持つ傾向があるためである。同様にして、第1の辺が左辺寄りに位置している場合には、左手のみで携帯端末が操作されている状態であると判断することができる。これにより、指先が届き易い位置にオブジェクト画像を表示すること可能となるため、ユーザの操作性を高めることができる。 According to the program described in this specification , when the first side is located closer to the right side, it can be determined that the portable terminal is being operated only with the right hand. This is because when the mobile terminal is held only with the right hand, the first side with the biased center of gravity is likely to have an orientation in which the first side is the right side. Because there is a tendency to have. Similarly, when the first side is located closer to the left side, it can be determined that the portable terminal is being operated with only the left hand. As a result, the object image can be displayed at a position where the fingertip can easily reach, so that the operability for the user can be improved.

なお、上記のプログラムを読み取るコンピュータを備えた携帯端末も、新規で有用である。
以下に、本明細書に記載の技術の特徴を列挙する。
[特徴1]
携帯端末自身の姿勢に基づくセンサ情報を出力するセンサ情報出力部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
を備えた携帯端末のコンピュータが読み取り可能なプログラムであって、
前記コンピュータを、
前記センサ情報出力部が出力するセンサ情報が示す前記携帯端末の姿勢がポートレート姿勢である場合には、前記表示部を備える面とは反対の面に掌をあて、前記筐体の一方の長辺側から親指を前記指示体として前記表示部に接触させる場合に前記指示体による入力操作を適切に受け付けることができる態様である第1態様で、各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様で、前記オブジェクト画像を前記表示部に表示させない第1表示制御手段と、
前記第1態様で前記オブジェクト画像が表示されている場合には、前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に、当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行し、前記第1態様で前記オブジェクト画像が表示されていない場合には、前記指示座標が予め定められた所定の入力態様で入力されることに応じて、前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行する第1処理実行手段と、
して機能させることを特徴とするプログラム。
[特徴2]
前記第1表示制御手段は、前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様以外の態様で、前記オブジェクト画像を前記表示部に表示させ、
前記第1表示制御手段は、前記第1態様以外の態様での前記オブジェクト画像の表示位置に比して、前記筐体の一方の長辺に近い位置に、前記第1態様での前記オブジェクト画像を表示させることを特徴とする特徴1に記載のプログラム。
[特徴3]
前記第1表示制御手段は、前記表示部を短辺方向に3等分した部分表示部のうち、前記筐体の一方の長辺に最も近い部分表示部に、前記第1態様での前記オブジェクト画像を表示させることを特徴とする特徴1または2に記載のプログラム。
[特徴4]
前記第1表示制御手段は、前記第1態様で前記オブジェクト画像を表示させる場合には、前記表示部に表示させる画像を拡大または縮小する処理である拡縮処理の実行開始命令を受け付けるための第1オブジェクト画像を前記表示部に表示させ、
前記座標検出部は、前記第1態様で前記オブジェクト画像が表示されていない場合に、同時に2つの指示座標を検出し、
前記第1処理実行手段は、前記第1態様で前記オブジェクト画像が表示されていない場合に、2つの指示座標の間の距離が変化するという内容の前記所定の入力態様が入力されることに応じて、当該所定の入力態様に対応する第1オブジェクト画像に割り当てられている前記拡縮処理を実行することを特徴とする特徴1〜3の何れか1項に記載のプログラム。
[特徴5]
前記第1表示制御手段は、前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合には、各種の文字列の入力を受け付ける文字列入力画像を前記第1態様で表示させ、前記センサ情報が示す前記携帯端末の姿勢が前記ランドスケープ姿勢である場合には、前記文字列入力画像を前記第1態様以外の態様で表示させ、
前記文字列入力画像が前記表示部の表示面に占める面積が、前記第1態様以外の態様に比して前記第1態様の方が小さいことを特徴とする特徴1〜4の何れか1項に記載のプログラム。
[特徴6]
矩形形状の筐体と、
各種の画像を表示する表示部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
を備えた携帯端末のコンピュータが読み取り可能なプログラムであって、
前記コンピュータを、
前記表示部を備える面とは反対の面に右手の掌をあて、前記筐体の右辺側から親指を前記指示体として前記表示部に接触させる第1姿勢、または、前記表示部を備える面とは反対の面に左手の掌をあて、前記筐体の左辺側から親指を前記指示体として前記表示部に接触させる第2姿勢であるかを検出する姿勢検出手段と、
前記姿勢検出手段によって前記第1姿勢であることが検出されている場合には、垂直方向寄りに伸びている前記筐体の左辺および右辺のうち、前記左辺よりも前記右辺に近づくように各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、前記姿勢検出手段によって前記第2姿勢であることが検出されている場合には、前記右辺よりも前記左辺に近づくように前記オブジェクト画像を前記表示部に表示させる第2表示制御手段と、
前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に、当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行する第2処理実行手段と、
して機能させることを特徴とするプログラム。
[特徴7]
前記コンピュータを、
前記座標検出部によって指示座標が検出されるとともに検出された指示座標の移動が検出された場合に、表示画面を前記表示部に切り替えさせる第3表示制御手段としてさらに機能させ、
前記姿勢検出手段は、前記座標検出部で検出された前記指示座標が移動している範囲である移動範囲が前記表示部の前記右辺寄りに位置している場合には、前記第1姿勢であると判断し、前記移動範囲が前記表示部の前記左辺寄りに位置している場合には、前記第2姿勢であると判断し、
前記第2表示制御手段は、前記第3表示制御手段による切り替え後の表示画面において、前記姿勢検出手段での検出結果に基づいて、前記オブジェクト画像を前記表示部に表示させることを特徴とする特徴6に記載のプログラム。
[特徴8]
前記コンピュータを、前記座標検出部によって指示座標が検出されるとともに検出された指示座標の移動が検出された場合に、表示画面を前記表示部に切り替えさせる第3表示制御手段としてさらに機能させ、
前記姿勢検出手段は、前記座標検出部で検出された前記指示座標が、前記右辺および前記左辺と直交する辺である前記表示部の下辺に対して右斜め上方向の角度を有して移動している場合には前記第1姿勢であると判断し、前記座標検出部で検出された前記指示座標が、前記下辺に対して左斜め上方向の角度を有して移動している場合には前記第2姿勢であると判断し、
前記第2表示制御手段は、前記第3表示制御手段による切り替え後の表示画面において、前記姿勢検出手段での検出結果に基づいて、前記オブジェクト画像を前記表示部に表示させることを特徴とする特徴6に記載のプログラム。
[特徴9]
前記携帯端末は、互いに平行に伸びる第1の辺と第2の辺のうち、前記第1の辺に近づくように重心が偏って位置しており、
前記コンピュータを、前記座標検出部によって指示座標が検出されるとともに検出された指示座標の移動が検出された場合に、表示画面を前記表示部に切り替えさせる第3表示制御手段としてさらに機能させ、
前記姿勢検出手段は、前記第1の辺が前記右辺寄りに位置している場合には、前記第1姿勢であると判断し、前記第1の辺が前記左辺寄りに位置している場合には、前記第2姿勢であると判断し、
前記第2表示制御手段は、前記第3表示制御手段による切り替え後の表示画面において、前記姿勢検出手段での検出結果に基づいて、前記オブジェクト画像を前記表示部に表示させることを特徴とする特徴6に記載のプログラム。
[特徴10]
携帯端末自身の姿勢に基づくセンサ情報を出力するセンサ情報出力部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
前記センサ情報出力部が出力するセンサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合には、前記表示部を備える面とは反対の面に掌をあて、前記筐体の一方の長辺側から親指を前記指示体として前記表示部に接触させる場合に前記指示体による入力操作を適切に受け付けることができる態様である第1態様で、各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様で、前記オブジェクト画像を前記表示部に表示させない第1表示制御手段と、
前記第1態様で前記オブジェクト画像が表示されている場合には、前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に、当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行し、前記第1態様で前記オブジェクト画像が表示されていない場合には、前記指示座標が予め定められた所定の入力態様で入力されることに応じて、前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行する第1処理実行手段と、
を備えることを特徴とする携帯端末。
[特徴11]
矩形形状の筐体と、
各種の画像を表示する表示部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
前記表示部を備える面とは反対の面に右手の掌をあて、前記筐体の右辺側から親指を前記指示体として前記表示部に接触させる第1姿勢、または、前記表示部を備える面とは反対の面に左手の掌をあて、前記筐体の左辺側から親指を前記指示体として前記表示部に接触させる第2姿勢であるかを検出する姿勢検出手段と、
前記姿勢検出手段によって前記第1姿勢であることが検出されている場合には、垂直方向寄りに伸びている前記筐体の左辺および右辺のうち、前記左辺よりも前記右辺に近づくように各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、前記姿勢検出手段によって前記第2姿勢であることが検出されている場合には、前記右辺よりも前記左辺に近づくように前記オブジェクト画像を前記表示部に表示させる第2表示制御手段と、
前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に、当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行する第2処理実行手段と、
を備えることを特徴とする携帯端末。
A portable terminal equipped with a computer that reads the above program is also new and useful.
The features of the technology described in this specification are listed below.
[Feature 1]
A sensor information output unit that outputs sensor information based on the attitude of the mobile terminal itself;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
A computer readable program of a mobile terminal equipped with
The computer,
When the posture of the mobile terminal indicated by the sensor information output by the sensor information output unit is a portrait posture, a palm is placed on the surface opposite to the surface provided with the display unit, and one length of the casing An object for receiving various processing execution start instructions in the first mode in which an input operation by the indicator can be appropriately received when the thumb is brought into contact with the display unit as the indicator from the side. A first display control means for displaying an image on the display unit and not displaying the object image on the display unit in the first mode when the attitude of the mobile terminal indicated by the sensor information is a landscape attitude; ,
When the object image is displayed in the first mode, when the designated coordinate detected by the coordinate detection unit is a coordinate corresponding to the object image, the designated coordinate is changed to the corresponding object image. When the assigned process is executed and the object image is not displayed in the first mode, the predetermined coordinate is input in a predetermined input mode, and the predetermined mode is selected. First processing execution means for executing processing similar to processing assigned to the object image corresponding to the input mode;
A program characterized by making it function.
[Feature 2]
When the posture of the mobile terminal indicated by the sensor information is a landscape posture, the first display control unit causes the display unit to display the object image in a manner other than the first aspect,
The first display control means is configured such that the object image in the first mode is closer to one long side of the housing than the display position of the object image in a mode other than the first mode. The program according to Feature 1, wherein the program is displayed.
[Feature 3]
The first display control means is configured such that, of the partial display units obtained by dividing the display unit into three equal parts in the short side direction, the partial display unit closest to one long side of the housing has the object in the first mode. The program according to Feature 1 or 2, wherein an image is displayed.
[Feature 4]
When the object image is displayed in the first mode, the first display control means receives a first instruction for starting an enlargement / reduction process, which is a process for enlarging or reducing the image displayed on the display unit. Display an object image on the display unit;
The coordinate detection unit detects two designated coordinates simultaneously when the object image is not displayed in the first mode,
In response to the input of the predetermined input mode in which the distance between the two designated coordinates changes when the object image is not displayed in the first mode. The program according to any one of features 1 to 3, wherein the scaling process assigned to the first object image corresponding to the predetermined input mode is executed.
[Feature 5]
When the posture of the mobile terminal indicated by the sensor information is the portrait posture, the first display control means displays a character string input image for accepting input of various character strings in the first aspect, When the posture of the mobile terminal indicated by the sensor information is the landscape posture, the character string input image is displayed in a mode other than the first mode,
Any one of the features 1 to 4, wherein the area of the character string input image on the display surface of the display unit is smaller in the first aspect than in the aspect other than the first aspect. The program described in.
[Feature 6]
A rectangular housing;
A display unit for displaying various images;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
A computer readable program of a mobile terminal equipped with
The computer,
A first posture in which the palm of the right hand is placed on a surface opposite to the surface including the display unit, and a thumb is brought into contact with the display unit as the indicator from the right side of the housing; or a surface including the display unit Is a posture detecting means for detecting whether the second posture is to place the palm of the left hand on the opposite side and to bring the thumb into contact with the display unit as the indicator from the left side of the housing;
When it is detected that the posture is the first posture by the posture detection means, among the left side and the right side of the housing extending toward the vertical direction, various types are provided so as to approach the right side rather than the left side. When an object image for accepting a process execution start command is displayed on the display unit and the posture detection unit detects that the second posture is detected, the object image is closer to the left side than the right side. Second display control means for displaying the object image on the display unit;
A second process execution means for executing a process in which the designated coordinate is assigned to the corresponding object image when the designated coordinate detected by the coordinate detection unit is a coordinate corresponding to the object image;
A program characterized by making it function.
[Feature 7]
The computer,
When the designated coordinates are detected by the coordinate detection unit and the detected designated coordinate is detected to move, the display unit further functions as third display control means for switching the display screen to the display unit,
The posture detection means is in the first posture when a movement range, which is a range in which the designated coordinates detected by the coordinate detection unit are moving, is located closer to the right side of the display unit. If the movement range is located closer to the left side of the display unit, it is determined to be the second posture,
The second display control unit causes the display unit to display the object image on the display screen after switching by the third display control unit based on a detection result of the posture detection unit. 6. The program according to 6.
[Feature 8]
The computer further functions as third display control means for switching the display screen to the display unit when the coordinate detection unit detects the designated coordinate and the detected designated coordinate is moved,
The posture detection unit moves the pointing coordinates detected by the coordinate detection unit with an angle in a diagonally upward right direction with respect to a lower side of the display unit which is a side orthogonal to the right side and the left side. If it is determined that the posture is the first posture, and the indicated coordinate detected by the coordinate detection unit is moving with an angle in the upper left direction with respect to the lower side Judge that it is the second posture,
The second display control unit causes the display unit to display the object image on the display screen after switching by the third display control unit based on a detection result of the posture detection unit. 6. The program according to 6.
[Feature 9]
The mobile terminal has a center of gravity biased so as to approach the first side of the first side and the second side extending in parallel with each other,
The computer further functions as third display control means for switching the display screen to the display unit when the coordinate detection unit detects the designated coordinate and the detected designated coordinate is moved,
When the first side is located near the right side, the posture detection unit determines that the posture is the first posture, and when the first side is located near the left side. Is determined to be in the second posture,
The second display control unit causes the display unit to display the object image on the display screen after switching by the third display control unit based on a detection result of the posture detection unit. 6. The program according to 6.
[Feature 10]
A sensor information output unit that outputs sensor information based on the attitude of the mobile terminal itself;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
When the posture of the mobile terminal indicated by the sensor information output by the sensor information output unit is the portrait posture, a palm is placed on a surface opposite to the surface including the display unit, and one of the casings In a first mode in which an input operation by the indicator can be appropriately received when the thumb is brought into contact with the display unit as the indicator from the long side, an instruction for receiving execution instructions for various processes is received. First display control means for displaying an object image on the display unit and not displaying the object image on the display unit in the first mode when the attitude of the portable terminal indicated by the sensor information is a landscape attitude. When,
When the object image is displayed in the first mode, when the designated coordinate detected by the coordinate detection unit is a coordinate corresponding to the object image, the designated coordinate is changed to the corresponding object image. When the assigned process is executed and the object image is not displayed in the first mode, the predetermined coordinate is input in a predetermined input mode, and the predetermined mode is selected. First processing execution means for executing processing similar to processing assigned to the object image corresponding to the input mode;
A portable terminal comprising:
[Feature 11]
A rectangular housing;
A display unit for displaying various images;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
A first posture in which the palm of the right hand is placed on a surface opposite to the surface including the display unit, and a thumb is brought into contact with the display unit as the indicator from the right side of the housing; or a surface including the display unit Is a posture detecting means for detecting whether the second posture is to place the palm of the left hand on the opposite side and to bring the thumb into contact with the display unit as the indicator from the left side of the housing;
When it is detected that the posture is the first posture by the posture detection means, among the left side and the right side of the casing extending toward the vertical direction, various types are arranged so as to be closer to the right side than the left side. When an object image for accepting a process execution start command is displayed on the display unit and the posture detection unit detects that the second posture is detected, the object image is closer to the left side than the right side. Second display control means for displaying the object image on the display unit;
A second process execution means for executing a process in which the designated coordinate is assigned to the corresponding object image when the designated coordinate detected by the coordinate detection unit is a coordinate corresponding to the object image;
A portable terminal comprising:

携帯端末のブロック図である。It is a block diagram of a portable terminal. 携帯端末の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a portable terminal. 携帯端末の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a portable terminal. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. ポートレート態様の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a portrait aspect. ランドスケープ態様の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a landscape aspect. 携帯端末の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of a portable terminal. 右片手持ち姿勢を示す図である。It is a figure which shows a right one hand holding posture. 左片手持ち姿勢を示す図である。It is a figure which shows a left one-hand holding posture. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen.

<第1実施形態>
図1に、第1実施形態として例示される携帯端末10のブロック図を示す。携帯端末10の構成について説明する。図1に示すように、携帯端末10は、CPU(Central Processing Unitの略)11、記憶部12、無線送受信部15、無線アンテナ部16、ボタン入力部17、パネル18、座標検出部19、送受信部22、アンテナ部23、加速度センサ26、カメラ部27、傾きセンサ(ジャイロスコープとも呼ぶ)29、を主に備えている。また、通話や音声入力を行うために、スピーカ3とマイク4とを備えている。携帯端末10の一例としては、スマートフォンが挙げられる。
<First Embodiment>
FIG. 1 shows a block diagram of a mobile terminal 10 exemplified as the first embodiment. A configuration of the mobile terminal 10 will be described. As illustrated in FIG. 1, the mobile terminal 10 includes a CPU (abbreviation of central processing unit) 11, a storage unit 12, a wireless transmission / reception unit 15, a wireless antenna unit 16, a button input unit 17, a panel 18, a coordinate detection unit 19, and transmission / reception. It mainly includes a unit 22, an antenna unit 23, an acceleration sensor 26, a camera unit 27, and a tilt sensor (also referred to as a gyroscope) 29. In addition, a speaker 3 and a microphone 4 are provided to perform a call and voice input. An example of the mobile terminal 10 is a smartphone.

ボタン入力部17は、携帯端末10のユーザによる操作を受け付ける。パネル18は、携帯端末10の各種機能情報を表示する。座標検出部19は、パネル18の表示領域内へ指示体(例:ユーザの指先)が接触した位置を示す座標である指示座標を検出する部位である。座標検出部19は、タッチパネルとして、パネル18と一体に構成されている。座標検出部19は、同時に複数の指示座標を検出することが可能とされている。   The button input unit 17 receives an operation by the user of the mobile terminal 10. The panel 18 displays various function information of the mobile terminal 10. The coordinate detection unit 19 is a part that detects indication coordinates, which are coordinates indicating a position where an indicator (for example, a user's fingertip) contacts the display area of the panel 18. The coordinate detection unit 19 is configured integrally with the panel 18 as a touch panel. The coordinate detection unit 19 can detect a plurality of designated coordinates at the same time.

図4の携帯端末10の概略概観図に示すように、携帯端末10の筐体は、短辺と長辺とを備える矩形形状である。携帯端末10は、ポートレート姿勢およびランドスケープ姿勢の何れの姿勢においても、携帯端末10を正しくユーザが操作することができる、縦横両用機種である。携帯端末10のポートレート姿勢とは、図4に示すように、ユーザインターフェース画像の左右方向と、筐体の短辺方向とが同じになるよう、ユーザインターフェースを表示させるべき姿勢である。すなわち、ポートレート姿勢は、ユーザが片手で携帯端末10を保持するために適した姿勢である。携帯端末10のランドスケープ姿勢とは、図5に示すように、ユーザインターフェース画像の左右方向と、筐体の長辺方向とが同じになるよう、ユーザインターフェースを表示させるべき姿勢である。すなわち、ランドスケープ姿勢は、ユーザが両手で携帯端末10を保持するために適した姿勢である。なお、携帯端末10の長辺が水平方向から角度A(例えば、10度)以上傾いているときをポートレート姿勢とし、携帯端末10の短辺が水平方向から角度A以上傾いているときをランドスケープ姿勢としてもよい。また、携帯端末10の長辺が水平方向から角度B(例えば、50度)以上傾いているときをポートレート姿勢とし、携帯端末10の長辺が水平方向から角度B未満しか傾いていないときをランドスケープ姿勢としてもよい。また、携帯端末10の短辺の傾きで姿勢を定義してもよい。また、垂直方向に対する筐体の傾きで姿勢を定義してもよい。なお、携帯端末10がユーザによって保持されている場合を想定すると、ポートレート姿勢とは、筐体の長辺方向がユーザに向かう姿勢であり、ランドスケープ姿勢とは、筐体の短辺方向がユーザに向かう姿勢であるとも言える。   As shown in the schematic overview of the mobile terminal 10 in FIG. 4, the casing of the mobile terminal 10 has a rectangular shape having a short side and a long side. The portable terminal 10 is a model for both vertical and horizontal directions in which the user can operate the portable terminal 10 correctly in any of the portrait posture and the landscape posture. The portrait orientation of the mobile terminal 10 is an orientation in which the user interface should be displayed so that the left-right direction of the user interface image is the same as the short side direction of the housing, as shown in FIG. That is, the portrait posture is a posture suitable for the user to hold the mobile terminal 10 with one hand. As shown in FIG. 5, the landscape orientation of the mobile terminal 10 is an orientation in which the user interface should be displayed so that the left-right direction of the user interface image is the same as the long side direction of the housing. That is, the landscape posture is a posture suitable for the user to hold the mobile terminal 10 with both hands. The portrait posture is when the long side of the mobile terminal 10 is inclined at an angle A (for example, 10 degrees) or more from the horizontal direction, and the landscape is when the short side of the mobile terminal 10 is inclined at an angle A or more from the horizontal direction. It may be a posture. Also, the portrait orientation is when the long side of the mobile terminal 10 is tilted from the horizontal direction by an angle B (for example, 50 degrees) or more, and the long side of the mobile terminal 10 is tilted by less than the angle B from the horizontal direction. It may be a landscape posture. Further, the posture may be defined by the inclination of the short side of the mobile terminal 10. Further, the posture may be defined by the inclination of the housing with respect to the vertical direction. Assuming that the mobile terminal 10 is held by the user, the portrait posture is a posture in which the long side direction of the housing is directed toward the user, and the landscape posture is the short side direction of the housing is the user. It can be said that it is a posture toward

加速度センサ26は、錘の位置変化を検出することによって、携帯端末10の加速度を計測するセンサである。カメラ部27は、CCD等により所定範囲を撮影して画像データを取得する部位である。傾きセンサ29は、角速度を検出することによって、携帯端末10が水平面に対して傾いている傾き角度を測定するセンサである。傾きセンサ29は、携帯端末10の姿勢に基づいて、センサ情報を出力する。   The acceleration sensor 26 is a sensor that measures the acceleration of the mobile terminal 10 by detecting a change in the position of the weight. The camera unit 27 is a part that captures a predetermined range with a CCD or the like and acquires image data. The tilt sensor 29 is a sensor that measures the tilt angle at which the mobile terminal 10 is tilted with respect to the horizontal plane by detecting the angular velocity. The tilt sensor 29 outputs sensor information based on the attitude of the mobile terminal 10.

CPU11は、記憶部12内のプログラム21に従って処理を実行する。以降、印刷アプリケーション21aやオペレーティングシステム21eなど、プログラムを実行するCPU11のことを、単にプログラム名でも記載する場合がある。例えば「印刷アプリケーション21aが」という記載は、「印刷アプリケーション21aを実行するCPU11が」を意味する場合がある。なお、記憶部12は、RAM(Random Access Memoryの略)、ROM(Read Only Memoryの略)、フラッシュメモリ、HDD(ハードディスクの略)、CPU11が備えるバッファなどが組み合わされて構成されている。   The CPU 11 executes processing according to the program 21 in the storage unit 12. Hereinafter, the CPU 11 that executes a program, such as the print application 21a or the operating system 21e, may be simply described as a program name. For example, the description “print application 21a” may mean “the CPU 11 executing the print application 21a”. The storage unit 12 is configured by combining a RAM (abbreviation of random access memory), a ROM (abbreviation of read only memory), a flash memory, an HDD (abbreviation of hard disk), a buffer provided in the CPU 11, and the like.

無線送受信部15は、無線アンテナ部16を介して、無線LANのインフラストラクチャーモードに準拠する無線通信を行う。また、送受信部22は、アンテナ部23を介して、不図示の基地局との間で携帯電話通信の方式に準拠する無線通信を行う。そして、無線送受信部15、送受信部22などにより、各種のデータを構成するデジタル信号が送受信される。   The wireless transmission / reception unit 15 performs wireless communication conforming to the infrastructure mode of the wireless LAN via the wireless antenna unit 16. Further, the transmission / reception unit 22 performs wireless communication conforming to a mobile phone communication system with a base station (not shown) via the antenna unit 23. And the digital signal which comprises various data is transmitted / received by the wireless transmission / reception part 15, the transmission / reception part 22, etc. FIG.

記憶部12は、プログラム21を記憶する。プログラム21は、印刷アプリケーション21a、オペレーティングシステム21eを含んでいる。印刷アプリケーション21aは、携帯端末10から不図示のMFP(Multifunction Peripheralの略)への印刷処理などをCPU11に実行させるためのアプリケーションである。CPU11は、印刷アプリケーション21aに従って処理を実行することによって、不図示のウェブサーバからウェブページデータを取得すること、ウェブページデータを記憶部12に記憶させること、及び、記憶部12内のウェブページデータによって表されるウェブページ画像をパネル18に表示させること、を実行可能である。   The storage unit 12 stores a program 21. The program 21 includes a print application 21a and an operating system 21e. The print application 21a is an application for causing the CPU 11 to execute a printing process from the mobile terminal 10 to an MFP (not shown) (not shown). The CPU 11 executes processing according to the print application 21a to acquire web page data from a web server (not shown), store web page data in the storage unit 12, and web page data in the storage unit 12 Can be displayed on the panel 18.

また印刷アプリケーション21aは、ポートレートレイアウト情報31およびランドスケープレイアウト情報33を備えている。これらのレイアウト情報は、ウェブページ画像、印刷プレビュー画像、オブジェクト画像などの各種の画像の、パネル18への表示位置を示す情報である。これらのレイアウト情報は、XML(Extensible Markup Languageの略)ファイルであってもよい。また、各種の画像の表示位置を示す方法は、様々な方法であってよい。例えば、表示される画像間の相対位置を規定することによって、表示位置を示す方法であってもよい。また、表示される画像の各々について、パネル18の表示原点(例えば、パネル18の左上隅部)に対する相対位置を規定することによって、表示位置を示す方法であってもよい。   The print application 21 a includes portrait layout information 31 and landscape layout information 33. The layout information is information indicating the display position on the panel 18 of various images such as a web page image, a print preview image, and an object image. These layout information may be XML (abbreviation of Extensible Markup Language) files. There are various methods for indicating the display positions of various images. For example, the display position may be indicated by defining the relative position between displayed images. Further, for each displayed image, a method of indicating the display position by defining a relative position with respect to the display origin of the panel 18 (for example, the upper left corner of the panel 18) may be used.

ポートレートレイアウト情報31は、携帯端末10の姿勢がポートレート姿勢である場合にパネル18に各種の画像を表示する際の、各種の画像の表示位置を示す情報である。ポートレートレイアウト情報31によって各種の画像が配置される態様は、ポートレート態様と呼ばれる。ポートレート態様は、パネル18を備える面とは反対の面(すなわち、携帯端末10の裏面)にユーザの掌をあて、携帯端末10筐体の一方の長辺側から親指を指示体としてパネル18に接触させ、筐体の他方の長辺側に人差し指から小指を添える場合に、親指による入力操作を適切に受け付けることを想定した態様であってよい。   The portrait layout information 31 is information indicating the display positions of various images when various images are displayed on the panel 18 when the attitude of the mobile terminal 10 is the portrait attitude. A mode in which various images are arranged by the portrait layout information 31 is called a portrait mode. In the portrait mode, the user's palm is placed on the surface opposite to the surface including the panel 18 (that is, the back surface of the mobile terminal 10), and the thumb is used as an indicator from one long side of the mobile terminal 10 housing. It is possible to assume that the input operation with the thumb is appropriately received when the little finger is attached from the index finger to the other long side of the housing.

ランドスケープレイアウト情報33は、携帯端末10の姿勢がランドスケープ姿勢である場合にパネル18に各種の画像を表示する際の、各種の画像の表示位置を示す情報である。ランドスケープレイアウト情報33によって各種の画像が配置される態様は、ランドスケープ態様と呼ばれる。ランドスケープ態様は、ユーザの一方の手で携帯端末10の筐体を保持し、他方の手の人差し指や親指などを指示体としてパネル18に接触させる場合に、入力操作を適切に受け付けることを想定した態様であってよい。   The landscape layout information 33 is information indicating display positions of various images when various images are displayed on the panel 18 when the posture of the mobile terminal 10 is the landscape posture. A mode in which various images are arranged according to the landscape layout information 33 is called a landscape mode. The landscape mode assumes that an input operation is appropriately received when the casing of the mobile terminal 10 is held with one hand of the user and the index finger or thumb of the other hand is brought into contact with the panel 18 as an indicator. It may be an aspect.

オペレーティングシステム21eは、印刷アプリケーション21aなどに共通して利用される基本的な機能を提供するプログラムである。オペレーティングシステム21eは、パネル18に各種の画像を表示させるためのプログラムや、送受信部22に通信を実行させるためのプログラムや、無線送受信部15に無線通信を実行させるためのプログラム等を含む。またオペレーティングシステム21eは、加速度センサ26、傾きセンサ29などが出力した情報、または、加速度センサ26、傾きセンサ29などが出力した情報に基づいてCPU11が算出した情報を各プログラムが取得するための、もしくは、各プログラムが各種ハードウェアに指示をするためのAPI(Application Programming Interfaceの略)を提供するプログラムでもある。   The operating system 21e is a program that provides basic functions that are commonly used by the print application 21a and the like. The operating system 21e includes a program for displaying various images on the panel 18, a program for causing the transmission / reception unit 22 to execute communication, a program for causing the wireless transmission / reception unit 15 to execute wireless communication, and the like. The operating system 21e is used for each program to acquire information output from the acceleration sensor 26, the tilt sensor 29, or the like, or information calculated by the CPU 11 based on information output from the acceleration sensor 26, the tilt sensor 29, or the like. Alternatively, it is a program that provides an API (abbreviation of application programming interface) for each program to instruct various hardware.

記憶部12には、オブジェクト画像データが記憶されている。オブジェクト画像データは、各種の情報を表示するオブジェクト画像を表示部に表示させる画像データである。オブジェクト画像の例としては、各種の命令の入力を受け付けるボタン画像や、各種の文字列の入力を受け付けるキーボード画像などが挙げられる。また記憶部12には、ウェブページデータなどの各種のデータが、一時的に記憶される。   The storage unit 12 stores object image data. The object image data is image data for displaying an object image for displaying various types of information on the display unit. Examples of object images include button images that accept input of various commands, keyboard images that accept input of various character strings, and the like. The storage unit 12 temporarily stores various data such as web page data.

<携帯端末の動作>
第1実施形態に係る携帯端末10の動作を、図2および図3のフローチャートを用いて説明する。ユーザが、ボタン入力部17を介して印刷アプリケーション21aを起動させる操作を入力すると、CPU11は、印刷アプリケーション21aを起動する。これにより、図2のフローが開始される。
<Operation of mobile terminal>
The operation of the mobile terminal 10 according to the first embodiment will be described with reference to the flowcharts of FIGS. When the user inputs an operation for starting the print application 21a via the button input unit 17, the CPU 11 starts the print application 21a. Thereby, the flow of FIG. 2 is started.

S411においてCPU11は、各種の画像の表示指示が入力されたか否かを判断する。表示指示は、例えば、ウェブページ画像を表示させるための指示であってもよい。表示指示は、例えば、ウェブページデータにアクセスするためのURL(例えば、http://www.○○.com)が入力されることによって入力されてもよい。各種の画像の表示指示が入力されていない場合(S411:NO)にはS411へ戻り、表示指示が入力された場合(S411:YES)にはS413へ進む。   In S411, the CPU 11 determines whether or not various image display instructions have been input. The display instruction may be an instruction for displaying a web page image, for example. The display instruction may be input by inputting a URL (for example, http://www.xxx.com) for accessing the web page data. If various image display instructions have not been input (S411: NO), the process returns to S411. If a display instruction has been input (S411: YES), the process proceeds to S413.

S413においてCPU11は、携帯端末10がポートレート姿勢であるか否かを判断する。具体的には、CPU11は、APIを用いて傾きセンサ29からセンサ情報を取得し、取得したセンサ情報を用いて携帯端末10の姿勢を算出する。携帯端末10がポートレート姿勢である場合(S413:YES)には、S415へ進む。S415においてCPU11は、ポートレートレイアウト情報31をロードする。具体的には、ポートレートレイアウト情報31のXMLファイルのパスを、APIを使ってオペレーティングシステム21eに渡す。オペレーティングシステム21eは、読み出したポートレートレイアウト情報31に従って、表示原点を基準とした、各種の画像の表示位置を決定する。表示原点は、例えば、パネル18の左上隅部などであってもよい。そしてS417へ進む。なお、OSがセンサ情報に基づいて携帯端末10の姿勢を算出してもよい。この場合、S413においてCPU11は、APIを用いて筐体の姿勢を示す情報をOSから取得し、携帯端末10がポートレート姿勢であるか否かを判断してもよい。   In S413, the CPU 11 determines whether or not the mobile terminal 10 is in the portrait posture. Specifically, the CPU 11 acquires sensor information from the tilt sensor 29 using the API, and calculates the attitude of the mobile terminal 10 using the acquired sensor information. When the portable terminal 10 is in the portrait posture (S413: YES), the process proceeds to S415. In S415, the CPU 11 loads the portrait layout information 31. Specifically, the XML file path of the portrait layout information 31 is passed to the operating system 21e using the API. The operating system 21e determines display positions of various images based on the display origin according to the read portrait layout information 31. The display origin may be, for example, the upper left corner of the panel 18. Then, the process proceeds to S417. Note that the OS may calculate the attitude of the mobile terminal 10 based on the sensor information. In this case, in S413, the CPU 11 may acquire information indicating the posture of the casing from the OS using the API, and determine whether or not the mobile terminal 10 is in the portrait posture.

S417においてCPU11は、ロードされているポートレートレイアウト情報31に基づいたポートレート態様で、各種のオブジェクト画像を含んだ表示画面をパネル18に表示する。図4に、ポートレートレイアウト情報31に基づいたポートレート態様で表示されている表示画面の一例を示す。パネル18には、ウェブページ画像P1a、および、入力ボックス画像B1a〜スクロールボタン画像B5aが表示されている。ウェブページ画像P1aは、ウェブページデータによって表される画像である。入力ボックス画像B1aは、各種の文字列(例:URL)の入力を受け付けるための画像である。拡大ボタン画像B2aおよび縮小ボタン画像B3aの各々は、ウェブページ画像P1aを拡大する処理および縮小する処理の各々の実行命令の入力を受け付けるボタン画像である。スクロールボタン画像B4aおよびB5aの各々は、ウェブページ画像P1aを左および右へスクロールさせる処理の実行命令の入力を受け付けるボタン画像である。またパネル18の表示領域は、部分パネル領域SP1〜SP3に分割することができる。部分パネル領域SP1〜SP3は、パネル18の表示領域を、携帯端末10の短辺方向(すなわち、下辺L3に沿った方向)に3等分した領域である。そして、拡大ボタン画像B2a〜スクロールボタン画像B5aの各々は、長辺である左辺L1に最も近い部分パネル領域SP1の領域内に表示される。また、第1実施形態の説明例では、以下、図4に示す表示画面が示されている場合の動作を説明する。   In S417, the CPU 11 displays a display screen including various object images on the panel 18 in a portrait mode based on the loaded portrait layout information 31. FIG. 4 shows an example of a display screen displayed in a portrait mode based on the portrait layout information 31. On the panel 18, a web page image P1a and an input box image B1a to a scroll button image B5a are displayed. The web page image P1a is an image represented by web page data. The input box image B1a is an image for receiving input of various character strings (for example, URL). Each of the enlargement button image B2a and the reduction button image B3a is a button image that receives an input of an execution instruction for each of the process for enlarging and reducing the web page image P1a. Each of the scroll button images B4a and B5a is a button image that receives an input of an execution command for a process of scrolling the web page image P1a left and right. The display area of the panel 18 can be divided into partial panel areas SP1 to SP3. The partial panel areas SP1 to SP3 are areas obtained by dividing the display area of the panel 18 into three equal parts in the short side direction of the mobile terminal 10 (that is, the direction along the lower side L3). Each of the enlarged button image B2a to the scroll button image B5a is displayed in the area of the partial panel area SP1 that is closest to the left side L1 that is the long side. In the example of the first embodiment, the operation when the display screen shown in FIG. 4 is shown will be described below.

S419においてCPU11は、拡大ボタン画像B2aまたは縮小ボタン画像B3aがタッチされたか否かを判断する。タッチされていない場合(S419:NO)にはS421へ進み、タッチされた場合(S419:YES)にはS420へ進む。S420においてCPU11は、拡大ボタン画像B2aがタッチされた場合には、拡大ボタン画像B2aに割り当てられている処理である、ウェブページ画像P1aを拡大する処理を実行する。また、縮小ボタン画像B3aがタッチされた場合には、縮小ボタン画像B3aに割り当てられている処理である、ウェブページ画像P1aを縮小する処理を実行する。そしてS421へ進む。   In S419, the CPU 11 determines whether or not the enlarged button image B2a or the reduced button image B3a has been touched. If not touched (S419: NO), the process proceeds to S421, and if touched (S419: YES), the process proceeds to S420. In S420, when the enlargement button image B2a is touched, the CPU 11 executes a process for enlarging the web page image P1a, which is a process assigned to the enlargement button image B2a. When the reduction button image B3a is touched, a process for reducing the web page image P1a, which is a process assigned to the reduction button image B3a, is executed. Then, the process proceeds to S421.

S421においてCPU11は、スクロールボタン画像B4aまたはB5aがタッチされたか否かを判断する。タッチされていない場合(S421:NO)にはS423へ進み、タッチされた場合(S421:YES)にはS422へ進む。S422においてCPU11は、スクロールボタン画像B4aがタッチされた場合には、スクロールボタン画像B4aに割り当てられている処理である、ウェブページ画像P1aを左スクロールさせる処理を実行する。また、スクロールボタン画像B5aがタッチされた場合には、スクロールボタン画像B5aに割り当てられている処理である、ウェブページ画像P1aを右スクロールさせる処理を実行する。そしてS423へ進む。   In S421, the CPU 11 determines whether or not the scroll button image B4a or B5a is touched. If not touched (S421: NO), the process proceeds to S423, and if touched (S421: YES), the process proceeds to S422. In S422, when the scroll button image B4a is touched, the CPU 11 executes a process of scrolling the web page image P1a to the left, which is a process assigned to the scroll button image B4a. When the scroll button image B5a is touched, a process of scrolling the web page image P1a to the right, which is a process assigned to the scroll button image B5a, is executed. Then, the process proceeds to S423.

S423においてCPU11は、入力ボックス画像B1aがタッチされたか否かを判断する。タッチされていない場合(S423:NO)にはS427へ進み、タッチされた場合(S423:YES)にはS424へ進む。   In S423, the CPU 11 determines whether or not the input box image B1a has been touched. If not touched (S423: NO), the process proceeds to S427. If touched (S423: YES), the process proceeds to S424.

S424においてCPU11は、ロードされているポートレートレイアウト情報31に基づいたポートレート態様で、キーボード画像を含んだ表示画面をパネル18に表示する。図6に、ポートレートレイアウト情報31に基づいたポートレート態様で表示されている表示画面の一例を示す。パネル18には、キーボード画像B11aおよび表示ボックス画像B12aが表示されている。キーボード画像B11aは、各種の文字列の入力を受け付けるための画像である。キーボード画像B11aは、後述するランドスケープ態様で表示されているキーボード画像B11b(図7を参照)に比して、パネル18の表示領域に占める面積が小さくされている。表示ボックス画像B12aは、キーボード画像B11aで入力が受け付けられた文字列を表示するための画像である。   In S424, the CPU 11 displays a display screen including a keyboard image on the panel 18 in a portrait mode based on the loaded portrait layout information 31. FIG. 6 shows an example of a display screen displayed in a portrait mode based on the portrait layout information 31. On the panel 18, a keyboard image B11a and a display box image B12a are displayed. The keyboard image B11a is an image for receiving input of various character strings. The keyboard image B11a has a smaller area in the display area of the panel 18 than a keyboard image B11b (see FIG. 7) displayed in a landscape manner to be described later. The display box image B12a is an image for displaying a character string that has been accepted by the keyboard image B11a.

S425においてCPU11は、キーボード画像B11a内のキー画像がタッチされた場合には、タッチされたキー画像に割り当てられている文字列の入力を受け付ける処理を実行する。そしてS427へ進む。   In S425, when the key image in the keyboard image B11a is touched, the CPU 11 executes a process of accepting input of a character string assigned to the touched key image. Then, the process proceeds to S427.

S427においてCPU11は、携帯端末10の姿勢が、ポートレート姿勢とランドスケープ姿勢との間で変化したか否かを判断する。具体的には、オペレーティングシステム21eから、携帯端末10の姿勢が変化した旨を表すイベントが発せられたか否かを判断する。姿勢が変化していない場合(S427:NO)にはS419へ戻り、変化した場合(S427:YES)にはS413へ戻る。   In S427, the CPU 11 determines whether or not the posture of the mobile terminal 10 has changed between the portrait posture and the landscape posture. Specifically, it is determined whether or not an event indicating that the attitude of the mobile terminal 10 has changed has been issued from the operating system 21e. If the posture has not changed (S427: NO), the process returns to S419, and if it has changed (S427: YES), the process returns to S413.

一方、S413において、携帯端末10がランドスケープ姿勢であると判断された場合(S413:NO)には、図3のS435へ進む。S435においてCPU11は、ランドスケープレイアウト情報33をロードする。具体的なロード方法は、前述したポートレートレイアウト情報31のロード方法と同様であるため、ここでは説明を省略する。   On the other hand, when it is determined in S413 that the mobile terminal 10 is in the landscape posture (S413: NO), the process proceeds to S435 in FIG. In S435, the CPU 11 loads the landscape layout information 33. Since the specific loading method is the same as the loading method of the portrait layout information 31 described above, the description thereof is omitted here.

S437においてCPU11は、ロードされているランドスケープレイアウト情報33に基づいたランドスケープ態様で、各種のオブジェクト画像を含んだ表示画面をパネル18に表示する。図5に、ランドスケープレイアウト情報33に基づいたランドスケープ態様で表示されている表示画面の一例を示す。パネル18には、ウェブページ画像P1b、入力ボックス画像B1b、スクロールボタン画像B4bおよびB5bが表示されている。また、第1実施形態の説明例では、以下、図5に示す表示画面が示されている場合の動作を説明する。   In S437, the CPU 11 displays a display screen including various object images on the panel 18 in a landscape mode based on the loaded landscape layout information 33. FIG. 5 shows an example of a display screen displayed in a landscape mode based on the landscape layout information 33. On the panel 18, a web page image P1b, an input box image B1b, and scroll button images B4b and B5b are displayed. In the explanation example of the first embodiment, the operation when the display screen shown in FIG. 5 is shown will be described below.

S439においてCPU11は、ピンチアウト操作またはピンチイン操作が入力されたか否かを判断する。ピンチアウト操作は、同時に入力されている2つの指示座標の間の距離を遠ざけるように変化させる操作である。ピンチアウト操作は、前述のポートレート態様で表示されている拡大ボタン画像B2a(図4を参照)に対応する操作である。ピンチイン操作は、同時に入力されている2つの指示座標の間の距離を近づけるように変化させる操作である。ピンチイン操作は、前述のポートレート態様で表示されている縮小ボタン画像B3a(図4を参照)に対応する操作である。ピンチアウト操作またはピンチイン操作が入力されない場合(S439:NO)にはS441へ進み、入力された場合(S439:YES)にはS440へ進む。   In S439, the CPU 11 determines whether a pinch-out operation or a pinch-in operation has been input. The pinch-out operation is an operation for changing the distance between two designated coordinates that are input at the same time. The pinch-out operation is an operation corresponding to the enlarged button image B2a (see FIG. 4) displayed in the portrait mode described above. The pinch-in operation is an operation for changing the distance between two designated coordinates that are input at the same time. The pinch-in operation is an operation corresponding to the reduced button image B3a (see FIG. 4) displayed in the portrait mode described above. When the pinch-out operation or the pinch-in operation is not input (S439: NO), the process proceeds to S441, and when it is input (S439: YES), the process proceeds to S440.

S440においてCPU11は、ピンチアウト操作が入力された場合には、拡大ボタン画像B2aに割り当てられている処理である、ウェブページ画像P1aを拡大する処理を実行する。また、ピンチイン操作が入力された場合には、縮小ボタン画像B3aに割り当てられている処理である、ウェブページ画像P1aを縮小する処理を実行する。そしてS441へ進む。   In S440, when a pinch-out operation is input, the CPU 11 executes a process for enlarging the web page image P1a, which is a process assigned to the enlarged button image B2a. When a pinch-in operation is input, a process for reducing the web page image P1a, which is a process assigned to the reduction button image B3a, is executed. Then, the process proceeds to S441.

S441においてCPU11は、スクロールボタン画像B4bまたはB5bがタッチされたか否かを判断する。タッチされていない場合(S441:NO)にはS443へ進み、タッチされた場合(S441:YES)にはS442へ進む。S442においてCPU11は、スクロールボタン画像B4bがタッチされた場合には、ウェブページ画像P1bを左スクロールさせる処理を実行する。また、スクロールボタン画像B5bがタッチされた場合には、ウェブページ画像P1bを右スクロールさせる処理を実行する。そしてS443へ進む。   In S441, the CPU 11 determines whether or not the scroll button image B4b or B5b is touched. If not touched (S441: NO), the process proceeds to S443. If touched (S441: YES), the process proceeds to S442. In S442, when the scroll button image B4b is touched, the CPU 11 executes a process of scrolling the web page image P1b to the left. When the scroll button image B5b is touched, a process of scrolling the web page image P1b to the right is executed. Then, the process proceeds to S443.

S443においてCPU11は、入力ボックス画像B1bがタッチされたか否かを判断する。タッチされていない場合(S443:NO)にはS447へ進み、タッチされた場合(S443:YES)にはS444へ進む。   In S443, the CPU 11 determines whether or not the input box image B1b is touched. If not touched (S443: NO), the process proceeds to S447. If touched (S443: YES), the process proceeds to S444.

S444においてCPU11は、ロードされているランドスケープレイアウト情報33に基づいたランドスケープ態様で、キーボード画像を含んだ表示画面をパネル18に表示する。図7に、ランドスケープレイアウト情報33に基づいたランドスケープ態様で表示されている表示画面の一例を示す。パネル18には、キーボード画像B11bおよび表示ボックス画像B12bが表示されている。   In S444, the CPU 11 displays a display screen including a keyboard image on the panel 18 in a landscape mode based on the loaded landscape layout information 33. FIG. 7 shows an example of a display screen displayed in a landscape mode based on the landscape layout information 33. On the panel 18, a keyboard image B11b and a display box image B12b are displayed.

S445においてCPU11は、キーボード画像B11b内のキー画像がタッチされた場合には、タッチされたキー画像に割り当てられている文字列の入力を受け付ける処理を実行する。そしてS447へ進む。S447においてCPU11は、携帯端末10の姿勢が、ポートレート姿勢とランドスケープ姿勢との間で変化したか否かを判断する。姿勢が変化していない場合(S447:NO)にはS439へ戻り、変化した場合(S447:YES)には図2のS413へ戻る。   In S445, when the key image in the keyboard image B11b is touched, the CPU 11 executes a process of receiving an input of a character string assigned to the touched key image. Then, the process proceeds to S447. In S447, the CPU 11 determines whether or not the posture of the mobile terminal 10 has changed between the portrait posture and the landscape posture. If the posture has not changed (S447: NO), the process returns to S439, and if it has changed (S447: YES), the process returns to S413 in FIG.

<第1実施形態の効果>
本明細書に記載されている携帯端末10では、携帯端末10の姿勢に応じて、各種のボタン画像の表示態様を、携帯端末10が片手で操作される場合に入力操作を適切に受け付けることを想定した態様であるポートレート態様と、携帯端末10が両手で操作される場合に入力操作を適切に受け付けることを想定した態様であるランドスケープ態様との間で、変化させることができる。具体的には、ポートレート態様で表示されているスクロールボタン画像B4aおよびB5a(図4を参照)を、ランドスケープ態様で表示されているスクロールボタン画像B4bおよびB5b(図5を参照)よりも、携帯端末10の筐体の左辺L1に近づくように配置させることができる。これにより、筐体の左側の辺から親指をパネル18へ伸ばすようにして操作する場合には、親指の指先が届き易い位置にスクロールボタン画像を表示することができるため、ユーザの操作性を高めることができる。
<Effects of First Embodiment>
In the mobile terminal 10 described in this specification, depending on the attitude of the mobile terminal 10, various display modes of button images are appropriately accepted when the mobile terminal 10 is operated with one hand. It is possible to change between a portrait mode that is an assumed mode and a landscape mode that is a mode that is assumed to appropriately receive an input operation when the mobile terminal 10 is operated with both hands. Specifically, the scroll button images B4a and B5a (see FIG. 4) displayed in the portrait mode are more portable than the scroll button images B4b and B5b (see FIG. 5) displayed in the landscape mode. It can arrange | position so that the left side L1 of the housing | casing of the terminal 10 may be approached. Thus, when the operation is performed by extending the thumb from the left side of the housing to the panel 18, the scroll button image can be displayed at a position where the fingertip of the thumb can easily reach, thereby improving the operability for the user. be able to.

ポートレート態様で表示画面を表示する場合には、ユーザが両手で携帯端末10を操作する場合が多いため、人差し指や親指などの複数の指示体を用いることが可能である。よって、ポートレート態様の表示画面(図5を参照)では、ランドスケープ態様の表示画面(図4を参照)の拡大ボタン画像B2aまたは縮小ボタン画像B3aがタッチされる操作に代えて、パネル18上にピンチアウト操作またはピンチイン操作が入力されることに応じて、ウェブページ画像P1aを拡大または縮小する処理を実行することができる。これにより、ランドスケープ態様で表示されている表示画面(図5参照)では、ポートレート態様で表示されている表示画面(図4参照)に含まれている拡大ボタン画像B2aおよび縮小ボタン画像B3aに対応するボタン画像の表示を、省略することができる。これにより、ポートレート態様で表示される図4の表示画面に比較して、ランドスケープ態様で表示される図5の表示画面の方が、パネル18の表示領域を有効に使用することが可能となる。   When the display screen is displayed in the portrait mode, the user often operates the mobile terminal 10 with both hands, and therefore it is possible to use a plurality of indicators such as an index finger and a thumb. Therefore, on the display screen of the portrait mode (see FIG. 5), instead of the operation of touching the enlarged button image B2a or the reduced button image B3a of the landscape mode display screen (see FIG. 4), the panel 18 is displayed. A process of enlarging or reducing the web page image P1a can be executed in response to the input of the pinch-out operation or the pinch-in operation. Thereby, the display screen (see FIG. 5) displayed in the landscape mode corresponds to the enlarged button image B2a and the reduced button image B3a included in the display screen (see FIG. 4) displayed in the portrait mode. The display of the button image to be performed can be omitted. Thereby, the display screen of FIG. 5 displayed in the landscape mode can use the display area of the panel 18 more effectively than the display screen of FIG. 4 displayed in the portrait mode. .

携帯端末10を片手のみで操作する場合には、携帯端末10の筐体の一方の辺から親指を表示部へ伸ばすようにして操作する場合が多い。よって、両手で操作する場合に比して、片手のみで操作する場合の方が、パネル18上で指先が届く範囲が狭くなる。片手操作に適したランドスケープ態様で表示されるキーボード画像B11a(図6を参照)は、両手操作に適したポートレート態様で表示されるキーボード画像B11b(図7を参照)に比して、パネル18の表示領域に占める面積が小さくなるように表示される。これにより、キーボード画像B11aの隅々まで親指の指先が届き易くすることができるため、ユーザの操作性を高めることができる。   When operating the mobile terminal 10 with only one hand, it is often operated by extending the thumb from one side of the casing of the mobile terminal 10 to the display unit. Therefore, the range in which the fingertip reaches on the panel 18 is narrower when the operation is performed with only one hand than when the operation is performed with both hands. The keyboard image B11a (see FIG. 6) displayed in a landscape mode suitable for one-handed operation is compared with the keyboard image B11b (see FIG. 7) displayed in a portrait mode suitable for two-handed operation. Are displayed so that the area occupied in the display area becomes smaller. Thereby, since the fingertip of the thumb can easily reach every corner of the keyboard image B11a, user operability can be improved.

<第2実施形態>
第2実施形態に係る印刷アプリケーション21aは、右片手用レイアウト情報および左片手用レイアウト情報を備えている。右片手用レイアウト情報は、携帯端末10の姿勢が右片手持ち姿勢である場合にパネル18に各種の画像を表示する際の、各種の画像の表示位置を示す情報である。右片手持ち姿勢とは、図9に示すように、パネル18を備える面とは反対の面(すなわち、携帯端末10の裏面)に右手の掌をあて、携帯端末10の筐体の右辺L2側から親指を指示体としてパネル18に接触させる姿勢である。右片手用レイアウト情報によって各種の画像が配置される態様は、右片手用表示態様と呼ばれる。また、左片手用レイアウト情報は、携帯端末10の姿勢が左片手持ち姿勢である場合にパネル18に各種の画像を表示する際の、各種の画像の表示位置を示す情報である。左片手持ち姿勢とは、図10に示すように、パネル18を備える面とは反対の面に左手の掌をあて、携帯端末10の筐体の左辺L1側から親指を指示体としてパネル18に接触させる姿勢である。左片手用レイアウト情報によって各種の画像が配置される態様は、左片手用表示態様と呼ばれる。なお、第2実施形態における携帯電話10のその他の構成は、第1実施形態の構成と同様でよいため、ここでは説明を省略する。
Second Embodiment
The print application 21a according to the second embodiment includes right-handed layout information and left-handed layout information. The right-handed layout information is information indicating the display positions of various images when various images are displayed on the panel 18 when the posture of the mobile terminal 10 is the right-handed posture. As shown in FIG. 9, the right hand-held posture means that the right hand palm is placed on the surface opposite to the surface including the panel 18 (that is, the back surface of the mobile terminal 10), and the right side L2 side of the casing of the mobile terminal 10. The thumb is in contact with the panel 18 as an indicator. A mode in which various images are arranged according to right-handed layout information is called a right-handed display mode. Further, the left one-hand layout information is information indicating display positions of various images when various images are displayed on the panel 18 when the posture of the mobile terminal 10 is the left one-handed posture. As shown in FIG. 10, the left one-handed posture means that the palm of the left hand is placed on the surface opposite to the surface provided with the panel 18, and the thumb is used as an indicator on the panel 18 from the left side L1 side of the casing of the mobile terminal 10. It is a posture to contact. A mode in which various images are arranged according to the left one-hand layout information is called a left one-hand display mode. In addition, since the other structure of the mobile telephone 10 in 2nd Embodiment may be the same as that of 1st Embodiment, description is abbreviate | omitted here.

第2実施形態に係る携帯端末10の動作を、図8のフローチャートを用いて説明する。図8のフローは、印刷アプリケーション21aが起動されることに応じて開始される。S511においてCPU11は、座標検出部19にフリック操作が入力されたか否かを判断する。フリック操作の入力有無を判断する方法の一例を説明する。CPU11は、座標検出部19を用いて、所定の検出周期(例:数十ミリセカンドごと)に指示座標を検出している。そして、指示座標の移動が検出され、その後に指示座標が検出されなくなった場合には、指示座標の移動速度を算出する。指示座標の移動速度は、指示座標が検出されなくなった時点以前の直近に検出された2つの指示座標の2点間の距離と、検出周期に基づいて算出される。算出された指示座標の移動速度が、予め定められた移動速度閾値よりも小さい場合には、フリック操作が入力されていないと判断され(S511:NO)、S511へ戻る。一方、指示座標の移動速度が移動速度閾値よりも大きい場合には、フリック操作が入力されたと判断され(S511:YES)、S513へ進む。   The operation of the mobile terminal 10 according to the second embodiment will be described using the flowchart of FIG. The flow in FIG. 8 is started in response to activation of the print application 21a. In S <b> 511, the CPU 11 determines whether or not a flick operation is input to the coordinate detection unit 19. An example of a method for determining whether or not a flick operation is input will be described. The CPU 11 uses the coordinate detection unit 19 to detect the designated coordinates at a predetermined detection cycle (eg, every several tens of milliseconds). Then, when the movement of the designated coordinate is detected and the designated coordinate is not detected after that, the movement speed of the designated coordinate is calculated. The moving speed of the designated coordinates is calculated based on the distance between the two points of the two designated coordinates detected immediately before the time when the designated coordinates are no longer detected, and the detection cycle. If the calculated movement speed of the designated coordinates is smaller than a predetermined movement speed threshold, it is determined that the flick operation has not been input (S511: NO), and the process returns to S511. On the other hand, if the moving speed of the designated coordinates is greater than the moving speed threshold, it is determined that a flick operation has been input (S511: YES), and the process proceeds to S513.

S513においてCPU11は、携帯端末10が右片手持ち姿勢であるか左片手持ち姿勢であるかを判断する。S513で行われる判断処理の一例を説明する。CPU11は、S511において、指示座標が移動した移動範囲を検出している。この検出された移動範囲が、携帯端末10の筐体の右辺L2寄りに位置している場合には、右片手持ち姿勢であると判断することができる。これは、右手のみでフリック操作を入力する場合には、図9に示すように、筐体の右辺L2側からパネル18へ伸ばした右手の親指をパネル18上で移動させるため、指示座標の移動範囲R1が、筐体の左辺L1よりも右辺L2に近づくためである。一方、検出された移動範囲が、携帯端末10の筐体の左辺L1寄りに位置している場合には、左片手持ち姿勢であると判断することができる。これは、左手のみでフリック操作を入力する場合には、図10に示すように、筐体の左辺L1側からパネル18へ伸ばした左手の親指をパネル18上で移動させるため、指示座標の移動範囲R2が、筐体の右辺L2よりも左辺L1に近づくためである。   In S513, the CPU 11 determines whether the mobile terminal 10 is in the right one-handed posture or the left one-handed posture. An example of the determination process performed in S513 will be described. In step S511, the CPU 11 detects the movement range in which the designated coordinates have moved. When the detected movement range is located closer to the right side L2 of the casing of the mobile terminal 10, it can be determined that the posture is the right hand-held posture. This is because when the flick operation is input with only the right hand, as shown in FIG. 9, the thumb of the right hand extended from the right side L2 side of the housing to the panel 18 is moved on the panel 18, so that the designated coordinates are moved. This is because the range R1 is closer to the right side L2 than the left side L1 of the housing. On the other hand, when the detected movement range is located closer to the left side L1 of the casing of the mobile terminal 10, it can be determined that the posture is the left one-handed posture. This is because when the flick operation is input only with the left hand, as shown in FIG. 10, the thumb of the left hand extended from the left side L1 side of the housing to the panel 18 is moved on the panel 18, so that the designated coordinates are moved. This is because the range R2 is closer to the left side L1 than the right side L2 of the housing.

S513において、携帯端末10が右片手持ち姿勢であると判断された場合(S513:右片手持ち姿勢)には、S515へ進む。S515においてCPU11は、右片手用レイアウト情報をロードする。S517においてCPU11は、S511で入力されたフリック操作のフリック方向に応じて、新たな表示画面をパネル18に表示させる。図11に、右片手用レイアウト情報に基づいた右片手用表示態様で表示されている、切り替え後の表示画面の一例を示す。パネル18には、拡大ボタン画像B2c〜スクロールボタン画像B5cが、右片手用レイアウト情報に基づく右片手用表示態様で表示されている。具体的には、携帯端末10の筐体の左辺L1よりも右辺L2に近づくように、拡大ボタン画像B2c〜スクロールボタン画像B5cが表示されている。そして、拡大ボタン画像B2c〜スクロールボタン画像B5cの各々は、右辺L2に最も近い部分パネル領域SP3の領域内に表示される。   If it is determined in S513 that the mobile terminal 10 is in the right one-handed posture (S513: right one-handed posture), the process proceeds to S515. In S515, the CPU 11 loads the right-handed layout information. In S517, the CPU 11 displays a new display screen on the panel 18 in accordance with the flick direction of the flick operation input in S511. FIG. 11 shows an example of a display screen after switching, which is displayed in a right-handed display mode based on right-handed layout information. On the panel 18, an enlarged button image B2c to a scroll button image B5c are displayed in the right-handed display mode based on the right-handed layout information. Specifically, the enlarged button image B2c to the scroll button image B5c are displayed so as to approach the right side L2 rather than the left side L1 of the casing of the mobile terminal 10. Each of the enlarged button image B2c to the scroll button image B5c is displayed in the area of the partial panel area SP3 that is closest to the right side L2.

S523においてCPU11は、入力ボックス画像B1c〜スクロールボタン画像B5cの何れかがタッチされたか否かを判断する。タッチされていない場合(S523:NO)にはS527へ進み、タッチされた場合(S523:YES)にはS525へ進む。S525においてCPU11は、タッチされたボタン画像に割り当てられている処理を実行する。なお、実行される処理の内容は、S410、S422、S424およびS425で説明した処理の内容と同様であるため、ここでは説明を省略する。   In S523, the CPU 11 determines whether any of the input box image B1c to the scroll button image B5c is touched. If not touched (S523: NO), the process proceeds to S527. If touched (S523: YES), the process proceeds to S525. In S525, the CPU 11 executes a process assigned to the touched button image. Note that the content of the executed process is the same as the content of the process described in S410, S422, S424, and S425, and thus the description thereof is omitted here.

S527においてCPU11は、フリック操作がパネル18に入力されたか否かを判断する。入力されていない場合(S527:NO)にはS523へ戻り、入力された場合(S527:YES)にはS513へ戻る。   In S527, the CPU 11 determines whether or not a flick operation has been input to the panel 18. When it is not input (S527: NO), the process returns to S523, and when it is input (S527: YES), the process returns to S513.

一方、S513において、携帯端末10が左片手持ち姿勢であると判断された場合(S513:左片手持ち姿勢)には、S535へ進む。S535においてCPU11は、左片手用レイアウト情報をロードする。S537においてCPU11は、S511で入力されたフリック操作のフリック方向に応じて、新たな表示画面をパネル18に表示させる。図4に、左片手用レイアウト情報に基づいた左片手用表示態様で表示されている、切り替え後の表示画面の一例を示す。パネル18には、拡大ボタン画像B2a〜スクロールボタン画像B5aが、左片手用レイアウト情報に基づく左片手用表示態様で表示されている。具体的には、携帯端末10の筐体の右辺L2よりも左辺L1に近づくように、拡大ボタン画像B2a〜スクロールボタン画像B5aが表示されている。そして、拡大ボタン画像B2a〜スクロールボタン画像B5aの各々は、左辺L1に最も近い部分パネル領域SP1の領域内に表示される。   On the other hand, when it is determined in S513 that the mobile terminal 10 is in the left one-handed posture (S513: left one-handed posture), the process proceeds to S535. In S535, the CPU 11 loads the left one-hand layout information. In S537, the CPU 11 causes the panel 18 to display a new display screen according to the flick direction of the flick operation input in S511. FIG. 4 shows an example of the display screen after switching that is displayed in the left-handed display mode based on the left-handed layout information. On the panel 18, an enlarged button image B2a to a scroll button image B5a are displayed in a left-handed display mode based on left-handed layout information. Specifically, the enlarged button image B2a to the scroll button image B5a are displayed so as to be closer to the left side L1 than to the right side L2 of the casing of the mobile terminal 10. Each of the enlarged button image B2a to the scroll button image B5a is displayed in the area of the partial panel area SP1 that is closest to the left side L1.

S543においてCPU11は、入力ボックス画像B1a〜スクロールボタン画像B5aの何れかがタッチされたか否かを判断する。タッチされていない場合(S543:NO)にはS547へ進み、タッチされた場合(S543:YES)にはS545へ進む。S545においてCPU11は、タッチされたボタン画像に割り当てられている処理を実行する。S547においてCPU11は、フリック操作がパネル18に入力されたか否かを判断する。入力されていない場合(S547:NO)にはS543へ戻り、入力された場合(S547:YES)にはS513へ戻る。   In S543, the CPU 11 determines whether any of the input box image B1a to the scroll button image B5a is touched. If not touched (S543: NO), the process proceeds to S547. If touched (S543: YES), the process proceeds to S545. In S545, the CPU 11 executes processing assigned to the touched button image. In S547, the CPU 11 determines whether or not a flick operation has been input to the panel 18. If it is not input (S547: NO), the process returns to S543. If it is input (S547: YES), the process returns to S513.

<第2実施形態の効果>
本明細書に記載されている携帯端末10では、フリック操作によって表示画面が切り替えられる際に、携帯端末10が右片手持ち姿勢であることが検出される場合には、図11の切り替え後の表示画面に示すように、携帯端末10の筐体の左辺L1よりも右辺L2に近づくように、拡大ボタン画像B2c〜スクロールボタン画像B5cを表示することができる(例:S517)。右手のみで携帯端末10を操作する場合には、右手の親指を携帯端末10の右辺L2側からパネル18へ伸ばすようにして操作する場合が多いため、親指の指先が届き易い位置に各種のボタン画像を表示することができる。よって、ユーザの操作性を高めることができる。
<Effects of Second Embodiment>
In the portable terminal 10 described in this specification, when the display screen is switched by a flick operation, when it is detected that the portable terminal 10 is in the right one-handed posture, the display after switching in FIG. As shown on the screen, the enlarged button image B2c to the scroll button image B5c can be displayed so as to approach the right side L2 rather than the left side L1 of the casing of the mobile terminal 10 (example: S517). When operating the mobile terminal 10 with only the right hand, since the thumb of the right hand is often extended from the right side L2 side of the mobile terminal 10 to the panel 18, various buttons are provided at positions where the fingertip of the thumb can easily reach. An image can be displayed. Therefore, user operability can be improved.

また、フリック操作によって表示画面が切り替えられる際に、携帯端末10が左片手持ち姿勢であることが検出される場合には、図4の切り替え後の表示画面に示すように、携帯端末10の筐体の右辺L2よりも左辺L1に近づくように、拡大ボタン画像B2a〜スクロールボタン画像B5aを表示することができる(例:S537)。左手のみで携帯端末10を操作する場合には、左手の親指を携帯端末10の左辺L1側からパネル18へ伸ばすようにして操作する場合が多いため、親指の指先が届き易い位置に各種のボタン画像を表示することができる。よって、ユーザの操作性を高めることができる。   When the display screen is switched by a flick operation, if it is detected that the mobile terminal 10 is in the left one-handed posture, the housing of the mobile terminal 10 is displayed as shown in the display screen after switching in FIG. The enlarged button image B2a to the scroll button image B5a can be displayed so as to approach the left side L1 rather than the right side L2 of the body (example: S537). When operating the mobile terminal 10 with only the left hand, since the left hand thumb is often extended from the left side L1 side of the mobile terminal 10 to the panel 18, various buttons are placed at positions where the fingertip of the thumb can easily reach. An image can be displayed. Therefore, user operability can be improved.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The modifications of the above embodiment are listed below.

<変形例>
S513において、携帯端末10の姿勢を判断する方法には、多様な方法を用いることが可能である。例えばCPU11は、S511において、指示座標が移動した移動方向を検出するとしてもよい。そして、図9の矢印Y1に示すように、検出した移動方向が、携帯端末10の筐体の下辺L3に対して右斜め上方向の角度を有している場合には、右片手持ち姿勢であると判断するとしてもよい。これは、右手のみでフリック操作を入力する場合には、筐体の右辺L2側からパネル18へ伸ばした右手の親指を、親指の根元を支点として動かすためである。このため、左右方向のフリック操作および上下方向のフリック操作の何れを入力する場合においても、親指の指先が左辺L1側から右辺L2側へ移動するに従って、親指の指先の位置がパネル18の上方向に移動しやすい傾向があるためである。また、図10の矢印Y2に示すように、検出した移動方向が、携帯端末10の筐体の下辺L3に対して左斜め上方向の角度を有している場合には、左片手持ち姿勢であると判断するとしてもよい。これは、左手のみでフリック操作を入力する場合には、筐体の左辺L1側からパネル18へ伸ばした左手の親指を、親指の根元を支点として動かすためである。これにより、親指の指先が届き易い位置に各種のボタン画像を表示することができるため、ユーザの操作性を高めることができる。
<Modification>
In S513, various methods can be used as a method of determining the attitude of the mobile terminal 10. For example, the CPU 11 may detect the movement direction in which the designated coordinates have moved in S511. Then, as shown by an arrow Y1 in FIG. 9, when the detected moving direction has an angle in the diagonally upper right direction with respect to the lower side L3 of the casing of the mobile terminal 10, the right hand-held posture is used. It may be judged that there is. This is because when the flick operation is input only with the right hand, the thumb of the right hand extended from the right side L2 side of the housing to the panel 18 is moved using the base of the thumb as a fulcrum. For this reason, when inputting either the left-right flick operation or the up-down flick operation, the position of the thumb fingertip moves upward in the panel 18 as the thumb fingertip moves from the left side L1 side to the right side L2 side. This is because it tends to move easily. In addition, as shown by an arrow Y2 in FIG. 10, when the detected moving direction has an angle in the upper left direction with respect to the lower side L3 of the casing of the mobile terminal 10, the left one-handed posture is used. It may be judged that there is. This is because when the flick operation is input only with the left hand, the thumb of the left hand extended from the left side L1 side of the housing to the panel 18 is moved using the base of the thumb as a fulcrum. Thereby, since various button images can be displayed at a position where the fingertip of the thumb can easily reach, the user operability can be improved.

S513において、携帯端末10の姿勢を判断する方法には、多様な方法を用いることが可能である。例えば、携帯端末10は、左辺L1と右辺L2のうち、右辺L2に近づくように重心が偏って位置していてもよい。S513においてCPU11は、携帯端末10の筐体の右辺L2がユーザから見て右側に位置している場合には、右片手持ち姿勢であると判断するとしてもよい。右辺L2がユーザから見て右側に位置する携帯端末10の姿勢とは、図9に示すように、右辺L2が左辺L1に対して右側に位置し、スピーカ3が筐体の上側に位置する姿勢である。これは、右手のみで携帯端末10を保持する場合には、重心が偏っている右辺L2が親指の付け根付近に位置する姿勢が持ちやすいため、右辺L2がユーザから見て右側に位置するように携帯端末10が保持される傾向があるためである。また、S513においてCPU11は、携帯端末10の筐体の右辺L2がユーザから見て左側に位置している場合には、左片手持ち姿勢であると判断するとしてもよい。右辺L2がユーザから見て左側に位置する携帯端末10の姿勢とは、左辺L1が右辺L2に対して右側に位置し、スピーカ3が筐体の下側に位置する姿勢である。すなわち、図9に示す携帯端末10の姿勢を180度回転させた姿勢である。これは、左手のみで携帯端末10を保持する場合には、重心が偏っている右辺L2が親指の付け根付近に位置する姿勢が持ちやすいため、右辺L2がユーザから見て左側に位置するように携帯端末10が保持される傾向があるためである。これにより、親指の指先が届き易い位置に各種のボタン画像を表示することができるため、ユーザの操作性を高めることができる。   In S513, various methods can be used as a method of determining the attitude of the mobile terminal 10. For example, the mobile terminal 10 may be positioned such that the center of gravity is biased so as to approach the right side L2 of the left side L1 and the right side L2. In S513, when the right side L2 of the casing of the mobile terminal 10 is positioned on the right side as viewed from the user, the CPU 11 may determine that the posture is the right hand-held posture. The posture of the mobile terminal 10 in which the right side L2 is located on the right side when viewed from the user is the posture in which the right side L2 is located on the right side with respect to the left side L1 and the speaker 3 is located on the upper side of the housing as shown in FIG. It is. This is because when the mobile terminal 10 is held only with the right hand, the right side L2 having a biased center of gravity is likely to be positioned near the base of the thumb, so the right side L2 is positioned on the right side when viewed from the user. This is because the mobile terminal 10 tends to be held. In S513, when the right side L2 of the casing of the mobile terminal 10 is located on the left side when viewed from the user, the CPU 11 may determine that the posture is the left one-hand holding posture. The posture of the mobile terminal 10 in which the right side L2 is located on the left side when viewed from the user is a posture in which the left side L1 is located on the right side with respect to the right side L2 and the speaker 3 is located on the lower side of the casing. That is, it is a posture obtained by rotating the posture of the mobile terminal 10 shown in FIG. 9 by 180 degrees. This is because when the mobile terminal 10 is held only with the left hand, the right side L2 having a biased center of gravity is likely to be positioned near the base of the thumb, so that the right side L2 is positioned on the left side when viewed from the user. This is because the mobile terminal 10 tends to be held. Thereby, since various button images can be displayed at a position where the fingertip of the thumb can easily reach, the user operability can be improved.

ランドスケープ態様で表示されている表示画面(図5参照)では、ポートレート態様で表示されている表示画面(図4参照)に含まれているボタン画像に対応するボタン画像の表示を省略することができるとしたが、この形態に限られない。例えば、ポートレート態様の表示画面(図5を参照)では、拡大ボタン画像B2aまたは縮小ボタン画像B3aに対応するボタンを表示するとともに、ピンチアウト操作またはピンチイン操作の入力も受け付けるとしてもよい。   In the display screen (see FIG. 5) displayed in the landscape mode, the display of the button image corresponding to the button image included in the display screen (see FIG. 4) displayed in the portrait mode may be omitted. Although it was possible, it is not restricted to this form. For example, on the portrait display screen (see FIG. 5), a button corresponding to the enlarged button image B2a or the reduced button image B3a may be displayed and an input of a pinch-out operation or a pinch-in operation may be accepted.

S411において入力を受け付ける指示の種類は、ウェブページ画像の表示指示に限られない。例えば、HTMLメールの表示指示などであってもよい。   The type of instruction for receiving an input in S411 is not limited to a web page image display instruction. For example, an HTML mail display instruction may be used.

図4、図5および図11に示したパネル18の表示態様は一例であり、他の表示態様を用いることも可能である。   The display mode of the panel 18 shown in FIGS. 4, 5 and 11 is an example, and other display modes can be used.

各種の画像の表示位置を決定する際の基準となる、パネル18の表示原点は、パネル18の左上隅部に限られない。携帯端末10の種類に応じて、様々な位置を基準位置とすることが可能である。   The display origin of the panel 18 that is a reference for determining the display position of various images is not limited to the upper left corner of the panel 18. Various positions can be set as the reference position according to the type of the mobile terminal 10.

本実施形態では、印刷アプリケーション21aに基づいて実行するCPU11が、各種の処理を行う場合を説明した。しかし、この形態に限られない。変形例として、印刷アプリケーション21aに基づいて実行するCPU11が、オペレーティングシステム21e、他のプログラム、ハード構成(パネル18など)に対して、各種の処理を行わせる指示を出す形態であってもよい。   In the present embodiment, the case where the CPU 11 executed based on the print application 21a performs various processes has been described. However, it is not limited to this form. As a modified example, the CPU 11 executed based on the print application 21a may issue an instruction to perform various types of processing to the operating system 21e, other programs, and hardware configuration (panel 18 or the like).

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

携帯端末10は携帯端末の一例である。傾きセンサ29はセンサ情報出力部の一例である。パネル18は表示部の一例である。指先などは指示体の一例である。CPU11はコンピュータの一例である。印刷アプリケーション21aはプログラムの一例である。ポートレート態様は第1態様の一例である。入力ボックス画像B1a〜スクロールボタン画像B5aはオブジェクト画像の一例である。ランドスケープ態様は第1態様以外の態様の一例である。S417、S437を実行するCPU11は、第1表示制御手段の一例である。ピンチイン操作およびピンチアウト操作は所定の入力態様の一例である。S425、S445を実行するCPU11は、第1処理実行手段の一例である。拡大ボタン画像B2a、縮小ボタン画像B3aは、第1オブジェクト画像の一例である。キーボード画像B11aおよびB11bは文字列入力画像の一例である。右片手持ち姿勢は第1姿勢の一例である。左片手持ち姿勢は第2姿勢の一例である。S517およびS537を実行するCPU11は、第2表示制御手段の一例である。S525、S545を実行するCPU11は、第2処理実行手段の一例である。S517、S537を実行するCPU11は、第3表示制御手段の一例である。   The mobile terminal 10 is an example of a mobile terminal. The tilt sensor 29 is an example of a sensor information output unit. The panel 18 is an example of a display unit. A fingertip is an example of an indicator. The CPU 11 is an example of a computer. The print application 21a is an example of a program. The portrait mode is an example of the first mode. The input box image B1a to the scroll button image B5a are examples of object images. The landscape aspect is an example of an aspect other than the first aspect. The CPU 11 that executes S417 and S437 is an example of a first display control unit. The pinch-in operation and the pinch-out operation are examples of predetermined input modes. The CPU 11 that executes S425 and S445 is an example of a first process execution unit. The enlarged button image B2a and the reduced button image B3a are examples of the first object image. Keyboard images B11a and B11b are examples of character string input images. The right hand-held posture is an example of a first posture. The left one-handed posture is an example of the second posture. The CPU 11 that executes S517 and S537 is an example of a second display control unit. The CPU 11 that executes S525 and S545 is an example of a second process execution unit. The CPU 11 that executes S517 and S537 is an example of a third display control unit.

なお、各プログラムは一つのプログラムモジュールから構成されるものであってもよいし、複数のプログラムモジュールから構成されるものであってもよい。また、各一例は置換可能な他の構成であってもよく、本発明の範疇である。画像処理プログラム(印刷アプリケーション21aなど)に基づく処理を実行するコンピュータ(CPU11など)であってもよいし、オペレーティングシステムや他のアプリケーションなど、画像処理プログラム以外のプログラムに基づく処理を実行するコンピュータであってもよいし、コンピュータの指示に従って動作するハード構成(パネル18など)であってもよいし、コンピュータとハード構成とが連動した構成であってもよい。もちろん、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータであってもよいし、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータの指示に従って動作するハード構成であってもよい。   Each program may be composed of a single program module, or may be composed of a plurality of program modules. In addition, each example may have another replaceable configuration and is within the scope of the present invention. It may be a computer (CPU 11 or the like) that executes processing based on an image processing program (print application 21a or the like), or a computer that executes processing based on a program other than the image processing program, such as an operating system or another application. Alternatively, it may be a hardware configuration (panel 18 or the like) that operates according to instructions from the computer, or may be a configuration in which the computer and the hardware configuration are linked. Of course, it may be a computer that executes processes by linking processes based on a plurality of programs, or may have a hardware configuration that operates according to instructions from a computer that executes processes by linking processes based on a plurality of programs. Good.

1:通信システム、10:携帯端末、11:CPU、12:記憶部、18:パネル、21a:印刷アプリケーション、21e:オペレーティングシステム、29:傾きセンサ、31:ポートレートレイアウト情報、33:ランドスケープレイアウト情報、B2a:スクロールボタン画像、B3a:縮小ボタン画像、B4aおよびB5a:スクロールボタン画像、B4bおよびB5b:スクロールボタン画像
1: communication system, 10: portable terminal, 11: CPU, 12: storage unit, 18: panel, 21a: printing application, 21e: operating system, 29: tilt sensor, 31: portrait layout information, 33: landscape layout information , B2a: scroll button image, B3a: reduced button image, B4a and B5a: scroll button image, B4b and B5b: scroll button image

Claims (12)

矩形形状の筐体と、
表示部と、
携帯端末自身の姿勢に基づくセンサ情報を出力するセンサ情報出力部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
を備えた携帯端末のコンピュータが読み取り可能なプログラムであって、
前記コンピュータを、
前記センサ情報出力部が出力するセンサ情報が示す前記携帯端末の姿勢がポートレート姿勢である場合には、前記表示部を備える面とは反対の面に掌をあて、前記筐体の一方の長辺側から親指を前記指示体として前記表示部に接触させる場合に前記指示体による入力操作を受け付けることができる態様である第1態様で、各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、
前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様で、前記オブジェクト画像を前記表示部に表示させない第1表示制御手段と、
第1処理実行手段と、
して機能させ
前記第1処理実行手段は、
前記第1態様で前記オブジェクト画像が表示されている場合には、前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行し、前記指示座標が予め定められた所定の入力態様で入力される場合に前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行せず、
前記第1態様で前記オブジェクト画像が表示されていない場合には、前記指示座標が前記所定の入力態様で入力されることに応じて、前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行することを特徴とするプログラム。
A rectangular housing;
A display unit;
A sensor information output unit that outputs sensor information based on the attitude of the mobile terminal itself;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
A computer readable program of a mobile terminal equipped with
The computer,
When the posture of the mobile terminal indicated by the sensor information output by the sensor information output unit is a portrait posture, a palm is placed on the surface opposite to the surface provided with the display unit, and one length of the casing in the first aspect is an aspect in which the input operation by the indicator can be attached accepted when brought into contact with the display unit the thumb as the pointer from the side, the object for receiving an execution start instruction for various processes An image is displayed on the display unit,
When the attitude of the mobile terminal indicated by the sensor information is a landscape attitude, in the first aspect, a first display control unit that does not display the object image on the display unit;
First process execution means;
To function
The first process execution means includes:
Wherein in the case where the object image is displayed first aspect, when the indicated coordinate detected by the coordinate detecting unit is a coordinate corresponding to the object image to the person the indicated coordinate set corresponding object image Executes the assigned process, and executes the same process as the process assigned to the object image corresponding to the predetermined input mode when the designated coordinates are input in a predetermined input mode. Without
Wherein in the case where the object image is not displayed first aspect, in response to the indicated coordinate is input in the predetermined input manner, assigned to the object image corresponding to the predetermined input manner A program characterized by executing the same processing as the existing processing.
前記第1表示制御手段は、前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様以外の態様で、前記オブジェクト画像を前記表示部に表示させ、
前記第1表示制御手段は、前記筐体の一方の長辺に比して、前記筐体の他方の長辺に近い位置に、前記第1態様での前記オブジェクト画像を表示させることを特徴とする請求項1に記載のプログラム。
When the posture of the mobile terminal indicated by the sensor information is a landscape posture, the first display control unit causes the display unit to display the object image in a manner other than the first aspect,
Said first display control means, and wherein compared to one long side of the housing, at a position close to the other long side of the housing, thereby displaying the object image in the first embodiment The program according to claim 1.
前記第1表示制御手段は、前記表示部を短辺方向に3等分した部分表示部のうち、前記筐体の一方の長辺に最も近い部分表示部に、前記第1態様での前記オブジェクト画像を表示させることを特徴とする請求項1または2に記載のプログラム。   The first display control means is configured such that, of the partial display units obtained by dividing the display unit into three equal parts in the short side direction, the partial display unit closest to one long side of the housing has the object in the first mode. The program according to claim 1, wherein an image is displayed. 前記オブジェクト画像は、前記所定の入力態様に対応している第1オブジェクト画像と、前記所定の入力態様に対応していない第2オブジェクト画像と、を含んでおり、The object image includes a first object image corresponding to the predetermined input mode and a second object image not corresponding to the predetermined input mode,
前記第1表示制御手段は、The first display control means includes
前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合には、前記第1オブジェクト画像および前記第2オブジェクト画像を前記表示部に表示させ、When the posture of the mobile terminal indicated by the sensor information is the portrait posture, the first object image and the second object image are displayed on the display unit,
前記センサ情報が示す前記携帯端末の姿勢が前記ランドスケープ姿勢である場合には、前記第1オブジェクト画像を前記表示部に表示させずに前記第2オブジェクト画像を前記表示部に表示させ、When the posture of the mobile terminal indicated by the sensor information is the landscape posture, the second object image is displayed on the display unit without displaying the first object image on the display unit,
第1処理実行手段は、前記第1オブジェクト画像が前記表示部に表示されていない場合に、前記指示座標が前記所定の入力態様で入力されることに応じて、当該所定の入力態様に対応する前記第1オブジェクト画像に割り当てられている処理を実行することを特徴とする請求項1〜3の何れか1項に記載のプログラム。The first processing execution means corresponds to the predetermined input mode in response to the instruction coordinates being input in the predetermined input mode when the first object image is not displayed on the display unit. The program according to any one of claims 1 to 3, wherein the process assigned to the first object image is executed.
前記第1オブジェクト画像には、前記表示部に表示させる画像を拡大または縮小する処理である拡縮処理が割り当てられており、
前記座標検出部は、同時に2つの指示座標を検出することが可能であり、
前記第1処理実行手段は、前記センサ情報が示す前記携帯端末の姿勢が前記ランドスケープ姿勢である場合に、2つの指示座標の間の距離が変化するという内容の前記所定の入力態様が入力されることに応じて、当該所定の入力態様に対応する前記第1オブジェクト画像に割り当てられている前記拡縮処理を実行することを特徴とする請求項に記載のプログラム。
The first object image is assigned an enlargement / reduction process that is an enlargement / reduction process of an image to be displayed on the display unit,
The coordinate detection unit can detect two designated coordinates simultaneously ,
The first process execution means receives the predetermined input mode in which the distance between two designated coordinates changes when the attitude of the mobile terminal indicated by the sensor information is the landscape attitude. 5. The program according to claim 4 , wherein the enlargement / reduction processing assigned to the first object image corresponding to the predetermined input mode is executed accordingly.
前記第1表示制御手段は、前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合には、各種の文字列の入力を受け付ける文字列入力画像を前記第1態様で表示させ、前記センサ情報が示す前記携帯端末の姿勢が前記ランドスケープ姿勢である場合には、前記文字列入力画像を前記第1態様以外の態様で表示させ、
前記文字列入力画像が前記表示部の表示面に占める面積が、前記第1態様以外の態様に比して前記第1態様の方が小さいことを特徴とする請求項1〜の何れか1項に記載のプログラム。
When the posture of the mobile terminal indicated by the sensor information is the portrait posture, the first display control means displays a character string input image for accepting input of various character strings in the first aspect, When the posture of the mobile terminal indicated by the sensor information is the landscape posture, the character string input image is displayed in a mode other than the first mode,
The character string input image the area occupied on the display surface of the display unit, any one of claims 1-5, characterized in that towards the first embodiment in comparison with the embodiment other than the first embodiment is less 1 The program described in the section.
記表示部を備える面とは反対の面に右手の掌をあて、前記筐体の右辺側から親指を前記指示体として前記表示部に接触させる第1姿勢、または、前記表示部を備える面とは反対の面に左手の掌をあて、前記筐体の左辺側から親指を前記指示体として前記表示部に接触させる第2姿勢であるかを検出する姿勢検出手段として、前記コンピュータをさらに機能させ、
前記第1表示制御手段は、
前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合に、前記姿勢検出手段によって前記第1姿勢であることが検出されている場合には、垂直方向寄りに伸びている前記筐体の左辺および右辺のうち、前記左辺よりも前記右辺に近づくように各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、
前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合に、前記姿勢検出手段によって前記第2姿勢であることが検出されている場合には、前記右辺よりも前記左辺に近づくように前記オブジェクト画像を前記表示部に表示させることを特徴とする請求項1〜5の何れか1項に記載のプログラム。
It addressed the palm of the right hand to the opposite surface to the surface provided with the front Symbol display unit, a first position contacting the thumb from the right side of the housing on the display unit as the indicator, or a surface provided with the display unit It addressed the palm of the left hand on the opposite side to the, as a posture detection means for detecting whether the second position is brought into contact with the display unit the thumb as the pointer from the left side of the housing, the computer Make it work,
The first display control means includes
When the attitude of the mobile terminal indicated by the sensor information is the portrait attitude, and the attitude detecting unit detects that the attitude is the first attitude, the casing extending toward the vertical direction is used. Of the left side and the right side of the body, display an object image for accepting an instruction to start execution of various processes so as to be closer to the right side than the left side.
When the attitude of the mobile terminal indicated by the sensor information is the portrait attitude, and the attitude detection unit detects that the attitude is the second attitude, the mobile terminal is closer to the left side than the right side. The program according to any one of claims 1 to 5 , wherein the object image is displayed on the display unit .
前記コンピュータを、
前記座標検出部によって指示座標が検出されるとともに検出された指示座標の移動が検出された場合に、表示画面を前記表示部に切り替えさせる第表示制御手段としてさらに機能させ、
前記姿勢検出手段は、前記座標検出部で検出された前記指示座標が移動している範囲である移動範囲が前記表示部の前記右辺寄りに位置している場合には、前記第1姿勢であると判断し、前記移動範囲が前記表示部の前記左辺寄りに位置している場合には、前記第2姿勢であると判断し、
前記第表示制御手段は、前記第表示制御手段による切り替え後の表示画面において、前記姿勢検出手段での検出結果に基づいて、前記オブジェクト画像を前記表示部に表示させることを特徴とする請求項に記載のプログラム。
The computer,
When the designated coordinates are detected by the coordinate detecting unit and the detected designated coordinate is detected to move, the display unit further functions as second display control means for switching the display screen to the display unit,
The posture detection means is in the first posture when a movement range, which is a range in which the designated coordinates detected by the coordinate detection unit are moving, is located closer to the right side of the display unit. If the movement range is located closer to the left side of the display unit, it is determined to be the second posture,
The first display control means causes the display unit to display the object image on the display screen after switching by the second display control means based on a detection result by the posture detection means. Item 8. The program according to item 7 .
前記コンピュータを、前記座標検出部によって指示座標が検出されるとともに検出された指示座標の移動が検出された場合に、表示画面を前記表示部に切り替えさせる第表示制御手段としてさらに機能させ、
前記姿勢検出手段は、前記座標検出部で検出された前記指示座標が、前記右辺および前記左辺と直交する辺である前記表示部の下辺に対して右斜め上方向の角度を有して移動している場合には前記第1姿勢であると判断し、前記座標検出部で検出された前記指示座標が、前記下辺に対して左斜め上方向の角度を有して移動している場合には前記第2姿勢であると判断し、
前記第表示制御手段は、前記第表示制御手段による切り替え後の表示画面において、前記姿勢検出手段での検出結果に基づいて、前記オブジェクト画像を前記表示部に表示させることを特徴とする請求項に記載のプログラム。
The computer is further caused to function as second display control means for switching the display screen to the display unit when the coordinate detection unit detects the designated coordinate and movement of the detected designated coordinate is detected,
The posture detection unit moves the pointing coordinates detected by the coordinate detection unit with an angle in a diagonally upward right direction with respect to a lower side of the display unit which is a side orthogonal to the right side and the left side. If it is determined that the posture is the first posture, and the indicated coordinate detected by the coordinate detection unit is moving with an angle in the upper left direction with respect to the lower side Judge that it is the second posture,
The first display control means causes the display unit to display the object image on the display screen after switching by the second display control means based on a detection result by the posture detection means. Item 8. The program according to item 7 .
前記携帯端末は、互いに平行に伸びる第1の辺と第2の辺のうち、前記第1の辺に近づくように重心が偏って位置しており、
前記コンピュータを、前記座標検出部によって指示座標が検出されるとともに検出された指示座標の移動が検出された場合に、表示画面を前記表示部に切り替えさせる第表示制御手段としてさらに機能させ、
前記姿勢検出手段は、前記第1の辺が前記右辺寄りに位置している場合には、前記第1姿勢であると判断し、前記第1の辺が前記左辺寄りに位置している場合には、前記第2姿勢であると判断し、
前記第表示制御手段は、前記第表示制御手段による切り替え後の表示画面において、前記姿勢検出手段での検出結果に基づいて、前記オブジェクト画像を前記表示部に表示させることを特徴とする請求項に記載のプログラム。
The mobile terminal has a center of gravity biased so as to approach the first side of the first side and the second side extending in parallel with each other,
The computer is further caused to function as second display control means for switching the display screen to the display unit when the coordinate detection unit detects the designated coordinate and movement of the detected designated coordinate is detected,
When the first side is located near the right side, the posture detection unit determines that the posture is the first posture, and when the first side is located near the left side. Is determined to be in the second posture,
The first display control means causes the display unit to display the object image on the display screen after switching by the second display control means based on a detection result by the posture detection means. Item 8. The program according to item 7 .
矩形形状の筐体と、
表示部と、
携帯端末自身の姿勢に基づくセンサ情報を出力するセンサ情報出力部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
前記センサ情報出力部が出力するセンサ情報が示す前記携帯端末の姿勢がポートレート姿勢である場合には、前記表示部を備える面とは反対の面に掌をあて、前記筐体の一方の長辺側から親指を前記指示体として前記表示部に接触させる場合に前記指示体による入力操作を受け付けることができる態様である第1態様で、各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様で、前記オブジェクト画像を前記表示部に表示させない第1表示制御手段と、
第1処理実行手段と、
を備え、
前記第1処理実行手段は、
前記第1態様で前記オブジェクト画像が表示されている場合には、前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行し、前記指示座標が予め定められた所定の入力態様で入力される場合に前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行せず、
前記第1態様で前記オブジェクト画像が表示されていない場合には、前記指示座標が前記所定の入力態様で入力されることに応じて、前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行することを特徴とする携帯端末。
A rectangular housing;
A display unit;
A sensor information output unit that outputs sensor information based on the attitude of the mobile terminal itself;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
When the posture of the mobile terminal indicated by the sensor information output by the sensor information output unit is a portrait posture, a palm is placed on the surface opposite to the surface provided with the display unit, and one length of the casing in the first aspect is an aspect in which the input operation by the indicator can be attached accepted when brought into contact with the display unit the thumb as the pointer from the side, the object for receiving an execution start instruction for various processes A first display control means for displaying an image on the display unit and not displaying the object image on the display unit in the first mode when the attitude of the mobile terminal indicated by the sensor information is a landscape attitude; ,
First process execution means;
With
The first process execution means includes:
When the object image is displayed in the first mode, the designated coordinate is assigned to the corresponding object image when the designated coordinate detected by the coordinate detection unit is a coordinate corresponding to the object image. If the designated coordinates are input in a predetermined input mode, the same processing as that assigned to the object image corresponding to the predetermined input mode is executed. Without
Wherein in the case where the object image is not displayed first aspect, in response to the indicated coordinate is input in the predetermined input manner, assigned to the object image corresponding to the predetermined input manner A portable terminal characterized by executing the same processing as the existing processing.
矩形形状の筐体と、
各種の画像を表示する表示部と、
携帯端末自身の姿勢に基づくセンサ情報を出力するセンサ情報出力部と、
前記表示部の表示領域内へ指示体が接触した位置を示す座標である指示座標を検出する座標検出部と、
前記センサ情報出力部が出力するセンサ情報が示す前記携帯端末の姿勢がポートレート姿勢である場合には、前記表示部を備える面とは反対の面に掌をあて、前記筐体の一方の長辺側から親指を前記指示体として前記表示部に接触させる場合に前記指示体による入力操作を受け付けることができる態様である第1態様で、各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、前記センサ情報が示す前記携帯端末の姿勢がランドスケープ姿勢である場合には、前記第1態様で、前記オブジェクト画像を前記表示部に表示させない第1表示制御手段と、
第1処理実行手段と、
前記表示部を備える面とは反対の面に右手の掌をあて、前記筐体の右辺側から親指を前記指示体として前記表示部に接触させる第1姿勢、または、前記表示部を備える面とは反対の面に左手の掌をあて、前記筐体の左辺側から親指を前記指示体として前記表示部に接触させる第2姿勢であるかを検出する姿勢検出手段と、
を備え、
前記第1表示制御手段は、
前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合に、前記姿勢検出手段によって前記第1姿勢であることが検出されている場合には、垂直方向寄りに伸びている前記筐体の左辺および右辺のうち、前記左辺よりも前記右辺に近づくように各種の処理の実行開始命令を受け付けるためのオブジェクト画像を前記表示部に表示させ、
前記センサ情報が示す前記携帯端末の姿勢が前記ポートレート姿勢である場合に、前記姿勢検出手段によって前記第2姿勢であることが検出されている場合には、前記右辺よりも前記左辺に近づくように前記オブジェクト画像を前記表示部に表示させ、
前記第1処理実行手段は、
前記第1態様で前記オブジェクト画像が表示されている場合には、前記座標検出部によって検出される前記指示座標が前記オブジェクト画像に対応する座標である場合に当該指示座標が対応するオブジェクト画像に割り当てられている処理を実行し、前記指示座標が予め定められた所定の入力態様で入力される場合に前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行せず、
前記第1態様で前記オブジェクト画像が表示されていない場合には、前記指示座標が前記所定の入力態様で入力されることに応じて、前記所定の入力態様に対応する前記オブジェクト画像に割り当てられている処理と同様の処理を実行することを特徴とする携帯端末。
A rectangular housing;
A display unit for displaying various images;
A sensor information output unit that outputs sensor information based on the attitude of the mobile terminal itself;
A coordinate detection unit for detecting indication coordinates which are coordinates indicating a position where the indicator contacts the display area of the display unit;
When the posture of the mobile terminal indicated by the sensor information output by the sensor information output unit is a portrait posture, a palm is placed on the surface opposite to the surface provided with the display unit, and one length of the casing An object image for receiving various processing execution start instructions is a first aspect in which an input operation by the indicator can be accepted when the thumb is brought into contact with the display unit as the indicator from the side. A first display control unit configured to display the object image on the display unit when the posture of the mobile terminal indicated by the sensor information is a landscape posture displayed on the display unit;
First process execution means;
A first posture in which the palm of the right hand is placed on a surface opposite to the surface including the display unit, and a thumb is brought into contact with the display unit as the indicator from the right side of the housing; or a surface including the display unit Is a posture detecting means for detecting whether the second posture is to place the palm of the left hand on the opposite side and to bring the thumb into contact with the display unit as the indicator from the left side of the housing;
With
The first display control means includes
When the attitude of the mobile terminal indicated by the sensor information is the portrait attitude, and the attitude detecting unit detects that the attitude is the first attitude, the casing extending toward the vertical direction is used. Of the left side and the right side of the body, display an object image for accepting an instruction to start execution of various processes so as to be closer to the right side than the left side.
When the attitude of the mobile terminal indicated by the sensor information is the portrait attitude, and the attitude detection unit detects that the attitude is the second attitude, the mobile terminal is closer to the left side than the right side. To display the object image on the display unit,
The first process execution means includes:
When the object image is displayed in the first mode, the designated coordinate is assigned to the corresponding object image when the designated coordinate detected by the coordinate detection unit is a coordinate corresponding to the object image. If the designated coordinates are input in a predetermined input mode, the same processing as that assigned to the object image corresponding to the predetermined input mode is executed. Without
When the object image is not displayed in the first mode, the instruction coordinates are assigned to the object image corresponding to the predetermined input mode in response to the input of the designated coordinates in the predetermined input mode. A portable terminal characterized by executing the same processing as the existing processing .
JP2012142750A 2012-06-26 2012-06-26 Programs and mobile devices Active JP5994428B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012142750A JP5994428B2 (en) 2012-06-26 2012-06-26 Programs and mobile devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012142750A JP5994428B2 (en) 2012-06-26 2012-06-26 Programs and mobile devices

Publications (2)

Publication Number Publication Date
JP2014006761A JP2014006761A (en) 2014-01-16
JP5994428B2 true JP5994428B2 (en) 2016-09-21

Family

ID=50104408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012142750A Active JP5994428B2 (en) 2012-06-26 2012-06-26 Programs and mobile devices

Country Status (1)

Country Link
JP (1) JP5994428B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467821B2 (en) * 2014-08-28 2019-02-13 コニカミノルタ株式会社 Portable terminal device, image processing method and image processing program in the same
JP2022167480A (en) * 2021-04-23 2022-11-04 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus and control method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7864163B2 (en) * 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
JP5045559B2 (en) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 Mobile device
JP2010079442A (en) * 2008-09-24 2010-04-08 Toshiba Corp Mobile terminal
JP2011138185A (en) * 2009-12-25 2011-07-14 Nikon Corp Display device and electronic equipment
JP5091267B2 (en) * 2010-02-18 2012-12-05 シャープ株式会社 Operating device, electronic device equipped with the operating device, image processing apparatus, and operating method
JP5440334B2 (en) * 2010-04-05 2014-03-12 船井電機株式会社 Mobile information display terminal

Also Published As

Publication number Publication date
JP2014006761A (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP5189197B1 (en) Portable information terminal
EP2835731B1 (en) Image display apparatus, image display method, and image display program
EP2293176B1 (en) Information display apparatus, method, and program comprising tilt detection
US20130201139A1 (en) User interface apparatus and mobile terminal apparatus
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
WO2012049942A1 (en) Mobile terminal device and display method for touch panel in mobile terminal device
JP5999830B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2015144015A (en) Portable information terminal, input control method, and program
WO2011046208A1 (en) Mobile device
JP2010026638A (en) Mobile type image display device, control method thereof, program, and information storage medium
US9430089B2 (en) Information processing apparatus and method for controlling the same
JP5278460B2 (en) Portable device program, portable device, and portable device control method
JP6142564B2 (en) Information display device and display control program
US20140092040A1 (en) Electronic apparatus and display control method
US9395838B2 (en) Input device, input control method, and input control program
US9588660B2 (en) Mobile electronic device, method for controlling mobile electronic device, program, and information storage medium
JP5967917B2 (en) Information processing apparatus, information processing apparatus control method, and program
US10037132B2 (en) Enlargement and reduction of data with a stylus
JP5994428B2 (en) Programs and mobile devices
WO2014083929A1 (en) Method, device, and computer for document scrolling in touch panel
KR20100136289A (en) A display controlling method for a mobile terminal
JP2012150608A (en) Portable electronic device
JP5756682B2 (en) Information processing device
JP2013122711A (en) Information processing apparatus, information processing method and information processing program
JP5841023B2 (en) Information processing apparatus, information processing method, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R150 Certificate of patent or registration of utility model

Ref document number: 5994428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150