JP2015176247A - display device and program - Google Patents

display device and program Download PDF

Info

Publication number
JP2015176247A
JP2015176247A JP2014050591A JP2014050591A JP2015176247A JP 2015176247 A JP2015176247 A JP 2015176247A JP 2014050591 A JP2014050591 A JP 2014050591A JP 2014050591 A JP2014050591 A JP 2014050591A JP 2015176247 A JP2015176247 A JP 2015176247A
Authority
JP
Japan
Prior art keywords
display
display device
control unit
unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014050591A
Other languages
Japanese (ja)
Inventor
山崎 仁史
Hitoshi Yamazaki
仁史 山崎
健太郎 遠藤
Kentaro Endo
健太郎 遠藤
スミン 郭
Smin Kwak
スミン 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014050591A priority Critical patent/JP2015176247A/en
Publication of JP2015176247A publication Critical patent/JP2015176247A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent an object being displayed from becoming difficult to see when a direction in which a display area faces is altered.SOLUTION: A display device 10 includes a display unit 13 worn on a wrist 100 by a user. The display unit 13 has a display area 131 for displaying images. The display area 131 is arranged to surround the wrist 100. The display device 10 displays objects W1, W2 on the display area 131. The object W1 is an icon associated with a clock function and the object W2 is an icon associated with a mailer. When detecting that a direction in which the display area 131 faces is altered, the display device 10 shifts display positions of the objects W1, W2 so that directions in which an area in which the objects W1, W2 being displayed are arranged face are unaltered, according to the detected alteration. Thus, the display positions of the objects W1, W2 as viewed from the user remain the same even when the wrist 100 is turned about its own axis.

Description

本発明は、ユーザの身体の部位に装着又は保持される表示部を用いて画像を表示する技術に関する。   The present invention relates to a technique for displaying an image using a display unit that is worn or held on a part of a user's body.

表示パネルには、表示面が平面状の表示パネルだけでなく、表示面が曲面状の(湾曲した)表示パネルがある。この種の表示パネルを用いた画像の表示技術が、特許文献1,2に開示されている。特許文献1は、適切な視認性を確保するために、平面を前提とする基礎画像データに対してスケール変換を行って補正画像データを生成し、補正画像データに基づいて画面表示することを開示している。特許文献2は、曲面表示パネルを観察する方向を一定方向に定めた場合に、その方向から観察した画像が歪んで認識されないように、画像データを補正することを開示している。   The display panel includes not only a display panel having a flat display surface but also a display panel having a curved (curved) display surface. Patent Documents 1 and 2 disclose image display technologies using this type of display panel. Patent Document 1 discloses that, in order to ensure appropriate visibility, scale image conversion is performed on basic image data premised on a plane to generate corrected image data, and screen display is performed based on the corrected image data. doing. Patent Document 2 discloses correcting image data so that an image observed from the direction is not distorted and recognized when the direction in which the curved display panel is observed is set to a certain direction.

特開2002−6797号公報JP 2002-6797 A 特開2008−134537号公報JP 2008-134537 A

特許文献1,2に開示された技術で行われる画像データの補正は、表示パネルに表示される画像を変形する補正である。
表示パネルを備えた表示装置には、スマートフォン等のユーザが把持して使用する表示装置と、ユーザが腕等の身体の部位に装着して使用するウェアラブルコンピュータと呼ばれる着用型の表示装置とがある。これらの表示装置では、表示パネルが向く方向が変化させられると、ユーザから見た表示パネル上のオブジェクト(アイコン等の画像)の位置が変化する。このため、ユーザにとっては、表示装置の使用中に、表示中のオブジェクトを観察し難くなることがある。
そこで、本発明の目的は、表示領域が向く方向の変化を原因として、表示中のオブジェクトが観察し難くなるのを抑制することである。
The correction of the image data performed by the techniques disclosed in Patent Documents 1 and 2 is correction for deforming the image displayed on the display panel.
Display devices including a display panel include a display device that is held and used by a user such as a smartphone, and a wearable display device called a wearable computer that is used by being worn on a body part such as an arm. . In these display devices, when the direction in which the display panel faces is changed, the position of an object (an image such as an icon) on the display panel as viewed from the user changes. For this reason, it may be difficult for the user to observe the object being displayed while using the display device.
Therefore, an object of the present invention is to prevent the object being displayed from becoming difficult to observe due to a change in the direction in which the display area is directed.

上述した課題を解決するため、本発明の表示装置は、画像を表示する表示領域を含む表示部と、前記表示領域が向く方向の変化を検出する検出部と、前記表示領域への画像の表示を制御する表示制御部であって、前記検出部が検出した前記変化に基づいて、表示中のオブジェクトを配置した領域が向く方向が変化させられた場合に、当該オブジェクトの表示位置を、前記方向の変化を小さくする位置に変更する表示制御部とを備える。   In order to solve the above-described problem, a display device according to the present invention includes a display unit including a display area for displaying an image, a detection unit for detecting a change in a direction in which the display area faces, and display of the image in the display area. A display control unit that controls the display position of the object when the direction in which the area where the object being displayed is directed is changed is changed based on the change detected by the detection unit. And a display control unit that changes the position to a position that reduces the change of.

本発明の表示装置において、前記表示領域上の位置を指定した操作を受け付ける操作受付部を備え、前記表示制御部は、前記オブジェクトを配置していない領域を一方向に移動させる操作が前記操作受付部により受け付けられた場合に、当該一方向に前記オブジェクトを移動させてもよい。
この表示装置において、前記表示制御部は、前記操作が受け付けられなくなると、前記オブジェクトを当該操作前の表示位置に戻してもよい。
これらの表示装置において、前記表示制御部は、前記表示領域で複数の前記オブジェクトを表示中の場合、前記操作に応じて、表示中の2以上の前記オブジェクトを移動させてもよい。
In the display device of the present invention, an operation receiving unit that receives an operation specifying a position on the display area is provided, and the display control unit receives an operation for moving an area in which the object is not arranged in one direction. When received by the unit, the object may be moved in the one direction.
In this display device, when the operation is not accepted, the display control unit may return the object to the display position before the operation.
In these display devices, when the plurality of objects are being displayed in the display area, the display control unit may move two or more objects being displayed according to the operation.

本発明の表示装置において、前記表示部は、ユーザの身体の部位に装着され、前記オブジェクトは、複数機能に関連付けられたユーザが操作可能な第1のオブジェクトであり、前記表示制御部は、前記第1のオブジェクトを選択する操作が行われた場合、前記複数機能の各機能に関連付けられた第2のオブジェクトを、前記部位に沿って配列させてもよい。   In the display device of the present invention, the display unit is attached to a part of the user's body, the object is a first object that can be operated by the user associated with a plurality of functions, and the display control unit When the operation of selecting the first object is performed, the second object associated with each function of the plurality of functions may be arranged along the part.

本発明の表示装置において、前記表示部は、ユーザの身体の部位に装着され、前記表示制御部は、表示中の複数の前記オブジェクトの各々に与えられた重み値に応じて、当該オブジェクトを前記部位に沿って配列させてもよい。
この表示装置において、前記重み値に応じて、前記オブジェクトのサイズを変化させてもよい。
In the display device of the present invention, the display unit is attached to a part of the user's body, and the display control unit displays the object according to a weight value given to each of the plurality of objects being displayed. You may arrange along a site | part.
In this display device, the size of the object may be changed according to the weight value.

本発明の表示装置において、前記表示制御部は、前記部位に沿う方向と前記部位に沿わない方向との各方向に沿って、前記オブジェクトを配列させてもよい。   In the display device of the present invention, the display control unit may arrange the objects along each direction of a direction along the part and a direction not along the part.

本発明の表示装置において、前記表示部に作用した振動を検出する振動検出部と、前記オブジェクトに関連付けられた機能を実行する実行部とを備え、前記振動検出部により前記振動が検出された場合に、前記表示制御部は、表示中の前記オブジェクトで定まる画像を表示し、前記実行部は、前記表示中の前記オブジェクトに関連付けられた前記機能を実行してもよい。   The display device of the present invention includes a vibration detection unit that detects vibrations acting on the display unit, and an execution unit that executes a function associated with the object, and the vibration detection unit detects the vibration. In addition, the display control unit may display an image determined by the object being displayed, and the execution unit may execute the function associated with the object being displayed.

本発明のプログラムは、画像を表示する表示領域を含む表示部を制御するコンピュータに、前記表示領域が向く方向の変化を検出するステップと、前記表示領域への画像の表示を制御するステップであって、検出した前記変化に基づいて、表示中のオブジェクトを配置した領域が向く方向が変化させられた場合に、当該オブジェクトの表示位置を、前記方向の変化を小さくする位置に変更するステップとを実行させるためのプログラムである。   The program of the present invention includes a step of detecting a change in a direction in which the display area is directed to a computer that controls a display unit including a display area for displaying an image, and a step of controlling display of the image in the display area. And changing the display position of the object to a position that reduces the change in the direction when the direction in which the area where the object being displayed is arranged is changed is changed based on the detected change. This is a program to be executed.

本発明によれば、表示領域が向く方向の変化を原因として、表示中のオブジェクトが観察し難くなるのを抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can suppress that it becomes difficult to observe the object currently displayed due to the change of the direction which a display area faces.

本発明の一実施形態に係る表示装置の外観構成を示す斜視図。The perspective view which shows the external appearance structure of the display apparatus which concerns on one Embodiment of this invention. 同実施形態に係る表示装置の外観構成を示す平面図。The top view which shows the external appearance structure of the display apparatus which concerns on the same embodiment. 同実施形態に係る表示装置のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of the display apparatus which concerns on the same embodiment. 同実施形態に係る表示装置のホーム画面を示す図。The figure which shows the home screen of the display apparatus which concerns on the same embodiment. 同実施形態に係る表示装置の制御部の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the control part of the display apparatus which concerns on the same embodiment. 同実施形態に係る表示装置でのオブジェクト表示の基本動作を示すフローチャート。6 is a flowchart showing a basic operation of object display in the display device according to the embodiment. 同実施形態に係る表示装置でのオブジェクト表示の基本動作の説明図。Explanatory drawing of the basic operation | movement of the object display in the display apparatus which concerns on the embodiment. 同実施形態に係る表示装置でのオブジェクトの表示位置の変更動作を示すフローチャート。6 is a flowchart showing an operation for changing the display position of an object in the display device according to the embodiment. 同実施形態に係る表示装置でのオブジェクトの表示位置の変更動作の説明図。Explanatory drawing of the change operation | movement of the display position of the object in the display apparatus which concerns on the embodiment. 同実施形態に係る表示装置でのオブジェクトの選択操作時の動作を示すフローチャート。7 is a flowchart showing an operation at the time of an object selection operation in the display device according to the embodiment. 同実施形態に係る表示装置でのオブジェクトの選択操作時の動作の説明図。Explanatory drawing of the operation | movement at the time of object selection operation in the display apparatus which concerns on the embodiment. 同実施形態に係る表示装置でのオブジェクトに対する重み付けに関する動作を示すフローチャート。6 is a flowchart showing an operation related to weighting for an object in the display device according to the embodiment. 同実施形態に係る表示装置でのオブジェクトに対する重み付けに関する動作の説明図。Explanatory drawing of the operation | movement regarding the weighting with respect to the object in the display apparatus which concerns on the same embodiment. 同実施形態に係る表示装置での機能実行動作を示すフローチャート。6 is a flowchart showing a function execution operation in the display device according to the embodiment. 同実施形態に係る表示装置での機能実行動作の説明図。Explanatory drawing of the function execution operation | movement with the display apparatus which concerns on the same embodiment. 本発明の変形例に係る表示装置でのオブジェクト表示動作の説明図。Explanatory drawing of the object display operation | movement with the display apparatus which concerns on the modification of this invention. 本発明の変形例に係る表示装置でのオブジェクト表示動作の説明図。Explanatory drawing of the object display operation | movement with the display apparatus which concerns on the modification of this invention.

以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る表示装置10の外観構成を示す斜視図である。図1に示すように、表示装置10は、ウェアラブルコンピュータの一種であるリストバンド型の表示装置である。具体的には、表示装置10は、曲げやねじり等の変形可能な素材で形成されたベルト状(帯状)の表示装置である。表示装置10は、ユーザの腕100(図1では、左手の前腕部)に巻かれ、一端と他端とが留め具等の装着部材(図示略)を用いて接続されることにより、腕100に装着される。腕100に装着されているとき、表示装置10は環状である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing an external configuration of a display device 10 according to an embodiment of the present invention. As shown in FIG. 1, the display device 10 is a wristband type display device that is a kind of wearable computer. Specifically, the display device 10 is a belt-like (band-like) display device formed of a deformable material such as bending or twisting. The display device 10 is wound around a user's arm 100 (the left arm's forearm portion in FIG. 1), and one end and the other end are connected using a mounting member (not shown) such as a fastener, whereby the arm 100 is connected. It is attached to. When worn on the arm 100, the display device 10 is annular.

表示装置10は、画像を表示する表示部13を有する。表示部13は、表示装置10の外周面に表示領域131を有する。表示領域131は、腕100を周回する方向(即ち腕回り方向)に伸張方向を有し、腕100を周回するように配置される。表示領域131は、ここでは、腕100の腕回り方向の1周分に相当する長さである。更に、表示装置10は、表示領域131の全体に重ねられた接触センサ121を有する。   The display device 10 includes a display unit 13 that displays an image. The display unit 13 includes a display area 131 on the outer peripheral surface of the display device 10. The display area 131 has an extending direction in the direction of circling the arm 100 (that is, the direction around the arm) and is arranged to circulate the arm 100. Here, the display area 131 has a length corresponding to one round of the arm 100 in the arm rotation direction. Furthermore, the display device 10 includes a contact sensor 121 that is superimposed on the entire display area 131.

図2は、表示装置10の外観構成を示す平面図である。図2(a)は、環状とした表示装置10を、当該環を貫く方向に平面視した図(図1のII矢視図)である。図2(b)は、伸張方向が直線状になるように配置した表示領域131を平面視した図が示されている。
表示領域131上の伸張方向における位置(絶対位置)を規定するために、図2(a),(b)に示すとおり、位置A,B,C,Dを定める。位置Aは、環状の表示装置10の環の中心Oから見て、12時の方向の位置である。位置Aは、図1に示すように表示装置10が腕100に装着されたときに、表示領域131の鉛直方向において最も上方に位置する。位置Bは、中心Oから見て3時の方向の位置である。位置Cは、中心Oから見て6時の方向の位置である。位置Cは、表示領域131の伸張方向における一端及び他端の位置であって、前述した装着部材が設けられる位置である。位置Dは、中心Oから見て9時の方向の位置である。位置Dは、図1に示すように表示装置10が腕100に装着されたときに、表示領域131の鉛直方向において最も下方に位置する。
FIG. 2 is a plan view showing an external configuration of the display device 10. FIG. 2A is a plan view (indicated by an arrow II in FIG. 1) of the annular display device 10 in a direction penetrating the ring. FIG. 2B shows a plan view of the display area 131 arranged so that the extending direction is linear.
In order to define the position (absolute position) in the extension direction on the display area 131, positions A, B, C, and D are determined as shown in FIGS. The position A is a position in the 12 o'clock direction when viewed from the center O of the ring of the annular display device 10. The position A is located at the uppermost position in the vertical direction of the display area 131 when the display device 10 is worn on the arm 100 as shown in FIG. The position B is a position in the 3 o'clock direction when viewed from the center O. The position C is a position in the 6 o'clock direction when viewed from the center O. The position C is a position of one end and the other end in the extending direction of the display area 131 and is a position where the above-described mounting member is provided. The position D is a position in the 9 o'clock direction when viewed from the center O. The position D is located at the lowest position in the vertical direction of the display area 131 when the display device 10 is worn on the arm 100 as shown in FIG.

図3は、表示装置10のハードウェア構成を示すブロック図である。図3に示すように、表示装置10は、制御部11と、センサ部12と、表示部13と、通信部14と、記憶部15とを備える。
制御部11は、CPU(Central Processing Unit)を含む演算処理装置と、ROM(Read Only Memory)及びRAM(Random Access Memory)を含むメインメモリとを有するマイクロコンピュータを有する。例えば、CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示装置10の各部を制御する。
FIG. 3 is a block diagram illustrating a hardware configuration of the display device 10. As illustrated in FIG. 3, the display device 10 includes a control unit 11, a sensor unit 12, a display unit 13, a communication unit 14, and a storage unit 15.
The control unit 11 includes a microcomputer having an arithmetic processing device including a CPU (Central Processing Unit) and a main memory including a ROM (Read Only Memory) and a RAM (Random Access Memory). For example, the CPU controls each unit of the display device 10 by reading a program stored in the ROM or the storage unit 15 into the RAM and executing the program.

センサ部12は、表示装置10の状態を検出するセンサを含む。センサ部12は、ここでは、接触センサ121及び加速度センサ122を含む。接触センサ121は、表示領域131上の位置を指示する操作を検出するセンサである。接触センサ121は、表示領域131に対する接触操作を検出する。接触センサ121は、指示体(例えば、図1に示すユーザの指F)により指示された位置を示す操作信号を、制御部11へ出力する。接触センサ121は、例えば静電容量型のセンサを用いて構成されるが、抵抗膜型等の他方式のセンサを用いて構成されてもよい。加速度センサ122は、ここでは3軸方式の加速度センサで、表示装置10に作用した3軸方向の加速度を検出する検出部である。加速度センサ122は、表示領域131が向く方向の変化を示す物理量として、加速度を検出する。加速度センサ122が検出する加速度は、表示装置10の姿勢の変化に応じた物理量ということもできる。また、加速度センサ122は、表示部13(即ち表示装置10)に作用した振動を検出する振動検出部としても機能する。   The sensor unit 12 includes a sensor that detects the state of the display device 10. Here, the sensor unit 12 includes a contact sensor 121 and an acceleration sensor 122. The contact sensor 121 is a sensor that detects an operation that indicates a position on the display area 131. The contact sensor 121 detects a contact operation on the display area 131. The contact sensor 121 outputs an operation signal indicating a position indicated by an indicator (for example, a user's finger F shown in FIG. 1) to the control unit 11. The contact sensor 121 is configured using, for example, a capacitance type sensor, but may be configured using another type of sensor such as a resistive film type. Here, the acceleration sensor 122 is a triaxial acceleration sensor, and is a detection unit that detects the acceleration in the triaxial direction applied to the display device 10. The acceleration sensor 122 detects acceleration as a physical quantity indicating a change in the direction in which the display area 131 faces. The acceleration detected by the acceleration sensor 122 can also be referred to as a physical quantity corresponding to a change in the attitude of the display device 10. The acceleration sensor 122 also functions as a vibration detection unit that detects vibrations acting on the display unit 13 (that is, the display device 10).

表示部13は、例えば液晶ディスプレイを用いて構成され、表示領域131に画像を表示する。通信部14は、例えば無線通信回路及びアンテナを有し、外部装置と通信するためのインタフェースである。通信部14は、例えばBluetooth(登録商標)に準拠した無線通信を行うが、他方式の通信を行ってもよい。記憶部15は、EEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリ等の記憶装置である。記憶部15は、例えば、制御部11により実行される制御プログラムや各種のアプリケーションプログラムを記憶する。   The display unit 13 is configured using a liquid crystal display, for example, and displays an image in the display area 131. The communication unit 14 includes, for example, a wireless communication circuit and an antenna, and is an interface for communicating with an external device. The communication unit 14 performs wireless communication based on, for example, Bluetooth (registered trademark), but may perform communication of other methods. The storage unit 15 is a storage device such as an EEPROM (Electronically Erasable and Programmable ROM) or a flash memory. The storage unit 15 stores, for example, a control program executed by the control unit 11 and various application programs.

図4は、表示装置10のホーム画面を示す図である。以下、表示領域131が表示する画面を説明する際には、図2で説明した平面図を使用する。図4等では、表示領域131に表示されている画像の位置を分かりやすくするために、表示領域131の厚みを大きくして表現している。環状の表示装置10を当該環の貫く方向に平面視したとき、実際には、表示領域131に表示中のオブジェクトは、ユーザに観察されない又はほとんど観察されない。
ホーム画面の表示中において、表示装置10は、オブジェクトW1,W2,W3の各オブジェクトを表示する。オブジェクトW1〜W3の各々は、ユーザが操作可能なオブジェクトであり、例えばアイコン(例えばアプリケーションプログラムのアイコン)、又は、ウィンドウ(例えばウィジェットのウィンドウ)である。オブジェクトW1〜W3(第1のオブジェクト)の各々は、予め特定の機能に関連付けられている。ここでは、オブジェクトW1は、時計機能に関連付けられている。オブジェクトW2は、メーラ(メール機能)に関連付けられている。オブジェクトW3は、株価をリアルタイムで表示する株価表示機能に関連付けられている。図1に示すオブジェクトW1,W2のように、オブジェクトは、例えば、関連付けられた機能を視覚的に表した画像である。
FIG. 4 is a diagram illustrating a home screen of the display device 10. Hereinafter, when explaining the screen displayed in the display area 131, the plan view described in FIG. 2 is used. In FIG. 4 and the like, the thickness of the display area 131 is expressed to be easy to understand the position of the image displayed in the display area 131. When the annular display device 10 is viewed in plan in the direction through which the ring penetrates, the object currently displayed in the display area 131 is not observed or hardly observed by the user.
While the home screen is displayed, the display device 10 displays each of the objects W1, W2, and W3. Each of the objects W1 to W3 is an object that can be operated by the user, and is, for example, an icon (for example, an application program icon) or a window (for example, a widget window). Each of the objects W1 to W3 (first object) is associated with a specific function in advance. Here, the object W1 is associated with a clock function. The object W2 is associated with a mailer (mail function). The object W3 is associated with a stock price display function for displaying the stock price in real time. Like the objects W1 and W2 illustrated in FIG. 1, the object is an image that visually represents an associated function, for example.

オブジェクトW1は、図1に示すように、表示装置10が腕100に装着されたときに、位置Aを含む位置(即ち12時の位置)で表示される。オブジェクトW2は、位置Bを含む位置(即ち3時の位置)で表示される。オブジェクトW3は、位置Dを含む位置(即ち9時の位置)で表示される。ユーザにとっては、一般に、オブジェクトW1が最も観察しやすく、次いで、オブジェクトW2,W3の順でオブジェクトを観察しやすい。
なお、ホーム画面で表示されるオブジェクトの数や、オブジェクトに関連付けられる機能は、表示装置10のユーザにより設定及び変更されてよい。例えば、オブジェクトは、SNS(Social Networking Service)、ゲーム機能、天気予報やニュースを表示する機能、ブラウザ等の各機能に関連付けられていてもよい。また、オブジェクトは、ここでは矩形(正方形を含む。)であるが、円形等の他の形状であってもよい。
As shown in FIG. 1, the object W <b> 1 is displayed at a position including the position A (that is, the position at 12 o'clock) when the display device 10 is worn on the arm 100. The object W2 is displayed at a position including the position B (that is, the 3 o'clock position). The object W3 is displayed at a position including the position D (that is, the 9 o'clock position). For the user, in general, the object W1 is most easily observed, and then the objects are easily observed in the order of the objects W2 and W3.
Note that the number of objects displayed on the home screen and the functions associated with the objects may be set and changed by the user of the display device 10. For example, the object may be associated with each function such as an SNS (Social Networking Service), a game function, a function for displaying a weather forecast and news, and a browser. In addition, the object here is a rectangle (including a square), but may be another shape such as a circle.

表示装置10は、オブジェクトを表示する表示動作に特徴を有する。表示装置10が行うオブジェクトの表示動作は、表示領域131のうちオブジェクトが配置されていない背景領域を第1の媒質(例えば液体)、オブジェクトが配置された領域を第2の媒質(例えば気体(気泡))、表示領域131を第1の媒質を封入した容器、とそれぞれ見立てたときの、第2の媒質の挙動に基づいて行われる。   The display device 10 is characterized by a display operation for displaying an object. In the display operation of the object performed by the display device 10, the background area where the object is not arranged in the display area 131 is the first medium (for example, liquid), and the area where the object is arranged is the second medium (for example, gas (bubble) )), Based on the behavior of the second medium when the display area 131 is regarded as a container enclosing the first medium.

次に、表示装置10で実現される表示動作に関わる機能を説明する。
図5は、表示装置10の制御部11の機能構成を示す機能ブロック図である。図5に示すように、表示装置10の制御部11は、制御プログラムを実行することにより、表示制御部111と、操作受付部112と、実行部113とに相当する機能を実現する。
表示制御部111は、表示部13を制御して、表示領域131へ画像を表示する。表示制御部111は、加速度センサ122が検出した表示領域131が向く方向の変化に基づいて、オブジェクトの表示を制御する。例えば、表示制御部111は、表示中のオブジェクトを配置した領域が向く方向が変化させられた場合に、当該オブジェクトの表示位置を、当該領域が向く方向の変化が小さくなる位置に変更する。例えば、表示制御部111は、表示領域131が向く方向の変化に関わらず、時計の時針の向きで表現したオブジェクトの表示位置を一定とする。これにより、腕100が腕周り方向に回転した場合であっても、ユーザから見たオブジェクトの表示位置が一定となる。
これ以外にも、表示制御部111は、操作受付部112が受け付けた操作に基づいて、オブジェクトの表示位置を変更したり、表示するオブジェクトを変更したりする。
Next, functions related to display operations realized by the display device 10 will be described.
FIG. 5 is a functional block diagram illustrating a functional configuration of the control unit 11 of the display device 10. As illustrated in FIG. 5, the control unit 11 of the display device 10 realizes functions corresponding to the display control unit 111, the operation reception unit 112, and the execution unit 113 by executing a control program.
The display control unit 111 controls the display unit 13 to display an image in the display area 131. The display control unit 111 controls display of an object based on a change in the direction in which the display area 131 detected by the acceleration sensor 122 is directed. For example, when the direction in which the area where the object being displayed is directed is changed, the display control unit 111 changes the display position of the object to a position where the change in the direction in which the area is directed is reduced. For example, the display control unit 111 makes the display position of the object expressed by the direction of the hour hand of the clock constant regardless of the change in the direction in which the display area 131 faces. Thereby, even when the arm 100 rotates in the direction around the arm, the display position of the object viewed from the user is constant.
In addition to this, the display control unit 111 changes the display position of the object or changes the object to be displayed based on the operation received by the operation receiving unit 112.

操作受付部112は、接触センサ121から供給される操作信号に基づいて、表示領域131上の位置を指示する操作(ここでは接触操作)を受け付ける。
なお、表示装置10が物理キーその他の操作子を有する場合には、操作受付部112は、当該操作子を用いた操作を受け付けてもよい。
The operation reception unit 112 receives an operation (here, a contact operation) for instructing a position on the display region 131 based on an operation signal supplied from the contact sensor 121.
When the display device 10 has a physical key or other operation element, the operation reception unit 112 may receive an operation using the operation element.

実行部113は、表示領域131に表示されたオブジェクトに関連付けられた機能を実行する。実行部113は、例えば、表示中のオブジェクトを選択する操作を操作受付部112が受け付けた場合に、当該オブジェクトに関連付けられたアプリケーションプログラムを実行する。ただし、実行部113が実行する機能は、アプリケーションプログラムの実行を伴う機能でなくてもよい。   The execution unit 113 executes a function associated with the object displayed in the display area 131. For example, when the operation reception unit 112 receives an operation of selecting an object being displayed, the execution unit 113 executes an application program associated with the object. However, the function executed by the execution unit 113 may not be a function involving execution of an application program.

次に、表示装置10の動作を説明する。表示装置10の特徴的な動作は、(A)オブジェクト表示の基本動作と、(B)オブジェクトの表示位置の変更動作と、(C)オブジェクトの選択操作時の動作と、(D)オブジェクトに対する重み付けに関する動作と、(E)機能実行動作とに大別される。   Next, the operation of the display device 10 will be described. Characteristic operations of the display device 10 are (A) basic operation of object display, (B) operation of changing the display position of the object, (C) operation at the time of selecting the object, and (D) weighting to the object. And (E) function execution operation.

(A)オブジェクト表示の基本動作
図6は、表示装置10が行うオブジェクト表示の基本動作を示すフローチャートである。図7は、オブジェクト表示の基本動作を説明する図である。表示装置10の制御部11は、図4で説明したホーム画面を予め表示領域131に表示しているものとする。
制御部11は、ホーム画面の表示中において、加速度センサ122の検出結果に基づいて、表示領域131が向く方向の変化を検出する(ステップSA1)。そして、制御部11は、検出した方向の変化に基づいて、オブジェクトの表示位置を特定する(ステップSA2)。そして、制御部11は、表示領域131において特定した表示位置にオブジェクトを表示する(ステップSA3)。
(A) Basic Operation of Object Display FIG. 6 is a flowchart showing the basic operation of object display performed by the display device 10. FIG. 7 is a diagram for explaining the basic operation of object display. It is assumed that the control unit 11 of the display device 10 displays the home screen described in FIG.
During the display of the home screen, the control unit 11 detects a change in the direction in which the display area 131 faces based on the detection result of the acceleration sensor 122 (step SA1). And the control part 11 pinpoints the display position of an object based on the change of the detected direction (step SA2). And the control part 11 displays an object in the display position specified in the display area 131 (step SA3).

例えば、図4に示す状態から、表示装置10が時計回りに30度回転し、図7(a)に示す状態になった場合を考える。この場合、位置Aが1時の位置、位置Bが4時の位置、位置Cが7時の位置、位置Dが10時の位置にある。このとき、制御部11は、オブジェクトを反時計回りに30度だけ回転させた表示位置で、オブジェクトを表示する。即ち、制御部11は、オブジェクトW1を12時の位置で表示し、オブジェクトW2を3時の位置で表示し、オブジェクトW3を9時の位置で表示する。また、図4に示す状態から、表示装置10が反時計回りに30度回転し、図7(b)に示す状態になった場合を考える。この場合、位置Aが11時の位置、位置Bが2時の位置、位置Cが5時の位置、位置Dが8時の位置にある。このとき、制御部11は、オブジェクトを時計回りに30度だけ回転させた表示位置で、オブジェクトを表示する。即ち、制御部11は、オブジェクトW1を12時の位置で表示し、オブジェクトW2を3時の位置で表示し、オブジェクトW3を9時の位置で表示する。   For example, consider the case where the display device 10 is rotated 30 degrees clockwise from the state shown in FIG. 4 to the state shown in FIG. In this case, position A is at 1 o'clock, position B is at 4 o'clock, position C is at 7 o'clock, and position D is at 10 o'clock. At this time, the control unit 11 displays the object at a display position obtained by rotating the object by 30 degrees counterclockwise. That is, the control unit 11 displays the object W1 at the 12 o'clock position, displays the object W2 at the 3 o'clock position, and displays the object W3 at the 9 o'clock position. Further, consider the case where the display device 10 is rotated 30 degrees counterclockwise from the state shown in FIG. 4 to the state shown in FIG. 7B. In this case, position A is at 11:00, position B is at 2 o'clock, position C is at 5 o'clock, and position D is at 8 o'clock. At this time, the control unit 11 displays the object at a display position obtained by rotating the object by 30 degrees clockwise. That is, the control unit 11 displays the object W1 at the 12 o'clock position, displays the object W2 at the 3 o'clock position, and displays the object W3 at the 9 o'clock position.

以上のとおり、制御部11は、表示装置10が、腕100を中心として一方向にθ度(0<θ<360)だけ回転した姿勢となった場合に、その逆方向にθ度(即ち−θ度)だけ回転させた表示位置で、オブジェクトを表示する。これにより、腕100が腕周り方向に回転して、表示領域131が向く方向が変化した場合であっても、ユーザから見た各オブジェクトの表示位置は一定となる。このオブジェクト表示の基本動作は、第2の媒質である気泡が、第1の媒質である液体中に存在する場合に、両者の比重の関係によって第2の媒質が浮き上がってくる、という挙動に基づいている。このオブジェクト表示の基本動作によれば、腕100の腕回り方向の回転に関わらず、各オブジェクトの見かけ上の位置が一定となるので、ユーザは表示中のオブジェクトを観察しやすい。   As described above, when the display device 10 is in a posture rotated by θ degrees (0 <θ <360) in one direction around the arm 100, the control unit 11 has θ degrees (that is, −−) in the opposite direction. The object is displayed at the display position rotated by θ degrees. As a result, even when the arm 100 rotates in the direction around the arm and the direction in which the display area 131 faces changes, the display position of each object viewed from the user is constant. The basic operation of this object display is based on the behavior that when the bubble, which is the second medium, is present in the liquid, which is the first medium, the second medium rises due to the specific gravity relationship between the two. ing. According to this basic operation of object display, the apparent position of each object is constant regardless of the rotation of the arm 100 in the direction around the arm, so that the user can easily observe the object being displayed.

(B)オブジェクトの表示位置の変更動作
図8は、表示装置10が行うオブジェクトの表示位置の変更動作を示すフローチャートである。図9は、オブジェクトの表示位置の変更動作を説明する図である。
表示装置10が行うオブジェクト表示の基本動作によると、表示装置10における各オブジェクトのユーザから見た位置は、腕100が腕回り方向に回転した場合でも変化しない。しかし、ユーザにとっては、特定のオブジェクトの表示位置を、一時的に変更させたい場合がある。例えば、図4で説明したオブジェクトW3は、常に9時の方向で表示されるので、ユーザは、これを自身が観察しやすい位置に移動させたい場合がある。
そこで、制御部11は、表示領域131において背景領域を指定して、当該背景領域を移動させる操作を受け付ける(ステップSB1)。ここでは、図9(a)に示すように、制御部11は、背景領域に指Fを触れさせたまま時計回りに移動させる操作(矢印参照)を、接触センサ121により受け付ける。
(B) Object Display Position Changing Operation FIG. 8 is a flowchart showing an object display position changing operation performed by the display device 10. FIG. 9 is a diagram illustrating an operation for changing the display position of an object.
According to the basic operation of the object display performed by the display device 10, the position of each object on the display device 10 viewed from the user does not change even when the arm 100 rotates in the direction around the arm. However, there are cases where the user wants to temporarily change the display position of a specific object. For example, since the object W3 described in FIG. 4 is always displayed in the 9 o'clock direction, the user may want to move it to a position where he can easily observe it.
Therefore, the control unit 11 specifies a background area in the display area 131 and accepts an operation for moving the background area (step SB1). Here, as illustrated in FIG. 9A, the control unit 11 receives an operation (see an arrow) for moving the finger F in the clockwise direction while touching the background region with the contact sensor 121.

次に、制御部11は、受け付けた操作に基づいて、オブジェクトの表示位置を特定する(ステップSB2)。そして、制御部11は、表示領域131の特定した表示位置にオブジェクトを表示する(ステップSB3)。
図9(b)に示すように、制御部11は、背景領域が移動した方向に、当該背景領域が移動した距離だけ、表示中のオブジェクトを移動させる。例えば、指Fが表示領域131の1/4周分だけ移動した場合、制御部11は、オブジェクトW3を位置Dから位置A(即ち12時の位置)に移動させ、オブジェクトW1を位置Aから位置B(即ち3時の位置)に移動させ、オブジェクトW2を位置Bから位置C(即ち6時の位置)に移動させる。このため、ユーザは、12時の位置に表示されたオブジェクトW3を、容易に観察することができる。
Next, the control part 11 specifies the display position of an object based on the received operation (step SB2). Then, the control unit 11 displays the object at the specified display position in the display area 131 (step SB3).
As shown in FIG. 9B, the control unit 11 moves the object being displayed in the direction in which the background area has moved by the distance that the background area has moved. For example, when the finger F moves by a quarter of the display area 131, the control unit 11 moves the object W3 from the position D to the position A (that is, the 12 o'clock position), and moves the object W1 from the position A. The object W2 is moved from position B to position C (ie, 6 o'clock position). For this reason, the user can easily observe the object W3 displayed at the 12 o'clock position.

図8に戻り、制御部11は、表示領域131に対する操作が終了したかどうかを判断する(ステップSB4)。制御部11は、指Fが接触センサ121に接触したままであれば、表示領域131に対する操作が終了していないと判断し(ステップSB4;NO)、ステップSB1の処理に戻す。他方、制御部11は、指Fが接触センサ121から離れた場合には、表示領域131に対する操作が終了したと判断する(ステップSB4;YES)。そして、制御部11は、オブジェクトの表示位置を、ステップSB1の処理で受け付けた操作前の表示位置に戻す(ステップSB5)。
ここでは、制御部11は、図9(a)で説明した表示位置に戻して、各オブジェクトを表示する。この際、制御部11は、各オブジェクトが移動しながら徐々に元の表示位置に戻るように、各オブジェクト及び背景領域の表示を制御してもよい。また、制御部11は、表示中の2以上のオブジェクトを移動(ここでは同時に移動)させるので、従来のタッチパネル操作のように、1つずつオブジェクトを移動させる場合に比べて、ユーザの操作の負担が減る。
これらのオブジェクトの表示位置の変更動作は、第2の媒質である気泡が、第1の媒質である液体の移動に伴い、当該第1の媒質に押されるようにして移動するという挙動に基づいている。
Returning to FIG. 8, the control unit 11 determines whether or not the operation on the display area 131 is completed (step SB4). If the finger F remains in contact with the contact sensor 121, the control unit 11 determines that the operation on the display area 131 has not ended (step SB4; NO), and returns to the process of step SB1. On the other hand, when the finger F has moved away from the contact sensor 121, the control unit 11 determines that the operation on the display area 131 has ended (step SB4; YES). And the control part 11 returns the display position of an object to the display position before the operation received by the process of step SB1 (step SB5).
Here, the control part 11 returns to the display position demonstrated in Fig.9 (a), and displays each object. At this time, the control unit 11 may control the display of each object and the background area so that each object gradually returns to the original display position while moving. In addition, since the control unit 11 moves two or more objects being displayed (moves at the same time here), compared to the case where the objects are moved one by one as in the conventional touch panel operation, the burden on the user's operation is reduced. Decrease.
The operation of changing the display position of these objects is based on the behavior that the bubbles that are the second medium move so as to be pushed by the first medium as the liquid that is the first medium moves. Yes.

(C)オブジェクトの選択操作時の動作
図10は、表示装置10が行うオブジェクトの選択操作時の動作を示すフローチャートである。図11は、オブジェクトの選択操作時の動作を説明する図である。
表示装置10の制御部11は、表示領域131に表示中のオブジェクトであって、複数機能に関連付けられたオブジェクトを選択する操作を受け付けると(ステップSC1)、当該複数機能の各機能に関連付けられたオブジェクトを、表示領域131に表示する(ステップSC2)。例えば、図11(a)に示すオブジェクトW1が指Fにより選択された場合、制御部11は、オブジェクトW1に対応するオブジェクトW11,W12,W13,W14(第2のオブジェクト)を、表示領域131に表示させる。オブジェクトW1は時計機能に関連付けられているので、オブジェクトW11〜W14は、例えば、時刻合わせ機能や、他国の現在時刻を表示する機能等に関連付けられている。また、オブジェクトW11〜W14は、表示領域131において、ユーザの腕100に沿って配列する。制御部11は、オブジェクトW11〜W14のいずれかを選択する操作を受け付けると、選択されたオブジェクトに関連付けられた機能を実行する。
(C) Operation during Object Selection Operation FIG. 10 is a flowchart illustrating an operation during object selection operation performed by the display device 10. FIG. 11 is a diagram for explaining an operation during an object selection operation.
When the control unit 11 of the display device 10 receives an operation of selecting an object that is being displayed in the display area 131 and is associated with a plurality of functions (step SC1), the control unit 11 is associated with each function of the plurality of functions. The object is displayed in the display area 131 (step SC2). For example, when the object W1 shown in FIG. 11A is selected with the finger F, the control unit 11 displays the objects W11, W12, W13, and W14 (second objects) corresponding to the object W1 in the display area 131. Display. Since the object W1 is associated with the clock function, the objects W11 to W14 are associated with, for example, a time adjustment function, a function for displaying the current time in another country, and the like. The objects W11 to W14 are arranged along the user's arm 100 in the display area 131. When the control unit 11 receives an operation of selecting any of the objects W11 to W14, the control unit 11 executes a function associated with the selected object.

オブジェクトW11〜W14の表示中においても、制御部11は、「(A)オブジェクト表示の基本動作」及び「(B)オブジェクトの表示位置の変更動作」の項で説明した表示制御を行ってもよい。
なお、制御部11は、オブジェクトW2又はW3を選択する操作を受け付けた場合にも、選択されたオブジェクトに関連付けられた複数機能の各機能に基づいて、表示領域131にオブジェクトを配列させる。
Even during display of the objects W11 to W14, the control unit 11 may perform the display control described in the sections “(A) Basic operation of object display” and “(B) Change operation of display position of object”. .
Note that the control unit 11 also arranges the objects in the display area 131 based on the functions of the plurality of functions associated with the selected object even when an operation for selecting the object W2 or W3 is received.

(D)オブジェクトに対する重み付けに関する動作
図12は、表示装置10が行うオブジェクトに対する重み付けに関する動作を示すフローチャートである。図13は、オブジェクトに対する重み付けに関する動作を説明する図である。
複数のオブジェクトが表示領域131で配列する場合、これらの複数のオブジェクトは、ユーザにとっての利便性を考慮した配列になっていることが望ましい。そこで、制御部11は、表示中のオブジェクトに重み値を与え、与えた重み値に応じてオブジェクトを配列させる。
(D) Operation Regarding Weighting on Object FIG. 12 is a flowchart showing an operation regarding weighting on an object performed by the display device 10. FIG. 13 is a diagram illustrating an operation related to weighting for an object.
When a plurality of objects are arranged in the display area 131, it is desirable that the plurality of objects are arranged in consideration of convenience for the user. Therefore, the control unit 11 gives a weight value to the displayed object, and arranges the objects according to the given weight value.

まず、制御部11は、表示中の各オブジェクトに対して、予め決められた規則(アルゴリズム)に従って重み値を与える(ステップSD1)。次に、制御部11は、算出した重み値に基づいて、オブジェクトの表示位置を特定する(ステップSD2)。次に、制御部11は、表示領域131において特定した表示位置にオブジェクトを表示する(ステップSD3)。例えば、制御部11は、重み値が最大のオブジェクトを12時の位置に表示させ、時計回りに12時から6時の方向に重み値順にオブジェクトを表示させ、更に、反時計回りに12時から6時の方向に重み値の順番でオブジェクトを表示させる。図13(a)の例では、オブジェクトW3,W1,W2の順で重み値が大きい。
なお、重み値と表示位置との関係は、この例に限られない。
First, the control unit 11 gives a weight value to each object being displayed according to a predetermined rule (algorithm) (step SD1). Next, the control unit 11 specifies the display position of the object based on the calculated weight value (step SD2). Next, the control unit 11 displays the object at the display position specified in the display area 131 (step SD3). For example, the control unit 11 displays the object having the maximum weight value at the 12 o'clock position, displays the objects in the order of the weight value in the clockwise direction from 12:00 to 6 o'clock, and further counterclockwise from 12:00. The objects are displayed in the order of the weight values in the 6 o'clock direction. In the example of FIG. 13A, the weight values are larger in the order of the objects W3, W1, and W2.
Note that the relationship between the weight value and the display position is not limited to this example.

ここで、重み値の具体例を説明する
(I)重要度
制御部11は、重要度が高いオブジェクトほど重み値を大きくする。例えば、制御部11は、プッシュ型通信がある機能に関連付けられたオブジェクトの重要度を、プッシュ型通信がない機能に関連付けられたオブジェクトの重要度をよりも高くする。プッシュ型通信がある機能のオブジェクトは、他のオブジェクトよりも、ユーザに観察されやすいと推測されるからである。
制御部11は、プッシュ型通信以外の他の特定の処理(例えば、データ更新)の有無に基づいて、オブジェクトの重要度を判定してもよい。また、制御部11は、オブジェクト又は機能毎にユーザが指定した重要度、又は、設計段階等で指定された重要度に応じて、重み値を与えもよい。オブジェクトの重要度は、どのような規則に基づいて判定されてもよい。
Here, a specific example of the weight value will be described. (I) The importance level control unit 11 increases the weight value for an object having a higher importance level. For example, the control unit 11 increases the importance of an object associated with a function with push-type communication higher than the importance of an object associated with a function without push-type communication. This is because it is presumed that an object having a function with push communication is easier to be observed by the user than other objects.
The control unit 11 may determine the importance of the object based on the presence / absence of a specific process (for example, data update) other than the push-type communication. Moreover, the control part 11 may give a weight value according to the importance designated by the user for each object or function, or the importance designated at the design stage. The importance of the object may be determined based on any rule.

(II)最新更新日時
制御部11は、データ更新の最新更新日時が近い機能のオブジェクトほど、重み値を大きくする。例えば、オブジェクトがメーラや株価表示機能等のデータ更新を伴う機能に関連付けられている場合、データ更新の最新更新日時が近い機能ほど、ユーザに操作又は観察されやすい推測される。このため、制御部11は、最新更新日時が近い機能のオブジェクトほど、重み値を大きくする。
(II) Latest update date and time The control unit 11 increases the weight value of an object having a function that is closer to the latest update date and time of data update. For example, when an object is associated with a function involving data update, such as a mailer or stock price display function, it is assumed that the function with the latest update date and time of data update is more easily operated or observed by the user. For this reason, the control unit 11 increases the weight value for an object having a function that is closest to the latest update date and time.

(III)更新頻度
制御部11は、データ更新の頻度(即ち更新頻度)が高い機能のオブジェクトほど、重み値を大きくする。更新頻度は、例えば、単位時間当たりのデータ更新の回数である。データ更新を伴う機能にオブジェクトが関連付けられている場合、データ更新の頻度が高い機能ほど、オブジェクトがユーザに観察されやすいと推測される。このため、制御部11は、更新頻度が高い機能のオブジェクトほど、重み値を大きくする。
なお、更新頻度は、固定されていてもよいし、ユーザにより変更されてもよい。
(III) Update Frequency The control unit 11 increases the weight value for a function object having a higher data update frequency (that is, update frequency). The update frequency is, for example, the number of data updates per unit time. When an object is associated with a function that accompanies data update, it is presumed that the object is more easily observed by the user as the function is updated more frequently. For this reason, the control part 11 enlarges a weight value, so that the object of a function with a high update frequency is high.
Note that the update frequency may be fixed or may be changed by the user.

(IV)アクティブ状態/非アクティブ状態
制御部11は、オブジェクトに関連付けられた機能がアクティブ状態である場合に、非アクティブ状態の場合に比べて、重み値を大きくする。例えば、アクティブ状態の機能は、非アクティブ状態の機能に比べて、オブジェクトがユーザに観察及び操作されやすいと推測される。
なお、制御部11は、上記(I)〜(IV)を2つ以上組み合わせて、重み値を算出してもよいし、更に別の条件に基づいて重み値を算出してもよい。重み値は、例えば、設計段階等で予め決められた値(例えば(I)重要度)、機能の実行状態を示す値(例えば(II)最新更新日時又は(IV)アクティブ状態/非アクティブ状態)、及び、ユーザが設定した値(例えば(I)重要度又は(III)更新頻度)に基づいて、オブジェクトに付与される。
(IV) Active State / Inactive State The control unit 11 increases the weight value when the function associated with the object is in the active state, compared to the case of the inactive state. For example, it is assumed that the function in the active state is easier for the user to observe and manipulate the object than the function in the inactive state.
The control unit 11 may calculate the weight value by combining two or more of the above (I) to (IV), or may calculate the weight value based on another condition. The weight value is, for example, a value predetermined in the design stage (for example, (I) importance), a value indicating the execution state of the function (for example, (II) latest update date / time or (IV) active state / inactive state) , And a value set by the user (for example, (I) importance or (III) update frequency).

ステップSD3の処理において、制御部11は、重み値に応じてオブジェクトのサイズを変化させてもよい。例えば、図13(b)に示すように、制御部11は重み値が大きいほど、オブジェクトの表示サイズを大きくする。ここでは、制御部11は、表示領域131の伸張方向の長さを変化させることにより、オブジェクトの表示サイズを変化させる。
このオブジェクトに対する重み付けに関する動作は、複数ある第2の媒質のそれぞれの比重を重み値に見立てた場合の、各第2の媒質の挙動に基づいている。
In the process of step SD3, the control unit 11 may change the size of the object according to the weight value. For example, as shown in FIG. 13B, the control unit 11 increases the display size of the object as the weight value increases. Here, the control unit 11 changes the display size of the object by changing the length of the display area 131 in the extension direction.
The operation related to the weighting on the object is based on the behavior of each second medium when the specific gravity of each of the plurality of second media is regarded as a weight value.

(E)機能実行動作
図14は、表示装置10が行う機能実行動作を示すフローチャートである。図15は、機能実行動作を説明する図である。以下で説明する動作前において、制御部11は、図15(a)に示すように、オブジェクトW11〜W14を表示領域131に表示しているものとする。
制御部11は、加速度センサ122の検出結果に基づいて、表示装置10に作用した振動(例えば、表示装置10を振る操作)を検出する(ステップSE1)。この場合、制御部11は、更新中画像を表示領域131の全体で表示する(ステップSE2)。更新中画像は、表示中のオブジェクトで定まる画像である。図15(b)に示す更新中画像IMは、オブジェクトW11〜W14を第2の媒質、背景領域を第1の媒質と見立て、第1の媒質及び第2の媒質を混ぜ合わせたときの様子を模した画像である。ただし、更新中画像は、表示中のオブジェクトにより定まる画像であれば、他の画像であってもよい。そして、制御部11は、図15(c)に示すように、ホーム画面を表示領域131に表示する(ステップSE3)。
ステップSE3の処理において、制御部11は、ホーム画面を表示する機能以外の機能を実行してもよい。例えば、制御部11は、表示中のオブジェクトに関連付けられた機能を最新状態にするためのデータ更新を行ってもよい。
(E) Function Execution Operation FIG. 14 is a flowchart showing a function execution operation performed by the display device 10. FIG. 15 is a diagram for explaining the function execution operation. Before the operation described below, the control unit 11 is assumed to display objects W11 to W14 in the display area 131 as shown in FIG.
Based on the detection result of the acceleration sensor 122, the control unit 11 detects vibration (for example, an operation of shaking the display device 10) that has acted on the display device 10 (step SE1). In this case, the control unit 11 displays the updating image in the entire display area 131 (step SE2). The updating image is an image determined by the object being displayed. An updating image IM shown in FIG. 15B shows a state where the objects W11 to W14 are regarded as the second medium, the background region is regarded as the first medium, and the first medium and the second medium are mixed. This is a simulated image. However, the updating image may be another image as long as the image is determined by the object being displayed. And the control part 11 displays a home screen on the display area 131, as shown in FIG.15 (c) (step SE3).
In the process of step SE3, the control unit 11 may execute a function other than the function of displaying the home screen. For example, the control unit 11 may perform data update for bringing the function associated with the object being displayed to the latest state.

以上説明した実施形態の表示装置10によれば、表示領域131が向く方向が変化した場合であっても、ユーザにとって表示中のオブジェクトを観察しやすくすることができる。
更に、表示装置10は、背景領域を移動させる操作に応じてオブジェクトを移動させ、また、その操作が終了すると、オブジェクトを元の表示位置に戻す。また、表示装置10は、オブジェクトに与えた重み値に応じた配列で、表示領域131にオブジェクトを表示する。更に、表示装置10は、振動を検出した場合には、表示領域131で更新中画像を表示してから所定の機能を実行する。即ち、表示装置10は、第1の媒質中にある第2の媒質の挙動に基づいてオブジェクトの表示を制御する。このため、表示装置10によれば、ユーザがオブジェクトに対して直観的な操作を行いやすくし、また、ユーザに視覚的な面白みを与えることのできるユーザインタフェースを提供することができる。
According to the display device 10 of the embodiment described above, even when the direction in which the display area 131 faces changes, it is possible for the user to easily observe the object being displayed.
Further, the display device 10 moves the object in accordance with an operation for moving the background area, and when the operation is completed, returns the object to the original display position. Further, the display device 10 displays the objects in the display area 131 in an array corresponding to the weight values given to the objects. Further, when detecting a vibration, the display device 10 displays a currently updated image in the display area 131 and then executes a predetermined function. That is, the display device 10 controls the display of an object based on the behavior of the second medium in the first medium. For this reason, according to the display device 10, it is possible to provide a user interface that makes it easy for the user to perform an intuitive operation on the object and can give the user a visual interest.

[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
図16に示すオブジェクトWa,Wbのように、表示装置10は、表示領域131において伸張方向(即ち腕回り方向)に交差する方向(ここでは直交方向)に沿って、オブジェクトを配列させてもよい。このオブジェクトの配列も、ユーザの腕100に沿っている。上述した実施形態の配列と組み合わせて、表示装置10は、腕100に沿う2方向の各方向に沿って、オブジェクトを配列させてもよい。
[Modification]
The present invention can be implemented in a form different from the above-described embodiment. The present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
(Modification 1)
Like the objects Wa and Wb shown in FIG. 16, the display device 10 may arrange the objects in the display area 131 along a direction (here, an orthogonal direction) that intersects the extension direction (that is, the direction around the arm). . This array of objects is also along the user's arm 100. In combination with the arrangement of the embodiment described above, the display device 10 may arrange the objects along each of the two directions along the arm 100.

更に、表示装置10は、ユーザの腕100に沿わない方向に沿って、オブジェクトを配列させてもよい。例えば、図17(a)に示すように、表示装置10が、ユーザの腕100から離れる方向に厚み(幅)を有する。更に、表示装置10は、表示領域131に加えて、表示領域131に交差(例えば直交)する表示領域131aを有する。表示領域131と表示領域131aとは物理的に分離されている必要はなく、例えば、曲面状の表示領域が表示領域131と表示領域131aとに分けられていてもよい。   Further, the display device 10 may arrange the objects along a direction not along the user's arm 100. For example, as illustrated in FIG. 17A, the display device 10 has a thickness (width) in a direction away from the user's arm 100. In addition to the display area 131, the display device 10 includes a display area 131 a that intersects (for example, intersects with) the display area 131. The display area 131 and the display area 131a do not need to be physically separated. For example, a curved display area may be divided into the display area 131 and the display area 131a.

この構成の下、制御部11は、表示領域131aを用いて、ユーザの腕100に沿わない方向、即ち、腕100から離れる方向に沿ってオブジェクトを配列させる。例えば、制御部11は、位置Aを含む表示領域131aにおいて、腕100から離れる方向に沿って、オブジェクトWc,Wdを順に配列させる。更に、腕100から離れる方向に配列させたオブジェクトの表示位置を、指Fが表示領域131に対して行った操作に応じて変更してもよい。図17(b)に示す例では、制御部11は、オブジェクトWcとオブジェクトWdとの表示位置を入れ替えている。
更に、表示装置10は、ユーザの腕100に沿う2方向に、ユーザの腕100に沿わない方向を加えた計3方向の各方向に沿って、オブジェクトを配列させてもよい。
Under this configuration, the control unit 11 uses the display area 131 a to arrange the objects along a direction not along the user's arm 100, that is, along a direction away from the arm 100. For example, in the display area 131a including the position A, the control unit 11 arranges the objects Wc and Wd in order along the direction away from the arm 100. Furthermore, the display position of the objects arranged in the direction away from the arm 100 may be changed according to the operation performed by the finger F on the display area 131. In the example illustrated in FIG. 17B, the control unit 11 switches the display positions of the object Wc and the object Wd.
Further, the display device 10 may arrange the objects along each of three directions in total, including two directions along the user's arm 100 and a direction not along the user's arm 100.

(変形例2)
上述した実施形態では、表示装置10は、腕100が腕周り方向に回転した場合であっても、ユーザから見た表示位置が一定となるように、オブジェクトの表示位置を変更していた。この例に限られず、表示装置10は、オブジェクトが配置された領域が向く方向が変化させられた場合に、当該方向の変化を小さくする表示位置にオブジェクトを変更すればよい。この場合であっても、腕100の姿勢の変化に対して、オブジェクトが表示された領域が向く方向の変化が小さくて済むので、当該オブジェクトをユーザは観察しやすい。
(Modification 2)
In the embodiment described above, the display device 10 changes the display position of the object so that the display position viewed from the user is constant even when the arm 100 rotates in the direction around the arm. The display device 10 is not limited to this example, and the display device 10 may change the object to a display position that reduces the change in the direction when the direction in which the region in which the object is arranged is changed. Even in this case, since the change in the direction in which the area where the object is displayed is small with respect to the change in the posture of the arm 100, the user can easily observe the object.

(変形例3)
オブジェクトに関連付けられる機能は、上述した実施形態で説明した機能に限られない。例えば、オブジェクトは、電子データ(電子ファイル)の分類するためのフォルダに関連付けられていてもよい。この場合、制御部11は、表示中のフォルダに関連付けられたオブジェクトの選択操作に応じて、当該フォルダの配下にある電子データに関連付けられたオブジェクト(例えばアイコン)を表示する。
(Modification 3)
The function associated with the object is not limited to the function described in the above embodiment. For example, the object may be associated with a folder for classifying electronic data (electronic file). In this case, the control unit 11 displays an object (for example, an icon) associated with the electronic data under the folder in accordance with an object selection operation associated with the folder being displayed.

(変形例4)
上述した実施形態では、表示装置10のホーム画面を例に挙げて、オブジェクトの表示動作を説明した。ホーム画面に限られず、表示装置10は、オブジェクトの表示を伴う所定の画面を表示した際に、上述した実施形態で説明したオブジェクトの表示動作を行ってもよい。
(Modification 4)
In the above-described embodiment, the object display operation has been described using the home screen of the display device 10 as an example. The display device 10 is not limited to the home screen, and the display device 10 may perform the object display operation described in the above-described embodiment when displaying a predetermined screen accompanied by the display of the object.

(変形例5)
「(B)オブジェクトの表示位置の変更動作」において、表示装置10は、背景領域とともに、表示中の全てのオブジェクトを移動させていた。これに代えて、表示装置10は、ユーザに指示されたオブジェクトと関連する一部のオブジェクトのみを移動させてもよい。例えば、表示装置10は、ユーザに指示されたオブジェクトと、カテゴリが共通する機能に関連付けられたオブジェクトを、移動させてもよい。
(Modification 5)
In “(B) Operation for Changing Display Position of Object”, display device 10 has moved all objects being displayed together with the background area. Instead of this, the display device 10 may move only some objects related to the object instructed by the user. For example, the display device 10 may move an object instructed by the user and an object associated with a function having a common category.

(変形例6)
本発明の表示装置は、リストバンド型の表示装置に限られず、ユーザの腕に装着して使用される他の形態の表示装置であってもよい。この表示装置の一例として、ユーザの腕に装着される腕時計型の表示装置がある。腕時計型の表示装置10は、表示部13と、表示部13と物理的に接続された装着部とを備える。装着部は、時計バンドに相当するバンド状(帯状)の部材である。表示部13は、ユーザの腕100に装着部が巻かれることにより、腕100に装着される。
また、表示領域131は、腕100の1周分よりも短い寸法の表示領域であってもよいし、伸張方向を有する表示領域でなくてもよい。
(Modification 6)
The display device of the present invention is not limited to the wristband type display device, and may be a display device of another form that is used by being worn on the user's arm. As an example of this display device, there is a wristwatch type display device worn on a user's arm. The wristwatch-type display device 10 includes a display unit 13 and a mounting unit physically connected to the display unit 13. The mounting portion is a band-shaped (strip-shaped) member corresponding to a watch band. The display unit 13 is mounted on the arm 100 when the mounting unit is wound around the user's arm 100.
In addition, the display area 131 may be a display area having a shorter dimension than the circumference of the arm 100 or may not be a display area having an extension direction.

また、本発明の表示装置は、ユーザの腕に装着される表示装置に限られず、ユーザによって把持(即ち手に保持)して使用される表示装置であってもよい。この種の表示装置の一例として、スマートフォンやタブレット端末等の表示装置がある。ユーザに把持して使用される表示装置であっても、ユーザから見たオブジェクトの表示位置の変化を小さくすることで、特定のオブジェクトが観察し難くなるのを抑制することができる。
また、本発明の表示装置は、ユーザの身体の部位として、腕等の手以外の部位に装着又は保持される表示装置であってもよい。
また、表示領域131が向く方向の変化を検出可能であれば、センサ部12は、加速度センサ122以外のセンサを含んでいてもよい。また、センサ部12は、接触センサ121を含まない構成であってもよい。
Further, the display device of the present invention is not limited to the display device worn on the user's arm, and may be a display device used by being held (that is, held in the hand) by the user. As an example of this type of display device, there is a display device such as a smartphone or a tablet terminal. Even in a display device that is used by being held by a user, it is possible to suppress the difficulty of observing a specific object by reducing the change in the display position of the object viewed from the user.
In addition, the display device of the present invention may be a display device that is mounted or held on a part of the user's body other than the hand such as an arm.
In addition, the sensor unit 12 may include a sensor other than the acceleration sensor 122 as long as it can detect a change in the direction in which the display area 131 faces. Further, the sensor unit 12 may be configured not to include the contact sensor 121.

(変形例7)
上述した実施形態の構成の一部が省略されてもよい。例えば、表示装置10において、「(B)オブジェクトの表示位置の変更動作」、「(C)オブジェクトの選択操作時の動作」、「(D)オブジェクトに対する重み付けに関する動作」及び「(E)機能実行動作」の1つ以上が省略されてもよい。
(Modification 7)
A part of the configuration of the above-described embodiment may be omitted. For example, in the display device 10, “(B) Object display position change operation”, “(C) Object selection operation”, “(D) Object weighting operation”, and “(E) Function execution”. One or more of the “operations” may be omitted.

(変形例8)
上述した各実施形態において、表示装置10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の連係によって実現されうる。制御部11の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、表示方法として把握することも可能である。
(Modification 8)
In each embodiment described above, each function realized by the control unit 11 of the display device 10 can be realized by a combination of a plurality of programs, or can be realized by linkage of a plurality of hardware resources. When the function of the control unit 11 is realized using a program, the program includes a magnetic recording medium (magnetic tape, magnetic disk (HDD (Hard Disk Drive), FD (Flexible Disk)), etc.), optical recording medium (optical disk). Etc.), may be provided in a state of being stored in a computer-readable recording medium such as a magneto-optical recording medium or a semiconductor memory, or may be distributed via a network. The present invention can also be grasped as a display method.

10…表示装置、11…制御部、111…表示制御部、112…操作受付部、113…実行部、12…センサ部、121…接触センサ、122…加速度センサ、13…表示部、131…表示領域、14…通信部、15…記憶部。 DESCRIPTION OF SYMBOLS 10 ... Display apparatus, 11 ... Control part, 111 ... Display control part, 112 ... Operation reception part, 113 ... Execution part, 12 ... Sensor part, 121 ... Contact sensor, 122 ... Acceleration sensor, 13 ... Display part, 131 ... Display Area, 14 ... communication unit, 15 ... storage unit.

Claims (10)

画像を表示する表示領域を含む表示部と、
前記表示領域が向く方向の変化を検出する検出部と、
前記表示領域への画像の表示を制御する表示制御部であって、前記検出部が検出した前記変化に基づいて、表示中のオブジェクトを配置した領域が向く方向が変化させられた場合に、当該オブジェクトの表示位置を、前記方向の変化を小さくする位置に変更する表示制御部と
を備える表示装置。
A display unit including a display area for displaying an image;
A detection unit for detecting a change in a direction in which the display area faces;
A display control unit that controls display of an image on the display region, and when the direction in which the region where the object being displayed is directed is changed is changed based on the change detected by the detection unit, And a display control unit that changes a display position of the object to a position that reduces the change in the direction.
前記表示領域上の位置を指定した操作を受け付ける操作受付部を備え、
前記表示制御部は、
前記オブジェクトを配置していない領域を一方向に移動させる操作が前記操作受付部により受け付けられた場合に、当該一方向に前記オブジェクトを移動させる
ことを特徴とする請求項1に記載の表示装置。
An operation receiving unit for receiving an operation specifying a position on the display area;
The display control unit
The display device according to claim 1, wherein when an operation for moving a region in which the object is not arranged in one direction is received by the operation receiving unit, the object is moved in the one direction.
前記表示制御部は、
前記操作が受け付けられなくなると、前記オブジェクトを当該操作前の表示位置に戻す
ことを特徴とする請求項2に記載の表示装置。
The display control unit
The display device according to claim 2, wherein when the operation is not accepted, the object is returned to a display position before the operation.
前記表示制御部は、
前記表示領域で複数の前記オブジェクトを表示中の場合、前記操作に応じて、表示中の2以上の前記オブジェクトを移動させる
ことを特徴とする請求項2又は請求項3に記載の表示装置。
The display control unit
4. The display device according to claim 2, wherein when a plurality of the objects are being displayed in the display area, the two or more objects being displayed are moved according to the operation.
前記表示部は、ユーザの身体の部位に装着され、
前記オブジェクトは、複数機能に関連付けられたユーザが操作可能な第1のオブジェクトであり、
前記表示制御部は、
前記第1のオブジェクトを選択する操作が行われた場合、前記複数機能の各機能に関連付けられた第2のオブジェクトを、前記部位に沿って配列させる
ことを特徴とする請求項1から請求項4のいずれか1項に記載の表示装置。
The display unit is attached to a part of the user's body,
The object is a first object that can be operated by a user associated with a plurality of functions,
The display control unit
When the operation of selecting the first object is performed, the second object associated with each function of the plurality of functions is arranged along the part. The display device according to any one of the above.
前記表示部は、ユーザの身体の部位に装着され、
前記表示制御部は、
表示中の複数の前記オブジェクトの各々に与えられた重み値に応じて、当該オブジェクトを前記部位に沿って配列させる
ことを特徴とする請求項1から請求項5のいずれか1項に記載の表示装置。
The display unit is attached to a part of the user's body,
The display control unit
The display according to any one of claims 1 to 5, wherein the objects are arranged along the part in accordance with a weight value given to each of the plurality of objects being displayed. apparatus.
前記表示制御部は、
前記重み値に応じて、前記オブジェクトのサイズを変化させる
ことを特徴とする請求項6に記載の表示装置。
The display control unit
The display device according to claim 6, wherein the size of the object is changed according to the weight value.
前記表示制御部は、
前記部位に沿う方向と前記部位に沿わない方向との各方向に沿って、前記オブジェクトを配列させる
ことを特徴とする請求項1から請求項7のいずれか1項に記載の表示装置。
The display control unit
The display device according to any one of claims 1 to 7, wherein the objects are arranged along each direction of a direction along the part and a direction not along the part.
前記表示部に作用した振動を検出する振動検出部と、
前記オブジェクトに関連付けられた機能を実行する実行部と
を備え、
前記振動検出部により前記振動が検出された場合に、
前記表示制御部は、表示中の前記オブジェクトで定まる画像を表示し、
前記実行部は、前記表示中の前記オブジェクトに関連付けられた前記機能を実行する
ことを特徴とする請求項1から請求項8のいずれか1項に記載の表示装置。
A vibration detection unit for detecting vibrations acting on the display unit;
An execution unit that executes a function associated with the object,
When the vibration is detected by the vibration detection unit,
The display control unit displays an image determined by the object being displayed,
The display device according to any one of claims 1 to 8, wherein the execution unit executes the function associated with the object being displayed.
画像を表示する表示領域を含む表示部を制御するコンピュータに、
前記表示領域が向く方向の変化を検出するステップと、
前記表示領域への画像の表示を制御するステップであって、検出した前記変化に基づいて、表示中のオブジェクトを配置した領域が向く方向が変化させられた場合に、当該オブジェクトの表示位置を、前記方向の変化を小さくする位置に変更するステップと
を実行させるためのプログラム。
In a computer that controls a display unit including a display area for displaying an image,
Detecting a change in a direction in which the display area faces;
A step of controlling display of an image in the display area, and when the direction in which the area where the object being displayed is directed is changed based on the detected change, the display position of the object is A program for executing the step of changing to a position where the change in the direction is reduced.
JP2014050591A 2014-03-13 2014-03-13 display device and program Pending JP2015176247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014050591A JP2015176247A (en) 2014-03-13 2014-03-13 display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014050591A JP2015176247A (en) 2014-03-13 2014-03-13 display device and program

Publications (1)

Publication Number Publication Date
JP2015176247A true JP2015176247A (en) 2015-10-05

Family

ID=54255419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050591A Pending JP2015176247A (en) 2014-03-13 2014-03-13 display device and program

Country Status (1)

Country Link
JP (1) JP2015176247A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114385012A (en) * 2022-01-17 2022-04-22 维沃移动通信有限公司 Motion recognition method and device, electronic equipment and readable storage medium
JP2022533684A (en) * 2019-10-15 2022-07-25 中興通訊股▲ふん▼有限公司 Display position adjustment method, device, terminal and readable storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022533684A (en) * 2019-10-15 2022-07-25 中興通訊股▲ふん▼有限公司 Display position adjustment method, device, terminal and readable storage medium
US20220335868A1 (en) * 2019-10-15 2022-10-20 Zte Corporation Display position adjusting method and apparatus, terminal, and readable storage medium
CN114385012A (en) * 2022-01-17 2022-04-22 维沃移动通信有限公司 Motion recognition method and device, electronic equipment and readable storage medium
CN114385012B (en) * 2022-01-17 2023-06-30 维沃移动通信有限公司 Motion recognition method, motion recognition device, electronic equipment and readable storage medium

Similar Documents

Publication Publication Date Title
US10228766B2 (en) Enhanced Display Rotation
JP6170168B2 (en) Electronics
KR20160128378A (en) Text input on an interactive display
KR20190100339A (en) Application switching method, device and graphical user interface
JP5935267B2 (en) Information processing apparatus, information processing method, and program
JP2016532973A (en) User interface for manipulating user interface objects
JP2017527906A (en) Inactive area of touch surface based on contextual information
US9465445B2 (en) Application swap based on smart device position
US20150169180A1 (en) Rearranging icons on a display by shaking
CN112540530B (en) Wearable terminal
KR20110084094A (en) Handheld electronic device with motion-controlled cursor
KR20160082942A (en) Method, device, system and non-transitory computer-readable recording medium for providing user interfacecontext information
CN104423799A (en) Interface device and interface method
JP2016177568A (en) Display device and information display metho, information display program
KR20140103584A (en) Electronic device, method of operating the same, and computer-readable medium storing programs
US10466801B2 (en) Detection and usability of personal electronic devices for field engineers
EP3151083B1 (en) Mobile terminal
JP2015176247A (en) display device and program
US20170344216A1 (en) Accelerated panning of large user interface objects
EP2618105B1 (en) Handheld field device having a sketching functionality with a prearranged set of vector orientations
US9377917B2 (en) Mobile terminal and method for controlling the same
KR20200018801A (en) Flexible device and methods for controlling operation thereof
US20150116281A1 (en) Portable electronic device and control method
JP2015049837A (en) Portable terminal device
CN113168220A (en) Display method, storage medium and electronic equipment