JP2019200726A - Computation device and program - Google Patents

Computation device and program Download PDF

Info

Publication number
JP2019200726A
JP2019200726A JP2018096471A JP2018096471A JP2019200726A JP 2019200726 A JP2019200726 A JP 2019200726A JP 2018096471 A JP2018096471 A JP 2018096471A JP 2018096471 A JP2018096471 A JP 2018096471A JP 2019200726 A JP2019200726 A JP 2019200726A
Authority
JP
Japan
Prior art keywords
user
display device
coordinates
input device
selected object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018096471A
Other languages
Japanese (ja)
Other versions
JP6951292B2 (en
Inventor
裕真 中井
Yuma Nakai
裕真 中井
剛史 大西
Takeshi Onishi
剛史 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2018096471A priority Critical patent/JP6951292B2/en
Publication of JP2019200726A publication Critical patent/JP2019200726A/en
Application granted granted Critical
Publication of JP6951292B2 publication Critical patent/JP6951292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To effectively reduce discomfort felt by a user even when an object unintended by the user is selected.SOLUTION: A computation device comprises a computation unit for calculating an emphasis degree used for controlling an emphasis expression of a selection object, which is selected based on a coordinate of an operation subject in an input device, among a plurality of objects displayed in a display device. The selection object is the one with the shortest distance to the coordinate in the display device in the case where the coordinate of the operation subject in the input device is converted into a coordinate in the display device. In the case of estimating selection of the selection object which is different from the one intended by the user, the computation unit calculates the emphasis degree to be lower so that the emphasis expression is alleviated compared with the case where the selection object intended by the user is selected.SELECTED DRAWING: Figure 1

Description

本発明は、演算装置およびプログラムに関する。   The present invention relates to an arithmetic device and a program.

近年、GUI(Graphical User Interface)において、ユーザの入力操作に係る負担を軽減するための技術が多く開発されている。例えば、特許文献1には、複数の選択対象物のうちカーソルとの中心点間距離が最も短い選択対象物を選択する手法において、カーソルの移動方向を考慮する技術が開示されている。   2. Description of the Related Art In recent years, many techniques for reducing the burden associated with user input operations have been developed in GUI (Graphical User Interface). For example, Patent Literature 1 discloses a technique that considers the moving direction of a cursor in a method of selecting a selection target having the shortest distance between the center points from the cursor among a plurality of selection targets.

特開2012−27879号公報JP 2012-27879 A

しかし、特許文献1に開示される技術を用いた場合であっても、ユーザが意図する選択対象物を正しく選択することが困難な場合がある。また、この場合、操作を行うユーザの注意を引き、強い違和感を与える可能性もある。   However, even when the technique disclosed in Patent Document 1 is used, it may be difficult to correctly select a selection object intended by the user. Further, in this case, there is a possibility that the user who performs the operation gets the attention and gives a strong sense of incongruity.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザが意図しないオブジェクトが選択された場合であっても、ユーザの違和感を効果的に軽減することが可能な、新規かつ改良された演算装置およびプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to effectively reduce the user's uncomfortable feeling even when an object not intended by the user is selected. It is an object of the present invention to provide a new and improved arithmetic device and program that can be used.

上記課題を解決するために、本発明のある観点によれば、表示装置が表示する複数のオブジェクトのうち入力装置における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する演算部、を備え、上記選択オブジェクトは、上記入力装置における操作主体の座標を上記表示装置における座標に変換した場合に、上記表示装置における上記座標との距離が最も短い上記オブジェクトであり、上記演算部は、ユーザの意図とは異なる上記選択オブジェクトが選択されたことを推定した場合、上記ユーザが意図する上記選択オブジェクトが選択された場合と比較して、上記強調表現が緩和されるよう上記強調度を低く算出する、演算装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, the display device is used for controlling highlighted expression of a selected object selected based on the coordinates of an operation subject in the input device among a plurality of objects displayed by the display device. An arithmetic unit that calculates an emphasis degree, and the selected object has the shortest distance from the coordinates in the display device when the coordinates of the operation subject in the input device are converted into the coordinates in the display device. And the arithmetic unit relaxes the emphasized expression when it is estimated that the selected object different from the user's intention is selected, as compared with the case where the selected object intended by the user is selected. An arithmetic unit is provided that calculates the degree of enhancement so as to be low.

また、上記演算部は、上記入力装置における上記操作主体の座標変化に係る速度が閾値を上回ることに基づいて、上記ユーザの意図とは異なる上記選択オブジェクトが選択されたことを推定してもよい。   Further, the calculation unit may estimate that the selected object that is different from the user's intention is selected based on a speed related to a coordinate change of the operation subject in the input device exceeding a threshold value. .

また、上記演算部は、上記座標変化に係る速度が速いほど上記強調度を低く算出してもよい。   Further, the calculation unit may calculate the enhancement degree lower as the speed related to the coordinate change is higher.

また、上記表示装置と上記入力装置は別体として形成されてもよい。   The display device and the input device may be formed as separate bodies.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、表示装置が表示する複数のオブジェクトのうち入力装置における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する演算部、を備え、上記選択オブジェクトは、上記入力装置における操作主体の座標を上記表示装置の座標における変換した場合に、上記表示装置における上記座標との距離が最も短い上記オブジェクトであり、上記演算部は、ユーザの意図とは異なる上記選択オブジェクトが選択されたことを推定した場合、上記ユーザが意図する上記選択オブジェクトが選択された場合と比較して、上記強調表現が緩和されるよう上記強調度を低く算出する、演算装置、として機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, the computer emphasizes a selected object selected based on the coordinates of an operation subject in the input device among a plurality of objects displayed by the display device. An arithmetic unit that calculates an emphasis degree used for controlling the expression, and the selected object converts the coordinates of the operating subject in the input device to the coordinates in the display device when the coordinates in the display device are converted. The object having the shortest distance, and the calculation unit estimates that the selected object that is different from the user's intention is selected, as compared with the case where the selected object intended by the user is selected. , A program for functioning as an arithmetic unit that calculates the degree of emphasis low so that the emphasis expression is relaxed It is provided.

以上説明したように本発明によれば、ユーザが意図しないオブジェクトが選択された場合であっても、ユーザの違和感を効果的に軽減することが可能となる。   As described above, according to the present invention, even when an object not intended by the user is selected, it is possible to effectively reduce the user's uncomfortable feeling.

本発明の一実施形態に係る演算装置が算出する強調度に基づく選択オブジェクトの強調表現について説明するための図である。It is a figure for demonstrating the emphasis expression of the selection object based on the emphasis degree which the arithmetic unit which concerns on one Embodiment of this invention calculates. 同実施形態に係る機能構成例を示すブロック図である。It is a block diagram which shows the function structural example which concerns on the same embodiment. 同実施形態に係る強調度算出の流れを示すフローチャートである。It is a flowchart which shows the flow of the emphasis degree calculation which concerns on the same embodiment. 従来手法による選択オブジェクトの強調表現について説明するための図である。It is a figure for demonstrating the emphasis expression of the selection object by a conventional method.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.実施形態>
<<1.1.概要>>
まず、本発明の概要について述べる。近年、GUIを用いた入力手法が広く普及している。また、上記のような入力手法において、ユーザの入力負担を軽減するための技術が多く開発されている。
<1. Embodiment>
<< 1.1. Overview >>
First, the outline of the present invention will be described. In recent years, input methods using a GUI have become widespread. Further, in the input method as described above, many techniques for reducing the input burden on the user have been developed.

例えば、特許文献1には、表示装置に表示される複数の選択対象物の中から、タッチパッドなどにおけるユーザの操作に応じたカーソルの座標と、中心点間距離が最も近い選択対象物を選択する入力手法が開示されている。   For example, Patent Document 1 selects a selection target that has the closest distance between the center point and the coordinates of the cursor according to the user's operation on the touch pad or the like from a plurality of selection targets displayed on the display device. An input method is disclosed.

上記のような入力手法によれば、キーボードやテンキーなど、直接的に文字入力を行う入力装置を用いる場合と比べ、ユーザの入力負担を大きく低減することが可能となる。   According to the input method as described above, it is possible to greatly reduce the input burden on the user as compared with the case of using an input device that directly inputs characters, such as a keyboard or a numeric keypad.

また、上記のような入力手法によれば、ユーザがタッチパッドを指でなぞるなどして、手元を注視せずとも直観的に操作が可能となる。このため、上記のような入力手法は、例えば、車両などの移動体において、運転を行いながら何らかの操作を行う場合であっても、安全性をより向上させることができ、種々の環境における活用が期待される。   In addition, according to the input method as described above, the user can intuitively operate the user by tracing the touch pad with a finger without gazing at the hand. For this reason, the input method as described above, for example, can improve safety even when performing some operation while driving in a moving body such as a vehicle, and can be used in various environments. Be expected.

一方、特許文献1には、カーソルの移動方向を考慮することで、ユーザの意図とは異なる選択対象物が選択される可能性を低減する技術が開示されているが、当該技術を用いた場合であっても、正しい選択対象物を特定することが困難な場合も想定される。   On the other hand, Patent Document 1 discloses a technique for reducing the possibility of selecting a selection object that is different from the user's intention by considering the moving direction of the cursor. Even in such a case, it may be difficult to specify a correct selection object.

この場合、ユーザは、自身が意図するものとは異なる選択対象物が選択されたことに強い違和感を覚えるとともに、当該選択対象物に必要以上に注意が向く可能性がある。このような事象は、特に移動体の運転中などにおいては、安全性の観点からも好ましくない。   In this case, the user may feel a strong sense of incongruity in selecting a selection object that is different from the one intended by the user, and may pay more attention to the selection object than necessary. Such an event is not preferable from the viewpoint of safety, particularly during the operation of the moving body.

このため、ユーザの意図とは異なる選択対象物が選択された場合であっても、上記のような違和感を低減させる手法が求められていた。   For this reason, even if it is a case where the selection target object different from a user's intention is selected, the method of reducing the above discomfort was calculated | required.

本発明に係る技術思想は、上記のような点に着目して発想されたものであり、ユーザが意図しないオブジェクトが選択された場合であっても、ユーザの違和感を効果的に軽減することを可能とする。このために、本発明の一実施形態に係る演算装置10は、表示装置が表示する複数のオブジェクトのうち入力装置における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する演算部110を備える。   The technical idea according to the present invention has been conceived by paying attention to the above points, and effectively reduces the user's discomfort even when an object that is not intended by the user is selected. Make it possible. For this reason, the arithmetic device 10 according to the embodiment of the present invention is used for controlling the emphasized expression of a selected object selected based on the coordinates of the operation subject in the input device among the plurality of objects displayed by the display device. A calculation unit 110 that calculates the enhancement degree is provided.

ここで、上記オブジェクトは、上述の選択対象物に対応するものであり、表示装置が表示するアイコンや文字などの種々の要素のうち、ユーザの入力操作により選択され得る種々の要素を指す。また、上記選択オブジェクトとは、入力装置における操作主体の座標を表示装置における座標に変換した場合に、当該表示装置における座標との距離が最も短いオブジェクトであってよい。   Here, the object corresponds to the above-described selection object, and refers to various elements that can be selected by a user input operation among various elements such as icons and characters displayed on the display device. The selected object may be an object having the shortest distance from the coordinates on the display device when the coordinates of the operation subject in the input device are converted into the coordinates on the display device.

また、本発明の一実施形態に係る演算部110は、ユーザの意図とは異なる選択オブジェクトが選択されたことを推定した場合、ユーザが意図する選択オブジェクトが選択された場合と比較して、強調表現が緩和されるよう強調度を低く算出すること、を特徴の一つとする。   In addition, the calculation unit 110 according to an embodiment of the present invention emphasizes that when a selection object that is different from the user's intention is estimated, compared to a case where the selection object that the user intends is selected. One of the features is that the degree of emphasis is calculated to be low so that the expression is relaxed.

ここで、本発明による選択オブジェクトの強調表現と、従来手法による選択オブジェクトの強調表現との比較について述べる。図4は、従来手法による選択オブジェクトの強調表現について説明するための図である。   Here, a comparison between the emphasized expression of the selected object according to the present invention and the emphasized expression of the selected object according to the conventional method will be described. FIG. 4 is a diagram for explaining the emphasized expression of the selected object according to the conventional method.

図4の下段には、タッチパッドである入力装置20において、なぞり操作を行う操作主体であるユーザの指Fの操作軌道が、図中左から右に向かって時系列に示されている。また、図4の上段には、表示装置30が表示するGUIにおいて、入力装置20における指Fの座標に基づいて選択される選択オブジェクトの強調表現が図中左から右に向かって時系列に示されている。   In the lower part of FIG. 4, the operation trajectory of the user's finger F that is an operation subject performing the tracing operation in the input device 20 that is a touch pad is shown in time series from left to right in the drawing. In the upper part of FIG. 4, in the GUI displayed by the display device 30, the highlighted expression of the selected object selected based on the coordinates of the finger F on the input device 20 is shown in time series from left to right in the figure. Has been.

図4を参照すると、まず、図中左に示すように、入力装置20における指Fの座標を表示装置30の座標と対応付けて変換した場合の座標P1に基づいて、複数のオブジェクトO1〜O5のうち、座標P1との距離が最も短いオブジェクトO1が選択オブジェクトとして選択されている。この際、選択オブジェクトであるオブジェクトO1は、他のオブジェクトO2〜O5よりも強調して表現される。なお、図4では、選択オブジェクトの強調表現として、背景色の変更が採用される場合を例に示している。   Referring to FIG. 4, first, as shown on the left in the figure, a plurality of objects O1 to O5 based on the coordinates P1 when the coordinates of the finger F in the input device 20 are converted in association with the coordinates of the display device 30. Among these, the object O1 having the shortest distance from the coordinate P1 is selected as the selected object. At this time, the object O1, which is the selected object, is expressed with emphasis over the other objects O2 to O5. Note that FIG. 4 shows an example in which a background color change is adopted as an emphasized expression of the selected object.

次に、ユーザは、選択オブジェクトを視認し、自身が意図するオブジェクトを選択するために、入力装置20において、指Fを用いたなぞり操作を行う。ここでは、ユーザが意図するオブジェクトがオブジェクトO2であるとする。   Next, the user visually recognizes the selected object and performs a tracing operation using the finger F on the input device 20 in order to select the object intended by the user. Here, it is assumed that the object intended by the user is the object O2.

この際、ユーザの指Fは、最初に選択された選択オブジェクトであるオブジェクトO1を起点にオブジェクトO2の方向に向かって軌道を描き、最終的に、図中右に示すように、座標P3に至ることで、ユーザが意図するオブジェクトO2が選択オブジェクトとして選択される。   At this time, the user's finger F draws a trajectory in the direction of the object O2 starting from the object O1 that is the first selected object, and finally reaches the coordinate P3 as shown on the right in the figure. Thus, the object O2 intended by the user is selected as the selected object.

しかし、この場合、図中央に示すように、上記軌道の過程において、座標P2との距離が最も短いオブジェクトO4が一時的に選択オブジェクトとして選択されることとなる。   However, in this case, as shown in the center of the figure, in the course of the trajectory, the object O4 having the shortest distance from the coordinate P2 is temporarily selected as the selected object.

ここで、オブジェクトO4は、ユーザの意図とは異なる選択オブジェクトであるが、比較手法では、オブジェクトO4を、図中の左右における選択オブジェクトであるオブジェクトO1およびO2と同様の強調表現を用いて表示している。   Here, the object O4 is a selection object different from the user's intention, but in the comparison method, the object O4 is displayed using the same emphasis expression as the objects O1 and O2, which are the selection objects on the left and right in the drawing. ing.

この場合、なぞり操作の途中で、自身が意図しないオブジェクトO4が強調された(すなわち、選択された)ことを視認したユーザは、オブジェクトO4に気を取られるとともに、強い違和感を覚えることが想定される。   In this case, it is assumed that a user who visually recognizes that the object O4 that he did not intend has been emphasized (that is, selected) during the tracing operation is distracted by the object O4 and feels a strong sense of discomfort. The

また、ここで、図中に示す座標P1〜P3などに対応するカーソルが表示装置30に表示されない場合、ユーザは、入力装置20における指Fの位置が正しくないと判断し、指Fを右上方向に移動させる可能性があるが、この際、オブジェクトO2とオブジェクトO5との間に別のオブジェクトが存在する場合には、当該オブジェクトが選択オブジェクトとして選択されることで、さらにユーザの注意を引くこととなる。   Here, when the cursor corresponding to the coordinates P1 to P3 shown in the figure is not displayed on the display device 30, the user determines that the position of the finger F on the input device 20 is incorrect, and moves the finger F to the upper right direction. At this time, if another object exists between the object O2 and the object O5, the object is selected as the selected object, and the user's attention is further drawn. It becomes.

一方、図1は、本実施形態に係る演算装置10が算出する強調度に基づく選択オブジェクトの強調表現について説明するための図である。   On the other hand, FIG. 1 is a diagram for explaining the emphasized expression of the selected object based on the enhancement degree calculated by the arithmetic device 10 according to the present embodiment.

図1の下段には、タッチパッドである入力装置20において、なぞり操作を行う操作主体であるユーザの指Fの操作軌道が、図中左から右に向かって時系列に示されている。また、図1の上段には、表示装置30が表示するGUIにおいて、入力装置20における指Fの座標に基づいて選択される選択オブジェクトの強調表現が図中左から右に向かって時系列に示されている。   In the lower part of FIG. 1, the operation trajectory of the finger F of the user who is the main subject of the tracing operation in the input device 20 which is a touch pad is shown in time series from left to right in the drawing. Further, in the upper part of FIG. 1, in the GUI displayed by the display device 30, the highlighted expression of the selected object selected based on the coordinates of the finger F in the input device 20 is shown in time series from left to right in the figure. Has been.

ここで、図1に示す指Fの操作軌道は、図4に示したものと同様であってよい。すなわち、図1においても、座標P1〜P3に基づいて、オブジェクトO1、O4、O2が順に選択オブジェクトとして選択されることとなる。   Here, the operation trajectory of the finger F shown in FIG. 1 may be the same as that shown in FIG. That is, also in FIG. 1, the objects O1, O4, and O2 are sequentially selected as selection objects based on the coordinates P1 to P3.

一方、本実施形態に係る演算装置10が算出する強調度に基づく選択オブジェクトの強調表現を示す図1では、比較手法による強調表現を示す図4とは異なり、ユーザが意図しない選択オブジェクトであるオブジェクトO4の強調表現が、オブジェクトO1およびO2と比較して緩和されていることがわかる。   On the other hand, in FIG. 1 showing the emphasized expression of the selected object based on the emphasis degree calculated by the arithmetic device 10 according to the present embodiment, unlike FIG. 4 showing the emphasized expression by the comparison method, the object that is the selected object that the user does not intend. It can be seen that the emphasized expression of O4 is relaxed compared to the objects O1 and O2.

このように、本実施形態に係る演算装置10によれば、ユーザの意図とは異なる選択オブジェクトが選択されたことが推定された場合、当該選択オブジェクトの強調表現の制御に用いられる強調度を、ユーザが意図する選択オブジェクトが選択された場合と比較して、低く算出することで、ユーザの違和感を効果的に低減し、またユーザの注意を必要以上に引くことを防止することができる。   As described above, according to the arithmetic device 10 according to the present embodiment, when it is estimated that a selection object different from the user's intention is selected, the enhancement degree used for controlling the enhancement expression of the selection object is By calculating lower than the case where the selection object intended by the user is selected, it is possible to effectively reduce the user's uncomfortable feeling and prevent the user's attention from being excessively necessary.

本実施形態に係る演算装置10が有する上記の機能によれば、例えば、移動体の運転中における操作が行われる場合であっても、より安全性を確保することが可能となる。また、本実施形態に係る上記の制御手法は、必要以上にユーザの注意を引くことを防止するために、上記の座標P1〜P3などに対応するカーソルを表示しないGUIにおいて、特に有効である。   According to said function which the arithmetic unit 10 which concerns on this embodiment has, even if it is a case where operation in driving | running | working of a mobile body is performed, it becomes possible to ensure more safety, for example. In addition, the control method according to the present embodiment is particularly effective in a GUI that does not display a cursor corresponding to the coordinates P1 to P3 and the like in order to prevent the user from drawing attention more than necessary.

以下、本実施形態に係る演算装置10が有する特徴と機能について詳細に説明する。なお、本明細書では、本実施形態に係る演算装置10が算出する強調度が、車両などの移動体に設けられる表示装置による強調表現の制御に用いられる場合を主な例として説明するが、本実施形態に係る技術思想は係る例に限定されず、なぞり操作などによりオブジェクト選択を行うGUIに広く適用可能である。   Hereinafter, features and functions of the arithmetic device 10 according to the present embodiment will be described in detail. Note that, in this specification, the case where the enhancement degree calculated by the arithmetic device 10 according to the present embodiment is used for controlling the emphasis expression by a display device provided in a moving body such as a vehicle will be described as a main example. The technical idea according to the present embodiment is not limited to such an example, and can be widely applied to GUIs that perform object selection by a tracing operation or the like.

<<1.2.機能構成例>>
次に、本発明の一実施形態に係る機能構成例について詳細に説明する。図2は、本実施形態に係る機能構成例を示すブロック図である。図2を参照すると、本実施形態に係る演算装置10は、演算部110を含む。また、演算装置10は、ネットワークを介し入力装置20および表示装置30と接続される。
<< 1.2. Functional configuration example >>
Next, a functional configuration example according to an embodiment of the present invention will be described in detail. FIG. 2 is a block diagram illustrating a functional configuration example according to the present embodiment. Referring to FIG. 2, the arithmetic device 10 according to the present embodiment includes an arithmetic unit 110. The arithmetic device 10 is connected to the input device 20 and the display device 30 via a network.

(演算装置10)
本実施形態に係る演算装置10は、入力装置20から入力される座標情報に基づいて、選択オブジェクトの強調表現の制御に用いられる強調度を算出する。また、本実施形態に係る演算装置10は、算出した強調度を表示装置30に入力する。
(Calculation device 10)
The arithmetic device 10 according to the present embodiment calculates the degree of enhancement used for controlling the emphasized expression of the selected object based on the coordinate information input from the input device 20. In addition, the arithmetic device 10 according to the present embodiment inputs the calculated enhancement degree to the display device 30.

((演算部110))
本実施形態に係る演算部110は、表示装置30が表示する複数のオブジェクトのうち、入力装置20における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する。ここで、上記選択オブジェクトは、上述したように、入力装置20における操作主体の座標を表示装置における座標に変換した場合に、当該表示装置における座標との距離が最も短いオブジェクトであってよい。
((Calculation unit 110))
The computing unit 110 according to the present embodiment calculates the degree of enhancement used for controlling the emphasis expression of the selected object selected based on the coordinates of the operation subject in the input device 20 among the plurality of objects displayed by the display device 30. To do. Here, as described above, the selected object may be an object having the shortest distance from the coordinates on the display device when the coordinates of the operation subject in the input device 20 are converted into the coordinates on the display device.

また、本実施形態に係る演算部110は、選択オブジェクトの選択に関し、当該選択オブジェクトがユーザが意図したオブジェクトであるか否かを推定する機能を有する。ここで、本実施形態に係る演算部110は、ユーザの意図とは異なる選択オブジェクトが選択されたことを推定した場合、ユーザが意図する選択オブジェクトが選択された場合と比較して、選択オブジェクトの強調表現が緩和されるよう強調度を低く算出すること、を特徴の一つとする。   Further, the calculation unit 110 according to the present embodiment has a function of estimating whether or not the selected object is an object intended by the user with respect to selection of the selected object. Here, when the calculation unit 110 according to the present embodiment estimates that a selection object different from the user's intention is selected, the calculation unit 110 compares the selection object of the selection object with the selection object intended by the user. One of the features is that the degree of emphasis is calculated low so that the emphasis expression is relaxed.

本実施形態に係る演算部110は、例えば、入力装置20における操作主体の座標変化に係る速度に基づいて、選択オブジェクトが、ユーザが意図したオブジェクトであるか否かを推定してもよい。   The computing unit 110 according to the present embodiment may estimate whether or not the selected object is an object intended by the user based on, for example, the speed related to the coordinate change of the operating subject in the input device 20.

より具体的には、演算部110は、上記座標変化に係る速度が閾値を上回ることに基づいて、ユーザの意図とは異なる選択オブジェクトが選択されたことを推定してよい。   More specifically, the calculation unit 110 may estimate that a selection object different from the user's intention has been selected based on the fact that the speed related to the coordinate change exceeds a threshold value.

例えば、図1に示した一例において、操作主体であるユーザの指Fは、最終的にユーザが意図するオブジェクトO2が選択オブジェクトとして選択され、また強調された時点で、動きが止まることが想定される。また、最初に選択されたオブジェクトO1が強調されたことを視認したユーザは、オブジェクトO1と意図するオブジェクトO2との表示位置が離れているほど、指Fを早く動かし、座標をオブジェクトO2に近づけようとすることが想定される。   For example, in the example shown in FIG. 1, it is assumed that the finger F of the user who is the operation subject stops moving when the object O2 intended by the user is finally selected and emphasized. The Further, the user who visually recognizes that the object O1 selected first is emphasized moves the finger F faster and moves the coordinates closer to the object O2 as the display position of the object O1 and the intended object O2 increases. It is assumed that

すなわち、操作主体である指Fの座標変化に係る速度は、選択オブジェクトがユーザが意図するオブジェクトである場合には遅く、選択オブジェクトがユーザの意図とは異なるオブジェクトである場合には速くなることが予測される。   That is, the speed related to the coordinate change of the finger F as the operation subject is slow when the selected object is an object intended by the user, and is fast when the selected object is an object different from the user's intention. is expected.

このため、本実施形態に係る演算部110は、入力装置20から入力された操作主体の時系列の座標情報から当該操作主体の座標変化に係る速度を算出し、当該速度に基づいて、ユーザが意図したオブジェクトであるか否かを推定してもよい。本実施形態に係る演算部110が有する上記の機能によれば、選択オブジェクトがユーザが意図したオブジェクトであるか否かを精度高く推定することが可能となる。   For this reason, the calculation unit 110 according to the present embodiment calculates the speed related to the coordinate change of the operating subject from the time-series coordinate information of the operating subject input from the input device 20, and the user performs the calculation based on the speed. It may be estimated whether the object is the intended object. According to the above function of the calculation unit 110 according to the present embodiment, it is possible to accurately estimate whether or not the selected object is an object intended by the user.

一方、選択オブジェクトに係るユーザ意図の推定は、上記の手法に限定されない。本実施形態に係る演算部110は、例えば、ユーザの眼球を被写体とした画像から推定されるユーザの視線に基づいて、ユーザが意図するオブジェクトを特定することも可能である。この場合、演算部110は、選択された選択オブジェクトがユーザの視線から推定された目的のオブジェクトとは異なることに基づいて、当該選択オブジェクトがユーザの意図とは異なるオブジェクトであることを推定することが可能である。   On the other hand, the estimation of the user intention related to the selected object is not limited to the above method. The computing unit 110 according to the present embodiment can also identify an object intended by the user based on, for example, the user's line of sight estimated from an image of the user's eyeball as a subject. In this case, the calculation unit 110 estimates that the selected object is different from the user's intention based on the selected object being different from the target object estimated from the user's line of sight. Is possible.

また、本実施形態に係る演算部110は、算出した操作主体の座標変化に係る速度に基づいて、選択オブジェクトの強調度を算出してもよい。本実施形態に係る演算部110は、例えば、上記座標変化に係る速度が速いほど強調度を低く算出し、上記座標変化に係る速度が遅いほど強調度を高く算出してもよい。   In addition, the calculation unit 110 according to the present embodiment may calculate the enhancement degree of the selected object based on the calculated speed related to the coordinate change of the operating subject. For example, the calculation unit 110 according to the present embodiment may calculate the enhancement degree lower as the speed related to the coordinate change is faster, and may calculate the enhancement degree higher as the speed related to the coordinate change is slower.

本実施形態に係る演算部110は、例えば、上記座標変化に係る速度と反比例するよう、強調度を算出してもよい。また、演算部110は、例えば、上記座標変化に係る速度が、60dot/s以上である場合には、強調度を80%低下させるなど段階的に強調度を算出してもよい。   For example, the calculation unit 110 according to the present embodiment may calculate the enhancement degree so as to be inversely proportional to the speed related to the coordinate change. In addition, for example, when the speed related to the coordinate change is 60 dots / s or more, the calculation unit 110 may calculate the enhancement degree step by step, for example, by reducing the enhancement degree by 80%.

なお、本実施形態に係る選択オブジェクトの強調表現は、種々の態様により実現されてよい。本実施形態に係る選択オブジェクトの強調表現は、例えば、オブジェクトの背景色の変化、オブジェクトの輪郭線の変化、オブジェクトの拡大、オブジェクトに対するマークなどの重畳、明滅などのアニメーションなどにより実現されてもよい。この際、強調表現に係る強調度は、例えば、オブジェクトや上記マークの色の透過率、輝度、明度、拡大率、線の太さ、明滅の速さなどを変化させることで制御されてよい。   Note that the highlighted expression of the selected object according to the present embodiment may be realized by various modes. The highlighted expression of the selected object according to the present embodiment may be realized by, for example, a change in the background color of the object, a change in the outline of the object, an enlargement of the object, a superimposition of marks on the object, an animation such as blinking, or the like. . At this time, the degree of emphasis related to the emphasis expression may be controlled by changing, for example, the transmittance of the color of the object or the mark, the brightness, the brightness, the enlargement ratio, the line thickness, the blinking speed, and the like.

このために、本実施形態に係る演算部110は、算出した強調度を実現するための背景色の透過率などを算出し、当該透過率を表示装置30に入力してもよい。   For this purpose, the calculation unit 110 according to the present embodiment may calculate the transmittance of the background color for realizing the calculated enhancement degree and input the transmittance to the display device 30.

本実施形態に係る演算部110は、例えば1つまたは2つ以上のプロセッサにより実現される。プロセッサとしては、例えば、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)などが挙げられる。   The computing unit 110 according to the present embodiment is realized by, for example, one or more processors. Examples of the processor include a CPU (Central Processing Unit) and an MCU (Micro Controller Unit).

以上、本実施形態に係る演算装置10が有する機能について述べた。なお、本実施形態に係る演算装置10は、表示装置30によるGUIの表示を全般に制御する機能を有してもよい。また、本実施形態に係る演算装置10は、表示装置30と同一の装置として実現されてもよい。本実施形態に係る演算装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。   In the above, the function which the arithmetic unit 10 which concerns on this embodiment has was described. Note that the arithmetic device 10 according to the present embodiment may have a function of generally controlling the display of the GUI by the display device 30. Further, the arithmetic device 10 according to the present embodiment may be realized as the same device as the display device 30. The functional configuration of the arithmetic device 10 according to the present embodiment can be flexibly modified according to specifications and operations.

(入力装置20)
本実施形態に係る入力装置20は、タッチパッドなどにより実現される。本実施形態に係る入力装置20は、検出した操作主体の座標を時系列に演算装置10に入力する。
(Input device 20)
The input device 20 according to the present embodiment is realized by a touch pad or the like. The input device 20 according to the present embodiment inputs the detected coordinates of the operating subject to the arithmetic device 10 in time series.

(表示装置30)
本実施形態に係る表示装置30は、選択可能な複数のオブジェクトを含むGUIを表示する機能を有する。また、本実施形態に係る表示装置30は、演算装置10が算出した強調度や、当該強調度の制御に用いる背景色の透過率などに基づいて、選択オブジェクトを強調して表示する機能を有する。
(Display device 30)
The display device 30 according to the present embodiment has a function of displaying a GUI including a plurality of selectable objects. In addition, the display device 30 according to the present embodiment has a function of highlighting and displaying the selected object based on the degree of enhancement calculated by the arithmetic device 10 and the transmittance of the background color used for controlling the degree of enhancement. .

本実施形態に係る表示装置30は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置や、OLED(Organic Light Emitting Diode)装置などであってもよい。   The display device 30 according to the present embodiment may be, for example, a liquid crystal display (LCD) device or an organic light emitting diode (OLED) device.

なお、本実施形態に係る表示装置30と入力装置20は、別体の装置として形成され、また互いに離れた位置に配置されてもよい。例えば、タッチパネルのように、表示装置と入力装置が一体の装置として形成される場合、ユーザは指の位置と選択オブジェクトとを同時に視認することができるため、意図とは異なる選択オブジェクトが選択された場合であっても、選択オブジェクトの近傍に自身の指があることから、覚える違和感が比較的少ないことが想定される。   Note that the display device 30 and the input device 20 according to the present embodiment may be formed as separate devices and may be arranged at positions separated from each other. For example, when the display device and the input device are formed as an integrated device such as a touch panel, the user can visually recognize the position of the finger and the selected object at the same time. Even in this case, it is assumed that the user feels a relatively uncomfortable feeling because his / her finger is in the vicinity of the selected object.

一方、表示装置30と入力装置20とが別体の装置として形成される場合、ユーザは、入力装置20における指の位置と表示装置30に表示される選択オブジェクトの位置とを直接的に対応付けることが困難である。このため、ユーザは、図1に示すように、まず、入力装置20のある位置に指を置いたのち、選択オブジェクトの強調表現を視認しながら、意図するオブジェクトが選択されるようブラインド操作を行うこととなる。   On the other hand, when the display device 30 and the input device 20 are formed as separate devices, the user directly associates the position of the finger on the input device 20 with the position of the selected object displayed on the display device 30. Is difficult. For this reason, as shown in FIG. 1, the user first places a finger at a position of the input device 20 and then performs a blind operation so that the intended object is selected while visually confirming the highlighted expression of the selected object. It will be.

この場合、タッチパネルとは異なり、ユーザは指の位置と選択オブジェクトとを同時に視認することができないため、意図しないオブジェクトが選択された場合に覚える違和感も増大することから、本発明に係る強調表現制御による効果がより高く発揮されることが想定される。   In this case, unlike the touch panel, since the user cannot view the finger position and the selected object at the same time, the uncomfortable feeling to be remembered when an unintended object is selected also increases. Therefore, the enhanced expression control according to the present invention. It is assumed that the effect of is exerted more highly.

なお、表示装置30と入力装置20が車両などの移動体に備えられる場合、表示装置30は、例えば、インストルメントパネルに配置されてもよいし、ヘッドアップディスプレイとして実現されてもよい。一方、入力装置20は、例えば、ステアリング上など任意の場所に配置されてよい。   In addition, when the display apparatus 30 and the input device 20 are provided in moving bodies, such as a vehicle, the display apparatus 30 may be arrange | positioned at an instrument panel, for example, and may be implement | achieved as a head-up display. On the other hand, the input device 20 may be disposed at an arbitrary place such as on a steering wheel, for example.

<<1.3.強調度算出の流れ>>
次に、本実施形態に係る演算装置10による選択オブジェクトの強調表現の制御に用いられる強調度算出の流れについて詳細に説明する。図3は、本実施形態に係る強調度算出の流れを示すフローチャートである。
<< 1.3. Flow of enhancement level calculation >>
Next, the flow of emphasis degree calculation used for controlling the emphasis expression of the selected object by the arithmetic device 10 according to the present embodiment will be described in detail. FIG. 3 is a flowchart showing a flow of enhancement degree calculation according to the present embodiment.

なお、図3に示す一例では、本実施形態に係る演算装置10が、入力装置20における操作主体(指)の座標変化に係る速度に基づいて、選択オブジェクトが意図するものであるか否かを推定する場合を例に述べる。   In the example illustrated in FIG. 3, the calculation device 10 according to the present embodiment determines whether or not the selection object is intended based on the speed related to the coordinate change of the operation subject (finger) in the input device 20. An estimation case will be described as an example.

また、図3に示す一例では、選択オブジェクトの強調表現として背景色などの色の変化が採用される場合において、本実施形態に係る演算装置10が、強調度を実現するための上記色の透過率を算出する場合を例に説明する。   In the example illustrated in FIG. 3, when a change in color such as a background color is employed as the emphasized expression of the selected object, the arithmetic device 10 according to the present embodiment transmits the above color for realizing the enhancement degree. A case where the rate is calculated will be described as an example.

図3を算出すると、演算装置10の演算部110が、まず、上記の色の透過率を、透過率α=0、として設定する(S1101)。   If FIG. 3 is calculated, the arithmetic part 110 of the arithmetic unit 10 first sets the transmittance of the above color as transmittance α = 0 (S1101).

次に、入力装置20が、指位置座標P(t)を検出する(S1102)。   Next, the input device 20 detects the finger position coordinates P (t) (S1102).

次に、表示装置30がステップS1102において検出された指位置座標P(t)とステップS1101において設定された透過率α(α=0)に基づいて、選択オブジェクトの強調表示を行う(S1103)。   Next, the display device 30 highlights the selected object based on the finger position coordinates P (t) detected in step S1102 and the transmittance α (α = 0) set in step S1101 (S1103).

次に、入力装置20が、所定時間後の指位置座標P(t+1)を検出する(S1104)。   Next, the input device 20 detects the finger position coordinates P (t + 1) after a predetermined time (S1104).

次に、演算装置10の演算部110が、ステップS1102において検出された指位置座標P(t)と、ステップS1104において検出された指位置座標P(t+1)とに基づいて、操作主体である指の座標変化に係る速度vを算出する(S1105)。   Next, based on the finger position coordinate P (t) detected in step S1102 and the finger position coordinate P (t + 1) detected in step S1104, the calculation unit 110 of the calculation device 10 operates the finger that is the operation subject. The velocity v related to the coordinate change is calculated (S1105).

続いて、演算部110は、ステップS1105において算出した座標変化に係る速度vが、閾値を上回るか否かを判定する(S1106)。すなわち、演算部110は、座標変化に係る速度vに基づいて、選択オブジェクトがユーザが意図するオブジェクトであるか否かを判定する。この際、演算部110は、例えば、|v|>x、などの数式により上記の判定を行ってよい。なお、上記数式におけるxは、閾値である。   Subsequently, the calculation unit 110 determines whether or not the speed v related to the coordinate change calculated in step S1105 exceeds a threshold value (S1106). That is, the calculation unit 110 determines whether or not the selected object is an object intended by the user based on the velocity v related to the coordinate change. At this time, the calculation unit 110 may perform the above determination using a mathematical expression such as | v |> x. Note that x in the above formula is a threshold value.

ここで、座標変化に係る速度vが閾値以下である場合(S1106:NO)、演算部110は、透過率α=0、を設定する(S1107)。すなわち、演算部110は、選択オブジェクトがユーザが意図するオブジェクトであると推定し、強調度を高く設定する。   Here, when the velocity v related to the coordinate change is equal to or less than the threshold (S1106: NO), the calculation unit 110 sets the transmittance α = 0 (S1107). That is, the calculation unit 110 estimates that the selected object is an object intended by the user, and sets the enhancement degree high.

一方、座標変化に係る速度vが閾値を上回る場合(S1106:YES)、演算部110は、速度vに応じた透過率αを設定する(S1108)。すなわち、演算部110は、選択オブジェクトがユーザの意図とは異なるオブジェクトであると推定し、強調度を低く設定する。この際、演算部110は、速度vが速いほど強調度を低く、すなわち透過率αを高く設定してよい。   On the other hand, when the velocity v related to the coordinate change exceeds the threshold (S1106: YES), the calculation unit 110 sets the transmittance α according to the velocity v (S1108). In other words, the calculation unit 110 estimates that the selected object is an object different from the user's intention, and sets the enhancement degree low. At this time, the calculation unit 110 may set the degree of enhancement lower, that is, the transmittance α higher as the speed v is higher.

次に、表示装置30は、ステップS1103において検出された指位置座標P(t+1)と、ステップS1107またはS1108において設定された透過率αとに基づいて、選択オブジェクトの強調表示を行う(S1109)。   Next, the display device 30 highlights the selected object based on the finger position coordinates P (t + 1) detected in step S1103 and the transmittance α set in step S1107 or S1108 (S1109).

次に、演算部110は、保持する指位置座標P(t)に、ステップS1104において検出された指位置座標P(t+1)を代入する(S1110)。   Next, the calculation unit 110 substitutes the finger position coordinate P (t + 1) detected in step S1104 for the held finger position coordinate P (t) (S1110).

次に、演算部110は、入力装置20における指の接触が行われなくなったか否かを判定する(S1111)。演算部110は、例えば、入力装置20からの指位置座標の入力が所定時間以上行われない場合には、指の接触が行われなくなったと判定してもよい。   Next, the calculation unit 110 determines whether or not the finger contact is no longer performed on the input device 20 (S1111). For example, when the input of finger position coordinates from the input device 20 is not performed for a predetermined time or more, the calculation unit 110 may determine that the finger contact is not performed.

ここで、指の接触が続いていると判定した場合(S1111:NO)、演算部110は、ステップS1104に復帰し、検出される指位置座標P(t+1)に基づいて以降の処理を繰り返し実行する。   If it is determined that the finger contact continues (S1111: NO), the calculation unit 110 returns to step S1104 and repeats the subsequent processing based on the detected finger position coordinate P (t + 1). To do.

一方、指の接触が行われなくなったと判定した場合(S1111:YES)、演算部110は、透過率α=0を設定する(S1112)。   On the other hand, when it is determined that the finger is no longer touched (S1111: YES), the calculation unit 110 sets the transmittance α = 0 (S1112).

続いて、表示装置30が、ステップS1112において設定された透過率α(α=0)に基づいて、選択オブジェクトの強調表示を行う(S1113)。   Subsequently, the display device 30 highlights the selected object based on the transmittance α (α = 0) set in step S1112 (S1113).

<2.まとめ>
以上説明したように、本発明の一実施形態に係る演算装置10は、表示装置30が表示する複数のオブジェクトのうち入力装置20における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する演算部110を備える。
<2. Summary>
As described above, the arithmetic device 10 according to an embodiment of the present invention is an emphasis expression of a selected object selected based on the coordinates of an operation subject in the input device 20 among a plurality of objects displayed by the display device 30. A calculation unit 110 that calculates an enhancement degree used for control is provided.

また、本発明の一実施形態に係る演算部110は、ユーザの意図とは異なる選択オブジェクトが選択されたことを推定した場合、ユーザが意図する選択オブジェクトが選択された場合と比較して、強調表現が緩和されるよう強調度を低く算出すること、を特徴の一つとする。   In addition, the calculation unit 110 according to an embodiment of the present invention emphasizes that when a selection object that is different from the user's intention is estimated, compared to a case where the selection object that the user intends is selected. One of the features is that the degree of emphasis is calculated to be low so that the expression is relaxed.

上記の構成によれば、ユーザが意図しないオブジェクトが選択された場合であっても、ユーザの違和感を効果的に軽減することが可能となる。   According to said structure, even if it is a case where the object which a user does not intend is selected, it becomes possible to reduce a user's discomfort effectively.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。   Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、演算装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。   In addition, it is possible to create a program for causing hardware such as a CPU, ROM, and RAM incorporated in the computer to exhibit the same functions as the configuration of the arithmetic unit 10, and it can be read by the computer in which the program is recorded. Recording media can also be provided.

10演算装置、110 演算部、20 入力装置、30 表示装置
10 arithmetic units, 110 arithmetic units, 20 input units, 30 display units

Claims (5)

表示装置が表示する複数のオブジェクトのうち入力装置における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する演算部、
を備え、
前記選択オブジェクトは、前記入力装置における操作主体の座標を前記表示装置における座標に変換した場合に、前記表示装置における前記座標との距離が最も短い前記オブジェクトであり、
前記演算部は、ユーザの意図とは異なる前記選択オブジェクトが選択されたことを推定した場合、前記ユーザが意図する前記選択オブジェクトが選択された場合と比較して、前記強調表現が緩和されるよう前記強調度を低く算出する、
演算装置。
An arithmetic unit that calculates an emphasis degree used for controlling an emphasis expression of a selected object selected based on the coordinates of an operation subject in the input device among a plurality of objects displayed by the display device;
With
The selected object is the object having the shortest distance from the coordinates in the display device when the coordinates of the operation subject in the input device are converted into the coordinates in the display device,
When the calculation unit estimates that the selected object different from the user's intention is selected, the emphasized expression is relaxed as compared with the case where the selected object intended by the user is selected. Calculating the degree of enhancement low,
Arithmetic unit.
前記演算部は、前記入力装置における前記操作主体の座標変化に係る速度が閾値を上回ることに基づいて、前記ユーザの意図とは異なる前記選択オブジェクトが選択されたことを推定する、
請求項1に記載の演算装置。
The calculation unit estimates that the selected object different from the user's intention is selected based on a speed related to a coordinate change of the operation subject in the input device exceeding a threshold value.
The arithmetic device according to claim 1.
前記演算部は、前記座標変化に係る速度が速いほど前記強調度を低く算出する、
請求項2に記載の演算装置。
The calculation unit calculates the enhancement degree lower as the speed related to the coordinate change is faster.
The arithmetic device according to claim 2.
前記表示装置と前記入力装置は別体として形成される、
請求項1〜3のいずれかに記載の演算装置。
The display device and the input device are formed as separate bodies,
The arithmetic unit according to claim 1.
コンピュータを、
表示装置が表示する複数のオブジェクトのうち入力装置における操作主体の座標に基づいて選択される選択オブジェクトの強調表現の制御に用いられる強調度を算出する演算部、
を備え、
前記選択オブジェクトは、前記入力装置における操作主体の座標を前記表示装置の座標における変換した場合に、前記表示装置における前記座標との距離が最も短い前記オブジェクトであり、
前記演算部は、ユーザの意図とは異なる前記選択オブジェクトが選択されたことを推定した場合、前記ユーザが意図する前記選択オブジェクトが選択された場合と比較して、前記強調表現が緩和されるよう前記強調度を低く算出する、
演算装置、
として機能させるためのプログラム。
Computer
An arithmetic unit that calculates an emphasis degree used for controlling an emphasis expression of a selected object selected based on the coordinates of an operation subject in the input device among a plurality of objects displayed by the display device;
With
The selected object is the object having the shortest distance from the coordinates in the display device when the coordinates of the operation subject in the input device are converted in the coordinates of the display device,
When the calculation unit estimates that the selected object different from the user's intention is selected, the emphasized expression is relaxed as compared with the case where the selected object intended by the user is selected. Calculating the degree of enhancement low,
Arithmetic unit,
Program to function as.
JP2018096471A 2018-05-18 2018-05-18 Arithmetic logic units and programs Active JP6951292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018096471A JP6951292B2 (en) 2018-05-18 2018-05-18 Arithmetic logic units and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018096471A JP6951292B2 (en) 2018-05-18 2018-05-18 Arithmetic logic units and programs

Publications (2)

Publication Number Publication Date
JP2019200726A true JP2019200726A (en) 2019-11-21
JP6951292B2 JP6951292B2 (en) 2021-10-20

Family

ID=68612297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096471A Active JP6951292B2 (en) 2018-05-18 2018-05-18 Arithmetic logic units and programs

Country Status (1)

Country Link
JP (1) JP6951292B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003536125A (en) * 1999-12-20 2003-12-02 アップル コンピュータ インコーポレイテッド User interface for centralized management and access provision
WO2011145276A1 (en) * 2010-05-20 2011-11-24 パナソニック株式会社 Operation device, operation method, program, recording medium, and integrated circuit
JP2013534345A (en) * 2010-08-16 2013-09-02 コーニンクレッカ フィリップス エヌ ヴェ Highlight objects on the display
JP5905127B2 (en) * 2012-12-17 2016-04-20 三菱電機株式会社 Video processing apparatus and video processing system
JP2017500673A (en) * 2013-10-01 2017-01-05 クアンタム インターフェイス エルエルシー Selective attraction interface, systems and devices having such an interface, and methods of making and using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003536125A (en) * 1999-12-20 2003-12-02 アップル コンピュータ インコーポレイテッド User interface for centralized management and access provision
WO2011145276A1 (en) * 2010-05-20 2011-11-24 パナソニック株式会社 Operation device, operation method, program, recording medium, and integrated circuit
JP2013534345A (en) * 2010-08-16 2013-09-02 コーニンクレッカ フィリップス エヌ ヴェ Highlight objects on the display
JP5905127B2 (en) * 2012-12-17 2016-04-20 三菱電機株式会社 Video processing apparatus and video processing system
JP2017500673A (en) * 2013-10-01 2017-01-05 クアンタム インターフェイス エルエルシー Selective attraction interface, systems and devices having such an interface, and methods of making and using the same

Also Published As

Publication number Publication date
JP6951292B2 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
US20200371676A1 (en) Device, Method, and Graphical User Interface for Providing and Interacting with a Virtual Drawing Aid
JP4351599B2 (en) Input device
EP2659340B1 (en) Virtual controller for touch display
JP5708083B2 (en) Electronic device, information processing method, program, and electronic device system
JP5563153B2 (en) Operating device
JP2014157466A (en) Information processing device and storage medium
US20150310646A1 (en) Graph display control apparatus, graph display control method, and recording medium storing graph display control program
US10191630B2 (en) Graphical interface and method for managing said graphical interface during the touch-selection of a displayed element
JP2011039989A (en) Display control apparatus, display control method, program, and storage medium
JP2019169128A (en) Method for operating man-machine interface and man-machine interface
JP2006500676A (en) Graphical user interface navigation method and apparatus.
US9507515B2 (en) System and method for data selection by means of a touch-sensitive surface
KR102237452B1 (en) Graphical interface and method for managing said graphical interface during the touch-selection of a displayed element
CN103309483B (en) A kind of electronic equipment and touch information input method
JP6951292B2 (en) Arithmetic logic units and programs
JP6565878B2 (en) Display system
JP6217701B2 (en) Input device
JP2018023792A (en) Game device and program
JP5769841B2 (en) Portable game device with touch panel display
KR20190110625A (en) Touch input determination device, touch panel input device, touch input determination method, and touch input determination program
JP6724172B2 (en) Coordinate input device
JP6505317B2 (en) Display controller
WO2012114791A1 (en) Gesture operation system
JP5805473B2 (en) Operating device
JP6204414B2 (en) GAME DEVICE AND PROGRAM

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190328

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210924

R150 Certificate of patent or registration of utility model

Ref document number: 6951292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150