JP2019169180A - Command execution system and position measurement device - Google Patents

Command execution system and position measurement device Download PDF

Info

Publication number
JP2019169180A
JP2019169180A JP2019099138A JP2019099138A JP2019169180A JP 2019169180 A JP2019169180 A JP 2019169180A JP 2019099138 A JP2019099138 A JP 2019099138A JP 2019099138 A JP2019099138 A JP 2019099138A JP 2019169180 A JP2019169180 A JP 2019169180A
Authority
JP
Japan
Prior art keywords
command
user
execution system
unit
command execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019099138A
Other languages
Japanese (ja)
Inventor
信策 阿部
Shinsaku Abe
信策 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Priority to JP2019099138A priority Critical patent/JP2019169180A/en
Publication of JP2019169180A publication Critical patent/JP2019169180A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a command execution system and a position measurement device which can allocate a command so as to match a user's sense and allow the user to easily think of a function.SOLUTION: A command execution system for causing an operation part of a computer to execute a command by receiving the command selected by a user comprises: an allocation region setting part which sets an allocation region in accordance with an instruction of the user in a display region of information of a computer; an object setting part which sets an object in the allocation region in accordance with the instruction of the user; a command setting part which sets association between the object and the command; a selection reception part which receives selection of the object by the user; and a command execution part which causes the operation part to execute the command associated with the object received by the selection reception part.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザによって選択されたコマンドを受け付けてコンピュータで実行するコマンド実行システムおよび位置計測装置に関する。   The present invention relates to a command execution system and a position measurement device that receive a command selected by a user and execute the command on a computer.

コンピュータのインタフェースとして、ウィンドウシステムが主流になっている。ユーザは、画面上のウィンドウに表示される内容を参照して編集やファイル操作など各種の処理を行う。   As a computer interface, a window system has become mainstream. The user performs various processes such as editing and file operations with reference to the contents displayed in the window on the screen.

特許文献1においては、画面の背景画像とアイテムとを対応付けしておき、ユーザによってフォーカスされたアイテムと対応付けされた操作を行う携帯端末装置が開示される。また、特許文献2においては、電子ファイルシステムにおいて情報をアクセスするための図形ユーザインタフェースが開示される。また、特許文献3においては、画像の一部分として個別的な画像区域を有する画像に関して、この画像区域の少なくとも1つにデバイスメニューの機能を適合させたものが開示される。   Patent Document 1 discloses a portable terminal device that associates a screen background image with an item and performs an operation associated with the item focused by the user. Further, Patent Document 2 discloses a graphic user interface for accessing information in an electronic file system. Japanese Patent Application Laid-Open No. H10-228561 discloses an image having an individual image area as a part of the image, in which the function of the device menu is adapted to at least one of the image areas.

特開2007−041641号公報JP 2007-016441 A 特表平10−507020号公報JP 10-507020 Gazette 特表2008−511895号公報Special table 2008-511895 gazette

しかしながら、特許文献1に記載の技術においては、背景画像とアイテムとの機能の関連性が重要であり、関連付ける機能が増えると背景画像の枚数や階層が増加して所望のアイテムを選択し難くなってしまう。また、ユーザによるアイテムの割り当てやカスタマイズができず、ユーザの好みに応じた設定や、アプリケーションに応じた画像設定および機能設定を行うことができないという問題がある。   However, in the technique described in Patent Document 1, the relationship between the functions of the background image and the item is important, and as the number of functions to be associated increases, the number and level of background images increase, making it difficult to select a desired item. End up. Further, there is a problem in that items cannot be assigned or customized by the user, and settings according to user preferences, image settings and function settings according to applications cannot be performed.

特許文献2に記載の技術においては、図形に割り当てられるのが電子ファイルへのリンクだけで、コンピュータに対する様々なコマンドの実行には対応していない。また、関連付けるアイテムの数が増えるとサブイメージの枚数が増えてしまう。   In the technique described in Patent Document 2, only a link to an electronic file is assigned to a graphic, and does not correspond to the execution of various commands for a computer. In addition, the number of sub-images increases as the number of associated items increases.

特許文献3に記載の技術においては、画像に表示されるアイコンをグリッド上に並べたものと同じであり、どの画像にどのような機能が割り当てられているのか分かりにくい。また、画像に対する機能の割り当てのカスタマイズ性が低いという問題がある。   In the technique described in Patent Document 3, it is the same as icons arranged in an image arranged on a grid, and it is difficult to know what function is assigned to which image. In addition, there is a problem that customization of assigning functions to images is low.

このように、いずれの技術においても、ユーザにとって使いやすい機能の割り当てにはなっておらず、カスタマイズ性も低いことから、画像と機能との対応に慣れるまで長い時間が必要になる。また、複数のアプリケーションの間で共通のメニュー操作を行うことができず、アプリケーションごとに操作を覚えなければならないという問題が生じる。   As described above, in any of the technologies, functions that are easy to use for the user are not allocated and customization is low, so it takes a long time to get used to the correspondence between images and functions. In addition, a common menu operation cannot be performed among a plurality of applications, and there arises a problem that the operation must be remembered for each application.

本発明の目的は、ユーザの感覚にマッチし、容易に機能を連想できるようにコマンドの割り当てを行うことができるコマンド実行システムおよび位置計測装置を提供することである。   An object of the present invention is to provide a command execution system and a position measurement device that can assign commands so as to match a user's feeling and easily associate functions.

上記課題を解決するため、本発明のコマンド実行システムは、ユーザによって選択されたコマンドを受け付けてコンピュータの演算部に実行させるコマンド実行システムであって、コンピュータによる情報の表示領域においてユーザの指示に応じて割り当て領域を設定する割り当て領域設定部と、ユーザの指示に応じて割り当て領域内の対象物を設定する対象物設定部と、対象物とコマンドとの対応付けを設定するコマンド設定部と、ユーザによる対象物の選択を受け付ける選択受付部と、選択受付部で受け付けた対象物と対応付けされたコマンドを演算部に実行させるコマンド実行部と、を備えたことを特徴とする。   In order to solve the above problems, a command execution system according to the present invention is a command execution system that receives a command selected by a user and causes a computer to execute the command, and responds to a user instruction in an information display area by the computer. An allocation area setting unit for setting an allocation area, a target setting unit for setting an object in the allocation area according to a user instruction, a command setting unit for setting a correspondence between the target and a command, and a user A selection receiving unit that receives a selection of an object by the computer, and a command execution unit that causes the arithmetic unit to execute a command associated with the object received by the selection receiving unit.

このような構成によれば、コンピュータによる情報の表示領域に、ユーザが割り当てた割り当て領域と、この割り当て領域内にコマンドと対応付けされた対象物とが設定される。割り当て領域、対象物およびコマンドはユーザの好みに応じて任意に設定される。これにより、ユーザは、割り当て領域内に表示される好みの対象物に分かりやすいコマンドを自由に設定することができる。   According to such a configuration, the allocation area assigned by the user and the object associated with the command in the allocation area are set in the information display area by the computer. The allocation area, the object, and the command are arbitrarily set according to the user's preference. Thereby, the user can freely set an easy-to-understand command for the favorite object displayed in the allocation area.

本発明のコマンド実行システムにおいて、コマンド設定は、1つのコマンドに対して複数のアプリケーションを対応付けし、コマンド実行部は、複数のアプリケーションのうちアクティブなアプリケーションに対してコマンドに応じた処理を実行させるようにしてもよい。   In the command execution system of the present invention, the command setting associates a plurality of applications with one command, and the command execution unit causes the active application among the plurality of applications to execute processing corresponding to the command. You may do it.

このような構成によれば、1つの対象物について複数のアプリケーションで同じ処理を実行できるコマンドを対応付けすることができる。これにより、アプリケーションが異なる場合でも同じ対象物には同じ処理を行うコマンドが対応付けされる。ユーザは、アプリケーションにかかわらず同じ処理を実行したい場合には同じ対象物を選択すればよいことになる。   According to such a configuration, it is possible to associate commands that can execute the same processing with a plurality of applications for one object. Thereby, even when the applications are different, the same object is associated with a command for performing the same process. When the user wants to execute the same process regardless of the application, the user only has to select the same object.

本発明のコマンド実行システムにおいて、対象物は、割り当て領域内において平面的または立体的に表示されるものであってもよい。このような構成によれば、ユーザは、平面的な絵柄(写真、イラスト、画像など)を選択してコマンドを実行させたり、立体的な絵柄(ホログラムや仮想現実空間上の立体像など)を選択してコマンドを実行させたりすることができる。   In the command execution system of the present invention, the object may be displayed two-dimensionally or three-dimensionally in the allocation area. According to such a configuration, the user can select a flat pattern (photo, illustration, image, etc.) and execute a command, or can display a three-dimensional pattern (hologram, stereoscopic image in virtual reality space, etc.). You can select and execute a command.

本発明のコマンド実行システムにおいて、対象物設定部は、複数の対象物の設定を行うとともに、割り当て領域での特定の方向における複数の対象物の上下の重なりの情報を設定し、選択受付部は、ユーザが複数の対象物の重なる領域を指定した場合に対象物設定部で設定された重なりの情報に基づき上になる対象物の選択を受け付けるようにしてもよい。このような構成によれば、複数の対象物が重なり合っていても、それぞれにコマンドを対応付けすることができる。   In the command execution system of the present invention, the object setting unit sets a plurality of objects, sets information on the upper and lower overlaps of the plurality of objects in a specific direction in the allocation area, and the selection receiving unit When the user designates a region where a plurality of objects overlap, the selection of the object to be above may be received based on the overlapping information set by the object setting unit. According to such a configuration, even if a plurality of objects overlap each other, a command can be associated with each object.

本発明のコマンド実行システムにおいて、ユーザの指示に応じて表示領域内での割り当て領域の位置を移動させる表示移動部をさらに備え、対象物設定部は、表示移動部によって割り当て領域の位置が移動した際に割り当て領域の移動に合わせて対象物の位置を移動させるようにしてもよい。   The command execution system of the present invention further includes a display moving unit that moves the position of the allocation area in the display area in accordance with a user instruction, and the object setting unit has the position of the allocation area moved by the display movement unit At this time, the position of the object may be moved in accordance with the movement of the allocation area.

このような構成によれば、ユーザが表示領域内で割り当て領域を移動させた場合、割り当て領域の移動にともない対象物も移動することになる。これにより、割り当て領域と対象物との相対的な位置関係を保つことができる。   According to such a configuration, when the user moves the allocation area within the display area, the object moves as the allocation area moves. Thereby, the relative positional relationship between the allocation area and the object can be maintained.

本発明のコマンド実行システムにおいて、コマンド設定部は、1つの対象物に対応して複数のコマンドおよび複数のコマンドの処理順を対応付けして設定するようにしてもよい。このような構成によれば、ユーザは1つの対象物を選択するだけで複数のコマンドを実行できるようになる。   In the command execution system of the present invention, the command setting unit may set the plurality of commands and the processing order of the plurality of commands in association with one target. According to such a configuration, the user can execute a plurality of commands only by selecting one object.

本発明のコマンド実行システムにおいて、割り当て領域は1つの画像ファイルによる出力領域であり、対象物は、画像ファイル内の特定の絵柄であってもよい。このような構成によれば、1つの画像ファイル内の特定の絵柄にコマンドを割り当てることができる。   In the command execution system of the present invention, the allocation area may be an output area by one image file, and the target may be a specific picture in the image file. According to such a configuration, a command can be assigned to a specific pattern in one image file.

本発明の位置計測装置は、測定対象物の所定の座標系における位置を検出する測定ヘッドと、測定ヘッドによる検出結果の演算および出力を行う制御装置と、を備え、制御装置が、上記のコマンド実行システムを含むことを特徴とする。このような構成によれば、計測装置で測定を行う際に、ユーザは、好みで設定した割り当て領域内の対象物を選択することで、制御装置へコマンドを送ることができる。これにより、取り扱いが専門的な計測装置であっても、ユーザフレンドリなインタフェースを実現することができる。   A position measuring device of the present invention includes a measuring head that detects the position of a measurement object in a predetermined coordinate system, and a control device that calculates and outputs a detection result by the measuring head. An execution system is included. According to such a configuration, when the measurement is performed by the measurement device, the user can send a command to the control device by selecting an object in the assigned area set according to preference. Thereby, even if it is a measuring device specialized in handling, a user friendly interface is realizable.

本発明の位置計測装置において、コマンド設定部は、検出結果の演算から出力までの少なくとも一部の一連の処理をコマンドとして対象物に対応付けするようにしてもよい。このような構成によれば、一つの対象物を選択するだけで複数の処理を行わせることができる。   In the position measurement apparatus of the present invention, the command setting unit may associate at least a part of a series of processes from calculation of the detection result to output with the target as a command. According to such a configuration, a plurality of processes can be performed only by selecting one target object.

第1実施形態に係るコマンド実行システムを例示するブロック図である。1 is a block diagram illustrating a command execution system according to a first embodiment. パネルおよび対象物の例を示す模式図である。It is a schematic diagram which shows the example of a panel and a target object. 対象物とコマンドとの対応付けテーブルを例示する図である。It is a figure which illustrates the matching table of a target object and a command. 対象物の適用例を示す模式図である。It is a schematic diagram which shows the example of application of a target object. (a)〜(c)は、対象物の適用例を示す模式図である。(A)-(c) is a schematic diagram which shows the example of application of a target object. コマンド実行システムの処理フローチャートである。It is a processing flowchart of a command execution system. コマンド実行システムの処理フローチャートである。It is a processing flowchart of a command execution system. コマンド実行システムの処理フローチャートである。It is a processing flowchart of a command execution system. 第2実施形態に係る位置計測装置について説明する。A position measurement apparatus according to the second embodiment will be described. (a)〜(c)は、位置計測装置のディスプレイの表示例を示す模式図である。(A)-(c) is a schematic diagram which shows the example of a display of the display of a position measuring device.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same members are denoted by the same reference numerals, and the description of the members once described is omitted as appropriate.

(第1実施形態)
図1は、第1実施形態に係るコマンド実行システムを例示するブロック図である。
本実施形態に係るコマンド実行システムは、ユーザによって選択されたコマンドを受け付けてコンピュータPCのCPU(Central Processing Unit)10に実行させるシステムである。
(First embodiment)
FIG. 1 is a block diagram illustrating a command execution system according to the first embodiment.
The command execution system according to the present embodiment is a system that receives a command selected by a user and causes a CPU (Central Processing Unit) 10 of the computer PC to execute the command.

コンピュータPCは、CPU10、記憶装置20、演算装置30、表示制御部40、入出力制御部50、外部機器制御部60を備える。CPU10は各種のプログラムを実行する部分である。記憶装置20は主記憶部および副記憶部を含む。演算装置30は各種の演算を行うハードウェアである。表示制御部40は、ディスプレイ45を制御する部分であり。入出力制御部50は、キーボード51やタッチパネル52による情報の入出力を制御する部分である。   The computer PC includes a CPU 10, a storage device 20, an arithmetic device 30, a display control unit 40, an input / output control unit 50, and an external device control unit 60. The CPU 10 is a part that executes various programs. The storage device 20 includes a main storage unit and a sub storage unit. The computing device 30 is hardware that performs various computations. The display control unit 40 is a part that controls the display 45. The input / output control unit 50 is a part that controls input / output of information by the keyboard 51 and the touch panel 52.

本実施形態において、コマンド実行システムは、コンピュータPCのCPU10で実行されるプログラムによって実現される。コマンド実行システムは、パネル生成部71、パネル操作部72およびコマンド実行部73を備える。   In the present embodiment, the command execution system is realized by a program executed by the CPU 10 of the computer PC. The command execution system includes a panel generation unit 71, a panel operation unit 72, and a command execution unit 73.

パネル生成部71は、割り当て領域設定部711、対象物設定部712およびコマンド設定部713を含む。割り当て領域設定部711は、コンピュータPCによる情報の表示領域において、ユーザの指示に応じて割り当て領域を設定する処理を行う。例えば、ディスプレイ45の表示領域のうちの所定領域を割り当て領域として設定する。本実施形態では、この割り当て領域をパネルと言うことにする。割り当て領域設定部711は、ユーザから指示に応じてディスプレイ45の表示領域内にパネルを設定する。パネルはユーザの好みで任意に設定される。   The panel generation unit 71 includes an allocation area setting unit 711, an object setting unit 712, and a command setting unit 713. The allocation area setting unit 711 performs processing for setting an allocation area in accordance with a user instruction in the information display area by the computer PC. For example, a predetermined area of the display area of the display 45 is set as the allocation area. In this embodiment, this allocation area is referred to as a panel. The allocation area setting unit 711 sets a panel in the display area of the display 45 according to an instruction from the user. The panel is arbitrarily set according to the user's preference.

対象物設定部712は、ユーザの指示に応じてパネル内の対象物を設定する処理を行う。例えば、画像や写真などの絵柄をパネル内に設定する処理を行う。対象物設定部712は。ユーザからの指示に応じてパネル内の所定の位置に対象物を設定する。対象物設定部712は、ユーザによって指示された対象物の表示領域の位置情報や対象物の識別情報を設定する。対象物はユーザの好みによって任意に選択され、パネル内の任意の位置に設定される。   The object setting unit 712 performs processing for setting an object in the panel according to a user instruction. For example, a process of setting a pattern such as an image or a photo in the panel is performed. The object setting unit 712 is. An object is set at a predetermined position in the panel according to an instruction from the user. The object setting unit 712 sets position information of the display area of the object designated by the user and identification information of the object. The object is arbitrarily selected according to the user's preference and is set at an arbitrary position in the panel.

コマンド設定部713は、対象物とコマンドとの対応付けを設定する処理を行う。コマンド設定部713は、ユーザからの指示に応じて対象物について所定のコマンドを対応付けする。これにより、対象物設定部712で設定された対象物に、CPU10で実行されるコマンドが対応付けされる。ユーザは、好みの対象物に対して任意にコマンドを割り当てることができる。   The command setting unit 713 performs processing for setting the association between the object and the command. The command setting unit 713 associates a predetermined command with the object in accordance with an instruction from the user. Thereby, the command executed by the CPU 10 is associated with the object set by the object setting unit 712. The user can arbitrarily assign a command to a favorite object.

選択受付部721は、ユーザによる対象物の選択を受け付ける処理を行う。ユーザは、タッチパネル52やマウス等のポインティングデバイスを用いてパネル内の対象物を選択する。選択受付部721はユーザによって選択された位置に基づき、その位置に含まれる対象物の識別情報を検出する。   The selection receiving unit 721 performs processing for receiving selection of an object by the user. The user selects an object in the panel using a touch device 52 or a pointing device such as a mouse. Based on the position selected by the user, the selection receiving unit 721 detects the identification information of the object included in the position.

表示移動部722は、ユーザの指示に応じて表示領域内でのパネルの位置を移動させる処理を行う。ユーザは、好みに応じて表示領域内のパネルの位置を移動させることができる。すなわち、ユーザは、タッチパネル52の操作やマウス等の操作によってパネルの位置を移動させることができる。表示移動部722は、ユーザの操作を受け付けてパネルを移動させる。パネルの移動に伴い、対象物設定部712は、パネルの移動に合わせて対象物の位置を移動させる。これにより、パネルと対象物との相対的な位置は変わらず、表示領域内でパネルおよび対象物を移動させることができる。   The display moving unit 722 performs a process of moving the position of the panel in the display area in accordance with a user instruction. The user can move the position of the panel in the display area according to his / her preference. That is, the user can move the position of the panel by operating the touch panel 52 or operating the mouse. The display moving unit 722 moves the panel in response to a user operation. With the movement of the panel, the object setting unit 712 moves the position of the object in accordance with the movement of the panel. Thereby, the relative position of the panel and the object does not change, and the panel and the object can be moved within the display area.

コマンド実行部73は、選択受付部721で受け付けた対象物と対応付けされたコマンドをCPU10に実行させる処理を行う。ユーザが所定の対象物を選択すると、選択受付部721は選択された対象物の識別情報を検知してコマンド実行部73に送る。コマンド実行部73は、選択受付部721から送られた識別情報と対応付けされたコマンドを選択して、CPU10に送る。これにより、オペレーティングシステムや各種のアプリケーションソフトウェアに対するコマンド操作が実行される。   The command execution unit 73 performs processing for causing the CPU 10 to execute a command associated with the object received by the selection reception unit 721. When the user selects a predetermined object, the selection receiving unit 721 detects the identification information of the selected object and sends it to the command execution unit 73. The command execution unit 73 selects a command associated with the identification information sent from the selection receiving unit 721 and sends it to the CPU 10. As a result, command operations for the operating system and various application software are executed.

図2は、パネルおよび対象物の例を示す模式図である。
図2に表したように、ディスプレイ45やタッチパネル52には表示領域DRが設けられる。パネルPRは表示領域DR内の所定の位置に設定される。ユーザはタッチパネル52の操作やマウス等の操作によってパネルPRの位置および大きさを指定する。この指定を受けた割り当て領域設定部711は、表示領域DR内のパネルPRが属する領域の座標情報を記憶装置20に記憶する。
FIG. 2 is a schematic diagram illustrating an example of a panel and an object.
As shown in FIG. 2, the display 45 and the touch panel 52 are provided with a display area DR. The panel PR is set at a predetermined position in the display area DR. The user designates the position and size of the panel PR by operating the touch panel 52 or operating the mouse. Upon receiving this designation, the allocation area setting unit 711 stores the coordinate information of the area to which the panel PR belongs in the display area DR in the storage device 20.

また、ユーザは、パネルPR内に所望の対象物を配置することができる。図2に表した例では、対象物として3つの画像IMG−1、IMG−2、IMG−3がパネルPR内に配置される。対象物設定部712は、ユーザによるタッチパネル52の操作やマウス等の操作によって画像IMG−1、IMG−2、IMG−3が属する領域の座標情報を記憶装置20に記憶する。   Further, the user can place a desired object in the panel PR. In the example shown in FIG. 2, three images IMG-1, IMG-2, and IMG-3 are arranged in the panel PR as objects. The object setting unit 712 stores the coordinate information of the area to which the images IMG-1, IMG-2, and IMG-3 belong in the storage device 20 by the operation of the touch panel 52 or the operation of the mouse by the user.

ここで、複数の対象物においては、互いの一部が重なり合ってレイアウトされてもよい。この場合、対象物設定部712は、パネルPRの特定の方向(例えば、パネルPRと直交する方向)における複数の対象物の上下の重なりの情報を設定する。図2に表した例では、
上から下に画像IMG−1、IMG−3、IMG−2の順で配置される。上下で画像が重なる部分については、上になる画像が優先される。
Here, in a plurality of objects, a part of each other may overlap and be laid out. In this case, the object setting unit 712 sets information on the upper and lower overlaps of a plurality of objects in a specific direction of the panel PR (for example, a direction orthogonal to the panel PR). In the example shown in FIG.
Images IMG-1, IMG-3, and IMG-2 are arranged in this order from top to bottom. For the upper and lower overlapping images, the upper image is given priority.

対象物である各画像IMG−1、IMG−2、IMG−3のそれぞれにはコマンドが対応付けされる。ユーザは、コマンド設定部713に対して、パネルPRにレイアウトした各画像IMG−1、IMG−2、IMG−3にコマンドを割り当てる指示を送る。コマンド設定部713は、ユーザから送られた指示に応じて画像IMG−1、IMG−2、IMG−3とコマンドとの対応付けを行う。   A command is associated with each of the images IMG-1, IMG-2, and IMG-3 that are objects. The user sends to the command setting unit 713 an instruction to assign a command to each of the images IMG-1, IMG-2, and IMG-3 laid out on the panel PR. The command setting unit 713 associates the images IMG-1, IMG-2, and IMG-3 with commands according to instructions sent from the user.

図3は、対象物とコマンドとの対応付けテーブルを例示する図である。
コマンド設定部713は、図3に示すようなテーブルTBによって対象物とコマンドとの対応付けを設定する。例えば、画像IMG−1にはコマンドC1が対応付けされ、画像IMG−2にはコマンドC2が対応付けされ、画像IMG−3にはコマンドC3が対応付けされる。コマンドとしては、オペレーティングシステムへの命令や、所定のアプリケーションソフトウェアへの命令、任意の文字列の入力命令などである。
FIG. 3 is a diagram illustrating an association table between objects and commands.
The command setting unit 713 sets the association between the object and the command using the table TB as shown in FIG. For example, the command C1 is associated with the image IMG-1, the command C2 is associated with the image IMG-2, and the command C3 is associated with the image IMG-3. The command includes an instruction to the operating system, an instruction to predetermined application software, and an input instruction for an arbitrary character string.

1つの対象物について複数のコマンドと、この複数のコマンドの処理順とが対応付けされていてもよい。また、1つの対象物に対応付けされたコマンドが、複数のアプリケーションソフトウェアに対応付けされていてもよい。例えば、ファイル操作(上書き保存、別名保存、印刷など)のような異なるアプリケーションソフトウェアで共通するコマンドについては、1つの対象物について共通のコマンドとして対応付けされる。   A plurality of commands and a processing order of the plurality of commands may be associated with one object. Further, a command associated with one object may be associated with a plurality of application software. For example, commands common to different application software such as file operations (overwrite save, alias save, print, etc.) are associated with one object as a common command.

このように対象物とコマンドとが対応付けされることで、ユーザはパネルPRから所望の対象物を選択することでコンピュータPCのCPU10に対するコマンドを実行することができる。   By associating the object and the command in this manner, the user can execute a command for the CPU 10 of the computer PC by selecting a desired object from the panel PR.

本実施形態では、パネルPR、対象物およびコマンドをユーザの好みによって自由に設定することができる。これにより、ユーザは、パネルPR内に表示される好みの対象物(例えば、画像IMG−1、IMG−2、IMG−3)に分かりやすいコマンドを設定することができ、画像IMG−1、IMG−2、IMG−3の内容によってコマンドを関連付けて操作できるようになる。   In the present embodiment, the panel PR, the object, and the command can be freely set according to the user's preference. Thus, the user can set an easy-to-understand command for a favorite object (for example, images IMG-1, IMG-2, IMG-3) displayed in panel PR, and images IMG-1, IMG -2, it becomes possible to operate by associating commands according to the contents of IMG-3.

図4および図5は、対象物の適用例を示す模式図である。
図4に表した例では、対象物として写真PH−1、PH−2およびPH−3が用いられている。写真PH−1、PH−2およびPH−3とコマンドとを対応付けしておくことで、ユーザは写真PH−1、PH−2およびPH−3の内容からコマンドを直観的に関連付けて操作することができる。
4 and 5 are schematic diagrams showing application examples of the object.
In the example shown in FIG. 4, photographs PH-1, PH-2, and PH-3 are used as objects. By associating the photos PH-1, PH-2, and PH-3 with the commands, the user operates the commands intuitively associated with the contents of the photos PH-1, PH-2, and PH-3. be able to.

例えば、ドアを開く場面の写真PH−1には「ファイルを開く」のコマンドを対応付けしておく。また、プリンタの写真PH−2には「印刷」のコマンドを対応付けしておく。このように写真PH−1およびPH−2の内容から直観的に分かるコマンドを対応付けしておくことで、どのようなユーザであっても的確なコマンド操作を行うことができる。   For example, the command “Open file” is associated with the photograph PH-1 of the scene of opening the door. Further, a “print” command is associated with the photograph PH-2 of the printer. As described above, by associating the commands intuitively understood from the contents of the photos PH-1 and PH-2, any user can perform an appropriate command operation.

また、例えば愛犬の写真PH−3にはユーザの好みのコマンドを対応付けしてもよい。例えば、「上書き保存」のコマンドを対応付けしておく。特定のユーザにとって分かりやすい対象物は印象に残りやすい。例えば、愛犬の写真PH−3はそのユーザにとって非常に印象深い。この写真PH−3と特定のコマンドとを対応付けておくことで、そのユーザにとって連想によって的確にコマンドを選択および実行できることになる。   Further, for example, the user's favorite command may be associated with the pet dog PH-3. For example, the “overwrite” command is associated. Objects that are easy to understand for a specific user tend to remain in the impression. For example, the pet photo PH-3 is very impressive for the user. By associating the photograph PH-3 with a specific command, the user can accurately select and execute the command by association.

図5(a)に表した例では、対象物として地図の画像MAPが用いられている。例えば、日本地図の画像MAPでは、1つの画像MAPが複数の領域(例えば、都道府県ごと)に分けられている。そして、各領域それぞれにコマンドが対応付けされる。この例では、各都道府県それぞれにコマンドを割り当てることができる。   In the example shown in FIG. 5A, a map image MAP is used as an object. For example, in the Japanese map image MAP, one image MAP is divided into a plurality of regions (for example, for each prefecture). A command is associated with each area. In this example, a command can be assigned to each prefecture.

各領域(都道府県)とコマンドとの対応は、ユーザによって任意に設定可能である。例えば、あるユーザにとって「北海道」は食の倉庫というイメージを持っており、このイメージとよく使うコマンド(例えば、「上書き保存」)とを対応付けしておく。これにより、ユーザのイメージと連想してコマンドを直感的に選択して実行できるようになる。   The correspondence between each area (prefecture) and the command can be arbitrarily set by the user. For example, “Hokkaido” has an image of a food warehouse for a user, and this image is associated with a frequently used command (for example, “overwrite”). This makes it possible to intuitively select and execute a command associated with the user's image.

地図の画像MAPが配置されたパネルPRは、アプリケーションソフトウェアに関係なく必要に応じて表示領域DRに表示させることができる。これにより、どのアプリケーションソフトウェアを利用していても、同じ地図の画像MAPを用いて所望の都道府県を選択するだけで、同じ処理を行うコマンドを実行することができる。   The panel PR on which the map image MAP is arranged can be displayed in the display area DR as needed regardless of the application software. As a result, regardless of which application software is used, a command for performing the same process can be executed simply by selecting a desired prefecture using the same map image MAP.

本実施形態のコマンド実行システムでは、ユーザの好みの対象物を設定して任意にコマンドを対応付けすることができる。図5(b)に表した例では、人気グループの画像GPを対象物として設定している。例えば、人気グループの画像GPの各メンバーの部分を領域に分けて、各領域ごとそれぞれにコマンドが対応付けされる。コマンドとして、各メンバーの領域に対応して各メンバーのブログやホームページへリンクするコマンドを対応付けしてもよい。これにより、画像GPから所望のメンバーの領域を選択することで、そのメンバーのブログやホームページをブラウザ(アプリケーションソフトウェア)によって開くコマンドが実行される。   In the command execution system of this embodiment, a user's favorite target can be set and a command can be arbitrarily associated. In the example shown in FIG. 5B, the image GP of the popular group is set as the target object. For example, each member portion of the image GP of the popular group is divided into regions, and a command is associated with each region. As a command, a command for linking to each member's blog or homepage may be associated with each member's area. Thus, by selecting a desired member region from the image GP, a command for opening the member's blog or homepage by the browser (application software) is executed.

また、画像GPとして友人や家族などの集合写真を用いてもよい。集合写真のメンバーの領域ごとに、そのメンバーのメールアドレスに電子メールを送るコマンドを対応付けしてもよい。ユーザは、集合写真の画像GPから電子メールを送りたいメンバーの領域を選択することで、電子メールソフトが起動して宛先にそのメンバーのメールアドレスが自動的に入力される。   A group photo of friends or family may be used as the image GP. For each group photo member area, a command for sending an e-mail may be associated with the mail address of the member. The user selects an area of a member to whom an e-mail is to be sent from the group photo image GP, whereby the e-mail software is activated and the e-mail address of the member is automatically input to the destination.

図5(c)に表した例では、星座の画像STRを対象物として設定している。このように、対象物はユーザの好みによって任意に設定可能である。すなわち、使用するユーザの趣味嗜好によって興味のある対象物を設定することで、コマンドとの関連を強く印象付けることができる。   In the example shown in FIG. 5C, a constellation image STR is set as an object. In this way, the object can be arbitrarily set according to the user's preference. That is, by setting an object of interest according to the user's hobbies and preferences, it is possible to strongly impress the relationship with the command.

なお、上記の例では、パネルPRとして矩形の領域を示したが、矩形以外の領域であってもよい。また、パネルPR内に対象物を設定する例を示したが、対象物の外形領域とパネルPRとを一致させてもよい。   In the above example, a rectangular area is shown as the panel PR, but an area other than a rectangle may be used. Moreover, although the example which sets a target object in the panel PR was shown, you may make the outline area | region and panel PR of a target object correspond.

本実施形態のコマンド実行システムでは、ユーザの好みに応じた対象物に、ユーザにとって連想しやすいコマンドを対応付けすることができる。これにより、例えば複雑なコマンド処理や覚えにくいコマンド処理であっても、好みの対象物との関係で直感的にコマンド処理を選択することが可能になる。   In the command execution system of the present embodiment, a command that is easily associated with the user can be associated with an object according to the user's preference. As a result, for example, even complicated command processing or command processing that is difficult to remember can be intuitively selected in relation to a desired object.

(処理フローチャート)
次に、本実施形態に係るコマンド実行システムの処理フローチャートを説明する。
図6〜図8は処理フローチャートである。
図6には対象物の設定処理のフローチャートが表され、図7にはコマンドの設定処理のフローチャートが表され、図8にはコマンドの実行処理のフローチャートが表される。
(Processing flowchart)
Next, a process flowchart of the command execution system according to the present embodiment will be described.
6 to 8 are process flowcharts.
6 shows a flowchart of the object setting process, FIG. 7 shows a command setting process flowchart, and FIG. 8 shows a command execution process flowchart.

先ず、図6に沿って対象物の設定処理について説明する。この処理は対象物設定部712によって行われる。なお、ここでは対象物の外形領域とパネルPRとが一致している場合を例とする。先ず、ステップS101に示すように、対象物の選択を行う。対象物としては、ディスプレイ45等に表示される図形や写真が挙げられる。対象物はユーザによって任意に選択される。   First, the object setting process will be described with reference to FIG. This process is performed by the object setting unit 712. Here, the case where the outline region of the object and the panel PR coincide is taken as an example. First, as shown in step S101, an object is selected. Examples of the object include graphics and photographs displayed on the display 45 and the like. The object is arbitrarily selected by the user.

次に、ステップS102に示すように、対象物の選択領域の算出を行う。ここでは、先に選択された対象物の中から所定の領域を切り出す処理が行われる。切り出す処理は自動的に行われても、ユーザによって任意に指定された領域を切り出してもよい。   Next, as shown in step S102, the selection area of the object is calculated. Here, a process of cutting out a predetermined area from the previously selected object is performed. The cutting process may be automatically performed, or an area arbitrarily designated by the user may be cut out.

次に、ステップS103に示すように、領域の配置を行う。先に切り出された領域は、ユーザの指示によって任意の位置に配置することができる。次に、ステップS104に示すように、領域の調整を行う。例えば、複数の領域について重なりがあるか否かを判断し、重なりがある場合には上下関係を設定する。   Next, as shown in step S103, areas are arranged. The previously cut out region can be arranged at an arbitrary position according to a user instruction. Next, as shown in step S104, the region is adjusted. For example, it is determined whether or not there is an overlap for a plurality of areas, and if there is an overlap, the vertical relationship is set.

次に、ステップS105に示すように、対象物の追加があるか否かの判断を行う。追加がある場合にはステップS101〜ステップS104の処理を繰り返す。追加がない場合にはステップS106へ進み、対象物の設定を記憶する。   Next, as shown in step S105, it is determined whether or not an object has been added. If there is an addition, the processing from step S101 to step S104 is repeated. When there is no addition, it progresses to step S106 and memorize | stores the setting of a target object.

次に、図7に沿ってコマンドの設定処理について説明する。この処理はコマンド設定部713によって行われる。先ず、ステップS201に示すように、先に設定された対象物の表示を行う。例えばディスプレイ45には対象物および切り出された領域が表示される。   Next, command setting processing will be described with reference to FIG. This process is performed by the command setting unit 713. First, as shown in step S201, the previously set object is displayed. For example, the display 45 displays the object and the cut out area.

次に、ステップS202に示すように、コマンドを割り当てる対象物の領域を選択する。この選択はユーザによるタッチパネル52やマウス等の操作によって行われる。次に、ステップS203に示すように、選択された領域に割り当てるコマンドを受け付ける。これにより、対象物の領域とコマンドとの対応付けが行われる。   Next, as shown in step S202, an object area to which a command is assigned is selected. This selection is performed by the operation of the touch panel 52 or the mouse by the user. Next, as shown in step S203, a command assigned to the selected area is received. As a result, the object region and the command are associated with each other.

次に、ステップS204に示すように、次にコマンドを割り当てる領域があるか否かを判断する。割り当てる領域がある場合にはステップS201〜ステップS203の処理を繰り返す。割り当てる領域がない場合には、ステップS205へ進み、それまでに設定した領域とコマンドとの対応付けを図3に示すようなテーブルTBとして記憶する。   Next, as shown in step S204, it is determined whether there is an area to which a command is assigned next. If there is an area to be allocated, the processes in steps S201 to S203 are repeated. If there is no area to be allocated, the process proceeds to step S205, and the association between the area set so far and the command is stored as a table TB as shown in FIG.

次に、図8に沿ってコマンドの実行処理について説明する。この処理はコマンド実行部73によって行われる。先ず、ステップS301に示すように、パネルPRの表示を行う。例えば、ユーザによる指示を受け付けて、ディスプレイ45等に指示されたパネルPRおよび対象物の表示を行う。   Next, command execution processing will be described with reference to FIG. This process is performed by the command execution unit 73. First, as shown in step S301, the panel PR is displayed. For example, an instruction from the user is received, and the panel PR and the object indicated on the display 45 or the like are displayed.

次に、ステップS302に示すように、対象物(領域)の選択があるか否かの判断を行う。対象物(領域)の選択があった場合には、ステップS303に示すように、選択された対象物(領域)に対応付けされたコマンドの処理を実行する。すなわち、図3に示すようなテーブルTBに基づき、選択された対象物(領域)と対応付けされたコマンドをCPU10に送る処理が行われる。これにより、対象物(領域)の選択によってコマンドが実行される。   Next, as shown in step S302, it is determined whether or not an object (region) is selected. If an object (region) is selected, processing of a command associated with the selected object (region) is executed as shown in step S303. That is, based on the table TB as shown in FIG. 3, processing for sending a command associated with the selected object (area) to the CPU 10 is performed. Thereby, a command is executed by selecting an object (region).

次に、ステップS304に示すように、処理を終了するか否かの判断を行う。終了しない場合にはステップS301〜ステップS303の処理を繰り返す。   Next, as shown in step S304, it is determined whether or not to end the process. If not finished, the processes in steps S301 to S303 are repeated.

図6〜図8に示すフローチャートの処理は、コンピュータPCのCPU10で実行されるプログラムによって実現される。このプログラムは各種の記録媒体に記録されたり、ネットワークを介して配信されたりする。   The processing of the flowcharts shown in FIGS. 6 to 8 is realized by a program executed by the CPU 10 of the computer PC. This program is recorded on various recording media or distributed via a network.

(第2実施形態)
次に、第2実施形態に係る位置計測装置について説明する。
図9は、本実施形態に係る位置計測装置を例示する模式図である。
本実施形態に係る位置計測装置1は、アーム型の三次元測定装置である。位置計測装置1は、多関節アーム15の先端に取り付けられた測定ヘッド100と、測定ヘッド100による測定対象物OBの検出結果の演算および出力を行う制御装置110とを備える。制御装置110は、ディスプレイ45を含むコンピュータPCであってもよい。
(Second Embodiment)
Next, a position measuring apparatus according to the second embodiment will be described.
FIG. 9 is a schematic view illustrating the position measurement apparatus according to this embodiment.
The position measuring apparatus 1 according to the present embodiment is an arm type three-dimensional measuring apparatus. The position measurement device 1 includes a measurement head 100 attached to the tip of the articulated arm 15 and a control device 110 that calculates and outputs a detection result of the measurement object OB by the measurement head 100. The control device 110 may be a computer PC including the display 45.

測定ヘッド100の先端には棒状の測定プローブ11が設けられる。測定プローブ11の先端には球状の測定子11aが設けられる。この測定子11aを測定対象物OBの検出箇所に接触させることで、接触点の座標を求めることができる。   A rod-shaped measurement probe 11 is provided at the tip of the measurement head 100. A spherical probe 11 a is provided at the tip of the measurement probe 11. By bringing the measuring element 11a into contact with the detection location of the measurement object OB, the coordinates of the contact point can be obtained.

また、測定ヘッド100にはハンドル12が設けられる。ハンドル12はユーザUSが測定ヘッド100を持つ際の握り部分である。ハンドル12にはボタン12aが設けられる。ユーザUSは、ボタン12aを押下することで、そのときの測定子11aの座標を得たり、各種処理の開始を指示したりすることができる。   The measuring head 100 is provided with a handle 12. The handle 12 is a grip portion when the user US holds the measuring head 100. The handle 12 is provided with a button 12a. By pressing the button 12a, the user US can obtain the coordinates of the measuring element 11a at that time or can instruct the start of various processes.

ここで、測定ヘッド100には、接触式と非接触式とがある。そのうち、接触式の測定ヘッド100としては、測定プローブ11の測定子11aが物体に接触した際に位置信号を取得するタッチトリガープローブと、測定子11aを物体に接触させた状態でボタン12aを押下することにより位置信号を取得するハードプローブとが挙げられる。また、非接触式の測定ヘッド100としては、レーザプローブが挙げられる。レーザプローブでは、棒状の測定プローブ11の代わりに、レーザ光源及び受光素子が設けられる。レーザプローブの場合、例えばボタン12aを押下することでレーザ光源から測定対象物OBにレーザ光が照射され、その反射光を受光素子で光電変換して位置信号を得る。本実施形態で適用される測定ヘッド100は、ボタン12aを押下することで位置信号を取得するハードプローブまたはレーザプローブである。   Here, the measuring head 100 includes a contact type and a non-contact type. Among them, as the contact-type measuring head 100, the touch trigger probe that acquires a position signal when the measuring element 11a of the measuring probe 11 contacts the object, and the button 12a is pressed while the measuring element 11a is in contact with the object. And a hard probe that acquires a position signal. An example of the non-contact type measuring head 100 is a laser probe. In the laser probe, a laser light source and a light receiving element are provided instead of the rod-shaped measurement probe 11. In the case of a laser probe, for example, when the button 12a is pressed, laser light is irradiated from the laser light source to the measurement object OB, and the reflected light is photoelectrically converted by the light receiving element to obtain a position signal. The measurement head 100 applied in the present embodiment is a hard probe or a laser probe that acquires a position signal by pressing the button 12a.

多関節アーム15は、例えば定盤STGの上に設置される。多関節アーム15は、測定ヘッド100を支持するとともに、ハンドル12を持ったユーザUSの動きに応じて測定ヘッド100を様々の位置、方向に移動できるよう構成される。多関節アーム15は、例えば6軸を中心に回転動作可能になっている。多関節アーム15には各軸に対する角度センサ151が設けられている。ハンドル12を持ったユーザUSが測定ヘッド100を移動させることで、各軸に対する角度センサ151から各軸に対する角度が出力される。   The multi-joint arm 15 is installed on a surface plate STG, for example. The articulated arm 15 is configured to support the measurement head 100 and to move the measurement head 100 in various positions and directions according to the movement of the user US holding the handle 12. The articulated arm 15 can be rotated about, for example, six axes. The articulated arm 15 is provided with an angle sensor 151 for each axis. When the user US holding the handle 12 moves the measuring head 100, the angle sensor 151 for each axis outputs an angle for each axis.

制御装置110は、角度センサ151から出力される角度の値などに基づき、測定ヘッド100により指定された検出箇所の座標を演算して出力する。本実施形態では、X,Y,Zの三次元座標系による座標を演算する。具体的には、測定ヘッド100の測定子11aが測定対象物OBの検出箇所に接触した際に角度センサ151から出力される角度やアームの長さ等を用いて測定子11aの接触点のX,Y,Zの座標を演算する。   The control device 110 calculates and outputs the coordinates of the detection location designated by the measurement head 100 based on the angle value output from the angle sensor 151 and the like. In the present embodiment, coordinates based on a three-dimensional coordinate system of X, Y, and Z are calculated. Specifically, the X of the contact point of the measuring element 11a is measured using the angle output from the angle sensor 151 or the length of the arm when the measuring element 11a of the measuring head 100 comes into contact with the detection position of the measurement object OB. , Y, Z coordinates are calculated.

本実施形態の位置計測装置1では、制御装置110が第1実施形態に係るコマンド実行システムを含んでいる。すなわち、位置計測装置1の制御や測定結果について演算処理、各種のファイル操作など、コマンドによって実行される処理が第1実施形態に係るコマンド実行システムによって行われる。   In the position measurement device 1 of the present embodiment, the control device 110 includes the command execution system according to the first embodiment. That is, the command execution system according to the first embodiment performs processing executed by commands, such as calculation processing and various file operations on the control of the position measurement apparatus 1 and measurement results.

図10(a)〜(c)は、位置計測装置のディスプレイの表示例を示す模式図である。
図10(a)〜(c)には、位置計測装置1の制御装置110で実行される計測用のアプリケーションソフトウェアの表示例が表される。図10(a)〜(c)のそれぞれは、互いに異なるアプリケーションソフトウェアの表示例である。
10A to 10C are schematic diagrams illustrating display examples of the display of the position measurement device.
10A to 10C show display examples of application software for measurement executed by the control device 110 of the position measuring device 1. FIG. 10A to 10C are display examples of different application software.

異なるアプリケーションソフトウェアが実行される場合でも、共通のパネルPR(対象物)が表示される。パネルPRの対象物に割り当てられたコマンドは、アプリケーションソフトウェアが異なっていても共通にすることができる。例えば、日本地図の画像MAPを対象物として設定している場合、どのアプリケーションソフトウェアであっても画像MAPを表示させて、画像MAPの所望の領域(例えば、都道府県)を選択することで、その領域に対応付けされたコマンドを実行することができる。   Even when different application software is executed, a common panel PR (object) is displayed. The commands assigned to the objects of the panel PR can be made common even if the application software is different. For example, when an image MAP of a Japanese map is set as an object, the image MAP is displayed in any application software, and a desired region (for example, a prefecture) of the image MAP is selected. A command associated with the area can be executed.

例えば、「北海道」に「印刷」のコマンドが割り当てられている場合、どのアプリケーションソフトウェアを実行している場合でも、「北海道」を選択することで「印刷」を実行することが可能になる。   For example, when a “print” command is assigned to “Hokkaido”, it is possible to execute “print” by selecting “Hokkaido” regardless of which application software is being executed.

また、位置計測装置1による検出結果の演算から出力までの少なくとも一部の一連の処理をコマンドとして対象物に対応付けしておいてもよい。これにより、位置計測装置1の複雑な処理であっても対象物を選択するだけで実行することができる。例えば、ユーザUSの好みの画像とコマンドとを対応付けしておくことで、そのユーザUSにとって直感的にコマンドを選択することができ、ユーザインタフェースを向上させることができる。   Further, at least a part of a series of processing from the calculation of the detection result by the position measurement device 1 to the output may be associated with the object as a command. Thereby, even if it is complicated processing of position measuring device 1, it can be performed only by selecting a subject. For example, by associating a user's favorite image with a command, the user US can select a command intuitively, and the user interface can be improved.

このように、本実施形態に係るコマンド実行システムおよび位置計測装置1によれば、ユーザの感覚にマッチし、容易に機能を連想できるようにコマンドを割り当てて処理を実行させることが可能になる。   As described above, according to the command execution system and the position measurement device 1 according to the present embodiment, it is possible to execute a process by assigning a command so as to match a user's sense and easily associate a function.

なお、上記に本実施形態を説明したが、本発明はこれらの例に限定されるものではない。例えば、コマンド実行システムにおいてパネルPRは平面的なものに限定されない。パネルPRは立体的な領域や仮想現実空間内の平面領域または立体領域であってもよい。また、対象物は平面的な画像や写真に限定されず、ホログラムや仮想現実空間上の立体像などであってもよい。また、前述の各実施形態に対して、当業者が適宜、構成要素の追加、削除、設計変更を行ったものや、各実施形態の特徴を適宜組み合わせたものも、本発明の要旨を備えている限り、本発明の範囲に包含される。   Although the present embodiment has been described above, the present invention is not limited to these examples. For example, in the command execution system, the panel PR is not limited to a planar one. The panel PR may be a three-dimensional area, a plane area in the virtual reality space, or a three-dimensional area. Further, the object is not limited to a planar image or photograph, and may be a hologram or a three-dimensional image in virtual reality space. In addition, those in which those skilled in the art appropriately added, deleted, and changed the design of the above-described embodiments, and combinations of the features of each embodiment as appropriate also include the gist of the present invention. As long as they are within the scope of the present invention.

本発明は、アーム型の三次元測定装置測定以外にも、アームを用いない無線式の測定ヘッド100を用いた三次元測定装置や画像測定装置など他の計測装置であっても好適に利用できる。   The present invention can be suitably used for other measurement devices such as a three-dimensional measurement device and an image measurement device using a wireless measurement head 100 that does not use an arm, in addition to the measurement of an arm-type three-dimensional measurement device. .

1…位置計測装置
10…CPU
11…測定プローブ
11a…測定子
12…ハンドル
12a…ボタン
15…多関節アーム
20…記憶装置
30…演算装置
40…表示制御部
45…ディスプレイ
50…入出力制御部
51…キーボード
52…タッチパネル
60…外部機器制御部
71…パネル生成部
72…パネル操作部
73…コマンド実行部
100…測定ヘッド
110…制御装置
151…角度センサ
711…割り当て領域設定部
712…対象物設定部
713…コマンド設定部
721…選択受付部
722…表示移動部
DR…表示領域
GP…画像
IMG−1…画像
IMG−2…画像
IMG−3…画像
MAP…画像
OB…測定対象物
PH−1…写真
PH−2…写真
PH−3…写真
PR…パネル
STG…定盤
STR…画像
TB…テーブル
US…ユーザ
1 ... Position measuring device 10 ... CPU
DESCRIPTION OF SYMBOLS 11 ... Measurement probe 11a ... Measuring element 12 ... Handle 12a ... Button 15 ... Articulated arm 20 ... Memory | storage device 30 ... Calculation apparatus 40 ... Display control part 45 ... Display 50 ... Input / output control part 51 ... Keyboard 52 ... Touch panel 60 ... External Device control unit 71 ... Panel generation unit 72 ... Panel operation unit 73 ... Command execution unit 100 ... Measuring head 110 ... Control device 151 ... Angle sensor 711 ... Allocation area setting unit 712 ... Object setting unit 713 ... Command setting unit 721 ... Selection Reception unit 722 ... Display moving unit DR ... Display region GP ... Image IMG-1 ... Image IMG-2 ... Image IMG-3 ... Image MAP ... Image OB ... Measurement object PH-1 ... Photo PH-2 ... Photo PH-3 ... Photo PR ... Panel STG ... Plate STR ... Image TB ... Table US ... User

Claims (9)

ユーザによって選択されたコマンドを受け付けてコンピュータの演算部に実行させるコマンド実行システムであって、
前記コンピュータによる情報の表示領域において前記ユーザの指示に応じて割り当て領域を設定する割り当て領域設定部と、
前記ユーザの指示に応じて前記割り当て領域内の対象物を設定する対象物設定部と、
前記対象物とコマンドとの対応付けを設定するコマンド設定部と、
前記ユーザによる前記対象物の選択を受け付ける選択受付部と、
前記選択受付部で受け付けた前記対象物と対応付けされた前記コマンドを前記演算部に実行させるコマンド実行部と、
を備えたことを特徴とするコマンド実行システム。
A command execution system that accepts a command selected by a user and causes a computer computing unit to execute the command,
An allocation area setting unit for setting an allocation area in accordance with an instruction of the user in an information display area by the computer;
An object setting unit for setting an object in the allocation area in accordance with an instruction from the user;
A command setting unit for setting a correspondence between the object and a command;
A selection receiving unit for receiving selection of the object by the user;
A command execution unit that causes the calculation unit to execute the command associated with the object received by the selection reception unit;
A command execution system comprising:
前記コマンド設定部は、1つの前記コマンドに対して複数のアプリケーションを対応付けし、
前記コマンド実行部は、前記複数のアプリケーションのうちアクティブなアプリケーションに対して前記コマンドに応じた処理を実行させることを特徴とする請求項1記載のコマンド実行システム。
The command setting unit associates a plurality of applications with one command,
The command execution system according to claim 1, wherein the command execution unit causes an active application of the plurality of applications to execute processing according to the command.
前記対象物は、前記割り当て領域内において平面的または立体的に表示されることを特徴とする請求項1または2に記載のコマンド実行システム。   3. The command execution system according to claim 1, wherein the object is displayed two-dimensionally or three-dimensionally in the allocation area. 前記対象物設定部は、複数の前記対象物の設定を行うとともに、前記割り当て領域での特定の方向における前記複数の対象物の上下の重なりの情報を設定し、
前記選択受付部は、前記ユーザが前記複数の対象物の重なる領域を指定した場合に前記対象物設定部で設定された前記重なりの情報に基づき上になる前記対象物の選択を受け付けることを特徴とする請求項1〜3のいずれか1つに記載のコマンド実行システム。
The object setting unit sets a plurality of the objects, and sets information on upper and lower overlaps of the objects in a specific direction in the allocation area,
The selection accepting unit accepts selection of the object to be on the basis of the overlap information set by the object setting unit when the user designates an overlapping region of the plurality of objects. The command execution system according to any one of claims 1 to 3.
前記ユーザの指示に応じて前記表示領域内での前記割り当て領域の位置を移動させる表示移動部をさらに備え、
前記対象物設定部は、前記表示移動部によって前記割り当て領域の位置が移動した際に前記割り当て領域の移動に合わせて前記対象物の位置を移動させることを特徴とする請求項1〜4のいずれか1つに記載のコマンド実行システム。
A display moving unit that moves the position of the allocation area in the display area in accordance with an instruction from the user;
The object setting unit moves the position of the object in accordance with the movement of the allocation region when the position of the allocation region is moved by the display moving unit. The command execution system as described in any one.
前記コマンド設定部は、1つの前記対象物に対応して複数の前記コマンドおよび前記複数のコマンドの処理順を対応付けして設定することを特徴とする請求項1〜5のいずれか1つに記載のコマンド実行システム。   The command setting unit sets a plurality of commands and a processing order of the plurality of commands in association with one target object, and sets the corresponding commands. The described command execution system. 前記割り当て領域は1つの画像ファイルによる出力領域であり、
前記対象物は、前記画像ファイル内の特定の絵柄であることを特徴とする請求項1〜6のいずれか1つに記載のコマンド実行システム。
The allocation area is an output area by one image file,
The command execution system according to claim 1, wherein the object is a specific pattern in the image file.
測定対象物の所定の座標系における位置を検出する測定ヘッドと、
前記測定ヘッドによる検出結果の演算および出力を行う制御装置と、
を備え、
前記制御装置は、請求項1〜7のいずれか1つに記載のコマンド実行システムを含む位置計測装置。
A measuring head for detecting the position of the measuring object in a predetermined coordinate system;
A control device for calculating and outputting the detection result by the measuring head;
With
The said control apparatus is a position measuring device containing the command execution system as described in any one of Claims 1-7.
前記コマンド設定部は、前記検出結果の演算から出力までの少なくとも一部の一連の処理を前記コマンドとして前記対象物に対応付けすることを特徴とする請求項8記載の位置計測装置。   9. The position measuring apparatus according to claim 8, wherein the command setting unit associates at least a part of a series of processes from calculation of the detection result to output thereof as the command with the object.
JP2019099138A 2019-05-28 2019-05-28 Command execution system and position measurement device Pending JP2019169180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019099138A JP2019169180A (en) 2019-05-28 2019-05-28 Command execution system and position measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019099138A JP2019169180A (en) 2019-05-28 2019-05-28 Command execution system and position measurement device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015049493A Division JP6548923B2 (en) 2015-03-12 2015-03-12 Command execution system and position measurement device

Publications (1)

Publication Number Publication Date
JP2019169180A true JP2019169180A (en) 2019-10-03

Family

ID=68107477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099138A Pending JP2019169180A (en) 2019-05-28 2019-05-28 Command execution system and position measurement device

Country Status (1)

Country Link
JP (1) JP2019169180A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06208500A (en) * 1993-01-12 1994-07-26 Matsushita Electric Ind Co Ltd Device for preparing video data with hyper-text
JPH07200243A (en) * 1993-12-29 1995-08-04 Casio Comput Co Ltd Icon selection controller
JPH09325845A (en) * 1996-06-05 1997-12-16 Alpine Electron Inc Operation instruction method using touch panel
JPH11353080A (en) * 1998-06-09 1999-12-24 Takatoshi Yokoyama Three-dimensional image display method, recording medium recorded with program therefor, storage medium recorded with image arrangement data, and three-dimensional image display device
JP2004021521A (en) * 2002-06-14 2004-01-22 Sony Corp Apparatus, method, and program for information processing
JP2007279946A (en) * 2006-04-05 2007-10-25 Hows:Kk Image information processor
US20080294986A1 (en) * 2007-05-21 2008-11-27 Samsung Electronics Co., Ltd Apparatus and method for creating macro
JP2011159273A (en) * 2010-01-29 2011-08-18 Pantech Co Ltd User interface device using hologram
JP2014134384A (en) * 2013-01-08 2014-07-24 Mitsutoyo Corp Three-dimensional measuring device, input method, and program
US20150007082A1 (en) * 2013-07-01 2015-01-01 Airbus Operations Gmbh Cabin management system having a three-dimensional operating panel

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06208500A (en) * 1993-01-12 1994-07-26 Matsushita Electric Ind Co Ltd Device for preparing video data with hyper-text
JPH07200243A (en) * 1993-12-29 1995-08-04 Casio Comput Co Ltd Icon selection controller
JPH09325845A (en) * 1996-06-05 1997-12-16 Alpine Electron Inc Operation instruction method using touch panel
JPH11353080A (en) * 1998-06-09 1999-12-24 Takatoshi Yokoyama Three-dimensional image display method, recording medium recorded with program therefor, storage medium recorded with image arrangement data, and three-dimensional image display device
JP2004021521A (en) * 2002-06-14 2004-01-22 Sony Corp Apparatus, method, and program for information processing
JP2007279946A (en) * 2006-04-05 2007-10-25 Hows:Kk Image information processor
US20080294986A1 (en) * 2007-05-21 2008-11-27 Samsung Electronics Co., Ltd Apparatus and method for creating macro
JP2011159273A (en) * 2010-01-29 2011-08-18 Pantech Co Ltd User interface device using hologram
JP2014134384A (en) * 2013-01-08 2014-07-24 Mitsutoyo Corp Three-dimensional measuring device, input method, and program
US20150007082A1 (en) * 2013-07-01 2015-01-01 Airbus Operations Gmbh Cabin management system having a three-dimensional operating panel

Similar Documents

Publication Publication Date Title
CN108431729A (en) To increase the three dimensional object tracking of display area
CN111344663B (en) Rendering device and rendering method
US8922351B2 (en) Display apparatus, information processing system, recording medium and television receiver
CN107562335B (en) Display area adjusting method and mobile terminal
CN103513894A (en) Display apparatus, remote controlling apparatus and control method thereof
JP2010079834A (en) Device for determination of mounting position of coordinate detection device and electronic board system
JP5507773B1 (en) Element selection device, element selection method, and program
US20180232139A1 (en) Window control method, information processing apparatus, and control method and control program of information processing apparatus
JP6386897B2 (en) Electronic blackboard, information processing program, and information processing method
JP2012185297A (en) Multi-display system, information processing terminal device, information processing method, and computer program
CN105912315A (en) Information Processing Apparatus, Information Processing System, Information Processing Method, And A Computer Program Product
US10755461B2 (en) Display device, display method, and recording medium
CN100543659C (en) The navigator that is used for three-dimensional graphic user interface
JP2019169180A (en) Command execution system and position measurement device
JP6548923B2 (en) Command execution system and position measurement device
JP2014010808A (en) Content display device, content providing system and content display method
US9319600B2 (en) Information processing apparatus, information processing method and computer program product
JP2007114584A (en) Double-sided display type information processor and double-sided display program
JP2016119019A (en) Information processing apparatus, information processing method, and program
JP7399779B2 (en) Operating device, display control method, and display control program
CN114168034A (en) Menu operation method applied to head-mounted display equipment and head-mounted display equipment
JP2017215857A (en) Display, display method, and program
JP2015079291A (en) Information processing device, information processing system and program
JP2015026226A (en) Pickup data processing system
CN108255317A (en) Method and device for controlling cursor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929