JP6548923B2 - Command execution system and position measurement device - Google Patents

Command execution system and position measurement device Download PDF

Info

Publication number
JP6548923B2
JP6548923B2 JP2015049493A JP2015049493A JP6548923B2 JP 6548923 B2 JP6548923 B2 JP 6548923B2 JP 2015049493 A JP2015049493 A JP 2015049493A JP 2015049493 A JP2015049493 A JP 2015049493A JP 6548923 B2 JP6548923 B2 JP 6548923B2
Authority
JP
Japan
Prior art keywords
command
user
area
setting unit
execution system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015049493A
Other languages
Japanese (ja)
Other versions
JP2016170596A (en
Inventor
信策 阿部
信策 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2015049493A priority Critical patent/JP6548923B2/en
Publication of JP2016170596A publication Critical patent/JP2016170596A/en
Application granted granted Critical
Publication of JP6548923B2 publication Critical patent/JP6548923B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザによって選択されたコマンドを受け付けてコンピュータで実行するコマンド実行システムおよび位置計測装置に関する。   The present invention relates to a command execution system and a position measurement device that receives a command selected by a user and executes the command on a computer.

コンピュータのインタフェースとして、ウィンドウシステムが主流になっている。ユーザは、画面上のウィンドウに表示される内容を参照して編集やファイル操作など各種の処理を行う。   The window system has become mainstream as a computer interface. The user refers to the content displayed in the window on the screen to perform various processes such as editing and file operation.

特許文献1においては、画面の背景画像とアイテムとを対応付けしておき、ユーザによってフォーカスされたアイテムと対応付けされた操作を行う携帯端末装置が開示される。また、特許文献2においては、電子ファイルシステムにおいて情報をアクセスするための図形ユーザインタフェースが開示される。また、特許文献3においては、画像の一部分として個別的な画像区域を有する画像に関して、この画像区域の少なくとも1つにデバイスメニューの機能を適合させたものが開示される。   Patent Document 1 discloses a portable terminal device that performs an operation in which a background image of a screen and an item are associated with each other and associated with an item focused by the user. Further, Patent Document 2 discloses a graphic user interface for accessing information in an electronic file system. In addition, Patent Document 3 discloses, for an image having an individual image area as a part of the image, one in which the function of the device menu is adapted to at least one of the image area.

特開2007−041641号公報Unexamined-Japanese-Patent No. 2007-041641 特表平10−507020号公報Japanese Patent Application Publication No. 10-507020 特表2008−511895号公報Japanese Patent Application Publication No. 2008-511895

しかしながら、特許文献1に記載の技術においては、背景画像とアイテムとの機能の関連性が重要であり、関連付ける機能が増えると背景画像の枚数や階層が増加して所望のアイテムを選択し難くなってしまう。また、ユーザによるアイテムの割り当てやカスタマイズができず、ユーザの好みに応じた設定や、アプリケーションに応じた画像設定および機能設定を行うことができないという問題がある。   However, in the technology described in Patent Document 1, the functional relationship between the background image and the item is important, and when the function to be associated increases, the number and the level of the background image increase and it becomes difficult to select a desired item. It will In addition, there is a problem that the user can not allocate or customize the item, and can not perform setting according to the user's preference or image setting and function setting according to the application.

特許文献2に記載の技術においては、図形に割り当てられるのが電子ファイルへのリンクだけで、コンピュータに対する様々なコマンドの実行には対応していない。また、関連付けるアイテムの数が増えるとサブイメージの枚数が増えてしまう。   In the technology described in Patent Document 2, only the link to the electronic file is assigned to the graphic, and the execution of various commands to the computer is not supported. In addition, as the number of items to be associated increases, the number of sub images increases.

特許文献3に記載の技術においては、画像に表示されるアイコンをグリッド上に並べたものと同じであり、どの画像にどのような機能が割り当てられているのか分かりにくい。また、画像に対する機能の割り当てのカスタマイズ性が低いという問題がある。   The technique described in Patent Document 3 is the same as arranging icons displayed in an image on a grid, and it is difficult to know what function is assigned to which image. In addition, there is a problem that the customization of assignment of functions to images is low.

このように、いずれの技術においても、ユーザにとって使いやすい機能の割り当てにはなっておらず、カスタマイズ性も低いことから、画像と機能との対応に慣れるまで長い時間が必要になる。また、複数のアプリケーションの間で共通のメニュー操作を行うことができず、アプリケーションごとに操作を覚えなければならないという問題が生じる。   As described above, in any of the technologies, the assignment of functions is not easy for the user and the degree of customization is low, so it takes a long time to get used to the correspondence between images and functions. In addition, common menu operations can not be performed among a plurality of applications, and there is a problem that each application has to remember the operation.

本発明の目的は、ユーザの感覚にマッチし、容易に機能を連想できるようにコマンドの割り当てを行うことができるコマンド実行システムおよび位置計測装置を提供することである。   An object of the present invention is to provide a command execution system and a position measurement device capable of assigning a command so as to match a user's sense and to easily associate functions.

上記課題を解決するため、本発明のコマンド実行システムは、ユーザによって選択されたコマンドを受け付けてコンピュータの演算部に実行させるコマンド実行システムであって、コンピュータによる情報の表示領域においてユーザの指示に応じて割り当て領域を設定する割り当て領域設定部と、ユーザの指示に応じて割り当て領域内の対象物を設定する対象物設定部と、対象物とコマンドとの対応付けを設定するコマンド設定部と、ユーザによる対象物の選択を受け付ける選択受付部と、選択受付部で受け付けた対象物と対応付けされたコマンドを演算部に実行させるコマンド実行部と、を備えたことを特徴とする。   In order to solve the above problems, a command execution system according to the present invention is a command execution system which receives a command selected by a user and causes a computing unit of a computer to execute the command. Allocation area setting unit for setting an allocation area, an object setting unit for setting an object in the allocation area according to a user's instruction, a command setting unit for setting an association between an object and a command, and a user And a command execution unit for causing the calculation unit to execute a command associated with the target received by the selection receiving unit.

このような構成によれば、コンピュータによる情報の表示領域に、ユーザが割り当てた割り当て領域と、この割り当て領域内にコマンドと対応付けされた対象物とが設定される。割り当て領域、対象物およびコマンドはユーザの好みに応じて任意に設定される。これにより、ユーザは、割り当て領域内に表示される好みの対象物に分かりやすいコマンドを自由に設定することができる。   According to such a configuration, the allocation area allocated by the user and the target associated with the command are set in the display area of the information by the computer. The allocation area, the object and the command are arbitrarily set according to the preference of the user. Thereby, the user can freely set an easy-to-understand command to the desired object displayed in the allocation area.

本発明のコマンド実行システムにおいて、コマンド設定は、1つのコマンドに対して複数のアプリケーションを対応付けし、コマンド実行部は、複数のアプリケーションのうちアクティブなアプリケーションに対してコマンドに応じた処理を実行させるようにしてもよい。   In the command execution system according to the present invention, the command setting associates a plurality of applications with one command, and the command execution unit causes an active application among the plurality of applications to execute processing according to the command. You may do so.

このような構成によれば、1つの対象物について複数のアプリケーションで同じ処理を実行できるコマンドを対応付けすることができる。これにより、アプリケーションが異なる場合でも同じ対象物には同じ処理を行うコマンドが対応付けされる。ユーザは、アプリケーションにかかわらず同じ処理を実行したい場合には同じ対象物を選択すればよいことになる。   According to such a configuration, it is possible to associate a command that can execute the same processing by a plurality of applications for one target. Thereby, even when the applications are different, the same target object is associated with the command for performing the same processing. The user may select the same object to execute the same process regardless of the application.

本発明のコマンド実行システムにおいて、対象物は、割り当て領域内において平面的または立体的に表示されるものであってもよい。このような構成によれば、ユーザは、平面的な絵柄(写真、イラスト、画像など)を選択してコマンドを実行させたり、立体的な絵柄(ホログラムや仮想現実空間上の立体像など)を選択してコマンドを実行させたりすることができる。   In the command execution system of the present invention, the object may be displayed two-dimensionally or three-dimensionally in the assignment area. According to such a configuration, the user can select a flat pattern (photograph, illustration, image, etc.) and execute a command, or a three-dimensional pattern (hologram, solid image in virtual reality space, etc.) You can choose to execute a command.

本発明のコマンド実行システムにおいて、対象物設定部は、複数の対象物の設定を行うとともに、割り当て領域での特定の方向における複数の対象物の上下の重なりの情報を設定し、選択受付部は、ユーザが複数の対象物の重なる領域を指定した場合に対象物設定部で設定された重なりの情報に基づき上になる対象物の選択を受け付けるようにしてもよい。このような構成によれば、複数の対象物が重なり合っていても、それぞれにコマンドを対応付けすることができる。   In the command execution system according to the present invention, the object setting unit sets a plurality of objects and sets information on the upper and lower overlap of the plurality of objects in a specific direction in the allocation area, and the selection receiving unit When the user designates an overlapping area of a plurality of objects, the selection of the upper object may be accepted based on the overlapping information set by the object setting unit. According to such a configuration, even if a plurality of objects overlap each other, commands can be associated with each other.

本発明のコマンド実行システムにおいて、ユーザの指示に応じて表示領域内での割り当て領域の位置を移動させる表示移動部をさらに備え、対象物設定部は、表示移動部によって割り当て領域の位置が移動した際に割り当て領域の移動に合わせて対象物の位置を移動させるようにしてもよい。   The command execution system of the present invention further includes a display moving unit that moves the position of the assigned area in the display area according to a user's instruction, and the target setting unit moves the position of the allocated area by the display moving unit. At this time, the position of the object may be moved according to the movement of the allocation area.

このような構成によれば、ユーザが表示領域内で割り当て領域を移動させた場合、割り当て領域の移動にともない対象物も移動することになる。これにより、割り当て領域と対象物との相対的な位置関係を保つことができる。   According to such a configuration, when the user moves the allocation area in the display area, the object also moves as the allocation area moves. Thereby, the relative positional relationship between the allocation area and the object can be maintained.

本発明のコマンド実行システムにおいて、コマンド設定部は、1つの対象物に対応して複数のコマンドおよび複数のコマンドの処理順を対応付けして設定するようにしてもよい。このような構成によれば、ユーザは1つの対象物を選択するだけで複数のコマンドを実行できるようになる。   In the command execution system according to the present invention, the command setting unit may set the processing order of the plurality of commands and the plurality of commands in association with one object. According to such a configuration, the user can execute a plurality of commands only by selecting one target.

本発明のコマンド実行システムにおいて、割り当て領域は1つの画像ファイルによる出力領域であり、対象物は、画像ファイル内の特定の絵柄であってもよい。このような構成によれば、1つの画像ファイル内の特定の絵柄にコマンドを割り当てることができる。   In the command execution system of the present invention, the allocation area is an output area of one image file, and the object may be a specific pattern in the image file. According to such a configuration, it is possible to assign a command to a specific pattern in one image file.

本発明の位置計測装置は、測定対象物の所定の座標系における位置を検出する測定ヘッドと、測定ヘッドによる検出結果の演算および出力を行う制御装置と、を備え、制御装置が、上記のコマンド実行システムを含むことを特徴とする。このような構成によれば、計測装置で測定を行う際に、ユーザは、好みで設定した割り当て領域内の対象物を選択することで、制御装置へコマンドを送ることができる。これにより、取り扱いが専門的な計測装置であっても、ユーザフレンドリなインタフェースを実現することができる。   A position measurement apparatus according to the present invention includes a measurement head for detecting a position of a measurement object in a predetermined coordinate system, and a control device for calculating and outputting a detection result by the measurement head. It is characterized by including an execution system. According to such a configuration, when performing measurement with the measuring device, the user can send a command to the control device by selecting an object in the assignment area set in preference. As a result, a user-friendly interface can be realized even if the measurement device is specialized in handling.

本発明の位置計測装置において、コマンド設定部は、検出結果の演算から出力までの少なくとも一部の一連の処理をコマンドとして対象物に対応付けするようにしてもよい。このような構成によれば、一つの対象物を選択するだけで複数の処理を行わせることができる。   In the position measurement device of the present invention, the command setting unit may associate at least a part of the series of processes from calculation of the detection result to output as a command with the object. According to such a configuration, it is possible to perform a plurality of processes only by selecting one target.

第1実施形態に係るコマンド実行システムを例示するブロック図である。It is a block diagram which illustrates the command execution system concerning a 1st embodiment. パネルおよび対象物の例を示す模式図である。It is a schematic diagram which shows the example of a panel and an object. 対象物とコマンドとの対応付けテーブルを例示する図である。It is a figure which illustrates the correspondence table of a subject and a command. 対象物の適用例を示す模式図である。It is a schematic diagram which shows the application example of a target object. (a)〜(c)は、対象物の適用例を示す模式図である。(A)-(c) is a schematic diagram which shows the application example of a target object. コマンド実行システムの処理フローチャートである。It is a processing flowchart of a command execution system. コマンド実行システムの処理フローチャートである。It is a processing flowchart of a command execution system. コマンド実行システムの処理フローチャートである。It is a processing flowchart of a command execution system. 第2実施形態に係る位置計測装置について説明する。A position measurement device according to a second embodiment will be described. (a)〜(c)は、位置計測装置のディスプレイの表示例を示す模式図である。(A)-(c) is a schematic diagram which shows the example of a display of the display of a position measurement apparatus.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。   Hereinafter, embodiments of the present invention will be described based on the drawings. In the following description, the same members are denoted by the same reference numerals, and the description of the members once described will be omitted as appropriate.

(第1実施形態)
図1は、第1実施形態に係るコマンド実行システムを例示するブロック図である。
本実施形態に係るコマンド実行システムは、ユーザによって選択されたコマンドを受け付けてコンピュータPCのCPU(Central Processing Unit)10に実行させるシステムである。
First Embodiment
FIG. 1 is a block diagram illustrating a command execution system according to the first embodiment.
The command execution system according to the present embodiment is a system that receives a command selected by the user and causes the CPU (Central Processing Unit) 10 of the computer PC to execute the command.

コンピュータPCは、CPU10、記憶装置20、演算装置30、表示制御部40、入出力制御部50、外部機器制御部60を備える。CPU10は各種のプログラムを実行する部分である。記憶装置20は主記憶部および副記憶部を含む。演算装置30は各種の演算を行うハードウェアである。表示制御部40は、ディスプレイ45を制御する部分であり。入出力制御部50は、キーボード51やタッチパネル52による情報の入出力を制御する部分である。   The computer PC includes a CPU 10, a storage device 20, an arithmetic unit 30, a display control unit 40, an input / output control unit 50, and an external device control unit 60. The CPU 10 is a part that executes various programs. Storage device 20 includes a main storage unit and a secondary storage unit. Arithmetic unit 30 is hardware that performs various operations. The display control unit 40 is a part that controls the display 45. The input / output control unit 50 controls input / output of information by the keyboard 51 or the touch panel 52.

本実施形態において、コマンド実行システムは、コンピュータPCのCPU10で実行されるプログラムによって実現される。コマンド実行システムは、パネル生成部71、パネル操作部72およびコマンド実行部73を備える。   In the present embodiment, the command execution system is realized by a program executed by the CPU 10 of the computer PC. The command execution system includes a panel generation unit 71, a panel operation unit 72, and a command execution unit 73.

パネル生成部71は、割り当て領域設定部711、対象物設定部712およびコマンド設定部713を含む。割り当て領域設定部711は、コンピュータPCによる情報の表示領域において、ユーザの指示に応じて割り当て領域を設定する処理を行う。例えば、ディスプレイ45の表示領域のうちの所定領域を割り当て領域として設定する。本実施形態では、この割り当て領域をパネルと言うことにする。割り当て領域設定部711は、ユーザから指示に応じてディスプレイ45の表示領域内にパネルを設定する。パネルはユーザの好みで任意に設定される。   Panel generation unit 71 includes an allocation area setting unit 711, an object setting unit 712, and a command setting unit 713. The allocation area setting unit 711 performs processing of setting an allocation area according to a user's instruction in a display area of information by the computer PC. For example, a predetermined area of the display area of the display 45 is set as an allocation area. In this embodiment, this allocated area is referred to as a panel. The allocation area setting unit 711 sets a panel in the display area of the display 45 according to an instruction from the user. The panel is arbitrarily set according to the user's preference.

対象物設定部712は、ユーザの指示に応じてパネル内の対象物を設定する処理を行う。例えば、画像や写真などの絵柄をパネル内に設定する処理を行う。対象物設定部712は。ユーザからの指示に応じてパネル内の所定の位置に対象物を設定する。対象物設定部712は、ユーザによって指示された対象物の表示領域の位置情報や対象物の識別情報を設定する。対象物はユーザの好みによって任意に選択され、パネル内の任意の位置に設定される。   The object setting unit 712 performs a process of setting an object in the panel according to an instruction of the user. For example, a process of setting a pattern such as an image or a photo in the panel is performed. The object setting unit 712 is. An object is set at a predetermined position in the panel in accordance with an instruction from the user. The object setting unit 712 sets position information of the display area of the object instructed by the user and identification information of the object. The object is arbitrarily selected according to the user's preference and set at an arbitrary position in the panel.

コマンド設定部713は、対象物とコマンドとの対応付けを設定する処理を行う。コマンド設定部713は、ユーザからの指示に応じて対象物について所定のコマンドを対応付けする。これにより、対象物設定部712で設定された対象物に、CPU10で実行されるコマンドが対応付けされる。ユーザは、好みの対象物に対して任意にコマンドを割り当てることができる。   The command setting unit 713 performs processing of setting an association between an object and a command. The command setting unit 713 associates a predetermined command for an object in accordance with an instruction from the user. Thus, the command executed by the CPU 10 is associated with the target set by the target setting unit 712. The user can arbitrarily assign a command to a desired object.

選択受付部721は、ユーザによる対象物の選択を受け付ける処理を行う。ユーザは、タッチパネル52やマウス等のポインティングデバイスを用いてパネル内の対象物を選択する。選択受付部721はユーザによって選択された位置に基づき、その位置に含まれる対象物の識別情報を検出する。   The selection receiving unit 721 performs a process of receiving a selection of an object by the user. The user uses the touch panel 52 or a pointing device such as a mouse to select an object in the panel. The selection receiving unit 721 detects identification information of an object included in the position based on the position selected by the user.

表示移動部722は、ユーザの指示に応じて表示領域内でのパネルの位置を移動させる処理を行う。ユーザは、好みに応じて表示領域内のパネルの位置を移動させることができる。すなわち、ユーザは、タッチパネル52の操作やマウス等の操作によってパネルの位置を移動させることができる。表示移動部722は、ユーザの操作を受け付けてパネルを移動させる。パネルの移動に伴い、対象物設定部712は、パネルの移動に合わせて対象物の位置を移動させる。これにより、パネルと対象物との相対的な位置は変わらず、表示領域内でパネルおよび対象物を移動させることができる。   The display moving unit 722 performs a process of moving the position of the panel in the display area according to the user's instruction. The user can move the position of the panel in the display area according to the preference. That is, the user can move the position of the panel by operating the touch panel 52 or operating the mouse or the like. The display moving unit 722 receives the user's operation and moves the panel. As the panel moves, the object setting unit 712 moves the position of the object in accordance with the movement of the panel. Thus, the relative position between the panel and the object does not change, and the panel and the object can be moved within the display area.

コマンド実行部73は、選択受付部721で受け付けた対象物と対応付けされたコマンドをCPU10に実行させる処理を行う。ユーザが所定の対象物を選択すると、選択受付部721は選択された対象物の識別情報を検知してコマンド実行部73に送る。コマンド実行部73は、選択受付部721から送られた識別情報と対応付けされたコマンドを選択して、CPU10に送る。これにより、オペレーティングシステムや各種のアプリケーションソフトウェアに対するコマンド操作が実行される。   The command execution unit 73 performs a process of causing the CPU 10 to execute a command associated with the target received by the selection receiving unit 721. When the user selects a predetermined target, the selection receiving unit 721 detects the identification information of the selected target and sends it to the command execution unit 73. The command execution unit 73 selects a command associated with the identification information sent from the selection receiving unit 721 and sends it to the CPU 10. As a result, command operations on the operating system and various application software are executed.

図2は、パネルおよび対象物の例を示す模式図である。
図2に表したように、ディスプレイ45やタッチパネル52には表示領域DRが設けられる。パネルPRは表示領域DR内の所定の位置に設定される。ユーザはタッチパネル52の操作やマウス等の操作によってパネルPRの位置および大きさを指定する。この指定を受けた割り当て領域設定部711は、表示領域DR内のパネルPRが属する領域の座標情報を記憶装置20に記憶する。
FIG. 2 is a schematic view showing an example of a panel and an object.
As shown in FIG. 2, the display 45 and the touch panel 52 are provided with a display area DR. The panel PR is set at a predetermined position in the display area DR. The user designates the position and size of the panel PR by operating the touch panel 52 or operating the mouse or the like. The allocation area setting unit 711 that has received this specification stores, in the storage device 20, coordinate information of the area to which the panel PR in the display area DR belongs.

また、ユーザは、パネルPR内に所望の対象物を配置することができる。図2に表した例では、対象物として3つの画像IMG−1、IMG−2、IMG−3がパネルPR内に配置される。対象物設定部712は、ユーザによるタッチパネル52の操作やマウス等の操作によって画像IMG−1、IMG−2、IMG−3が属する領域の座標情報を記憶装置20に記憶する。   Also, the user can place a desired object in the panel PR. In the example shown in FIG. 2, three images IMG-1, IMG-2, and IMG-3 are arranged in the panel PR as objects. The object setting unit 712 stores, in the storage device 20, coordinate information of the region to which the images IMG-1, IMG-2, and IMG-3 belong by the operation of the touch panel 52 by the user or the operation of the mouse or the like.

ここで、複数の対象物においては、互いの一部が重なり合ってレイアウトされてもよい。この場合、対象物設定部712は、パネルPRの特定の方向(例えば、パネルPRと直交する方向)における複数の対象物の上下の重なりの情報を設定する。図2に表した例では、
上から下に画像IMG−1、IMG−3、IMG−2の順で配置される。上下で画像が重なる部分については、上になる画像が優先される。
Here, in a plurality of objects, parts of each other may overlap and be laid out. In this case, the object setting unit 712 sets upper and lower overlap information of a plurality of objects in a specific direction of the panel PR (for example, a direction orthogonal to the panel PR). In the example shown in FIG.
The images are arranged from top to bottom in the order of images IMG-1, IMG-3 and IMG-2. For the portion where the images overlap at the top and bottom, the top image is prioritized.

対象物である各画像IMG−1、IMG−2、IMG−3のそれぞれにはコマンドが対応付けされる。ユーザは、コマンド設定部713に対して、パネルPRにレイアウトした各画像IMG−1、IMG−2、IMG−3にコマンドを割り当てる指示を送る。コマンド設定部713は、ユーザから送られた指示に応じて画像IMG−1、IMG−2、IMG−3とコマンドとの対応付けを行う。   A command is associated with each of the images IMG-1, IMG-2, and IMG-3 that are objects. The user sends, to the command setting unit 713, an instruction to assign a command to each of the images IMG-1, IMG-2, and IMG-3 laid out on the panel PR. The command setting unit 713 associates the images IMG-1, IMG-2, and IMG-3 with the command according to the instruction sent from the user.

図3は、対象物とコマンドとの対応付けテーブルを例示する図である。
コマンド設定部713は、図3に示すようなテーブルTBによって対象物とコマンドとの対応付けを設定する。例えば、画像IMG−1にはコマンドC1が対応付けされ、画像IMG−2にはコマンドC2が対応付けされ、画像IMG−3にはコマンドC3が対応付けされる。コマンドとしては、オペレーティングシステムへの命令や、所定のアプリケーションソフトウェアへの命令、任意の文字列の入力命令などである。
FIG. 3 is a diagram exemplifying a correspondence table between an object and a command.
The command setting unit 713 sets an association between an object and a command by using a table TB as shown in FIG. For example, command C1 is associated with image IMG-1, command C2 is associated with image IMG-2, and command C3 is associated with image IMG-3. The command includes an instruction to the operating system, an instruction to predetermined application software, an input instruction of an arbitrary character string, and the like.

1つの対象物について複数のコマンドと、この複数のコマンドの処理順とが対応付けされていてもよい。また、1つの対象物に対応付けされたコマンドが、複数のアプリケーションソフトウェアに対応付けされていてもよい。例えば、ファイル操作(上書き保存、別名保存、印刷など)のような異なるアプリケーションソフトウェアで共通するコマンドについては、1つの対象物について共通のコマンドとして対応付けされる。   A plurality of commands for one object may be associated with the processing order of the plurality of commands. Moreover, the command matched with one target object may be matched with several application software. For example, commands common to different application software such as file operations (overwrite save, save as a print, etc.) are associated as common commands for one object.

このように対象物とコマンドとが対応付けされることで、ユーザはパネルPRから所望の対象物を選択することでコンピュータPCのCPU10に対するコマンドを実行することができる。   By associating the object with the command in this manner, the user can execute a command to the CPU 10 of the computer PC by selecting a desired object from the panel PR.

本実施形態では、パネルPR、対象物およびコマンドをユーザの好みによって自由に設定することができる。これにより、ユーザは、パネルPR内に表示される好みの対象物(例えば、画像IMG−1、IMG−2、IMG−3)に分かりやすいコマンドを設定することができ、画像IMG−1、IMG−2、IMG−3の内容によってコマンドを関連付けて操作できるようになる。   In the present embodiment, the panel PR, the object and the command can be freely set according to the preference of the user. Thereby, the user can set an easy-to-understand command to a desired object (for example, images IMG-1, IMG-2, IMG-3) displayed in panel PR, and images IMG-1, IMG The commands can be linked and operated according to the contents of -2 and IMG-3.

図4および図5は、対象物の適用例を示す模式図である。
図4に表した例では、対象物として写真PH−1、PH−2およびPH−3が用いられている。写真PH−1、PH−2およびPH−3とコマンドとを対応付けしておくことで、ユーザは写真PH−1、PH−2およびPH−3の内容からコマンドを直観的に関連付けて操作することができる。
FIG. 4 and FIG. 5 are schematic views showing application examples of an object.
In the example shown in FIG. 4, photographs PH-1, PH-2 and PH-3 are used as the objects. By associating photos PH-1, PH-2 and PH-3 with commands, the user intuitively associates and operates commands from the contents of photos PH-1, PH-2 and PH-3. be able to.

例えば、ドアを開く場面の写真PH−1には「ファイルを開く」のコマンドを対応付けしておく。また、プリンタの写真PH−2には「印刷」のコマンドを対応付けしておく。このように写真PH−1およびPH−2の内容から直観的に分かるコマンドを対応付けしておくことで、どのようなユーザであっても的確なコマンド操作を行うことができる。   For example, the command "open file" is associated with the picture PH-1 of the scene where the door is opened. Also, a command of "print" is associated with the photograph PH-2 of the printer. As described above, by associating commands intuitively understood from the contents of the photos PH-1 and PH-2, accurate command operations can be performed by any user.

また、例えば愛犬の写真PH−3にはユーザの好みのコマンドを対応付けしてもよい。例えば、「上書き保存」のコマンドを対応付けしておく。特定のユーザにとって分かりやすい対象物は印象に残りやすい。例えば、愛犬の写真PH−3はそのユーザにとって非常に印象深い。この写真PH−3と特定のコマンドとを対応付けておくことで、そのユーザにとって連想によって的確にコマンドを選択および実行できることになる。   In addition, for example, the user's favorite command may be associated with the photo PH-3 of the dog. For example, the "overwrite save" command is associated. An object that is easy to understand for a specific user tends to be an impression. For example, a photo PH-3 of a pet dog is very impressive for the user. By associating the photo PH-3 with a specific command, the user can select and execute the command accurately by association.

図5(a)に表した例では、対象物として地図の画像MAPが用いられている。例えば、日本地図の画像MAPでは、1つの画像MAPが複数の領域(例えば、都道府県ごと)に分けられている。そして、各領域それぞれにコマンドが対応付けされる。この例では、各都道府県それぞれにコマンドを割り当てることができる。   In the example shown in FIG. 5A, the image MAP of the map is used as the object. For example, in the image MAP of the Japanese map, one image MAP is divided into a plurality of areas (for example, by prefectures). Then, a command is associated with each area. In this example, commands can be assigned to each prefecture.

各領域(都道府県)とコマンドとの対応は、ユーザによって任意に設定可能である。例えば、あるユーザにとって「北海道」は食の倉庫というイメージを持っており、このイメージとよく使うコマンド(例えば、「上書き保存」)とを対応付けしておく。これにより、ユーザのイメージと連想してコマンドを直感的に選択して実行できるようになる。   The correspondence between each area (prefecture) and the command can be arbitrarily set by the user. For example, “Hokkaido” has an image of a food warehouse for a certain user, and this image is associated with a frequently used command (for example, “overwrite save”). This makes it possible to intuitively select and execute a command in association with the user's image.

地図の画像MAPが配置されたパネルPRは、アプリケーションソフトウェアに関係なく必要に応じて表示領域DRに表示させることができる。これにより、どのアプリケーションソフトウェアを利用していても、同じ地図の画像MAPを用いて所望の都道府県を選択するだけで、同じ処理を行うコマンドを実行することができる。   The panel PR on which the map image MAP is arranged can be displayed in the display area DR as needed regardless of the application software. As a result, regardless of which application software is used, it is possible to execute a command that performs the same process only by selecting a desired prefecture using the same map image MAP.

本実施形態のコマンド実行システムでは、ユーザの好みの対象物を設定して任意にコマンドを対応付けすることができる。図5(b)に表した例では、人気グループの画像GPを対象物として設定している。例えば、人気グループの画像GPの各メンバーの部分を領域に分けて、各領域ごとそれぞれにコマンドが対応付けされる。コマンドとして、各メンバーの領域に対応して各メンバーのブログやホームページへリンクするコマンドを対応付けしてもよい。これにより、画像GPから所望のメンバーの領域を選択することで、そのメンバーのブログやホームページをブラウザ(アプリケーションソフトウェア)によって開くコマンドが実行される。   In the command execution system according to the present embodiment, it is possible to set an object desired by the user and arbitrarily associate a command. In the example shown in FIG. 5B, the image GP of the popular group is set as the target. For example, the part of each member of the image GP of the popular group is divided into areas, and a command is associated with each area. As a command, a command linked to a blog or a home page of each member may be associated corresponding to the area of each member. Thus, by selecting the region of the desired member from the image GP, the browser (application software) executes a command to open the member's blog or home page.

また、画像GPとして友人や家族などの集合写真を用いてもよい。集合写真のメンバーの領域ごとに、そのメンバーのメールアドレスに電子メールを送るコマンドを対応付けしてもよい。ユーザは、集合写真の画像GPから電子メールを送りたいメンバーの領域を選択することで、電子メールソフトが起動して宛先にそのメンバーのメールアドレスが自動的に入力される。   Also, a group photo of a friend or a family may be used as the image GP. A command for sending an e-mail may be associated with the email address of each member of the group photo. By selecting the area of the member to which the user wants to send the e-mail from the image GP of the group photo, the user activates the e-mail software and the e-mail address of the member is automatically input to the destination.

図5(c)に表した例では、星座の画像STRを対象物として設定している。このように、対象物はユーザの好みによって任意に設定可能である。すなわち、使用するユーザの趣味嗜好によって興味のある対象物を設定することで、コマンドとの関連を強く印象付けることができる。   In the example shown in FIG. 5C, the image STR of the constellation is set as the object. Thus, the object can be arbitrarily set according to the preference of the user. That is, by setting an object of interest according to the taste preference of the user to be used, it is possible to make a strong impression of the association with the command.

なお、上記の例では、パネルPRとして矩形の領域を示したが、矩形以外の領域であってもよい。また、パネルPR内に対象物を設定する例を示したが、対象物の外形領域とパネルPRとを一致させてもよい。   In the above example, although a rectangular area is shown as the panel PR, it may be an area other than the rectangular. Further, although the example in which the object is set in the panel PR has been shown, the outline area of the object may be matched with the panel PR.

本実施形態のコマンド実行システムでは、ユーザの好みに応じた対象物に、ユーザにとって連想しやすいコマンドを対応付けすることができる。これにより、例えば複雑なコマンド処理や覚えにくいコマンド処理であっても、好みの対象物との関係で直感的にコマンド処理を選択することが可能になる。   In the command execution system according to the present embodiment, it is possible to associate a user-friendly command with an object according to the user's preference. This makes it possible to intuitively select command processing in relation to a desired object, for example, even for complex command processing and difficult-to-remember command processing.

(処理フローチャート)
次に、本実施形態に係るコマンド実行システムの処理フローチャートを説明する。
図6〜図8は処理フローチャートである。
図6には対象物の設定処理のフローチャートが表され、図7にはコマンドの設定処理のフローチャートが表され、図8にはコマンドの実行処理のフローチャートが表される。
(Processing flowchart)
Next, a processing flowchart of the command execution system according to the present embodiment will be described.
6 to 8 are process flowcharts.
6 shows a flowchart of setting processing of an object, FIG. 7 shows a flowchart of setting processing of a command, and FIG. 8 shows a flowchart of execution processing of a command.

先ず、図6に沿って対象物の設定処理について説明する。この処理は対象物設定部712によって行われる。なお、ここでは対象物の外形領域とパネルPRとが一致している場合を例とする。先ず、ステップS101に示すように、対象物の選択を行う。対象物としては、ディスプレイ45等に表示される図形や写真が挙げられる。対象物はユーザによって任意に選択される。   First, the setting process of an object will be described with reference to FIG. This process is performed by the object setting unit 712. Here, the case where the outer region of the object and the panel PR coincide with each other is taken as an example. First, as shown in step S101, an object is selected. Examples of the target include figures and photographs displayed on the display 45 or the like. The object is arbitrarily selected by the user.

次に、ステップS102に示すように、対象物の選択領域の算出を行う。ここでは、先に選択された対象物の中から所定の領域を切り出す処理が行われる。切り出す処理は自動的に行われても、ユーザによって任意に指定された領域を切り出してもよい。   Next, as shown in step S102, the selection region of the object is calculated. Here, a process of cutting out a predetermined area from among the previously selected objects is performed. The cutting process may be performed automatically, or a region arbitrarily designated by the user may be cut.

次に、ステップS103に示すように、領域の配置を行う。先に切り出された領域は、ユーザの指示によって任意の位置に配置することができる。次に、ステップS104に示すように、領域の調整を行う。例えば、複数の領域について重なりがあるか否かを判断し、重なりがある場合には上下関係を設定する。   Next, as shown in step S103, the areas are arranged. The previously cut out area can be placed at an arbitrary position according to a user's instruction. Next, as shown in step S104, the area is adjusted. For example, it is determined whether or not there is an overlap in a plurality of areas, and if there is an overlap, an upper / lower relationship is set.

次に、ステップS105に示すように、対象物の追加があるか否かの判断を行う。追加がある場合にはステップS101〜ステップS104の処理を繰り返す。追加がない場合にはステップS106へ進み、対象物の設定を記憶する。   Next, as shown in step S105, it is determined whether an object is added. If there is an addition, the processing of steps S101 to S104 is repeated. If there is no addition, the process proceeds to step S106, and the setting of the object is stored.

次に、図7に沿ってコマンドの設定処理について説明する。この処理はコマンド設定部713によって行われる。先ず、ステップS201に示すように、先に設定された対象物の表示を行う。例えばディスプレイ45には対象物および切り出された領域が表示される。   Next, command setting processing will be described with reference to FIG. This process is performed by the command setting unit 713. First, as shown in step S201, the previously set target is displayed. For example, the display 45 displays the object and the cut out area.

次に、ステップS202に示すように、コマンドを割り当てる対象物の領域を選択する。この選択はユーザによるタッチパネル52やマウス等の操作によって行われる。次に、ステップS203に示すように、選択された領域に割り当てるコマンドを受け付ける。これにより、対象物の領域とコマンドとの対応付けが行われる。   Next, as shown in step S202, an area of an object to which a command is to be assigned is selected. This selection is performed by the operation of the touch panel 52 or the mouse by the user. Next, as shown in step S203, a command to be assigned to the selected area is accepted. Thereby, the correspondence between the area of the object and the command is performed.

次に、ステップS204に示すように、次にコマンドを割り当てる領域があるか否かを判断する。割り当てる領域がある場合にはステップS201〜ステップS203の処理を繰り返す。割り当てる領域がない場合には、ステップS205へ進み、それまでに設定した領域とコマンドとの対応付けを図3に示すようなテーブルTBとして記憶する。   Next, as shown in step S204, it is determined whether there is an area to which a command is to be allocated next. If there is an area to be allocated, the processing of steps S201 to S203 is repeated. If there is no area to be allocated, the process proceeds to step S205, and the correspondence between the area set up to that point and the command is stored as a table TB as shown in FIG.

次に、図8に沿ってコマンドの実行処理について説明する。この処理はコマンド実行部73によって行われる。先ず、ステップS301に示すように、パネルPRの表示を行う。例えば、ユーザによる指示を受け付けて、ディスプレイ45等に指示されたパネルPRおよび対象物の表示を行う。   Next, command execution processing will be described with reference to FIG. This process is performed by the command execution unit 73. First, as shown in step S301, the panel PR is displayed. For example, the instruction from the user is received, and the panel PR and the target object instructed on the display 45 or the like are displayed.

次に、ステップS302に示すように、対象物(領域)の選択があるか否かの判断を行う。対象物(領域)の選択があった場合には、ステップS303に示すように、選択された対象物(領域)に対応付けされたコマンドの処理を実行する。すなわち、図3に示すようなテーブルTBに基づき、選択された対象物(領域)と対応付けされたコマンドをCPU10に送る処理が行われる。これにより、対象物(領域)の選択によってコマンドが実行される。   Next, as shown in step S302, it is determined whether or not there is a selection of an object (region). When the target (area) is selected, processing of the command associated with the selected target (area) is executed as shown in step S303. That is, based on the table TB as shown in FIG. 3, processing for sending a command associated with the selected object (area) to the CPU 10 is performed. Thereby, the command is executed by the selection of the object (area).

次に、ステップS304に示すように、処理を終了するか否かの判断を行う。終了しない場合にはステップS301〜ステップS303の処理を繰り返す。   Next, as shown in step S304, it is determined whether to end the process. If the process does not end, the processes of steps S301 to S303 are repeated.

図6〜図8に示すフローチャートの処理は、コンピュータPCのCPU10で実行されるプログラムによって実現される。このプログラムは各種の記録媒体に記録されたり、ネットワークを介して配信されたりする。   The processes of the flowcharts shown in FIGS. 6 to 8 are realized by a program executed by the CPU 10 of the computer PC. This program is recorded on various recording media or distributed via a network.

(第2実施形態)
次に、第2実施形態に係る位置計測装置について説明する。
図9は、本実施形態に係る位置計測装置を例示する模式図である。
本実施形態に係る位置計測装置1は、アーム型の三次元測定装置である。位置計測装置1は、多関節アーム15の先端に取り付けられた測定ヘッド100と、測定ヘッド100による測定対象物OBの検出結果の演算および出力を行う制御装置110とを備える。制御装置110は、ディスプレイ45を含むコンピュータPCであってもよい。
Second Embodiment
Next, a position measurement device according to a second embodiment will be described.
FIG. 9 is a schematic view illustrating the position measurement device according to the present embodiment.
The position measurement device 1 according to the present embodiment is an arm-type three-dimensional measurement device. The position measurement device 1 includes a measurement head 100 attached to the tip of the articulated arm 15, and a control device 110 that calculates and outputs the detection result of the measurement object OB by the measurement head 100. Control device 110 may be a computer PC including display 45.

測定ヘッド100の先端には棒状の測定プローブ11が設けられる。測定プローブ11の先端には球状の測定子11aが設けられる。この測定子11aを測定対象物OBの検出箇所に接触させることで、接触点の座標を求めることができる。   A rod-shaped measurement probe 11 is provided at the tip of the measurement head 100. A spherical probe 11 a is provided at the tip of the measurement probe 11. The coordinates of the contact point can be determined by bringing the probe 11a into contact with the detection point of the measurement object OB.

また、測定ヘッド100にはハンドル12が設けられる。ハンドル12はユーザUSが測定ヘッド100を持つ際の握り部分である。ハンドル12にはボタン12aが設けられる。ユーザUSは、ボタン12aを押下することで、そのときの測定子11aの座標を得たり、各種処理の開始を指示したりすることができる。   In addition, the measuring head 100 is provided with a handle 12. The handle 12 is a grip portion when the user US holds the measuring head 100. The handle 12 is provided with a button 12a. By pressing the button 12a, the user US can obtain the coordinates of the probe 11a at that time, or can instruct the start of various processing.

ここで、測定ヘッド100には、接触式と非接触式とがある。そのうち、接触式の測定ヘッド100としては、測定プローブ11の測定子11aが物体に接触した際に位置信号を取得するタッチトリガープローブと、測定子11aを物体に接触させた状態でボタン12aを押下することにより位置信号を取得するハードプローブとが挙げられる。また、非接触式の測定ヘッド100としては、レーザプローブが挙げられる。レーザプローブでは、棒状の測定プローブ11の代わりに、レーザ光源及び受光素子が設けられる。レーザプローブの場合、例えばボタン12aを押下することでレーザ光源から測定対象物OBにレーザ光が照射され、その反射光を受光素子で光電変換して位置信号を得る。本実施形態で適用される測定ヘッド100は、ボタン12aを押下することで位置信号を取得するハードプローブまたはレーザプローブである。   Here, the measurement head 100 has a contact type and a non-contact type. Among them, as the contact type measurement head 100, a touch trigger probe for acquiring a position signal when the probe 11a of the measurement probe 11 contacts an object, and the button 12a is pressed in a state where the probe 11a is in contact with the object. And a hard probe for acquiring a position signal. Further, as the non-contact type measurement head 100, a laser probe may be mentioned. In the laser probe, instead of the rod-like measurement probe 11, a laser light source and a light receiving element are provided. In the case of the laser probe, for example, when the button 12a is pressed, the laser light is irradiated from the laser light source to the measurement object OB, and the reflected light is photoelectrically converted by the light receiving element to obtain a position signal. The measurement head 100 applied in the present embodiment is a hard probe or a laser probe that acquires a position signal by pressing the button 12 a.

多関節アーム15は、例えば定盤STGの上に設置される。多関節アーム15は、測定ヘッド100を支持するとともに、ハンドル12を持ったユーザUSの動きに応じて測定ヘッド100を様々の位置、方向に移動できるよう構成される。多関節アーム15は、例えば6軸を中心に回転動作可能になっている。多関節アーム15には各軸に対する角度センサ151が設けられている。ハンドル12を持ったユーザUSが測定ヘッド100を移動させることで、各軸に対する角度センサ151から各軸に対する角度が出力される。   The articulated arm 15 is installed, for example, on the surface plate STG. The articulated arm 15 is configured to support the measurement head 100 and to move the measurement head 100 to various positions and directions in accordance with the movement of the user US holding the handle 12. The articulated arm 15 can be rotated about, for example, six axes. The articulated arm 15 is provided with an angle sensor 151 with respect to each axis. When the user US holding the handle 12 moves the measuring head 100, the angle sensor 151 for each axis outputs an angle for each axis.

制御装置110は、角度センサ151から出力される角度の値などに基づき、測定ヘッド100により指定された検出箇所の座標を演算して出力する。本実施形態では、X,Y,Zの三次元座標系による座標を演算する。具体的には、測定ヘッド100の測定子11aが測定対象物OBの検出箇所に接触した際に角度センサ151から出力される角度やアームの長さ等を用いて測定子11aの接触点のX,Y,Zの座標を演算する。   The control device 110 calculates and outputs the coordinates of the detection point designated by the measuring head 100 based on the value of the angle output from the angle sensor 151 or the like. In the present embodiment, coordinates in the three-dimensional coordinate system of X, Y, Z are calculated. Specifically, when the probe 11a of the measurement head 100 contacts the detection position of the measurement object OB, the angle of the output from the angle sensor 151, the length of the arm, etc. are used to determine the contact point X of the probe 11a. , Y, Z coordinates are calculated.

本実施形態の位置計測装置1では、制御装置110が第1実施形態に係るコマンド実行システムを含んでいる。すなわち、位置計測装置1の制御や測定結果について演算処理、各種のファイル操作など、コマンドによって実行される処理が第1実施形態に係るコマンド実行システムによって行われる。   In the position measurement device 1 of the present embodiment, the control device 110 includes the command execution system according to the first embodiment. That is, the command execution system according to the first embodiment performs processing that is executed by a command, such as control of the position measurement device 1 and arithmetic processing, various file operations, and the like on the measurement results.

図10(a)〜(c)は、位置計測装置のディスプレイの表示例を示す模式図である。
図10(a)〜(c)には、位置計測装置1の制御装置110で実行される計測用のアプリケーションソフトウェアの表示例が表される。図10(a)〜(c)のそれぞれは、互いに異なるアプリケーションソフトウェアの表示例である。
FIGS. 10A to 10C are schematic views showing display examples of the display of the position measurement device.
FIGS. 10A to 10C show display examples of measurement application software executed by the control device 110 of the position measurement device 1. Each of FIGS. 10A to 10C is a display example of application software different from each other.

異なるアプリケーションソフトウェアが実行される場合でも、共通のパネルPR(対象物)が表示される。パネルPRの対象物に割り当てられたコマンドは、アプリケーションソフトウェアが異なっていても共通にすることができる。例えば、日本地図の画像MAPを対象物として設定している場合、どのアプリケーションソフトウェアであっても画像MAPを表示させて、画像MAPの所望の領域(例えば、都道府県)を選択することで、その領域に対応付けされたコマンドを実行することができる。   Even when different application software is executed, a common panel PR (object) is displayed. The commands assigned to the objects of the panel PR can be made common even if the application software is different. For example, when an image MAP of a Japanese map is set as an object, the image MAP is displayed regardless of any application software, and a desired area (for example, prefecture) of the image MAP is selected. The command associated with the area can be executed.

例えば、「北海道」に「印刷」のコマンドが割り当てられている場合、どのアプリケーションソフトウェアを実行している場合でも、「北海道」を選択することで「印刷」を実行することが可能になる。   For example, when a "print" command is assigned to "Hokkaido", "print" can be executed by selecting "Hokkaido" regardless of which application software is being executed.

また、位置計測装置1による検出結果の演算から出力までの少なくとも一部の一連の処理をコマンドとして対象物に対応付けしておいてもよい。これにより、位置計測装置1の複雑な処理であっても対象物を選択するだけで実行することができる。例えば、ユーザUSの好みの画像とコマンドとを対応付けしておくことで、そのユーザUSにとって直感的にコマンドを選択することができ、ユーザインタフェースを向上させることができる。   Further, at least a part of the series of processes from calculation of the detection result by the position measurement device 1 to output may be associated with the object as a command. As a result, even the complicated processing of the position measurement device 1 can be executed only by selecting the object. For example, by associating the user US's favorite image with the command, the user US can intuitively select the command, and the user interface can be improved.

このように、本実施形態に係るコマンド実行システムおよび位置計測装置1によれば、ユーザの感覚にマッチし、容易に機能を連想できるようにコマンドを割り当てて処理を実行させることが可能になる。   As described above, according to the command execution system and the position measurement device 1 according to the present embodiment, it is possible to execute processing by assigning a command so as to be easily associated with a function that matches the user's sense.

なお、上記に本実施形態を説明したが、本発明はこれらの例に限定されるものではない。例えば、コマンド実行システムにおいてパネルPRは平面的なものに限定されない。パネルPRは立体的な領域や仮想現実空間内の平面領域または立体領域であってもよい。また、対象物は平面的な画像や写真に限定されず、ホログラムや仮想現実空間上の立体像などであってもよい。また、前述の各実施形態に対して、当業者が適宜、構成要素の追加、削除、設計変更を行ったものや、各実施形態の特徴を適宜組み合わせたものも、本発明の要旨を備えている限り、本発明の範囲に包含される。   Although the present embodiment has been described above, the present invention is not limited to these examples. For example, in the command execution system, the panel PR is not limited to a planar one. The panel PR may be a three-dimensional area or a plane area or a three-dimensional area in the virtual reality space. Further, the object is not limited to a planar image or photograph, and may be a hologram, a three-dimensional image on a virtual reality space, or the like. Those skilled in the art may appropriately add, delete, or change the design of the components from the above-described embodiments, or may appropriately combine the features of the embodiments, and the gist of the present invention is also included. It is included in the scope of the present invention as long as it

本発明は、アーム型の三次元測定装置測定以外にも、アームを用いない無線式の測定ヘッド100を用いた三次元測定装置や画像測定装置など他の計測装置であっても好適に利用できる。   The present invention can be suitably used for other measurement devices such as a three-dimensional measurement device and an image measurement device using a wireless measurement head 100 without using an arm, in addition to the arm-type three-dimensional measurement device measurement. .

1…位置計測装置
10…CPU
11…測定プローブ
11a…測定子
12…ハンドル
12a…ボタン
15…多関節アーム
20…記憶装置
30…演算装置
40…表示制御部
45…ディスプレイ
50…入出力制御部
51…キーボード
52…タッチパネル
60…外部機器制御部
71…パネル生成部
72…パネル操作部
73…コマンド実行部
100…測定ヘッド
110…制御装置
151…角度センサ
711…割り当て領域設定部
712…対象物設定部
713…コマンド設定部
721…選択受付部
722…表示移動部
DR…表示領域
GP…画像
IMG−1…画像
IMG−2…画像
IMG−3…画像
MAP…画像
OB…測定対象物
PH−1…写真
PH−2…写真
PH−3…写真
PR…パネル
STG…定盤
STR…画像
TB…テーブル
US…ユーザ
1 ... Position measurement device 10 ... CPU
11: Measurement probe 11a: Measuring element 12: Handle 12a: Button 15: Multi-joint arm 20: Storage device 30: Arithmetic device 40: Display control unit 45: Display 50: Input / output control unit 51: Keyboard 52: Touch panel 60: External Device control unit 71 panel generation unit 72 panel operation unit 73 command execution unit 100 measurement head 110 control device 151 angle sensor 711 assignment area setting unit 712 object setting unit 713 command setting unit 721 selection Reception part 722 ... Display movement part DR ... Display area GP ... Image IMG-1 ... Image IMG-2 ... Image IMG-3 ... Image MAP ... Image OB ... Measurement object PH-1 ... Photo PH-2 ... Photo PH-3 ... Photo PR ... Panel STG ... Plated plate STR ... Image TB ... Table US ... User

Claims (11)

ユーザによって選択されたコマンドを受け付けてコンピュータの演算部に実行させるコマンド実行システムであって、
前記コンピュータによる情報の表示領域において前記ユーザの指示に応じて割り当て領域を設定する割り当て領域設定部と、
前記ユーザの指示に応じて前記割り当て領域内の対象物を設定する対象物設定部と、
前記対象物とコマンドとの対応付けを設定するコマンド設定部と、
前記ユーザによる前記対象物の選択を受け付ける選択受付部と、
前記選択受付部で受け付けた前記対象物と対応付けされた前記コマンドを前記演算部に実行させるコマンド実行部と、
を備え、
前記対象物設定部は、複数の前記対象物の設定を行うとともに、前記割り当て領域での特定の方向における前記複数の対象物の上下の重なりの情報を設定し、
前記選択受付部は、前記ユーザが前記複数の対象物の重なる領域を指定した場合に前記対象物設定部で設定された前記重なりの情報に基づき上になる前記対象物の選択を受け付けることを特徴とするコマンド実行システム。
A command execution system that receives a command selected by a user and causes a computing unit of a computer to execute the command.
An allocation area setting unit configured to set an allocation area according to an instruction from the user in the display area of information by the computer;
An object setting unit configured to set an object in the allocation area according to an instruction of the user;
A command setting unit configured to set an association between the target and a command;
A selection receiving unit that receives the selection of the object by the user;
A command execution unit that causes the calculation unit to execute the command associated with the object received by the selection reception unit;
Equipped with
The object setting unit sets a plurality of the objects, and sets upper and lower overlap information of the plurality of objects in a specific direction in the allocation area,
The selection receiving unit is characterized in that, when the user designates an overlapping area of the plurality of objects, the selection receiving unit receives the selection of the object which is on the basis of the overlapping information set by the object setting unit. Command execution system.
前記対象物は、前記割り当て領域内において立体的に表示されることを特徴とする請求項1に記載のコマンド実行システム。   The command execution system according to claim 1, wherein the object is three-dimensionally displayed in the assignment area. ユーザによって選択されたコマンドを受け付けてコンピュータの演算部に実行させるコマンド実行システムであって、
前記コンピュータによる情報の表示領域において前記ユーザの指示に応じて割り当て領域を設定する割り当て領域設定部と、
前記ユーザの指示に応じて前記割り当て領域内の対象物を設定する対象物設定部と、
前記対象物とコマンドとの対応付けを設定するコマンド設定部と、
前記ユーザによる前記対象物の選択を受け付ける選択受付部と、
前記選択受付部で受け付けた前記対象物と対応付けされた前記コマンドを前記演算部に実行させるコマンド実行部と、
を備え、
前記対象物設定部は、複数の前記対象物の設定を行うとともに、前記割り当て領域での特定の方向における前記複数の対象物の上下の重なりの情報を設定し、
前記選択受付部は、前記ユーザが前記複数の対象物の重なる領域を指定した場合に前記対象物設定部で設定された前記重なりの情報に基づき上になる前記対象物の選択を受け付け、
前記対象物は、前記表示領域において、立体的に表示されることを特徴とするコマンド実行システム。
A command execution system that receives a command selected by a user and causes a computing unit of a computer to execute the command.
An allocation area setting unit configured to set an allocation area according to an instruction from the user in the display area of information by the computer;
An object setting unit configured to set an object in the allocation area according to an instruction of the user;
A command setting unit configured to set an association between the target and a command;
A selection receiving unit that receives the selection of the object by the user;
A command execution unit that causes the calculation unit to execute the command associated with the object received by the selection reception unit;
Equipped with
The object setting unit sets a plurality of the objects, and sets upper and lower overlap information of the plurality of objects in a specific direction in the allocation area,
The selection receiving unit receives a selection of the target that is on the basis of the overlapping information set by the target setting unit when the user designates an overlapping area of the plurality of targets.
The said command object is three-dimensionally displayed in the said display area, The command execution system characterized by the above-mentioned.
前記対象物は、前記コンピュータによる情報の表示領域において、ホログラムとして表示されることを特徴とする請求項3に記載のコマンド実行システム。   The command execution system according to claim 3, wherein the object is displayed as a hologram in a display area of information by the computer. 前記対象物は、前記コンピュータによる情報の表示領域において、仮想現実空間上の立体像として表示されることを特徴とする請求項3に記載のコマンド実行システム。   The command execution system according to claim 3, wherein the object is displayed as a three-dimensional image in a virtual reality space in a display area of information by the computer. 前記コマンド設定部は、1つの前記コマンドに対して複数のアプリケーションを対応付けし、
前記コマンド実行部は、前記複数のアプリケーションのうちアクティブなアプリケーションに対して前記コマンドに応じた処理を実行させることを特徴とする請求項1〜のいずれか1つに記載のコマンド実行システム。
The command setting unit associates a plurality of applications with one command.
The command execution system according to any one of claims 1 to 5 , wherein the command execution unit causes an active application among the plurality of applications to execute a process according to the command.
前記ユーザの指示に応じて前記表示領域内での前記割り当て領域の位置を移動させる表示移動部をさらに備え、
前記対象物設定部は、前記表示移動部によって前記割り当て領域の位置が移動した際に前記割り当て領域の移動に合わせて前記対象物の位置を移動させることを特徴とする請求項1〜のいずれか1つに記載のコマンド実行システム。
The apparatus further comprises a display moving unit that moves the position of the allocation area in the display area in accordance with an instruction of the user.
The object setting unit, one of the claims 1-6, characterized in that moving the position of the allocated the object in accordance with the movement of area when the position of the assigned area by said display mobile unit has moved Command execution system described in one.
前記コマンド設定部は、1つの前記対象物に対応して複数の前記コマンドおよび前記複数のコマンドの処理順を対応付けして設定することを特徴とする請求項1〜のいずれか1つに記載のコマンド実行システム。 8. The command setting unit according to any one of claims 1 to 7 , wherein the command setting unit sets the processing order of the plurality of commands and the plurality of commands in association with each other for one target object. Described command execution system. 前記割り当て領域は1つの画像ファイルによる出力領域であり、
前記対象物は、前記画像ファイル内の特定の絵柄であることを特徴とする請求項1〜のいずれか1つに記載のコマンド実行システム。
The allocation area is an output area by one image file,
The command execution system according to any one of claims 1 to 8 , wherein the object is a specific pattern in the image file.
測定対象物の所定の座標系における位置を検出する測定ヘッドと、
前記測定ヘッドによる検出結果の演算および出力を行う制御装置と、
を備え、
前記制御装置は、請求項1〜のいずれか1つに記載のコマンド実行システムを含む位置計測装置。
A measuring head for detecting the position of a measurement object in a predetermined coordinate system;
A control device for calculating and outputting a detection result by the measurement head;
Equipped with
A position measurement device including the command execution system according to any one of claims 1 to 9 , wherein the control device.
前記コマンド設定部は、前記検出結果の演算から出力までの少なくとも一部の一連の処理を前記コマンドとして前記対象物に対応付けすることを特徴とする請求項10に記載の位置計測装置。 The position measurement device according to claim 10 , wherein the command setting unit associates at least a part of a series of processes from calculation of the detection result to output as the command.
JP2015049493A 2015-03-12 2015-03-12 Command execution system and position measurement device Active JP6548923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015049493A JP6548923B2 (en) 2015-03-12 2015-03-12 Command execution system and position measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015049493A JP6548923B2 (en) 2015-03-12 2015-03-12 Command execution system and position measurement device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019099138A Division JP2019169180A (en) 2019-05-28 2019-05-28 Command execution system and position measurement device

Publications (2)

Publication Number Publication Date
JP2016170596A JP2016170596A (en) 2016-09-23
JP6548923B2 true JP6548923B2 (en) 2019-07-24

Family

ID=56983865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015049493A Active JP6548923B2 (en) 2015-03-12 2015-03-12 Command execution system and position measurement device

Country Status (1)

Country Link
JP (1) JP6548923B2 (en)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07151512A (en) * 1993-10-05 1995-06-16 Mitsutoyo Corp Operating device of three dimensional measuring machine
JPH09325845A (en) * 1996-06-05 1997-12-16 Alpine Electron Inc Operation instruction method using touch panel
JP2003067048A (en) * 1998-04-08 2003-03-07 Hitachi Ltd Information processor
JP2005108041A (en) * 2003-09-30 2005-04-21 Toshiba Corp Method for displaying menu screen on portable terminal and portable terminal
JP4317774B2 (en) * 2004-02-26 2009-08-19 任天堂株式会社 Game device and game program using touch panel
WO2008010276A1 (en) * 2006-07-20 2008-01-24 Navitime Japan Co., Ltd. Map display system, map display device, map display method, and map distribution server
KR101382504B1 (en) * 2007-05-21 2014-04-07 삼성전자주식회사 Apparatus and method for making macro
JP4024835B2 (en) * 2007-06-25 2007-12-19 富士通株式会社 Icon management method, icon usage method and icon usage program
CN102713498B (en) * 2010-01-20 2014-07-16 法罗技术股份有限公司 Mounting device for a coordinate measuring machine
JP2013092988A (en) * 2011-10-27 2013-05-16 Kyocera Corp Device, method, and program
JP6184053B2 (en) * 2012-01-18 2017-08-23 キヤノン株式会社 Information terminal, display control method, and program
CN103891305B (en) * 2012-03-12 2017-05-17 株式会社Ntt都科摩 Remote control system, remote control method and communication device
JP6082554B2 (en) * 2012-09-26 2017-02-15 京セラ株式会社 Mobile terminal device, program, and control method for mobile terminal device
JP5905417B2 (en) * 2013-07-29 2016-04-20 京セラ株式会社 Mobile terminal and display control method

Also Published As

Publication number Publication date
JP2016170596A (en) 2016-09-23

Similar Documents

Publication Publication Date Title
JP6364241B2 (en) Inspection support device, inspection support method, inspection support program
US9324305B2 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
JP6469706B2 (en) Modeling structures using depth sensors
JP5807686B2 (en) Image processing apparatus, image processing method, and program
CN111344663B (en) Rendering device and rendering method
US8922351B2 (en) Display apparatus, information processing system, recording medium and television receiver
JP5507773B1 (en) Element selection device, element selection method, and program
JP2012185297A (en) Multi-display system, information processing terminal device, information processing method, and computer program
CN109648568A (en) Robot control method, system and storage medium
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
CN111913674A (en) Virtual content display method, device, system, terminal equipment and storage medium
JP6548923B2 (en) Command execution system and position measurement device
US9319600B2 (en) Information processing apparatus, information processing method and computer program product
JP6889686B2 (en) Information processing equipment, information processing system, information processing program and information processing method
JP2019169180A (en) Command execution system and position measurement device
JP2014010808A (en) Content display device, content providing system and content display method
JP2012208593A (en) Display object input operation terminal, display object management apparatus, display object input and display system, display object input and display method, and display object management program
JP2016119019A (en) Information processing apparatus, information processing method, and program
US9787731B2 (en) Dynamically determining workspace bounds during a collaboration session
JP6722239B2 (en) Information processing device, input method, and program
JP2017021495A (en) 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method
JP6329032B2 (en) Touch panel system and touch panel device
JP2015079291A (en) Information processing device, information processing system and program
JP6458373B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP6483889B2 (en) Touch panel device, touch panel system, information display method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R150 Certificate of patent or registration of utility model

Ref document number: 6548923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250