JP7078403B2 - Image measuring machine and program - Google Patents

Image measuring machine and program Download PDF

Info

Publication number
JP7078403B2
JP7078403B2 JP2018003148A JP2018003148A JP7078403B2 JP 7078403 B2 JP7078403 B2 JP 7078403B2 JP 2018003148 A JP2018003148 A JP 2018003148A JP 2018003148 A JP2018003148 A JP 2018003148A JP 7078403 B2 JP7078403 B2 JP 7078403B2
Authority
JP
Japan
Prior art keywords
touch panel
image measuring
panel display
measuring machine
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018003148A
Other languages
Japanese (ja)
Other versions
JP2019124476A (en
Inventor
玉武 張
浩一 小松
拓 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2018003148A priority Critical patent/JP7078403B2/en
Priority to US16/238,928 priority patent/US10656780B2/en
Priority to DE102019200284.6A priority patent/DE102019200284A1/en
Priority to CN201910028062.6A priority patent/CN110032306A/en
Publication of JP2019124476A publication Critical patent/JP2019124476A/en
Priority to US16/817,711 priority patent/US20200210049A1/en
Priority to US17/307,048 priority patent/US11314374B2/en
Priority to US17/705,936 priority patent/US11656733B2/en
Application granted granted Critical
Publication of JP7078403B2 publication Critical patent/JP7078403B2/en
Priority to US18/299,905 priority patent/US20230251753A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、タッチパネルディスプレイからコマンドをタッチ入力する画像測定機およびプログラムに関する。 The present invention relates to an image measuring machine and a program for touch-inputting commands from a touch panel display.

測定対象物を撮像して得られる画像を用いて、測定対象物の寸法や形状を測定及び評価する測定装置として画像測定機が用いられる。画像測定機では、撮像した測定対象物の画像に含まれる測定対象図形のエッジ情報(位置座標など)を取得し、エッジ情報に基づいて測定対象物の形状や寸法の評価を行う。 An image measuring device is used as a measuring device for measuring and evaluating the dimensions and shape of a measuring object by using an image obtained by imaging the object to be measured. The image measuring machine acquires edge information (positional coordinates, etc.) of the measurement target figure included in the captured image of the measurement target, and evaluates the shape and dimensions of the measurement target based on the edge information.

近年、タッチパネルディスプレイの普及に伴い、ディスプレイなどに触れることで操作できる直感的に使いやすいユーザインタフェースとして、いわゆるタッチインタフェースが広く利用されるようになってきており、画像測定機にも応用されている(例えば、特許文献1参照)。 In recent years, with the spread of touch panel displays, so-called touch interfaces have come to be widely used as intuitive and easy-to-use user interfaces that can be operated by touching a display or the like, and are also applied to image measuring machines. (See, for example, Patent Document 1).

タッチインタフェースにおける入力操作では、タップ、ダブルタップ、ロングタップ、フリック、スワイプ、ローテートなど、タッチインタフェース上における指の動作や接触状態が異なるさまざまなジェスチャを利用してコマンド入力を実現している。ジェスチャは、1本の指で行うものが多い。 In the input operation on the touch interface, command input is realized by using various gestures such as tap, double tap, long tap, flick, swipe, rotate, etc., which have different finger movements and contact states on the touch interface. Gestures are often done with one finger.

画像測定機へのコマンド入力にタッチインタフェースを採用する場合、画像測定機で使用されるコマンドの中には、コマンドの実行によりステージの移動やフォーカスなど装置の物理的な移動や運動を伴うものがある。このようなコマンド入力に対して1本の指で行うジェスチャを割り当てると、タッチパネルディスプレイへの意図せぬ接触により誤ってコマンドが入力され、最悪の場合、測定対象物と装置とが接触するなどの事故が生じる恐れがある。 When a touch interface is used to input commands to an image measuring machine, some commands used in the image measuring machine involve physical movement or movement of the device such as stage movement or focus due to command execution. be. If a gesture performed with one finger is assigned to such a command input, the command is erroneously input due to an unintended contact with the touch panel display, and in the worst case, the measurement object and the device come into contact with each other. There is a risk of accidents.

特開2016-173703号公報Japanese Unexamined Patent Publication No. 2016-173703

このような問題に鑑みて、本発明は、タッチパネルディスプレイへの意図せぬ接触による誤動作が生じにくい画像測定機およびプログラムを提供する事を目的とする。 In view of such problems, it is an object of the present invention to provide an image measuring device and a program in which malfunction due to unintended contact with a touch panel display is unlikely to occur.

本発明の画像測定機は、測定対象物を撮像し、タッチパネルディスプレイに表示された前記測定対象物の撮像画像に基づき、測定対象物の寸法や形状を測定する画像測定機であって、タッチパネルディスプレイに対して接触入力されたジェスチャに応じタッチパネルディスプレイから出力された信号から、当該ジェスチャに対応するコマンドを特定し、当該コマンドの実行対象の画像測定機の部位に対して当該コマンドを実行する制御手段を備え、ジェスチャは2点以上の同時接触状態で行われるジェスチャであることを特徴とする。 The image measuring machine of the present invention is an image measuring machine that captures an image of a measurement object and measures the dimensions and shape of the measurement object based on the captured image of the measurement object displayed on the touch panel display, and is a touch panel display. A control means that identifies a command corresponding to the gesture from the signal output from the touch panel display in response to the gesture input to the contact, and executes the command to the part of the image measuring machine to be executed. The gesture is characterized in that it is a gesture performed in a state of simultaneous contact of two or more points.

コマンドは、例えば、画像測定機の部位に何らかの物理的な移動・運動をさせるコマンドである。 The command is, for example, a command for causing some physical movement / movement of a part of an image measuring machine.

また、2点以上の同時接触状態で行われるジェスチャは、例えば、タップ、ダブルタップ、ロングタップ、フリック、スワイプ、又はローテートなどである。 Gestures performed in a state of simultaneous contact of two or more points are, for example, tap, double tap, long tap, flick, swipe, or rotate.

制御手段の機能をプログラムに記述し、コンピュータにより実行することで、制御手段の機能を実現してもよい。 The function of the control means may be realized by describing the function of the control means in a program and executing the function by a computer.

本発明により、タッチパネルディスプレイへの意図せぬ接触による誤動作が生じにくい画像測定機およびプログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an image measuring device and a program in which malfunction due to unintended contact with a touch panel display is unlikely to occur.

画像測定機の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of an image measuring machine. コンピュータシステムの機能ブロックを示す図である。It is a figure which shows the functional block of a computer system. タッチパネルディスプレイに表示される表示画面の例を示す図である。It is a figure which shows the example of the display screen displayed on the touch panel display. 2指でのタッチパネルディスプレイへの同時接触状態の例を示す図である。It is a figure which shows the example of the simultaneous contact state to the touch panel display with two fingers.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same members are designated by the same reference numerals, and the description of the members once described will be omitted as appropriate.

〔画像測定機の構成〕
図1は、画像測定機の全体構成の一例を示している。画像測定機1は、ステージ100と、筐体110と、コンピュータシステム140とを備える。ステージ100は、その上面が水平面と一致するように配置され、当該上面に測定対象物Wが載置される。ステージ100は、モータ、又は、ハンドル101若しくは102の回転操作により、少なくともX軸方向及びY軸方向に移動可能とされる。筐体110は、透過照明や落射照明などの照明装置を含む光学系や撮像素子を内包するとともに、モータ又はハンドル112の回転操作により、筐体110自身を光学系及び撮像素子とともにZ軸方向に移動可能とする。
[Configuration of image measuring machine]
FIG. 1 shows an example of the overall configuration of an image measuring machine. The image measuring machine 1 includes a stage 100, a housing 110, and a computer system 140. The upper surface of the stage 100 is arranged so as to coincide with the horizontal plane, and the object W to be measured is placed on the upper surface. The stage 100 can be moved at least in the X-axis direction and the Y-axis direction by the rotation operation of the motor or the handle 101 or 102. The housing 110 includes an optical system including a lighting device such as transmission lighting and epi-illumination and an image pickup element, and the housing 110 itself is moved in the Z-axis direction together with the optical system and the image pickup element by rotating the motor or the handle 112. Make it movable.

コンピュータシステム140は、ステージ100や筐体110を制御して測定対象物Wの撮像画像を取得したり、ユーザに操作環境を提供したりする。コンピュータシステム140は、例えばコンピュータ本体141、キーボード142、マウス143、及びタッチパネルディスプレイ144を備える。コンピュータ本体141は、制御ボード等の回路(ハードウェア)及びCPUで実行されるプログラム(ソフトウェア)によってステージ100や筐体110の動作を制御する。また、コンピュータ本体141は、ステージ100や筐体110から出力される信号に基づき測定対象物Wの情報を取得・演算し、演算結果をタッチパネルディスプレイ144に表示する処理を行う。キーボード142及びマウス143は、コンピュータ本体141に対する入力手段である。タッチパネルディスプレイ144は、コンピュータ本体が出力する画像を表示する表示手段として機能するほか、画面に対する接触による操作を検出しコンピュータ本体141に入力する入力手段としても機能する。 The computer system 140 controls the stage 100 and the housing 110 to acquire a captured image of the measurement target W, and provides an operation environment to the user. The computer system 140 includes, for example, a computer body 141, a keyboard 142, a mouse 143, and a touch panel display 144. The computer main body 141 controls the operation of the stage 100 and the housing 110 by a circuit (hardware) such as a control board and a program (software) executed by the CPU. Further, the computer main body 141 acquires and calculates the information of the measurement object W based on the signals output from the stage 100 and the housing 110, and performs a process of displaying the calculation result on the touch panel display 144. The keyboard 142 and the mouse 143 are input means for the computer body 141. The touch panel display 144 functions not only as a display means for displaying an image output by the computer main body, but also as an input means for detecting an operation due to contact with the screen and inputting the image to the computer main body 141.

図2はコンピュータシステム140の機能ブロック図を示している。コンピュータシステム140の機能ブロックとしては、CPU(Central Processing Unit)211、インタフェース212、出力部213、入力部214、主記憶部215及び副記憶部216が設けられる。 FIG. 2 shows a functional block diagram of the computer system 140. As functional blocks of the computer system 140, a CPU (Central Processing Unit) 211, an interface 212, an output unit 213, an input unit 214, a main storage unit 215, and a sub storage unit 216 are provided.

CPU211は、各種プログラムの実行によって各部を制御する。インタフェース212は、例えば、ステージ100や筐体110から送られる情報をコンピュータシステム140に取り込む、コンピュータシステム140から情報をステージ100や筐体110へ送る、コンピュータシステム140をLAN(Local Area Network)やWAN(Wide Area Network)に接続する等の役割を持つ、外部機器との情報入出力を行う部分である。 The CPU 211 controls each part by executing various programs. The interface 212, for example, takes in information sent from the stage 100 or the housing 110 into the computer system 140, sends information from the computer system 140 to the stage 100 or the housing 110, and connects the computer system 140 to a LAN (Local Area Network) or WAN. It is a part that inputs and outputs information with external devices, such as connecting to (Wide Area Network).

出力部213は、コンピュータシステム140で処理した結果を出力する。出力部213は、例えば、図1に示すタッチパネルディスプレイ144や、プリンタなどが用いられる。入力部214は、オペレータから情報を受け付ける。入力部214には、例えば、図1に示すキーボード142、マウス143、タッチパネルディスプレイ144などが用いられる。また、入力部214は、記録媒体MMに記録された情報を読み取る機能を含む。 The output unit 213 outputs the result processed by the computer system 140. As the output unit 213, for example, the touch panel display 144 shown in FIG. 1, a printer, or the like is used. The input unit 214 receives information from the operator. For the input unit 214, for example, the keyboard 142, the mouse 143, the touch panel display 144, and the like shown in FIG. 1 are used. Further, the input unit 214 includes a function of reading the information recorded on the recording medium MM.

主記憶部215には、例えばRAM(Random Access Memory)が用いられる。主記憶部215の一部として、副記憶部216の一部が用いられてもよい。副記憶部216には、例えばHDD(Hard disk drive)やSSD(Solid State Drive)が用いられる。副記憶部216は、ネット測定対象物を介して接続された外部記憶装置であってもよい。これらの記憶部に、画像表示プログラムや本発明における制御手段の機能が記述された制御プログラムが記憶され、これらのプログラムがCPUに読み出され実行されることで制御手段の機能等が実現される。 For the main storage unit 215, for example, a RAM (Random Access Memory) is used. As a part of the main storage unit 215, a part of the sub storage unit 216 may be used. For the sub-storage unit 216, for example, an HDD (Hard disk drive) or SSD (Solid State Drive) is used. The sub-storage unit 216 may be an external storage device connected via a net measurement object. An image display program and a control program in which the functions of the control means in the present invention are described are stored in these storage units, and the functions of the control means are realized by reading and executing these programs by the CPU. ..

図3は、画像表示プログラムの実行によってタッチパネルディスプレイ144に表示されるメインウインドウMWの例を示す図である。メインウインドウMWの中には、撮像された測定対象物Wの撮像画像WGが表示されるワークウインドウWWを含む、必要に応じた複数のウインドウが表示される。 FIG. 3 is a diagram showing an example of a main window MW displayed on the touch panel display 144 by executing an image display program. In the main window MW, a plurality of windows are displayed as needed, including a work window WW in which the captured image WG of the captured object W is displayed.

〔タッチパネルディスプレイへのジェスチャの接触入力に対する動作〕
コンピュータ本体141のCPU211で実行される制御プログラムは、タッチパネルディスプレイ144に対して接触入力されたジェスチャに応じてタッチパネルディスプレイ144から出力された信号から、当該ジェスチャに対応するコマンドを特定し、当該コマンドの実行対象の画像測定機1のステージ100や筐体110などの部位に対して当該コマンドを実行する。
[Operation for contact input of gesture to touch panel display]
The control program executed by the CPU 211 of the computer main body 141 identifies a command corresponding to the gesture from the signal output from the touch panel display 144 in response to the gesture input in contact with the touch panel display 144, and the command corresponds to the gesture. The command is executed for a part such as the stage 100 or the housing 110 of the image measuring machine 1 to be executed.

入力されるジェスチャは、2点以上(例えば指であれば2指以上)のタッチパネルディスプレイ144への同時接触状態で行われるジェスチャであり、具体的には例えば、タップ、ダブルタップ、ロングタップ、フリック、スワイプ、又はローテートなどが挙げられるが、2点以上の同時接触で行われるものであれば、その他のジェスチャでも構わない。図4は、2指でのタッチパネルディスプレイ144への同時接触状態の例を示す図である。 The gesture to be input is a gesture performed in a state of simultaneous contact with the touch panel display 144 of two or more points (for example, two or more fingers if it is a finger). Specifically, for example, tap, double tap, long tap, flick. , Swipe, rotate, etc., but other gestures may be used as long as they are performed by simultaneous contact of two or more points. FIG. 4 is a diagram showing an example of a simultaneous contact state with the touch panel display 144 with two fingers.

ジェスチャに対応するコマンドは任意であるが、2点以上の同時接触が要求されることで、タッチパネルへの意図せぬ接触によりコマンドが入力されて誤動作する危険性が軽減されるため、入力に際しての安全性が求められるコマンドへの適用が好適である。例えば、画像測定機1のステージ100や筐体110などの部位に物理的な移動・運動をさせるコマンドなどが挙げられる。 The command corresponding to the gesture is arbitrary, but since simultaneous contact of two or more points is required, the risk of malfunction due to command input due to unintended contact with the touch panel is reduced, so when inputting It is suitable for application to commands that require safety. For example, a command for physically moving or moving a portion such as the stage 100 or the housing 110 of the image measuring device 1 can be mentioned.

ジェスチャに対するコマンドの割り当て方として、具体的には次のような例が挙げられる。
(1) タッチパネルディスプレイ144に表示された測定対象物Wの撮像画像WG上において2点以上の同時接触状態でX軸又はY軸方向に行うスワイプに対して、ステージ100をX軸又はY軸方向に移動させるモータの駆動コマンドをそれぞれ割り当てる。
(2) タッチパネルディスプレイ144に表示された測定対象物Wの撮像画像WG上において2点以上の同時接触状態で行うタップに対して、撮像画像WGがワークウインドウWWの中心に表示されるようにステージ100を移動させるモータの駆動コマンドを割り当てる。
(3) タッチパネルディスプレイ144に表示された測定対象物Wの撮像画像WG上において2点以上の同時接触状態で行うダブルタップに対して、筐体110の光学系に対しオートフォーカスを実行させるコマンドを割り当てる。
(4) タッチパネルディスプレイ144に表示された測定対象物Wの撮像画像WG上において2点以上の同時接触状態で行うローテートに対して、筐体110の光学系をZ軸方向に低速で移動させるモータの駆動コマンドを割り当てる。
Specific examples of how to assign commands to gestures include the following.
(1) The stage 100 is moved in the X-axis or Y-axis direction with respect to a swipe performed in the X-axis or Y-axis direction in a state of simultaneous contact of two or more points on the captured image WG of the measurement object W displayed on the touch panel display 144. Assign the drive commands of the motors to be moved to.
(2) The stage so that the captured image WG is displayed in the center of the work window WW for taps performed in a state of simultaneous contact of two or more points on the captured image WG of the measurement object W displayed on the touch panel display 144. Assign a drive command for the motor to move 100.
(3) A command to execute autofocus on the optical system of the housing 110 for a double tap performed in a state of simultaneous contact of two or more points on the captured image WG of the measurement object W displayed on the touch panel display 144. assign.
(4) A motor that moves the optical system of the housing 110 at a low speed in the Z-axis direction with respect to the rotation performed in the simultaneous contact state of two or more points on the captured image WG of the measurement object W displayed on the touch panel display 144. Assign the drive command of.

このような対応関係は、例えば、副記憶部216に記憶しておき制御プログラムの実行時に参照にしてもよいし、制御プログラム自体に書き込んでおいてもよい。 Such a correspondence may be stored in the sub-storage unit 216 and referred to when the control program is executed, or may be written in the control program itself.

なお、以上説明した本発明は、上記実施形態に限定されるものではない。上記実施形態は例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。すなわち、本発明において表現されている技術的思想の範囲内で適宜変更が可能であり、その様な変更や改良を加えた形態も本発明の技術的範囲に含む。 The present invention described above is not limited to the above embodiment. The above-described embodiment is an example, and any one having substantially the same structure as the technical idea described in the claims of the present invention and having the same effect and effect is the present invention. Is included in the technical scope of. That is, it can be appropriately changed within the scope of the technical idea expressed in the present invention, and the form to which such a change or improvement is added is also included in the technical scope of the present invention.

1…画像測定機
100…ステージ
101、102、112…ハンドル
110…筐体
140…コンピュータシステム
141…コンピュータ本体
142…キーボード
143…マウス
144…タッチパネルディスプレイ
211…CPU
212…インタフェース
213…出力部
214…入力部
215…主記憶部
216…副記憶部
MM…記録媒体
MW…メインウインドウ
W…測定対象物
WW…ワークウインドウ
WG…撮像画像
1 ... Image measuring machine 100 ... Stages 101, 102, 112 ... Handle 110 ... Housing 140 ... Computer system 141 ... Computer body 142 ... Keyboard 143 ... Mouse 144 ... Touch panel display 211 ... CPU
212 ... Interface 213 ... Output unit 214 ... Input unit 215 ... Main storage unit 216 ... Sub storage unit MM ... Recording medium MW ... Main window W ... Measurement target WW ... Work window WG ... Captured image

Claims (3)

測定対象物を撮像し、タッチパネルディスプレイに表示された前記測定対象物の撮像画像に基づき、前記測定対象物の寸法や形状を測定する画像測定機であって、
前記タッチパネルディスプレイに対して接触入力されたジェスチャに応じ前記タッチパネルディスプレイから出力された信号から、当該ジェスチャに対応するコマンドを特定し、当該コマンドの実行対象の前記画像測定機の部位に対して当該コマンドを実行する制御手段を備え、
前記ジェスチャは2点以上の同時接触状態で行われるジェスチャであり、
前記コマンドには、前記画像測定機の部位に物理的な移動・運動をさせるコマンドが含まれる
ことを特徴とする画像測定機。
An image measuring machine that captures an image of a measurement object and measures the dimensions and shape of the measurement object based on the captured image of the measurement object displayed on the touch panel display.
A command corresponding to the gesture is specified from the signal output from the touch panel display in response to the gesture input by contact with the touch panel display, and the command is given to the part of the image measuring machine to be executed. Equipped with control means to execute
The gesture is a gesture performed in a state of simultaneous contact of two or more points .
The command includes a command for physically moving / moving the part of the image measuring machine.
An image measuring machine characterized by that.
前記2点以上の同時接触状態で行われるジェスチャは、タップ、ダブルタップ、ロングタップ、フリック、スワイプ、又はローテートであることを特徴とする請求項1に記載の画像測定機。 The image measuring device according to claim 1, wherein the gesture performed in the state of simultaneous contact of two or more points is a tap, a double tap, a long tap, a flick, a swipe, or a rotate. コンピュータを請求項1又は2に記載の制御手段として機能させるためのプログラム。
A program for operating a computer as the control means according to claim 1 or 2 .
JP2018003148A 2018-01-12 2018-01-12 Image measuring machine and program Active JP7078403B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2018003148A JP7078403B2 (en) 2018-01-12 2018-01-12 Image measuring machine and program
US16/238,928 US10656780B2 (en) 2018-01-12 2019-01-03 Position specifying method and program
DE102019200284.6A DE102019200284A1 (en) 2018-01-12 2019-01-11 Method and program for specifying a position
CN201910028062.6A CN110032306A (en) 2018-01-12 2019-01-11 Position designation method and storage medium
US16/817,711 US20200210049A1 (en) 2018-01-12 2020-03-13 Position specifying method and program
US17/307,048 US11314374B2 (en) 2018-01-12 2021-05-04 Position specifying method and program
US17/705,936 US11656733B2 (en) 2018-01-12 2022-03-28 Position specifying method and program
US18/299,905 US20230251753A1 (en) 2018-01-12 2023-04-13 Position specifying method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003148A JP7078403B2 (en) 2018-01-12 2018-01-12 Image measuring machine and program

Publications (2)

Publication Number Publication Date
JP2019124476A JP2019124476A (en) 2019-07-25
JP7078403B2 true JP7078403B2 (en) 2022-05-31

Family

ID=67398744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003148A Active JP7078403B2 (en) 2018-01-12 2018-01-12 Image measuring machine and program

Country Status (1)

Country Link
JP (1) JP7078403B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124688A (en) * 2018-01-12 2019-07-25 株式会社ミツトヨ Image measuring instrument and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096035A (en) 2012-11-09 2014-05-22 Omron Corp Control device and control program
JP2016173703A (en) 2015-03-17 2016-09-29 株式会社ミツトヨ Method of supporting input operation using touch display unit
JP2017049152A (en) 2015-09-03 2017-03-09 株式会社 日立産業制御ソリューションズ Crack width measuring system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04105005A (en) * 1990-08-27 1992-04-07 Toshiba Corp Image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096035A (en) 2012-11-09 2014-05-22 Omron Corp Control device and control program
JP2016173703A (en) 2015-03-17 2016-09-29 株式会社ミツトヨ Method of supporting input operation using touch display unit
JP2017049152A (en) 2015-09-03 2017-03-09 株式会社 日立産業制御ソリューションズ Crack width measuring system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124688A (en) * 2018-01-12 2019-07-25 株式会社ミツトヨ Image measuring instrument and program
JP7232054B2 (en) 2018-01-12 2023-03-02 株式会社ミツトヨ Image measuring machine and program

Also Published As

Publication number Publication date
JP2019124476A (en) 2019-07-25

Similar Documents

Publication Publication Date Title
US8525776B2 (en) Techniques for controlling operation of a device with a virtual touchscreen
US8446389B2 (en) Techniques for creating a virtual touchscreen
US11752432B2 (en) Information processing device and method of causing computer to perform game program
JP5659586B2 (en) Display control device, display control method, display control program, and recording medium
JP2014241139A (en) Virtual touchpad
KR20150103240A (en) Depth-based user interface gesture control
US20190220185A1 (en) Image measurement apparatus and computer readable medium
US8631317B2 (en) Manipulating display of document pages on a touchscreen computing device
JP5449630B1 (en) Programmable display and its screen operation processing program
JP2010224663A5 (en)
TW201523420A (en) Information processing device, information processing method, and computer program
US20140267049A1 (en) Layered and split keyboard for full 3d interaction on mobile devices
KR20130137069A (en) Method of simulating the touch screen operation by means of a mouse
JP7078403B2 (en) Image measuring machine and program
JP6969516B2 (en) Programs and information processing equipment
US10564762B2 (en) Electronic apparatus and control method thereof
JPH11338120A (en) Layout device
CN111142775A (en) Gesture interaction method and device
US20160328491A1 (en) Precise object manipulation system and method
JP6998775B2 (en) Image measuring machine and program
JP6985158B2 (en) Image measuring machine and program
JP6985157B2 (en) Image measuring machines, tool editing methods, and programs
JP6008904B2 (en) Display control apparatus, display control method, and program
JP6146510B2 (en) Display control device, display control method, display control program, and recording medium
JP5987869B2 (en) Display control device, display control method, display control program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R150 Certificate of patent or registration of utility model

Ref document number: 7078403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150