JP6985157B2 - Image measuring machines, tool editing methods, and programs - Google Patents

Image measuring machines, tool editing methods, and programs Download PDF

Info

Publication number
JP6985157B2
JP6985157B2 JP2018003147A JP2018003147A JP6985157B2 JP 6985157 B2 JP6985157 B2 JP 6985157B2 JP 2018003147 A JP2018003147 A JP 2018003147A JP 2018003147 A JP2018003147 A JP 2018003147A JP 6985157 B2 JP6985157 B2 JP 6985157B2
Authority
JP
Japan
Prior art keywords
tool
editing
edge detection
detection tool
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018003147A
Other languages
Japanese (ja)
Other versions
JP2019124993A (en
Inventor
玉武 張
浩一 小松
拓 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2018003147A priority Critical patent/JP6985157B2/en
Priority to US16/238,928 priority patent/US10656780B2/en
Priority to CN201910028062.6A priority patent/CN110032306A/en
Priority to DE102019200284.6A priority patent/DE102019200284A1/en
Publication of JP2019124993A publication Critical patent/JP2019124993A/en
Priority to US16/817,711 priority patent/US20200210049A1/en
Priority to US17/307,048 priority patent/US11314374B2/en
Application granted granted Critical
Publication of JP6985157B2 publication Critical patent/JP6985157B2/en
Priority to US17/705,936 priority patent/US11656733B2/en
Priority to US18/299,905 priority patent/US20230251753A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、タッチパネルディスプレイ上での入力操作によりエッジ検出ツールの編集を行う画像測定機、ツール編集方法、およびプログラムに関する。 The present invention relates to an image measuring machine that edits an edge detection tool by an input operation on a touch panel display, a tool editing method, and a program.

測定対象物を撮像して得られる画像を用いて、測定対象物の寸法や形状を測定及び評価する測定装置として画像測定機が用いられる。画像測定機では、撮像した測定対象物の画像に含まれる測定対象図形のエッジ情報(位置座標など)を取得し、エッジ情報に基づいて測定対象物の形状や寸法の評価を行う。 An image measuring machine is used as a measuring device for measuring and evaluating the size and shape of a measuring object by using an image obtained by imaging the measuring object. The image measuring machine acquires edge information (positional coordinates, etc.) of the measurement target figure included in the captured image of the measurement target, and evaluates the shape and dimensions of the measurement target based on the edge information.

エッジ情報の取得は、利用者の操作により撮像画像内に配置されたエッジ検出ツールを用いて行うことが多い。エッジ検出ツールは、測定対象部分の形状に応じてエッジをスキャンする位置や範囲を特定するものであり、測定対象物の形状に応じた様々な形状のものが画像測定機の機能として提供される。例えば、画像の直線部のエッジ検出に適した矩形のものや、円形画像のエッジ検出に適した円環形のものなどが代表的である。 The edge information is often acquired by using an edge detection tool arranged in the captured image by the user's operation. The edge detection tool specifies the position and range to scan the edge according to the shape of the measurement target part, and various shapes according to the shape of the measurement target are provided as a function of the image measuring machine. .. For example, a rectangular shape suitable for edge detection of a straight line portion of an image, a circular shape suitable for edge detection of a circular image, and the like are typical.

近年、タッチパネルディスプレイの普及に伴い、ディスプレイに触れることで操作でき直感的に使いやすいユーザインタフェースとして、いわゆるタッチインタフェースが広く利用されるようになってきており、画像測定機にも応用されている。タッチインタフェースでは、ジェスチャによる入力が採用され、例えば、ボタンをマウスクリックする代わりに、ボタンに指やタッチペンでタッチすることでコマンドの入力を行う。 In recent years, with the spread of touch panel displays, so-called touch interfaces have come to be widely used as user interfaces that can be operated by touching the display and are intuitively easy to use, and are also applied to image measuring machines. In the touch interface, gesture input is adopted. For example, instead of clicking a button with a mouse, a command is input by touching the button with a finger or a touch pen.

タッチパネルディスプレイを採用した画像測定機において、タッチパネルディスプレイに表示されたエッジ検出ツールの拡大・縮小・回転などの編集をしやすくする方法として、例えば、エッジ検出ツールの四隅などに編集用ハンドルを更に表示し、この編集用ハンドルに対するタッチパネルディスプレイ上での指などによる操作により編集する方法が挙げられる。編集用ハンドルを使用する別の方法として、複数の編集用ハンドルが密集したり、編集用ハンドルが撮像画像と重なったりして操作がしにくくなったりしないように、編集用ハンドルを引き出し線により引き出して、所望の編集用ハンドルに対する操作性を向上する技術が開示されている(例えば、特許文献1参照)。 In an image measuring machine that uses a touch panel display, as a method for facilitating editing such as enlargement / reduction / rotation of the edge detection tool displayed on the touch panel display, for example, editing handles are further displayed at the four corners of the edge detection tool. However, there is a method of editing by operating the touch panel display with a finger or the like on the editing handle. Another way to use the editing handle is to pull out the editing handle with a leader line so that multiple editing handles are not crowded together or the editing handle overlaps with the captured image, making it difficult to operate. Therefore, a technique for improving the operability of a desired editing handle is disclosed (see, for example, Patent Document 1).

また、編集用ハンドルを使用しない方法として、例えば、タッチパネルディスプレイに表示されたエッジ検出ツールに対して、ピンチ/アンピンチなどのジェスチャの入力操作を直接行うことで、エッジ検出ツールの縮小/拡大などを可能とする方法が挙げられる。 In addition, as a method that does not use the editing handle, for example, by directly performing a gesture input operation such as pinch / unpinch on the edge detection tool displayed on the touch panel display, the edge detection tool can be reduced / enlarged. There are ways to make it possible.

特開2016-173703号公報Japanese Unexamined Patent Publication No. 2016-173703

編集用ハンドルを使用する方法は、手順が簡潔とはいえず直感的な操作が難しい。また、エッジ検出ツールに対して直接ジェスチャを入力する方法は、例えば、エッジ検出ツールが人間の指で入力がしやすいサイズより大き過ぎたり小さ過ぎたりする場合や、複数のエッジ検出ツールが密集している場合に、意図したエッジ検出ツールに対して直接に入力操作を行うことが容易でない場合がある。 The method of using the editing handle is difficult to operate intuitively because the procedure is not simple. In addition, the method of inputting gestures directly to the edge detection tool is, for example, when the edge detection tool is too large or too small for the size that is easy to input with a human finger, or when multiple edge detection tools are crowded. If so, it may not be easy to perform an input operation directly to the intended edge detection tool.

このような問題に鑑みて、本発明は、エッジ検出ツールの編集操作が直感的で簡便でかつ容易な画像測定機、ツール編集方法、およびプログラムを提供する事を目的とする。 In view of such problems, it is an object of the present invention to provide an image measuring machine, a tool editing method, and a program in which the editing operation of the edge detection tool is intuitive, simple, and easy.

本発明の画像測定機は、測定対象物を撮像し、タッチパネルディスプレイに表示された測定対象物の撮像画像に対して利用者により配置されたエッジ検出ツールを用いて、測定対象物の寸法や形状を測定する画像測定機であって、タッチパネルディスプレイに表示されたエッジ検出ツールを選択状態とし、選択状態においてタッチパネルディスプレイ上の任意の位置でエッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、ツール編集ジェスチャに対応する編集をエッジ検出ツールに対して施す制御手段を備える。 The image measuring machine of the present invention captures an image of the object to be measured, and uses an edge detection tool arranged by the user with respect to the captured image of the object to be measured displayed on the touch panel display, and the dimensions and shape of the object to be measured. The tool editing gesture, which is an image measuring machine for measuring the edge detection tool displayed on the touch panel display in the selected state and is a gesture for editing the edge detection tool at an arbitrary position on the touch panel display in the selected state. It is provided with a control means for performing editing corresponding to the tool editing gesture to the edge detection tool by contact input.

本発明のツール編集方法は、測定対象物を撮像し、タッチパネルディスプレイに表示された測定対象物の撮像画像に対して利用者により配置されたエッジ検出ツールを用いて、測定対象物の寸法や形状を測定を行うに際し、エッジ検出ツールの編集を行うツール編集方法であって、タッチパネルディスプレイに表示されたエッジ検出ツールを選択状態とする選択ステップと、選択状態において前記タッチパネルディスプレイ上の任意の位置でエッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、ツール編集ジェスチャに対応する編集をエッジ検出ツールに対して施す編集ステップと、を実行する。 In the tool editing method of the present invention, the measurement object is imaged, and the size and shape of the measurement object are measured by using an edge detection tool arranged by the user with respect to the captured image of the measurement object displayed on the touch panel display. This is a tool editing method for editing the edge detection tool when measuring, at a selection step in which the edge detection tool displayed on the touch panel display is selected, and at an arbitrary position on the touch panel display in the selected state. By touch-inputting a tool editing gesture, which is a gesture for editing the edge detection tool, an editing step of making an edit corresponding to the tool editing gesture to the edge detection tool is executed.

ツール編集ジェスチャを、例えばピンチ及びアンピンチとし、ピンチ及びアンピンチにそれぞれ対応する編集を、エッジ検出ツールの縮小及び拡大としてもよい。 The tool editing gesture may be, for example, pinch and unpinch, and the edit corresponding to the pinch and unpinch may be the reduction and enlargement of the edge detection tool.

また、ツール編集ジェスチャを、例えばローテートとし、ローテートに対応する編集を、エッジ検出ツールの回転としてもよい。 Further, the tool editing gesture may be, for example, rotation, and the editing corresponding to rotation may be rotation of the edge detection tool.

また、ツール編集ジェスチャを、例えば2点の同時接触状態で行われるスワイプとし、2点の同時接触状態で行われるスワイプに対応する編集を、エッジ検出ツールのスワイプの方向への平行移動としてもよい。 Further, the tool editing gesture may be, for example, a swipe performed in a state of simultaneous contact of two points, and the editing corresponding to the swipe performed in a state of simultaneous contact of two points may be translated in the direction of the swipe of the edge detection tool. ..

本発明では、タッチパネルディスプレイに表示されたエッジ検出ツール上で、当該エッジ検出ツールを選択するためのジェスチャであるツール選択ジェスチャが接触入力されることによりエッジ検出ツールを選択状態とするとよい。また、ツール選択ジェスチャはタップとするとよい。 In the present invention, the edge detection tool may be selected by contact inputting a tool selection gesture, which is a gesture for selecting the edge detection tool, on the edge detection tool displayed on the touch panel display. Also, the tool selection gesture should be a tap.

本発明の画像測定機の制御手段の機能をプログラムに記述し、コンピュータにより実行することで、制御手段の機能を実現してもよい。 The function of the control means may be realized by describing the function of the control means of the image measuring machine of the present invention in a program and executing the function by a computer.

本発明により、エッジ検出ツールの編集操作が直感的で簡便でかつ容易な画像測定機、ツール編集方法、およびプログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an image measuring machine, a tool editing method, and a program in which the editing operation of an edge detection tool is intuitive, simple, and easy.

画像測定機の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of an image measuring machine. コンピュータシステムの機能ブロックを示す図である。It is a figure which shows the functional block of a computer system. エッジ検出ツールが配置された表示画面の一例を示す図である。It is a figure which shows an example of the display screen in which an edge detection tool is arranged. エッジ検出ツールを選択する様子の一例を示す図である。It is a figure which shows an example of how to select an edge detection tool. エッジ検出ツールが選択された状態の一例を示す図である。It is a figure which shows an example of the state which the edge detection tool is selected. ジェスチャの入力によりエッジ検出ツールを編集する様子の一例を示す図である。It is a figure which shows an example of how to edit an edge detection tool by inputting a gesture.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same members are designated by the same reference numerals, and the description of the members once described will be omitted as appropriate.

〔画像測定機の構成〕
図1は、画像測定機の全体構成の一例を示している。画像測定機1は、ステージ100と、筐体110と、コンピュータシステム140とを備える。ステージ100は、その上面が水平面と一致するように配置され、当該上面に測定対象物Wが載置される。ステージ100は、ハンドル101若しくは102の回転操作により、少なくともX軸方向及びY軸方向に移動可能とされる。筐体110は、透過照明や落射照明などの照明装置を含む光学系や撮像素子を内包するとともに、ハンドル112の回転操作により、筐体110自身を光学系及び撮像素子とともにZ軸方向に移動可能とする。
[Configuration of image measuring machine]
FIG. 1 shows an example of the overall configuration of an image measuring machine. The image measuring machine 1 includes a stage 100, a housing 110, and a computer system 140. The upper surface of the stage 100 is arranged so as to coincide with the horizontal plane, and the object W to be measured is placed on the upper surface. The stage 100 can be moved at least in the X-axis direction and the Y-axis direction by rotating the handle 101 or 102. The housing 110 includes an optical system including a lighting device such as transmission lighting and epi-illumination and an image pickup element, and the housing 110 itself can be moved in the Z-axis direction together with the optical system and the image pickup element by rotating the handle 112. And.

コンピュータシステム140は、ステージ100や筐体110を制御して測定対象物Wの撮像画像を取得したり、ユーザに操作環境を提供したりする。コンピュータシステム140は、例えばコンピュータ本体141、キーボード142、マウス143、及びタッチパネルディスプレイ144を備える。コンピュータ本体141は、制御ボード等の回路(ハードウェア)及びCPUで実行されるプログラム(ソフトウェア)によってステージ100や筐体110の動作を制御する。また、コンピュータ本体141は、ステージ100や筐体110から出力される信号に基づき測定対象物Wの情報を取得・演算し、演算結果をタッチパネルディスプレイ144に表示する処理を行う。キーボード142及びマウス143は、コンピュータ本体141に対する入力手段である。タッチパネルディスプレイ144は、コンピュータ本体が出力する画像を表示する表示手段として機能するほか、画面に対する接触による操作を検出しコンピュータ本体141に入力する入力手段としても機能する。 The computer system 140 controls the stage 100 and the housing 110 to acquire a captured image of the measurement target W, and provides an operation environment to the user. The computer system 140 includes, for example, a computer body 141, a keyboard 142, a mouse 143, and a touch panel display 144. The computer main body 141 controls the operation of the stage 100 and the housing 110 by a circuit (hardware) such as a control board and a program (software) executed by the CPU. Further, the computer main body 141 acquires and calculates the information of the measurement object W based on the signals output from the stage 100 and the housing 110, and performs a process of displaying the calculation result on the touch panel display 144. The keyboard 142 and the mouse 143 are input means for the computer body 141. The touch panel display 144 functions not only as a display means for displaying an image output by the computer main body, but also as an input means for detecting an operation due to contact with the screen and inputting the image to the computer main body 141.

図2はコンピュータシステム140の機能ブロック図を示している。コンピュータシステム140の機能ブロックとしては、CPU(Central Processing Unit)211、インタフェース212、出力部213、入力部214、主記憶部215及び副記憶部216が設けられる。 FIG. 2 shows a functional block diagram of the computer system 140. As functional blocks of the computer system 140, a CPU (Central Processing Unit) 211, an interface 212, an output unit 213, an input unit 214, a main storage unit 215, and a sub storage unit 216 are provided.

CPU211は、各種プログラムの実行によって各部を制御する。インタフェース212は、例えば、ステージ100や筐体110から送られる情報をコンピュータシステム140に取り込む、コンピュータシステム140から情報をステージ100や筐体110へ送る、コンピュータシステム140をLAN(Local Area Network)やWAN(Wide Area Network)に接続する等の役割を持つ、外部機器との情報入出力を行う部分である。 The CPU 211 controls each part by executing various programs. The interface 212, for example, takes in information sent from the stage 100 or the housing 110 into the computer system 140, sends information from the computer system 140 to the stage 100 or the housing 110, and connects the computer system 140 to a LAN (Local Area Network) or WAN. It is a part that inputs and outputs information to and from external devices, such as connecting to (Wide Area Network).

出力部213は、コンピュータシステム140で処理した結果を出力する。出力部213は、例えば、図1に示すタッチパネルディスプレイ144や、プリンタなどが用いられる。入力部214は、オペレータから情報を受け付ける。入力部214には、例えば、図1に示すキーボード142、マウス143、タッチパネルディスプレイ144などが用いられる。また、入力部214は、記録媒体MMに記録された情報を読み取る機能を含む。 The output unit 213 outputs the result processed by the computer system 140. As the output unit 213, for example, the touch panel display 144 shown in FIG. 1, a printer, or the like is used. The input unit 214 receives information from the operator. For the input unit 214, for example, the keyboard 142, the mouse 143, the touch panel display 144, and the like shown in FIG. 1 are used. Further, the input unit 214 includes a function of reading the information recorded on the recording medium MM.

主記憶部215には、例えばRAM(Random Access Memory)が用いられる。主記憶部215の一部として、副記憶部216の一部が用いられてもよい。副記憶部216には、例えばHDD(Hard disk drive)やSSD(Solid State Drive)が用いられる。副記憶部216は、ネット測定対象物を介して接続された外部記憶装置であってもよい。これらの記憶部に、画像表示プログラムや本発明における制御手段の機能が記述された制御プログラムが記憶され、これらのプログラムがCPUに読み出され実行されることで制御手段等の機能が実現される。 For the main storage unit 215, for example, a RAM (Random Access Memory) is used. As a part of the main storage unit 215, a part of the sub storage unit 216 may be used. For the sub-storage unit 216, for example, an HDD (Hard disk drive) or SSD (Solid State Drive) is used. The sub-storage unit 216 may be an external storage device connected via a net measurement object. An image display program and a control program in which the functions of the control means in the present invention are described are stored in these storage units, and the functions of the control means and the like are realized by reading and executing these programs by the CPU. ..

図3は、画像表示プログラムの実行によってタッチパネルディスプレイ144に表示されるメインウインドウMWの例を示す図である。メインウインドウMWの中には、撮像された測定対象物Wの撮像画像WGが表示されるワークウインドウWWを含む、必要に応じた複数のウインドウが表示される。なお、図3は撮像画像WGに利用者による入力操作により予め配置された矩形のエッジ検出ツールTが重畳表示されている状態を示したものである。 FIG. 3 is a diagram showing an example of a main window MW displayed on the touch panel display 144 by executing an image display program. In the main window MW, a plurality of windows are displayed as needed, including a work window WW in which the captured image WG of the captured object W is displayed. Note that FIG. 3 shows a state in which the rectangular edge detection tool T arranged in advance by the input operation by the user is superimposed and displayed on the captured image WG.

〔制御プログラムの実行によるエッジ検出ツールの編集〕
コンピュータ本体141のCPU211で実行された制御プログラムは、まず、タッチパネルディスプレイ144に表示されたエッジ検出ツールTに対して、図4に示すように利用者によりエッジ検出ツールTを選択するためのジェスチャであるツール選択ジェスチャが接触入力され、ツール選択ジェスチャに基づきタッチパネルディスプレイ144から出力される信号を検出すると、エッジ検出ツールTを選択状態とする(選択ステップ)。
[Editing the edge detection tool by executing the control program]
The control program executed by the CPU 211 of the computer main body 141 is a gesture for the user to select the edge detection tool T for the edge detection tool T displayed on the touch panel display 144 as shown in FIG. When a certain tool selection gesture is contact-input and a signal output from the touch panel display 144 is detected based on the tool selection gesture, the edge detection tool T is selected (selection step).

エッジ検出ツールTが複数配置されている場合には、利用者が何れか1つのエッジ検出ツールTを選択して当該エッジ検出ツールTに対してツール選択ジェスチャを接触入力し、当該エッジ検出ツールを選択状態にして、編集対象を当該エッジ検出ツールTに特定する。 When a plurality of edge detection tools T are arranged, the user selects one of the edge detection tools T, contacts and inputs a tool selection gesture to the edge detection tool T, and uses the edge detection tool. In the selected state, the editing target is specified to the edge detection tool T.

ツール選択ジェスチャは、例えば、タップ、ダブルタップ、又はロングタップなど任意のジェスチャを採用してよい。また、エッジ検出ツールTの選択状態は視覚的に認識できることが望ましく、例えば、エッジ検出ツールの色の変更、編集用ハンドルの表示の追加など、任意の表現で認識可能とするとよい。図5は、矩形のエッジ検出ツールの四隅に編集用ハンドルHを示す「□」の表示を追加して認識可能とした例である。 As the tool selection gesture, any gesture such as tap, double tap, or long tap may be adopted. Further, it is desirable that the selected state of the edge detection tool T can be visually recognized, and it is preferable that the selection state can be recognized by any expression such as changing the color of the edge detection tool or adding the display of the editing handle. FIG. 5 is an example in which the display of “□” indicating the editing handle H is added to the four corners of the rectangular edge detection tool to make it recognizable.

更にCPU211で実行された制御プログラムは、エッジ検出ツールTの選択状態において、利用者によりタッチパネルディスプレイ144上の任意の位置でエッジ検出ツールTを編集するためのジェスチャであるツール編集ジェスチャが接触入力され、ツール編集ジェスチャに基づきタッチパネルディスプレイ144から出力される信号を検出すると、ツール編集ジェスチャに対応する編集をエッジ検出ツールTに施し、タッチパネルディスプレイ144におけるエッジ検出ツールTの表示に反映させる(編集ステップ)。 Further, in the control program executed by the CPU 211, a tool editing gesture, which is a gesture for editing the edge detection tool T at an arbitrary position on the touch panel display 144, is touch-input by the user in the selected state of the edge detection tool T. When the signal output from the touch panel display 144 is detected based on the tool edit gesture, the edge detection tool T is edited according to the tool edit gesture and reflected in the display of the edge detection tool T on the touch panel display 144 (edit step). ..

ツール編集ジェスチャは、ピンチ(2点の接触位置の距離を狭める操作)、アンピンチ(2点の接触位置の距離を広げる操作)、ローテート(2点の接触位置を結ぶ直線の角度を変える操作)、2点の同時接触状態で行われるスワイプ(接触位置を移動させる操作)など、ツール選択ジェスチャと異なる任意のジェスチャを採用してよい。ただし、直感的に入力できるように、エッジ検出ツールTの編集態様に合ったジェスチャを採用するのが望ましい。例えば、ピンチ及びアンピンチにそれぞれ対応する編集を縮小及び拡大とし、ローテートに対応する編集を回転とする。また、2点の同時接触状態で行われるスワイプに対応する編集をスワイプ方向への平行移動とする。また、ツール編集ジェスチャによってエッジ検出ツールTの削除も可能とされるとよい。エッジ検出ツールTの削除に対応するツール編集ジェスチャとして、例えば、2点の同時接触状態で行われるスワイプによってツールがワークウインドウWWの枠外まで移動する操作、所定の閾値以上の速度での2点の同時接触状態で行われるスワイプ操作等を割り当てるとよい。図6は、エッジ検出ツールTを横に拡大する編集に対してアンピンチを採用した例である。 Tool editing gestures include pinch (operation to narrow the distance between two contact positions), unpinch (operation to increase the distance between two contact positions), rotate (operation to change the angle of a straight line connecting two contact positions), and Any gesture different from the tool selection gesture, such as a swipe (operation to move the contact position) performed in the state of simultaneous contact of two points, may be adopted. However, it is desirable to adopt a gesture suitable for the editing mode of the edge detection tool T so that the input can be intuitively performed. For example, the edits corresponding to pinch and unpinch are reduced and enlarged, and the edits corresponding to rotate are rotated. Further, the editing corresponding to the swipe performed in the state of simultaneous contact of two points is defined as translation in the swipe direction. It is also preferable that the edge detection tool T can be deleted by the tool editing gesture. As a tool editing gesture corresponding to the deletion of the edge detection tool T, for example, an operation in which the tool moves out of the frame of the work window WW by a swipe performed in a state of simultaneous contact of two points, and two points at a speed equal to or higher than a predetermined threshold value. It is advisable to assign a swipe operation or the like performed in a simultaneous contact state. FIG. 6 is an example in which unpinch is adopted for editing in which the edge detection tool T is enlarged horizontally.

ツール編集ジェスチャの入力位置は、タッチパネルディスプレイ144上の任意の位置とせずに、撮像画像WGの表示位置や操作性などを考慮した特定の領域内としてもよい。 The input position of the tool editing gesture may not be an arbitrary position on the touch panel display 144, but may be within a specific area in consideration of the display position and operability of the captured image WG.

ツール選択ジェスチャと選択状態との対応関係、及びツール編集ジェスチャと編集態様との対応関係は、例えば、副記憶部216に記憶しておき制御プログラムの実行時に参照にしてもよいし、制御プログラム自体に書き込んでおいてもよい。 The correspondence between the tool selection gesture and the selected state and the correspondence between the tool editing gesture and the editing mode may be stored in the sub-storage unit 216 and referred to when the control program is executed, or the control program itself. You may write it in.

なお、エッジ検出ツールTの選択状態においては、ツール編集ジェスチャの入力によってのみ編集可能としてもよいし、編集用ハンドルによっても編集可能としてもよい。 In the selected state of the edge detection tool T, it may be editable only by inputting the tool edit gesture, or it may be editable by the edit handle.

上記の選択ステップと編集ステップとからなるツール編集方法が書き込まれた制御プログラムをCPUで実行することにより機能が実現される制御手段を備える画像測定機によって、エッジ検出ツールの編集態様に応じた直感的なジェスチャ入力が可能となり、かつ、少ない手数で編集を行うことが可能となる。また、エッジ検出ツールの大きさや密集具合によらず、選択したエッジ検出ツールに対して確実に編集操作を行うことが可能となる。 An image measuring machine equipped with a control means whose function is realized by executing a control program in which a tool editing method including the above selection step and an editing step is written is executed by a CPU, and an intuition according to the editing mode of the edge detection tool. It is possible to input a specific gesture and edit with a small number of steps. In addition, regardless of the size and density of the edge detection tool, it is possible to reliably perform an editing operation on the selected edge detection tool.

なお、本発明は上記実施形態に限定されるものではない。上記実施形態は例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。すなわち、本発明において表現されている技術的思想の範囲内で適宜変更が可能であり、その様な変更や改良を加えた形態も本発明の技術的範囲に含む。 The present invention is not limited to the above embodiment. The above-described embodiment is an example, and any of the above-described embodiments having substantially the same configuration as the technical idea described in the claims of the present invention and having the same effect and effect is the present invention. Is included in the technical scope of. That is, it can be appropriately changed within the scope of the technical idea expressed in the present invention, and the form to which such a change or improvement is added is also included in the technical scope of the present invention.

上記実施形態では、エッジ検出ツールTに対してツール選択ジェスチャが接触入力されたことに応じてエッジ検出ツールTが選択されたが、エッジ検出ツールを選択方法はこれに限定されない。例えば、タッチパネルディスプレイに表示されている複数のエッジ検出ツールのうちいずれを選択状態とするかを変更するためのボタンをメインウインドウMW内に表示し、当該ボタンに対する操作(例えば、タッチ入力によるタップ、マウス操作によるクリック等)に応じてエッジ検出ツールTを選択状態としてもよい。 In the above embodiment, the edge detection tool T is selected in response to the contact input of the tool selection gesture to the edge detection tool T, but the method for selecting the edge detection tool is not limited to this. For example, a button for changing which of a plurality of edge detection tools displayed on the touch panel display is selected is displayed in the main window MW, and an operation for the button (for example, tapping by touch input, etc.) is displayed. The edge detection tool T may be selected according to (clicking by mouse operation, etc.).

1…画像測定機
100…ステージ
101、102、112…ハンドル
110…筐体
140…コンピュータシステム
141…コンピュータ本体
142…キーボード
143…マウス
144…タッチパネルディスプレイ
211…CPU
212…インタフェース
213…出力部
214…入力部
215…主記憶部
216…副記憶部
H…編集用ハンドル
MM…記録媒体
MW…メインウインドウ
T…エッジ検出ツール
W…測定対象物
WW…ワークウインドウ
WG…撮像画像
1 ... Image measuring machine 100 ... Stage 101, 102, 112 ... Handle 110 ... Housing 140 ... Computer system 141 ... Computer body 142 ... Keyboard 143 ... Mouse 144 ... Touch panel display 211 ... CPU
212 ... Interface 213 ... Output unit 214 ... Input unit 215 ... Main storage unit 216 ... Sub storage unit H ... Editing handle MM ... Recording medium MW ... Main window T ... Edge detection tool W ... Measurement object WW ... Work window WG ... Captured image

Claims (13)

測定対象物を撮像し、タッチパネルディスプレイに表示された前記測定対象物の撮像画像に対して利用者により配置されたエッジ検出ツールを用いて、前記測定対象物の寸法や形状を測定する画像測定機であって、
前記タッチパネルディスプレイに表示された前記エッジ検出ツールを選択状態とし、前記選択状態において前記タッチパネルディスプレイ上の任意の位置で前記エッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、前記ツール編集ジェスチャに対応する編集を前記エッジ検出ツールに対して施す制御手段を備えることを特徴とする画像測定機。
An image measuring machine that captures an image of the object to be measured and measures the dimensions and shape of the object to be measured by using an edge detection tool arranged by the user with respect to the captured image of the object to be measured displayed on the touch panel display. And
The edge detection tool displayed on the touch panel display is selected, and in the selected state, a tool editing gesture, which is a gesture for editing the edge detection tool at an arbitrary position on the touch panel display, is input by contact. An image measuring machine comprising a control means for performing editing corresponding to the tool editing gesture to the edge detection tool.
前記ツール編集ジェスチャはピンチ及びアンピンチを含み、
前記ピンチ及びアンピンチにそれぞれ対応する編集は前記エッジ検出ツールの縮小及び拡大である
ことを特徴とする請求項1に記載の画像測定機。
The tool editing gestures include pinch and unpinch.
The image measuring machine according to claim 1, wherein the editing corresponding to the pinch and the unpinch is the reduction and enlargement of the edge detection tool, respectively.
前記ツール編集ジェスチャはローテートを含み、
前記ローテートに対応する編集は前記エッジ検出ツールの回転である
ことを特徴とする請求項1又は2に記載の画像測定機。
The tool editing gesture includes rotate and
The image measuring machine according to claim 1 or 2, wherein the editing corresponding to the rotation is rotation of the edge detection tool.
前記ツール編集ジェスチャは2点の同時接触状態で行われるスワイプを含み、
前記2点の同時接触状態で行われるスワイプに対応する編集は前記エッジ検出ツールのスワイプの方向への平行移動である
ことを特徴とする請求項1から3の何れか1項に記載の画像測定機。
The tool editing gesture includes a swipe performed in a state of simultaneous contact of two points.
The image measurement according to any one of claims 1 to 3, wherein the editing corresponding to the swipe performed in the simultaneous contact state of the two points is translation in the direction of the swipe of the edge detection tool. Machine.
前記タッチパネルディスプレイに表示された前記エッジ検出ツール上で、当該エッジ検出ツールを選択するためのジェスチャであるツール選択ジェスチャが接触入力されることにより前記エッジ検出ツールを選択状態とすることを特徴とする請求項1から4の何れか1項に記載の画像測定機。 The edge detection tool is selected by contact inputting a tool selection gesture, which is a gesture for selecting the edge detection tool, on the edge detection tool displayed on the touch panel display. The image measuring device according to any one of claims 1 to 4. 前記ツール選択ジェスチャはタップであることを特徴とする請求項5に記載の画像測定機。 The image measuring device according to claim 5, wherein the tool selection gesture is a tap. 測定対象物を撮像し、タッチパネルディスプレイに表示された前記測定対象物の撮像画像に対して利用者により配置されたエッジ検出ツールを用いて、前記測定対象物の寸法や形状を測定を行うに際し、前記エッジ検出ツールの編集を行うツール編集方法であって、
前記タッチパネルディスプレイに表示された前記エッジ検出ツールを選択状態とする選択ステップと、
前記選択状態において前記タッチパネルディスプレイ上の任意の位置で前記エッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、前記ツール編集ジェスチャに対応する編集を前記エッジ検出ツールに対して施す編集ステップと、
を実行するツール編集方法。
When the measurement object is imaged and the dimensions and shape of the measurement object are measured by using an edge detection tool arranged by the user with respect to the captured image of the measurement object displayed on the touch panel display. This is a tool editing method for editing the edge detection tool.
A selection step for selecting the edge detection tool displayed on the touch panel display, and
When the tool editing gesture, which is a gesture for editing the edge detection tool at an arbitrary position on the touch panel display in the selected state, is touch-input, the editing corresponding to the tool editing gesture is transferred to the edge detection tool. Editing steps to be performed on
How to edit a tool to run.
前記ツール編集ジェスチャはピンチ及びアンピンチを含み、
前記ピンチ及びアンピンチにそれぞれ対応する編集は前記エッジ検出ツールの縮小及び拡大である
ことを特徴とする請求項7に記載のツール編集方法。
The tool editing gestures include pinch and unpinch.
The tool editing method according to claim 7, wherein the editing corresponding to the pinch and the unpinch is the reduction and enlargement of the edge detection tool, respectively.
前記ツール編集ジェスチャはローテートを含み、
前記ローテートに対応する編集は前記エッジ検出ツールの回転である
ことを特徴とする請求項7又は8に記載のツール編集方法。
The tool editing gesture includes rotate and
The tool editing method according to claim 7, wherein the editing corresponding to the rotation is rotation of the edge detection tool.
前記ツール編集ジェスチャは2点の同時接触状態で行われるスワイプを含み、
前記2点の同時接触状態で行われるスワイプに対応する編集は前記エッジ検出ツールの平行移動である
ことを特徴とする請求項7から9の何れか1項に記載のツール編集方法。
The tool editing gesture includes a swipe performed in a state of simultaneous contact of two points.
The tool editing method according to any one of claims 7 to 9, wherein the editing corresponding to the swipe performed in the simultaneous contact state of the two points is translation of the edge detection tool.
前記タッチパネルディスプレイに表示された前記エッジ検出ツール上で、当該エッジ検出ツールを選択するためのジェスチャであるツール選択ジェスチャが接触入力されることにより前記エッジ検出ツールを選択状態とすることを特徴とする請求項7から10の何れか1項に記載のツール編集方法。 The edge detection tool is selected by contact inputting a tool selection gesture, which is a gesture for selecting the edge detection tool, on the edge detection tool displayed on the touch panel display. The tool editing method according to any one of claims 7 to 10. 前記ツール選択ジェスチャはタップであることを特徴とする請求項11に記載のツール編集方法。 The tool editing method according to claim 11, wherein the tool selection gesture is a tap. コンピュータを請求項1から6に記載の画像測定機における制御手段として機能させるためのプログラム。 A program for making a computer function as a control means in the image measuring machine according to any one of claims 1 to 6.
JP2018003147A 2018-01-12 2018-01-12 Image measuring machines, tool editing methods, and programs Active JP6985157B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2018003147A JP6985157B2 (en) 2018-01-12 2018-01-12 Image measuring machines, tool editing methods, and programs
US16/238,928 US10656780B2 (en) 2018-01-12 2019-01-03 Position specifying method and program
CN201910028062.6A CN110032306A (en) 2018-01-12 2019-01-11 Position designation method and storage medium
DE102019200284.6A DE102019200284A1 (en) 2018-01-12 2019-01-11 Method and program for specifying a position
US16/817,711 US20200210049A1 (en) 2018-01-12 2020-03-13 Position specifying method and program
US17/307,048 US11314374B2 (en) 2018-01-12 2021-05-04 Position specifying method and program
US17/705,936 US11656733B2 (en) 2018-01-12 2022-03-28 Position specifying method and program
US18/299,905 US20230251753A1 (en) 2018-01-12 2023-04-13 Position specifying method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003147A JP6985157B2 (en) 2018-01-12 2018-01-12 Image measuring machines, tool editing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019124993A JP2019124993A (en) 2019-07-25
JP6985157B2 true JP6985157B2 (en) 2021-12-22

Family

ID=67398706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003147A Active JP6985157B2 (en) 2018-01-12 2018-01-12 Image measuring machines, tool editing methods, and programs

Country Status (1)

Country Link
JP (1) JP6985157B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333219B2 (en) * 2005-03-29 2008-02-19 Mitutoyo Corporation Handheld metrology imaging system and method
JP2008070968A (en) * 2006-09-12 2008-03-27 Funai Electric Co Ltd Display processor
JP5859298B2 (en) * 2011-12-08 2016-02-10 任天堂株式会社 Information processing system, information processing apparatus, information processing method, and information processing program
EP2759921B1 (en) * 2013-01-25 2020-09-23 Morpho, Inc. Image display apparatus, image displaying method and program

Also Published As

Publication number Publication date
JP2019124993A (en) 2019-07-25

Similar Documents

Publication Publication Date Title
JP6206457B2 (en) Information processing apparatus and program
US8896549B2 (en) Method and system for duplicating an object using a touch-sensitive display
JP7232054B2 (en) Image measuring machine and program
CN104011629A (en) Enhanced target selection for a touch-based input enabled user interface
JP2016173703A (en) Method of supporting input operation using touch display unit
JP2010224663A (en) Information processing apparatus, information processing method, and program
JP6248462B2 (en) Information processing apparatus and program
US20230251753A1 (en) Position specifying method and program
JP6985157B2 (en) Image measuring machines, tool editing methods, and programs
JP7078403B2 (en) Image measuring machine and program
JP6985158B2 (en) Image measuring machine and program
JP6998775B2 (en) Image measuring machine and program
JP6232694B2 (en) Information processing apparatus, control method thereof, and program
JP7113625B2 (en) Positioning method and program
CN105739816A (en) Selection of a graphical element
JP2009003566A (en) Window display device and window display method
JP5120290B2 (en) 3D coordinate input method, computer program, and 3D coordinate input device
JP2023034010A (en) Display device, display system, display control method, and program
JP2019124992A (en) Position designation method and program
JP5987869B2 (en) Display control device, display control method, display control program, and recording medium
JP2019124996A (en) Image measurement machine, image measurement method, and image measurement program
JP2016173832A (en) Display control device, display control method, display control program, and recording medium
JPH05174121A (en) Graphic processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6985157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150