JP6985157B2 - Image measuring machines, tool editing methods, and programs - Google Patents
Image measuring machines, tool editing methods, and programs Download PDFInfo
- Publication number
- JP6985157B2 JP6985157B2 JP2018003147A JP2018003147A JP6985157B2 JP 6985157 B2 JP6985157 B2 JP 6985157B2 JP 2018003147 A JP2018003147 A JP 2018003147A JP 2018003147 A JP2018003147 A JP 2018003147A JP 6985157 B2 JP6985157 B2 JP 6985157B2
- Authority
- JP
- Japan
- Prior art keywords
- tool
- editing
- edge detection
- detection tool
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、タッチパネルディスプレイ上での入力操作によりエッジ検出ツールの編集を行う画像測定機、ツール編集方法、およびプログラムに関する。 The present invention relates to an image measuring machine that edits an edge detection tool by an input operation on a touch panel display, a tool editing method, and a program.
測定対象物を撮像して得られる画像を用いて、測定対象物の寸法や形状を測定及び評価する測定装置として画像測定機が用いられる。画像測定機では、撮像した測定対象物の画像に含まれる測定対象図形のエッジ情報(位置座標など)を取得し、エッジ情報に基づいて測定対象物の形状や寸法の評価を行う。 An image measuring machine is used as a measuring device for measuring and evaluating the size and shape of a measuring object by using an image obtained by imaging the measuring object. The image measuring machine acquires edge information (positional coordinates, etc.) of the measurement target figure included in the captured image of the measurement target, and evaluates the shape and dimensions of the measurement target based on the edge information.
エッジ情報の取得は、利用者の操作により撮像画像内に配置されたエッジ検出ツールを用いて行うことが多い。エッジ検出ツールは、測定対象部分の形状に応じてエッジをスキャンする位置や範囲を特定するものであり、測定対象物の形状に応じた様々な形状のものが画像測定機の機能として提供される。例えば、画像の直線部のエッジ検出に適した矩形のものや、円形画像のエッジ検出に適した円環形のものなどが代表的である。 The edge information is often acquired by using an edge detection tool arranged in the captured image by the user's operation. The edge detection tool specifies the position and range to scan the edge according to the shape of the measurement target part, and various shapes according to the shape of the measurement target are provided as a function of the image measuring machine. .. For example, a rectangular shape suitable for edge detection of a straight line portion of an image, a circular shape suitable for edge detection of a circular image, and the like are typical.
近年、タッチパネルディスプレイの普及に伴い、ディスプレイに触れることで操作でき直感的に使いやすいユーザインタフェースとして、いわゆるタッチインタフェースが広く利用されるようになってきており、画像測定機にも応用されている。タッチインタフェースでは、ジェスチャによる入力が採用され、例えば、ボタンをマウスクリックする代わりに、ボタンに指やタッチペンでタッチすることでコマンドの入力を行う。 In recent years, with the spread of touch panel displays, so-called touch interfaces have come to be widely used as user interfaces that can be operated by touching the display and are intuitively easy to use, and are also applied to image measuring machines. In the touch interface, gesture input is adopted. For example, instead of clicking a button with a mouse, a command is input by touching the button with a finger or a touch pen.
タッチパネルディスプレイを採用した画像測定機において、タッチパネルディスプレイに表示されたエッジ検出ツールの拡大・縮小・回転などの編集をしやすくする方法として、例えば、エッジ検出ツールの四隅などに編集用ハンドルを更に表示し、この編集用ハンドルに対するタッチパネルディスプレイ上での指などによる操作により編集する方法が挙げられる。編集用ハンドルを使用する別の方法として、複数の編集用ハンドルが密集したり、編集用ハンドルが撮像画像と重なったりして操作がしにくくなったりしないように、編集用ハンドルを引き出し線により引き出して、所望の編集用ハンドルに対する操作性を向上する技術が開示されている(例えば、特許文献1参照)。 In an image measuring machine that uses a touch panel display, as a method for facilitating editing such as enlargement / reduction / rotation of the edge detection tool displayed on the touch panel display, for example, editing handles are further displayed at the four corners of the edge detection tool. However, there is a method of editing by operating the touch panel display with a finger or the like on the editing handle. Another way to use the editing handle is to pull out the editing handle with a leader line so that multiple editing handles are not crowded together or the editing handle overlaps with the captured image, making it difficult to operate. Therefore, a technique for improving the operability of a desired editing handle is disclosed (see, for example, Patent Document 1).
また、編集用ハンドルを使用しない方法として、例えば、タッチパネルディスプレイに表示されたエッジ検出ツールに対して、ピンチ/アンピンチなどのジェスチャの入力操作を直接行うことで、エッジ検出ツールの縮小/拡大などを可能とする方法が挙げられる。 In addition, as a method that does not use the editing handle, for example, by directly performing a gesture input operation such as pinch / unpinch on the edge detection tool displayed on the touch panel display, the edge detection tool can be reduced / enlarged. There are ways to make it possible.
編集用ハンドルを使用する方法は、手順が簡潔とはいえず直感的な操作が難しい。また、エッジ検出ツールに対して直接ジェスチャを入力する方法は、例えば、エッジ検出ツールが人間の指で入力がしやすいサイズより大き過ぎたり小さ過ぎたりする場合や、複数のエッジ検出ツールが密集している場合に、意図したエッジ検出ツールに対して直接に入力操作を行うことが容易でない場合がある。 The method of using the editing handle is difficult to operate intuitively because the procedure is not simple. In addition, the method of inputting gestures directly to the edge detection tool is, for example, when the edge detection tool is too large or too small for the size that is easy to input with a human finger, or when multiple edge detection tools are crowded. If so, it may not be easy to perform an input operation directly to the intended edge detection tool.
このような問題に鑑みて、本発明は、エッジ検出ツールの編集操作が直感的で簡便でかつ容易な画像測定機、ツール編集方法、およびプログラムを提供する事を目的とする。 In view of such problems, it is an object of the present invention to provide an image measuring machine, a tool editing method, and a program in which the editing operation of the edge detection tool is intuitive, simple, and easy.
本発明の画像測定機は、測定対象物を撮像し、タッチパネルディスプレイに表示された測定対象物の撮像画像に対して利用者により配置されたエッジ検出ツールを用いて、測定対象物の寸法や形状を測定する画像測定機であって、タッチパネルディスプレイに表示されたエッジ検出ツールを選択状態とし、選択状態においてタッチパネルディスプレイ上の任意の位置でエッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、ツール編集ジェスチャに対応する編集をエッジ検出ツールに対して施す制御手段を備える。 The image measuring machine of the present invention captures an image of the object to be measured, and uses an edge detection tool arranged by the user with respect to the captured image of the object to be measured displayed on the touch panel display, and the dimensions and shape of the object to be measured. The tool editing gesture, which is an image measuring machine for measuring the edge detection tool displayed on the touch panel display in the selected state and is a gesture for editing the edge detection tool at an arbitrary position on the touch panel display in the selected state. It is provided with a control means for performing editing corresponding to the tool editing gesture to the edge detection tool by contact input.
本発明のツール編集方法は、測定対象物を撮像し、タッチパネルディスプレイに表示された測定対象物の撮像画像に対して利用者により配置されたエッジ検出ツールを用いて、測定対象物の寸法や形状を測定を行うに際し、エッジ検出ツールの編集を行うツール編集方法であって、タッチパネルディスプレイに表示されたエッジ検出ツールを選択状態とする選択ステップと、選択状態において前記タッチパネルディスプレイ上の任意の位置でエッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、ツール編集ジェスチャに対応する編集をエッジ検出ツールに対して施す編集ステップと、を実行する。 In the tool editing method of the present invention, the measurement object is imaged, and the size and shape of the measurement object are measured by using an edge detection tool arranged by the user with respect to the captured image of the measurement object displayed on the touch panel display. This is a tool editing method for editing the edge detection tool when measuring, at a selection step in which the edge detection tool displayed on the touch panel display is selected, and at an arbitrary position on the touch panel display in the selected state. By touch-inputting a tool editing gesture, which is a gesture for editing the edge detection tool, an editing step of making an edit corresponding to the tool editing gesture to the edge detection tool is executed.
ツール編集ジェスチャを、例えばピンチ及びアンピンチとし、ピンチ及びアンピンチにそれぞれ対応する編集を、エッジ検出ツールの縮小及び拡大としてもよい。 The tool editing gesture may be, for example, pinch and unpinch, and the edit corresponding to the pinch and unpinch may be the reduction and enlargement of the edge detection tool.
また、ツール編集ジェスチャを、例えばローテートとし、ローテートに対応する編集を、エッジ検出ツールの回転としてもよい。 Further, the tool editing gesture may be, for example, rotation, and the editing corresponding to rotation may be rotation of the edge detection tool.
また、ツール編集ジェスチャを、例えば2点の同時接触状態で行われるスワイプとし、2点の同時接触状態で行われるスワイプに対応する編集を、エッジ検出ツールのスワイプの方向への平行移動としてもよい。 Further, the tool editing gesture may be, for example, a swipe performed in a state of simultaneous contact of two points, and the editing corresponding to the swipe performed in a state of simultaneous contact of two points may be translated in the direction of the swipe of the edge detection tool. ..
本発明では、タッチパネルディスプレイに表示されたエッジ検出ツール上で、当該エッジ検出ツールを選択するためのジェスチャであるツール選択ジェスチャが接触入力されることによりエッジ検出ツールを選択状態とするとよい。また、ツール選択ジェスチャはタップとするとよい。 In the present invention, the edge detection tool may be selected by contact inputting a tool selection gesture, which is a gesture for selecting the edge detection tool, on the edge detection tool displayed on the touch panel display. Also, the tool selection gesture should be a tap.
本発明の画像測定機の制御手段の機能をプログラムに記述し、コンピュータにより実行することで、制御手段の機能を実現してもよい。 The function of the control means may be realized by describing the function of the control means of the image measuring machine of the present invention in a program and executing the function by a computer.
本発明により、エッジ検出ツールの編集操作が直感的で簡便でかつ容易な画像測定機、ツール編集方法、およびプログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an image measuring machine, a tool editing method, and a program in which the editing operation of an edge detection tool is intuitive, simple, and easy.
以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same members are designated by the same reference numerals, and the description of the members once described will be omitted as appropriate.
〔画像測定機の構成〕
図1は、画像測定機の全体構成の一例を示している。画像測定機1は、ステージ100と、筐体110と、コンピュータシステム140とを備える。ステージ100は、その上面が水平面と一致するように配置され、当該上面に測定対象物Wが載置される。ステージ100は、ハンドル101若しくは102の回転操作により、少なくともX軸方向及びY軸方向に移動可能とされる。筐体110は、透過照明や落射照明などの照明装置を含む光学系や撮像素子を内包するとともに、ハンドル112の回転操作により、筐体110自身を光学系及び撮像素子とともにZ軸方向に移動可能とする。
[Configuration of image measuring machine]
FIG. 1 shows an example of the overall configuration of an image measuring machine. The image measuring machine 1 includes a
コンピュータシステム140は、ステージ100や筐体110を制御して測定対象物Wの撮像画像を取得したり、ユーザに操作環境を提供したりする。コンピュータシステム140は、例えばコンピュータ本体141、キーボード142、マウス143、及びタッチパネルディスプレイ144を備える。コンピュータ本体141は、制御ボード等の回路(ハードウェア)及びCPUで実行されるプログラム(ソフトウェア)によってステージ100や筐体110の動作を制御する。また、コンピュータ本体141は、ステージ100や筐体110から出力される信号に基づき測定対象物Wの情報を取得・演算し、演算結果をタッチパネルディスプレイ144に表示する処理を行う。キーボード142及びマウス143は、コンピュータ本体141に対する入力手段である。タッチパネルディスプレイ144は、コンピュータ本体が出力する画像を表示する表示手段として機能するほか、画面に対する接触による操作を検出しコンピュータ本体141に入力する入力手段としても機能する。
The
図2はコンピュータシステム140の機能ブロック図を示している。コンピュータシステム140の機能ブロックとしては、CPU(Central Processing Unit)211、インタフェース212、出力部213、入力部214、主記憶部215及び副記憶部216が設けられる。
FIG. 2 shows a functional block diagram of the
CPU211は、各種プログラムの実行によって各部を制御する。インタフェース212は、例えば、ステージ100や筐体110から送られる情報をコンピュータシステム140に取り込む、コンピュータシステム140から情報をステージ100や筐体110へ送る、コンピュータシステム140をLAN(Local Area Network)やWAN(Wide Area Network)に接続する等の役割を持つ、外部機器との情報入出力を行う部分である。
The
出力部213は、コンピュータシステム140で処理した結果を出力する。出力部213は、例えば、図1に示すタッチパネルディスプレイ144や、プリンタなどが用いられる。入力部214は、オペレータから情報を受け付ける。入力部214には、例えば、図1に示すキーボード142、マウス143、タッチパネルディスプレイ144などが用いられる。また、入力部214は、記録媒体MMに記録された情報を読み取る機能を含む。
The
主記憶部215には、例えばRAM(Random Access Memory)が用いられる。主記憶部215の一部として、副記憶部216の一部が用いられてもよい。副記憶部216には、例えばHDD(Hard disk drive)やSSD(Solid State Drive)が用いられる。副記憶部216は、ネット測定対象物を介して接続された外部記憶装置であってもよい。これらの記憶部に、画像表示プログラムや本発明における制御手段の機能が記述された制御プログラムが記憶され、これらのプログラムがCPUに読み出され実行されることで制御手段等の機能が実現される。
For the
図3は、画像表示プログラムの実行によってタッチパネルディスプレイ144に表示されるメインウインドウMWの例を示す図である。メインウインドウMWの中には、撮像された測定対象物Wの撮像画像WGが表示されるワークウインドウWWを含む、必要に応じた複数のウインドウが表示される。なお、図3は撮像画像WGに利用者による入力操作により予め配置された矩形のエッジ検出ツールTが重畳表示されている状態を示したものである。
FIG. 3 is a diagram showing an example of a main window MW displayed on the
〔制御プログラムの実行によるエッジ検出ツールの編集〕
コンピュータ本体141のCPU211で実行された制御プログラムは、まず、タッチパネルディスプレイ144に表示されたエッジ検出ツールTに対して、図4に示すように利用者によりエッジ検出ツールTを選択するためのジェスチャであるツール選択ジェスチャが接触入力され、ツール選択ジェスチャに基づきタッチパネルディスプレイ144から出力される信号を検出すると、エッジ検出ツールTを選択状態とする(選択ステップ)。
[Editing the edge detection tool by executing the control program]
The control program executed by the
エッジ検出ツールTが複数配置されている場合には、利用者が何れか1つのエッジ検出ツールTを選択して当該エッジ検出ツールTに対してツール選択ジェスチャを接触入力し、当該エッジ検出ツールを選択状態にして、編集対象を当該エッジ検出ツールTに特定する。 When a plurality of edge detection tools T are arranged, the user selects one of the edge detection tools T, contacts and inputs a tool selection gesture to the edge detection tool T, and uses the edge detection tool. In the selected state, the editing target is specified to the edge detection tool T.
ツール選択ジェスチャは、例えば、タップ、ダブルタップ、又はロングタップなど任意のジェスチャを採用してよい。また、エッジ検出ツールTの選択状態は視覚的に認識できることが望ましく、例えば、エッジ検出ツールの色の変更、編集用ハンドルの表示の追加など、任意の表現で認識可能とするとよい。図5は、矩形のエッジ検出ツールの四隅に編集用ハンドルHを示す「□」の表示を追加して認識可能とした例である。 As the tool selection gesture, any gesture such as tap, double tap, or long tap may be adopted. Further, it is desirable that the selected state of the edge detection tool T can be visually recognized, and it is preferable that the selection state can be recognized by any expression such as changing the color of the edge detection tool or adding the display of the editing handle. FIG. 5 is an example in which the display of “□” indicating the editing handle H is added to the four corners of the rectangular edge detection tool to make it recognizable.
更にCPU211で実行された制御プログラムは、エッジ検出ツールTの選択状態において、利用者によりタッチパネルディスプレイ144上の任意の位置でエッジ検出ツールTを編集するためのジェスチャであるツール編集ジェスチャが接触入力され、ツール編集ジェスチャに基づきタッチパネルディスプレイ144から出力される信号を検出すると、ツール編集ジェスチャに対応する編集をエッジ検出ツールTに施し、タッチパネルディスプレイ144におけるエッジ検出ツールTの表示に反映させる(編集ステップ)。
Further, in the control program executed by the
ツール編集ジェスチャは、ピンチ(2点の接触位置の距離を狭める操作)、アンピンチ(2点の接触位置の距離を広げる操作)、ローテート(2点の接触位置を結ぶ直線の角度を変える操作)、2点の同時接触状態で行われるスワイプ(接触位置を移動させる操作)など、ツール選択ジェスチャと異なる任意のジェスチャを採用してよい。ただし、直感的に入力できるように、エッジ検出ツールTの編集態様に合ったジェスチャを採用するのが望ましい。例えば、ピンチ及びアンピンチにそれぞれ対応する編集を縮小及び拡大とし、ローテートに対応する編集を回転とする。また、2点の同時接触状態で行われるスワイプに対応する編集をスワイプ方向への平行移動とする。また、ツール編集ジェスチャによってエッジ検出ツールTの削除も可能とされるとよい。エッジ検出ツールTの削除に対応するツール編集ジェスチャとして、例えば、2点の同時接触状態で行われるスワイプによってツールがワークウインドウWWの枠外まで移動する操作、所定の閾値以上の速度での2点の同時接触状態で行われるスワイプ操作等を割り当てるとよい。図6は、エッジ検出ツールTを横に拡大する編集に対してアンピンチを採用した例である。 Tool editing gestures include pinch (operation to narrow the distance between two contact positions), unpinch (operation to increase the distance between two contact positions), rotate (operation to change the angle of a straight line connecting two contact positions), and Any gesture different from the tool selection gesture, such as a swipe (operation to move the contact position) performed in the state of simultaneous contact of two points, may be adopted. However, it is desirable to adopt a gesture suitable for the editing mode of the edge detection tool T so that the input can be intuitively performed. For example, the edits corresponding to pinch and unpinch are reduced and enlarged, and the edits corresponding to rotate are rotated. Further, the editing corresponding to the swipe performed in the state of simultaneous contact of two points is defined as translation in the swipe direction. It is also preferable that the edge detection tool T can be deleted by the tool editing gesture. As a tool editing gesture corresponding to the deletion of the edge detection tool T, for example, an operation in which the tool moves out of the frame of the work window WW by a swipe performed in a state of simultaneous contact of two points, and two points at a speed equal to or higher than a predetermined threshold value. It is advisable to assign a swipe operation or the like performed in a simultaneous contact state. FIG. 6 is an example in which unpinch is adopted for editing in which the edge detection tool T is enlarged horizontally.
ツール編集ジェスチャの入力位置は、タッチパネルディスプレイ144上の任意の位置とせずに、撮像画像WGの表示位置や操作性などを考慮した特定の領域内としてもよい。
The input position of the tool editing gesture may not be an arbitrary position on the
ツール選択ジェスチャと選択状態との対応関係、及びツール編集ジェスチャと編集態様との対応関係は、例えば、副記憶部216に記憶しておき制御プログラムの実行時に参照にしてもよいし、制御プログラム自体に書き込んでおいてもよい。
The correspondence between the tool selection gesture and the selected state and the correspondence between the tool editing gesture and the editing mode may be stored in the
なお、エッジ検出ツールTの選択状態においては、ツール編集ジェスチャの入力によってのみ編集可能としてもよいし、編集用ハンドルによっても編集可能としてもよい。 In the selected state of the edge detection tool T, it may be editable only by inputting the tool edit gesture, or it may be editable by the edit handle.
上記の選択ステップと編集ステップとからなるツール編集方法が書き込まれた制御プログラムをCPUで実行することにより機能が実現される制御手段を備える画像測定機によって、エッジ検出ツールの編集態様に応じた直感的なジェスチャ入力が可能となり、かつ、少ない手数で編集を行うことが可能となる。また、エッジ検出ツールの大きさや密集具合によらず、選択したエッジ検出ツールに対して確実に編集操作を行うことが可能となる。 An image measuring machine equipped with a control means whose function is realized by executing a control program in which a tool editing method including the above selection step and an editing step is written is executed by a CPU, and an intuition according to the editing mode of the edge detection tool. It is possible to input a specific gesture and edit with a small number of steps. In addition, regardless of the size and density of the edge detection tool, it is possible to reliably perform an editing operation on the selected edge detection tool.
なお、本発明は上記実施形態に限定されるものではない。上記実施形態は例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。すなわち、本発明において表現されている技術的思想の範囲内で適宜変更が可能であり、その様な変更や改良を加えた形態も本発明の技術的範囲に含む。 The present invention is not limited to the above embodiment. The above-described embodiment is an example, and any of the above-described embodiments having substantially the same configuration as the technical idea described in the claims of the present invention and having the same effect and effect is the present invention. Is included in the technical scope of. That is, it can be appropriately changed within the scope of the technical idea expressed in the present invention, and the form to which such a change or improvement is added is also included in the technical scope of the present invention.
上記実施形態では、エッジ検出ツールTに対してツール選択ジェスチャが接触入力されたことに応じてエッジ検出ツールTが選択されたが、エッジ検出ツールを選択方法はこれに限定されない。例えば、タッチパネルディスプレイに表示されている複数のエッジ検出ツールのうちいずれを選択状態とするかを変更するためのボタンをメインウインドウMW内に表示し、当該ボタンに対する操作(例えば、タッチ入力によるタップ、マウス操作によるクリック等)に応じてエッジ検出ツールTを選択状態としてもよい。 In the above embodiment, the edge detection tool T is selected in response to the contact input of the tool selection gesture to the edge detection tool T, but the method for selecting the edge detection tool is not limited to this. For example, a button for changing which of a plurality of edge detection tools displayed on the touch panel display is selected is displayed in the main window MW, and an operation for the button (for example, tapping by touch input, etc.) is displayed. The edge detection tool T may be selected according to (clicking by mouse operation, etc.).
1…画像測定機
100…ステージ
101、102、112…ハンドル
110…筐体
140…コンピュータシステム
141…コンピュータ本体
142…キーボード
143…マウス
144…タッチパネルディスプレイ
211…CPU
212…インタフェース
213…出力部
214…入力部
215…主記憶部
216…副記憶部
H…編集用ハンドル
MM…記録媒体
MW…メインウインドウ
T…エッジ検出ツール
W…測定対象物
WW…ワークウインドウ
WG…撮像画像
1 ...
212 ... Interface 213 ...
Claims (13)
前記タッチパネルディスプレイに表示された前記エッジ検出ツールを選択状態とし、前記選択状態において前記タッチパネルディスプレイ上の任意の位置で前記エッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、前記ツール編集ジェスチャに対応する編集を前記エッジ検出ツールに対して施す制御手段を備えることを特徴とする画像測定機。 An image measuring machine that captures an image of the object to be measured and measures the dimensions and shape of the object to be measured by using an edge detection tool arranged by the user with respect to the captured image of the object to be measured displayed on the touch panel display. And
The edge detection tool displayed on the touch panel display is selected, and in the selected state, a tool editing gesture, which is a gesture for editing the edge detection tool at an arbitrary position on the touch panel display, is input by contact. An image measuring machine comprising a control means for performing editing corresponding to the tool editing gesture to the edge detection tool.
前記ピンチ及びアンピンチにそれぞれ対応する編集は前記エッジ検出ツールの縮小及び拡大である
ことを特徴とする請求項1に記載の画像測定機。 The tool editing gestures include pinch and unpinch.
The image measuring machine according to claim 1, wherein the editing corresponding to the pinch and the unpinch is the reduction and enlargement of the edge detection tool, respectively.
前記ローテートに対応する編集は前記エッジ検出ツールの回転である
ことを特徴とする請求項1又は2に記載の画像測定機。 The tool editing gesture includes rotate and
The image measuring machine according to claim 1 or 2, wherein the editing corresponding to the rotation is rotation of the edge detection tool.
前記2点の同時接触状態で行われるスワイプに対応する編集は前記エッジ検出ツールのスワイプの方向への平行移動である
ことを特徴とする請求項1から3の何れか1項に記載の画像測定機。 The tool editing gesture includes a swipe performed in a state of simultaneous contact of two points.
The image measurement according to any one of claims 1 to 3, wherein the editing corresponding to the swipe performed in the simultaneous contact state of the two points is translation in the direction of the swipe of the edge detection tool. Machine.
前記タッチパネルディスプレイに表示された前記エッジ検出ツールを選択状態とする選択ステップと、
前記選択状態において前記タッチパネルディスプレイ上の任意の位置で前記エッジ検出ツールを編集するためのジェスチャであるツール編集ジェスチャが接触入力されることにより、前記ツール編集ジェスチャに対応する編集を前記エッジ検出ツールに対して施す編集ステップと、
を実行するツール編集方法。 When the measurement object is imaged and the dimensions and shape of the measurement object are measured by using an edge detection tool arranged by the user with respect to the captured image of the measurement object displayed on the touch panel display. This is a tool editing method for editing the edge detection tool.
A selection step for selecting the edge detection tool displayed on the touch panel display, and
When the tool editing gesture, which is a gesture for editing the edge detection tool at an arbitrary position on the touch panel display in the selected state, is touch-input, the editing corresponding to the tool editing gesture is transferred to the edge detection tool. Editing steps to be performed on
How to edit a tool to run.
前記ピンチ及びアンピンチにそれぞれ対応する編集は前記エッジ検出ツールの縮小及び拡大である
ことを特徴とする請求項7に記載のツール編集方法。 The tool editing gestures include pinch and unpinch.
The tool editing method according to claim 7, wherein the editing corresponding to the pinch and the unpinch is the reduction and enlargement of the edge detection tool, respectively.
前記ローテートに対応する編集は前記エッジ検出ツールの回転である
ことを特徴とする請求項7又は8に記載のツール編集方法。 The tool editing gesture includes rotate and
The tool editing method according to claim 7, wherein the editing corresponding to the rotation is rotation of the edge detection tool.
前記2点の同時接触状態で行われるスワイプに対応する編集は前記エッジ検出ツールの平行移動である
ことを特徴とする請求項7から9の何れか1項に記載のツール編集方法。 The tool editing gesture includes a swipe performed in a state of simultaneous contact of two points.
The tool editing method according to any one of claims 7 to 9, wherein the editing corresponding to the swipe performed in the simultaneous contact state of the two points is translation of the edge detection tool.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003147A JP6985157B2 (en) | 2018-01-12 | 2018-01-12 | Image measuring machines, tool editing methods, and programs |
US16/238,928 US10656780B2 (en) | 2018-01-12 | 2019-01-03 | Position specifying method and program |
CN201910028062.6A CN110032306A (en) | 2018-01-12 | 2019-01-11 | Position designation method and storage medium |
DE102019200284.6A DE102019200284A1 (en) | 2018-01-12 | 2019-01-11 | Method and program for specifying a position |
US16/817,711 US20200210049A1 (en) | 2018-01-12 | 2020-03-13 | Position specifying method and program |
US17/307,048 US11314374B2 (en) | 2018-01-12 | 2021-05-04 | Position specifying method and program |
US17/705,936 US11656733B2 (en) | 2018-01-12 | 2022-03-28 | Position specifying method and program |
US18/299,905 US20230251753A1 (en) | 2018-01-12 | 2023-04-13 | Position specifying method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003147A JP6985157B2 (en) | 2018-01-12 | 2018-01-12 | Image measuring machines, tool editing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019124993A JP2019124993A (en) | 2019-07-25 |
JP6985157B2 true JP6985157B2 (en) | 2021-12-22 |
Family
ID=67398706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018003147A Active JP6985157B2 (en) | 2018-01-12 | 2018-01-12 | Image measuring machines, tool editing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6985157B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7333219B2 (en) * | 2005-03-29 | 2008-02-19 | Mitutoyo Corporation | Handheld metrology imaging system and method |
JP2008070968A (en) * | 2006-09-12 | 2008-03-27 | Funai Electric Co Ltd | Display processor |
JP5859298B2 (en) * | 2011-12-08 | 2016-02-10 | 任天堂株式会社 | Information processing system, information processing apparatus, information processing method, and information processing program |
EP2759921B1 (en) * | 2013-01-25 | 2020-09-23 | Morpho, Inc. | Image display apparatus, image displaying method and program |
-
2018
- 2018-01-12 JP JP2018003147A patent/JP6985157B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019124993A (en) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6206457B2 (en) | Information processing apparatus and program | |
US8896549B2 (en) | Method and system for duplicating an object using a touch-sensitive display | |
JP7232054B2 (en) | Image measuring machine and program | |
CN104011629A (en) | Enhanced target selection for a touch-based input enabled user interface | |
JP2016173703A (en) | Method of supporting input operation using touch display unit | |
JP2010224663A (en) | Information processing apparatus, information processing method, and program | |
JP6248462B2 (en) | Information processing apparatus and program | |
US20230251753A1 (en) | Position specifying method and program | |
JP6985157B2 (en) | Image measuring machines, tool editing methods, and programs | |
JP7078403B2 (en) | Image measuring machine and program | |
JP6985158B2 (en) | Image measuring machine and program | |
JP6998775B2 (en) | Image measuring machine and program | |
JP6232694B2 (en) | Information processing apparatus, control method thereof, and program | |
JP7113625B2 (en) | Positioning method and program | |
CN105739816A (en) | Selection of a graphical element | |
JP2009003566A (en) | Window display device and window display method | |
JP5120290B2 (en) | 3D coordinate input method, computer program, and 3D coordinate input device | |
JP2023034010A (en) | Display device, display system, display control method, and program | |
JP2019124992A (en) | Position designation method and program | |
JP5987869B2 (en) | Display control device, display control method, display control program, and recording medium | |
JP2019124996A (en) | Image measurement machine, image measurement method, and image measurement program | |
JP2016173832A (en) | Display control device, display control method, display control program, and recording medium | |
JPH05174121A (en) | Graphic processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6985157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |