DE102019200284A1 - Verfahren und Programm zum Vorgeben einer Position - Google Patents

Verfahren und Programm zum Vorgeben einer Position Download PDF

Info

Publication number
DE102019200284A1
DE102019200284A1 DE102019200284.6A DE102019200284A DE102019200284A1 DE 102019200284 A1 DE102019200284 A1 DE 102019200284A1 DE 102019200284 A DE102019200284 A DE 102019200284A DE 102019200284 A1 DE102019200284 A1 DE 102019200284A1
Authority
DE
Germany
Prior art keywords
contact position
displayed
touch panel
edge
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019200284.6A
Other languages
English (en)
Inventor
Gyokubu Cho
Koichi Komatsu
Hiraku Ishiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018003147A external-priority patent/JP6985157B2/ja
Priority claimed from JP2018003145A external-priority patent/JP7113625B2/ja
Priority claimed from JP2018003148A external-priority patent/JP7078403B2/ja
Priority claimed from JP2018003151A external-priority patent/JP2019124996A/ja
Priority claimed from JP2018003149A external-priority patent/JP6998775B2/ja
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Publication of DE102019200284A1 publication Critical patent/DE102019200284A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Positionsvorgabeverfahren zum Vorgeben einer Position über eine Berührungseingabe an einem Bildschirm, der an einem Berührungsfeld-Display angezeigt wird. Die Position wird vorgegeben durch die Schritte des Erfassens einer anfänglichen Kontaktposition, d.h. einer Kontaktposition zu Beginn des Abfühlens einer Position, in der ein Kontakt mit dem Berührungsfeld-Display hergestellt wird, des Anzeigens eines Positionsanzeigezeigers in einer Position gemäß der anfänglichen Kontaktposition, des Anzeigens des Positionsanzeigezeigers in der Position gemäß der anfänglichen Kontaktposition während der Periode, in der das Abfühlen der Kontaktposition fortfährt, bis der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition einen vorbestimmten Abstand erreicht, und des Beendens der Anzeige des Positionsanzeigezeigers, ohne dass eine Positionsvorgabebetätigung ausgeführt wird, für den Fall, dass das Abfühlen der Kontaktposition beendet ist, bevor der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, und des Anzeigens des Positionsanzeigezeigers, so dass der Positionsanzeigezeiger der Bewegung der Kontaktposition folgt, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, so dass die relative Positionsbeziehung zwischen dem Positionsanzeigezeiger und der Kontaktposition zu dem Zeitpunkt, zu dem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, während der Periode, in der das Abfühlen der Kontaktposition fortfährt, bewahrt wird, und des Einstellens, wenn eine Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, der Position, in welcher der Positionsanzeigezeiger angezeigt wird, wenn die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, als eine vorgegebene Position.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Positionsvorgabeverfahren, um über eine Berührungseingabe eine Position an einem Bildschirm, der an einem Berührungsfeld-Display angezeigt wird, vorzugeben.
  • Allgemeiner Stand der Technik
  • Ein Bildmessgerät wird als ein Messgerät verwendet, das die Abmessungen und die Form eines Messzielobjekts (nachstehend auch als „Werkstück“ bezeichnet) unter Verwendung eines Bildes, das durch Abbilden des Werkstücks erzielt wird, misst und bewertet. Das Bildmessgerät erfasst Informationen über eine Kante (wie etwa die Positionskoordinaten der Kante) einer Messzielfigur, die in dem aufgenommenen Bild des Werkstücks enthalten ist, und bewertet die Form und die Abmessungen des Werkstücks basierend auf den Kanteninformationen.
  • In den letzten Jahren hat die Verbreitung eines Berührungsfeld-Displays bewirkt, dass eine so genannte Berührungsschnittstelle weitgehend als eine intuitiv leicht zu bedienende Benutzerschnittstelle verwendet wird, die beispielsweise durch Berühren des Displays betätigt werden kann, und eine derartige Berührungsschnittstelle wird auch in einem Bildmessgerät verwendet (siehe beispielsweise die japanische Patent-Auslegeschrift Nr. 2016-173703 ).
  • Eine Berührungsschnittstelle ermöglicht eine intuitive Betätigung, ist jedoch bei einem genauen Vorgeben einer vorgesehenen Position eines Benutzers problematisch, wenn der Benutzer versucht, eine Position auf einem feinen Niveau an dem angezeigten Bildschirm vorzugeben. D.h. um eine Position an dem angezeigten Bildschirm mit herkömmlichen Eingabemitteln, für die eine Maus stellvertretend ist, vorzugeben, wird eine Maus oder ein beliebiges anderes Eingabemittel verwendet, um einen Zeiger zu bewegen, der an dem Bildschirm angezeigt wird, und um den Zeiger in einer vorgesehenen Position genau zu positionieren, um die Position vorzugeben. Dagegen ist für den Fall einer Berührungsschnittstelle der Schwerpunkt einer Region, in der ein Finger oder eine Spitze eines Stifts mit dem Display in Kontakt steht, typischerweise die vorgegebene Position. Da der Schwerpunkt der Kontaktregion hinter dem Finger oder der Spitze des Stifts liegt und dafür für den Benutzer nicht zu sehen ist, kann der Benutzer die genaue Position, die durch den Benutzer vorgegeben wird, nicht begreifen, und es ist daher nicht einfach, die vorgesehene Position genau vorzugeben.
  • KURZ DARSTELLUNG DER ERFINDUNG
  • Durch die Erfindung zu lösende Probleme
  • Angesichts des zuvor beschriebenen Problems besteht eine Aufgabe der vorliegenden Erfindung darin, ein Verfahren und ein Programm zum Vorgeben einer Position bereitzustellen, die es ermöglichen, eine Position durch eine Fingerberührungseingabe genau vorzugeben.
  • Mittel zur Problemlösung
  • Um das zuvor beschriebene Problem zu lösen, umfasst ein Positionsvorgabeverfahren gemäß der vorliegenden Erfindung die Schritte zum Erfassen einer anfänglichen Kontaktposition, d.h. einer Kontaktposition zu Beginn des Abfühlens einer Position, an der ein Kontakt mit einem Berührungsfeld-Display hergestellt wird, zum Anzeigen eines Positionsanzeigezeigers in einer Position gemäß der anfänglichen Kontaktposition, Anzeigen des Positionsanzeigezeigers in der Position gemäß der anfänglichen Kontaktposition während einer Periode, in der das Abfühlen der Kontaktposition fortfährt, bis ein Abstand von der anfänglichen Kontaktposition zu der Kontaktposition einen vorbestimmten Abstand erreicht, und zum Beenden der Anzeige des Positionsanzeigezeigers ohne Ausführung einer Positionsvorgabebetätigung für den Fall, dass das Abfühlen der Kontaktposition beendet ist, bevor der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, und zum Anzeigen des Positionsanzeigezeigers, so dass der Positionsanzeigezeiger der Bewegung der Kontaktposition folgt, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, so dass eine relative Positionsbeziehung zwischen dem Positionsanzeigezeiger und der Kontaktposition zu einem Zeitpunkt, zu dem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, während der Periode bewahrt wird, während der das Abfühlen der Kontaktposition fortfährt, und zum Einstellen, wenn eine Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, einer Position, in welcher der Positionsanzeigezeiger angezeigt wird, wenn die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, als eine vorgegebene Position.
  • Gemäß der zuvor beschriebenen Konfiguration, da die Position, die durch den Positionsanzeigezeiger angegeben wird, visuell zu erkennen ist, kann die Position genau vorgegeben werden. Da ferner eine vorgegebene Position nur erfasst wird, wenn der Abstand zwischen der Kontaktposition und der anfänglichen Kontaktposition den vorbestimmten Abstand erreicht, kann eine unnötige Positionsvorgabebetätigung auf Grund eines ungewollten Kontakts vermieden werden.
  • Bei der vorliegenden Erfindung kann ein Erscheinungsbild, mit dem der Positionsanzeigezeiger angezeigt wird, bevor der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, anders als ein Erscheinungsbild sein, mit dem der Positionsanzeigezeiger angezeigt wird, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat. Ferner kann bei der vorliegenden Erfindung die Betätigung zum Beenden einer Positionsvorgabebetätigung eine Betätigung zum Beenden des Kontakts sein.
  • Ein Programm gemäß der vorliegenden Erfindung bewirkt, dass ein Computer eines der zuvor beschriebenen Positionsvorgabeverfahren durchführt.
  • Zusätzlich zu dem Vorstehenden stellt die vorliegende Offenbarung die folgenden Punkte bereit:
  • Punkt 1
  • Ein Bildmessgerät, das ein Messzielobjekt abbildet und ein Kantenerkennungs-Tool verwendet, das durch einen Benutzer in dem aufgenommenen Bild des Messzielobjekts, das an einem Berührungsfeld-Display angezeigt wird, angeordnet wird, um die Abmessungen und die Form des Messzielobjekts zu messen,
    wobei das Bildmessgerät Steuermittel umfasst, um zu bewirken, dass das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, ausgewählt wird, und um das Kantenerkennungs-Tool in dem ausgewählten Zustand in Übereinstimmung mit einer Tool-Bearbeitungsgeste zu bearbeiten, wobei es sich um eine Geste zum Bearbeiten des Kantenerkennungs-Tools handelt, wenn das Berührungsfeld-Display in einer beliebigen Position daran berührt wird, so dass die Tool-Bearbeitungsgeste darin eingegeben wird.
  • Punkt 2
  • Das Bildmessgerät nach Punkt 1,
    wobei die Tool-Bearbeitungsgeste Ein- und Auszoomaktionen umfasst, und
    die Bearbeitung, die der Einzoomaktion entspricht, die Verkleinerung des Kantenerkennungs-Tools ist, und die Bearbeitung, die der Auszoomaktion entspricht, die Vergrößerung des Kantenerkennungs-Tools ist.
  • Punkt 3
  • Das Bildmessgerät nach Punkt 1 oder 2,
    wobei die Tool-Bearbeitungsgeste eine Drehaktion umfasst, und
    die Bearbeitung, die der Drehaktion entspricht, die Drehung des Kantenerkennungs-Tools ist.
  • Punkt 4
  • Das Bildmessgerät nach einem der Punkte 1 bis 3,
    wobei die Tool-Bearbeitungsgeste eine Wischaktion umfasst, die in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, und
    die Bearbeitung, die der Wischaktion entspricht, die in dem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, eine Parallelverschiebung des Kantenerkennungs-Tools in einer Wischrichtung ist.
  • Punkt 5
  • Das Bildmessgerät nach einem der Punkte 1 bis 4,
    wobei das Kantenerkennungs-Tool ausgewählt wird, wenn das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, berührt wird und eine Tool-Auswahlgeste, bei der es sich um eine Geste zum Auswählen des Kantenerkennungs-Tools handelt, eingegeben wird.
  • Punkt 6
  • Das Bildmessgerät nach Punkt 5,
    wobei die Tool-Auswahlgeste eine Antippaktion ist.
  • Punkt 7
  • Ein Tool-Bearbeitungsverfahren zum Bearbeiten eines Kantenerkennungs-Tools, wenn ein Messzielobjekt abgebildet wird und das Kantenerkennungs-Tool durch einen Benutzer in dem aufgenommenen Bild des Messzielobjekts, das an einem Berührungsfeld-Display angezeigt wird, angeordnet wird, wird verwendet, um die Abmessungen und eine Form des Messzielobjekts zu messen, wobei das Tool-Bearbeitungsverfahren Folgendes durchführt:
    • einen Auswahlschritt zum Bewirken, dass das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, ausgewählt wird; und
    • einen Bearbeitungsschritt zum Bearbeiten des Kantenerkennungs-Tools in dem ausgewählten Zustand in Übereinstimmung mit einer Tool-Bearbeitungsgeste, wobei es sich um eine Geste zum Bearbeiten des Kantenerkennungs-Tools handelt, wenn das Berührungsfeld-Display in einer beliebigen Position daran berührt wird, so dass die Tool-Bearbeitungsgeste darin eingegeben wird.
  • Punkt 8
  • Das Tool-Bearbeitungsverfahren nach Punkt 7,
    wobei die Tool-Bearbeitungsgeste Ein- und Auszoomaktionen umfasst, und
    die Bearbeitung, die der Einzoomaktion entspricht, die Verkleinerung des Kantenerkennungs-Tools ist, und die Bearbeitung, die der Auszoomaktion entspricht, die Vergrößerung des Kantenerkennungs-Tools ist.
  • Punkt 9
  • Das Tool-Bearbeitungsverfahren nach Punkt 7 oder 8,
    wobei die Tool-Bearbeitungsgeste eine Drehaktion umfasst, und
    die Bearbeitung, die der Drehaktion entspricht, die Drehung des Kantenerkennungs-Tools ist.
  • Punkt 10
  • Das Tool-Bearbeitungsverfahren nach einem der Punkte 7 bis 9,
    wobei die Tool-Bearbeitungsgeste eine Wischaktion umfasst, die in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, und
    die Bearbeitung, die der Wischaktion entspricht, die in dem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, eine Parallelverschiebung des Kantenerkennungs-Tools ist.
  • Punkt 11
  • Das Tool-Bearbeitungsverfahren nach einem der Punkte 7 bis 10,
    wobei das Kantenerkennungs-Tool ausgewählt wird, wenn das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, berührt wird, und eine Tool-Auswahlgeste, bei der es sich um eine Geste zum Auswählen des Kantenerkennungs-Tools handelt, eingegeben wird.
  • Punkt 12
  • Das Tool-Bearbeitungsverfahren nach Punkt 11,
    wobei die Tool-Auswahlgeste eine Antippaktion ist.
  • Punkt 13
  • Ein Programm zum Bewirken, dass ein Computer als Steuermittel in dem Bildmessgerät, das in einem der Punkte 1 bis 6 beschrieben wurde, dient.
  • Punkt 14
  • Ein Bildmessgerät, das ein Messzielobjekt abbildet und die Abmessungen und eine Form des Messzielobjekts basierend auf dem aufgenommenen Bild des Messzielobjekts, das an einem Berührungsfeld-Display angezeigt wird, misst,
    wobei das Bildmessgerät Steuermittel umfasst, um einen Befehl, der einer Geste entspricht, die durch eine Berührungsbetätigung eingegeben wird, die an dem Berührungsfeld-Display ausgeführt wird, basierend auf einem Signal, das von dem Berührungsfeld-Display gemäß der Geste ausgegeben wird, zu identifizieren, und um den Befehl an einem Abschnitt des Bildmessgeräts auszuführen, der ein Abschnitt ist, an dem der Befehl ausgeführt wird,
    wobei die Geste in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird.
  • Punkt 15
  • Das Bildmessgerät nach Punkt 14,
    wobei der Befehl ein Befehl ist, der eine physische Bewegung des Abschnitts des Bildmessgeräts bewirkt.
  • Punkt 16
  • Das Bildmessgerät nach Punkt 14 oder 15,
    wobei die Geste, die in dem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, eine Aktion des Antippens, des doppelten Antippens, des langen Antippens, des Schnipsens, des Wischens oder des Drehens ist.
  • Punkt 17
  • Ein Programm zum Bewirken, dass ein Computer als Steuermittel in dem Bildmessgerät, das in einem der Punkte 14 bis 16 beschrieben wurde, dient.
  • Punkt 18
  • Ein Bildmessgerät, das ein Messzielobjekt abbildet, das auf einen Objekttisch gelegt wird, der in zwei- oder dreidimensionalen Richtungen bewegbar ist, und die Abmessungen und die Form des Messzielobjekts basierend auf dem aufgenommenen Bild des Messzielobjekts, das an einem Berührungsfeld-Display angezeigt wird, misst,
    wobei das Bildmessgerät ferner Steuermittel zum Anzeigen einer Schaltfläche umfasst, die mit einer Kennung markiert ist, um einen vorbestimmten Befehl derart einzugeben, dass die Schaltfläche in dem aufgenommenen Bild, das an dem Berührungsfeld-Display angezeigt wird, eingeblendet wird, ferner zum Anzeigen, wenn ein Benutzer eine Berührungseingabebetätigung an dem Abschnitt ausführt, in dem die Kennung angezeigt wird, eines Menüs zum selektiven Eingeben eines Aktionsmodus des Befehls, welcher der Schaltfläche an dem Berührungsfeld-Display entspricht, zum Zuordnen, wenn der Benutzer einen der Aktionsmodi in dem Menü über eine Berührungseingabebetätigung auswählt, des ausgewählten Aktionsmodus zu der Schaltfläche, und zum Durchführen, wenn der Benutzer eine Berührungseingabebetätigung an der Schaltfläche ausführt, des Befehls, welcher der Schaltfläche entspricht, in dem zugeordneten Aktionsmodus.
  • Punkt 19
  • Das Bildmessgerät nach Punkt 18,
    wobei der vorbestimmte Befehl ein Befehl ist, der bewirkt, dass sich der Objekttisch in einer der zwei- oder dreidimensionalen Richtungen bewegt,
    die Schaltfläche, die mit der Kennung markiert ist, eine Richtungsschaltfläche ist, die mit einer Kennung markiert ist, die eine der zwei- oder dreidimensionalen Richtungen darstellt, und
    der Aktionsmodus mindestens zwei von einer feinen Bewegung, einer schrittweisen Bewegung und einer durchgehenden Bewegung umfasst.
  • Punkt 20
  • Das Bildmessgerät nach Punkt 18 oder 19, wobei das Steuermittel die Schaltfläche anzeigt, wenn der Benutzer eine vorbestimmte Eingabebetätigung ausführt.
  • Punkt 21
  • Ein Programm zum Bewirken, dass ein Computer als Steuermittel in dem Bildmessgerät, das in einem der Punkte 18 bis 20 beschrieben wurde, dient.
  • Punkt 22
  • Ein Bildmessgerät, umfassend
    einen Bildgeber, der ein Bild eines Messzielobjekts erfasst,
    ein Berührungsfeld-Display, welches das Bild anzeigt, das durch den Bildgeber erfasst wird, und eine Berührungseingabebetätigung annimmt, die darin besteht, eine Position in dem angezeigten Bild vorzugeben, und
    einen Kantendetektor, der eine Kante, die in einem vorbestimmten Bereich um die in dem Bild vorgegebene Position herum vorhanden ist, die durch eine Berührungseingabebetätigung des Benutzers in dem Bild, das an dem Berührungsfeld-Display angezeigt wird, vorgegeben wird, sucht und erkennt,
    wobei, wenn eine Vielzahl von Kanten in der Nähe der vorgegebenen Position gefunden wird, der Kantendetektor bewirkt, dass ein Steuerobjekt jede der Kanten, die an dem Berührungsfeld-Display anzuzeigen sind, nicht nur mit einem Erscheinungsbild, das verhindert, dass eine falsche Kante durch die Berührungsbetätigung ausgewählt wird, sondern auch mit einem Erscheinungsbild, der eine visuelle Erkennung der Übereinstimmung zwischen jeder der Kanten und einem entsprechenden Steuerobjekt ermöglicht, auswählt.
  • Punkt 23
  • Das Bildmessgerät nach Punkt 22, wobei der Kantendetektor den vorbestimmten Bereich, indem eine Kante gesucht wird, gemäß einer Größe einer Region, in der das Berührungsfeld-Display einen Kontakt abfühlt, der sich aus der Berührungseingabebetätigung ergibt, einstellt.
  • Punkt 24
  • Das Bildmessgerät nach Punkt 22, ferner umfassend zweite Eingabemittel, die anders als das Berührungsfeld-Display sind und eine Eingabebetätigung ermöglichen, die darin besteht, eine Position vorzugeben,
    wobei der Kantendetektor, wenn die Berührungsbetätigung, die an dem Berührungsfeld-Display erfolgt, die vorgegebene Position vorgibt, einen breiteren Bereich durchsucht, um eine Kante zu erkennen, als für den Fall, bei dem die vorgegebene Position durch eine Eingabebetätigung vorgegeben wird, die an den zweiten Eingabemitteln erfolgt.
  • Punkt 25
  • Ein Bildmessverfahren, das folgende Schritte umfasst:
    • Anzeigen eines Bildes eines Messzielobjekts an einem Berührungsfeld-Display;
    • Annehmen einer Berührungseingabebetätigung, die darin besteht, eine Position in dem Bild, das an dem Berührungsfeld-Display angezeigt wird, vorzugeben; und
    • Suchen und Erkennen einer Kante, die in einem vorbestimmten Bereich um die vorgegebene Position herum, die in dem Schritt zum Annehmen der Berührungsbetätigung vorgegeben wird, vorliegt,
    • wobei, wenn eine Vielzahl von Kanten in der Nähe der vorgegebenen Position gefunden wird, ein Steuerobjekt zum Auswählen jeder der Kanten an dem Berührungsfeld-Display nicht nur mit einem Erscheinungsbild, das verhindert, dass eine falsche Kante durch die Berührungsbetätigung ausgewählt wird, sondern auch mit einem Erscheinungsbild, das eine visuelle Erkennung einer Entsprechung zwischen jeder der Kanten und einem entsprechenden Steuerobjekt ermöglicht, angezeigt wird.
  • Punkt 26
  • Ein Programm zum Erkennen einer Kante einer Figur, die in einem Bild eines Messzielobjekts enthalten ist,
    wobei das Bildmessprogramm bewirkt, dass ein Computer das Bildmessverfahren, das in Punkt 25 beschrieben wurde, ausführt.
  • Figurenliste
  • Es zeigen:
    • 1 ein Beispiel der Gesamtkonfiguration eines Bildmessgeräts;
    • 2 ein Funktionsblockdiagramm eines Computersystems;
    • 3 ein Beispiel eines angezeigten Bildschirms, der an einem Berührungsfeld-Display angezeigt wird;
    • 4 das Ablaufschema eines Positionsvorgabeprozesses;
    • 5A und 5B schematisch, dass ein Benutzer einen Bildschirm (erstes Fenster W1) mit einem Finger berührt;
    • 6A und 6B schematisch, dass eine Kontaktposition CP gegenüber einer anfänglichen Kontaktposition P1 geringfügig verschoben ist;
    • 7 ein Beispiel des Bildschirms, der angezeigt wird, wenn der Abstand von der anfänglichen Kontaktposition P1 zu der Kontaktposition CP einen vorbestimmten Abstand erreicht, und ferner den Finger des Benutzers;
    • 8 ein Beispiel des Bildschirms, der angezeigt wird, wenn die Kontaktposition CP aus dem in 7 gezeigten Zustand weiter bewegt wird, und ferner den Finger des Benutzers;
    • 9 ein Beispiel des Bildschirms, der angezeigt wird, nachdem eine Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wurde;
    • 10 ein Beispiel eines angezeigten Bildschirms, in dem ein Kantenerkennungs-Tool angeordnet ist;
    • 11 ein Beispiel der Auswahl des Kantenerkennungs-Tools;
    • 12 ein Beispiel, bei dem das Kantenerkennungs-Tool ausgewählt wurde;
    • 13 ein Beispiel des Bearbeitens des Kantenerkennungs-Tools durch eine Gesteneingabe;
    • 14 ein Beispiel des Bildschirms, der an einem Berührungsfeld-Display angezeigt wird;
    • 15 ein Beispiel des gleichzeitigen Kontakts mit zwei Fingern mit dem Berührungsfeld-Display;
    • 16 ein Beispiel eines Bildschirms, der an dem Berührungsfeld-Display angezeigt wird;
    • 17 ein anderes Beispiel des Bildschirms, der an dem Berührungsfeld-Display angezeigt wird;
    • 18A und 18B ein Beispiel des Bildschirmübergangs als Reaktion auf eine Berührungseingabebetätigung;
    • 19 ein Beispiel des angezeigten ersten Fensters, bevor die Kanteninformationen erfasst werden;
    • 20 ein Ablaufschema des Prozesses des Erfassens von Kanteninformationen unter Verwendung eines Ein-Klick-Tools;
    • 21 schematisch eine Positionsvorgabebetätigung, die an einem Bild eines Werkstücks, das in dem ersten Fenster angezeigt wird, ausgeführt wird;
    • 22 ein Beispiel des ersten Fensters, das angezeigt wird, wenn eine Vielzahl von Kanten detektiert wurde; und
    • 23 ein Beispiel des ersten Fensters, das angezeigt wird, nachdem eine Kante ausgewählt wurde.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Nachstehend werden Ausführungsformen der vorliegenden Erfindung mit Bezug auf die Zeichnungen beschrieben. In der folgenden Beschreibung weisen die gleichen Elemente die gleichen Bezugszeichen auf, und ein Element, das schon einmal beschrieben wurde, wird gegebenenfalls nicht beschrieben.
  • Erste Ausführungsform
  • Konfiguration des Bildmessgeräts
  • 1 zeigt ein Beispiel der Gesamtkonfiguration eines Bildmessgeräts. Ein Bildmessgerät 1 umfasst einen Objekttisch 100, ein Gehäuse 110 und ein Computersystem 140. Der Objekttisch 100 ist derart angeordnet, dass seine obere Oberfläche mit einer waagerechten Ebene zusammenfällt, und ein Werkstück W wird auf die obere Oberfläche gelegt. Der Objekttisch 100 kann durch Motoren oder eine Betätigung des Drehens von Griffen 101 und 102 in einer X-Achsenrichtung und einer Y-Achsenrichtung bewegt werden. Das Gehäuse 110 nimmt ein optisches System auf, das einen Illuminator, wie etwa einen Transmissionsilluminator und einen Vertikalilluminator, und eine Bildgebungsvorrichtung, umfasst, das Gehäuse 110 selber kann zusammen mit dem optischen System und der Bildgebungsvorrichtung durch einen Motor oder die Betätigung des Drehens eines Griffs 112 in einer Z-Achsenrichtung bewegt werden.
  • Das Computersystem 140 steuert den Objekttisch 100 und das Gehäuse 110, um ein aufgenommenes Bild des Werkstücks W zu erfassen und einem Benutzer eine Betriebsumgebung bereitzustellen. Das Computersystem 140 umfasst beispielsweise einen Computerhauptkörper 141, eine Tastatur 142, eine Maus 143 und ein Berührungsfeld-Display 144. Der Computerhauptkörper 141 steuert die Aktionen des Objekttischs 100 und des Gehäuses 110 basierend auf einer Schaltung (Hardware), wie etwa einer Steuerplatine, und einem Programm (Software), das durch eine CPU ausgeführt wird. Der Computerhauptkörper 141 erfasst und berechnet ferner Informationen über das Werkstück W basierend auf Signalen, die von dem Objekttisch 100 und dem Gehäuse 110 ausgegeben werden, und zeigt das Ergebnis der Berechnung an dem Berührungsfeld-Display 144 an. Die Tastatur 142 und die Maus 143 sind Mittel zum Eingeben von Informationen in den Computerhauptkörper 141. Das Berührungsfeld-Display 144 dient als Anzeigemittel zum Anzeigen eines Bildes, das von dem Computerhauptkörper ausgegeben wird, und dient ferner als Eingabemittel zum Erkennen einer Bildschirmberührungsbetätigung und zum Eingeben von Informationen, die der Betätigung entsprechen, in den Computerhauptkörper 141.
  • 2 ist ein Funktionsblockdiagramm des Computersystems 140. Die Funktionsblöcke des Computersystems 140 umfassen eine CPU (Zentraleinheit) 211, eine Schnittstelle 212, einen Ausgabeteilabschnitt 213, einen Eingabeteilabschnitt 214, eine primäre Speichervorrichtung 215 und eine sekundäre Speichervorrichtung 216.
  • Die CPU 211 führt diverse Programme aus, um jeden Abschnitt des Bildmessgeräts zu steuern. Die Schnittstelle 212 ist ein Abschnitt, der für die Eingabe und Ausgabe von Informationen in und aus einem externen Gerät verantwortlich ist, d.h. ein Abschnitt, der Informationen aufnimmt, die von dem Objekttisch 100 und dem Gehäuse 110 gesendet werden, und die Informationen an das Computersystem 140 weiterleitet, Informationen von dem Computersystem 140 an den Objekttisch 100 und das Gehäuse 110 sendet, das Computersystem 140 mit einem LAN (lokalen Netzwerk) oder einem WAN (Weitverkehrsnetzwerk) verbindet, und andere Aufgaben erfüllt.
  • Der Ausgabeteilabschnitt 213 gibt ein Ergebnis eines Prozesses aus, der durch das Computersystem 140 durchgeführt wird. Als Ausgabeteilabschnitt 213 werden beispielsweise das in 1 gezeigte Berührungsfeld-Display 144 und ein Drucker verwendet. Der Eingabeteilabschnitt 214 nimmt Informationen von einem Bediener an. Als Eingabeteilabschnitt 214 werden beispielsweise die Tastatur 142, die Maus 143 und das Berührungsfeld-Display 144, die in 1 gezeigt sind, verwendet. Der Eingabeteilabschnitt 214 erfüllt die Funktion des Lesens von Informationen, die auf einem Aufzeichnungsmedium MM aufgezeichnet sind. Das Aufzeichnungsmedium MM speichert ein Bildanzeigeprogramm und ein Steuerprogramm, die Anweisungen enthalten, welche die Funktionen der Steuermittel in der vorliegenden Erfindung erfüllen, und die CPU liest die Programme und führt sie aus, um die Funktionen der Steuermittel und anderer Mittel zu erfüllen.
  • Die primäre Speichervorrichtung 215 ist beispielsweise ein RAM (Arbeitsspeicher). Ein Teil der sekundären Speichervorrichtung 216 kann als Teil der primären Speichervorrichtung 215 verwendet werden. Die sekundäre Speichervorrichtung 216 ist beispielsweise ein HDD (Festplattenlaufwerk) oder ein SSD (Solid-State-Laufwerk). Die sekundäre Speichervorrichtung 216 kann stattdessen eine externe Speichervorrichtung sein, die über ein Netzwerk mit dem Computersystem 140 verbunden ist.
  • Bildschirmanzeige
  • Als Nächstes erfolgt eine Beschreibung der Bildschirmanzeige, die an dem Berührungsfeld-Display 144 durch ein Programm (Messanwendungs-Software), das durch die CPU 211 des Computerhauptkörpers 141 ausgeführt wird, angezeigt wird.
  • 3 zeigt ein Beispiel des angezeigten Bildschirms, der an dem Berührungsfeld-Display 144 angezeigt wird, wenn das Programm ausgeführt wird. Ein Hauptfenster MW wird an dem Berührungsfeld-Display 144 angezeigt, wie in 3 gezeigt. Eine Vielzahl von Fenstern (erstes Fenster W1 bis achtes Fenster W8) wird in dem Hauptfenster MW angezeigt. Ein Menü und Symbole für diverse Betriebsarten und Einstellungen werden in einem oberen Abschnitt des Hauptfensters MW angezeigt. Bei der vorliegenden Ausführungsform werden die acht Fenster beispielhaft angezeigt, und es kann je nach Bedarf eine andere Fensteranzahl als acht Fenster angezeigt werden. Die Gestaltung der Fenster kann durch Einwirken des Benutzers frei geändert werden.
  • In dem ersten Fenster (das manchmal auch als Werkstückfenster bezeichnet wird) W1 wird ein Bild WG des Werkstücks W, das durch das Bildmessgerät 1 aufgenommen wird, angezeigt. Der Benutzer kann beispielsweise das Bild WG des Werkstücks W vergrößern/verkleinern, indem er eine Betätigung ausführt, die darin besteht, ein Symbol mit der Maus 143 auszuwählen und die Lücke zwischen den Positionen, in denen zwei Finger die Anzeigeregion des ersten Fensters W1 an dem Berührungsfeld-Display 144 berühren, schmaler oder breiter zu machen (was als Ein-/Auszoomen bezeichnet wird). Der Benutzer kann ferner die Position des Bildes WG des Werkstücks W, das in dem ersten Fenster W1 an dem Berührungsfeld-Display 144 angezeigt wird, anpassen, indem er eine Betätigung ausführt, die darin besteht zu bewirken, dass ein Finger gleitet (was als Wischen bezeichnet wird), wobei der Finger in Kontakt mit der Anzeigeregion des ersten Fensters W1 bleibt.
  • In dem zweiten Fenster W2 werden Symbole von benutzerwählbaren Tools angezeigt. Die Symbole der Tools werden in Übereinstimmung mit Vorgabeverfahren zum Vorgeben eines Messpunktes in dem Bild WG des Werkstücks W bereitgestellt.
  • In dem dritten Fenster W3 werden Symbole von benutzerwählbaren Funktionen angezeigt. Die Symbole der Funktionen werden basierend auf dem Messverfahren bereitgestellt. Beispiele des Messverfahrens umfassen ein Verfahren zum Messen der Koordinaten eines Punktes, ein Verfahren zum Messen der Länge eines geraden Liniensegments, ein Verfahren zum Messen eines Kreises, ein Verfahren zum Messen einer Ellipse, ein Verfahren zum Messen eines rechteckigen Lochs, ein Verfahren zum Messen eines länglichen Lochs, ein Verfahren zum Messen von Intervallen und ein Verfahren zum Messen eines Schnittpunkts von zwei Linien.
  • In dem vierten Fenster W4 werden Anleitungen, die einen Arbeitsablauf einer Messbetätigung und Bildmuster, die den Betätigungsschritten entsprechen, angezeigt.
  • In dem fünften Fenster W5 werden diverse Schieber zum Steuern der Beleuchtung, mit der das Werkstück W bestrahlt wird, angezeigt. Der Benutzer kann beliebige der Schieber manipulieren, um eine gewünschte Beleuchtung auf das Werkstück W anzuwenden.
  • In dem sechsten Fenster W6 werden die XY-Koordinaten des Objekttischs 100 angezeigt. Die XY-Koordinatenwerte, die in dem sechsten Fenster W6 angezeigt werden, sind die Koordinaten des Objekttischs 100 in der X-Achsen- und der Y-Achsenrichtung mit Bezug auf einen vorbestimmten Ursprung.
  • In dem siebten Fenster W7 wird das Ergebnis einer Toleranzbewertung angezeigt. D.h. wenn ein Messverfahren, das eine Toleranzbewertung ermöglicht, ausgewählt wird, wird das Ergebnis der Bewertung in dem siebten Fenster W7 angezeigt.
  • In dem achten Fenster W8 wird ein Messergebnis angezeigt. D.h. wenn ein Messverfahren, bei dem eine vorbestimmte Berechnung ein Messergebnis bereitstellt, ausgewählt wird, wird das Ergebnis der Messung in dem achten Fenster W8 angezeigt. Die Einzelheiten des Ergebnisses einer Toleranzbewertung in dem siebten Fenster W7 und des Messergebnisses in dem achten Fenster W8 werden hier nicht gezeigt.
  • Positionsvorgabeprozess
  • Es erfolgt nachstehend eine Beschreibung eines Positionsvorgabeprozesses, der durch ein Programm verwirklicht wird, das durch das Computersystem 140 ausgeführt wird. 4 zeigt das Ablaufschema des Positionsvorgabeprozesses. Der Positionsvorgabeprozess wird als Reaktion darauf, dass der Benutzer eine beliebige Position in dem ersten Fenster W1 berührt, ausgelöst. Wenn der Prozess ausgelöst wird, fährt das Computersystem 140 damit fort, die Kontaktposition zu erfassen, um eine Gleitbetätigung oder eine Abhebebetätigung zu erkennen.
  • Wenn der Prozess ausgelöst wird, erfasst das Computersystem 140 die Position, in welcher der Benutzer zuerst das erste Fenster W1 berührt, als eine anfängliche Kontaktposition (Schritt S100) und zeigt einen Positionsvorgabezeiger in der anfänglichen Kontaktposition an (Schritt S110).
  • Das Computersystem 140 bestimmt anschließend, ob der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition einen vorbestimmten Abstand erreicht oder nicht (Schritt S120). In einem Fall, bei dem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand nicht erreicht hat (Nein in Schritt S120), bewertet das Computersystem 140, ob die Kontaktposition abgefühlt werden kann oder nicht (d.h. ob der Kontakt beendet wurde oder nicht) (Schritt S180). Der vorbestimmte Abstand kann ein Abstand sein, der es dem Benutzer ermöglicht, die anfängliche Kontaktposition deutlich visuell zu erkennen, indem er den Finger, den Stift oder ein beliebiges anderes Objekt, das mit der anfänglichen Kontaktposition in Kontakt steht, um den vorbestimmten Abstand bewegt. Beispielsweise kann der vorbestimmte Abstand auf ungefähr 2 cm eingestellt werden. In einem Fall, bei dem die Kontaktposition nicht abgefühlt werden kann (Ja in Schritt S180), blendet das Computersystem 140 den Positionsvorgabezeiger (Schritt S190) aus und beendet den Prozess, ohne dass eine vorgegebene Position erfasst wurde. Dagegen bringt für den Fall, dass die Kontaktposition in Schritt S180 abgefühlt werden kann (Nein in Schritt S180), das Computersystem 140 den Prozess zu Schritt S120 zurück. Das Computersystem 140 führt daher wiederholt die Schritte S120 und S180 aus, solange die Kontaktposition abgefühlt werden kann, bis der Abstand zu der Kontaktposition den vorbestimmten Abstand erreicht.
  • Dagegen ändert für den Fall, dass der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand in Schritt S120 erreicht hat (Ja in Schritt S120) das Computersystem 140 das Erscheinungsbild, mit dem der Positionsvorgabezeiger angezeigt wird (Schritt S130). Durch das Ändern des Erscheinungsbildes, mit dem der Positionsvorgabezeiger angezeigt wird, kann der Benutzer darüber benachrichtigt werden, dass der Laufweg von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat. Wie es noch beschrieben wird, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition einen vorbestimmten Abstand erreicht hat, kann das Computersystem 140 eine vorgegebene Position erfassen, wenn es eine vorbestimmte Betätigung zum Beenden einer Positionsvorgabebetätigung abfühlt. Das Erscheinungsbild, mit dem der Positionsvorgabezeiger für den Fall angezeigt wird, dass der Laufweg von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand nicht erreicht hat, wird als „unwirksamer Zustand“ bezeichnet, und das Erscheinungsbild, mit dem der Positionsvorgabezeiger angezeigt wird, nachdem der Laufweg von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, wird als „wirksamer Zustand“ bezeichnet.
  • Das Computersystem 140 bewegt anschließend den Positionsvorgabezeiger derart, dass der Positionsvorgabezeiger der Kontaktposition gemäß der weiteren Bewegung der Kontaktposition folgt, die abgefühlt wird, so dass die relative Positionsbeziehung zwischen dem Positionsvorgabezeiger und der Kontaktposition zu dem Zeitpunkt, zu dem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, bewahrt wird (Schritt S140) .
  • Das Computersystem 140 bewertet anschließend, ob die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wurde oder nicht (Schritt S150). Die „Betätigung zum Beenden einer Positionsvorgabebetätigung“ bezieht sich auf eine spezifische Betätigung, die darin besteht zu bewirken, dass das Computersystem 140 die Position, in welcher der Positionsvorgabezeiger angezeigt wird, als die vorgegebene Position erfasst. Bei dem vorliegenden Beispiel ist die Betätigung zum Beenden einer Positionsvorgabebetätigung eine Kontaktbeendigungsbetätigung (d.h. eine Betätigung des Abhebens des Fingers, der mit dem Bildschirm in Kontakt steht). In einem Fall, bei dem keine Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wurde (Nein in Schritt S150), bringt das Computersystem 140 den Prozess zu Schritt S140 zurück. Das Computersystem 140 führt daher wiederholt die Schritte S140 und S150 aus, bis die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, damit der Positionsvorgabezeiger weiter derart bewegt wird, dass der Positionsvorgabezeiger der Kontaktposition folgt. Dagegen erfasst für den Fall, dass die Betätigung zum Beenden einer Positionsvorgabebetätigung in Schritt S150 abgefühlt wurde (Ja in Schritt S150), das Computersystem 140 als die vorgegebene Position die Position, in welcher der Positionsvorgabezeiger angezeigt wird, wenn die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird (Schritt S160). Das Computersystem 140 zeigt dann eine Markierung an, welche die vorgegebene Position in der vorgegebenen Position in dem ersten Fenster W1 darstellt (Schritt S170), und beendet den Prozess.
  • Ein spezifisches Beispiel des Positionsvorgabeverfahrens gemäß der vorliegenden Ausführungsform wird nachstehend mit Bezug auf ein Beispiel des angezeigten Bildschirms beschrieben.
  • 5A und 5B zeigen schematisch, dass der Benutzer den Bildschirm (erstes Fenster W1) mit einem Finger berührt. 5A zeigt den Bildschirm des Berührungsfeld-Displays 144, der für den Benutzer zu sehen ist, wenn der Benutzer den Bildschirm mit einem Finger berührt, und die Hand, die den Bildschirm betätigt, und 5B zeigt ein Beispiel des Bildschirms, der angezeigt wird, wenn der Benutzer den Bildschirm mit dem Finger berührt, und zeigt ferner eine gedachte Linie, die den berührenden Finger darstellt. Das Computersystem 140 löst den Positionsvorgabeprozess aus, wenn der Benutzer den Bildschirm mit einem Finger oder einem Stift berührt. Das Computersystem 140 erkennt den Schwerpunkt der Region, in welcher der Kontakt abgefühlt wurde, als eine anfängliche Kontaktposition P1 und zeigt einen Positionsvorgabezeiger CS in der anfänglichen Kontaktposition P1 an. Bei dem vorliegenden Beispiel besteht der Positionsvorgabezeiger CS aus Fadenkreuzlinien, sie sich in der anfänglichen Kontaktposition P1 schneiden, und aus einem Kreis um die anfängliche Kontaktposition P1 herum. Der Kreis kann derart dimensioniert sein, dass er auch in dem Zustand, in dem sich der Finger oder der Stift in Kontakt mit dem Bildschirm befindet, visuell zu erkennen ist. Beispielsweise kann der Kreis einen Durchmesser von ungefähr 3 cm aufweisen. Der somit konfigurierte Positionsvorgabeprozess CS ermöglicht es dem Benutzer, einen Teil des Positionsvorgabezeigers CS visuell zu erkennen, und zwar selbst in dem Zustand, in dem der Finger des Benutzers oder ein beliebiges anderes Objekt die Kontaktposition verdeckt, und die Kontaktposition, die durch das Computersystem 140 abgefühlt werden kann, kann deutlich als die Position angezeigt werden, in der sich die Fadenkreuzlinien schneiden.
  • 6A und 6B zeigen schematisch, dass eine Kontaktposition CP gegenüber der anfänglichen Kontaktposition P1 geringfügig verschoben ist. Es sei zu beachten, dass der Abstand von der anfänglichen Kontaktposition P1 zu der Kontaktposition CP kleiner als der vorbestimmte Abstand ist. 6A zeigt den Bildschirm des Berührungsfeld-Displays 144, der für den Benutzer zu sehen ist, und die Hand, die den Bildschirm betätigt, und 6B zeigt ein Beispiel des angezeigten Bildschirms zusammen mit einer gedachten Linie, die den berührenden Finger darstellt. Während der Periode, während der der Abstand von der anfänglichen Kontaktposition P1 zu der aktuellen Kontaktposition CP kleiner als der vorbestimmte Abstand ist, zeigt das Computersystem 140 den Positionsvorgabezeiger CS weiter in der anfänglichen Kontaktposition P1 an, wie in 6A und 6B gezeigt. Wenn das Computersystem 140 den Kontakt in dem Zustand, der in 5A und 5B oder 6A und 6B gezeigt wird, nicht mehr abfühlen kann (d.h. wenn der Benutzer den Finger vom Bildschirm abhebt), blendet das Computersystem 140 den Positionsvorgabezeiger CS aus und beendet den Positionsvorgabeprozess (was Schritt S190 in 4 entspricht).
  • 7 zeigt ein Beispiel des Bildschirms, der angezeigt wird, wenn der Abstand von der anfänglichen Kontaktposition P1 zu der Kontaktposition CP den vorbestimmten Abstand erreicht, und zeigt ferner den Finger des Benutzers. Wenn es abfühlt, dass der Abstand von der anfänglichen Kontaktposition P1 zu der Kontaktposition CP den vorbestimmten Abstand erreicht hat, ändert das Computersystem 140 das Erscheinungsbild, mit dem der Positionsvorgabezeiger CS angezeigt wird. Die angezeigte Erscheinungsbild kann auf beliebige Art und Weise geändert werden, solange der Benutzer die Änderung des Erscheinungsbildes vor und nach der Änderung visuell erkennen kann. Die Änderung erfolgt jedoch bevorzugt derart, dass die Sichtbarkeit des Positionsvorgabezeigers CS nach der Änderung besser als die Sichtbarkeit vor der Änderung ist, dass beispielsweise der Kreis des Positionsvorgabezeigers CS nach der Änderung dicker als der Kreis vor der Änderung ist.
  • 8 zeigt ein Beispiel des Bildschirms, der angezeigt wird, wenn die Kontaktposition CP gegenüber dem Zustand, der in 7 gezeigt wird, weiter bewegt wird, und zeigt ferner den Finger des Benutzers. In 8 ist der Positionsvorgabezeiger in dem Zustand, der in 7 gezeigt wird, mit einer gestrichelten Linie in der Form eines gedachten Zeigers eingezeichnet. Das Computersystem 140 bewegt den Positionsvorgabezeiger CS derart, dass der Positionsvorgabezeiger CS der Kontaktposition CP folgt, so dass die relative Positionsbeziehung zwischen dem Positionsvorgabezeiger CS und der Kontaktposition CP zu dem Zeitpunkt, zu dem der Abstand von der anfänglichen Kontaktposition P1 zu der Kontaktposition CP den vorbestimmten Abstand erreicht hat, bewahrt wird, wie in 8 gezeigt. D.h. für den Fall, dass wenn der Abstand von der anfänglichen Kontaktposition P1 zu der Kontaktposition CP den vorbestimmten Abstand erreicht, sich die Kontaktposition CP unten rechts von der anfänglichen Kontaktposition P1 befindet (d.h. der Positionsvorgabezeiger CS wird oben links von der Kontaktposition CP angezeigt), wie in 7 gezeigt, und wenn die Kontaktposition CP weiter bewegt wird, wird der Positionsvorgabezeiger CS nicht durch den Finger oder ein beliebiges anderes Objekt in Kontakt mit der Kontaktposition CP verdeckt, sondern wird immer oben links von der Kontaktposition CP angezeigt.
  • 9 zeigt ein Beispiel des Bildschirms, der angezeigt wird, nachdem die Betätigung zum Beenden einer Positionsvorgabebetätigung (Beendigung des Kontakts bei dem vorliegenden Beispiel) abgefühlt wurde. Wenn der Benutzer die Kontaktposition CP derart bewegt, dass der Positionsvorgabezeiger CS in einer gewünschten Position angezeigt wird, und die Betätigung zum Beenden einer Positionsvorgabebetätigung ausführt (d.h. der Benutzer hebt den Finger oder ein beliebiges anderes Objekt vom Bildschirm ab), erfasst das Computersystem 140 als Reaktion auf die Betätigung zum Beenden einer Positionsvorgabebetätigung als die vorgegebene Position die Position, in welcher der Positionsvorgabezeiger CS angezeigt wurde, als die Betätigung zum Beenden einer Positionsvorgabebetätigung ausgeführt wurde, und blendet den Positionsvorgabezeiger CS aus. Das Computersystem 140 zeigt dann eine Markierung M an (beispielsweise eine x-Markierung), welche die vorgegebene Position in der erfassten vorgegebenen Position an dem Bildschirm darstellt, und beendet den Prozess.
  • Ein Verfahren zum Vorgeben einer Position an einem Berührungsfeld-Display und ein Programm, das für die Betätigung, die an dem Berührungsfeld-Display 144 ausgeführt wird, geeignet ist, kann somit verwirklicht werden. Insbesondere kann eine Position über eine Berührungseingabe, die mit einem Finger oder einem Eingabestift ausgeführt wird, genau vorgegeben werden. Ferner kann ein unnötiger Positionsvorgabeprozess, der durch einen ungewollten Kontakt durchgeführt wird, vermieden werden.
  • Die erste Ausführungsform wurde zuvor beschrieben, doch die vorliegende Erfindung ist nicht auf das Beispiel eingeschränkt, das in der ersten Ausführungsform gezeigt wurde. Beispielsweise sind das Positionsvorgabeverfahren und das Programm, die zuvor beschrieben wurden, nicht auf Anwendungen mit Bildmessgeräten eingeschränkt und sind auch auf diverse Anwendungen anwendbar, welche die Betätigung des Vorgebens einer Position an einem Bildschirm bedingen.
  • Bei der zuvor beschriebenen ersten Ausführungsform zeigt das Computersystem 140, wenn es einen Kontakt abfühlt, den Positionsvorgabezeiger CS in der anfänglichen Kontaktposition P1 an. Das Computersystem 140 kann den Positionsvorgabezeiger CS stattdessen in einer Position gemäß der anfänglichen Kontaktposition P1 anzeigen, d.h. einer Position, die gegenüber der anfänglichen Kontaktposition P1 in der vorbestimmten Richtung und um einen vorbestimmten Abstand verschoben ist.
  • Bei der zuvor beschriebenen ersten Ausführungsform erfolgte die Beschreibung mit Bezug auf den Fall, bei dem ein Teil des Positionsvorgabezeigers in dem unwirksamen Zustand mit einer dünnen Linie eingezeichnet ist, in dem der Abstand zu dem Positionsvorgabezeiger den vorbestimmten Abstand nicht erreicht hat, und der Teil des Positionsvorgabezeigers in einem wirksamen Zustand mit einer dicken Linie eingezeichnet ist, nachdem der Abstand den vorbestimmten Abstand erreicht hat. Die Änderung des Erscheinungsbildes, mit dem der Positionsvorgabezeiger angezeigt wird, bevor und nachdem der Abstand den vorbestimmten Abstand erreicht, ist nicht auf die zuvor beschriebene Änderung eingeschränkt. Beispielsweise kann das Erscheinungsbild im Hinblick auf die Farbe geändert werden, so dass der Positionsvorgabezeiger in dem unwirksamen Zustand in Schwarz angezeigt wird und der Positionsvorgabezeiger in dem wirksamen Zustand in Rot angezeigt wird.
  • Bei der zuvor beschriebenen ersten Ausführungsform erfolgte die Beschreibung für den Fall, bei dem die Betätigung zum Beenden einer Positionsvorgabebetätigung die „Beendigung des Kontakts“ ist, doch die Betätigung zum Beenden einer Positionsvorgabebetätigung ist nicht darauf eingeschränkt. Beispielsweise kann die Betätigung zum Beenden einer Positionsvorgabebetätigung stattdessen eine Betätigung sein, die darin besteht, einen neuen Kontakt herzustellen, der anders als der Kontakt ist, der durch den Benutzer seit dem ersten Kontakt gehalten wird, um den Positionsvorgabezeiger in eine gewünschte Position zu bewegen. D.h. nachdem der Positionsvorgabezeiger durch einen Kontakt mit dem Zeigefinger in eine gewünschte Position bewegt wurde, kann ein anderer Finger (beispielsweise der Daumen oder der Mittelfinger) verwendet werden, um den Bildschirm zu berühren, wobei die gewünschte Position mit dem Zeigerfinger berührt wird, um die vorgegebene Position fertigzustellen. Das Computersystem 140 kann erkennen, wenn es eine neue Kontaktposition abfühlt, dass die Betätigung zum Beenden einer Positionsvorgabebetätigung ausgeführt wurde. Als ein anderes Beispiel kann ein Symbol, das einem Befehl entspricht, um die Positionsvorgabebetätigung fertigzustellen, angezeigt werden, und die Betätigung des Benutzers, die darin besteht, das Symbol zu berühren, kann die Betätigung zum Beenden einer Positionsvorgabebetätigung sein.
  • Der Fachmann kann eine Komponente zu der zuvor beschriebenen Ausführungsform hinzufügen oder daraus entfernen, kann die Bauform einer Komponente bei der zuvor beschriebenen Konfiguration ändern und kann die Merkmale der Ausführungsform je nach Bedarf miteinander kombinieren. Eine derartige geänderte Ausführungsform gehört zum Umfang der vorliegenden Erfindung, solange die geänderte Ausführungsform das Wesentliche der vorliegenden Erfindung aufweist.
  • Zweite Ausführungsform
  • Eine zweite Ausführungsform betrifft ein Bildmessgerät, ein Tool-Bearbeitungsverfahren und ein Programm, die ein Kantenerkennungs-Tool durch eine Eingabetätigung bearbeiten, die an einem Berührungsfeld-Display erfolgt.
  • Es wird ein Bildmessgerät als ein Messgerät verwendet, das die Abmessungen und die Form eines Messzielobjekts (Werkstücks) unter Verwendung eines Bildes, das durch Abbilden des Messzielobjekts erzeugt wird, misst und bewertet. Das Bildmessgerät erfasst Informationen über eine Kante (wie etwa die Positionskoordinaten der Kante) einer Messzielfigur, die in dem aufgenommenen Bild des Messzielobjekts enthalten ist, und bewertet die Form und die Abmessungen des Messzielobjekts basierend auf den Kanteninformationen.
  • Die Kanteninformationen werden in vielen Fällen unter Verwendung eines Kantenerkennungs-Tools erfasst, das durch eine Betätigung des Benutzers in einem aufgenommenen Bild angeordnet wird. Das Kantenerkennungs-Tool identifiziert die Position, in der, und den Bereich, in dem eine Kante in Übereinstimmung mit der Form eines Abschnitts eines Messziels abgetastet wird, und es werden Kantenerkennungs-Tools, die diverse Formen gemäß der Form eines Messzielobjekts aufweisen, als Funktion des Bildmessgeräts bereitgestellt. Repräsentative Beispiele des Kantenerkennungs-Tools können ein rechteckiges Kantenerkennungs-Tool, das zur Erkennung einer Kante eines geradlinigen Abschnitts in einem Bild geeignet ist, und ein ringförmiges Kantenerkennungs-Tool, das zur Erkennung einer Kante in einem kreisförmigen Abschnitt in einem Bild geeignet ist, umfassen.
  • In den letzten Jahren hat die Verbreitung eines Berührungsfeld-Displays bewirkt, dass eine so genannte Berührungsschnittstelle weitgehend als eine intuitiv leicht zu bedienende Benutzerschnittstelle verwendet wird, die durch Berühren des Displays betätigt werden kann, und eine derartige Berührungsschnittstelle wird auch in einem Bildmessgerät verwendet. Eine Berührungsschnittstelle verwendet eine gestenbasierte Eingabe. Beispielsweise wird ein Befehl durch Berühren einer Schaltfläche mit einem Finger oder einem Berührungsstift anstelle eines Mausklicks auf eine Schaltfläche eingegeben.
  • Bei einem Bildmessgerät, das ein Berührungsfeld-Display verwendet, kann ein Beispiel eines Verfahrens zum mühelosen Vergrößern, Verkleinern, Drehen oder sonstigen Bearbeiten eines Kantenerkennungs-Tools, das an dem Berührungsfeld-Display angezeigt wird, ein Verfahren umfassen, um ferner Bearbeitungsziehpunkte beispielsweise an den vier Ecken des Kantenerkennungs-Tools anzuzeigen und das Kantenerkennungs-Tool durch die Manipulation der Bearbeitungsziehpunkte mit einem Finger oder einem beliebigen anderen Objekt an dem Berührungsfeld-Display zu bearbeiten. Als ein anderes Verfahren, das die Bearbeitungsziehpunkte verwendet, gibt es eine offenbarte Technik zum Verbessern der Funktionsfähigkeit für einen gewünschten Bearbeitungsziehpunkt, indem der Bearbeitungsziehpunkt entlang einer Zeichnungslinie gezogen wird, um nicht etwa eine Situation zu bewirken, in der die Vielzahl von Bearbeitungsziehpunkten dicht gedrängt ist oder sich mit einem aufgenommenen Bild überlappt, so dass die Bearbeitungsbetätigung behindert wird (siehe beispielsweise die japanische Patent-Auslegeschrift Nr. 2016-173703 ).
  • Ein Beispiel eines Verfahrens, das keine Bearbeitungsziehpunkte verwendet, umfasst ein Verfahren, dass es ermöglicht, dass ein Kantenerkennungs-Tool, das an einem Berührungsfeld-Display angezeigt wird, verkleinert, vergrößert oder anderweitig geändert wird, indem direkt eine Betätigung des Eingebens einer Geste, wie etwa Ein-/ Auszoomaktionen, an dem Kantenerkennungs-Tool ausgeführt wird.
  • Ein Verfahren, das Bearbeitungsziehpunkte verwendet, weist keinen einfachen Arbeitsablauf auf, sondern tut sich mit der intuitiven Betätigung schwer. Bei einem Verfahren zum direkten Eingeben einer Geste in ein Kantenerkennungs-Tool ist es manchmal nicht einfach, eine direkte Eingabe an einem vorgesehenen Kantenerkennungs-Tool vorzunehmen, beispielsweise für den Fall, bei dem das Kantenerkennungs-Tool viel größer oder kleiner als eine Größe ist, die eine einfache Eingabe mit einem menschlichen Finger ermöglicht, oder den Fall, bei dem eine Vielzahl von Kantenerkennungs-Tools dicht gedrängt ist.
  • Angesichts der zuvor beschriebenen Probleme besteht eine Aufgabe der Erfindung gemäß der zweiten Ausführungsform darin, ein Bildmessgerät, ein Tool-Bearbeitungsverfahren und ein Programm bereitzustellen, die eine intuitive, einfache, mühelose Betätigung zum Bearbeiten eines Kantenerkennungs-Tool bereitstellen.
  • Das Bildmessgerät gemäß der zweiten Ausführungsform ist ein Bildmessgerät, das ein Messzielobjekt abbildet und ein Kantenerkennungs-Tool verwendet, das durch den Benutzer in dem aufgenommenen Bild des Messzielobjekts, das an einem Berührungsfeld-Display angezeigt wird, angeordnet wird, um die Abmessungen und die Form des Messzielobjekts zu messen, und das Bildmessgerät umfasst Steuermittel, um zu bewirken, dass das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, ausgewählt wird, und das Kantenerkennungs-Tool in dem ausgewählten Zustand in Übereinstimmung mit einer Tool-Bearbeitungsgeste bearbeitet wird, wobei es sich um eine Geste zum Bearbeiten des Kantenerkennungs-Tools handelt, wenn das Berührungsfeld-Display in einer beliebigen Position daran berührt wird, so dass die Tool-Bearbeitungsgeste darin eingegeben wird.
  • Ein Tool-Bearbeitungsverfahren gemäß der zweiten Ausführungsform ist ein Tool-Bearbeitungsverfahren zum Bearbeiten eines Kantenerkennungs-Tools, wenn ein Messzielobjekt abgebildet wird, und ein Kantenerkennungs-Tool, das durch den Benutzer in dem aufgenommenen Bild des Messzielobjekts angeordnet wird, das an dem Berührungsfeld-Display angezeigt wird, verwendet wird, um die Abmessungen und die Form des Messzielobjekts zu messen, und das Tool-Bearbeitungsverfahren führt einen Auswahlschritt des Bewirkens, dass das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, ausgewählt wird, und einen Bearbeitungsschritt des Bearbeitens des Kantenerkennungs-Tools in dem ausgewählten Zustand in Übereinstimmung mit einer Tool-Bearbeitungsgeste, wobei es sich um eine Geste zum Bearbeiten des Kantenerkennungs-Tools handelt, aus, wenn das Berührungsfeld-Display in einer beliebigen Position daran berührt wird, so dass die Tool-Bearbeitungsgeste daran eingegeben wird.
  • Die Tool-Bearbeitungsgesten können beispielsweise Ein- und Auszoomaktionen sein. Die Bearbeitung, die der Einzoomaktion entspricht, kann das Verkleinern des Kantenerkennungs-Tools sein, und die Bearbeitung, die der Auszoomaktion entspricht, kann die Vergrößerung des Kantenerkennungs-Tools sein.
  • Die Tool-Bearbeitungsgeste kann stattdessen beispielsweise eine Drehaktion sein, und die Bearbeitung, die der Drehaktion entspricht, kann die Drehung des Kantenerkennungs-Tools sein.
  • Die Tool-Bearbeitungsgeste kann auch stattdessen beispielsweise eine Wischaktion sein, die in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, und die Bearbeitung, die der Wischaktion entspricht, die in dem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, kann eine Parallelverschiebung des Kantenerkennungs-Tools in der Wischrichtung sein.
  • Das Kantenerkennungs-Tool kann ausgewählt werden, wenn das Kantenerkennungs-Tool, das an dem Berührungsfeld-Display angezeigt wird, berührt wird und eine Tool-Auswahlgeste, bei der es sich um die Geste zum Auswählen des Kantenerkennungs-Tools handelt, eingegeben wird. Ferner kann die Tool-Auswahlgeste eine Antippaktion sein.
  • Die Funktion des Steuermittels des Bildmessgeräts gemäß der zweiten Ausführungsform kann in Form von Anweisungen in einem Programm enthalten sein, und ein Computer kann das Programm ausführen, um die Funktion des Steuermittels zu erfüllen.
  • Die zweite Ausführungsform kann ein Bildmessgerät, ein Tool-Bearbeitungsverfahren und ein Programm bereitstellen, die eine intuitive, einfache, mühelose Betätigung der Bearbeitung eines Kantenerkennungs-Tools ermöglichen.
  • Bearbeitung des Kantenerkennungs-Tools durch Ausführen des Steuerprogramms
  • Die zweite Ausführungsform wird auf das gleiche Bildmessgerät 1 wie gemäß der ersten Ausführungsform angewendet, und eine einfache Betätigung eines Kantenerkennungs-Tool wird an dem in 10 angezeigten Bildschirm erreicht. 10 zeigt einen Zustand, in dem ein rechteckiges Kantenerkennungs-Tool T, das im Voraus durch eine Eingabebetätigung des Benutzers angeordnet wird, derart angezeigt wird, dass es in dem aufgenommenen Bild WG eingeblendet ist.
  • Das Steuerprogramm, das durch die CPU 211 des Computerhauptkörpers 141 ausgeführt wird, bewirkt zuerst, dass das Kantenerkennungs-Tool T, das an dem Berührungsfeld-Display 144 angezeigt wird, ausgewählt wird, wenn der Benutzer das Berührungsfeld-Display 144 berührt, um eine Tool-Auswahlgeste, bei der es sich um eine Geste zum Auswählen des Kantenerkennungs-Tools T handelt, an dem Berührungsfeld-Display 144 auszuführen, wie in 11 gezeigt, und das Steuerprogramm fühlt ein Signal, das von dem Berührungsfeld-Display 144 ausgegeben wird, basierend auf der Tool-Auswahlgeste ab (Auswahlschritt).
  • In einem Fall, bei dem eine Vielzahl von Kantenerkennungs-Tools T angeordnet wird, wählt der Benutzer eines der Kantenerkennungs-Tools T aus und berührt das Berührungsfeld-Display 144, um die Tool-Auswahlgeste an dem ausgewählten Kantenerkennungs-Tool T einzugeben, um zu bewirken, dass das Kantenerkennungs-Tool ausgewählt wird. Das Kantenerkennungs-Tool T wird somit als ein zu bearbeitendes Zielt identifiziert.
  • Die Tool-Auswahlgeste kann beispielsweise eine beliebige Geste sein, wie etwa Aktionen des Antippens, des doppelten Antippens oder des langen Antippens. Ferner ist die Tatsache, ob das Kantenerkennungs-Tool T ausgewählt wurde oder nicht, wünschenswerterweise visuell erkennbar, beispielsweise basierend auf einem beliebigen Ausdruck, wie etwa durch Ändern der Farbe des Kantenerkennungs-Tools und zusätzliches Anzeigen eines Bearbeitungsziehpunktes. 12 zeigt einen Fall, bei dem die Symbole „□“, die jeweils einen Bearbeitungsziehpunkt H darstellen, zusätzlich an den vier Ecken eines rechteckigen Kantenerkennungs-Tools zur visuellen Erkennung des ausgewählten Kantenerkennungs-Tools angezeigt werden.
  • Ferner bearbeitet das Steuerprogramm, das durch die CPU 211 ausgeführt wird, wenn der Benutzer eine beliebige Position an dem Berührungsfeld-Display 144 berührt, um eine Tool-Bearbeitungsgeste einzugeben, wobei es sich um eine Geste zum Bearbeiten des Kantenerkennungs-Tools T in dem Zustand, in dem das Kantenerkennungs-Tool T ausgewählt wurde, handelt, und das Steuerprogramm ein Signal detektiert, das basierend auf der Tool-Bearbeitungsgeste von dem Berührungsfeld-Display 144 ausgegeben wird, das Kantenerkennungs-Tool T in Übereinstimmung mit der Tool-Bearbeitungsgeste und gibt das Ergebnis der Bearbeitung in dem angezeigten Kantenerkennungs-Tool T an dem Berührungsfeld-Display 144 wieder (Bearbeitungsschritt).
  • Die Tool-Bearbeitungsgeste kann eine beliebige andere Geste als die Tool-Auswahlgeste sein, wie etwa eine Einzoomaktion (Betätigung des Verringerns des Abstands zwischen Kontaktpositionen an zwei Punkten), eine Auszoomaktion (Betätigung des Vergrößerns des Abstands zwischen Kontaktpositionen an zwei Punkten), eine Drehaktion (Betätigung des Änderns des Winkels einer Geraden, die Kontaktpositionen an zwei Punkten verbindet) und eine Wischaktion, die in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird (Betätigung des Bewegens von Kontaktpositionen). Es ist jedoch wünschenswert, eine Geste zu verwenden, die mit dem Erscheinungsbild übereinstimmt, mit dem das Kantenerkennungs-Tool T bearbeitet wird, um eine intuitive Eingabe zu ermöglichen. Beispielsweise sind die Bearbeitung, die der Einzoomaktion entspricht, und die Bearbeitung, die der AusZoomaktion entspricht, jeweils eine Verkleinerung und eine Vergrößerung, und die Bearbeitung, die der Drehaktion entspricht, ist eine Drehung. Ferner ist die Bearbeitung, die der Wischaktion entspricht, die in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, eine Parallelverschiebung in der Wischrichtung. Die Tool-Bearbeitungsgeste kann auch konfiguriert sein, um das Löschen des Kantenerkennungs-Tools T zu ermöglichen. Die Tool-Bearbeitungsgeste, die dem Löschen des Kantenerkennungs-Tools T entspricht, kann beispielsweise eine Betätigung des Bewegens des Tools zu einem Punkt außerhalb des Rahmens des Werkstückfensters W1 sein, indem die Wischaktion, die in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ausgeführt wird, eine Wischbetätigung, die mit einer größeren Geschwindigkeit ausgeführt wird, die gleich oder größer als eine vorbestimmte Schwelle in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten ist, oder eine beliebige andere Betätigung verwendet wird. 13 zeigt einen Fall, bei dem die Auszoomaktion verwendet wird, um eine seitliche Vergrößerungsbearbeitung an dem Kantenerkennungs-Tool T vorzunehmen.
  • Die Position, in der eine Tool-Bearbeitungsgeste eingegeben wird, ist vielleicht keine beliebige Position an dem Berührungsfeld-Display 144 und kann eine Position in einer bestimmten Region sein, unter Berücksichtigung der Position, in der das aufgenommene Bild WG angezeigt wird, der Funktionsfähigkeit der Gesteneingabe und anderer Faktoren.
  • Die Entsprechung zwischen einer Tool-Auswahlgeste und dem Zustand, in dem das Tool ausgewählt wird, und die Entsprechung zwischen einer Tool-Bearbeitungsgeste und dem Erscheinungsbild, mit dem das Tool bearbeitet wird, können beispielsweise in der sekundären Speichervorrichtung 216 gespeichert werden, und es kann darauf Bezug genommen werden, wenn das Steuerprogramm ausgeführt wird, oder sie können in Form von Anweisungen in dem Steuerprogramm selber enthalten sein.
  • In dem Zustand, in dem das Kantenerkennungs-Tool T ausgewählt ist, kann es sein, dass die Bearbeitung des Kantenerkennungs-Tools T nur durch eine Eingabe einer Tool-Bearbeitungsgeste möglich ist, oder dass sie auch unter Verwendung eines Bearbeitungsziehpunktes möglich ist.
  • Das Bildmessgerät, das die Steuermittel umfasst, deren Funktion dadurch erfüllt wird, dass die CPU das Steuerprogramm ausführt, welches das Tool-Bearbeitungsverfahren enthält, das den Auswahlschritt und den Bearbeitungsschritt, die zuvor beschrieben wurden, in Form von Anweisungen umfasst, ermöglicht eine intuitive Gesteneingabe gemäß dem Erscheinungsbild, mit dem ein Kantenerkennungs-Tool bearbeitet wird, und ermöglicht ferner das Bearbeiten des Kantenerkennungs-Tools in wenigen Aktionen. Ferner kann die Bearbeitungsbetätigung zuverlässig an einem ausgewählten Kantenerkennungs-Tool ausgeführt werden, unabhängig von der Größe des Kantenerkennungs-Tools und davon, wie dicht gedrängt die Kantenerkennungs-Tools sind.
  • Bei der zuvor beschriebenen Ausführungsform wird das Kantenerkennungs-Tool T ausgewählt, wenn eine Kontakteingabe einer Tool-Auswahlgeste an dem Kantenerkennungs-Tool T erfolgt, doch das Verfahren zum Auswählen eines Kantenerkennungs-Tools ist nicht darauf eingeschränkt. Beispielsweise kann eine Schaltfläche zum Ändern, welches von einer Vielzahl von Kantenerkennungs-Tools, die an dem Berührungsfeld-Display angezeigt werden, ausgewählt wird, in dem Hauptfenster MW angezeigt werden, und ein Kantenerkennungs-Tool T kann gemäß der Betätigung ausgewählt werden, die an der Schaltfläche ausgeführt wird (z.B. Antippaktion über eine Berührungseingabe und Klickaktion über eine Mausbetätigung).
  • Third Ausführungsform
  • Eine dritte Ausführungsform betrifft ein Bildmessgerät und ein Programm, die es ermöglichen, einen Befehl über eine Berührungseingabe anhand eines Berührungsfeld-Displays einzugeben.
  • Ein Bildmessgerät wird als ein Messgerät verwendet, das die Abmessungen und die Form eines Messzielobjekts (Werkstücks) unter Verwendung eines Bildes, das durch Abbilden des Messzielobjekts erzeugt wird, misst und bewertet. Das Bildmessgerät erfasst Informationen über eine Kante (wie etwa Positionskoordinaten der Kante) einer Messzielfigur, die in dem aufgenommenen Bild des Messzielobjekts enthalten ist, und bewertet die Form und die Abmessungen des Messzielobjekts basierend auf den Kanteninformationen.
  • In den letzten Jahren hat die Verbreitung eines Berührungsfeld-Displays bewirkt, dass eine so genannte Berührungsschnittstelle weitgehend als eine intuitiv leicht zu bedienende Benutzerschnittstelle verwendet wird, die beispielsweise durch Berühren des Displays betätigt werden kann, und eine derartige Berührungsschnittstelle wird auch in einem Bildmessgerät verwendet (siehe beispielsweise die japanische Patent-Auslegeschrift Nr. 2016-173703 ).
  • Bei der Eingabebetätigung, die an einer Berührungsschnittstelle erfolgt, wird eine Befehlseingabe verwirklicht, indem diverse Gesten verwendet werden, die sich voneinander im Hinblick auf die Fingeraktion an der Berührungsschnittstelle unterscheiden, wie etwa Aktionen des Antippens, des doppelten Antippens, des langen Antippens, des Schnipsens, des Wischens und des Drehens, und den Zustand des Kontakts zwischen dem Finger und der Berührungsschnittstelle. Die Geste wird oft mit einem einzigen Finger ausgeführt.
  • In einem Fall, bei dem eine Berührungsschnittstelle verwendet wird, um einen Befehl in ein Bildmessgerät einzugeben, bedingen einige Befehle, die in dem Bildmessgerät verwendet werden, eine physische Bewegung des Geräts, wie etwa eine Objekttischbewegung, und eine Fokussierung, die ausgeführt werden, wenn ein Befehl durchgeführt wird. In einem Fall, bei dem eine Geste, die mit einem einzigen Finger ausgeführt wird, verwendet wird, um einen derartigen Befehl einzugeben, könnte der Befehl versehentlich durch einen ungewollten Kontakt mit dem Berührungsfeld-Display eingegeben werden, und im schlimmsten Fall könnte es zu einem Unfall, wie etwa einem Kontakt zwischen einem Messzielobjekt und dem Gerät, kommen.
  • Angesichts des zuvor beschriebenen Problems besteht eine Aufgabe der Erfindung gemäß der dritten Ausführungsform darin, ein Bildmessgerät und ein Programm bereitzustellen, die wahrscheinlich keine Fehlfunktion auf Grund eines ungewollten Kontakts mit dem Berührungsfeld-Display verursachen.
  • Das Bildmessgerät gemäß der dritten Ausführungsform ist ein Bildmessgerät, das ein Messzielobjekt abbildet und die Abmessungen und die Form des Messzielobjekts basierend auf dem aufgenommenen Bild des Messzielobjekts, das an dem Berührungsfeld-Display angezeigt wird, misst, und es umfasst Steuermittel, um einen Befehl, der einer Geste entspricht, die durch eine Berührungsbetätigung eingegeben wird, die an dem Berührungsfeld-Display ausgeführt wird, basierend auf einem Signal, das von dem Berührungsfeld-Display ausgegeben wird, gemäß der Geste zu identifizieren und den Befehl an einem Abschnitt des Bildmessgeräts auszuführen, welcher der Abschnitt ist, an dem der Befehl ausgeführt wird, und ist ferner dadurch gekennzeichnet, dass die Geste in einem Zustand mit gleichzeitigem Kontakt an zwei Punkten erfolgt.
  • Der Befehl ist beispielsweise ein Befehl, der eine Art von physischer Bewegung des Abschnitts des Bildmessgeräts bewirkt.
  • Die Geste, die in einem Zustand mit gleichzeitigem Kontakt an mindestens zwei Punkten ausgeführt wird ist, ist beispielsweise eine Aktion des Antippens, des doppelten Antippens, des langen Antippens, des Schnipsens, des Wischens oder des Drehens.
  • Die Funktion des Steuermittels kann in Form von Anweisungen in einem Programm enthalten sein, und ein Computer kann das Programm ausführen, um die Funktion des Steuermittels zu erfüllen.
  • Die Erfindung gemäß der dritten Ausführungsform kann ein Bildmessgerät und ein Programm bereitstellen, die wahrscheinlich keine Fehlfunktion auf Grund eines ungewollten Kontakts mit dem Berührungsfeld-Display bewirken.
  • Aktion, die vorkommt, wenn die Geste durch eine Berührungsbetätigung eingegeben wird, die an dem Berührungsfeld-Display erfolgt
  • Die dritte Ausführungsform wird auf das gleiche Bildmessgerät 1 wie gemäß der ersten Ausführungsform angewendet, und eine Befehlseingabe, die für die Betätigung unter Verwendung eines Berührungsfeld-Displays geeignet ist, wird an dem in 14 angezeigten Bildschirm erreicht. 14 zeigt ein Beispiel des Hauptfensters MW, das an dem Berührungsfeld-Display 144 durch die Ausführung des Bildanzeigeprogramms angezeigt wird. Das Hauptfenster MW zeigt je nach Bedarf eine Vielzahl von Fenstern an, zu denen das Werkstückfenster W1 gehört, in dem das aufgenommene Bild WG des aufgenommenen Werkstücks W angezeigt wird. Das Steuerprogramm, das durch die CPU 211 des Computerhauptkörpers 141 ausgeführt wird, identifiziert einen Befehl, der einer Geste entspricht, die durch eine Berührungsbetätigung eingegeben wird, die an dem Berührungsfeld-Display 144 erfolgt, basierend auf einem Signal, das von dem Berührungsfeld-Display 144 ausgegeben wird, gemäß der Geste und führt den Befehl an einem Abschnitt des Bildmessgeräts 1 aus, bei dem es sich um den Abschnitt handelt, an dem der Befehl ausgeführt wird, wie etwa dem Objekttisch 100 und dem Gehäuse 110.
  • Die eingegebene Geste ist eine Geste, die derart ausgeführt wird, dass der Kontakt mit dem Berührungsfeld-Display 144 an mindestens zwei Punkten gleichzeitig hergestellt wird (beispielsweise für den Fall eines Fingerkontakts wird das Berührungsfeld-Display 144 mit mindestens zwei Fingern gleichzeitig berührt). Spezifische Beispiele der Geste können Aktionen des Antippens, des doppelten Antippens, des langen Antippens, des Schnipsens, des Wischens und des Drehens umfassen, und die Geste kann stattdessen eine andere Geste sein, die in einem Zustand mit gleichzeitigem Kontakt an mindestens zwei Punkten erfolgt. 15 zeigt ein Beispiel des gleichzeitigen Kontakts mit zwei Fingern mit dem Berührungsfeld-Display 144.
  • Ein Befehl, welcher der Geste entspricht, kann ein beliebiger Befehl sein. Da die Anforderung eines gleichzeitigen Kontakts an mindestens zwei Punkten das Risiko einer Fehlfunktion reduziert, die auf eine Befehlseingabe zurückzuführen ist, die durch ungewollten Kontakt mit dem Berührungsfeld bewirkt wird, wird die Geste bevorzugt auf einen Befehl angewendet, der Sicherheit erfordert, wenn der Befehl eingegeben wird. Beispielsweise umfassen Beispiele eines derartigen Befehls einen Befehl, der eine physische Bewegung eines Abschnitts des Bildmessgeräts 1, wie etwa des Objekttischs 100 oder des Gehäuses 110, bewirkt.
  • Spezifische Beispiele der Zuordnung eines Befehls zu einer Geste sind folgende:
    1. (1) Ein Motorantriebsbefehl, der bewirkt, dass sich der Objekttisch 100 in der X-Achsen- oder Y-Achsenrichtung bewegt, wird einer Wischaktion in der X-Achsen- oder Y-Achsenrichtung in dem Zustand mit gleichzeitigem Kontakt an mindestens zwei Punkten in dem aufgenommenen Bild WG des Werkstücks W, das an dem Berührungsfeld-Display 144 angezeigt wird, zugeordnet.
    2. (2) Ein Motorantriebsbefehl, der bewirkt, dass sich der Objekttisch 100 derart bewegt, dass das aufgenommene Bild WG in der Mitte des Werkstückfensters W1 angezeigt wird, wird einer Antippaktion in dem Zustand mit gleichzeitigem Kontakt an mindestens zwei Punkten in dem aufgenommenen Bild WG des Werkstücks W, das an dem Berührungsfeld-Display 144 angezeigt wird, zugeordnet.
    3. (3) Ein Befehl, der bewirkt, dass das optische System in dem Gehäuse 110 eine automatische Fokussierung vornimmt, wird einer doppelten Antippaktion in dem Zustand mit gleichzeitigem Kontakt an mindestens zwei Punkten in dem aufgenommenen Bild WG des Werkstücks W, das an dem Berührungsfeld-Display 144 angezeigt wird, zugeordnet.
    4. (4) Ein Motorantriebsbefehl, der bewirkt, dass sich das optische System in dem Gehäuse 110 in der Z-Achsenrichtung langsam bewegt, wird einer Drehaktion in dem Zustand mit gleichzeitigem Kontakt an mindestens zwei Punkten in dem aufgenommenen Bild WG des Werkstücks W, das an dem Berührungsfeld-Display 144 angezeigt wird, zugeordnet.
  • Die zuvor beschriebenen Entsprechungen zwischen einer Geste und einem Befehl können beispielsweise in der sekundären Speichervorrichtung 216 gespeichert werden, und es kann darauf Bezug genommen werden, wenn das Steuerprogramm ausgeführt wird, oder sie können in Form von Anweisungen in dem Steuerprogramm selber enthalten sein.
  • Vierte Ausführungsform
  • Eine vierte Ausführungsform betrifft ein Bildmessgerät und ein Programm, welche die Durchführung eines Befehls durch eine Berührungsbetätigung ermöglichen, die an einer Befehlseingabeschaltfläche, die an einem Berührungsfeld-Display angezeigt wird, erfolgt.
  • Ein Bildmessgerät wird als ein Messgerät verwendet, dass die Abmessungen und die Form eines Messzielobjekts (Werkstücks) unter Verwendung eines Bildes, das durch Abbilden eines Messzielobjekts erzielt wird, misst und bewertet. Das Bildmessgerät erfasst Informationen über eine Kante (wie etwa Positionskoordinaten der Kante) einer Messzielfigur, die in dem aufgenommenen Bild des Messzielobjekts enthalten ist, und bewertet die Form und die Abmessungen des Messzielobjekts basierend auf den Kanteninformationen.
  • In den letzten Jahren hat die Verbreitung eines Berührungsfeld-Displays bewirkt, dass eine so genannte Berührungsschnittstelle weitgehend als eine intuitiv leicht zu bedienende Benutzerschnittstelle verwendet wird, die beispielsweise durch Berühren des Displays betätigt werden kann, und eine derartige Berührungsschnittstelle wird auch in einem Bildmessgerät verwendet (siehe beispielsweise die japanische Patent-Auslegeschrift Nr. 2016-173703 ). Eine Berührungsschnittstelle verwendet eine gestenbasierte Eingabe. Beispielsweise wird ein Befehl durch Berühren einer Schaltfläche mit einem Finger oder einem Berührungsstift anstelle eines Mausklicks auf eine Schaltfläche eingegeben.
  • Bei der Bildmessung wird zur zweckmäßigen Abbildung eines Abschnitts eines Messzielobjekts, bei dem es sich um den Abschnitt handelt, den ein Benutzer mit Bildgebungsmitteln messen möchte, das Messzielobjekt auf einen Objekttisch gelegt, der in zwei- oder dreidimensionalen Richtungen bewegbar ist, und der Objekttisch wird bewegt, um die Position des Messzielobjekts mit Bezug auf die Abbildungsmittel anzupassen. Ein Verfahren zum Eingeben eines Befehls, der bewirkt, dass sich der Objekttisch bewegt, kann beispielsweise ein Verfahren zum Anzeigen von Schaltflächen zum Bewegen des Objekttischs in den zweidimensionalen Richtungen, so dass die Schaltflächen in einem aufgenommenen Bild des Messzielobjekts, das an einem Display angezeigt wird, eingeblendet werden, und zum Bewegen des Objekttischs um einen vorbestimmten Schritt, jedes Mal wenn eine der Schaltflächen einmal angeklickt wird, sein (beispielsweise japanische Patent-Auslegeschrift Nr. 10-197224 ).
  • Es wurde jedoch kein Verfahren bereitgestellt, um mühelos einen spezifischen Modus für den Fall einzustellen, dass ein Benutzer den Objekttisch in diversen Modi bewegen möchte, wie etwa eine Feinanpassung und eine durchgehenden Bewegung, statt den Objekttisch mit dem vorbestimmten Schritt zu bewegen.
  • Angesichts des zuvor beschriebenen Problems besteht eine Aufgabe der Erfindung gemäß der vierten Ausführungsform darin, ein Bildmessgerät und ein Programm bereitzustellen, die das Einstellen eines Befehlsaktionsmodus durch eine berührungseingabenbasierte mühelose Betätigung ermöglichen.
  • Das Bildmessgerät gemäß der vierten Ausführungsform ist ein Bildmessgerät, das ein Messzielobjekt abbildet, das auf einen Objekttisch gelegt wird, der in zwei- oder dreidimensionalen Richtungen bewegbar ist, und die Abmessungen und die Form des Messzielobjekts basierend auf dem aufgenommenen Bild des Messzielobjekts, das an einem Berührungsfeld-Display angezeigt wird, misst und ferner Steuermittel umfasst zum Anzeigen einer Schaltfläche, die mit einer Kennung markiert ist, um einen vorbestimmten Befehl einzugeben, so dass die Schaltfläche in dem aufgenommenen Bild, das an dem Berührungsfeld-Display angezeigt wird, eingeblendet wird, ferner zum Anzeigen, wenn ein Benutzer eine Berührungseingabebetätigung an dem Abschnitt ausführt, in dem die Kennung angezeigt wird, eines Menüs zum selektiven Eingeben eines Aktionsmodus des Befehls, welcher der Schaltfläche an dem Berührungsfeld-Display entspricht, zum Zuordnen, wenn der Benutzer einen der Aktionsmodi in dem Menü über eine Berührungseingabebetätigung auswählt, des ausgewählten Aktionsmodus zu der Schaltfläche, und zum Ausführen, wenn der Benutzer eine Berührungseingabebetätigung an der Schaltfläche vornimmt, des Befehls, welcher der Schaltfläche in dem zugeordneten Aktionsmodus entspricht.
  • Der vorbestimmte Befehl kann beispielsweise ein Befehl sein, der bewirkt, dass sich der Objekttisch in einer der zwei- oder dreidimensionalen Richtungen bewegt. Die Schaltfläche, die mit der Kennung markiert ist, kann beispielsweise eine Richtungsschaltfläche sein, die mit einer Kennung markiert ist, die eine der zwei- oder dreidimensionalen Richtungen darstellt. Der Aktionsmodus kann beispielsweise mindestens zwei von einer feinen Bewegung, einer schrittweisen Bewegung und einer durchgehenden Bewegung umfassen.
  • Die Steuermittel können konfiguriert sein, um die Schaltfläche anzuzeigen, wenn der Benutzer eine vorbestimmte Eingabebetätigung ausführt.
  • Die Funktion der Steuermittel kann in Form von Anweisungen in einem Programm enthalten sein, und ein Computer kann das Programm ausführen, um die Funktion der Steuermittel zu erfüllen.
  • Die Erfindung gemäß der vierten Ausführungsform kann ein Bildmessgerät und ein Programm bereitstellen, die es ermöglichen, einen Befehlsaktionsmodus durch eine berührungseingabenbasierte mühelose Betätigung einzustellen.
  • Bildschirmanzeige und Aktion gemäß einer Betätigung
  • Die vierte Ausführungsform wird auf das gleiche Bildmessgerät 1 wie gemäß der ersten Ausführungsform angewendet, und eine Befehlseingabe, die für eine Betätigung unter Verwendung eines Berührungsfeld-Displays geeignet ist, wird an dem angezeigten Bildschirm, der in 16 gezeigt wird, verwirklicht. 16 zeigt ein Beispiel des Hauptfensters MW, das an dem Berührungsfeld-Display 144 durch Ausführen des Bildanzeigeprogramms angezeigt wird. Das Hauptfenster MW zeigt je nach Bedarf eine Vielzahl von Fenstern an, die das Werkstückfenster W1 umfasst, in dem das aufgenommene Bild WG des aufgenommenen Werkstücks W angezeigt wird. Ein Bildschirm, der an dem Berührungsfeld-Display 144 angezeigt wird, wenn die CPU 211 des Computerhauptkörpers 141 das Steuerprogramm ausführt, wird als Nächstes beschrieben. Die folgende Beschreibung erläutert einen Fall, bei dem ein Befehl, der bewirkt, dass sich der Objekttisch 100 bewegt, als Reaktion auf eine Eingabebetätigung, die an einer Schaltfläche erfolgt, ausgegeben wird, und die folgende Beschreibung ist auch auf einen Fall anwendbar, bei dem ein Befehl, der bewirkt, dass jede Komponente des Gehäuses 110 agiert, ausgegeben wird.
  • Das ausgeführte Steuerprogramm zeigt eine Schaltfläche BX und eine Schaltfläche BY zum Eingeben eines Motorantriebsbefehls an, der bewirkt, dass sich der Objekttisch 100 jeweils in den Richtungen ±X und ±Y in dem Werkstückfenster W1 bewegt, so dass die Schaltflächen BX und BY in dem aufgenommenen Bild WG eingeblendet werden. In einem Fall, bei dem der Objekttisch 100 auch in der Richtung ±Z mit einem Motor bewegbar ist, wird eine Schaltfläche BZ zum Eingeben eines Motorantriebsbefehls, der bewirkt, dass sich der Objekttisch 100 in die Richtungen ±Z bewegt, ebenfalls angezeigt. Genauer gesagt werden die Schaltflächen BX, BY und BZ jeweils in zwei Schaltflächen zum Eingeben von Befehlen unterteilt, die bewirken, dass sich der Objekttisch in den positiven und negativen Richtungen bewegt, wie in 16 gezeigt.
  • Die Schaltflächen BX, BY und BZ sind jeweils mit einer Kennung markiert, welche die entsprechende Richtung darstellt, wie in 16 gezeigt. D.h. die Schaltfläche BX ist mit X gekennzeichnet, die Schaltfläche BY ist mit Y gekennzeichnet, und die Schaltfläche BZ ist mit Z gekennzeichnet.
  • Die Schaltflächen BX, BY und BZ können gleichzeitig angezeigt werden, wenn das aufgenommene Bild WG angezeigt wird, oder können anfänglich nicht angezeigt werden, und können als Reaktion auf eine gewisse Betätigung, die durch den Benutzer eingegeben wird, angezeigt werden. In diesem Fall wird beispielsweise eine Hamburger-Schaltfläche BH gleichzeitig angezeigt, wenn das aufgenommene Bild WG angezeigt wird, wie in 17 gezeigt, und die Schaltflächen BX, BY und BZ werden als Reaktion auf eine Berührungseingabebetätigung angezeigt, die an der Hamburger-Schaltfläche BH erfolgt, wie in 16 gezeigt.
  • Wenn der Benutzer eine Berührungseingabebetätigung ausführt, die darin besteht, einen Abschnitt der Schaltflächen BX, BY oder BZ, bei dem es sich um den Abschnitt handelt, in dem die Kennung angezeigt wird, mit einem Finger oder einem Berührungsstift zu berühren, zeigt das ausgeführte Steuerprogramm ferner ein Menü zum selektiven Eingeben eines Aktionsmodus eines Befehls an, der ausgeführt wird, wenn die Schaltfläche, die mit der Kennung markiert ist, berührt wird, und die Eingabe erfolgt einmal. Wenn der Benutzer beispielsweise mit einem Finger den Abschnitt berührt, in dem Z, das die Kennung ist, mit der die Schaltfläche BZ gekennzeichnet ist, angezeigt wird, wie in 18A gezeigt, wird ein Menü angezeigt, um einen Aktionsmodus selektiv einzugeben, gemäß dem der Objekttisch 100 in der Richtung Z bewegt wird, wenn eine Berührungseingabe einmal an der Schaltfläche erfolgt, wie in 18B gezeigt. 18A und 18B zeigen einen Fall, bei dem „Fine“ (feine Bewegung), „Step“ (schrittweise Bewegung) und „Cont“ (durchgehende Bewegung) ausgewählt und beispielhaft eingegeben werden können.
  • Die Arten des auswählbaren Aktionsmodus können in allen Richtungen die gleichen sein oder können basierend auf der Richtung unterschiedlich sein.
  • Wenn der Benutzer einen der Aktionsmodi in dem Menü über eine Berührungseingabebetätigung auswählt, ordnet das ausgeführte Steuerprogramm den ausgewählten Aktionsmodus der Schaltfläche zu, die mit der Kennung markiert ist.
  • Wenn ferner der Benutzer eine Berührungseingabebetätigung an der Schaltfläche ausführt, führt das ausgeführte Steuerprogramm einen Befehl, welcher der Schaltfläche entspricht, an dem Objekttisch 100 in dem Aktionsmodus, welcher der Schaltfläche zugeordnet ist, aus.
  • Ein Verfahren zum Abbrechen des Aktionsmodus, der jeder der Schaltflächen zugeordnet ist, kann ein beliebiges Verfahren sein.
  • Das zuvor beschriebene Bildmessgerät gemäß der vierten Ausführungsform kann mühelos einen Aktionsmodus eines Befehls über eine Menüauswahl einer Befehlseingabeschaltfläche zuordnen, bevor der Befehl an der Befehlseingabeschaltfläche eingegeben wird, und ermöglicht es dann dem Benutzer, den Befehl in dem zugeordneten Aktionsmodus auszuführen.
  • Fünfte Ausführungsform
  • Eine fünfte Ausführungsform betrifft ein Bildmessgerät, ein Bildmessverfahren und ein Bildmessprogramm, die für die Betätigung unter Verwendung eines Berührungsfeld-Displays geeignet sind.
  • Ein Bildmessgerät wird als ein Messgerät verwendet, das die Abmessungen und die Form eines Messzielobjekts (Werkstücks) unter Verwendung eines Bildes, das durch Abbilden des Werkstücks erzielt wird, misst und bewertet. Das Bildmessgerät erfasst Informationen über eine Kante (wie etwa Positionskoordinaten der Kante) einer Messzielfigur, die in dem aufgenommenen Bild des Werkstücks enthalten ist, und bewertet die Form und die Abmessungen des Werkstücks basierend auf den Kanteninformationen. In dem Bildmessgerät wird ein so genanntes „Ein-Klick-Tool“ als ein Tool zum Erfassen von Kanteninformationen durch eine einfache Betätigung bereitgestellt. Das Ein-Klick-Tool sucht automatisch, wenn der Benutzer eine Position an einem angezeigten Bildschirm anzeigt, nach einer Kantenstelle, die in einem vorbestimmten Bereich um die vorgegebene Position herum enthalten ist, um die Kanteninformationen automatisch zu erfassen. Bei diesem Prozess werden für den Fall, dass eine Vielzahl von Kanten in dem vorbestimmten Suchbereich gefunden wurde, Kanteninformationen über eine Kante, welche die höchste Intensität aufweist, erfasst. Es wurde ein Verfahren, das die zuvor beschriebenen Schritte umfasst, bereitgestellt (siehe beispielsweise das japanische Patent Nr. 3,595,014 ).
  • In den letzten Jahren hat die Verbreitung eines Berührungsfeld-Displays bewirkt, dass eine so genannte Berührungsschnittstelle weitgehend als eine intuitiv leicht zu bedienende Benutzerschnittstelle verwendet wird, die beispielsweise durch Berühren des Displays betätigt werden kann.
  • Eine Berührungsschnittstelle ermöglicht eine intuitive Betätigung, tut sich jedoch mit dem genauen Vorgeben der vorgesehenen Position eines Benutzers schwer, wenn der Benutzer versucht, eine Position auf einem feinen Niveau in einem angezeigten Bildschirm vorzugeben. D.h. um eine Position an dem angezeigten Bildschirm mit herkömmlichen Eingabemitteln, für die eine Maus stellvertretend ist, vorzugeben, wird eine Maus oder ein beliebiges anderes Eingabemittel verwendet, um einen Zeiger zu bewegen, der an dem Bildschirm angezeigt wird, und um den Zeiger in einer vorgesehenen Position genau zu positionieren, um die Position vorzugeben. Dagegen ist für den Fall einer Berührungsschnittstelle der Schwerpunkt einer Region, in der ein Finger oder eine Spitze eines Stifts mit dem Display in Kontakt steht, typischerweise die vorgegebene Position. Da der Schwerpunkt der Kontaktregion hinter dem Finger oder der Spitze des Stifts liegt und daher für den Benutzer nicht zu sehen ist, kann der Benutzer die genaue Position nicht begreifen, die durch den Benutzer vorgegeben wird, und es ist daher nicht einfach, die vorgesehene Position genau vorzugeben.
  • Es ist denkbar, dass das Anwenden einer derartigen Berührungsschnittstelle, um ein Bildmessgerät zu betätigen, und das Verwenden als Eingabemittel zum Eingeben einer Betätigung in das Ein-Klick-Tool häufig einen Fall bewirken, bei dem der vorbestimmte Bereich, in dem die Suche durch das Ein-Klick-Tool erfolgt, keine vorgesehene Kante enthält. Damit der Suchbereich wahrscheinlich die vorgesehene Kante enthalten kann, wird eine Maßnahme getroffen, um den Suchbereich des Ein-Klick-Tools im Vergleich zu dem Suchbereich in der verwandten Technik breiter zu machen. In diesem Fall ist es wahrscheinlicher, dass eine Vielzahl von Kanten in dem Suchbereich gefunden wird. In einem Fall, bei dem eine Kante mit einer höheren Intensität in der Nähe der Kante vorliegt, die der Benutzer vorgesehen hat, verhindert die automatische Kantenidentifizierung basierend auf der Kantenintensität unerwünschterweise, dass das Ein-Klick-Tool die Kanteninformationen über die von dem Benutzer vorgesehene Kante erfasst.
  • Angesichts des zuvor beschriebenen Problems besteht eine Aufgabe der Erfindung gemäß der fünften Ausführungsform darin, ein Bildmessgerät, ein Bildmessverfahren und ein Bildmessprogramm, die für eine Betätigung unter Verwendung eines Berührungsfeld-Displays geeignet sind, bereitzustellen.
  • Um das zuvor beschriebene Problem zu lösen, umfasst das Bildmessgerät gemäß der fünften Ausführungsform einen Bildgeber, der ein Bild eines Messzielobjekts erfasst, ein Berührungsfeld-Display, welches das Bild anzeigt, das durch den Bildgeber erfasst wird, und eine Berührungseingabebetätigung, die darin besteht, eine Position in dem angezeigten Bild vorzugeben, annimmt, und einen Kantendetektor, der eine Kante, die in einem vorbestimmten Bereich um die in dem Bild vorgegebene Position herum vorhanden ist, die durch eine Berührungseingabebetätigung des Benutzers in dem Bild vorgegeben ist, das an dem Berührungsfeld-Display angezeigt wird, sucht und erkennt. Der Kantendetektor ist dadurch gekennzeichnet, dass wenn eine Vielzahl von Kanten in der Nähe der vorgegebenen Position gefunden wird, ein Steuerobjekt zum Auswählen jeder der Kanten an dem Berührungsfeld-Display nicht nur mit einem Erscheinungsbild, das verhindert, dass die falsche Kante durch die Berührungsbetätigung ausgewählt wird, sondern auch mit einem Erscheinungsbild, das eine visuelle Erkennung der Entsprechung zwischen jeder der Kanten und dem entsprechenden Steuerobjekt ermöglicht, angezeigt wird.
  • Bei der fünften Ausführungsform kann der Kantendetektor den vorbestimmten Bereich, in dem eine Kante gesucht wird, gemäß der Größe der Region, in der die Berührungsfeld-Display einen Kontakt abfühlt, der sich aus der Berührungseingabebetätigung ergibt, einstellen.
  • Außerdem kann das Bildmessgerät bei der fünften Ausführungsform ferner zweite Eingabemittel umfassen, die anders als die Berührungsfeld-Display sind und eine Eingabebetätigung, die darin besteht, eine Position vorzugeben, ermöglichen, und der Kantendetektor kann, wenn die Berührungsbetätigung, die an dem Berührungsfeld-Display erfolgt, die vorgegebene Position vorgibt, in einem breiteren Bereich suchen, um eine Kante zu erkennen, als für den Fall, bei dem die vorgegebene Position durch eine Eingabebetätigung vorgegeben wird, die an den zweiten Eingabemitteln erfolgt.
  • Um das zuvor beschriebene Problem zu lösen, umfasst ein Bildmessverfahren gemäß der fünften Ausführungsform die Schritte des Anzeigens eines Bildes eines Messzielobjekts an einem Berührungsfeld-Display, des Annehmens der Berührungseingabebetätigung, die darin besteht, eine Position in dem Bild, das an dem Berührungsfeld-Display angezeigt wird, vorzugeben, und des Suchens und Erkennens einer Kante, die in einem vorbestimmten Bereich um die vorgegebene Position herum, die in dem Schritt des Annehmens der Berührungsbetätigung vorgegeben wird, vorliegt. Das Bildmessverfahren ist dadurch gekennzeichnet, dass wenn eine Vielzahl von Kanten in der Nähe der vorgegebenen Position gefunden wird, ein Steuerobjekt zum Auswählen jeder der Kanten an dem Berührungsfeld-Display nicht nur mit einem Erscheinungsbild, das verhindert, dass die falsche Kante durch die Berührungsbetätigung ausgewählt wird, sondern auch mit einem Erscheinungsbild, das eine visuelle Erkennung der Entsprechung zwischen jeder der Kanten und dem entsprechenden Steuerobjekt ermöglicht, angezeigt wird.
  • Um das zuvor beschriebene Problem zu lösen, ist ein Bildmessprogramm gemäß der fünften Ausführungsform ein Programm zum Erkennen einer Kante einer Figur, die in einem Bild eines Messzielobjekts enthalten ist, und ist dadurch gekennzeichnet, dass das Bildmessprogramm bewirkt, dass ein Computer das zuvor beschriebene Bildmessverfahren ausführt.
  • Ablaufschema von Prozessen, die von dem Ein-Klick-Tool ausgeführt werden
  • Die fünfte Ausführungsform wird auf das gleiche Bildmessgerät 1 wie gemäß der ersten Ausführungsform angewendet und verwirklicht eine Kantenerkennung, die für eine Betätigung unter Verwendung eines Berührungsfeld-Displays an dem angezeigten Bildschirm, der in 3 gezeigt wird, geeignet ist. Der Arbeitsablauf eines Verfahrens zum Erfassen von Kanteninformationen wird basierend auf einem „Ein-Klick-Tool“ beschrieben, das in der Lage ist, durch eine einzige Positionsvorgabebetätigung Informationen über eine Kante (wie etwa Positionskoordinaten der Kante) einer Messzielfigur, die in dem Bild WG des Werkstücks W enthalten ist, das in dem ersten Fenster W1 angezeigt wird, zu erfassen. Das Verfahren wird durch ein Programm verwirklicht, das von dem Computersystem 140 ausgeführt wird. 19 zeigt ein Beispiel des angezeigten ersten Fensters W1, bevor die Kanteninformationen erfasst werden. Bei dem in 19 gezeigten Beispiel werden drei schräge rechteckige Figuren in dem ersten Fenster W1 angezeigt. Die sechs langen Seiten der Rechtecke werden jeweils als Kanten E1 bis E6 bezeichnet. In der folgenden Beschreibung wird ein Arbeitsablauf beschrieben, der darin besteht, Kanteninformationen über die Gerade E2 aus den Kanten E1 bis E6 unter Verwendung des Ein-Klick-Tools zu erfassen.
  • 20 ist ein Ablaufschema des Prozesses des Erfassens der Kanteninformationen unter Verwendung des Ein-Klick-Tools.
  • Der Prozess des Erfassens der Kanteninformationen unter Verwendung des Ein-Klick-Tools wird ausgelöst, wenn der Benutzer das Symbol eines Verfahrens zum Messen einer Geraden (z.B. Länge der Geraden) als eine Funktion in dem dritten Fenster W3 in 3 antippt, um das Messverfahren vorzugeben, und ferner das Symbol des Ein-Klick-Tools in dem zweiten Fenster W2 in 3 antippt, um das Ein-Klick-Tool als Verfahren zum Vorgeben eines Messpunktes auszuwählen.
  • Wenn der Prozess ausgelöst wird, wartet das Computersystem 140 auf die Betätigung des Benutzers, die darin besteht, eine Position in dem ersten Fenster W1 vorzugeben (Schritt S200). Um eine Kante vorzugeben, über die der Benutzer Kanteninformationen erfassen möchte, tippt der Benutzer anschließend einen Punkt in der Nähe der gewünschten Kante an, wie in 21 gezeigt. Bei dem vorliegenden Beispiel tippt der Benutzer einen Punkt in der Nähe der Kante E2 an (Schritt S210) . An diesem Punkt erkennt das Berührungsfeld-Display 144 manchmal eine Position P, die gegenüber der Kante E2 verschoben ist, als die vorgegebene Position, obwohl der Benutzer vorgesehen hatte, einen Punkt an der Kante E2 anzutippen, und es wird bei dem vorliegenden Beispiel vorausgesetzt, dass die vorgegebene Position P gegenüber der Kante E2 verschoben ist. Das Computersystem 140 durchsucht anschließend einen vorbestimmten Bereich um die Position P herum, die durch das Antippen vorgegeben wird (Schritt S220), um Kandidaten für die Kante zu finden (Schritt S230). Der vorbestimmte Bereich L, in dem die Suche erfolgt, kann eine Region sein, die eine Größe aufweist, die etwa gleich der Größe eines berührenden Fingers ist (beispielsweise ein Durchmesser von ungefähr 1 cm).
  • Ein Verfahren zum Durchsuchen des vorbestimmten Bereichs L, um Kantenkandidaten in den Schritten S220 bis S230 zu erfassen, kann beispielsweise folgendermaßen verwirklicht werden: Zuerst wird ein zweidimensionales Differentialfilter auf eine Position um die Position P herum, die radial innerhalb des vorbestimmten Bereichs L liegt, auf einer vorbestimmten Winkelbasis angewendet, um einen Wert zu bestimmen, der das Ausmaß der Änderung der Dichte (Helligkeit) eines Pixels in der Position, in welcher der Abstand von der Position P in den vorbestimmten Bereich L fällt, zu bestimmen, und eine Position, in welcher der Wert größer als ein vorbestimmter Wert ist, wird als eine Kantenkandidatenposition erkannt. Dann kann ein so genanntes Kästchen-Tool auf jede der erkannten Kantenkandidatenpositionen angewendet werden, um eine geradlinige Kante zu erfassen, die aus vielen Punkten um die Kantenkandidatenposition herum gebildet wird, um eine Vielzahl von geradlinigen Kantenkandidaten um die P herum, die durch den Benutzer vorgegeben wird, zu erfassen.
  • In einem Fall, bei dem ein Kantenkandidat in dem vorbestimmten Bereich L gefunden wird (Ja in Schritt S230), verknüpft das Computersystem 140 ein Steuerobjekt (wie etwa eine Schaltfläche zum Annehmen einer Betätigung, die an dem Berührungsfeld-Display 144 erfolgt oder mit einer Maus 143 ausgeführt wird), an dem gefundenen Kantenkandidaten und zeigt das Steuerobjekt an dem Berührungsfeld-Display 144 an. In einem Fall, bei dem eine Vielzahl von Kantenkandidaten gefunden wird, wird eine Vielzahl von Steuerobjekten angezeigt. In diesem Fall zeigt das Computersystem 140 die Vielzahl von Steuerobjekten nicht nur mit einem Erscheinungsbild, das verhindert, dass ein falsches Steuerobjekt durch eine Berührungsbetätigung, die an dem Berührungsfeld-Display 144 ausgeführt wird, ausgewählt wird, sondern auch mit einem Erscheinungsbild, das eine visuelle Erkennung der Entsprechung zwischen den Kanten und den Steuerobjekten ermöglicht, an (Schritt S240). Bei dem vorliegenden Beispiel wird nicht nur die Kante E2, die der Benutzer erfassen möchte, sondern auch die Kanten E1 und E3 in dem vorbestimmten Bereich L um die Position P herum gefunden, wie in 21 gezeigt. Das Computersystem 140 zeigt dann die Schaltflächen B1 bis B3 in Übereinstimmung mit den Kanten E1 bis E3 an. Nun werden die Schaltflächen B1 bis B3 derart angezeigt, dass sie voneinander um ungefähr 1 cm getrennt sind, so dass keine falsche Schaltfläche durch eine Berührungsbetätigung ausgewählt wird. Das Computersystem 140 zeigt ferner eine Gerade an, die einen Punkt an jeder der Kanten E1 bis E3 mit einer entsprechenden der Schaltflächen B1 bis B3 an dem Berührungsfeld-Display 144 verbindet, so dass die Entsprechung zwischen den Kanten und den Steuerobjekten visuell erkennbar ist. Das Computersystem 140 zeigt ferner die gedachten Linien L1 bis L3, die über den Kantenkandidaten eingeblendet sind, an dem Berührungsfeld-Display 144 an, wie in 22 gezeigt. Das derartige Anzeigen der gedachten Linien, so dass sie über den Kantenkandidaten eingeblendet sind, ermöglicht es dem Benutzer, die Kanten, die gefundene Kantenkandidaten sind, mühelos visuell zu erkennen.
  • Der Benutzer tippt anschließend das Steuerobjekt an, das der Kante entspricht, über die der Benutzer Kanteninformationen erfassen möchte. In dem Zustand, in dem die Schaltflächen B1 bis B3 mit Bezug auf die Kanten E1 bis E3 angezeigt werden, wie in 22 gezeigt, wenn der Benutzer die Schaltfläche B2 antippt, die der Kante E2 entspricht (Schritt S250), erfasst das Computersystem 140 Kanteninformationen (wie etwa Positionskoordinaten) über die Kante, die dem ausgewählten Steuerobjekt entspricht, zeigt die Kanteninformationen derart an, dass die Kanteninformationen in dem Bild WG des Werkstücks W eingeblendet sind (Schritt S260), und beendet den Prozess. Bei dem vorliegenden Beispiel werden Kanteninformationen über die Kante E2, die der Schaltfläche B2 entspricht, die von dem Benutzer angetippt wird, erfasst, und die erfassten Kanteninformationen (Koordinaten der Kante) werden derart angezeigt, dass sie in dem Bild WG des Werkstücks W eingeblendet sind, wie in 23 gezeigt.
  • Dagegen wird für einen Fall, bei dem in dem vorbestimmten Bereich L kein Kantenkandidat gefunden wird (Nein in Schritt S230), eine Fehlermeldung angezeigt, die angibt, dass keine Kante erkannt wurde (Schritt S270), und der Prozess ist beendet.
  • Das zuvor beschriebene Prozessablaufschema ermöglicht eine Erfassung von Kanteninformationen unter Verwendung des Ein-Klick-Tools, die für die Betätigung geeignet ist, die an dem Berührungsfeld-Display 144 ausgeführt wird. Insbesondere kann eine gewünschte Kante unter Verwendung des Ein-Klick-Tools an dem Berührungsfeld-Display 144 selbst an einer Stelle, an der die Kanten dicht gedrängt sind, mühelos ausgewählt werden.
  • Die vorliegende Ausführungsform wurde zuvor beschrieben, doch die vorliegende Erfindung ist nicht darauf eingeschränkt. Beispielsweise wurde die obige Ausführungsform mit Bezug auf den Fall beschrieben, bei dem eine Linie ein Steuerobjekt und eine gedachte Linie einer Kante miteinander verbindet, um die Entsprechung dazwischen visuell erkennbar anzuzeigen, doch ein Verfahren zum Anzeigen der Entsprechung zwischen einer Kante und einem Steuerobjekt auf visuell erkennbare Art und Weise ist nicht auf die Linienverbindung eingeschränkt. Beispielsweise kann jeder Satz einer gedachten Linie und des entsprechenden Steuerobjekts in einer anderen Farbe als den Farben der anderen Sätze angezeigt werden, so dass die Entsprechung zwischen der gedachten Linie und dem entsprechenden Steuerobjekt zu erkennen ist, oder jeder der Sätze aus einem Steuerobjekt und der gedachten Linie der entsprechenden Kante kann der Reihe nach dazu gebracht werden, zur visuellen Erkennung der Entsprechung zwischen der gedachten Linie der Kante und dem Steuerobjekt beispielsweise synchron miteinander zu blinken.
  • Die obige Ausführungsform wurde ferner mit Bezug auf den Fall beschrieben, bei dem eine Vielzahl von Steuerobjekten angezeigt wird, so dass sie voneinander getrennt sind, so dass die Steuerobjekte mit einem Erscheinungsbild angezeigt werden, das verhindert, dass ein falsches Steuerobjekt durch die Berührungsbetätigung ausgewählt wird, doch das Erscheinungsbild, das verhindert, dass ein falsches Objekt der Vielzahl von Steuerobjekten durch eine Berührungsbetätigung ausgewählt wird, ist nicht auf das zuvor beschriebene Erscheinungsbild eingeschränkt. Beispielsweise ist die Schaltfläche, die als jedes der Steuerobjekte angezeigt wird, derart dimensioniert, dass sie groß genug ist, um keine falsche Auswahl durch eine Berührungsbetätigung zu bewirken (beispielsweise eine viereckige Form, die jede Seite aufweist, die größer als ungefähr 1 cm ist), wodurch die Auswahl eines falschen Steuerobjekts durch eine Berührungsbetätigung vermieden werden kann, selbst für den Fall, dass die Schaltflächen in engen Intervallen angeordnet sind (oder die Schaltflächen lückenlos angeordnet sind).
  • Die obige Ausführungsform wurde mit Bezug auf den Fall beschrieben, bei dem eine geradlinige Kante unter Verwendung des Ein-Klick-Tools erkannt wird. Eine zu entnehmende Kante kann stattdessen eine andere Form als die einer geraden Linie aufweisen (beispielsweise eine kreisförmige oder elliptische Form). Ein Verfahren zum Entnehmen von Kanten mit diversen Formen kann verwirklicht werden, indem gegebenenfalls ein existierender Lösungsansatz angewendet wird.
  • Die obige Ausführungsform wurde mit Bezug auf den Fall beschrieben, bei dem eine Fehlermeldung angezeigt wird und der Prozess beendet ist, wenn keine Kante in dem vorbestimmten Bereich L gefunden wird, in dem die Suche erfolgt. Stattdessen kann, wenn keine Kante in dem Suchbereich gefunden wird, der Suchbereich vergrößert werden, und der Prozess kann fortfahren, bis ein Kantenkandidat gefunden wird.
  • Bei der zuvor beschriebenen Ausführungsform ist der vorbestimmte Bereich L, in dem die Suche erfolgt, ein festgelegter Bereich. Der festgelegte Bereich L kann stattdessen ein variabler Bereich sein. Beispielsweise kann der vorbestimmte Bereich L gemäß der Größe (wie etwa Fläche, Umfang und maximaler Durchmesser) einer Region genändert werden, in welcher der Benutzer das Berührungsfeld-Display 144 berührt hat. Da angenommen wird, dass der Verschiebungsbetrag der Positionsvorgabebetätigung in den Bereich fällt, in dem der Kontakt hergestellt wird, verhindert die zuvor beschriebene Konfiguration einen zu breiten Suchbereich, ermöglicht jedoch, dass ein geeigneter Kantenkandidat mit der erhöhten Verarbeitungsgeschwindigkeit präsentiert wird.
  • Bei der zuvor beschriebenen Ausführungsform wird die Kantensuchposition in dem ersten Fenster W1 durch eine Berührungsbetätigung, die an dem Berührungsfeld-Display 144 erfolgt, vorgegeben. Die Kantensuchposition kann natürlich stattdessen durch die Verwendung anderer Eingabemittel als eines Berührungsfeld-Displays, wie etwa eine Mausbetätigung, vorgegeben werden. In diesem Fall kann der Suchbereich durch eine Mausbetätigung und eine Antippbetätigung mit einem Finger oder einem Stift geändert werden. Andere Eingabemittel als ein Berührungsfeld-Display, wie etwa eine Maus, ermöglichen es dem Benutzer, eine vorgesehene Position im Vergleich zu der Antippbetätigung genau vorzugeben. In einem Fall, bei dem eine Position durch andere Eingabemittel als ein Berührungsfeld-Display vorgegeben wird, kann der vorbestimmte Bereich L, in dem die Suche erfolgt, daher im Vergleich zu dem Fall, bei dem die Antippbetätigung verwendet wird, eingeengt sein. Ein angemessener Suchbereich kann somit gemäß dem Positionsvorgabeverfahren verwirklicht werden, wodurch ein angemessener Kantenkandidat mit erhöhter Verarbeitungsgeschwindigkeit präsentiert werden kann.
  • Bei der zuvor beschriebenen Ausführungsform werden ein Kantenkandidat und ein Steuerobjekt derart angezeigt, dass die Entsprechung dazwischen unabhängig von der Anzahl der gefundenen Kantenkandidaten visuell erkennbar ist. Stattdessen wird vorausgesetzt, wenn nur ein Kantenkandidat gefunden wird, dass der Benutzer den gefundenen Kantenkandidaten vorgegeben hat, und die Kanteninformationen können erfasst werden, ohne dass ein Steuerobjekt angezeigt wird (d.h. Schritt S240 wird übersprungen).
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016173703 [0003, 0077, 0102, 0118]
    • JP 10197224 [0119]
    • JP 3595014 [0138]

Claims (5)

  1. Positionsvorgabeverfahren zum Vorgeben einer Position über eine Berührungseingabe an einem Bildschirm, der an einem Berührungsfeld-Display angezeigt wird, wobei das Verfahren folgende Schritte umfasst: Erfassen einer anfänglichen Kontaktposition, bei der es sich um eine Kontaktposition zu Beginn des Abfühlens einer Position handelt, in welcher der Kontakt mit dem Berührungsfeld-Display hergestellt wird; Anzeigen eines Positionsanzeigezeigers in einer Position gemäß der anfänglichen Kontaktposition; Anzeigen des Positionsanzeigezeigers in der Position gemäß der anfänglichen Kontaktposition während einer Periode, in der das Abfühlen der Kontaktposition fortfährt, bis ein Abstand von der anfänglichen Kontaktposition zu der Kontaktposition einen vorbestimmten Abstand erreicht, und Beenden der Anzeige des Positionsanzeigezeigers, ohne dass eine Positionsvorgabebetätigung ausgeführt wird, für den Fall, dass das Abfühlen der Kontaktposition beendet ist, bevor der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht; und Anzeigen des Positionsanzeigezeigers, so dass der Positionsanzeigezeiger der Bewegung der Kontaktposition folgt, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, so dass eine relative Positionsbeziehung zwischen dem Positionsanzeigezeiger und der Kontaktposition zu einem Zeitpunkt, zu dem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, während der Periode, in der das Abfühlen der Kontaktposition fortfährt, bewahrt wird und Einstellen, wenn die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat, einer Position, in welcher der Positionsanzeigezeiger angezeigt wird, wenn die Betätigung zum Beenden einer Positionsvorgabebetätigung abgefühlt wird, als eine vorgegebene Position.
  2. Positionsvorgabeverfahren nach Anspruch 1, wobei die Position gemäß der anfänglichen Kontaktposition die anfängliche Kontaktposition ist.
  3. Positionsvorgabeverfahren nach Anspruch 1 oder 2, wobei ein Erscheinungsbild, mit dem der Positionsanzeigezeiger angezeigt wird, bevor der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht, anders ist als ein Erscheinungsbild, mit dem der Positionsanzeigezeiger angezeigt wird, nachdem der Abstand von der anfänglichen Kontaktposition zu der Kontaktposition den vorbestimmten Abstand erreicht hat.
  4. Positionsvorgabeverfahren nach einem der Ansprüche 1 bis 3, wobei die Betätigung zum Beenden einer Positionsvorgabebetätigung eine Betätigung des Beendens des Kontakts ist.
  5. Programm, das bewirkt, dass ein Computer das Positionsvorgabeverfahren nach einem der Ansprüche 1 bis 4 ausführt.
DE102019200284.6A 2018-01-12 2019-01-11 Verfahren und Programm zum Vorgeben einer Position Pending DE102019200284A1 (de)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP2018003147A JP6985157B2 (ja) 2018-01-12 2018-01-12 画像測定機、ツール編集方法、およびプログラム
JP2018-003145 2018-01-12
JP2018-003151 2018-01-12
JP2018003145A JP7113625B2 (ja) 2018-01-12 2018-01-12 位置指定方法およびプログラム
JP2018003148A JP7078403B2 (ja) 2018-01-12 2018-01-12 画像測定機およびプログラム
JP2018003151A JP2019124996A (ja) 2018-01-12 2018-01-12 画像測定機、画像測定方法、及び画像測定用プログラム
JP2018-003149 2018-01-12
JP2018-003147 2018-01-12
JP2018003149A JP6998775B2 (ja) 2018-01-12 2018-01-12 画像測定機およびプログラム
JP2018-003148 2018-01-12

Publications (1)

Publication Number Publication Date
DE102019200284A1 true DE102019200284A1 (de) 2019-07-18

Family

ID=67068525

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019200284.6A Pending DE102019200284A1 (de) 2018-01-12 2019-01-11 Verfahren und Programm zum Vorgeben einer Position

Country Status (2)

Country Link
US (5) US10656780B2 (de)
DE (1) DE102019200284A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114546145B (zh) * 2020-11-24 2024-03-01 明基智能科技(上海)有限公司 游标控制方法及应用其的触控显示装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS595014A (ja) 1982-07-01 1984-01-11 日本ヒユ−ム管株式会社 推進工法用継手カラ−付きヒユ−ム管の製造方法
JPH10197224A (ja) 1997-01-10 1998-07-31 Mitsutoyo Corp 画像測定装置
JP2016173703A (ja) 2015-03-17 2016-09-29 株式会社ミツトヨ タッチディスプレイを用いた入力操作を支援する方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS595014B2 (ja) 1976-02-09 1984-02-02 財団法人電力中央研究所 硼酸形陰イオン交換樹脂の調製法
JP3595014B2 (ja) 1995-03-09 2004-12-02 株式会社ミツトヨ エッジ検出方法及びこれを用いた非接触画像計測システム
JP2000267808A (ja) 1999-03-16 2000-09-29 Oki Electric Ind Co Ltd タッチパネル入力装置と表示装置とを連携させた入力方法
JP2009193423A (ja) 2008-02-15 2009-08-27 Panasonic Corp 電子機器の入力装置
US8111938B2 (en) * 2008-12-23 2012-02-07 Mitutoyo Corporation System and method for fast approximate focus
JP5608360B2 (ja) 2009-12-04 2014-10-15 オリンパス株式会社 顕微鏡コントローラ及び顕微鏡コントローラを備える顕微鏡システム
WO2011102406A1 (ja) 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置
US20120185787A1 (en) 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5907270B2 (ja) 2012-08-08 2016-04-26 富士通株式会社 電子機器、表示制御方法及びプログラム
CN104584071B (zh) * 2012-08-23 2018-01-26 日本电气株式会社 物体识别装置、物体识别方法
JP2014044605A (ja) 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
JP6107008B2 (ja) 2012-09-06 2017-04-05 株式会社ニコン 画像測定用プログラム、画像測定機、及び画像測定方法
JP6112807B2 (ja) * 2012-09-11 2017-04-12 株式会社キーエンス 形状測定装置、形状測定方法および形状測定プログラム
JP6163733B2 (ja) 2012-11-09 2017-07-19 オムロン株式会社 制御装置および制御プログラム
CN107832003B (zh) * 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
US10261674B2 (en) * 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
US20160210109A1 (en) 2015-01-19 2016-07-21 Mediatek Inc. Method for controlling audio playing of an electronic device, and associated apparatus and associated computer program product
US10929008B2 (en) * 2015-06-05 2021-02-23 Apple Inc. Touch-based interactive learning environment
JP6412474B2 (ja) 2015-09-03 2018-10-24 株式会社 日立産業制御ソリューションズ クラック幅計測システム
US10937168B2 (en) * 2015-11-02 2021-03-02 Cognex Corporation System and method for finding and classifying lines in an image with a vision system
JP2018146449A (ja) 2017-03-07 2018-09-20 オムロン株式会社 3次元形状計測装置及び3次元形状計測方法
JP6923361B2 (ja) 2017-05-29 2021-08-18 株式会社ミツトヨ 位置計測装置の操作方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS595014A (ja) 1982-07-01 1984-01-11 日本ヒユ−ム管株式会社 推進工法用継手カラ−付きヒユ−ム管の製造方法
JPH10197224A (ja) 1997-01-10 1998-07-31 Mitsutoyo Corp 画像測定装置
JP2016173703A (ja) 2015-03-17 2016-09-29 株式会社ミツトヨ タッチディスプレイを用いた入力操作を支援する方法

Also Published As

Publication number Publication date
CN110032306A (zh) 2019-07-19
US20230251753A1 (en) 2023-08-10
US11656733B2 (en) 2023-05-23
US20210255755A1 (en) 2021-08-19
US11314374B2 (en) 2022-04-26
US20220221974A1 (en) 2022-07-14
US20200210049A1 (en) 2020-07-02
US20190220167A1 (en) 2019-07-18
US10656780B2 (en) 2020-05-19

Similar Documents

Publication Publication Date Title
DE102010063392B4 (de) Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren
DE102019200287A1 (de) Bildmessgerät und computerlesbares Medium
EP2989524B1 (de) Verfahren zum interagieren mit einem auf einer datenbrille angezeigten objekt
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE112010002760T5 (de) Benutzerschnittstelle
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
DE202005021492U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE112012007167T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE202011110907U1 (de) Markierungsmenüs für Mehrfachberührung und richtungsabhängige musterbildende Gesten
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
DE102013217354B4 (de) Kantenmessungs-videowerkzeug und schnittstelle mit automatischen parametersatzalternativen
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE102014207095A1 (de) Kantenmessungs-Videowerkzeug mit robustem Kantenunterscheidungs-Spielraum
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
EP3040818A1 (de) Verfahren und system zum erkennen eines objektes, und verfahren und system zum erzeugen einer markierung in einer bildschirmdarstellung mittels eines berührungslos gestikgesteuerten bildschirmzeigers
DE112011105894T5 (de) Eingabemethode auf der Grundlage eines Standorts einer Handbewegung
DE102018208364A1 (de) Betriebsverfahren einer positionsmessvorrichtung
DE102015216431A1 (de) Bildmessgerät und Anleitungsanzeigeverfahren eines Bildmessgeräts
DE102015201613A1 (de) Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102019200284A1 (de) Verfahren und Programm zum Vorgeben einer Position
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102016115479A1 (de) Nutzerschnittstelle für Elektronikgerät, Eingabeverarbeitungsverfahren und Elektronikgerät
DE202015100273U1 (de) Eingabevorrichtung
DE102019206606B4 (de) Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukt, Modul sowie Kraftfahrzeug
EP2555097A1 (de) Methode und Vorrichtung zur Bestimmung eines Bildausschnitts und Auslösen einer Bilderfassung mittels einer einzigen berührungsbasierten Geste