JP7188518B2 - 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム - Google Patents

画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム Download PDF

Info

Publication number
JP7188518B2
JP7188518B2 JP2021143477A JP2021143477A JP7188518B2 JP 7188518 B2 JP7188518 B2 JP 7188518B2 JP 2021143477 A JP2021143477 A JP 2021143477A JP 2021143477 A JP2021143477 A JP 2021143477A JP 7188518 B2 JP7188518 B2 JP 7188518B2
Authority
JP
Japan
Prior art keywords
image sensor
operation terminal
information
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021143477A
Other languages
English (en)
Other versions
JP2021192048A5 (ja
JP2021192048A (ja
Inventor
直樹 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2021143477A priority Critical patent/JP7188518B2/ja
Publication of JP2021192048A publication Critical patent/JP2021192048A/ja
Publication of JP2021192048A5 publication Critical patent/JP2021192048A5/ja
Application granted granted Critical
Publication of JP7188518B2 publication Critical patent/JP7188518B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Digital Computer Display Output (AREA)
  • Studio Devices (AREA)

Description

本発明は、製造物の検査を行う画像センサを用いた画像センサシステム、画像センサ、画像センサに関するデータ生成方法およびプログラムに関する。
工場の製造ラインにおいては、製造物の検査や管理を自動化ないし省力化するために、画像センサを用いた画像センサシステムが多用されている(特許文献1)。また、画像センサのメンテナンスなどのため、PC(Personal Computer)やタブレットなどの外部の
操作端末を用いて画像センサの情報を確認することも行われている。
特開2009-47446号公報
従来は、外部の操作端末に表示される画面のデータは、操作端末の画面サイズや画面解像度などがあらかじめ規定された範囲内のものであるという前提で、いずれの端末に出力する場合も共通の画面レイアウトが用いられていた。また、共通の画面レイアウトでは画像センサの情報を適切に表示できない特殊な操作端末に対しては、専用の画面レイアウトを基に画像センサ情報を表示画面のデータを生成するプログラムが用いられていた。
このため、例えば外部の操作端末としてPC、タブレット、スマートフォンが使用される場合、いずれのディスプレイでも画像センサの情報を表示できても、PCのディスプレイとタブレットやスマートフォンのディスプレイとでは、画面サイズや画面解像度などが異なることから、これらの操作端末に共通の画面レイアウトを基に画像センサ情報の表示画面のデータを生成すると、PCのディスプレイではユーザーに見やすい画面表示であってもタブレットやスマートフォンのディスプレイでは見にくい画面表示になったり、またその逆であったりする可能性がある。また、操作端末ごとに画像センサ情報の表示画面の画面レイアウトのデータを生成するプログラムを提供することは現実的でない可能性がある。
本発明は、上記実情に鑑みなされたものであって、画像センサの情報を表示する操作端末それぞれに適した画面のデータを生成することが可能な技術を提供することを目的とする。
本発明の第一側面は、製造物の検査を行う画像センサと、前記画像センサを外部から操作するための操作端末と、を有する画像センサシステムであって、前記操作端末を使用するユーザーのユーザー情報と前記操作端末のデバイス情報とを特定する認識部と、前記特定されたユーザー情報と前記特定されたデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記検査に関する表示情報と前記表示部における前記表示情報の配置とを決定する決定部と、前記操作端末の前記表示部に前記決定された前記配置で前記表示情報を表示するためのデータを生成する生成部とを有することを特徴とする画像センサシステムを提供する。
これによれば、ユーザーが使用する操作端末それぞれの画面サイズに適切な画面レイアウトでユーザー情報に応じた内容の画像センサ情報が表示されるデータを生成することができるため、各ユーザーが使用する操作端末において、ユーザーごとに適切な画像センサ情報を適切な画面レイアウトで表示することができる。
また、上記の画像センサシステムに用いられる画像センサであって、前記認識部、前記決定部、前記生成部の少なくとも1つの機能部を有し、前記画像センサが有する前記機能部によって処理される情報を外部へ送信する送信部をさらに備えることを特徴とする画像センサを提供することもできる。また、上記の画像センサシステムは、前記デバイス情報は、前記操作端末が使用する表示部の画面サイズ、前記表示部の解像度、前記操作端末のデバイス名、前記操作端末で実行されるOS(Operating System)の少なくとも1つを特定する性能情報を含み、前記決定部は、前記特定されたデバイス情報に含まれる前記性能情報に基づいて前記表示部における前記表示情報の配置を決定してもよい。また、前記決定部は、前記特定されたユーザー情報に基づいて前記ユーザーが属する前記画像センサに関するカテゴリを特定し、前記特定したカテゴリに基づいて前記表示情報を決定してもよい。また、前記カテゴリは、前記画像センサの設計者を含み、前記特定したカテゴリが前記画像センサの設計者である場合は、前記表示情報は前記画像センサが実行する処理のフローに関する情報を含んでもよい。また、前記カテゴリは、前記画像センサの管理者を含み、前記特定したカテゴリが前記画像センサの管理者である場合は、前記表示情報は前記画像センサに関する統計情報を含んでもよい。また、前記表示情報の配置は、少なくとも前記検査に関する項目の有無に基づいて決定されてもよい。また、前記表示情報の配置は、前記表示部において前記表示情報を表示する表示領域のサイズおよび前記表示部における前記表示領域の位置を含んでもよい。また、前記認識部は、前記操作端末からユーザーエージェント情報を取得し、前記ユーザーエージェント情報から前記デバイス情報を特定してもよい。
さらに、本願の一側面によれば、製造物の検査を行う画像センサと、前記画像センサを外部から操作するための操作端末と、を有する画像センサシステムにおける画像センサのデータ生成方法であって、前記画像センサシステムの認識部によって、前記操作端末から、前記操作端末を使用するユーザーのユーザー情報と前記操作端末のデバイス情報とを特定し、前記画像センサシステムの決定部によって、前記特定されたユーザー情報と前記特定されたデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記検査に関する表示情報と前記表示部における前記表示情報の配置とを決定し、前記画像センサシステムの生成部によって、前記操作端末の前記表示部に前記決定された前記配置で前記表示情報を表示するためのデータを生成することを特徴とする画像センサシステムにおける画像センサのデータ生成方法が提供される。
さらに、本願の一側面によれば、製造物の検査を行う画像センサと、前記画像センサを外部から操作するための操作端末と、を有する画像センサシステムにおける画像センサのデータ生成プログラムであって、前記画像センサシステム内のコンピュータに、前記操作端末を使用するユーザーのユーザー情報と前記操作端末のデバイス情報とを特定する処理と、前記特定されたユーザー情報と前記特定されたデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記検査に関する表示情報と前記表示部における前記表示情報の配置とを決定する処理と、前記操作端末の前記表示部に前記決定された前記配置で前記表示情報を表示するためのデータを生成する処理とを実行させることを特徴とする画像センサのデータ生成プログラムが提供される。
本発明によれば、画像センサの情報を表示する操作端末それぞれに適した画面のデータを生成することが可能な技術を提供することができる。
図1は、画像センサシステムにおける画像センサ情報の使用例を模式的に示す図である。 図2は、画像センサシステムの構成を模式的に示すブロック図である。 図3は、画像センサ情報の画面レイアウトの例を示す図である。 図4は、画像センサシステムにおいて実行される処理の例を示すフローチャートである。 図5Aは、設計者のカテゴリに属するユーザーが使用するPCにおける画像センサ情報の表示例を模式的に示す図である。 図5Bは、ライン管理者のカテゴリに属するユーザーが使用するPCにおける画像センサ情報の表示例を模式的に示す図である。 図5Cは、現場オペレータのカテゴリに属するユーザーが使用するPCにおける画像センサ情報の表示例を模式的に示す図である。 図6Aは、設計者のカテゴリに属するユーザーが使用するタブレットにおける画像センサ情報の表示例を模式的に示す図である。 図6Bは、ライン管理者のカテゴリに属するユーザーが使用するタブレットにおける画像センサ情報の表示例を模式的に示す図である。 図6Cは、ライン管理者のカテゴリに属するユーザーが使用するタブレットにおける別の画像センサ情報の表示例を模式的に示す図である。 図6Dは、現場オペレータのカテゴリに属するユーザーが使用するタブレットにおける画像センサ情報の表示例を模式的に示す図である。 図7Aは、設計者のカテゴリに属するユーザーが使用するスマートフォンにおける画像センサ情報の表示例を模式的に示す図である。 図7Bは、ライン管理者のカテゴリに属するユーザーが使用するスマートフォンにおける画像センサ情報の表示例を模式的に示す図である。 図7Cは、ライン管理者のカテゴリに属するユーザーが使用するスマートフォンにおける別の画像センサ情報の表示例を模式的に示す図である。 図7Dは、現場オペレータのカテゴリに属するユーザーが使用するスマートフォンにおける別の画像センサ情報の表示例を模式的に示す図である。
以下、実施形態に係る画像センサシステムの詳細について、図面を参照しながら説明する。
<適用例>
まず、本発明が適用される場面の一例について説明する。以下に例示する実施形態では、製造ラインにおいて画像センサによって製造物の検査が行われているとする。また、画像センサの設計者A、B、画像センサが使用される製造ラインのライン管理者C、D、製造ラインの現場で画像センサの調整などを行う現場オペレータE、Fが、それぞれ異なる外部デバイスとしての操作端末を使用して画像センサに関する情報を表示する場合を想定する。本実施形態の画像センサシステムには、上記の画像センサおよび各ユーザーが使用する操作端末が含まれる。
画像センサは、例えば工場の製造ラインなどに設置され、画像を利用したさまざまな処理に利用される装置である。画像センサは、視覚センサ(Vision Sensor)や視覚システ
ム(Vision System)などとも呼ばれる。画像センサは、さまざまな用途に利用できる。
例えば、検査対象の画像の記録、形状の認識、エッジの検出や幅・本数の計測、面積の計測、色特徴の取得、ラベリングやセグメンテーション、物体認識、バーコードや2次元コードの読み取り、OCR、個体識別などが挙げられる。また、画像センサは、製造物を撮
像するカメラの制御、当該カメラから取り込まれた製造物の画像データに対する画像処理(例えば、前処理、特徴量抽出など)、画像処理の結果に基づく各種処理(例えば、検査、文字認識、個体識別など)、操作端末とのデータ送受信、操作端末から受信したデータに対する処理、操作端末へ出力するデータの生成などを行う装置である。
また、操作端末は、画像センサを操作するために使用する端末である。操作端末の一例としては、PCやタブレット、スマートフォンなどが挙げられる。図1に示すように、以下の説明では、画像センサ50の設計者Bが操作端末10(一例としてPC)を使用して画像センサ50に関する情報を表示する場合について説明する。ただし、以下の説明は、他のユーザーが異なる操作端末を使用して画像センサに関する情報を表示する場合にも適用できる。また、操作端末が接続する画像センサは1つに限られない。
本実施形態では、画像センサのユーザーが画像センサに関するカテゴリに分けられており、ユーザーが属するカテゴリに応じた画像センサの情報がユーザーに提供される。また、ユーザーが使用する操作端末に応じて画像センサの情報を表示する画面レイアウトが決定される。これにより、ユーザーは、操作端末を使って各自が属するカテゴリに基づく適切な情報を適切な画面レイアウトで表示することができる。
<画像センサシステムの構成>
一実施形態における画像センサシステム1について説明する。図2に例示するように、画像センサシステム1では、画像センサ50のユーザーである設計者Bが使用する操作端末10と画像センサ50とがネットワーク40を介して互いに接続されている。
操作端末10は、Central Processing Unit(CPU)101、Random Access Memory
(RAM)102、Hard Disk Drive(HDD)103、Graphics Processing Unit(G
PU)104、入力インタフェース105、通信インタフェース106を有する。また、GPU104、入力インタフェース105、通信インタフェース106は、モニタ20、入力装置30、ネットワーク40にそれぞれ接続されている。CPU101、RAM102、HDD103、GPU104、入力インタフェース105、通信インタフェース106は、バス107を介して互いに接続されている。また、画像センサ50は、CPU501、RAM502、HDD503、入力インタフェース504、通信インタフェース505を有する。入力インタフェース104は、製造ラインの製造物を撮像するカメラ60と接続されている。CPU501、RAM502、HDD503、入力インタフェース504、通信インタフェース505は、バス506を介して互いに接続されている。
本実施形態では、ユーザーが入力装置30などを操作して操作端末10に画像センサ50への接続指示を行う。操作端末10は、当該入力された指示に従ってネットワーク40を介して画像センサ50への接続を行う。画像センサ50は、操作端末10との接続を確立した後、操作端末10から取得した情報を基に、操作端末10のモニタ20に画像センサ50の情報を表示するためのデータを生成する。生成されたデータは、画像センサ50からネットワーク40を介して操作端末10に送信される。操作端末10は画像センサ50から受信したデータに含まれる画面レイアウトで、受信したデータに含まれる画像センサ50の情報をモニタ20に表示する。
本実施形態において、操作端末10では、CPU101が、HDD103に記憶されている各種プログラムをRAM102に展開して実行することで、以下に説明する種々の処理を実行する。同様に、画像センサ50では、CPU501が、HDD503に記憶されている各種プログラムをRAM502に展開して実行することで、一例としてWebサーバとして機能し、以下に説明する種々の処理を実行する。なお、CPU101、501の機能のうちの一部または全部を、ASIC(Application Specific Integrated Circuit
)やFPGA(Field-Programmable Gate Array)などで実現してもよいし、外部の装置
によって提供されてもよい。
また、本実施形態では、画像センサ50のHDD503には、操作端末10から取得されるユーザーエージェント情報から操作端末10のデバイスの種別を特定するための条件に関する情報もあらかじめ格納されているものとする。ここで、デバイスの種別とは、PC、タブレット、スマートフォンなどである。なお、デバイスの種別には、画像センサの情報を表示するその他の装置が含まれてよい。例えば、CPU501は、ユーザーエージェント情報に含まれる操作端末10のデバイス名を特定し、特定したデバイス名から操作端末10が上記のいずれのデバイスの種別に該当するかを特定する。また、CPU501は、ユーザーエージェント情報に含まれるブラウザの情報から当該ブラウザがいずれのデバイスの種別に対応するかを特定し、操作端末10が上記のいずれのデバイスの種別に該当するかを特定することもできる。さらに、CPU501は、ユーザーエージェント情報に特定の情報の組み合わせ(例えば、ブラウザの種類と操作端末10のプラットフォームとの組み合わせなど)が含まれているか否かに基づいて、操作端末10が上記のいずれのデバイスの種別に該当するかを特定することもできる。このようにCPU501がユーザーエージェント情報を基に操作端末10のデバイスの種別を特定するための種々の条件がHDD503に格納されている。
さらに、画像センサ50のHDD503には、画像センサの各ユーザーが属する画像センサに関するカテゴリを示す情報があらかじめ格納されているものとする。ここで、画像センサのユーザーのカテゴリの一例として、画像センサの設計者、画像センサが使用される製造ラインのライン管理者、画像センサの調整などを行う現場オペレータが挙げられる。さらに、ユーザーが画像センサのどの構成部品の設計者であるか、製造ラインにおけるどのような検査を管理するライン管理者であるか、画像センサのどのような調整を行う現場オペレータであるかなどに基づいて、さらに詳細なカテゴリが設けられてもよい。
また、図3に、本実施形態において生成される操作端末が使用するモニタなどの表示部に表示される表示情報と表示部における画面レイアウトとの関係を例示する。なお、表示部における画面レイアウトが、表示情報の配置の一例である。また、画面レイアウトにおける、画像センサによる検査において処理される画像、処理のフロー、処理の詳細結果や統計情報などが、検査に関する項目の一例である。図3では、一例として画像センサのユーザーが「設計者」、「ライン管理者」、「現場オペレータ」のいずれかのカテゴリに属するとする。また、ユーザーが使用する操作端末は、「PC」、「タブレット」、「スマートフォン」のいずれかであるとする。図3に示すように、ユーザーのカテゴリと操作端末の種別との組み合わせごとに、操作端末で表示される画像センサの情報の用途が異なると考えられる。
例えば、設計者のカテゴリに属するユーザーがPCを使って画像センサの情報を確認する場合、PCが使用するディスプレイの画面サイズはタブレットやスマートフォンのディスプレイの画面サイズよりも大きいことが想定されるため、画像センサの情報の用途としては、画像センサで実行される処理のフローの作成や処理に使用されるパラメータの設定などが考えられる。したがって、ユーザーのカテゴリが「設計者」であり操作端末が「PC」である場合、PCのディスプレイで画像センサの情報を表示する画面レイアウトは、画像センサの処理のフローの内容、処理結果、対象となる製造物の画像などが表示される画面レイアウトがより適していると考えられる。
また、設計者のカテゴリに属するユーザーがタブレットを使って画像センサの情報を確認する場合、タブレットのディスプレイの画面サイズはPCの画面サイズより小さいことが想定されるため、画像センサの情報の用途としては、現場での画像センサが実行する処
理のフローの調整などが考えられる。したがって、ユーザーのカテゴリが「設計者」であり操作端末が「タブレット」である場合、タブレットのディスプレイで画像センサの情報を表示する画面レイアウトは、処理結果や対象となる製造物の画像などが表示され、画像センサの処理のフローはユーザーの選択に応じて表示される画面レイアウトがより適していると考えられる。
さらに、設計者のカテゴリに属するユーザーがスマートフォンを使って画像センサの情報を確認する場合、スマートフォンのディスプレイの画面サイズはタブレットの画面サイズより小さいことが想定されるため、画像センサの情報の用途としては、画像センサの動作の簡易的な確認などが考えられる。したがって、ユーザーのカテゴリが「設計者」であり操作端末が「スマートフォン」である場合、スマートフォンのディスプレイで画像センサの情報を表示する画面レイアウトは、画像センサの処理のフローは表示されず、処理結果や対象となる製造物の画像などが表示される画面レイアウトがより適していると考えられる。
同様に、ライン管理者のカテゴリに属するユーザーがPCを使って画像センサの情報を確認する場合は、画像センサの情報の用途として例えば画像センサによって製造物が不良と判断された処理の原因分析が挙げられるため、画面レイアウトは、処理の原因を分析する分析用のプログラム(図中「分析ツール」)を実行したり実行結果を確認したりすることが可能な画面レイアウトがより適していると考えられる。また、ライン管理者のカテゴリに属するユーザーがタブレットやスマートフォンを使って画像センサの情報を確認する場合は、画面レイアウトは、画像センサの処理に基づく統計情報を確認できるような画面レイアウトがより適していると考えられる。
また、現場オペレータのカテゴリに属するユーザーがPCを使って画像センサの情報を確認する場合は、画像センサの情報の用途として例えば画像センサが実行している処理の段取りを切り替えることなどが挙げられるため、画面レイアウトは、処理のフローを切り替えることが可能な画面レイアウトがより適していると考えられる。また、現場オペレータのカテゴリに属するユーザーがタブレットやスマートフォンを使って画像センサの情報を確認する場合は、画面レイアウトは、現在の画像センサの処理の状況を含む画像センサの動作状況を確認できるような画面レイアウトがより適していると考えられる。
本実施形態では、操作端末で表示される画像センサの情報の画面レイアウトが、ユーザーが属するカテゴリとユーザーが使用する操作端末の種別との組み合わせに応じてそれぞれ異なるように生成される。そして、画像センサ50のHDD503には、ユーザーが属するカテゴリとユーザーが使用する操作端末の種別との組み合わせに対応する画面レイアウトを示す情報があらかじめ格納されている。
<画像センサの情報の表示例>
図4に例示するフローチャートを参照しながら、画像センサ50のCPU501によって実行される処理について説明する。一例として、画像センサ50のCPU501は、操作端末10との接続を確立した後に、図4に示すフローチャートの処理を開始する。
OP101において、CPU501は、画像センサの機能部の1つとして例示される認識部として、画像センサ50にアクセスする操作端末10を認識し、操作端末10に対してユーザー情報とユーザーエージェント情報とを要求する。ここで、ユーザーエージェント情報には、少なくとも操作端末10のデバイス情報が含まれる。また、ユーザー情報には、画像センサの設計者であることを示す情報や画像センサに関する権限を示すユーザーのアカウント情報など、ユーザーがHDD503に記憶されているカテゴリのいずれのカテゴリに属するかを特定する情報が含まれる。また、デバイス情報には、操作端末10に
おいて実行されているOS(Operating System)の情報、操作端末10において画像センサの情報の表示に使用されるブラウザの情報、操作端末10のデバイス名の情報、モニタ20の画面サイズや解像度に関する情報などが含まれる。なお、モニタ20の画面サイズや解像度、操作端末10のデバイス名、操作端末で実行されるOSなどを特定する情報が、操作端末の性能情報の一例である。操作端末10は、画像センサ50からの要求に応じてユーザー情報とユーザーエージェント情報を画像センサ50に送信する。これにより、画像センサは操作端末10のユーザー情報とユーザーエージェント情報を取得する。次に、CPU501は、処理をOP102に進める。
OP102において、CPU501は、OP101において取得したユーザーエージェント情報とHDD503に格納されている操作端末10のデバイスの種別を特定するための条件とから、操作端末10のデバイスの種別を特定する。次に、OP103において、CPU501は、OP101において取得したユーザー情報とHDD503に格納されている画像センサに関するカテゴリを示す情報とから、操作端末10のユーザーが属するカテゴリを特定する。次に、CPU501は、処理をOP104に進める。
次に、CPU501は、画像センサの機能部の1つとして例示される決定部として、OP102およびOP103において特定したユーザーが使用する操作端末10のデバイスの種別とユーザーが属するカテゴリを基に、操作端末10のモニタ20に表示される画像センサの表示情報(OP104)と当該表示情報が表示される画面の画面レイアウト(OP105)とを決定する。次に、CPU501は、処理をOP106に進める。
OP106において、CPU501は、画像センサの機能部の1つとして例示される生成部として、操作端末10がOP105において決定した画面レイアウトでOP104において決定した表示情報を表示するための表示用データを生成する。そして、CPU501は、送信部として機能し、生成した表示用データを操作端末10に送信する。操作端末10のCPU101は、画像センサ50から受信した表示用データに含まれる画面レイアウトと表示情報とを基に、当該画面レイアウトで表示情報をモニタ20に表示する。
このように、本実施形態によれば、ユーザーが使用する操作端末の表示部(モニタ20など)の画面サイズの情報やユーザーが使用する操作端末で実行されているOSなどのプログラムに関する情報などを基に画像センサの情報が表示される画面の画面レイアウトが決定されるため、画像センサ情報が、ユーザーが見やすい画面レイアウトで操作端末の表示部に表示される。また、操作端末を使用するユーザーが属するカテゴリに応じて画面に表示される画像センサ情報が決定されるため、ユーザーそれぞれが所望する用途に応じた画像センサ情報を提供することができる。また、画像センサ50がWebサーバの機能を有することで、ユーザーがWebブラウザを使用して画像センサ情報を表示する際のユーザーエージェント情報を基に、各ユーザーに適切な画像センサ情報の画面レイアウトを決定することができる。
図5A、5B、5Cには、操作端末10がPCである場合に、OP106において操作端末10で表示される画像センサ50の表示情報の表示例を示す。図5Aは、操作端末10のユーザーが設計者のカテゴリに属する場合の表示例を示す。図5Aに示すように、画面110には、画像センサ50が処理した画像110a、処理結果110b、当該処理のフロー110c、処理の詳細情報110dがそれぞれ表示される。これにより、ユーザーは、表示される情報を基に画像センサ50において実行される処理のフローを変更することができる。
図5Bは、操作端末10のユーザーがライン管理者のカテゴリに属する場合の表示例を示す。図5Bに示すように、画面120には、画像センサ50が実行した処理における計
測値の推移を示すグラフ120a、処理結果120b、当該処理のフロー120c、処理の詳細情報120d、分析用のプログラムの実行結果120eがそれぞれ表示される。これにより、ユーザーは、例えば画像センサ50による処理の結果、製造物が不良であると判定された処理について、表示される情報を基に分析を行うことができる。
図5Cは、操作端末10のユーザーが現場オペレータのカテゴリに属する場合の表示例を示す。図5Cに示すように、画面130には、画像センサ50が処理した画像130a、処理結果130b、当該処理のフロー130c、処理の詳細情報130d、フロー切り替え用の選択ボックス130eがそれぞれ表示される。これにより、ユーザーは、例えば画像センサの処理結果やフローの詳細を確認しつつ、画像センサ50が実行する処理のフローを切り替えることができる。なお、図5Cでは、一例として、選択ボックス130eが他の表示情報に重畳されて表示され、ユーザーがフローを選択して切り替えを実行すると選択ボックス130eは非表示となるが、フローを切り替えるための情報はこのような選択ボックス130eによらず、他の情報と並んで表示されるようにしてもよいし、他の情報が重畳されて表示されてもよい。画面における各情報の表示形態については、画面130以外の画面についても同様に、図に示される表示形態に限らず画面レイアウトとして適宜決定されてよい。
図6A、6B、6C、6Dには、操作端末10がタブレットである場合に、OP106において操作端末10で表示される画像センサ50の表示情報の表示例を示す。図6Aは、操作端末10のユーザーが設計者のカテゴリに属する場合の表示例を示す。図6Aに示すように、画面210には、画像センサ50が処理した画像210a、処理結果210b、当該処理の詳細情報210cがそれぞれ表示される。これにより、ユーザーは、例えば画像センサ50が使用されている現場において画像センサ50の処理の調整を行うことができる。
図5Aの画面110と比べると、画面210ではフローの情報は表示されない画面レイアウトとなっている。これは、設計者であるユーザーは、フローの作成などは、タブレットよりも処理性能が高く情報を表示する画面サイズが大きいPCを使って作業し、タブレットは使用する場合は、タブレットを現場に携帯してタブレットを用いて画像センサの調整などを行うと考えられるためである。なお、画面210においても、ユーザーの操作に基づいてフローの情報が表示されるように構成されてよい。
図6Bおよび図6Cは、操作端末10のユーザーがライン管理者のカテゴリに属する場合の表示例を示す。図6Bに示すように、画面220には、画像センサ50が実行した処理における計測値の推移を示すグラフ220a、処理の詳細情報220bがそれぞれ表示される。また、図6Cに示すように、画面230には、画像センサ50が実行した処理の処理結果230a、当該処理の詳細情報230b、分析用のプログラムの実行結果230cがそれぞれ表示される。本実施形態では、一例としてユーザーは、操作端末10を操作して画面220と画面230の表示を切り替える。これにより、ユーザーは、例えば画像センサ50が使用されている現場において画像センサ50の処理に基づく統計情報を確認することができる。図5Bの画面120と比べると、PCに比べてタブレットでは表示可能な画面の画面サイズが小さくなると考えられるため、画面120に表示される情報が2つの画面220、230に分かれて表示される。
図6Dは、操作端末10のユーザーが現場オペレータのカテゴリに属する場合の表示例を示す。図6Dに示すように、画面240には、画像センサ50が処理した画像240a、処理結果240b、処理の詳細情報240cが表示される。これにより、ユーザーは、画像センサ50の現在の動作状況を確認することができる。図5Cの画面130と比べると、画面240ではフローの切り替え用の選択ボックスは表示されない画面レイアウトと
なっている。これは、現場オペレータであるユーザーは、フローの切り替えなどは、タブレットよりも画面サイズが大きいPCを使ってフローの各処理の詳細情報を確認して行い、タブレットは使用する場合は、タブレットを現場に携帯してタブレットを用いて画像センサの動作チェックなどを行うと考えられるためである。なお、画面240においても、ユーザーの操作に基づいてフローを切り替えるための情報が表示されるように構成されてよい。
図7A、7B、7C、7Dには、操作端末10がスマートフォンである場合に、OP106において操作端末10で表示される画像センサ50の表示情報の表示例を示す。図6A、6B、6C、6Dの各画面と比べると、スマートフォンの画面サイズは、タブレットの画面サイズよりも小さいことが想定されるため、表示情報の詳細度よりも情報の表示効率が優先された画面レイアウトとなっている。
図7Aは、操作端末10のユーザーが設計者のカテゴリに属する場合の表示例を示す。図7Aに示すように、画面310には、画像センサ50が処理した画像310a、処理結果310b、当該処理の詳細情報310cがそれぞれ表示される。これにより、ユーザーは、例えば画像センサ50が使用されている現場において画像センサ50の処理の動作確認を簡易的に行うことができる。
図7Bおよび図7Cは、操作端末10のユーザーがライン管理者のカテゴリに属する場合の表示例を示す。図7Bに示すように、画面320には、画像センサ50が実行した処理における計測値の推移を示すグラフ320a、処理の詳細情報320bがそれぞれ表示される。また、図7Cに示すように、画面330には、画像センサ50が実行した処理の処理結果330a、分析用のプログラムの実行結果330bがそれぞれ表示される。本実施形態では、一例としてユーザーは、操作端末10を操作して画面320と画面330の表示を切り替える。これにより、ユーザーは、例えば画像センサ50が使用されている現場において画像センサ50の処理に基づく統計情報を、タブレットを使用する場合よりも簡易的に確認することができる。
図7Dは、操作端末10のユーザーが現場オペレータのカテゴリに属する場合の表示例を示す。図7Dに示すように、画面340には、画像センサ50が処理した画像340a、処理結果340bが表示される。これにより、ユーザーは、画像センサ50の現在の動作状況を、タブレットを使用する場合よりも簡易的に確認することができる。
以上のように、本実施形態によれば、画像センサのユーザーが属するカテゴリやユーザーが使用する操作端末に合わせて、画像センサによる検査に関する項目の有無やモニタ20に表示される情報の表示領域のサイズや位置などがカスタマイズされた適切な情報が適切な画面レイアウトで提供されるため、ユーザーは、画像センサの情報を確認する度に異なる種類の操作端末を使用する場合であっても、各操作端末で見やすい画面レイアウトで作業に適切な情報を確認することができる。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎず、本発明に係る画像センサシステムを上記の具体的構成に限定するものではない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。また、実施にあたっては、実施形態に応じた具体的構成が適宜採用され、種々の改良や変形が行われてよい。例えば、上記の実施形態では、操作端末10がPCであると想定しているが、操作端末10がタブレットやスマートフォンである場合は、モニタ20および入力装置30はタッチパネルディスプレイとして操作端末10と一体的に構成され、上記の処理が実行される。また、画像センサ50とカメラ60とが一体的に構成されていてもよい。
また、例えば、上記実施形態で例示した画像センサ50の機能部の少なくとも1つを提供する通信装置が、当該通信装置に接続する複数の操作端末に対して、各操作端末および各ユーザーに合わせて、適切な画像センサの情報を適切な画面レイアウトで表示するデータを提供するように構成してもよい。また、複数の画像センサが当該通信装置に接続され、当該通信装置が、操作端末10のユーザーが指定した画像センサについて上記のデータ提供するように構成してもよい。これにより、複数の画像センサそれぞれの情報を複数の操作端末で適切な画面レイアウトで表示可能な画像センサシステムを提供することもできる。
<コンピュータが読み取り可能な記録媒体>
コンピュータその他の機械、装置(以下、コンピュータ等)に上記操作端末や画像センサなどの設定を行うための管理ツール、OSその他を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリ等のメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM等がある。
<付記>
製造物の検査を行う画像センサ(50)と、前記画像センサ(50)を外部から操作するための操作端末(10)と、を有する画像センサシステム(1)であって、
前記操作端末(10)を使用するユーザーのユーザー情報と前記操作端末(10)のデバイス情報とを特定する認識部(101、501)と、
前記特定されたユーザー情報と前記特定されたデバイス情報とに基づいて、前記操作端末(10)が使用する表示部(20)に表示される前記検査に関する表示情報と前記表示部における前記表示情報の配置とを決定する決定部(101、501)と、
前記操作端末(10)の前記表示部(20)に前記決定された前記配置で前記表示情報を表示するためのデータを生成する生成部(101、501)と
を有することを特徴とする画像センサシステム。
1 画像センサシステム
10 操作端末
101 CPU
20 モニタ
50 画像センサ
501 CPU
60 カメラ

Claims (11)

  1. 製造物の検査を行う画像センサと、前記画像センサを外部から操作するための操作端末と、を有する画像センサシステムであって、
    前記操作端末から受信した前記操作端末を使用するユーザーのユーザー情報に基づいて前記ユーザーの前記画像センサに関する権限を特定する認識部と、
    前記ユーザーの前記権限前記操作端末のデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記画像センサの表示情報と前記表示部における前記表示情報のレイアウトを決定する決定部と、
    前記操作端末の前記表示部に前記決定された前記レイアウトで前記表示情報を表示するためのデータを生成する生成部と
    を、有することを特徴とする画像センサシステム。
  2. 前記デバイス情報は、前記操作端末が使用する表示部の画面サイズ、前記表示部の解像度、前記操作端末のデバイス名、前記操作端末で実行されるOS(Operating System)の少なくとも1つを特定する性能情報を含み、
    前記決定部は、前記性能情報に基づいて前記表示部における前記表示情報の前記レイアウトを決定する
    ことを特徴とする請求項1に記載の画像センサシステム。
  3. 前記決定部は、前記操作端末で行える操作が前記ユーザーの前記権限に応じて変更されるように、前記表示情報を決定する
    ことを特徴とする請求項1または2に記載の画像センサシステム。
  4. 前記表示情報には、前記製造物の検査の結果の表示が含まれる、ことを特徴とする請求項1から3のいずれか1項に記載の画像センサシステム。
  5. 前記表示情報には、前記製造物の検査に係る前記画像センサによって撮像された画像の表示が含まれる、ことを特徴とする請求項1から4のいずれか1項に記載の画像センサシステム。
  6. 前記ユーザーの前記権限には2以上の異なる権限があり、
    前記決定部は、前記2以上の異なる権限の少なくとも2つの権限に対して、前記製造物の検査の結果が表示されるように前記レイアウトを決定する、ことを特徴とする請求項4に記載の画像センサシステム。
  7. 前記決定部は、前記ユーザーの前記権限に関わらず、前記製造物の検査に係る前記画像センサによって撮像された画像が表示されるように前記表示情報及び前記レイアウトを決定する、ことを特徴とする請求項5に記載の画像センサシステム。
  8. 製造物の検査を行う画像センサであって、
    操作端末から受信した前記操作端末を使用するユーザーのユーザー情報に基づいて前記ユーザーの前記画像センサに関する権限を特定する認識部と、
    前記ユーザーの前記権限と前記操作端末のデバイス情報とに基づいて表示される前記画像センサの表示情報とそのレイアウトが変わるように、前記表示情報を表示するためのデータを生成する生成部と、
    前記生成した前記表示情報を表示するためのデータを前記操作端末に送信して、前記操作端末の表示部に、前記ユーザーの前記権限と前記操作端末のデバイス情報に応じたレイアウトで前記表示情報を表示させる送信部と
    を、有することを特徴とする画像センサ。
  9. 製造物の検査を行う画像センサであって、
    操作端末から受信した前記操作端末を使用するユーザーのユーザー情報に基づいて前記ユーザーの前記画像センサに関する権限を特定する認識部と、
    前記ユーザーの前記権限と前記操作端末のデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記画像センサの表示情報と前記表示部における前記表示情報のレイアウトを決定する決定部と、
    前記操作端末の前記表示部に前記決定された前記レイアウトで前記表示情報を表示するためのデータを生成する生成部と
    を、有することを特徴とする画像センサ。
  10. 製造物の検査を行う画像センサと、前記画像センサを外部から操作するための操作端末と、を有する画像センサシステムにおける画像センサのデータ生成方法であって、
    前記画像センサシステムの認識部によって、前記操作端末から受信した前記操作端末を使用するユーザーのユーザー情報に基づいて前記ユーザーの前記画像センサに関する権限を特定し、
    前記画像センサシステムの決定部によって、前記ユーザーの前記権限前記操作端末のデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記画像センサの表示情報と前記表示部における前記表示情報のレイアウトを決定し、
    前記画像センサシステムの生成部によって、前記操作端末の前記表示部に前記決定された前記レイアウトで前記表示情報を表示するためのデータを生成する
    ことを特徴とする画像センサシステムにおける画像センサのデータ生成方法。
  11. 製造物の検査を行う画像センサと、前記画像センサを外部から操作するための操作端末と、を有する画像センサシステムにおける画像センサのデータ生成プログラムであって、
    前記画像センサシステム内のコンピュータに
    前記操作端末から受信した前記操作端末を使用するユーザーのユーザー情報に基づいて前記ユーザーの前記画像センサに関する権限を特定する処理と、
    前記ユーザーの前記権限前記操作端末のデバイス情報とに基づいて、前記操作端末が使用する表示部に表示される前記画像センサの表示情報と前記表示部における前記表示情報のレイアウトを決定する処理と、
    前記操作端末の前記表示部に前記決定された前記レイアウトで前記表示情報を表示するためのデータを生成する処理と
    を実行させることを特徴とする画像センサのデータ生成プログラム。
JP2021143477A 2018-03-08 2021-09-02 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム Active JP7188518B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021143477A JP7188518B2 (ja) 2018-03-08 2021-09-02 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018041983A JP6939650B2 (ja) 2018-03-08 2018-03-08 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム
JP2021143477A JP7188518B2 (ja) 2018-03-08 2021-09-02 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018041983A Division JP6939650B2 (ja) 2018-03-08 2018-03-08 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2021192048A JP2021192048A (ja) 2021-12-16
JP2021192048A5 JP2021192048A5 (ja) 2022-03-09
JP7188518B2 true JP7188518B2 (ja) 2022-12-13

Family

ID=64664131

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018041983A Active JP6939650B2 (ja) 2018-03-08 2018-03-08 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム
JP2021143477A Active JP7188518B2 (ja) 2018-03-08 2021-09-02 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018041983A Active JP6939650B2 (ja) 2018-03-08 2018-03-08 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム

Country Status (4)

Country Link
US (1) US11070716B2 (ja)
EP (1) EP3537715B1 (ja)
JP (2) JP6939650B2 (ja)
CN (1) CN110244924B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3621086A1 (en) * 2018-09-06 2020-03-11 Koninklijke Philips N.V. Augmented reality user guidance during examinations or interventional procedures

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244968A (ja) 2001-02-19 2002-08-30 Matsushita Electric Ind Co Ltd データ表示システム、データ表示方法及び記録媒体
JP2006202009A (ja) 2005-01-20 2006-08-03 Toshiba Corp 医用機器及びアクセス制御プログラム
JP2015153073A (ja) 2014-02-13 2015-08-24 オムロン株式会社 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
US20170126843A1 (en) 2015-11-02 2017-05-04 Rockwell Automation Technologies, Inc. Self-describing diagnostic data for presentation on mobile devices

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5321750A (en) * 1989-02-07 1994-06-14 Market Data Corporation Restricted information distribution system apparatus and methods
JPH09259187A (ja) * 1996-03-18 1997-10-03 Sony Corp 自動検査方法及びその装置
US7164779B2 (en) * 2001-08-06 2007-01-16 Mitsubishi Electric Research Laboratories, Inc. Privacy-enhanced display device
JP2004226328A (ja) * 2003-01-24 2004-08-12 Hitachi Ltd 外観検査システムおよびそれらを用いた品質評価システムおよび品質評価情報提供システム
US7978618B2 (en) * 2004-10-08 2011-07-12 Sharp Laboratories Of America, Inc. Methods and systems for user interface customization
JP5056263B2 (ja) 2007-08-14 2012-10-24 オムロン株式会社 画像検査装置、画像検査方法、コンピュータを画像検査装置として機能させるためのプログラム、およびコンピュータ読み取り可能な記録媒体
JP5335610B2 (ja) * 2009-08-17 2013-11-06 キヤノン株式会社 画像処理装置及びその制御方法と通信システム
US8886836B2 (en) * 2012-06-12 2014-11-11 Facebook, Inc. Providing a multi-column newsfeed of content on a social networking system
JP6000069B2 (ja) * 2012-11-06 2016-09-28 三菱重工業株式会社 検査システム
WO2015200531A1 (en) * 2014-06-24 2015-12-30 Google Inc. Methods, systems and media for presenting content based on user preferences of multiple users in the presence of a media presentation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244968A (ja) 2001-02-19 2002-08-30 Matsushita Electric Ind Co Ltd データ表示システム、データ表示方法及び記録媒体
JP2006202009A (ja) 2005-01-20 2006-08-03 Toshiba Corp 医用機器及びアクセス制御プログラム
JP2015153073A (ja) 2014-02-13 2015-08-24 オムロン株式会社 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
US20170126843A1 (en) 2015-11-02 2017-05-04 Rockwell Automation Technologies, Inc. Self-describing diagnostic data for presentation on mobile devices

Also Published As

Publication number Publication date
US20190281208A1 (en) 2019-09-12
JP2019158400A (ja) 2019-09-19
EP3537715B1 (en) 2022-04-13
US11070716B2 (en) 2021-07-20
CN110244924B (zh) 2022-06-10
CN110244924A (zh) 2019-09-17
JP2021192048A (ja) 2021-12-16
EP3537715A1 (en) 2019-09-11
JP6939650B2 (ja) 2021-09-22

Similar Documents

Publication Publication Date Title
US10366348B2 (en) Algorithm and method for detecting error data of machine based on machine-learning technique
EP3693312A1 (en) Elevator system component analysis
US10372958B2 (en) In-field data acquisition and formatting
CN112634227B (zh) Pcb拼板的检测标识方法、装置、电子设备以及存储介质
JP7188518B2 (ja) 画像センサシステム、画像センサ、画像センサシステムにおける画像センサのデータ生成方法およびプログラム
CN105302413A (zh) 控件的ui测试方法及系统
CN113034421A (zh) 一种图像检测方法、装置及存储介质
KR20170044933A (ko) 머신 비전 검사를 위한 가상 테스트 이미지 생성 방법 및 장치, 머신 비전 검사 시뮬레이션 방법 및 장치, 및 머신 비전 테스트 시스템
KR20170039551A (ko) 머신 비전을 위한 가이드 제공 방법 및 장치
US10372849B2 (en) Performing and communicating sheet metal simulations employing a combination of factors
WO2018211546A1 (ja) 画面試験装置および画面試験プログラム
JP7505635B2 (ja) 連続する動的スキャンのセグメンテーション
JP7439556B2 (ja) 画像処理装置、画像センサ、画像処理装置の制御方法
US11150849B2 (en) Device and method for checking the printing of an article
CN111626369B (zh) 一种人脸识别算法效果评估方法、装置、机器可读介质及设备
WO2022054262A1 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
KR102022494B1 (ko) 비전 이미지 검출을 이용한 문서 자동 작성 시스템 및 그 방법
KR101767929B1 (ko) 성능 평가 시스템 및 그의 동작 방법
JP2020115327A5 (ja) 拡張現実の文書編集方法、プログラム及びシステム
Runji et al. Automatic optical inspection aided augmented reality-based PCBA inspection: a development
JP7517590B2 (ja) 分類装置、分類方法、および、分類プログラム
WO2024095721A1 (ja) 画像処理装置および画像処理方法
JP2024155609A (ja) 情報処理システム及びプログラム
EP3262501B1 (en) Print format version with machine-readable link
Prasanna Bharathi et al. THIRD EYE—Shopfloor Data Processing and Visualization Using Image Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7188518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150