JP7176638B2 - 照合位置出力システム - Google Patents

照合位置出力システム Download PDF

Info

Publication number
JP7176638B2
JP7176638B2 JP2021534882A JP2021534882A JP7176638B2 JP 7176638 B2 JP7176638 B2 JP 7176638B2 JP 2021534882 A JP2021534882 A JP 2021534882A JP 2021534882 A JP2021534882 A JP 2021534882A JP 7176638 B2 JP7176638 B2 JP 7176638B2
Authority
JP
Japan
Prior art keywords
information
identifying
photographing
collation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021534882A
Other languages
English (en)
Other versions
JPWO2021014527A1 (ja
JPWO2021014527A5 (ja
Inventor
塁 石山
徹 高橋
賢吾 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021014527A1 publication Critical patent/JPWO2021014527A1/ja
Publication of JPWO2021014527A5 publication Critical patent/JPWO2021014527A5/ja
Application granted granted Critical
Publication of JP7176638B2 publication Critical patent/JP7176638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、照合位置出力システム、照合位置出力方法、および、記録媒体に関する。
従来から、製品などに製品番号を付与し、製品の品質・流通管理などに利用されている。また、バーコード・ICタグ・RFIDを製品に付与し、製品のロットや個体を識別する方法が用いられている。しかしながら、たとえば微小な製品などの物体に対しては、個々の物体に印字を行い、あるいはICタグなどを付与することは、コストや技術面で困難であり、上記の方法を用いてロット・個体管理を行うのは難しかった。
これに対し近年では、製品などの物体の表面もしくは物体表面に付与された素材の表面のランダムパターンを画像で識別し、物体の個体識別や真贋判定を行う方法が提案されている(例えば特許文献1参照)。このようなランダムパターンによる個体識別や真贋判定では、登録対象の物体上の予め定められた照合位置から取得したランダムパターン画像を登録データとして登録しておき、判定対象の物体上の照合位置から取得したランダムパターン画像を照合データとして登録データと比較することにより、同一物体か否かを判定する。
WO2017/002475
ところで、ランダムパターン画像による物体の個体識別や真贋判定を行う場合、登録データを取得する物体上の照合位置と照合データを取得する物体上の照合位置とが対応していなければ、正確な識別や判定を行うことはできない。そのため、個体識別や真贋判定を行う対象となる物体に対しては、その物体の照合位置が事前に定められている。しかしながら、そのように事前に定められている物体の照合位置を簡単に確認することはできなかった。
本発明の目的は、上述した課題、すなわち、物体の照合位置を簡単に確認することは困難である、という課題を解決する照合位置出力システムを提供することにある。
本発明の一形態に係る照合位置出力システムは、
物体の画像を撮影する撮影手段と、
前記撮影された前記物体の画像から前記物体を識別する情報を生成する生成手段と、
前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する出力手段と、
を備えるように構成されている。
また本発明の他の形態に係る照合位置出力方法は、
物体の画像を撮影し、
前記撮影された前記物体の画像から前記物体を識別する情報を生成し、
前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する、ように構成されている。
また本発明の他の形態に係るコンピュータ読み取り可能な記録媒体は、
コンピュータに、
物体の画像を撮影する処理と、
前記撮影された前記物体の画像から前記物体を識別する情報を生成する処理と、
前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する処理と、
を行わせるためのプログラムを記録するように構成されている。
本発明は、上述したような構成を有することにより、物体の照合位置を簡単に確認することができる。
本発明の第1の実施形態に係る照合位置出力装置のブロック図である。 本発明の第1の実施形態に係る照合位置出力装置における照合位置データベースの内容の一例を示す図である。 医療用ハサミの外観画像に照合位置をマーキングした画像の一例を示す図である。 医療用メスの外観画像の2か所に照合位置をマーキングした画像の例を示す図である。 本発明の第1の実施形態に係る照合位置出力装置の動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る照合位置出力装置における物体認識部の構成例を示すブロック図である。 本発明の第2の実施形態に係る照合位置出力装置のブロック図である。 本発明の第2の実施形態に係る照合位置出力装置における撮影条件データベースの内容例を示す図である。 本発明の第2の実施形態に係る照合位置出力装置の動作の一例を示すフローチャートである。 本発明の第3の実施形態に係る照合位置出力装置のブロック図である。 本発明の第3の実施形態に係る照合位置出力装置における撮影条件データベースの内容例を示す図である。 本発明の第3の実施形態に係る照合位置出力装置の動作の一例を示すフローチャートである。 本発明の第3の実施形態に係る照合位置出力装置における表面特徴認識部のブロック図である。 本発明の第4の実施形態に係る照合位置出力装置のブロック図である。 本発明の第4の実施形態に係る照合位置出力装置における照合位置決定部のブロック図である。 医療用ハサミの候補照合位置の例を示す図である。 本発明の第5の実施形態に係る照合位置出力装置のブロック図である。 本発明の第6の実施形態に係る照合位置出力装置のブロック図である。
[第1の実施の形態]
先ず、本発明の第1の実施形態に係る照合位置出力装置100について説明する。図1は、照合位置出力装置100のブロック図である。図1を参照すると、照合位置出力装置100は、カメラ111と、通信I/F部112と、操作入力部113と、画面表示部114と、記憶部115と、演算処理部116とから構成されている。
カメラ111は、照合位置の確認を行う対象となる物体の外観を撮像するための撮影手段である。カメラ111は、例えば、数百万画素程度の画素容量を有するCCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサを備えた可視光かつカラーカメラであってよい。
通信I/F部112は、専用のデータ通信回路から構成され、無線回線などを介して接続された各種装置との間でデータ通信を行うように構成されている。操作入力部113は、キーボードやマウスなどの操作入力装置から構成され、オペレータの操作を検出して演算処理部116に出力するように構成されている。画面表示部114は、LCD(Liquid Crystal Display)やPDP(Plasma Display Panel)などの画面表示装置から構成され、演算処理部116からの指示に応じて、照合位置などの各種情報を画面表示するように構成されている。
記憶部115は、ハードディスクやメモリなどの記憶装置から構成され、演算処理部116における各種処理に必要な処理情報およびプログラム1151を記憶するように構成されている。プログラム1151は、演算処理部116に読み込まれて実行されることにより各種処理部を実現するプログラムであり、通信I/F部112などのデータ入出力機能を介して外部装置(図示せず)や記録媒体(図示せず)から予め読み込まれて記憶部115に保存される。記憶部115に記憶される主な処理情報には、照合位置データベース1152がある。
照合位置データベース1152は、物体識別情報と照合位置情報とを関連付けて記録するように構成されている。図2は照合位置データベース1152の内容の一例を示す。この例では、照合位置データベース1152は複数のエントリから構成され、各エントリは物体識別情報欄と照合位置情報欄とを有する。照合位置の確認を行う物体がn種類存在する場合、照合位置データベース1152はnエントリから構成され、各エントリは物品の種類に1対1に対応する。また1つの種類の物体に対応するエントリの物体識別情報欄には、その種類の物体を特定する物体識別情報B0001などが記録される。物体識別情報B0001などは、文字列、記号列、数字列あるいはそれらの組み合わせであってよい。また照合位置情報欄には、その種類の物体に設定された照合位置を特定する情報L0001などが記録される。照合位置情報L0001などは、照合位置を特定し得る情報であれば、テキストあるいは画像の何れであってもよいし、テキストと画像を組み合わせたものであってもよい。
照合位置の確認を行うn種類の物体の例として、本実施形態では、医療用ハサミ、メス、鉗子などの手術器械を取り上げる。但し、本発明における物体は手術器械に限定されず、機械工具、スポーツ用具など任意の物体であってもよい。
図3Aは医療用ハサミに設定された照合位置の一例を示す。この例では、医療用ハサミのヒンジ近くに矩形の照合位置L1が設定されている。また図3Bは医療用メスに設定された照合位置の例を示す。この例では、医療用メスに刻印されたロゴマークの外接矩形が1つの照合位置L21に設定され、さらに手元側の端部付近にもう1つの照合位置L22が設定されている。このように1つの物体に2以上の照合位置が設定されることがある。
例えば図3Aに示す医療用ハサミに対して物体識別情報B0001が割り当てられている場合、照合位置データベース1152の照合位置情報L0001には、照合位置L1を特定する情報が設定される。また図3Bに示す医療用メスに対して物体識別情報B0002が割り当てられている場合、照合位置データベース1152の照合位置情報L0002には、照合位置L21、L22を特定する情報が設定される。前述したように照合位置情報は、照合位置を特定し得る情報であれば任意である。例えば、図3Aおよび図3Bに示したように、物体の外観画像に照合位置を定義した画像を照合位置情報とすることができる。
演算処理部116は、MPUなどのマイクロプロセッサとその周辺回路を有し、記憶部115からプログラム1151を読み込んで実行することにより、上記ハードウェアとプログラム1151とを協働させて各種処理部を実現するように構成されている。演算処理部116で実現される主な処理部には、物体認識部1161と照合位置出力部1162とがある。
物体認識部1161は、カメラ111によって撮影された物体の画像からその物体を識別する情報(物体識別情報)を生成するように構成されている。本画像は、物体の微細な個体差にとらわれず、物体の種類を特定するために、物体を大域的にとらえた画像である。具体的には、一例として、20cm程度の医療用ハサミ全体をとらえられるように、50cm四方の範囲を撮影する。もちろん、複数の物体や異なる物体が同時に撮影されても良い。カメラ111が百万画素(1000×1000画素程度)のカメラであり、その分解能は1画素あたり0.5mmとなる。この程度の分解能では、表面が平滑につくられている医療用はさみなどの物体のランダムパターンをとらえることは分解能が足りず難しい。また物体認識部1161は、生成した物体識別情報を照合位置出力部1162へ伝達するように構成されている。
照合位置出力部1162は、物体認識部1161によって生成された物体を識別する情報に基づいて、その物体の照合位置情報を照合位置データベース1152から取得するように構成されている。また照合位置出力部1162は、取得した照合位置情報を画面表示部114の表示画面に表示し、または/および、通信I/F部112を通じて外部装置へ送信するように構成されている。
次に、照合位置出力装置100の動作を説明する。図4は照合位置出力装置100の動作の一例を示すフローチャートである。図4を参照すると、先ず物体認識部1161は、照合位置の確認を行う対象となる物体の外観の画像をカメラ111で撮影する(ステップS1)。この撮影は、例えばオペレータによる手動で行うことができる。次に物体認識部1161は、カメラ111で撮影された物体の外観の画像を入力し、物体認識をして、物体識別情報を生成する(ステップS2)。
次に照合位置出力部1162は、物体認識部1161によって生成された物体識別情報に基づいて、照合位置データベース1152から照合位置情報を取得する(ステップS3)。例えば照合位置出力部1162は、照合位置データベース1152に記録されたエントリの中から、物体認識部1161によって生成された物体識別情報に一致する物体識別情報を物体識別情報欄に有する1つのエントリを選択し、その選択したエントリの照合位置情報欄に記録された照合位置情報を取得する。次に照合位置出力部1162は、取得した照合位置情報を画面表示部114に表示し、または/および、通信I/F部112を通じて外部装置へ送信する(ステップS4)。
このように照合位置出力装置100によれば、物体の照合位置を簡単に確認することができる。その理由は、照合位置を確認する対象の物体の外観をカメラ111によって撮影すると、物体認識部1161が撮影された物体の外観の画像から物体認識により物体識別情報を生成し、照合位置出力部1162が、物体識別情報と照合位置情報とを関連付けて記録する照合位置データベース1152から上記生成された物体識別情報に対応する照合位置情報を取得して、画面表示部114に表示し、または/および通信I/F部112を通じて外部装置へ送信するためである。
続いて、物体認識部1161の構成例について説明する。
図5は、物体認識部1161の構成例を示すブロック図である。この例の物体認識部1161は、学習部11611と取得部11612と認識部11613とトレーニングデータセット11614とモデル11615とから構成される。
トレーニングデータセット11614は、照合位置の確認を行う物体の外観の画像とその画像が示す物体の識別情報とを関連付けたデータの集合である。トレーニングデータセット11614は、照合位置の確認を行う物体の種類毎に存在する。また、1つの種類の物体に対応するトレーニングデータセット11614は、複数のトレーニングデータを含む。1つのトレーニングデータは、物体の外観画像と物体識別情報とのペアを含む。1つの種類の物体に対応する複数のトレーニングデータに含まれる複数の物体識別情報は、すべて同じである。一方、1つの種類の物体に対応する複数のトレーニングデータに含まれる複数の物体の外観画像は、撮影時の物体の姿勢、撮影方向、照明条件など撮影条件が互いに相違している。このようなトレーニングデータセット11614を使用することにより、撮影時の物体の姿勢、撮影方向、照明条件などの撮影条件に頑健な物体認識が行える。
学習部11611は、トレーニングデータセット11614を使用してディープラーニングによる物体認識手法により学習を行ってモデル11615を作成するように構成されている。学習部11611は、例えば畳み込みニューラルネットワーク(CNN)上にモデル11615を構築する。学習部11611が使用するディープラーニングモデルによる物体認識手法は、例えば、R-CNNベースのアルゴリズム、あるいはYOLO(You Only Look Once)型アルゴリズムなどとすることができる。
取得部11612は、照合位置の確認を行う物体の外観の画像をカメラ111から取得するように構成されている。認識部11613は、取得部11612によって取得された物体の外観画像を入力し、モデル11615を使用して、入力画像からディープラーニングによる物体認識手法により推論を行って特定の識別対象を検出し、検出した識別対象を表す物体識別情報11616を出力するように構成されている。
次に図5に示した物体認識部1161の動作を説明する。物体認識部1161の動作は学習動作と認識動作とに大別される。学習動作では、学習部11611がトレーニングデータセット11614を使用して、モデル11615を生成する。認識動作では、認識部11613が、モデル11615を使用して、照合位置の確認を行う物体の外観の画像からその物体の識別情報を生成して出力する。
以上、物体認識部1161の構成例について説明したが、物体認識部1161は上記した構成例に限定されない。例えば、物体認識部1161は、物体に付属の製品コードをバーコードリーダ等で読み取り、製品コードと物体識別情報とを予め関連付けている対応表に基づいて物体識別情報を生成するように構成されていてもよい。
続いて、照合位置出力装置100の利用例について説明する。
ランダムパターン画像による個体識別や真贋判定では、登録対象の物体上の照合位置からランダムパターン画像を取得してデータベースに登録する作業と、判定対象の物体上の照合位置からランダムパターン画像を取得してデータベースと照合する作業とが実施される。
登録作業および照合作業では、登録対象および照合対象の物体の照合位置のランダムパターン画像を適切な撮影条件の下でカメラによって撮影する作業が行われる。この撮影作業を人手で実施する場合、撮影者が撮影対象とする物体の照合位置を正確に認識していなければ、正確な撮影を行うことは困難である。そして、照合位置は一般に物体の種類が相違すれば異なるものとなる。そのような場面で照合位置出力装置100が利用される。撮影者が、撮影対象の物体の外観をカメラ111によって撮影すると、物体認識部1161が撮影された物体の外観画像を物体認識して物体識別情報を生成する。次に照合位置出力部1162が上記生成された物体識別情報に対応して照合位置データベース1152に記憶された照合位置情報を画面表示部114に表示する。これによって撮影者は、撮影対象の物体の照合位置がどこであるかを視覚的に容易に確認することができるようになる。さらに、上記の撮影条件は、対象の物体ランダムパターンを撮影するために必要な分解能を得るためのカメラレンズのズーム倍率、照明の条件、などのパラメータや機材の設定値などの条件である。一例として、医療用はさみの場合、10mmの範囲を百万画素(1000x1000画素)の分解能で撮影する。この例では、ランダムパターンの分解能は1画素あたり0.01mm程度となり、ランダムパターンを照合に十分な分解能で撮影可能となる。カメラ111と同じカメラで設定を変えて撮影しても良いし、異なるカメラあるいはレンズ、照明機材を用いて撮影することも可能である。
[第2の実施の形態]
次に、本発明の第2の実施形態に係る照合位置出力装置200について説明する。図6は、照合位置出力装置200のブロック図であり、図1と同一符号は同一部分を示し、1153は撮影条件データベース、1163は撮影条件出力部である。
撮影条件データベース1153は、物体識別情報と撮影条件情報とを関連付けて記録するように構成されている。図7は撮影条件データベース1153の内容の一例を示す。この例では、撮影条件データベース1153は複数のエントリから構成され、各エントリは物体識別情報欄と撮影条件情報欄とを有する。照合位置の確認を行う物体がn種類存在する場合、撮影条件データベース1153はnエントリから構成され、各エントリは物品の種類に1対1に対応する。また1つの種類の物体に対応するエントリの物体識別情報欄には、照合位置データベース1152における当該種類の物体を特定する物体識別情報B0001などが記録される。また撮影条件情報欄には、その種類の物体に設定された照合位置を撮影するのに適した撮影条件情報P0001などが記録される。撮影条件情報P0001などは、撮影条件を特定し得る情報であれば、テキストあるいは画像の何れであってもよいし、テキストと画像を組み合わせたものであってもよい。
物体に設定された照合位置を撮影する条件としては、例えば、照明角度がある。照明角度は、照明光が物体の表面に入射する角度である。また撮影条件の他の例として、画像解像度がある。画像解像度は、例えばDPI(Dot Per Inch)で表される。また画像解像度と撮影倍率とには一定の因果関係があるため、画像解像度の代わりに撮影倍率を使用してもよい。但し、撮影条件は上記の例に限定されない。物体とカメラとの距離、照明光の強度、照明光の波長、照明の大きさなどが、撮影条件の他の例である。撮影条件情報P0001などで特定する撮影条件は、上記例示した撮影条件のうちの何れか1つ、或いは複数を特定するものであってよい。
撮影条件出力部1163は、物体認識部1161によって生成された物体を識別する情報に基づいて、その物体の撮影条件情報を撮影条件データベース1153から取得するように構成されている。また撮影条件出力部1163は、取得した撮影条件情報を画面表示部114の表示画面に表示し、または/および、通信I/F部112を通じて外部装置へ送信するように構成されている。
次に、照合位置出力装置200の動作を説明する。図8は照合位置出力装置200の動作の一例を示すフローチャートである。図8を参照すると、照合位置出力装置200は、図4を参照して説明した照合位置出力装置100と同様の動作を行った後(ステップS1~S4)、さらに以下のような動作を行う。先ず、撮影条件出力部1163は、物体認識部1161によって生成された物体識別情報に基づいて、撮影条件データベース1153から撮影条件情報を取得する(ステップS5)。例えば撮影条件出力部1163は、撮影条件データベース1153に記録されたエントリの中から、物体認識部1161によって生成された物体識別情報に一致する物体識別情報を物体識別情報欄に有する1つのエントリを選択し、その選択したエントリの撮影条件情報欄に記録された撮影条件情報を取得する。次に撮影条件出力部1163は、取得した撮影条件情報を画面表示部114に表示し、または/および、通信I/F部112を通じて外部装置へ送信する(ステップS6)。
このように照合位置出力装置200によれば、物体の照合位置を簡単に確認することができるだけでなく、照合位置のランダムパターン画像を撮影するのに適した撮影条件を簡単に確認することができる。その理由は、照合位置および撮影条件を確認する対象の物体の外観をカメラ111によって撮影すると、物体認識部1161が撮影された物体の外観の画像から物体認識により物体識別情報を生成し、照合位置出力部1162および撮影条件出力部1163が、物体識別情報と照合位置情報とを関連付けて記録する照合位置データベース1152および物体識別情報と撮影条件情報とを関連付けて記録する撮影条件データベース1153から上記生成された物体識別情報に対応する照合位置情報および撮影条件情報を取得して、画面表示部114に表示し、または/および通信I/F部112を通じて外部装置へ送信するためである。
続いて、照合位置出力装置200の利用例について説明する。
ランダムパターン画像による個体識別や真贋判定では、登録対象および照合対象の物体の照合位置のランダムパターン画像を適切な撮影条件の下でカメラによって撮影する作業が行われる。この撮影作業を人手で実施する場合、撮影者が撮影対象とする物体の照合位置および適切な撮影条件を正確に認識していなければ、物体固有のランダムパターン画像を安定して読み取れる画像を撮影することは困難である。そして、照合位置は一般に物体の種類が相違すれば異なるものとなる。また適切な撮影条件も、一般に物体の種類が相違し材質などが違えば異なるものとなる。そのような場面で照合位置出力装置200が利用される。撮影者が、撮影対象の物体の外観をカメラ111によって撮影すると、物体認識部1161が撮影された物体の外観画像を物体認識して物体識別情報を生成する。次に照合位置出力部1162が上記生成された物体識別情報に対応して照合位置データベース1152に記憶された照合位置情報を画面表示部114に表示する。これによって撮影者は、撮影対象の物体の照合位置がどこであるかを視覚的に容易に確認することができるようになる。さらに撮影条件出力部1163が上記生成された物体識別情報に対応して撮影条件データベース1153に記憶された撮影条件情報を画面表示部114に表示する。これによって撮影者は、物体の照合位置を撮影するための撮影条件を容易に確認することができるようになる。
本実施形態では、撮影条件出力部1163は、取得した撮影条件情報を画面表示部114の表示画面に表示し、または/および、通信I/F部112を通じて外部装置へ送信するように構成されている。しかし、撮影条件出力部1163は、取得した撮影条件情報に基づいて、撮影条件を自動調整するように構成されていてもよい。
[第3の実施の形態]
次に、本発明の第3の実施形態に係る照合位置出力装置300について説明する。図9は、照合位置出力装置300のブロック図であり、図1と同一符号は同一部分を示し、1154は撮影条件データベース、1164は表面特徴認識部、1165は撮影条件出力部である。
撮影条件データベース1154は、物体表面を特徴付ける情報と撮影条件情報とを関連付けて記録するように構成されている。図10は撮影条件データベース1154の内容の一例を示す。この例では、撮影条件データベース1154は複数のエントリから構成され、各エントリは物体表面を特徴付ける情報欄と撮影条件情報欄とを有する。物体表面を特徴付ける情報がm種類存在する場合、撮影条件データベース1153はmエントリから構成され、各エントリは物品表面を特徴付ける情報の種類に1対1に対応する。
各エントリの物体表面を特徴付ける情報欄には、予め定められた物体表面を特徴付ける情報が記録される。物体の表面を特徴付ける情報の1つの例は、物体表面の素材を表現する情報である。例えば、金属、セラミック、樹脂、炭素繊維、ガラス、紙、木材、鉄鋼などが素材を表現する情報の例である。物体の表面を特徴付ける情報の他の1つの例は、物体表面の粗さを表現する情報である。例えば、算術平均粗さ(Ra)は、物体表面の粗さを表現する情報の例である。物体の表面を特徴付ける情報の更に他の1つの例は、撮影画像中の物体(個体識別対象)の形状である。形状の例には、平面(矩形)、多角形、円、リング(ドーナツ形状)などがある。形状は、撮影対象の面の2次元的な形であるとも言える。また、形状は、ランダムパターン画像を抽出する物体表面の画像領域の形状であるとも言える。物体の表面を特徴付けるデータの他の例は、物体の表面の反射率、透過率、光物性、梨地加工・旋盤加工などの加工方法などがある。撮影条件データベース1154の物体表面を特徴付ける情報欄には、上記例示した情報のうち予め定められた1つあるいは複数の組み合わせが記録される。
また撮影条件データベース1154の撮影条件情報欄には、その物体表面を特徴付ける情報で特定される物体の照合位置を撮影するのに適した撮影条件を特定する撮影条件情報P0001などが記録される。撮影条件としては、前述したように、照明角度、画像解像度などがある。撮影条件は、物体表面を特徴付ける情報の種類ごとに事前に学習しておくことが望ましい。
表面特徴認識部1164は、カメラ111によって撮影された物体の外観の画像からその物体表面を特徴付ける情報を生成するように構成されている。また表面特徴認識部1164は、生成した物体表面を特徴付ける情報を撮影条件出力部1165へ伝達するように構成されている。
撮影条件出力部1165は、表面特徴認識部1164によって生成された物体表面を特徴付ける情報に基づいて、その物体の撮影条件情報を撮影条件データベース1154から取得するように構成されている。具体的には、先ず撮影条件出力部1165は、上記生成された物体表面を特徴付ける情報と撮影条件データベース1154の各エントリに記録されている物体表面を特徴付ける情報との近似度を算出する。物体表面を特徴付ける情報間の近似度を計算する方法は、情報間の近似度を定量的に比較し得るものであれば如何なるものであってもよい。次に撮影条件出力部1165は、表面特徴認識部1164によって生成された物体表面を特徴付ける情報との間の近似度が最も大きい(最も近似している)物体表面を特徴付ける情報に対応する撮影条件情報を撮影条件データベース1154から取得する。また撮影条件出力部1165は、取得した撮影条件情報を画面表示部114の表示画面に表示し、または/および、通信I/F部112を通じて外部装置へ送信するように構成されている。
次に、照合位置出力装置300の動作を説明する。図11は照合位置出力装置300の動作の一例を示すフローチャートである。図11を参照すると、照合位置出力装置300は、図4を参照して説明した照合位置出力装置100と同様の動作を行った後(ステップS1~S4)、さらに以下のような動作を行う。先ず、表面特徴認識部1164は、カメラ111によって撮影された物体の外観の画像からその物体表面を特徴付ける情報を生成する(ステップS7)。次に撮影条件出力部1165は、表面特徴認識部1164によって生成された物体表面を特徴付ける情報に基づいて、撮影条件データベース1154から撮影条件情報を取得する(ステップS8)。次に撮影条件出力部1165は、取得した撮影条件情報を画面表示部114に表示し、または/および、通信I/F部112を通じて外部装置へ送信する(ステップS9)。
このように照合位置出力装置300によれば、物体の照合位置を簡単に確認することができだけでなく、照合位置のランダムパターン画像を撮影するのに適した撮影条件を簡単に確認することができる。その理由は、先ず、照合位置および撮影条件を確認する対象の物体の外観をカメラ111によって撮影すると、物体認識部1161が撮影された物体の外観の画像から物体認識により物体識別情報を生成し、照合位置出力部1162が、物体識別情報と照合位置情報とを関連付けて記録する照合位置データベース1152から上記生成された物体識別情報に対応する照合位置情報を取得して、画面表示部114に表示し、または/および通信I/F部112を通じて外部装置へ送信するためである。また、他の理由は、表面特徴認識部1164が撮影された物体の外観の画像から物体表面を特徴付ける情報を生成し、撮影条件出力部1165が、物体表面を特徴付ける情報と撮影条件とを関連付けて記録する撮影条件データベース1154から上記生成された物体表面を特徴付ける情報に対応する撮影条件情報を取得して、画面表示部114に表示し、または/および通信I/F部112を通じて外部装置へ送信するためである。
続いて、表面特徴認識部1164の構成例について説明する。
図12は、表面特徴認識部1164の構成例を示すブロック図である。この例の表面特徴認識部1164は、学習部11641と取得部11642と認識部11643とトレーニングデータセット11644とモデル11645とから構成される。
トレーニングデータセット11644は、撮影条件の確認を行う物体の外観の画像とその画像が示す物体の表面を特徴付ける情報とを関連付けたデータの集合である。トレーニングデータセット11644は、撮影条件の確認を行う物体の種類毎に存在する。また、1つの種類の物体に対応するトレーニングデータセット11644は、複数のトレーニングデータを含む。1つのトレーニングデータは、物体の外観画像と物体表面を特徴付ける情報とのペアを含む。1つの種類の物体に対応する複数のトレーニングデータに含まれる物体表面を特徴付ける情報は、すべて同じである。一方、1つの種類の物体に対応する複数のトレーニングデータに含まれる複数の物体の外観画像は、撮影時の物体の姿勢、撮影方向、照明条件など撮影条件が互いに相違している。このようなトレーニングデータセット11644を使用することにより、撮影時の物体の姿勢、撮影方向、照明条件などの撮影条件に頑健な物体表面特徴認識が行える。
学習部11641は、トレーニングデータセット11644を使用してディープラーニングによる物体認識手法により学習を行ってモデル11645を作成するように構成されている。学習部11641は、例えば畳み込みニューラルネットワーク(CNN)上にモデル11645を構築する。学習部11641が使用するディープラーニングモデルによる物体認識手法は、例えば、R-CNNベースのアルゴリズム、あるいはYOLO(You Only Look Once)型アルゴリズムなどとすることができる。
取得部11642は、撮影条件の確認を行う物体の外観の画像をカメラ111から取得するように構成されている。認識部11643は、取得部11642によって取得された物体の外観画像を入力し、モデル11645を使用して、入力画像からディープラーニングによる物体認識手法により推論を行って特定の物体表面を特徴付ける情報11646を検出し、出力するように構成されている。
次に図12に示した表面特徴認識部1164の動作を説明する。表面特徴認識部1164の動作は学習動作と認識動作とに大別される。学習動作では、学習部11641がトレーニングデータセット11644を使用して、モデル11645を生成する。認識動作では、認識部11643が、モデル11645を使用して、撮影条件の確認を行う物体の外観の画像からその物体の表面を特徴付ける情報を生成して出力する。
以上、表面特徴認識部1164の構成例について説明したが、表面特徴認識部1164は上記した構成例に限定されない。例えば、表面特徴認識部1164は、物体に付属の製品コードをバーコードリーダ等で読み取り、製品コードと物体表面特徴とを予め関連付けている対応表に基づいて表面を特徴付ける情報を生成するように構成されていてよい。
本実施形態では、撮影条件出力部1165は、取得した撮影条件情報を画面表示部114の表示画面に表示し、または/および、通信I/F部112を通じて外部装置へ送信するように構成されている。しかし、撮影条件出力部1165は、取得した撮影条件情報に基づいて、撮影条件を自動調整するように構成されていてもよい。
[第4の実施の形態]
次に、本発明の第4の実施形態に係る照合位置出力装置400について説明する。図13は、照合位置出力装置400のブロック図であり、図1と同一符号は同一部分を示し、117はカメラ、1166は照合位置決定部である。
カメラ117は、物体の表面に形成されたランダムパターンを撮影するための撮影手段である。カメラ117は、例えば、数百万画素程度の画素容量を有するCCDイメージセンサやCMOSイメージセンサを備えた可視光かつカラーカメラであってよい。
照合位置決定部1166は、物体の種類ごとに、その物体の候補照合位置から照合位置データベース1152に記録する照合位置を学習により決定するように構成されている。
図14は、照合位置決定部1166の構成例を示すブロック図である。この例の照合位置決定部1166は、学習部11661と取得部11662と識別部11663と抽出部11664と決定部11665とトレーニングデータセット11666とモデル11667とから構成される。
トレーニングデータセット11666は、物体個体の候補照合位置のランダムパターン画像とその物体個体の個体識別情報とを関連付けたデータの集合である。トレーニングデータセット11666は、照合位置を決定する物体の種類ごとに存在する。また、1つの種類の物体に対応するトレーニングデータセット11666は、物体の個体ごとのトレーニングデータサブセットを含む。1つのトレーニングデータサブセットは、複数のトレーニングデータを含む。1つのトレーニングデータは、物体個体の候補照合位置のランダムパターン画像とその物体個体の個体識別情報とのペアを含む。1つの物体の個体に対応する複数のトレーニングデータに含まれる個体識別情報は、すべて同じである。一方、1つの物体の個体に対応する複数のトレーニングデータに含まれる候補照合位置のランダムパターン画像は、撮影時の物体の姿勢、撮影方向、照明条件などの撮影条件、および、撮影時の当該物体個体の使用履歴が互いに相違している。使用履歴とは、実際に使用された回数や日数のことを意味する。このようなトレーニングデータセット11644を使用することにより、撮影時の物体の姿勢、撮影方向、照明条件などの撮影条件、および、使用履歴に頑健な個体識別が行える照合位置の決定が可能になる。
図15は、医療用ハサミの候補照合位置の例を示す。この例では、破線で囲んだ領域、すなわち、外側に露出する刃面、内側に隠れる裏すき面、および、把持部の両面などを候補照合位置としている。
学習部11661は、トレーニングデータセット11666を使用してディープラーニングによる物体認識手法により学習を行ってモデル11667を作成するように構成されている。学習部11661は、例えば畳み込みニューラルネットワーク(CNN)上にモデル11667を構築する。学習部11661が使用するディープラーニングモデルによる物体認識手法は、例えば、R-CNNベースのアルゴリズム、あるいはYOLO(You Only Look Once)型アルゴリズムなどとすることができる。
取得部11662は、個体識別対象とする物体の候補照合位置のランダムパターン画像をカメラ117から取得するように構成されている。識別部11663は、取得部11662によって取得されたランダムパターン画像を入力し、モデル11667を使用して、入力画像からディープラーニングによる物体認識手法により推論を行って入力画像の物体個体を識別するように構成されている。
抽出部11664は、識別部11663の注視領域を抽出するように構成されている。すなわち、抽出部11664は、識別部11663が個体識別の結果を導出する際に着目した入力画像中の部分領域を抽出するように構成されている。抽出部11664は、例えばGrad-CAM(Gradient-Weighted Class Activation Mapping)で構成することができる。
決定部11665は、抽出部11664によって抽出された注視領域の全部あるいは一部を照合位置データベース1152に記録する照合位置に決定するように構成されている。また決定部11665は、決定した照合位置を画面表示部114に表示し、または/および通信I/F部112を通じて外部装置へ出力するように構成されている。
次に図14に示した照合位置決定部1166の動作を説明する。照合位置決定部1166の動作は学習動作と照合位置決定動作とに大別される。学習動作では、学習部11661がトレーニングデータセット11666を使用して、モデル11667を生成する。照合位置決定動作では、識別部11663が、モデル11667を使用して、照合位置の決定を行う物体個体の候補照合位置のランダムパターン画像からその個体識別を行う。そして、その個体識別の際、抽出部11664が個体識別時の注視領域を抽出し、決定部11665が注視領域の全部あるいは一部を当該個体識別対象の物体の種類の照合位置として決定し、出力する。こうして出力された物体の種類に対応する照合位置は、必要に応じてさらに最頻値の選択などの統計処理を経た後、例えば人手を介して照合位置データベース1152に物体の種類を特定する物体識別情報と関連付けて記録される。
照合位置出力装置400のその他の構成および動作は、図1の照合位置出力装置100の構成および動作と同じである。
本実施形態では、図1の照合位置出力装置100に対して照合位置出力部1162を追加したが、図6および図9に示した照合位置出力装置200、300に対して照合位置出力部1162を追加するようにしてもよい。
[第5の実施の形態]
次に、本発明の第5の実施形態に係る照合位置出力装置500について説明する。図16は、照合位置出力装置500のブロック図であり、図1と同一符号は同一部分を示し、118はカメラ、1155は物体指紋データベース、1167は登録部、1168は照合部である。
カメラ118は、物体の表面に形成されたランダムパターンを撮影するための撮影手段である。カメラ118は、例えば、数百万画素程度の画素容量を有するCCDイメージセンサやCMOSイメージセンサを備えた可視光かつカラーカメラであってよい。
物体指紋データベース1155は、登録対象の物体の個体について、その個体を撮影して得られたランダムパターン画像とその個体にラベル付けするデータとを関連付けて記録するように構成されている。個体にラベル付けするデータは、任意である。例えば、登録対象の物体が手術器械の場合、例えば日本医療機器工業会の「鋼製器具二次元シンボル表示ガイドライン」で標準化されている表示項目、すなわち、アプリケーション識別子(01の2桁)、鋼製器具標準コード(14桁)、アプリケーション識別子(21の2桁)、および、シリアル番号(8桁)の合計26桁のデータとすることができる。しかし、個体にラベル付けするデータの桁数および内容は上記の例に限定されない。また、スマートフォンで入力したデータをQRコード化し、そのQRコードを個体にラベル付けするデータとしてもよい。
登録部1167は、登録対象物体の個体の照合位置におけるランダムパターン画像をカメラ118から取得するように構成されている。また登録部1167は、登録対象物体の個体にラベル付けするデータを操作入力部113または通信I/F部112から入力するように構成されている。また登録部1167は、上記取得したランダムパターン画像と上記入力したデータとを関連付けて物体指紋データベース1155に登録するように構成されている。なお、物体指紋データベース1155に記録するランダムパターン画像は、ランダムパターン画像の特徴を表す特徴量であってもよい。
照合部1168は、照合対象の個体の照合位置におけるランダムパターン画像(以下、照合データと記す)をカメラ118から取得するように構成されている。また照合部1168は、物体指紋データベース1155から登録対象物体の個体のランダムパターン画像(以下、登録データと記す)を取得するように構成されている。また照合部1168は、登録データごとに、登録データと照合データとの類似度を表す照合スコアを算出し、それら照合スコアの最大値を算出するように構成されている。また照合部1168は、照合スコアの最大値が予め定められた閾値以上であれば、その照合スコアの最大値に係る登録データに関連付けて物体指紋データベース1155に記録されているデータを、照合対象の個体にラベル付けされたデータとして画面表示部114に表示し、または/および、通信I/F部112から外部装置へ送信するように構成されている。また照合部1168は、上記照合スコアの最大値が閾値未満であれば、照合対象の個体は登録されていない旨の判定結果を画面表示部114に表示し、または/および、通信I/F部112から外部装置へ送信するように構成されている。
次に照合位置出力装置500を使用して、登録対象物体の個体の照合位置におけるランダムパターン画像とその個体にラベル付けするデータとを関連付けて物体指紋データベース1155に登録する動作を説明する。
先ず、照合位置出力装置500の物体認識部1161は、登録対象物体の個体の外観画像をカメラ111によって撮影する。この撮影作業は、例えばオペレータによる手動あるいはロボットによる自動で行うことができる。次に物体認識部1161は、登録対象物体の個体の外観画像に対して物体認識を行い、物体識別情報を生成する。次に照合位置出力部1162は、上記生成された物体識別情報に関連付けて照合位置データベース1152に記録された照合位置情報を画面表示部114に表示し、または/および、通信I/F部112を通じて図示しないロボットへ送信する。画面表示部114に照合位置情報が表示されることにより、オペレータは、登録対象物体の個体の照合位置を視覚的に容易に認識することができる。またロボットに照合位置情報が送信されることにより、ロボットは、登録対象物体の個体の照合位置を認識することができる。さらに照合位置出力部1162は、上記生成された物体識別情報に関連付けて照合位置データベース1152に記録された照合位置情報を登録部1167へ伝達する。照合位置情報が登録部1167へ伝達されることにより、登録部1167は、登録対象物体の個体の照合位置を認識することができる。
次に登録部1167は、登録対象物体の個体の照合位置を適切な撮影条件の下でカメラ118によって撮影する。これは、例えばオペレータによる手動あるいはロボットによる自動で行うことができる。次に登録部1167は、照合位置出力部1162から伝達された照合位置情報に基づいて、カメラ118によって撮影された画像から登録対象物体の個体の照合位置の画像を抽出する。また登録部1167は、登録対象物体の個体にラベル付けするデータを操作入力部113あるいは通信I/F部112を通じて外部装置から入力する。次に登録部1167は、上記登録対象物体の個体の照合位置のランダムパターン画像と個体にラベル付けするデータとを関連付けて物体指紋データベース1155に記録する。
以上のような登録動作は、登録対象物体の個体それぞれについて繰り返される。
次に照合位置出力装置500を使用して、照合対象物体の個体の照合位置におけるランダムパターン画像と物体指紋データベース1155に記録されているランダムパターン画像とを照合する照合動作を説明する。
先ず、照合位置出力装置500の物体認識部1161は、照合対象物体の個体の外観画像をカメラ111によって撮影する。この撮影作業は、例えばオペレータによる手動あるいはロボットによる自動で行うことができる。次に物体認識部1161は、照合対象物体の個体の外観画像に対して物体認識を行い、物体識別情報を生成する。次に照合位置出力部1162は、上記生成された物体識別情報に関連付けて照合位置データベース1152に記録された照合位置情報を画面表示部114に表示し、または/および、通信I/F部112を通じて図示しないロボットへ送信する。画面表示部114に照合位置情報が表示されることにより、オペレータは、照合対象物体の個体の照合位置を視覚的に容易に認識することができる。またロボットに照合位置情報が送信されることにより、ロボットは、照合対象物体の個体の照合位置を認識することができる。さらに照合位置出力部1162は、上記生成された物体識別情報に関連付けて照合位置データベース1152に記録された照合位置情報を照合部1168へ伝達する。照合位置情報が照合部1168へ伝達されることにより、照合部1168は、照合対象物体の個体の照合位置を認識することができる。
次に照合部1168は、照合対象物体の個体の照合位置を適切な撮影条件の下でカメラ118によって撮影する。これは、例えばオペレータによる手動あるいはロボットによる自動で行うことができる。次に照合部1168は、照合位置出力部1162から伝達された照合位置情報に基づいて、カメラ118によって撮影された画像から照合対象物体の個体の照合位置のランダムパターン画像を抽出する。次に照合部1168は、照合対象物体の個体の照合位置のランダムパターン画像と物体指紋データベース1155に記録されている登録対象物体の個体のランダムパターン画像とを照合し、照合結果を画面表示部114に表示し、または/および、通信I/F部112から外部装置へ送信する。
本実施形態では、図1の照合位置出力装置100に対して物体指紋データベース1155、登録部1167、および、照合部1168を追加したが、図6、図9、図13に示した照合位置出力装置200、300、400に対して物体指紋データベース1155、登録部1167、および、照合部1168を追加するようにしてもよい。
[第6の実施の形態]
次に、本発明の第6の実施形態に係る照合位置出力装置600について説明する。図17は、照合位置出力装置600のブロック図である。図17を参照すると、照合位置出力装置600は、撮影手段601と生成手段602と出力手段603とを備えている。
撮影手段601は、物体の画像を撮影するように構成されている。撮影手段601は、例えば図1のカメラ111と同様に構成することができるが、それに限定されない。生成手段602は、撮影手段601によって撮影された物体の画像から物体を識別する情報を生成するように構成されている。生成手段602は、例えば図1の物体認識部1161と同様に構成することができるが、それに限定されない。出力手段603は、生成手段602によって生成された物体を識別する情報に基づいて、物体を識別する情報と物体の照合位置の情報とを関連付けて記録する図示しない記録手段から物体の照合位置の情報を取得して出力するように構成されている。出力手段603は、例えば図1の照合位置出力部1162と同様に構成することができるが、それに限定されない。また上記記録手段は、例えば図1の照合位置データベース1152と同様に構成することができるが、それに限定されない。
このように構成された照合位置出力装置600は、以下のように動作する。すなわち、先ず撮影手段601は、物体の画像を撮影する。次に生成手段602は、撮影手段601によって撮影された物体の画像から物体を識別する情報を生成する。次に出力手段603は、生成手段602によって生成された物体を識別する情報に基づいて、物体を識別する情報と物体の照合位置の情報とを関連付けて記録する図示しない記録手段から物体の照合位置の情報を取得して出力する。
照合位置出力装置600によれば、物体の照合位置を簡単に確認することができる。その理由は、物体の画像を撮影する撮影手段601と、撮影された物体の画像から物体を識別する情報を生成する生成手段602と、生成された物体を識別する情報に基づいて、物体を識別する情報と物体の照合位置の情報とを関連付けて記録する記録手段から物体の照合位置の情報を取得して出力する出力手段603とを備えているためである。
[その他の実施の形態]
以上、幾つかの実施形態を参照して本発明を説明したが、本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。例えば、以下のような形態も本発明に含まれる。
例えば、上記実施形態では、照合位置データベース、撮影条件データベース、物体指紋データベースは、演算処理部116に接続された記憶部115に設けられているが、それらのデータベースの一部あるいは全部は、クラウドに設けられていてもよい。
本発明は、手術器械などの物体の個体識別や真贋判定などに利用でき、特に物体表面のランダムパターンの個体差を利用して個体識別や真贋判定を行う際の照合位置の確認に利用できる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
物体の画像を撮影する撮影手段と、
前記撮影された前記物体の画像から前記物体を識別する情報を生成する生成手段と、
前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する出力手段と、
を備える照合位置出力システム。
[付記2]
前記記録手段は、さらに、前記物体を識別する情報と前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
前記出力手段は、さらに、前記生成された前記物体を識別する情報に基づいて、前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力するように構成されている、
付記1に記載の照合位置出力システム。
[付記3]
前記記録手段は、さらに、前記物体の表面を特徴付けるデータと前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
前記撮影された前記物体の画像から前記物体の表面を特徴付けるデータを生成する生成手段をさらに備え、
前記出力手段は、さらに、前記生成された前記物体の表面を特徴付けるデータに基づいて、前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力するように構成されている、
付記1に記載の照合位置出力システム。
[付記4]
前記出力手段は、前記生成された前記物体の表面を特徴付けるデータと前記記録手段に記録されている前記物体の表面を特徴付けるデータとの近似度を算出し、前記算出した近似度に基づいて前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得するように構成されている、
付記3に記載の照合位置出力システム。
[付記5]
前記物体の候補照合位置から前記記録手段に記録する前記物体の照合位置を学習により決定する照合位置決定手段を、さらに備える、
付記1乃至4の何れかに記載の照合位置出力システム。
[付記6]
前記照合位置決定手段は、
前記候補照合位置のランダムパターン画像を含むトレーニングデータを使用してディープラーニングによる物体認識手法によりモデルを学習する学習手段と、
前記モデルを使用して、前記候補照合位置のランダムパターン画像を含む入力画像に対する個体識別を行う識別手段と、
前記識別手段の注視領域を抽出する抽出手段と、
前記注視領域の全部あるいは一部を前記記録手段に記録する前記物体の照合位置に決定する決定手段と、を含む、
付記5に記載の照合位置出力システム。
[付記7]
物体の画像を撮影し、
前記撮影された前記物体の画像から前記物体を識別する情報を生成し、
前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する、
照合位置出力方法。
[付記8]
前記記録手段は、さらに、前記物体を識別する情報と前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
前記出力では、さらに、前記生成された前記物体を識別する情報に基づいて、前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力する、
付記7に記載の照合位置出力方法。
[付記9]
前記記録手段は、さらに、前記物体の表面を特徴付けるデータと前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
さらに、前記撮影された前記物体の画像から前記物体の表面を特徴付けるデータを生成し、
前記出力では、さらに、前記生成された前記物体の表面を特徴付けるデータに基づいて、前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力する、
付記7に記載の照合位置出力方法。
[付記10]
前記出力では、前記生成された前記物体の表面を特徴付けるデータと前記記録手段に記録されている前記物体の表面を特徴付けるデータとの近似度を算出し、前記算出した近似度に基づいて前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得する、
付記9に記載の照合位置出力方法。
[付記11]
さらに、前記物体の候補照合位置から前記記録手段に記録する前記物体の照合位置を学習により決定する、
付記7乃至10の何れかに記載の照合位置出力方法。
[付記12]
前記照合位置の学習による決定では、
前記候補照合位置のランダムパターン画像を含むトレーニングデータを使用してディープラーニングによる物体認識手法によりモデルを学習し、
前記モデルを使用して、前記候補照合位置のランダムパターン画像を含む入力画像に対する個体識別を行い、
前記個体識別の注視領域を抽出し、
前記注視領域の全部あるいは一部を前記記録手段に記録する前記物体の照合位置に決定する、
付記11に記載の照合位置出力方法。
[付記13]
コンピュータに、
物体の画像を撮影する処理と、
前記撮影された前記物体の画像から前記物体を識別する情報を生成する処理と、
前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する処理と、
を行わせるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
100…照合位置出力装置
111…カメラ
112…通信I/F部
113…操作入力部
114…画面表示部
115…記憶部
116…演算処理部
200…照合位置出力装置
300…照合位置出力装置
400…照合位置出力装置
500…照合位置出力装置
600…照合位置出力装置
601…撮影手段
602…生成手段
603…出力手段
1151…プログラム
1152…照合位置データベース
1153…撮影条件データベース
1154…撮影条件データベース
1155…物体指紋データベース
1161…物体認識部
1162…照合位置出力部
1163…撮影条件出力部
1164…表面特徴認識部
1165…撮影条件出力部
1166…照合位置決定部
1167…登録部
1168…照合部
11611…学習部
11612…取得部
11613…認識部
11614…トレーニングデータセット
11615…モデル
11616…物体識別情報
11641…学習部
11642…取得部
11643…認識部
11644…トレーニングデータセット
11645…モデル
11646…物体表面を特徴付ける情報
11661…学習部
11662…取得部
11663…識別部
11664…抽出部
11665…決定部
11666…トレーニングデータセット
11667…モデル
L1…照合位置
L21…照合位置
L22…照合位置

Claims (8)

  1. 物体の画像を撮影する撮影手段と、
    前記撮影された前記物体の画像から前記物体を識別する情報を生成する第1の生成手段と、
    前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する出力手段と、
    前記撮影された前記物体の画像から前記物体の表面を特徴付けるデータを生成する第2の生成手段と、
    を備え
    前記記録手段は、さらに、前記物体の表面を特徴付けるデータと前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
    前記出力手段は、さらに、前記生成された前記物体の表面を特徴付けるデータと前記記録手段に記録されている前記物体の表面を特徴付けるデータとの近似度を算出し、前記算出した近似度に基づいて前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力するように構成されている照合位置出力システム。
  2. 物体の画像を撮影する撮影手段と、
    前記撮影された前記物体の画像から前記物体を識別する情報を生成する生成手段と、
    前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する出力手段と、
    前記物体の候補照合位置から前記記録手段に記録する前記物体の照合位置を学習により決定する照合位置決定手段と、
    を備え、
    前記照合位置決定手段は、
    前記候補照合位置のランダムパターン画像を含むトレーニングデータを使用してディープラーニングによる物体認識手法によりモデルを学習する学習手段と、
    前記モデルを使用して、前記候補照合位置のランダムパターン画像を含む入力画像に対する個体識別を行う識別手段と、
    前記識別手段の注視領域を抽出する抽出手段と、
    前記注視領域の全部あるいは一部を前記記録手段に記録する前記物体の照合位置に決定する決定手段と、を含む、
    照合位置出力システム。
  3. 前記記録手段は、さらに、前記物体を識別する情報と前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
    前記出力手段は、さらに、前記生成された前記物体を識別する情報に基づいて、前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力するように構成されている、
    請求項に記載の照合位置出力システム。
  4. 物体の画像を撮影し、
    前記撮影された前記物体の画像から前記物体を識別する情報を生成し、
    前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力し、
    前記記録手段は、さらに、前記物体の表面を特徴付けるデータと前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
    さらに、前記撮影された前記物体の画像から前記物体の表面を特徴付けるデータを生成し、
    前記出力では、さらに、前記生成された前記物体の表面を特徴付けるデータと前記記録手段に記録されている前記物体の表面を特徴付けるデータとの近似度を算出し、前記算出した近似度に基づいて前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力する、
    照合位置出力方法。
  5. 物体の画像を撮影し、
    前記撮影された前記物体の画像から前記物体を識別する情報を生成し、
    前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力し、
    前記物体の候補照合位置から前記記録手段に記録する前記物体の照合位置を学習により決定し、
    前記照合位置の学習による決定では、
    前記候補照合位置のランダムパターン画像を含むトレーニングデータを使用してディープラーニングによる物体認識手法によりモデルを学習し、
    前記モデルを使用して、前記候補照合位置のランダムパターン画像を含む入力画像に対する個体識別を行い、
    前記個体識別の注視領域を抽出し、
    前記注視領域の全部あるいは一部を前記記録手段に記録する前記物体の照合位置に決定する、
    照合位置出力方法。
  6. 前記記録手段は、さらに、前記物体を識別する情報と前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録するように構成され、
    前記出力では、さらに、前記生成された前記物体を識別する情報に基づいて、前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力する、
    請求項に記載の照合位置出力方法。
  7. コンピュータに、
    物体の画像を撮影する処理と、
    前記撮影された前記物体の画像から前記物体を識別する情報を生成する処理と、
    前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録し且つ前記物体の表面を特徴付けるデータと前記物体の照合位置を撮影する際の撮影条件とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する処理と、
    前記撮影された前記物体の画像から前記物体の表面を特徴付けるデータを生成する処理と、
    前記生成された前記物体の表面を特徴付けるデータと前記記録手段に記録されている前記物体の表面を特徴付けるデータとの近似度を算出し、前記算出した近似度に基づいて前記物体の照合位置を撮影する際の撮影条件を前記記録手段から取得して出力する処理と、
    を行わせるためのプログラム。
  8. コンピュータに、
    物体の画像を撮影する処理と、
    前記撮影された前記物体の画像から前記物体を識別する情報を生成する処理と、
    前記生成された前記物体を識別する情報に基づいて、前記物体を識別する情報と前記物体の照合位置の情報とを関連付けて記録する記録手段から前記物体の照合位置の情報を取得して出力する処理と、
    前記物体の候補照合位置から前記記録手段に記録する前記物体の照合位置を学習により決定する処理とを行わせ、
    前記照合位置の学習による決定では、
    前記候補照合位置のランダムパターン画像を含むトレーニングデータを使用してディープラーニングによる物体認識手法によりモデルを学習する処理と、
    前記モデルを使用して、前記候補照合位置のランダムパターン画像を含む入力画像に対する個体識別を行う処理と、
    前記個体識別の注視領域を抽出する処理と、
    前記注視領域の全部あるいは一部を前記記録手段に記録する前記物体の照合位置に決定する処理とを行わせる、
    ためのプログラム。
JP2021534882A 2019-07-22 2019-07-22 照合位置出力システム Active JP7176638B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028639 WO2021014527A1 (ja) 2019-07-22 2019-07-22 照合位置出力システム

Publications (3)

Publication Number Publication Date
JPWO2021014527A1 JPWO2021014527A1 (ja) 2021-01-28
JPWO2021014527A5 JPWO2021014527A5 (ja) 2022-03-17
JP7176638B2 true JP7176638B2 (ja) 2022-11-22

Family

ID=74193494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021534882A Active JP7176638B2 (ja) 2019-07-22 2019-07-22 照合位置出力システム

Country Status (4)

Country Link
US (1) US11908212B2 (ja)
EP (1) EP4006828A4 (ja)
JP (1) JP7176638B2 (ja)
WO (1) WO2021014527A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266127A (ja) 2000-03-23 2001-09-28 Ngk Spark Plug Co Ltd プリント配線板の検査装置
WO2013018614A1 (ja) 2011-07-29 2013-02-07 日本電気株式会社 照合・検索システム、照合・検索サーバ、画像特徴抽出装置、照合・検索方法及びプログラム
WO2016035774A1 (ja) 2014-09-01 2016-03-10 日本電気株式会社 判定方法、判定システム、判定装置、及びそのプログラム
JP2016206909A (ja) 2015-04-21 2016-12-08 キヤノン株式会社 情報処理装置、情報処理方法
JP2017224009A (ja) 2016-06-13 2017-12-21 株式会社キーエンス 画像処理センサ、画像処理方法及び画像処理プログラム並びにコンピュータで読み取り可能な記録媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100338083B1 (ko) * 2000-07-26 2002-05-24 이광호 검색효율 및 검색성능 향상을 위한 로젯패턴 적용영상색인 및 검색방법
JP4527322B2 (ja) * 2001-07-25 2010-08-18 日本電気株式会社 画像検索装置、画像検索方法、及び画像検索用プログラム
US7298931B2 (en) * 2002-10-14 2007-11-20 Samsung Electronics Co., Ltd. Image retrieval method and apparatus using iterative matching
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
US7872669B2 (en) * 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
US7590310B2 (en) * 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
JP4682030B2 (ja) * 2005-11-30 2011-05-11 富士通株式会社 図形検索プログラム、該プログラムを記録した記録媒体、図形検索装置、および図形検索方法
US9176984B2 (en) * 2006-07-31 2015-11-03 Ricoh Co., Ltd Mixed media reality retrieval of differentially-weighted links
JP5358083B2 (ja) * 2007-11-01 2013-12-04 株式会社日立製作所 人物画像検索装置及び画像検索装置
JP4881278B2 (ja) * 2007-10-31 2012-02-22 株式会社東芝 物体認識装置及びその方法
US8548231B2 (en) * 2009-04-02 2013-10-01 Siemens Corporation Predicate logic based image grammars for complex visual pattern recognition
JP5230525B2 (ja) * 2009-05-25 2013-07-10 キヤノン株式会社 画像検索装置およびその方法
US8224072B2 (en) * 2009-07-16 2012-07-17 Mitsubishi Electric Research Laboratories, Inc. Method for normalizing displaceable features of objects in images
US8923590B2 (en) * 2011-01-20 2014-12-30 Siemens Aktiengesellschaft Method and system for 3D cardiac motion estimation from single scan of C-arm angiography
US9232128B2 (en) * 2011-03-28 2016-01-05 Nec Corporation Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program
US8874557B2 (en) * 2011-09-02 2014-10-28 Adobe Systems Incorporated Object retrieval and localization using a spatially-constrained similarity model
US9169067B2 (en) * 2012-08-20 2015-10-27 M-I L.L.C. System and method to assist in lifting a vessel
CN106327469B (zh) * 2015-06-29 2019-06-18 北京航空航天大学 一种语义标签引导的视频对象分割方法
US10621429B2 (en) 2015-06-30 2020-04-14 Nec Corporation Individual identifier extraction device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266127A (ja) 2000-03-23 2001-09-28 Ngk Spark Plug Co Ltd プリント配線板の検査装置
WO2013018614A1 (ja) 2011-07-29 2013-02-07 日本電気株式会社 照合・検索システム、照合・検索サーバ、画像特徴抽出装置、照合・検索方法及びプログラム
WO2016035774A1 (ja) 2014-09-01 2016-03-10 日本電気株式会社 判定方法、判定システム、判定装置、及びそのプログラム
JP2016206909A (ja) 2015-04-21 2016-12-08 キヤノン株式会社 情報処理装置、情報処理方法
JP2017224009A (ja) 2016-06-13 2017-12-21 株式会社キーエンス 画像処理センサ、画像処理方法及び画像処理プログラム並びにコンピュータで読み取り可能な記録媒体

Also Published As

Publication number Publication date
EP4006828A4 (en) 2022-07-27
US11908212B2 (en) 2024-02-20
JPWO2021014527A1 (ja) 2021-01-28
US20220262147A1 (en) 2022-08-18
WO2021014527A1 (ja) 2021-01-28
EP4006828A1 (en) 2022-06-01

Similar Documents

Publication Publication Date Title
JP6217886B1 (ja) 物体管理装置
WO2016035774A1 (ja) 判定方法、判定システム、判定装置、及びそのプログラム
CN108291876A (zh) 用于检测产品的真实性的系统及方法
JP6810392B2 (ja) 個体識別装置
US11580762B2 (en) Training a card type classifier with simulated card images
WO2015008732A1 (ja) 光学文字認識装置
CN108427959A (zh) 基于图像识别的机台状态采集方法及系统
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN105741404B (zh) 票据的鉴别方法、装置和系统
JP6574920B1 (ja) 画像処理システム、画像処理方法、及びプログラム
CN112465517A (zh) 防伪验证方法、装置及计算机可读存储介质
TW202006597A (zh) 影像處理系統、影像處理方法及程式產品
JP6915611B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7176638B2 (ja) 照合位置出力システム
JP2014115961A (ja) 情報処理装置、車両識別方法、及び車両識別プログラム
CN111639726B (zh) 一种基于印章的身份认证系统和方法
CN101180657A (zh) 信息终端
EP3982288A1 (en) Method for identifying an object, computer program for carrying out the method and system
JP7264268B2 (ja) 表面性状推定システム
CN111429156A (zh) 一种手机使用的人工智能识别系统及其应用
JP7276592B2 (ja) 基板管理システム
JP7197009B2 (ja) 物体管理システム
JP7043967B2 (ja) 同一性判定装置、同一性判定システムおよびプログラム
KR101826640B1 (ko) 신분증 인식기에서 신분증 종류 판별장치 및 그 방법
US20170200383A1 (en) Automated review of forms through augmented reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R151 Written notification of patent or utility model registration

Ref document number: 7176638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151