JP7316203B2 - Information processing system, information processing device, and information processing method - Google Patents
Information processing system, information processing device, and information processing method Download PDFInfo
- Publication number
- JP7316203B2 JP7316203B2 JP2019221131A JP2019221131A JP7316203B2 JP 7316203 B2 JP7316203 B2 JP 7316203B2 JP 2019221131 A JP2019221131 A JP 2019221131A JP 2019221131 A JP2019221131 A JP 2019221131A JP 7316203 B2 JP7316203 B2 JP 7316203B2
- Authority
- JP
- Japan
- Prior art keywords
- partial image
- information processing
- recognition
- recognition result
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、情報処理システム、情報処理装置、および情報処理方法に関するものである。 The present invention relates to an information processing system, an information processing apparatus, and an information processing method.
被写体の姿勢を調整することなく特定の方向から撮像した画像に基づいて、任意の物体を認識することが求められている。例えば、商店などにおけるキャッシュレジスター端末において、商品認識エリア上の物体を撮像した画像に基づいて、当該物体がいずれの商品であるかを認識する情報処理システムが提案されている(特許文献1参照)。 There is a demand for recognizing an arbitrary object based on an image captured from a specific direction without adjusting the posture of the subject. For example, there has been proposed an information processing system for recognizing which product an object is based on an image of the object in the product recognition area of a cash register terminal in a store (see Patent Document 1). .
特許文献1に記載の情報処理システムでは、商品認識エリア上に置かれた物品の撮像に複数個の撮像部を用いており、構成が煩雑であった。 In the information processing system described in Patent Document 1, a plurality of image pickup units are used to image an article placed on the product recognition area, and the configuration is complicated.
従って、上記のような従来技術の問題点に鑑みてなされた本開示の目的は、簡潔な構成で物体の認識精度を向上させた情報処理システム、情報処理装置、および情報処理方法を提供することにある。 Accordingly, an object of the present disclosure, which has been made in view of the problems of the conventional technology as described above, is to provide an information processing system, an information processing apparatus, and an information processing method that improve object recognition accuracy with a simple configuration. It is in.
上述した諸課題を解決すべく、第1の観点による情報処理システムは、
撮像により画像を生成する撮像部と、
前記撮像部の撮像範囲内に配置され、前記撮像部の光軸に対して反射面が傾斜している反射部と、
前記画像の内の前記反射部が占める領域における第1部分画像と、前記画像の内の前記反射部以外の領域である第2部分画像とのそれぞれに対して物体認識を行い、前記第1部分画像に含まれる物体の第1認識結果と前記第2部分画像に含まれる物体の第2認識結果が異なる場合、前記第1認識結果及び前記第2認識結果を提示する情報処理装置と、を備える。
In order to solve the above-mentioned problems, the information processing system according to the first aspect is
an imaging unit that generates an image by imaging;
a reflecting unit arranged within an imaging range of the imaging unit and having a reflecting surface inclined with respect to an optical axis of the imaging unit ;
performing object recognition on each of a first partial image in an area occupied by the reflecting portion in the image and a second partial image in an area other than the reflecting portion in the image; an information processing device that presents the first recognition result and the second recognition result when a first recognition result of an object included in one partial image and a second recognition result of an object included in the second partial image are different; Prepare.
また、第2の観点による情報処理装置は、
撮像部の光軸に対して反射面が傾斜している反射部を含む画像のデータを受信する通信部と、
前記画像の内、前記反射部が占める領域における第1部分画像と、前記画像の内、前記反射部以外の領域である第2部分画像のそれぞれに対して物体認識を行い、前記第1部分画像に含まれる物体の第1認識結果と前記第2部分画像に含まれる物体の第2認識結果が異なる場合、前記第1認識結果及び前記第2認識結果を提示する制御部と、を備える。
Further, the information processing device according to the second aspect is
a communication unit that receives data of an image including a reflecting unit whose reflecting surface is inclined with respect to the optical axis of the imaging unit ;
object recognition is performed on each of a first partial image in the area occupied by the reflecting portion in the image and a second partial image in the image other than the reflecting portion; a control unit that presents the first recognition result and the second recognition result when the first recognition result of the object included in the image and the second recognition result of the object included in the second partial image are different.
また、第3の観点による情報処理方法は、
コンピュータによって実行される情報処理方法であって、
撮像部の光軸に対して反射面が傾斜している反射部を含む画像を取得し、
前記画像の内、前記反射部が占める領域における第1部分画像と、前記画像の内、前記反射部以外の領域である第2部分画像のそれぞれに対して物体認識を行い、
前記第1部分画像に含まれる物体の第1認識結果と前記第2部分画像に含まれる物体の第2認識結果が異なる場合、前記第1認識結果及び前記第2認識結果を提示する。
Further, the information processing method according to the third aspect is
A computer-implemented information processing method comprising:
Acquiring an image including a reflecting part whose reflecting surface is inclined with respect to the optical axis of the imaging part,
performing object recognition on each of a first partial image in a region occupied by the reflecting portion in the image and a second partial image in the region other than the reflecting portion in the image ;
When the first recognition result of the object included in the first partial image and the second recognition result of the object included in the second partial image are different, the first recognition result and the second recognition result are presented.
上記のように構成された本開示に係る情報処理システム、情報処理装置、および情報処理方法によれば、簡潔な構成で物体の認識精度が向上する According to the information processing system, the information processing device, and the information processing method according to the present disclosure configured as described above, the object recognition accuracy is improved with a simple configuration.
以下、本開示を適用した情報処理システムの実施形態について、図面を参照して説明する。 Hereinafter, embodiments of an information processing system to which the present disclosure is applied will be described with reference to the drawings.
図1に示すように、本開示の一実施形態に係る情報処理システム10を含む精算システム11は、少なくとも1つの情報処理システム10およびサーバ12を含んで構成されている。本実施形態では、精算システム11は、複数の情報処理システム10を含む。
As shown in FIG. 1 , a
本実施形態において、情報処理システム10はレジ端末に含まれている。情報処理システム10は、購入者がレジ端末に載置する商品を撮像する。情報処理システム10は、撮像による画像に対して物体認識を行い、画像中に含まれる物体が店舗におけるいずれの商品であるかを認識する。画像中の物体は、画像内に描画されている物体を意味する。情報処理システム10は、載置された全商品の認識結果を、ネットワーク13を介してサーバ12に通知する。サーバ12は認識結果に基づいて、請求金額を算出する。サーバ12は、請求金額を情報処理システム10に通知する。情報処理システム10は、購入者に請求金額を提示し、購入金額の支払いを要求する。
In this embodiment, the
図2に示すように、情報処理システム10は、カメラ14、反射部15、および情報処理装置17を含んで構成される。また、情報処理システム10は、表示装置16、載置台18、および支持柱19を更に含んで構成されてもよい。
As shown in FIG. 2 , the
カメラ14は、載置台18の全範囲を撮像可能に固定されている。カメラ14は、例えば、載置台18の側面から延びる支持柱19に固定されている。カメラ14は、例えば、載置台18の上面us全面を撮像可能、かつ当該上面usに光軸が垂直になるように固定されている。カメラ14は、任意のフレームレートで連続的に撮像を行い、画像信号を生成する。
The
反射部15は、カメラ14の撮像範囲内の任意の位置に配置されている。反射部15は、例えば、撮像範囲内の中央および端部などのいずれの位置に配置されていてもよい。単一の反射部15が配置されてよく、複数の反射部15が配置されてよい。本実施形態において、単一の反射部15は、矩形の載置台18の1辺に沿うように配置された状態で固定されている。反射部15は、例えば、載置台18の長手方向と同じ長さで、底面が直角二等辺三角形の三角柱である。反射部15は、三角柱の2底面における頂点が載置台18の同じ長辺上に位置し、三角柱の側面が載置台18の上面usに対向するように配置されている。また、反射部15の大きさは、載置台18の大きさおよびカメラ14の撮像範囲に応じて適宜最適なものに設定されてよい。
The
反射部15では、反射面rsがカメラ14の光軸に対して傾斜している。本実施形態において、反射部15では、底面における底辺に相当する側面に、アルミニウム、銀、またはクロムなどの金属材料などを被着することにより反射面rsが形成されている。本実施形態において、反射面rsは平坦状であるが、球面状、非球面状、および円筒側面状であってよく、凸状または凹状であってよい。
In the reflecting
表示装置16は、従来公知の任意のディスプレイである。表示装置16は、情報処理装置17から送信される画像信号に相当する画像を表示する。また、後述するように、表示装置16は、タッチスクリーンとして機能してよい。
図3に示すように、情報処理装置17は、通信部20、入力部21、記憶部22、および制御部23を含んで構成される。情報処理装置17は、本実施形態において、カメラ14、反射部15、および表示装置16とは別の装置として構成されているが、例えば、カメラ14、反射部15、載置台18、支持柱19、および表示装置16の少なくともいずれかと一体的に構成されてもよい。
As shown in FIG. 3 , the
通信部20は、例えば、有線または無線を含んで構成される通信線を介してカメラ14と通信する通信モジュールを含む。通信部20は、カメラ14から画像信号を受信する。通信部20は、通信線を介して表示装置16と通信する通信モジュールを含む。通信部20は、表示させる画像に相当する画像信号を表示装置16に向けて送信する。通信部20は、表示装置16から表示面において接触を検知した位置に相当する位置信号を受信してよい。通信部20は、ネットワーク13を介してサーバ12と通信する通信モジュールを含む。通信部20は、後述する、確定した認識結果に相当する結果情報をサーバ12に送信する。通信部20は、サーバ12から請求金額に相当する金額情報をサーバ12から受信してよい。
The
入力部21は、ユーザ入力を検出する1つ以上のインタフェースを含む。入力部21は、例えば、物理キー、静電容量キー、および表示装置16と一体的に設けられたタッチスクリーンを含んでよい。本実施形態においては、入力部21はタッチスクリーンである。
The
記憶部22は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスを含む。記憶部22は、制御部23を機能させる多様なプログラム、および制御部23が用いる多様な情報を記憶する。
The
制御部23は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部23は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってもよい。
制御部23は、図4に示すように、カメラ14から受信する画像信号に相当する画像imを、第1部分画像imp1および第2部分画像imp2に分割する。第1部分画像imp1は、画像信号に相当する画像imの全領域における反射部15が占める領域の画像である。第2部分画像imp2は、当該画像の全領域における反射部15が占める領域以外の領域の画像である。
As shown in FIG. 4, the
制御部23は、以下に説明するように、第1部分画像imp1および第2部分画像imp2に対して物体認識を行う。物体認識は、画像im中の物体が何であるかを把握し、認識結果を作成することを意味する。制御部23は、例えば、画像im内で物体を検出し、当該検出した物体が何であるかの認識結果を作成してよい。本実施形態において、物体の画像im内での検出とは、画像im内の物体の存在を位置とともに個別に把握することを意味する。または、制御部23は、例えば、画像im内で物体を検出することなく直接物体認識を行うことにより認識結果を作成してよい。制御部23は、物体認識により、例えば、載置台18に載置されることにより、カメラ14の撮像範囲内に位置する物体を認識する。
The
制御部23は、第1部分画像imp1および第2部分画像imp2に対して、例えば、バーコード検出、深層学習、パターンマッチング、および文字認識などの公知の認識方法によって、物体認識を行う。制御部23は、物体認識により画像im中の物体を仮認識するとともに、当該物体の仮の認識結果の信頼度を算出する。信頼度は、認識結果の正確性を示す指標である。
The
制御部23は、例えば、以下に説明する第1の方式から第4の方式の何れかによって、物体の認識を行ってよい。なお、載置台18に「おにぎり」と「ボトル入りのお茶」(以下において「お茶」と呼ぶ。)とが載置された状況に対して行われる物体認識を例として用いて、それぞれの方式による物体の認識を説明する。
For example, the
第1の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識を行う。本実施形態では、制御部23は、第2部分画像imp2に対して物体認識を行う。制御部23は、物体認識により物体毎に仮認識して、認識結果を仮の認識結果として作成する。制御部23は、物体毎に付与される信頼度をそれぞれ閾値と比較する。制御部23は、物体毎に付与される信頼度が全て閾値を超える場合、第2部分画像imp2に対する物体認識による全物体に対するそれぞれの仮の認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の仮の認識結果が「おにぎり」および「お茶」であってそれぞれの信頼度が閾値を超える場合、仮の認識結果である「おにぎり」および「お茶」を、最終的な認識結果として確定する。
In the first method, the
さらに第1の方式では、制御部23は、第2部分画像imp2に対する物体認識による少なくとも一部の物体に対する信頼度が閾値以下である場合、他方の部分画像である第1部分画像imp1に対して物体認識を行う。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の仮の認識結果が「おにぎり」および「青汁」であって一方の信頼度が閾値以下である場合、第1部分画像imp1に対して物体認識を行う。
Furthermore, in the first method, when the reliability of at least a part of the object in object recognition for the second partial image imp2 is equal to or less than a threshold, the
さらに第1の方式では、制御部23は、第1部分画像imp1に対する物体認識による全物体の仮の認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第1部分画像imp1で認識される2つの物体の仮の認識結果である「おにぎり」および「お茶」を、最終的な認識結果として確定する。
Furthermore, in the first method, the
第2の方式では、制御部23は、第1の方式と同じく、第1部分画像imp1および第2部分画像imp2の一方に対する物体認識、および全物体に対する信頼度の閾値との比較を行う。本実施形態では、制御部23は、全物体の中で信頼度が閾値を超える物体に対して、一方の部分画像である第2部分画像imp2に対する物体認識による当該物体に対する認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の中の1つの物体の仮の認識結果が「おにぎり」であって、信頼度が閾値を超える場合、当該物体の仮の認識結果である「おにぎり」を、最終的な認識結果として確定する。
In the second method, as in the first method, the
さらに第2の方式では、制御部23は、第2部分画像imp2に対する物体認識による物体に対する信頼度が閾値以下である場合、第2部分画像imp2における当該物体と、第1部分画像imp1において認識される物体との対応付けを行う。制御部23は、例えば、第1部分画像imp1および第2部分画像imp2それぞれの特定の方向における同じ位置に位置する物体を同一の物体とみなして、対応付けてよい。制御部23は、対応付けられた物体に関して、他方の部分画像である第1部分画像imp1に対する物体認識を行う。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の中の1つの物体の仮の認識結果が「青汁」であって、信頼度が閾値以下である場合、当該物体に対して第1部分画像imp1に対して物体認識を行う。
Furthermore, in the second method, when the reliability of the object in object recognition for the second partial image imp2 is equal to or lower than the threshold, the
さらに第2の方式では、制御部23は、第1部分画像imp1に対する物体認識による当該物体の仮の認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第2部分画像imp2に対する物体認識により「青汁」という仮の認識結果が作成された物体に対して、第1部分画像imp1に対する物体認識による仮の認識結果である「お茶」を、最終的な認識結果として確定する。
Furthermore, in the second method, the
上述の第1の方式および第2の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2のいずれを先に物体認識を行うかを、容易度に基づいて決定してよい。容易度は、物体認識される画像に対する、正確な認識結果を作成できる容易性を数値化して示す。
In the first method and the second method described above, the
制御部23は、容易度の算出のための、例えば、第1部分画像imp1および第2部分画像imp2それぞれにセグメンテーションを行い、第1部分画像imp1および第2部分画像imp2それぞれにおいてセグメンテーション領域を抽出する。セグメンテーション領域は、単一の物体とみなされる像が形成されている領域である。制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに対して抽出するセグメンテーション領域の数を、容易度として算出してよい。セグメンテーション領域の数は、第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される物体の数と同等である。または、制御部23は、第1部分画像imp1の大きさに対するセグメンテーション領域合計の大きさ、および第2部分画像imp2の大きさに対するセグメンテーション領域合計の大きさを、容易度として算出してよい。または、制御部23は、第1部分画像imp1のセグメンテーション領域合計の大きさ、および第2部分画像imp2のセグメンテーション領域合計の大きさを、容易度として算出してよい。
For example, the
制御部23は、第1部分画像imp1および第2部分画像imp2の中で、算出した容易度が高い一方に対して、物体認識を行わせてよい。
The
第3の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに対して物体認識を行う。制御部23は、第1部分画像imp1において仮認識される物体と、第2部分画像imp2において仮認識される物体とを対応付ける。制御部23は、例えば、第1部分画像imp1および第2部分画像imp2それぞれの特定の方向における同じ位置に位置する物体を同一の物体とみなして、対応付けてよい。また、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに位置する物体のエッジを含む形状が同一である物体を同一の物体とみなして、対応付けてよい。制御部23は、対応付けられる物体のそれぞれの仮の認識結果が一致する場合、当該物体の仮の認識結果を、最終的な認識結果として確定する。
In the third method, the
さらに第3の方式では、制御部23は、対応付けられる物体の仮の認識結果が異なる場合、それぞれの仮の認識結果を提示する。制御部23は、例えば、仮の認識結果を示す画像を表示装置16に表示することによって、仮の認識結果を使用者に提示してよい。制御部23は、画像の表示を行う構成においては、当該画像に相当する画像信号を生成し、表示装置16に送信するように、通信部20を制御する。制御部23は、例えば、音声による提示のように、画像の表示以外の方法によって仮の認識結果を提示してよい。制御部23は、仮の認識結果の提示において、信頼度が大きい順番に提示してよい。制御部23は、提示している仮の認識結果に対して、使用者による選択を入力部21が検出するとき、選択された仮の認識結果を、最終的な認識結果として確定してよい。
Furthermore, in the third method, when the temporary recognition results of the associated objects are different, the
例えば、制御部23は、第1部分画像imp1および第2部分画像imp2での間で対応付けられている物体に対して、それぞれの物体認識による仮の認識結果が「お茶」および「青汁」である場合、認識結果である「お茶」および「青汁」を提示する。第1部分画像imp1における仮の認識結果である「お茶」の信頼度が、第2部分画像imp2における仮の認識結果である「青汁」の信頼度より大きい場合、仮の認識結果は、「お茶」および「青汁」の順番で提示される。
For example, the
あるいは第3の方式において、制御部23は、対応付けられる物体の仮の認識結果が異なり、且つ少なくとも一方の仮の認識結果の信頼度が閾値を超える場合、信頼度の大きな仮の認識結果を当該物体の最終的な認識結果として確定する。例えば、制御部23は、第1部分画像imp1および第2部分画像imp2での間で対応付けられている物体に対して、それぞれの物体認識による仮の認識結果が「お茶」および「青汁」であり、それぞれの仮の認識結果の信頼度が閾値を超える場合、より信頼度の大きな仮の認識結果である「お茶」を、最終的な認識結果として確定する。
Alternatively, in the third method, if the provisional recognition results of the objects to be associated are different and the reliability of at least one of the provisional recognition results exceeds a threshold, the
第4の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれにおいて物体を検出する。制御部23は、第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される物体を対応付ける。制御部23は、対応付けられた物体が第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される部分を抽出する。制御部23は、第1部分画像imp1および第2部分画像imp2それぞれから抽出した部分を組合わせて物体認識を行う。制御部23は、第1部分画像imp1および第2部分画像imp2の部分的な組合わせに対する物体認識による物体の仮の認識結果を作成する。制御部23は、作成する仮の認識結果を最終的な認識結果として確定する。
In the fourth method, the
制御部23は、確定した最終的な認識結果を示す情報を、サーバ12に送信するように、通信部20を制御する。制御部23は、最終的な認識結果を示す情報の送信に対して、サーバ12から請求金額を示す情報を受信するとき、当該請求金額をユーザに提示する。制御部23は、例えば、当該請求金額の支払いを要求する画像を作成し、表示装置16に表示させることにより、ユーザに提示してよい。
The
サーバ12は、例えば、物理サーバ、またはクラウドサーバで構成されている。サーバ12は、情報処理システム10から送信される最終的な認識結果を示す情報に基づいて、当該情報処理システム10における載置台18に載置された物体を特定する。サーバ12は、データベースから当該物体の販売価格を読出すことにより当該情報処理システム10のユーザに対する請求金額を算出する。サーバ12は、当該請求金額を示す情報を情報処理システム10に送信する。
The
サーバ12は、情報処理システム10において物体認識に用いる、複数の特定の物体の画像、特徴量、表面に描画されている文字などの参照用データベースを有しており、当該参照用データベース内の参照用情報を情報処理システム10に送信してよい。
The
次に、本実施形態において制御部23が実行する、第1の方式による確定処理について、図5のフローチャートを用いて説明する。第1の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
Next, the confirmation process according to the first method executed by the
ステップS100において、制御部23は、受信する画像信号に相当する画像imを第1部分画像imp1および第2部分画像imp2に分割する。分割後、プロセスはステップS101に進む。
In step S100, the
ステップS101では、制御部23は、ステップS100において分割した第1部分画像imp1および第2部分画像imp2それぞれから、セグメンテーション領域を抽出する。抽出後、プロセスはステップS102に進む。
In step S101, the
ステップS102では、制御部23は、ステップS101において抽出したセグメンテーション領域に基づいて、第1部分画像imp1および第2部分画像imp2それぞれの容易度を算出する。算出後、プロセスはステップS103に進む。
In step S102, the
ステップS103では、制御部23は、第1部分画像imp1および第2部分画像imp2の中で、ステップS102において算出した容易度の高い一方の部分画像を選択する。選択後、プロセスはステップS104に進む。
In step S103, the
ステップS104では、制御部23は、ステップS103において選択した一方の部分画像に対して物体認識を行う。制御部23は、物体認識により仮認識される各物体の仮の認識結果の信頼度を算出する。物体認識後、プロセスはステップS105に進む。
In step S104, the
ステップS105では、制御部23は、ステップS104において認識した全物体それぞれに対する信頼度が閾値を超えているか否かを判別する。全物体それぞれに対する信頼度が閾値を超えている場合、プロセスはステップS106に進む。少なくとも一部の物体に対する信頼度が閾値を超えていない場合、プロセスはステップS107に進む。
In step S105, the
ステップS106では、制御部23は、ステップS104において仮認識された全物体の仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS109に進む。
In step S106, the
ステップS107では、制御部23は、ステップS103において選択された一方の部分画像に対する他方の部分画像に対して物体認識を行う。物体認識後、プロセスはステップS108に進む。
In step S107, the
ステップS108では、制御部23は、ステップS108において物体認識により仮認識された全物体の仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS109に進む。
In step S108, the
ステップS109では、制御部23は、ステップS106またはステップS108において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第1の方式による確定処理は終了する。
In step S109, the
次に、本実施形態において制御部23が実行する、第2の方式による確定処理について、図6のフローチャートを用いて説明する。第2の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
Next, the confirmation process according to the second method, which is executed by the
ステップS200からステップS206において、制御部23は、第1の方式による確定処理のステップS100からステップS106と同じ処理を行う。ステップS205において、少なくとも一部の物体に対する信頼度が閾値を超えていない場合に、プロセスはステップS207に進む。ステップS206において、確定後、プロセスはステップS210に進む。
In steps S200 to S206, the
ステップS207では、制御部23は、ステップS204において算出した信頼度が閾値より低い仮の認識結果である物体と、ステップS203において選択された一方の部分画像に対する他方の部分画像において認識される物体との対応付けを行う。対応付け後、プロセスはステップS208に進む。
In step S207, the
ステップS208では、制御部23は、ステップS207において対応付けられた物体に関して、ステップS203において選択された一方の部分画像に対する他方の部分画像に対する物体認識を行う。物体認識後、プロセスはステップS209に進む。
In step S208, the
ステップS209では、制御部23は、ステップS204において算出した信頼度が閾値より低い仮の認識結果を、当該仮の認識結果の物体に対する最終的な認識結果として確定する。制御部23は、ステップS204において算出した信頼度が閾値より低い仮の認識結果である物体に対しては、ステップS208における物体認識による仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS210に進む。
In step S209, the
ステップS210では、制御部23は、ステップS206またはステップS209において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第2の方式による確定処理は終了する。
In step S210, the
次に、本実施形態において制御部23が実行する、第3の方式による確定処理について、図7のフローチャートを用いて説明する。第3の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
Next, the determination processing by the third method executed by the
ステップS300において、制御部23は、受信する画像信号に相当する画像imを第1部分画像imp1および第2部分画像imp2に分割する。分割後、プロセスはステップS301に進む。
In step S300, the
ステップS301では、制御部23は、ステップS300において分割した第1部分画像imp1および第2部分画像imp2それぞれに対して物体認識を行う。物体認識後、プロセスはステップS302に進む。
In step S301, the
ステップS302では、制御部23は、ステップS301において物体認識により第1部分画像imp1および第2部分画像imp2それぞれで仮認識された各物体の対応付けを行う。対応付け後、プロセスはステップS303に進む。
In step S302, the
ステップS303では、制御部23は、ステップS302において対応付けられた全物体の中で、仮の認識結果が一致しているか否かを判別されていない物体を選択する。選択後、プロセスはステップS304に進む。
In step S303, the
ステップS304では、制御部23は、対応付けられている物体に関して、第1部分画像imp1および第2部分画像imp2それぞれに対する物体認識による仮の認識結果が一致しているか否かを判別する。一致する場合、プロセスはステップS305に進む。一致しない場合、プロセスはステップS306に進む。
In step S304, the
ステップS305では、制御部23は、ステップS303において選択した物体に対する、ステップS301の物体認識の仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS310に進む。
In step S305, the
ステップS306では、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに対する物体認識による仮の認識結果を、信頼度が高い順でユーザに提示する。提示後、プロセスはステップS307に進む。
In step S306, the
ステップS307では、制御部23は、提示した仮の認識結果のいずれかを選択するユーザ入力を検出しているか否かを判別する。検出されていない場合、プロセスはステップS307に戻る。検出されている場合、プロセスはステップS308に進む。
In step S307, the
ステップS308では、制御部23は、ステップS307において選択のユーザ入力が確認された仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS309に進む。
In step S308, the
ステップS309では、制御部23は、ステップS302において対応付けられている全物体に対して、仮の認識結果が一致しているかについての判別が行われているか否かを判別する。全物体に対して判別されていない場合、プロセスはステップS303に戻る。全物体に対して判別されている場合、プロセスはステップS310に進む。
In step S309, the
ステップS310では、制御部23は、ステップS305またはステップS308において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第3の方式による確定処理は終了する。
At step S310, the
次に、本実施形態において制御部23が実行する、第3の方式の変形例による確定処理について、図8のフローチャートを用いて説明する。第3の方式の変形例による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
Next, determination processing according to a modification of the third method, which is executed by the
ステップS400からステップS405において、制御部23は、第3の方式による確定処理のステップS300からステップS305と同じ処理を行う。ステップS304において、対応付けられている物体に関して、第1部分画像imp1および第2部分画像imp2それぞれに対する物体認識による仮の認識結果が一致する場合、プロセスはステップS406に進む。ステップS405において、確定後、プロセスはステップS412に進む。
In steps S400 to S405, the
ステップS406では、制御部23は、ステップS403において選択される物体に関する、第1部分画像imp1および第2部分画像imp2それぞれに対して行われた物体認識による仮の認識結果の信頼度の少なくとも一方が閾値を超えているか否かを判別する。超えている場合、プロセスはステップS407に進む。超えていない場合、プロセスはステップS408に進む。
In step S406, the
ステップS407では、制御部23は、ステップS403で選択される物体に対して、信頼度がより高い仮の認識結果を、最終的な認識結果として確定する。確定後、プロセスはステップS412に進む。
In step S407, the
ステップS408からステップS412において、制御部23は、第3の方式による確定処理のステップS306からステップS310と同じ処理を行う。ステップS412において、最終的な認識結果を示す情報の送信後、第3の方式の変形例による確定処理は終了する。
In steps S408 to S412, the
次に、本実施形態において制御部23が実行する、第4の方式による確定処理について、図9のフローチャートを用いて説明する。第4の方式の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
Next, the determination processing by the fourth method executed by the
ステップS500において、制御部23は、受信する画像信号に相当する画像imを第1部分画像imp1および第2部分画像imp2に分割する。分割後、プロセスはステップS501に進む。
In step S500, the
ステップS501では、制御部23は、ステップS500において分割した第1部分画像imp1および第2部分画像imp2それぞれに対して物体の検出を行う。物体検出後、プロセスはステップS502に進む。
In step S501, the
ステップS502では、制御部23は、ステップS501において第1部分画像imp1および第2部分画像imp2それぞれで検出された各物体の対応付けを行う。対応付け後、プロセスはステップS503に進む。
In step S502, the
ステップS503では、制御部23は、ステップS502において対応付けられた各物体の第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される部分を抽出する。制御部23は、対応付けられている物体に対して抽出した部分を組合わせて、物体認識を行う。物体認識後、プロセスはステップS504に進む。
In step S503, the
ステップS504では、制御部23は、ステップS503において行った物体認識による仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS505に進む。
In step S504, the
ステップS505では、制御部23は、ステップS504において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第4の方式による確定処理は終了する。
In step S505, the
以上のような構成の本実施形態の情報処理システム10は、カメラ14から受信する画像信号に相当する画像imの全領域における反射部15が占める領域における第1部分画像imp1と、当該領域以外の領域における第2部分画像imp2とに対して、物体認識を行う。このような構成により、情報処理システム10では、第1部分画像imp1および第2部分画像imp2では、それぞれ異なる方向から見た同じ物体の像が含まれ得る。したがって、情報処理システム10は、認識させる物体の姿勢を調整することなく、単一のカメラ14であっても、複数の方向から見た物体の像を用いて物体認識を行い得る。その結果、情報処理システム10は、簡潔な構成で物体の認識精度を向上させ得る。
The
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識を行い、当該物体認識による物体の仮の認識結果の信頼度を算出し、当該信頼度が閾値を超える場合、当該物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、認識結果の正確性を示す指標である信頼度に基づいて認識結果を確定しているので、物体の認識精度をさらに向上させ得る。
Further, the
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識による少なくとも一部の物体に対する信頼度が閾値以下である場合、他方において物体認識を行い、当該物体認識による全物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、認識精度の低い認識結果である場合に、異なる方向から見た物体の物体認識が行われるので、認識精度の高さを維持した物体認識を行い得る。
Further, in the
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識による物体に対する信頼度が閾値以下である場合、他方における当該物体を含む部分において物体認識を行い、当該物体認識により仮認識される当該物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、一方の部分画像の物体認識による認識結果が閾値以下の物体に対して、他方の部分画像を用いた物体認識が行われるので、認識精度をさらに向上させ得る。
Further, the
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2における物体認識の容易度を算出し、第1部分画像imp1および第2部分画像imp2の中で容易度が高い一方に対して先に物体認識を行う。このような構成により、情報処理システム10は、第1部分画像imp1および第2部分画像imp2の両者に対する物体認識を行う可能性を低減し、処理負荷の低減および処理の迅速化に貢献し得る。
Further, the
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2それぞれに対して物体認識を行い、第1部分画像imp1において仮認識される物体と第2部分画像imp2において仮認識される物体とを対応付け、対応付けられる物体のそれぞれの仮の認識結果が一致する場合に当該物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、物体の認識精度を一層向上させ得る。
Further, the
また、本実施形態の情報処理システム10は、対応付けられる物体のそれぞれの仮の認識結果が異なる場合、それぞれの仮の認識結果を提示する。仮の認識結果が異なる場合、それぞれの仮の認識結果は誤りである可能性がある。そこで、上述の構成により、情報処理システム10は、仮の認識結果が確定されていない物体、および当該物体の仮の認識結果を候補として、ユーザに報知し得る。
In addition, the
また、本実施形態の情報処理システム10は、それぞれの仮の認識結果に対するそれぞれの信頼度が大きな順番で、それぞれの仮の認識結果を提示する。このような構成により、情報処理システム10は、仮の認識結果が確定されていない物体をユーザに迅速に特定させ得る。
In addition, the
また、本実施形態の情報処理システム10は、対応付けられる物体のそれぞれの仮の認識結果が異なり且つ少なくとも一方の仮の認識結果の信頼度が閾値を超える場合、信頼度の大きな仮の認識結果を当該物体の認識結果として確定する。仮の認識結果が異なっている場合であっても、閾値を超えている仮の認識結果は正しい可能性が高い。そこで上述の構成により、情報処理システム10は、可能な限り、ユーザに操作を要請することなく、自動的に物体認識を実行し得る。
Further, in the
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2それぞれにおいて物体を検出し、第1部分画像imp1において検出される物体と第2部分画像imp2において検出される物体とを対応付け、対応付けられる物体が第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される部分を組合わせて物体認識を行い、当該物体認識による物体の仮の認識結果を確定する。認識対象である物体の複数の方向からの外観を用いる物体認識は、単一の方向からの外観を用いる物体認識より、一般的に認識精度は高い。したがって上述の構成により、情報処理システム10は、認識精度をさらに向上させ得る。
Further, the
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。 Although the present invention has been described with reference to the drawings and examples, it should be noted that various variations and modifications will be readily apparent to those skilled in the art based on this disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.
例えば、本実施形態では、情報処理システム10は、図5、6に示すように、第1の方式および第2の方式において、容易度の算出を行い、当該容易度に基づいて第1部分画像imp1および第2部分画像imp2の一方から物体認識を行う構成であるが、容易度の算出を行うことなく、予め定められている一方から物体認識を行ってよい。
For example, in the present embodiment, as shown in FIGS. 5 and 6, the
また、本実施形態では、情報処理システム10は、レジ端末に含まれる構成であるが、適用対象はレジ端末に限定されない。例えば、情報処理システム10は、倉庫などにおける在庫の確認、および不良品の検知などにおける物体認識に適用され得る。
Further, in the present embodiment, the
10 情報処理システム
11 精算システム
12 サーバ
13 ネットワーク
14 カメラ
15 反射部
16 ディスプレイ
17 情報処理装置
18 載置台
19 支持柱
20 通信部
21 入力部
22 記憶部
23 制御部
im 画像
imp1 第1部分画像
imp2 第2部分画像
rs 反射面
us 上面
REFERENCE SIGNS
Claims (12)
前記撮像部の撮像範囲内に配置され、前記撮像部の光軸に対して反射面が傾斜している反射部と、
前記画像の内の前記反射部が占める領域における第1部分画像と、前記画像の内の前記反射部以外の領域である第2部分画像とのそれぞれに対して物体認識を行い、前記第1部分画像に含まれる物体の第1認識結果と前記第2部分画像に含まれる物体の第2認識結果が異なる場合、前記第1認識結果及び前記第2認識結果を提示する情報処理装置と、を備える
情報処理システム。 an imaging unit that generates an image by imaging;
a reflecting unit arranged within an imaging range of the imaging unit and having a reflecting surface inclined with respect to an optical axis of the imaging unit ;
performing object recognition on each of a first partial image in an area occupied by the reflecting portion in the image and a second partial image in an area other than the reflecting portion in the image; an information processing device that presents the first recognition result and the second recognition result when a first recognition result of an object included in one partial image and a second recognition result of an object included in the second partial image are different; An information processing system.
前記情報処理装置は、前記第1部分画像および前記第2部分画像の一方に対して物体認識を行い、該物体認識による物体の仮の認識結果の信頼度を算出し、該信頼度が閾値を超える場合、該物体の仮の認識結果を確定する
情報処理システム。 In the information processing system according to claim 1,
The information processing device performs object recognition on one of the first partial image and the second partial image, calculates a reliability of a provisional recognition result of the object by the object recognition, and calculates the reliability of a provisional recognition result of the object by the object recognition, and the reliability exceeds a threshold. An information processing system that determines a provisional recognition result of the object if it exceeds.
前記情報処理装置は、前記物体認識による少なくとも一部の物体に対する前記信頼度が閾値以下である場合、他方において物体認識を行い、該物体認識による全物体の仮の認識結果を確定する
情報処理システム。 In the information processing system according to claim 2,
The information processing device performs object recognition on the other side when the reliability of at least a part of the objects obtained by the object recognition is equal to or less than a threshold value, and determines a provisional recognition result of all objects by the object recognition. Information processing system .
前記情報処理装置は、前記物体認識による物体に対する前記信頼度が閾値以下である場合、他方における該物体を含む部分において物体認識を行い、該物体認識により仮認識される該物体の仮の認識結果を確定する
情報処理システム。 In the information processing system according to claim 2,
The information processing device, when the reliability of the object obtained by the object recognition is equal to or less than a threshold value, performs object recognition on the other part including the object, and provides a temporary recognition result of the object temporarily recognized by the object recognition. Determine the information processing system.
情報処理装置は、前記第1部分画像および前記第2部分画像における物体認識の容易度を算出し、前記第1部分画像および前記第2部分画像の中で前記容易度が高い一方に対して先に物体認識を行う
情報処理システム。 In the information processing system according to any one of claims 2 to 4,
The information processing device calculates the easiness of object recognition in the first partial image and the second partial image, and determines which of the first partial image and the second partial image with the higher easiness is higher. An information processing system that performs object recognition on
前記情報処理装置は、前記第1部分画像および前記第2部分画像それぞれに対して物体認識を行い、前記第1部分画像において仮認識される物体と前記第2部分画像において仮認識される物体とを対応付け、対応付けられる物体のそれぞれの仮の認識結果が一致する場合に該物体の仮の認識結果を確定する
情報処理システム。 In the information processing system according to claim 1,
The information processing device performs object recognition on each of the first partial image and the second partial image, and recognizes an object provisionally recognized in the first partial image and an object provisionally recognized in the second partial image. and determining the provisional recognition result of the associated object when the provisional recognition result of each of the associated objects matches.
前記情報処理装置は、対応付けられる物体のそれぞれの仮の認識結果が異なる場合、前記それぞれの仮の認識結果を提示する
情報処理システム。 In the information processing system according to claim 6,
An information processing system, wherein the information processing device presents each of the provisional recognition results when the provisional recognition results of the associated objects are different.
前記情報処理装置は、前記それぞれの仮の認識結果に対するそれぞれの信頼度が大きな順番で、前記それぞれの仮の認識結果を提示する
情報処理システム。 In the information processing system according to claim 7,
The information processing system, wherein the information processing device presents the respective provisional recognition results in descending order of reliability of the respective provisional recognition results.
前記情報処理装置は、
前記第1部分画像および前記第2部分画像に対する物体認識による物体毎の仮の認識結果の信頼度を算出し、
対応付けられる物体のそれぞれの仮の認識結果が異なり且つ少なくとも一方の仮の認識結果の信頼度が閾値を超える場合、信頼度の大きな仮の認識結果を該物体の認識結果として確定する
情報処理システム。 In the information processing system according to any one of claims 6 to 8,
The information processing device is
calculating a reliability of a provisional recognition result for each object by object recognition for the first partial image and the second partial image;
When the respective provisional recognition results of objects to be associated are different and the reliability of at least one of the provisional recognition results exceeds a threshold, the provisional recognition result with a high degree of reliability is determined as the recognition result of the object. .
前記情報処理装置は、
前記第1部分画像および前記第2部分画像それぞれにおいて物体を検出し、前記第1部分画像において検出される物体と前記第2部分画像において検出される物体とを対応付け、対応付けられる物体が前記第1部分画像および前記第2部分画像それぞれにおいて検出される部分を組合わせて物体認識を行い、該物体認識による物体の仮の認識結果を確定する
情報処理システム。 In the information processing system according to claim 1,
The information processing device is
detecting an object in each of the first partial image and the second partial image; matching the object detected in the first partial image with the object detected in the second partial image; An information processing system that performs object recognition by combining parts detected in each of a first partial image and a second partial image, and determines a provisional recognition result of the object by the object recognition.
前記画像の内、前記反射部が占める領域における第1部分画像と、前記画像の内、前記反射部以外の領域である第2部分画像のそれぞれに対して物体認識を行い、前記第1部分画像に含まれる物体の第1認識結果と前記第2部分画像に含まれる物体の第2認識結果が異なる場合、前記第1認識結果及び前記第2認識結果を提示する制御部と、を備える
情報処理装置。 a communication unit that receives data of an image including a reflecting unit whose reflecting surface is inclined with respect to the optical axis of the imaging unit ;
object recognition is performed on each of a first partial image in the area occupied by the reflecting portion in the image and a second partial image in the image other than the reflecting portion; a control unit that presents the first recognition result and the second recognition result when the first recognition result of the object included in the image and the second recognition result of the object included in the second partial image are different. processing equipment.
撮像部の光軸に対して反射面が傾斜している反射部を含む画像を取得し、
前記画像の内、前記反射部が占める領域における第1部分画像と、前記画像の内、前記反射部以外の領域である第2部分画像のそれぞれに対して物体認識を行い、
前記第1部分画像に含まれる物体の第1認識結果と前記第2部分画像に含まれる物体の第2認識結果が異なる場合、前記第1認識結果及び前記第2認識結果を提示する
情報処理方法。 A computer-implemented information processing method comprising:
Acquiring an image including a reflecting part whose reflecting surface is inclined with respect to the optical axis of the imaging part,
performing object recognition on each of a first partial image in a region occupied by the reflecting portion in the image and a second partial image in the region other than the reflecting portion in the image ;
When the first recognition result of the object included in the first partial image and the second recognition result of the object included in the second partial image are different, the first recognition result and the second recognition result are presented.
Information processing methods.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019221131A JP7316203B2 (en) | 2019-12-06 | 2019-12-06 | Information processing system, information processing device, and information processing method |
US17/756,882 US20230013468A1 (en) | 2019-12-06 | 2020-12-04 | Information processing system, information processing device, and information processing method |
PCT/JP2020/045287 WO2021112234A1 (en) | 2019-12-06 | 2020-12-04 | Information processing system, information processing device, and information processing method |
CN202080084524.7A CN114766033A (en) | 2019-12-06 | 2020-12-04 | Information processing system, information processing apparatus, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019221131A JP7316203B2 (en) | 2019-12-06 | 2019-12-06 | Information processing system, information processing device, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021092826A JP2021092826A (en) | 2021-06-17 |
JP7316203B2 true JP7316203B2 (en) | 2023-07-27 |
Family
ID=76312398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019221131A Active JP7316203B2 (en) | 2019-12-06 | 2019-12-06 | Information processing system, information processing device, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7316203B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008210388A (en) | 2007-02-26 | 2008-09-11 | Fujitsu Ltd | Method, device, and program for identifying code |
JP2014146890A (en) | 2013-01-28 | 2014-08-14 | Glory Ltd | Imaging system and imaging method |
JP2015022624A (en) | 2013-07-22 | 2015-02-02 | キヤノン株式会社 | Information processing apparatus, control method thereof, computer program, and storage medium |
US20150178588A1 (en) | 2013-12-19 | 2015-06-25 | Robert Bosch Gmbh | Method and apparatus for recognizing object reflections |
JP2016018459A (en) | 2014-07-09 | 2016-02-01 | キヤノン株式会社 | Image processing system, control method therefore, program, and storage medium |
WO2016143067A1 (en) | 2015-03-10 | 2016-09-15 | 三菱電機株式会社 | Picture analysis device |
JP2018136803A (en) | 2017-02-23 | 2018-08-30 | 株式会社日立製作所 | Image recognition system |
JP2018181081A (en) | 2017-04-18 | 2018-11-15 | 日本電信電話株式会社 | Image recognition engine cooperation device and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11306280A (en) * | 1998-04-17 | 1999-11-05 | Mitsubishi Electric Corp | Image recognizing device |
-
2019
- 2019-12-06 JP JP2019221131A patent/JP7316203B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008210388A (en) | 2007-02-26 | 2008-09-11 | Fujitsu Ltd | Method, device, and program for identifying code |
JP2014146890A (en) | 2013-01-28 | 2014-08-14 | Glory Ltd | Imaging system and imaging method |
JP2015022624A (en) | 2013-07-22 | 2015-02-02 | キヤノン株式会社 | Information processing apparatus, control method thereof, computer program, and storage medium |
US20150178588A1 (en) | 2013-12-19 | 2015-06-25 | Robert Bosch Gmbh | Method and apparatus for recognizing object reflections |
JP2016018459A (en) | 2014-07-09 | 2016-02-01 | キヤノン株式会社 | Image processing system, control method therefore, program, and storage medium |
WO2016143067A1 (en) | 2015-03-10 | 2016-09-15 | 三菱電機株式会社 | Picture analysis device |
JP2018136803A (en) | 2017-02-23 | 2018-08-30 | 株式会社日立製作所 | Image recognition system |
JP2018181081A (en) | 2017-04-18 | 2018-11-15 | 日本電信電話株式会社 | Image recognition engine cooperation device and program |
Non-Patent Citations (2)
Title |
---|
岩田 彩見、外2名,"Horizon View Cameraの応用による汎用入力インターフェースの提案",電気学会論文誌C,日本,(社)電気学会,2006年01月01日,Vol.126, No.1,pp.44-50 |
岩田 彩見、外2名,"Horizon View Cameraの特性を生かした物体領域分割",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2003年09月01日,Vol.103, No.295,pp.37-42 |
Also Published As
Publication number | Publication date |
---|---|
JP2021092826A (en) | 2021-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10108830B2 (en) | Commodity recognition apparatus and commodity recognition method | |
US20180315065A1 (en) | Method and apparatus for extracting and processing price text from an image set | |
US20140126773A1 (en) | Commodity recognition apparatus and commodity recognition method | |
JP6651705B2 (en) | Information processing apparatus, information processing method, and program | |
US20140023241A1 (en) | Dictionary registration apparatus and method for adding feature amount data to recognition dictionary | |
US20140133704A1 (en) | Commodity recognition apparatus and commodity recognition method | |
JP6686290B2 (en) | System and method | |
US20140126772A1 (en) | Commodity recognition apparatus and commodity recognition method | |
US20180130225A1 (en) | Object recognition system and method of registering a new object | |
JP2009176209A (en) | Automatic adjustment device for restaurant | |
US20230037427A1 (en) | Identifying barcode-to-product mismatches using point of sale devices and overhead cameras | |
JP7384516B2 (en) | Information processing device, product recommendation method, program, and system | |
JP5240093B2 (en) | ID card shooting system, ID card shooting method and program | |
JP6651169B2 (en) | Display status judgment system | |
JP7316203B2 (en) | Information processing system, information processing device, and information processing method | |
WO2018151008A1 (en) | Image recognition system, image recognition method, and recording medium | |
JP7451320B2 (en) | Information processing system, information processing device, and information processing method | |
JP6878938B2 (en) | Image recognition devices, systems, methods and programs | |
JP7197208B2 (en) | Product recognition system, product recognition device, method and program | |
JP6569762B2 (en) | POS terminal device, POS system, image processing method and program | |
US20210012305A1 (en) | Settlement system, settlement method, and non-transitory storage medium | |
US20230013468A1 (en) | Information processing system, information processing device, and information processing method | |
WO2019181035A1 (en) | Registration system, registration method, and program | |
JP7377385B1 (en) | Image processing device, processing method, and processing program for images including beverage cans | |
JP7381330B2 (en) | Information processing system, information processing device, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7316203 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |