JP2021092826A - 情報処理システム、情報処理装置、および情報処理方法 - Google Patents

情報処理システム、情報処理装置、および情報処理方法 Download PDF

Info

Publication number
JP2021092826A
JP2021092826A JP2019221131A JP2019221131A JP2021092826A JP 2021092826 A JP2021092826 A JP 2021092826A JP 2019221131 A JP2019221131 A JP 2019221131A JP 2019221131 A JP2019221131 A JP 2019221131A JP 2021092826 A JP2021092826 A JP 2021092826A
Authority
JP
Japan
Prior art keywords
information processing
partial image
recognition
processing system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019221131A
Other languages
English (en)
Other versions
JP7316203B2 (ja
Inventor
暁艶 戴
Xiao Yan Dai
暁艶 戴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019221131A priority Critical patent/JP7316203B2/ja
Priority to PCT/JP2020/045287 priority patent/WO2021112234A1/ja
Priority to CN202080084524.7A priority patent/CN114766033A/zh
Priority to US17/756,882 priority patent/US20230013468A1/en
Publication of JP2021092826A publication Critical patent/JP2021092826A/ja
Application granted granted Critical
Publication of JP7316203B2 publication Critical patent/JP7316203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cash Registers Or Receiving Machines (AREA)
  • Image Analysis (AREA)

Abstract

【課題】簡潔な構成で物体の認識精度を向上させる。【解決手段】情報処理システム10はカメラ14と反射部15と情報処理装置17とを有する。カメラ14は撮像により画像信号を生成する。反射部15をカメラ14の撮像範囲内に配置する。反射部15の反射面rsがカメラ14の光軸に対して傾斜している。情報処理装置17は第1部分画像と第2部分画像とに対して物体認識を行う。第1部分画像は画像の全領域における反射部15が占める領域である。画像はカメラ14から受信する画像信号に相当する。第2部分画像は画像の全領域における反射部15が占める領域以外の領域である。【選択図】図2

Description

本発明は、情報処理システム、情報処理装置、および情報処理方法に関するものである。
被写体の姿勢を調整することなく特定の方向から撮像した画像に基づいて、任意の物体を認識することが求められている。例えば、商店などにおけるキャッシュレジスター端末において、商品認識エリア上の物体を撮像した画像に基づいて、当該物体がいずれの商品であるかを認識する情報処理システムが提案されている(特許文献1参照)。
特開2017−220198号公報
特許文献1に記載の情報処理システムでは、商品認識エリア上に置かれた物品の撮像に複数個の撮像部を用いており、構成が煩雑であった。
従って、上記のような従来技術の問題点に鑑みてなされた本開示の目的は、簡潔な構成で物体の認識精度を向上させた情報処理システム、情報処理装置、および情報処理方法を提供することにある。
上述した諸課題を解決すべく、第1の観点による情報処理システムは、
撮像により画像信号を生成するカメラと、
前記カメラの撮像範囲内に配置され、反射面が前記カメラの光軸に対して傾斜している反射部と、
前記カメラから受信する画像信号に相当する画像の全領域における前記反射部が占める領域における第1部分画像と、該領域以外の領域における第2部分画像とに対して、物体認識を行う情報処理装置と、を備える。
また、第2の観点による情報処理装置は、
反射面がカメラの光軸に対して傾斜している反射部を撮像範囲内に含む該カメラが撮像により生成する画像信号を受信する通信部と、
前記画像信号に相当する画像の全領域における前記反射部が占める領域における第1部分画像と、該領域以外の領域における第2部分画像を用いて、物体認識を行う制御部と、を備える。
また、第3の観点による情報処理方法は、
反射面がカメラの光軸に対して傾斜している反射部を撮像範囲内に含む該カメラに、撮像により画像信号を生成させ、
前記画像信号に相当する画像の全領域における前記反射部が占める領域における第1部分画像と、該領域以外の領域における第2部分画像を用いて、物体認識を行う。
上記のように構成された本開示に係る情報処理システム、情報処理装置、および情報処理方法によれば、簡潔な構成で物体の認識精度が向上する
本実施形態に係る情報処理システムを含む精算システムの全体構成を示す構成図である。 図1の情報処理システムの全体構成を示す構成図である。 図2の情報処理装置の概略構成を示す機能ブロック図である。 図2のカメラが撮像する画像における第1部分画像および第2部分画像の領域を説明するための図である。 図3の制御部が実行する第1の方式による確定処理を説明するためのフローチャートである。 図3の制御部が実行する第2の方式による確定処理を説明するためのフローチャートである。 図3の制御部が実行する第3の方式による確定処理を説明するためのフローチャートである。 図3の制御部が実行する第3の方式の変形例による確定処理を説明するためのフローチャートである。 図3の制御部が実行する第4の方式による確定処理を説明するためのフローチャートである。
以下、本開示を適用した情報処理システムの実施形態について、図面を参照して説明する。
図1に示すように、本開示の一実施形態に係る情報処理システム10を含む精算システム11は、少なくとも1つの情報処理システム10およびサーバ12を含んで構成されている。本実施形態では、精算システム11は、複数の情報処理システム10を含む。
本実施形態において、情報処理システム10はレジ端末に含まれている。情報処理システム10は、購入者がレジ端末に載置する商品を撮像する。情報処理システム10は、撮像による画像に対して物体認識を行い、画像中に含まれる物体が店舗におけるいずれの商品であるかを認識する。画像中の物体は、画像内に描画されている物体を意味する。情報処理システム10は、載置された全商品の認識結果を、ネットワーク13を介してサーバ12に通知する。サーバ12は認識結果に基づいて、請求金額を算出する。サーバ12は、請求金額を情報処理システム10に通知する。情報処理システム10は、購入者に請求金額を提示し、購入金額の支払いを要求する。
図2に示すように、情報処理システム10は、カメラ14、反射部15、および情報処理装置17を含んで構成される。また、情報処理システム10は、表示装置16、載置台18、および支持柱19を更に含んで構成されてもよい。
カメラ14は、載置台18の全範囲を撮像可能に固定されている。カメラ14は、例えば、載置台18の側面から延びる支持柱19に固定されている。カメラ14は、例えば、載置台18の上面us全面を撮像可能、かつ当該上面usに光軸が垂直になるように固定されている。カメラ14は、任意のフレームレートで連続的に撮像を行い、画像信号を生成する。
反射部15は、カメラ14の撮像範囲内の任意の位置に配置されている。反射部15は、例えば、撮像範囲内の中央および端部などのいずれの位置に配置されていてもよい。単一の反射部15が配置されてよく、複数の反射部15が配置されてよい。本実施形態において、単一の反射部15は、矩形の載置台18の1辺に沿うように配置された状態で固定されている。反射部15は、例えば、載置台18の長手方向と同じ長さで、底面が直角二等辺三角形の三角柱である。反射部15は、三角柱の2底面における頂点が載置台18の同じ長辺上に位置し、三角柱の側面が載置台18の上面usに対向するように配置されている。また、反射部15の大きさは、載置台18の大きさおよびカメラ14の撮像範囲に応じて適宜最適なものに設定されてよい。
反射部15では、反射面rsがカメラ14の光軸に対して傾斜している。本実施形態において、反射部15では、底面における底辺に相当する側面に、アルミニウム、銀、またはクロムなどの金属材料などを被着することにより反射面rsが形成されている。本実施形態において、反射面rsは平坦状であるが、球面状、非球面状、および円筒側面状であってよく、凸状または凹状であってよい。
表示装置16は、従来公知の任意のディスプレイである。表示装置16は、情報処理装置17から送信される画像信号に相当する画像を表示する。また、後述するように、表示装置16は、タッチスクリーンとして機能してよい。
図3に示すように、情報処理装置17は、通信部20、入力部21、記憶部22、および制御部23を含んで構成される。情報処理装置17は、本実施形態において、カメラ14、反射部15、および表示装置16とは別の装置として構成されているが、例えば、カメラ14、反射部15、載置台18、支持柱19、および表示装置16の少なくともいずれかと一体的に構成されてもよい。
通信部20は、例えば、有線または無線を含んで構成される通信線を介してカメラ14と通信する通信モジュールを含む。通信部20は、カメラ14から画像信号を受信する。通信部20は、通信線を介して表示装置16と通信する通信モジュールを含む。通信部20は、表示させる画像に相当する画像信号を表示装置16に向けて送信する。通信部20は、表示装置16から表示面において接触を検知した位置に相当する位置信号を受信してよい。通信部20は、ネットワーク13を介してサーバ12と通信する通信モジュールを含む。通信部20は、後述する、確定した認識結果に相当する結果情報をサーバ12に送信する。通信部20は、サーバ12から請求金額に相当する金額情報をサーバ12から受信してよい。
入力部21は、ユーザ入力を検出する1つ以上のインタフェースを含む。入力部21は、例えば、物理キー、静電容量キー、および表示装置16と一体的に設けられたタッチスクリーンを含んでよい。本実施形態においては、入力部21はタッチスクリーンである。
記憶部22は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスを含む。記憶部22は、制御部23を機能させる多様なプログラム、および制御部23が用いる多様な情報を記憶する。
制御部23は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field−Programmable Gate Array)を含んでよい。制御部23は、1つまたは複数のプロセッサが協働するSoC(System−on−a−Chip)、およびSiP(System In a Package)のいずれかであってもよい。
制御部23は、図4に示すように、カメラ14から受信する画像信号に相当する画像imを、第1部分画像imp1および第2部分画像imp2に分割する。第1部分画像imp1は、画像信号に相当する画像imの全領域における反射部15が占める領域の画像である。第2部分画像imp2は、当該画像の全領域における反射部15が占める領域以外の領域の画像である。
制御部23は、以下に説明するように、第1部分画像imp1および第2部分画像imp2に対して物体認識を行う。物体認識は、画像im中の物体が何であるかを把握し、認識結果を作成することを意味する。制御部23は、例えば、画像im内で物体を検出し、当該検出した物体が何であるかの認識結果を作成してよい。本実施形態において、物体の画像im内での検出とは、画像im内の物体の存在を位置とともに個別に把握することを意味する。または、制御部23は、例えば、画像im内で物体を検出することなく直接物体認識を行うことにより認識結果を作成してよい。制御部23は、物体認識により、例えば、載置台18に載置されることにより、カメラ14の撮像範囲内に位置する物体を認識する。
制御部23は、第1部分画像imp1および第2部分画像imp2に対して、例えば、バーコード検出、深層学習、パターンマッチング、および文字認識などの公知の認識方法によって、物体認識を行う。制御部23は、物体認識により画像im中の物体を仮認識するとともに、当該物体の仮の認識結果の信頼度を算出する。信頼度は、認識結果の正確性を示す指標である。
制御部23は、例えば、以下に説明する第1の方式から第4の方式の何れかによって、物体の認識を行ってよい。なお、載置台18に「おにぎり」と「ボトル入りのお茶」(以下において「お茶」と呼ぶ。)とが載置された状況に対して行われる物体認識を例として用いて、それぞれの方式による物体の認識を説明する。
第1の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識を行う。本実施形態では、制御部23は、第2部分画像imp2に対して物体認識を行う。制御部23は、物体認識により物体毎に仮認識して、認識結果を仮の認識結果として作成する。制御部23は、物体毎に付与される信頼度をそれぞれ閾値と比較する。制御部23は、物体毎に付与される信頼度が全て閾値を超える場合、第2部分画像imp2に対する物体認識による全物体に対するそれぞれの仮の認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の仮の認識結果が「おにぎり」および「お茶」であってそれぞれの信頼度が閾値を超える場合、仮の認識結果である「おにぎり」および「お茶」を、最終的な認識結果として確定する。
さらに第1の方式では、制御部23は、第2部分画像imp2に対する物体認識による少なくとも一部の物体に対する信頼度が閾値以下である場合、他方の部分画像である第1部分画像imp1に対して物体認識を行う。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の仮の認識結果が「おにぎり」および「青汁」であって一方の信頼度が閾値以下である場合、第1部分画像imp1に対して物体認識を行う。
さらに第1の方式では、制御部23は、第1部分画像imp1に対する物体認識による全物体の仮の認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第1部分画像imp1で認識される2つの物体の仮の認識結果である「おにぎり」および「お茶」を、最終的な認識結果として確定する。
第2の方式では、制御部23は、第1の方式と同じく、第1部分画像imp1および第2部分画像imp2の一方に対する物体認識、および全物体に対する信頼度の閾値との比較を行う。本実施形態では、制御部23は、全物体の中で信頼度が閾値を超える物体に対して、一方の部分画像である第2部分画像imp2に対する物体認識による当該物体に対する認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の中の1つの物体の仮の認識結果が「おにぎり」であって、信頼度が閾値を超える場合、当該物体の仮の認識結果である「おにぎり」を、最終的な認識結果として確定する。
さらに第2の方式では、制御部23は、第2部分画像imp2に対する物体認識による物体に対する信頼度が閾値以下である場合、第2部分画像imp2における当該物体と、第1部分画像imp1において認識される物体との対応付けを行う。制御部23は、例えば、第1部分画像imp1および第2部分画像imp2それぞれの特定の方向における同じ位置に位置する物体を同一の物体とみなして、対応付けてよい。制御部23は、対応付けられた物体に関して、他方の部分画像である第1部分画像imp1に対する物体認識を行う。例えば、制御部23は、第2部分画像imp2で認識される2つの物体の中の1つの物体の仮の認識結果が「青汁」であって、信頼度が閾値以下である場合、当該物体に対して第1部分画像imp1に対して物体認識を行う。
さらに第2の方式では、制御部23は、第1部分画像imp1に対する物体認識による当該物体の仮の認識結果を、最終的な認識結果として確定する。例えば、制御部23は、第2部分画像imp2に対する物体認識により「青汁」という仮の認識結果が作成された物体に対して、第1部分画像imp1に対する物体認識による仮の認識結果である「お茶」を、最終的な認識結果として確定する。
上述の第1の方式および第2の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2のいずれを先に物体認識を行うかを、容易度に基づいて決定してよい。容易度は、物体認識される画像に対する、正確な認識結果を作成できる容易性を数値化して示す。
制御部23は、容易度の算出のための、例えば、第1部分画像imp1および第2部分画像imp2それぞれにセグメンテーションを行い、第1部分画像imp1および第2部分画像imp2それぞれにおいてセグメンテーション領域を抽出する。セグメンテーション領域は、単一の物体とみなされる像が形成されている領域である。制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに対して抽出するセグメンテーション領域の数を、容易度として算出してよい。セグメンテーション領域の数は、第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される物体の数と同等である。または、制御部23は、第1部分画像imp1の大きさに対するセグメンテーション領域合計の大きさ、および第2部分画像imp2の大きさに対するセグメンテーション領域合計の大きさを、容易度として算出してよい。または、制御部23は、第1部分画像imp1のセグメンテーション領域合計の大きさ、および第2部分画像imp2のセグメンテーション領域合計の大きさを、容易度として算出してよい。
制御部23は、第1部分画像imp1および第2部分画像imp2の中で、算出した容易度が高い一方に対して、物体認識を行わせてよい。
第3の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに対して物体認識を行う。制御部23は、第1部分画像imp1において仮認識される物体と、第2部分画像imp2において仮認識される物体とを対応付ける。制御部23は、例えば、第1部分画像imp1および第2部分画像imp2それぞれの特定の方向における同じ位置に位置する物体を同一の物体とみなして、対応付けてよい。また、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに位置する物体のエッジを含む形状が同一である物体を同一の物体とみなして、対応付けてよい。制御部23は、対応付けられる物体のそれぞれの仮の認識結果が一致する場合、当該物体の仮の認識結果を、最終的な認識結果として確定する。
さらに第3の方式では、制御部23は、対応付けられる物体の仮の認識結果が異なる場合、それぞれの仮の認識結果を提示する。制御部23は、例えば、仮の認識結果を示す画像を表示装置16に表示することによって、仮の認識結果を使用者に提示してよい。制御部23は、画像の表示を行う構成においては、当該画像に相当する画像信号を生成し、表示装置16に送信するように、通信部20を制御する。制御部23は、例えば、音声による提示のように、画像の表示以外の方法によって仮の認識結果を提示してよい。制御部23は、仮の認識結果の提示において、信頼度が大きい順番に提示してよい。制御部23は、提示している仮の認識結果に対して、使用者による選択を入力部21が検出するとき、選択された仮の認識結果を、最終的な認識結果として確定してよい。
例えば、制御部23は、第1部分画像imp1および第2部分画像imp2での間で対応付けられている物体に対して、それぞれの物体認識による仮の認識結果が「お茶」および「青汁」である場合、認識結果である「お茶」および「青汁」を提示する。第1部分画像imp1における仮の認識結果である「お茶」の信頼度が、第2部分画像imp2における仮の認識結果である「青汁」の信頼度より大きい場合、仮の認識結果は、「お茶」および「青汁」の順番で提示される。
あるいは第3の方式において、制御部23は、対応付けられる物体の仮の認識結果が異なり、且つ少なくとも一方の仮の認識結果の信頼度が閾値を超える場合、信頼度の大きな仮の認識結果を当該物体の最終的な認識結果として確定する。例えば、制御部23は、第1部分画像imp1および第2部分画像imp2での間で対応付けられている物体に対して、それぞれの物体認識による仮の認識結果が「お茶」および「青汁」であり、それぞれの仮の認識結果の信頼度が閾値を超える場合、より信頼度の大きな仮の認識結果である「お茶」を、最終的な認識結果として確定する。
第4の方式では、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれにおいて物体を検出する。制御部23は、第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される物体を対応付ける。制御部23は、対応付けられた物体が第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される部分を抽出する。制御部23は、第1部分画像imp1および第2部分画像imp2それぞれから抽出した部分を組合わせて物体認識を行う。制御部23は、第1部分画像imp1および第2部分画像imp2の部分的な組合わせに対する物体認識による物体の仮の認識結果を作成する。制御部23は、作成する仮の認識結果を最終的な認識結果として確定する。
制御部23は、確定した最終的な認識結果を示す情報を、サーバ12に送信するように、通信部20を制御する。制御部23は、最終的な認識結果を示す情報の送信に対して、サーバ12から請求金額を示す情報を受信するとき、当該請求金額をユーザに提示する。制御部23は、例えば、当該請求金額の支払いを要求する画像を作成し、表示装置16に表示させることにより、ユーザに提示してよい。
サーバ12は、例えば、物理サーバ、またはクラウドサーバで構成されている。サーバ12は、情報処理システム10から送信される最終的な認識結果を示す情報に基づいて、当該情報処理システム10における載置台18に載置された物体を特定する。サーバ12は、データベースから当該物体の販売価格を読出すことにより当該情報処理システム10のユーザに対する請求金額を算出する。サーバ12は、当該請求金額を示す情報を情報処理システム10に送信する。
サーバ12は、情報処理システム10において物体認識に用いる、複数の特定の物体の画像、特徴量、表面に描画されている文字などの参照用データベースを有しており、当該参照用データベース内の参照用情報を情報処理システム10に送信してよい。
次に、本実施形態において制御部23が実行する、第1の方式による確定処理について、図5のフローチャートを用いて説明する。第1の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
ステップS100において、制御部23は、受信する画像信号に相当する画像imを第1部分画像imp1および第2部分画像imp2に分割する。分割後、プロセスはステップS101に進む。
ステップS101では、制御部23は、ステップS100において分割した第1部分画像imp1および第2部分画像imp2それぞれから、セグメンテーション領域を抽出する。抽出後、プロセスはステップS102に進む。
ステップS102では、制御部23は、ステップS101において抽出したセグメンテーション領域に基づいて、第1部分画像imp1および第2部分画像imp2それぞれの容易度を算出する。算出後、プロセスはステップS103に進む。
ステップS103では、制御部23は、第1部分画像imp1および第2部分画像imp2の中で、ステップS102において算出した容易度の高い一方の部分画像を選択する。選択後、プロセスはステップS104に進む。
ステップS104では、制御部23は、ステップS103において選択した一方の部分画像に対して物体認識を行う。制御部23は、物体認識により仮認識される各物体の仮の認識結果の信頼度を算出する。物体認識後、プロセスはステップS105に進む。
ステップS105では、制御部23は、ステップS104において認識した全物体それぞれに対する信頼度が閾値を超えているか否かを判別する。全物体それぞれに対する信頼度が閾値を超えている場合、プロセスはステップS106に進む。少なくとも一部の物体に対する信頼度が閾値を超えていない場合、プロセスはステップS107に進む。
ステップS106では、制御部23は、ステップS104において仮認識された全物体の仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS109に進む。
ステップS107では、制御部23は、ステップS103において選択された一方の部分画像に対する他方の部分画像に対して物体認識を行う。物体認識後、プロセスはステップS108に進む。
ステップS108では、制御部23は、ステップS108において物体認識により仮認識された全物体の仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS109に進む。
ステップS109では、制御部23は、ステップS106またはステップS108において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第1の方式による確定処理は終了する。
次に、本実施形態において制御部23が実行する、第2の方式による確定処理について、図6のフローチャートを用いて説明する。第2の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
ステップS200からステップS206において、制御部23は、第1の方式による確定処理のステップS100からステップS106と同じ処理を行う。ステップS205において、少なくとも一部の物体に対する信頼度が閾値を超えていない場合に、プロセスはステップS207に進む。ステップS206において、確定後、プロセスはステップS210に進む。
ステップS207では、制御部23は、ステップS204において算出した信頼度が閾値より低い仮の認識結果である物体と、ステップS203において選択された一方の部分画像に対する他方の部分画像において認識される物体との対応付けを行う。対応付け後、プロセスはステップS208に進む。
ステップS208では、制御部23は、ステップS207において対応付けられた物体に関して、ステップS203において選択された一方の部分画像に対する他方の部分画像に対する物体認識を行う。物体認識後、プロセスはステップS209に進む。
ステップS209では、制御部23は、ステップS204において算出した信頼度が閾値より低い仮の認識結果を、当該仮の認識結果の物体に対する最終的な認識結果として確定する。制御部23は、ステップS204において算出した信頼度が閾値より低い仮の認識結果である物体に対しては、ステップS208における物体認識による仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS210に進む。
ステップS210では、制御部23は、ステップS206またはステップS209において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第2の方式による確定処理は終了する。
次に、本実施形態において制御部23が実行する、第3の方式による確定処理について、図7のフローチャートを用いて説明する。第3の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
ステップS300において、制御部23は、受信する画像信号に相当する画像imを第1部分画像imp1および第2部分画像imp2に分割する。分割後、プロセスはステップS301に進む。
ステップS301では、制御部23は、ステップS300において分割した第1部分画像imp1および第2部分画像imp2それぞれに対して物体認識を行う。物体認識後、プロセスはステップS302に進む。
ステップS302では、制御部23は、ステップS301において物体認識により第1部分画像imp1および第2部分画像imp2それぞれで仮認識された各物体の対応付けを行う。対応付け後、プロセスはステップS303に進む。
ステップS303では、制御部23は、ステップS302において対応付けられた全物体の中で、仮の認識結果が一致しているか否かを判別されていない物体を選択する。選択後、プロセスはステップS304に進む。
ステップS304では、制御部23は、対応付けられている物体に関して、第1部分画像imp1および第2部分画像imp2それぞれに対する物体認識による仮の認識結果が一致しているか否かを判別する。一致する場合、プロセスはステップS305に進む。一致しない場合、プロセスはステップS306に進む。
ステップS305では、制御部23は、ステップS303において選択した物体に対する、ステップS301の物体認識の仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS310に進む。
ステップS306では、制御部23は、第1部分画像imp1および第2部分画像imp2それぞれに対する物体認識による仮の認識結果を、信頼度が高い順でユーザに提示する。提示後、プロセスはステップS307に進む。
ステップS307では、制御部23は、提示した仮の認識結果のいずれかを選択するユーザ入力を検出しているか否かを判別する。検出されていない場合、プロセスはステップS307に戻る。検出されている場合、プロセスはステップS308に進む。
ステップS308では、制御部23は、ステップS307において選択のユーザ入力が確認された仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS309に進む。
ステップS309では、制御部23は、ステップS302において対応付けられている全物体に対して、仮の認識結果が一致しているかについての判別が行われているか否かを判別する。全物体に対して判別されていない場合、プロセスはステップS303に戻る。全物体に対して判別されている場合、プロセスはステップS310に進む。
ステップS310では、制御部23は、ステップS305またはステップS308において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第3の方式による確定処理は終了する。
次に、本実施形態において制御部23が実行する、第3の方式の変形例による確定処理について、図8のフローチャートを用いて説明する。第3の方式の変形例による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
ステップS400からステップS405において、制御部23は、第3の方式による確定処理のステップS300からステップS305と同じ処理を行う。ステップS304において、対応付けられている物体に関して、第1部分画像imp1および第2部分画像imp2それぞれに対する物体認識による仮の認識結果が一致する場合、プロセスはステップS406に進む。ステップS405において、確定後、プロセスはステップS412に進む。
ステップS406では、制御部23は、ステップS403において選択される物体に関する、第1部分画像imp1および第2部分画像imp2それぞれに対して行われた物体認識による仮の認識結果の信頼度の少なくとも一方が閾値を超えているか否かを判別する。超えている場合、プロセスはステップS407に進む。超えていない場合、プロセスはステップS408に進む。
ステップS407では、制御部23は、ステップS403で選択される物体に対して、信頼度がより高い仮の認識結果を、最終的な認識結果として確定する。確定後、プロセスはステップS412に進む。
ステップS408からステップS412において、制御部23は、第3の方式による確定処理のステップS306からステップS310と同じ処理を行う。ステップS412において、最終的な認識結果を示す情報の送信後、第3の方式の変形例による確定処理は終了する。
次に、本実施形態において制御部23が実行する、第4の方式による確定処理について、図9のフローチャートを用いて説明する。第4の方式の方式による確定処理は、カメラ14から1フレームの画像信号を受信するたびに開始する。
ステップS500において、制御部23は、受信する画像信号に相当する画像imを第1部分画像imp1および第2部分画像imp2に分割する。分割後、プロセスはステップS501に進む。
ステップS501では、制御部23は、ステップS500において分割した第1部分画像imp1および第2部分画像imp2それぞれに対して物体の検出を行う。物体検出後、プロセスはステップS502に進む。
ステップS502では、制御部23は、ステップS501において第1部分画像imp1および第2部分画像imp2それぞれで検出された各物体の対応付けを行う。対応付け後、プロセスはステップS503に進む。
ステップS503では、制御部23は、ステップS502において対応付けられた各物体の第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される部分を抽出する。制御部23は、対応付けられている物体に対して抽出した部分を組合わせて、物体認識を行う。物体認識後、プロセスはステップS504に進む。
ステップS504では、制御部23は、ステップS503において行った物体認識による仮の認識結果を最終的な認識結果として確定する。確定後、プロセスはステップS505に進む。
ステップS505では、制御部23は、ステップS504において確定した最終的な認識結果を示す情報をサーバ12に送信するように、通信部20を制御する。送信後、第4の方式による確定処理は終了する。
以上のような構成の本実施形態の情報処理システム10は、カメラ14から受信する画像信号に相当する画像imの全領域における反射部15が占める領域における第1部分画像imp1と、当該領域以外の領域における第2部分画像imp2とに対して、物体認識を行う。このような構成により、情報処理システム10では、第1部分画像imp1および第2部分画像imp2では、それぞれ異なる方向から見た同じ物体の像が含まれ得る。したがって、情報処理システム10は、認識させる物体の姿勢を調整することなく、単一のカメラ14であっても、複数の方向から見た物体の像を用いて物体認識を行い得る。その結果、情報処理システム10は、簡潔な構成で物体の認識精度を向上させ得る。
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識を行い、当該物体認識による物体の仮の認識結果の信頼度を算出し、当該信頼度が閾値を超える場合、当該物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、認識結果の正確性を示す指標である信頼度に基づいて認識結果を確定しているので、物体の認識精度をさらに向上させ得る。
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識による少なくとも一部の物体に対する信頼度が閾値以下である場合、他方において物体認識を行い、当該物体認識による全物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、認識精度の低い認識結果である場合に、異なる方向から見た物体の物体認識が行われるので、認識精度の高さを維持した物体認識を行い得る。
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2の一方に対して物体認識による物体に対する信頼度が閾値以下である場合、他方における当該物体を含む部分において物体認識を行い、当該物体認識により仮認識される当該物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、一方の部分画像の物体認識による認識結果が閾値以下の物体に対して、他方の部分画像を用いた物体認識が行われるので、認識精度をさらに向上させ得る。
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2における物体認識の容易度を算出し、第1部分画像imp1および第2部分画像imp2の中で容易度が高い一方に対して先に物体認識を行う。このような構成により、情報処理システム10は、第1部分画像imp1および第2部分画像imp2の両者に対する物体認識を行う可能性を低減し、処理負荷の低減および処理の迅速化に貢献し得る。
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2それぞれに対して物体認識を行い、第1部分画像imp1において仮認識される物体と第2部分画像imp2において仮認識される物体とを対応付け、対応付けられる物体のそれぞれの仮の認識結果が一致する場合に当該物体の仮の認識結果を確定する。このような構成により、情報処理システム10は、物体の認識精度を一層向上させ得る。
また、本実施形態の情報処理システム10は、対応付けられる物体のそれぞれの仮の認識結果が異なる場合、それぞれの仮の認識結果を提示する。仮の認識結果が異なる場合、それぞれの仮の認識結果は誤りである可能性がある。そこで、上述の構成により、情報処理システム10は、仮の認識結果が確定されていない物体、および当該物体の仮の認識結果を候補として、ユーザに報知し得る。
また、本実施形態の情報処理システム10は、それぞれの仮の認識結果に対するそれぞれの信頼度が大きな順番で、それぞれの仮の認識結果を提示する。このような構成により、情報処理システム10は、仮の認識結果が確定されていない物体をユーザに迅速に特定させ得る。
また、本実施形態の情報処理システム10は、対応付けられる物体のそれぞれの仮の認識結果が異なり且つ少なくとも一方の仮の認識結果の信頼度が閾値を超える場合、信頼度の大きな仮の認識結果を当該物体の認識結果として確定する。仮の認識結果が異なっている場合であっても、閾値を超えている仮の認識結果は正しい可能性が高い。そこで上述の構成により、情報処理システム10は、可能な限り、ユーザに操作を要請することなく、自動的に物体認識を実行し得る。
また、本実施形態の情報処理システム10は、第1部分画像imp1および第2部分画像imp2それぞれにおいて物体を検出し、第1部分画像imp1において検出される物体と第2部分画像imp2において検出される物体とを対応付け、対応付けられる物体が第1部分画像imp1および第2部分画像imp2それぞれにおいて検出される部分を組合わせて物体認識を行い、当該物体認識による物体の仮の認識結果を確定する。認識対象である物体の複数の方向からの外観を用いる物体認識は、単一の方向からの外観を用いる物体認識より、一般的に認識精度は高い。したがって上述の構成により、情報処理システム10は、認識精度をさらに向上させ得る。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
例えば、本実施形態では、情報処理システム10は、図5、6に示すように、第1の方式および第2の方式において、容易度の算出を行い、当該容易度に基づいて第1部分画像imp1および第2部分画像imp2の一方から物体認識を行う構成であるが、容易度の算出を行うことなく、予め定められている一方から物体認識を行ってよい。
また、本実施形態では、情報処理システム10は、レジ端末に含まれる構成であるが、適用対象はレジ端末に限定されない。例えば、情報処理システム10は、倉庫などにおける在庫の確認、および不良品の検知などにおける物体認識に適用され得る。
10 情報処理システム
11 精算システム
12 サーバ
13 ネットワーク
14 カメラ
15 反射部
16 ディスプレイ
17 情報処理装置
18 載置台
19 支持柱
20 通信部
21 入力部
22 記憶部
23 制御部
im 画像
imp1 第1部分画像
imp2 第2部分画像
rs 反射面
us 上面

Claims (12)

  1. 撮像により画像信号を生成するカメラと、
    前記カメラの撮像範囲内に配置され、反射面が前記カメラの光軸に対して傾斜している反射部と、
    前記カメラから受信する画像信号に相当する画像の全領域における前記反射部が占める領域における第1部分画像と、該領域以外の領域における第2部分画像とに対して、物体認識を行う情報処理装置と、を備える
    情報処理システム。
  2. 請求項1に記載の情報処理システムにおいて、
    前記情報処理装置は、前記第1部分画像および前記第2部分画像の一方に対して物体認識を行い、該物体認識による物体の仮の認識結果の信頼度を算出し、該信頼度が閾値を超える場合、該物体の仮の認識結果を確定する
    情報処理システム。
  3. 請求項2に記載の情報処理システムにおいて、
    前記情報処理装置は、前記物体認識による少なくとも一部の物体に対する前記信頼度が閾値以下である場合、他方において物体認識を行い、該物体認識による全物体の仮の認識結果を確定する
    情報処理システム。
  4. 請求項2に記載の情報処理システムにおいて、
    前記情報処理装置は、前記物体認識による物体に対する前記信頼度が閾値以下である場合、他方における該物体を含む部分において物体認識を行い、該物体認識により仮認識される該物体の仮の認識結果を確定する
    情報処理システム。
  5. 請求項2から4のいずれか1項に記載の情報処理システムにおいて、
    情報処理装置は、前記第1部分画像および前記第2部分画像における物体認識の容易度を算出し、前記第1部分画像および前記第2部分画像の中で前記容易度が高い一方に対して先に物体認識を行う
    情報処理システム。
  6. 請求項1に記載の情報処理システムにおいて、
    前記情報処理装置は、前記第1部分画像および前記第2部分画像それぞれに対して物体認識を行い、前記第1部分画像において仮認識される物体と前記第2部分画像において仮認識される物体とを対応付け、対応付けられる物体のそれぞれの仮の認識結果が一致する場合に該物体の仮の認識結果を確定する
    情報処理システム。
  7. 請求項6に記載の情報処理システムにおいて、
    前記情報処理装置は、対応付けられる物体のそれぞれの仮の認識結果が異なる場合、前記それぞれの仮の認識結果を提示する
    情報処理システム。
  8. 請求項7に記載の情報処理システムにおいて、
    前記情報処理装置は、前記それぞれの仮の認識結果に対するそれぞれの信頼度が大きな順番で、前記それぞれの仮の認識結果を提示する
    情報処理システム。
  9. 請求項6から8のいずれか1項に記載の情報処理システムにおいて、
    前記情報処理装置は、
    前記第1部分画像および前記第2部分画像に対する物体認識による物体毎の仮の認識結果の信頼度を算出し、
    対応付けられる物体のそれぞれの仮の認識結果が異なり且つ少なくとも一方の仮の認識結果の信頼度が閾値を超える場合、信頼度の大きな仮の認識結果を該物体の認識結果として確定する
    情報処理システム。
  10. 請求項1に記載の情報処理システムにおいて、
    前記情報処理装置は、
    前記第1部分画像および前記第2部分画像それぞれにおいて物体を検出し、前記第1部分画像において検出される物体と前記第2部分画像において検出される物体とを対応付け、対応付けられる物体が前記第1部分画像および前記第2部分画像それぞれにおいて検出される部分を組合わせて物体認識を行い、該物体認識による物体の仮の認識結果を確定する
    情報処理システム。
  11. 反射面がカメラの光軸に対して傾斜している反射部を撮像範囲内に含む該カメラが撮像により生成する画像信号を受信する通信部と、
    前記画像信号に相当する画像の全領域における前記反射部が占める領域における第1部分画像と、該領域以外の領域における第2部分画像を用いて、物体認識を行う制御部と、を備える
    情報処理装置。
  12. 反射面がカメラの光軸に対して傾斜している反射部を撮像範囲内に含む該カメラに、撮像により画像信号を生成させ、
    前記画像信号に相当する画像の全領域における前記反射部が占める領域における第1部分画像と、該領域以外の領域における第2部分画像を用いて、物体認識を行う
    情報処理方法。
JP2019221131A 2019-12-06 2019-12-06 情報処理システム、情報処理装置、および情報処理方法 Active JP7316203B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019221131A JP7316203B2 (ja) 2019-12-06 2019-12-06 情報処理システム、情報処理装置、および情報処理方法
PCT/JP2020/045287 WO2021112234A1 (ja) 2019-12-06 2020-12-04 情報処理システム、情報処理装置及び情報処理方法
CN202080084524.7A CN114766033A (zh) 2019-12-06 2020-12-04 信息处理系统、信息处理装置和信息处理方法
US17/756,882 US20230013468A1 (en) 2019-12-06 2020-12-04 Information processing system, information processing device, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019221131A JP7316203B2 (ja) 2019-12-06 2019-12-06 情報処理システム、情報処理装置、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2021092826A true JP2021092826A (ja) 2021-06-17
JP7316203B2 JP7316203B2 (ja) 2023-07-27

Family

ID=76312398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221131A Active JP7316203B2 (ja) 2019-12-06 2019-12-06 情報処理システム、情報処理装置、および情報処理方法

Country Status (1)

Country Link
JP (1) JP7316203B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306280A (ja) * 1998-04-17 1999-11-05 Mitsubishi Electric Corp 画像認識装置
JP2008210388A (ja) * 2007-02-26 2008-09-11 Fujitsu Ltd コードを識別する方法、装置及びプログラム
JP2014146890A (ja) * 2013-01-28 2014-08-14 Glory Ltd 撮像システム及び撮像方法
JP2015022624A (ja) * 2013-07-22 2015-02-02 キヤノン株式会社 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
US20150178588A1 (en) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Method and apparatus for recognizing object reflections
JP2016018459A (ja) * 2014-07-09 2016-02-01 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
WO2016143067A1 (ja) * 2015-03-10 2016-09-15 三菱電機株式会社 映像解析装置
JP2018136803A (ja) * 2017-02-23 2018-08-30 株式会社日立製作所 画像認識システム
JP2018181081A (ja) * 2017-04-18 2018-11-15 日本電信電話株式会社 画像認識エンジン連携装置およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306280A (ja) * 1998-04-17 1999-11-05 Mitsubishi Electric Corp 画像認識装置
JP2008210388A (ja) * 2007-02-26 2008-09-11 Fujitsu Ltd コードを識別する方法、装置及びプログラム
JP2014146890A (ja) * 2013-01-28 2014-08-14 Glory Ltd 撮像システム及び撮像方法
JP2015022624A (ja) * 2013-07-22 2015-02-02 キヤノン株式会社 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
US20150178588A1 (en) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Method and apparatus for recognizing object reflections
JP2016018459A (ja) * 2014-07-09 2016-02-01 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
WO2016143067A1 (ja) * 2015-03-10 2016-09-15 三菱電機株式会社 映像解析装置
JP2018136803A (ja) * 2017-02-23 2018-08-30 株式会社日立製作所 画像認識システム
JP2018181081A (ja) * 2017-04-18 2018-11-15 日本電信電話株式会社 画像認識エンジン連携装置およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岩田 彩見、外2名: ""Horizon View Cameraの応用による汎用入力インターフェースの提案"", 電気学会論文誌C, vol. 126, no. 1, JPN6023014837, 1 January 2006 (2006-01-01), JP, pages 44 - 50, ISSN: 0005038403 *
岩田 彩見、外2名: ""Horizon View Cameraの特性を生かした物体領域分割"", 電子情報通信学会技術研究報告, vol. 103, no. 295, JPN6023014839, 1 September 2003 (2003-09-01), JP, pages 37 - 42, ISSN: 0005091507 *

Also Published As

Publication number Publication date
JP7316203B2 (ja) 2023-07-27

Similar Documents

Publication Publication Date Title
KR102454854B1 (ko) 영상 모니터링에 기반하는 물품 감지 시스템 및 물품 감지 방법
US11151427B2 (en) Method and apparatus for checkout based on image identification technique of convolutional neural network
CN111626681B (zh) 一种用于库存管理的图像识别系统
CN107103503B (zh) 一种订单信息确定方法和装置
RU2739542C1 (ru) Система автоматической регистрации для торговой точки
US10503961B2 (en) Object recognition for bottom of basket detection using neural network
CN112464697B (zh) 基于视觉和重力感应的商品与顾客的匹配方法和装置
US20140133704A1 (en) Commodity recognition apparatus and commodity recognition method
US11134798B1 (en) Vision-based frictionless self-checkouts for small baskets
JP2009176209A (ja) 食堂用自動精算装置
US20230037427A1 (en) Identifying barcode-to-product mismatches using point of sale devices and overhead cameras
JP5240093B2 (ja) 身分証明書撮影システム、身分証明書撮影方法およびプログラム
RU2724797C1 (ru) Кассовая система и способ для идентификации блюд на подносе
US11562338B2 (en) Automated point of sale systems and methods
JP7316203B2 (ja) 情報処理システム、情報処理装置、および情報処理方法
JP7451320B2 (ja) 情報処理システム、情報処理装置、及び、情報処理方法
CN111222388A (zh) 基于视觉识别的结算方法和系统
JP6569762B2 (ja) Pos端末装置、posシステム、画像処理方法及びプログラム
WO2021112234A1 (ja) 情報処理システム、情報処理装置及び情報処理方法
CN110738504A (zh) 一种信息处理方法及相关设备
JP7381330B2 (ja) 情報処理システム、情報処理装置及び情報処理方法
RU2809136C2 (ru) Система определения стоимости весового товара
CN115309270A (zh) 商品信息的处理方法、装置、设备及介质
CN112347940A (zh) 一种基于消费者人脸识别的数据方法
JP2023170655A (ja) 情報処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230714

R150 Certificate of patent or registration of utility model

Ref document number: 7316203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150