JP2022039553A - Information processing system, information processing apparatus, and information processing method - Google Patents

Information processing system, information processing apparatus, and information processing method Download PDF

Info

Publication number
JP2022039553A
JP2022039553A JP2020144647A JP2020144647A JP2022039553A JP 2022039553 A JP2022039553 A JP 2022039553A JP 2020144647 A JP2020144647 A JP 2020144647A JP 2020144647 A JP2020144647 A JP 2020144647A JP 2022039553 A JP2022039553 A JP 2022039553A
Authority
JP
Japan
Prior art keywords
unit
image pickup
image
information processing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020144647A
Other languages
Japanese (ja)
Inventor
俊 菅原
Takashi Sugawara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020144647A priority Critical patent/JP2022039553A/en
Priority to US18/042,983 priority patent/US20230316757A1/en
Priority to CN202180053029.4A priority patent/CN115989532A/en
Priority to PCT/JP2021/030874 priority patent/WO2022045085A1/en
Publication of JP2022039553A publication Critical patent/JP2022039553A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • G07G1/0054Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
    • G07G1/0063Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles with means for detecting the geometric dimensions of the article of which the code is read, such as its size or height, for the verification of the registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Signal Processing (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Abstract

To specify the type of an imaging object without a user manually and sequentially scanning the imaging object.SOLUTION: An information processing system comprises an imaging unit, a gate unit, and a control unit. The imaging unit picks up an image of an imaging object in a multifaceted manner to create a picked-up image. The gate unit includes the imaging unit, and the imaging object passes through the gate unit. The control unit extracts an arbitrary area of the imaging object from the picked-up image and specifies the imaging object based on the arbitrary area.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理システム、情報処理装置及び情報処理方法に関するものである。 The present invention relates to an information processing system, an information processing apparatus, and an information processing method.

小売業での購買商品の精算において、例えば特許文献1では、商品が買い物かごから取り出されてから収納袋に入れられるまでを追跡し、商品が適切にスキャンされたか否かを判断する発明が開示されている。 In the settlement of purchased products in the retail industry, for example, Patent Document 1 discloses an invention that tracks the period from when a product is taken out of a shopping cart to when it is put in a storage bag and determines whether or not the product is properly scanned. Has been done.

特開2011-54038JP 2011-54038

この開示に係る発明では、商品の特定のためにユーザ(購買者)が手動で逐次撮像対象(商品)のバーコード等をスキャンして撮像対象の種別を特定する必要があり、この点において改善の余地がある。 In the invention according to this disclosure, it is necessary for the user (purchaser) to manually scan the barcode or the like of the image pickup target (product) to specify the type of the image pickup target in order to identify the product, which is an improvement in this respect. There is room for.

従って、上記の点に鑑みてなされた本開示の目的は、ユーザが手動で逐次撮像対象をスキャンすることなく、撮像対象の種別の特定を行うことにある。 Therefore, an object of the present disclosure made in view of the above points is to specify the type of the image pickup target without the user manually scanning the image pickup target.

上述した目的を達成するため、本開示の一側面である情報処理システムは、撮像対象を多面的に撮像して撮像画像を生成する撮像部と、前記撮像部を備え、前記撮像対象が通過するゲート部と、前記撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定する制御部とを備えることを含む。 In order to achieve the above-mentioned object, the information processing system, which is one aspect of the present disclosure, includes an image pickup unit that multifacetedly captures an image pickup target to generate an image pickup image, and the image pickup section, and the image pickup target passes through the image pickup unit. The present invention includes a gate unit and a control unit that extracts an arbitrary region of the imaging target from the captured image and identifies the imaging target based on the arbitrary region.

また、本開示の一側面である情報処理装置は、撮像対象を多面的に撮像する撮像部と、前記撮像部を備え、前記撮像対象が通過するゲート部と、前記撮像部の撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定する制御部とを備えることを含む。 Further, the information processing apparatus which is one aspect of the present disclosure includes an image pickup unit that multifacets an image pickup target, a gate portion through which the image pickup target passes, and an image pickup image of the image pickup section. The present invention includes a control unit that extracts an arbitrary region to be imaged and identifies the imaging target based on the arbitrary region.

また、本開示の一側面である情報処理方法は、ゲート部に備えられた撮像部が、前記ゲート部を通過する撮像対象を多面的に撮像し、前記撮像部の撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定することを含む。 Further, in the information processing method which is one aspect of the present disclosure, the image pickup unit provided in the gate portion multi-facetedly captures the image pickup target passing through the gate section, and the image pickup target of the image pickup target is taken from the image pickup image of the image pickup section. This includes extracting an arbitrary region and specifying the imaging target based on the arbitrary region.

上記のように構成された本開示によれば、ユーザが手動で逐次撮像対象をスキャンすることなく、撮像対象の種別の特定を行うことが可能になる。 According to the present disclosure configured as described above, it is possible for the user to specify the type of the imaging target without manually scanning the imaging target sequentially.

図1は、本開示に係る情報処理システムの実施形態の一例での構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing a configuration of an example of an information processing system according to the present disclosure. 図2は、本開示に係る情報処理装置の実施形態の一例における外観図である。FIG. 2 is an external view of an example of an embodiment of the information processing apparatus according to the present disclosure. 図3は、本開示に係る情報処理システム及び情報処理装置の実施形態の一例にて撮像部が撮像する画像のイメージ図である。FIG. 3 is an image diagram of an image captured by the image pickup unit in an example of the embodiment of the information processing system and the information processing apparatus according to the present disclosure. 図4は、本開示に係る情報処理方法の実施形態の一例におけるフローチャート図である。FIG. 4 is a flowchart of an example of an embodiment of the information processing method according to the present disclosure. 図5は、本開示に係る情報処理方法の実施形態の、図4で示した例とは異なる一例における情報処理方法のフローチャート図である。FIG. 5 is a flowchart of an information processing method according to an embodiment of the information processing method according to the present disclosure, which is different from the example shown in FIG. 図6は、本開示に係る情報処理装置の、他の一例における外観図である。FIG. 6 is an external view of the information processing apparatus according to the present disclosure in another example. 図7は、本開示に係る情報処理装置を搬送路上に載せられた撮像対象の種別または固体の判別に用いた場合の外観図である。FIG. 7 is an external view when the information processing apparatus according to the present disclosure is used for discriminating the type or solid of the image pickup target mounted on the transport path.

以下、本開示を適用した情報処理システムの実施形態の一例について、図面を参照して説明する。 Hereinafter, an example of an embodiment of the information processing system to which the present disclosure is applied will be described with reference to the drawings.

図1は、本開示に係る情報処理システムの一実施形態における機能ブロック図である。 FIG. 1 is a functional block diagram of an embodiment of the information processing system according to the present disclosure.

図2は、本開示に係る情報処理システム及び情報処理装置の一実施形態における外観図である。なお、外観図では本開示に係る情報処理システム及び情報処理装置の物理的構成(ハード構成)を図示している。 FIG. 2 is an external view of an embodiment of the information processing system and the information processing apparatus according to the present disclosure. The external view shows the physical configuration (hardware configuration) of the information processing system and the information processing apparatus according to the present disclosure.

図1に示すように、本開示に係る情報処理システムは、検出部1、制御部2、ゲート部3、撮像部4、収容部5、データベース6及び提示部7を含んで構成される。ただし、収容部5及び提示部7については情報処理システムの構成要件に必ずしも含まれなくてもよい。また、図2に示すように、本開示に係る情報処理システム及び情報処理装置は、物理的構成要素として、検出部1、ゲート部3、撮像部4、収容部5及び提示部7を含んで構成される。ただし、段落[0023]にて後述するように、収容部5が脱着可能なカゴまたは袋である場合、情報処理システムの物理的構成要素は必ずしも恒常的に収容部5を含む必要はない。また、段落[0037]にて後述するように、制御部2及びデータベース6は、必ずしも同一装置内に含まれる必要はなく、遠隔に設置され、有線通信または無線通信で情報処理装置と接続してもよい。 As shown in FIG. 1, the information processing system according to the present disclosure includes a detection unit 1, a control unit 2, a gate unit 3, an image pickup unit 4, an accommodation unit 5, a database 6, and a presentation unit 7. However, the accommodating unit 5 and the presenting unit 7 do not necessarily have to be included in the constituent requirements of the information processing system. Further, as shown in FIG. 2, the information processing system and the information processing apparatus according to the present disclosure include a detection unit 1, a gate unit 3, an image pickup unit 4, an accommodation unit 5, and a presentation unit 7 as physical components. It is composed. However, as will be described later in paragraph [0023], when the accommodating portion 5 is a removable basket or bag, the physical component of the information processing system does not necessarily necessarily include the accommodating portion 5. Further, as will be described later in paragraph [0037], the control unit 2 and the database 6 do not necessarily have to be included in the same device, are installed remotely, and are connected to the information processing device by wire communication or wireless communication. May be good.

以後の図において、各機能ブロックを結ぶ実線の矢印は、制御信号(検出信号、撮像信号及び提示信号など)または通信される情報の流れを示す。矢印が示す通信は有線通信であってもよいし、無線通信であってもよいし、両者の組合せであってもよい。無線によって通信が行われる場合、情報処理システムは、例えばBluetooth(登録商標)またはIEEE802.11を含む各種通信規格に準拠する無線通信を行うための通信部を備える。無線通信は、光通信であってもよい。 In the following figures, the solid arrows connecting the functional blocks indicate the flow of control signals (detection signals, imaging signals, presentation signals, etc.) or information to be communicated. The communication indicated by the arrow may be wired communication, wireless communication, or a combination of both. When communication is performed wirelessly, the information processing system includes a communication unit for performing wireless communication conforming to various communication standards including, for example, Bluetooth (registered trademark) or 802.11. The wireless communication may be optical communication.

検出部1は、撮像対象Tがゲート部3の内部に投入されたか否かを判定する。撮像対象Tが撮像部4に向けて移動していると判断される場合、検出部1は、上記判断を意味する検出信号を制御部2に送信する。 The detection unit 1 determines whether or not the image pickup target T is inserted inside the gate unit 3. When it is determined that the image pickup target T is moving toward the image pickup unit 4, the detection unit 1 transmits a detection signal meaning the above determination to the control unit 2.

検出部1は、例えば光電センサ、ファイバセンサ、レーザセンサ、超音波センサまたは画像センサであってもよい。光電センサ、ファイバセンサまたはレーザセンサを検出部1として用いる場合、検出部1は投光器と受光器または投受光器を含んでもよい。超音波センサを検出部1として用いる場合、検出部1は超音波素子を含んでもよい。画像センサを検出部1として用いる場合、検出部1は撮像光学系及び撮像素子を含んでもよい。撮像光学系は、例えば1個以上のレンズ及び絞りなどの光学部材を含んでもよい。撮像素子は例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを含んでもよい。また、画像センサは任意のフレームレートで連続的に静止画(動画)を撮像してもよい。また、検出部1は1つ以上の個数のセンサ
によって構成されてもよく、1つ以上の種類のセンサを組み合わせて構成されてもよい。例えば図2に示す実施形態の一例では、投光部と受光部がゲート部3の上面(ユーザが撮像対象Tを投入する面)に備えられている。
The detection unit 1 may be, for example, a photoelectric sensor, a fiber sensor, a laser sensor, an ultrasonic sensor, or an image sensor. When a photoelectric sensor, a fiber sensor or a laser sensor is used as the detection unit 1, the detection unit 1 may include a floodlight and a photoreceiver or a light emitter / receiver. When an ultrasonic sensor is used as a detection unit 1, the detection unit 1 may include an ultrasonic element. When the image sensor is used as the detection unit 1, the detection unit 1 may include an image pickup optical system and an image pickup element. The imaging optical system may include, for example, one or more lenses and optical members such as an aperture. The image pickup device may include, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. Further, the image sensor may continuously capture still images (moving images) at an arbitrary frame rate. Further, the detection unit 1 may be configured by one or more sensors, or may be configured by combining one or more types of sensors. For example, in one example of the embodiment shown in FIG. 2, a light emitting unit and a light receiving unit are provided on the upper surface of the gate unit 3 (the surface on which the user inputs the image pickup target T).

制御部2は、検出部1から検出信号を受信した場合、撮像部4に撮像信号を送信する。また、制御部2は、撮像部4から撮像画像を受信した場合、撮像画像から任意の領域を抽出し、データベース6を参照しつつ画像認識処理によって撮像対象Tを特定する。任意の領域とは、例えば撮像対象Tの識別子Tmまたは撮像対象Tが映し出された撮像領域である。撮像対象Tの識別子Tmとは、例えばバーコードまたはQRコード(登録商標)である。撮像対象Tの画像認識処理による特定手段は、例えば撮像画像に写った撮像対象Tの識別子Tmの認識であってもよいし、パターンマッチングまたは機械学習を用いての特定物体認識によるものであってもよい。制御部2は、撮像部4から撮像画像を複数枚受信した場合、所定の条件を満たす1枚以上の撮像画像を選定して、選定した撮像画像に対して画像認識処理を行ってもよい。所定の条件とは、例えば識別子Tmが明瞭に映し出されているか(制御部2が識別子Tmを認識可能であるか)であってもよいし、特定物体認識を行った際に併せて算出可能である認識結果の信頼度(確信度)が予め定めた閾値を満たしているかであってもよい。また、識別子Tmが複数枚の撮像画像に跨って撮像された場合、制御部2は複数枚の撮像画像からそれぞれ部分的に撮像された識別子Tmの領域を抽出してもよい。制御部2は、識別子Tmが跨った複数枚の撮像画像に対して画像合成またはSfM(Structure from Motion)等の画像処理技術を用いて撮像対象Tを特定できるようにしてもよい。 When the control unit 2 receives the detection signal from the detection unit 1, the control unit 2 transmits the image pickup signal to the image pickup unit 4. Further, when the control unit 2 receives the captured image from the image pickup unit 4, the control unit 2 extracts an arbitrary region from the captured image and identifies the image pickup target T by image recognition processing while referring to the database 6. The arbitrary region is, for example, an identifier Tm of the imaging target T or an imaging region on which the imaging target T is projected. The identifier Tm of the image pickup target T is, for example, a barcode or a QR code (registered trademark). The identification means by the image recognition process of the image pickup target T may be, for example, recognition of the identifier Tm of the image pickup target T reflected in the image pickup image, or recognition of a specific object by using pattern matching or machine learning. May be good. When a plurality of captured images are received from the image pickup unit 4, the control unit 2 may select one or more captured images satisfying a predetermined condition and perform image recognition processing on the selected captured images. The predetermined condition may be, for example, whether the identifier Tm is clearly projected (whether the control unit 2 can recognize the identifier Tm), or can be calculated together with the recognition of a specific object. It may be whether the reliability (confidence) of a certain recognition result satisfies a predetermined threshold value. Further, when the identifier Tm is captured over a plurality of captured images, the control unit 2 may extract a region of the identifier Tm partially captured from each of the plurality of captured images. The control unit 2 may be able to specify the image pickup target T by using an image processing technique such as image composition or SfM (Structure from Motion) for a plurality of captured images straddling the identifier Tm.

制御部2は、特定した撮像対象Tを登録対象データとして記録してもよい。 The control unit 2 may record the specified imaging target T as registration target data.

制御部2は、特定し、記録した1つ以上の撮像対象Tに基づく請求金額の算出または撮像対象Tの特定可否を判定し、提示部7に提示信号を送信してもよい。撮像対象Tの特定可否とは、撮像対象Tの特定に成功したか失敗したかを意味する。提示部7は請求金額をユーザに提示して支払いを要求してもよいし、撮像対象Tの特定可否を提示してユーザに通知してもよい。 The control unit 2 may calculate the billing amount based on one or more image pickup targets T specified and recorded, determine whether or not the image pickup target T can be specified, and transmit the presentation signal to the presentation unit 7. Whether or not the image pickup target T can be specified means whether or not the image pickup target T is specified successfully or unsuccessfully. The presentation unit 7 may present the billed amount to the user to request payment, or may present the user by presenting whether or not the image pickup target T can be specified.

制御部2は、先述した処理等を実行するプログラム及び登録対象データを格納する記録部も含んで構成されてもよい。 The control unit 2 may also include a program that executes the above-mentioned processing and the like, and a recording unit that stores data to be registered.

制御部2は、1つ以上のプロセッサ及びメモリを含んで構成される。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ及び特定の処理に特化した専用のプロセッサを含んでもよい。汎用のプロセッサは、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)を含んでもよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでもよい。プロセッサは、PLD(Programmable Logic Device)を含んでもよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでもよい。制御部2は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)及びSiP(System In a Package)の何れかであってもよい。メモリは、例えば半導体メモリ、磁気メモリ、及び光メモリ等の何れか一つ以上を含んでもよい。半導体メモリは、揮発性メモリ及び不揮発性メモリを含んでよい。磁気メモリは、例えばハードディスク及び磁気テープ等を含んでもよい。光メモリは、例えばCD(Compact Disc)、DVD(Digital Versatile Disc)及びBD(Blu-ray(登録商標) Disc)等を含んでもよい。 The control unit 2 includes one or more processors and a memory. The processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process. The general-purpose processor may include a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The dedicated processor may include an application specific integrated circuit (ASIC). The processor may include a PLD (Programmable Logic Device). The PLD may include an FPGA (Field-Programmable Gate Array). The control unit 2 may be either a System (System-on-a-Chip) or a SiP (System In a Package) in which one or a plurality of processors cooperate. The memory may include any one or more of, for example, a semiconductor memory, a magnetic memory, an optical memory, and the like. The semiconductor memory may include a volatile memory and a non-volatile memory. The magnetic memory may include, for example, a hard disk, a magnetic tape, or the like. The optical memory may include, for example, a CD (Compact Disc), a DVD (Digital Versaille Disc), a BD (Blu-ray (registered trademark) Disc), and the like.

ゲート部3は、撮像対象Tを投入するために設置される。即ち、ユーザはゲート部3に商品(撮像対象T)を投入する。ゲート部3は、撮像部4を備える。 The gate portion 3 is installed to input the image pickup target T. That is, the user puts the product (imaging target T) into the gate portion 3. The gate unit 3 includes an image pickup unit 4.

ゲート部3は、例えば筒状であり、内部に空洞を有する形状であってもよく、この場合、ゲート部3の空洞入り口に検出部1を、空洞内に撮像部4を備えてもよい。また、ゲート部3は、これを支持するための支持部8を備えてもよい。支持部8は、例えば片持ち形状、両持ち形状、または宙づり形状などであってもよいし、その他の形状であってもよい。例えば図2に示す実施形態の一例では、支持部8はゲート部3を両持ち構造で支持し、接地面Uに設置されている。 The gate portion 3 may be, for example, cylindrical and may have a shape having a cavity inside. In this case, the detection unit 1 may be provided at the entrance of the cavity of the gate portion 3 and the image pickup unit 4 may be provided in the cavity. Further, the gate portion 3 may be provided with a support portion 8 for supporting the gate portion 3. The support portion 8 may have, for example, a cantilever shape, a double-sided shape, a suspended shape, or the like, or may have another shape. For example, in an example of the embodiment shown in FIG. 2, the support portion 8 supports the gate portion 3 with a double-sided structure and is installed on the ground plane U.

撮像部4は、制御部2から撮像信号を受信した場合、撮像対象Tを多面的に撮像して撮像画像を生成する。即ち、撮像部4はゲート部3に投入された撮像対象Tを多面的に撮像する撮像部4が撮像する多面的な画像とは、例えば撮像対象Tのゲート部3の内面に面する全周囲画像である。撮像部4が撮像し、生成した撮像画像は制御部2に送信される。また、撮像部4は、ゲート部3に投入された撮像対象Tを多面的に撮像できるように複数個備える形態であってもよい。また、撮像部4は、魚眼カメラまたは全周囲カメラを含んでもよい。また、撮像部4が生成する撮像画像は1枚のみではなく、複数枚であってもよい。 When the image pickup unit 4 receives the image pickup signal from the control unit 2, the image pickup unit 4 multifacetedly captures the image pickup target T to generate an image pickup image. That is, the image pickup unit 4 multifacetedly captures the image pickup target T input to the gate portion 3. The multifaceted image captured by the image pickup unit 4 is, for example, the entire circumference facing the inner surface of the gate portion 3 of the image pickup target T. It is an image. The image pickup unit 4 takes an image, and the generated captured image is transmitted to the control unit 2. Further, the image pickup unit 4 may be provided with a plurality of images to be imaged T input to the gate unit 3 so as to be capable of multi-faceted imaging. Further, the image pickup unit 4 may include a fisheye camera or an omnidirectional camera. Further, the number of captured images generated by the imaging unit 4 is not limited to one, and may be a plurality of images.

撮像部4は、例えば1個以上のレンズ及び絞りなどの光学部材を含んでもよい。撮像素子は例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを含んでもよい。また、撮像部4は任意のフレームレートで連続的に静止画を撮像してもよい。連続的に静止画を撮像するということは、動画を撮像すると換言できる。例えば図2に示す実施形態の一例では、撮像部4はゲート部3の空洞の内面に、撮像対象Tを多面的に撮像できるように4個備えられている。 The image pickup unit 4 may include, for example, one or more lenses and an optical member such as an aperture. The image pickup device may include, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. Further, the image pickup unit 4 may continuously capture still images at an arbitrary frame rate. Continuously capturing still images can be rephrased as capturing moving images. For example, in an example of the embodiment shown in FIG. 2, four image pickup units 4 are provided on the inner surface of the cavity of the gate unit 3 so that the image pickup target T can be imaged from multiple surfaces.

検出部1が撮像光学系及び撮像素子を含んで構成される場合、撮像部4は検出部1と一体となって構成されてもよい。即ち、検出部1と撮像部4は、同一の撮像光学系及び撮像素子を用いてもよい。 When the detection unit 1 includes an image pickup optical system and an image pickup element, the image pickup unit 4 may be configured integrally with the detection unit 1. That is, the detection unit 1 and the image pickup unit 4 may use the same image pickup optical system and image pickup element.

図3は、撮像部4が撮像対象Tを撮像し、生成した撮像画像のイメージ図である。 FIG. 3 is an image diagram of an captured image generated by the imaging unit 4 imaging the image pickup target T.

例えば、ゲート部3に撮像部4が4個備えられている場合、図4に示すように4枚の撮像画像が生成される。 For example, when the gate unit 3 is provided with four image pickup units 4, four captured images are generated as shown in FIG.

この場合、生成された4枚の撮像画像の中で撮像対象Tの識別子Tmが明瞭に映し出されている画像はPic.2である。 In this case, among the four captured images generated, the image in which the identifier Tm of the imaging target T is clearly projected is Pic. It is 2.

制御部2は4枚の撮像画像に対して画像認識処理を実行し、その中で識別子Tmが明瞭に映し出されたPic.2の撮像画像を選定する。制御部2は、選定したPic.2の撮像画像を用いて撮像対象Tを特定する。 The control unit 2 executes image recognition processing on four captured images, and the identifier Tm is clearly projected in the Pic. Select the captured image of 2. The control unit 2 is the selected Pic. The image capture target T is specified using the image captured in 2.

収容部5は、ゲート部3を通過した撮像対象Tを収容する。即ち、ユーザはゲート部3を介して撮像対象Tを収容部5に投入する。 The accommodating portion 5 accommodates the image pickup target T that has passed through the gate portion 3. That is, the user inputs the image pickup target T into the accommodating unit 5 via the gate unit 3.

収容部5は、例えば脱着可能なカゴまたは袋に代表される容器であってもよい。収容部5は、ゲート部3の下面(接地面U側)に備えられてもよい。なお、収容部5について、ユーザが手動でゲート部3の下面に固定してもよいし、情報処理システムが自動でゲート部3の下面に固定してもよい。例えば図2に示す実施形態の一例では、ゲート部3と接地
面Uとの間に一定の空間を確保し、この空間内に収容部5を置く形態となっている。
The accommodating portion 5 may be a container represented by, for example, a removable basket or bag. The accommodating portion 5 may be provided on the lower surface (ground plane U side) of the gate portion 3. The accommodating portion 5 may be manually fixed to the lower surface of the gate portion 3 by the user, or may be automatically fixed to the lower surface of the gate portion 3 by the information processing system. For example, in an example of the embodiment shown in FIG. 2, a certain space is secured between the gate portion 3 and the ground plane U, and the accommodating portion 5 is placed in this space.

データベース6は、撮像対象Tに関する関連情報を記録する。関連情報とは、例えば商品名、値段、商品画像及び識別子Tmであってもよい。 Database 6 records related information about the imaging target T. The related information may be, for example, a product name, a price, a product image, and an identifier Tm.

データベース6は、1つ以上のメモリを含んで構成される。メモリは、例えば半導体メモリ、磁気メモリ及び光メモリ等の何れか一つ以上を含んでもよい。半導体メモリは、揮発性メモリ及び不揮発性メモリを含んでよい。磁気メモリは、例えばハードディスク及び磁気テープ等を含んでもよい。光メモリは、例えばCD(Compact Disc)、DVD(Digital Versatile Disc)及びBD(Blu-ray(登録商標) Disc)等を含んでもよい。 Database 6 is configured to include one or more memories. The memory may include any one or more of, for example, a semiconductor memory, a magnetic memory, an optical memory, and the like. The semiconductor memory may include a volatile memory and a non-volatile memory. The magnetic memory may include, for example, a hard disk, a magnetic tape, or the like. The optical memory may include, for example, a CD (Compact Disc), a DVD (Digital Versaille Disc), a BD (Blu-ray® Disc), and the like.

提示部7は、制御部2による撮像対象Tの特定処理に関連する情報の提示を行う。例えば制御部2が特定した撮像対象Tの商品名、値段または個数の何れかを提示してもよい。また、制御部2が特定した1つ以上の撮像対象Tの商品名リスト、値段の合算値または個数の合算値の何れかを提示してもよい。また、撮像対象Tの特定に失敗した場合、エラーを提示してユーザに撮像対象Tの再投入または情報処理システムに別途コードスキャナを備え、コードスキャナによる撮像対象Tの再特定を促してもよい。コードスキャナは、例えばCCD方式、レーザー方式またはペン方式等を含むコードスキャン方式に基づくものであってもよい。 The presentation unit 7 presents information related to the identification process of the image pickup target T by the control unit 2. For example, any of the product name, price, or quantity of the image pickup target T specified by the control unit 2 may be presented. Further, any one of a product name list, a total price, and a total number of images of one or more images T specified by the control unit 2 may be presented. Further, if the identification of the image pickup target T fails, an error may be presented to the user to re-input the image pickup target T or to equip the information processing system with a separate code scanner to urge the user to reidentify the image pickup target T by the code scanner. .. The code scanner may be based on a code scanning method including, for example, a CCD method, a laser method, a pen method, or the like.

提示部7は、例えばディスプレイ、スピーカ、モータまたは発光装置の少なくとも何れかであってもよく、またこれらの少なくとも2種類以上の組合せであってもよい。発光装置は、ハロゲンランプ、LED(Light Emitting Diode)ランプまたはEL(Electro Luminescence)ランプなどであってもよい。提示部7は、ディスプレイを介して画像情報を表示してもよい。提示部7は、スピーカを介して音声を出力してもよい。提示部7は、モータを振動させてもよい。提示部7は、発光装置を発光させてもよい。 The presenting unit 7 may be, for example, at least one of a display, a speaker, a motor, and a light emitting device, or may be a combination of at least two or more of these. The light emitting device may be a halogen lamp, an LED (Light Emitting Diode) lamp, an EL (Electroluminescence) lamp, or the like. The presentation unit 7 may display image information via a display. The presentation unit 7 may output sound via a speaker. The presentation unit 7 may vibrate the motor. The presentation unit 7 may make the light emitting device emit light.

なお、図2において、制御部2及びデータベース6は図示されていないが、必ずしもこれらが同一の情報処理装置内に含まれる必要はない。例えば、情報処理システムは別途1個以上の演算部を備え、演算部は制御部2及びデータベース6を備える形態であってもよく、情報処理システムの同一の情報処理装置内に含まれる検出部1及び撮像部4と演算部に含まれる制御部2及びデータベース6とで通信を行ってもよい。演算部とは、例えばコンピュータ、サーバまたはクラウドサービスなどであってもよく、これらの組合せであってもよい。また、提示部7は図2には一体構成された検出部1、ゲート部3及び撮像部4とは別個に備えられているが、例えばゲート部3の外面(空洞内部の反対面)に埋め込む形であってもよい。 Although the control unit 2 and the database 6 are not shown in FIG. 2, they do not necessarily have to be included in the same information processing apparatus. For example, the information processing system may separately include one or more arithmetic units, and the arithmetic unit may include a control unit 2 and a database 6, and the detection unit 1 included in the same information processing apparatus of the information processing system. And the image pickup unit 4, the control unit 2 included in the calculation unit, and the database 6 may communicate with each other. The arithmetic unit may be, for example, a computer, a server, a cloud service, or the like, or may be a combination thereof. Further, the presentation unit 7 is provided separately from the detection unit 1, the gate unit 3 and the image pickup unit 4 integrally configured in FIG. 2, but is embedded in, for example, the outer surface of the gate unit 3 (opposite surface inside the cavity). It may be in shape.

次に、図4を用いて本開示に係る情報処理システムの撮像及び認識処理フローを説明する。 Next, the image pickup and recognition processing flow of the information processing system according to the present disclosure will be described with reference to FIG.

図4は、情報処理システムの撮像及び認識処理のフローチャート図である。 FIG. 4 is a flowchart of the image pickup and recognition process of the information processing system.

<S01>検出部1が撮像対象Tを検出する。そして、検出部1は制御部2に検出信号を送信する。その後、<S02>に移行する。 <S01> The detection unit 1 detects the image pickup target T. Then, the detection unit 1 transmits a detection signal to the control unit 2. After that, it shifts to <S02>.

<S02>制御部2が検出信号を受信した後、制御部2は撮像信号を撮像部4に送信する。その後、撮像信号を受信した撮像部4は、検出対象の撮像し、撮像画像を生成する。その後、撮像部4は、撮像画像を制御部2に送信する。その後、<S03>に移行する。 <S02> After the control unit 2 receives the detection signal, the control unit 2 transmits the image pickup signal to the image pickup unit 4. After that, the imaging unit 4 that has received the imaging signal captures the detection target and generates an captured image. After that, the image pickup unit 4 transmits the captured image to the control unit 2. After that, it shifts to <S03>.

<S03>制御部2が撮像部4から撮像画像を受信した後、制御部2は、撮像画像に対して画像認識処理を実行し、撮像対象Tの識別子Tmの抽出を試みる。制御部2が撮像対象Tの識別子Tmの抽出に成功した場合、<S04>に移行する。制御部2が撮像対象Tの識別子Tmの抽出に失敗した場合、<S06>に移行する。 <S03> After the control unit 2 receives the captured image from the image pickup unit 4, the control unit 2 executes an image recognition process on the captured image and attempts to extract the identifier Tm of the image pickup target T. When the control unit 2 succeeds in extracting the identifier Tm of the image pickup target T, the process proceeds to <S04>. If the control unit 2 fails to extract the identifier Tm of the image pickup target T, the process proceeds to <S06>.

<S04>制御部2が撮像対象Tの識別子Tmの抽出に成功した場合、制御部2は抽出した識別子Tmに基づいて撮像対象Tを特定する。その後、<S05>に移行する。 <S04> When the control unit 2 succeeds in extracting the identifier Tm of the image pickup target T, the control unit 2 identifies the image pickup target T based on the extracted identifier Tm. After that, it shifts to <S05>.

<S05>制御部2が撮像対象Tを特定した後、制御部2は、特定した撮像対象Tを登録対象として記録する。記録先は、例えば制御部2に含まれる記録部である。その後、処理を終了する。 <S05> After the control unit 2 identifies the image pickup target T, the control unit 2 records the specified image pickup target T as a registration target. The recording destination is, for example, a recording unit included in the control unit 2. After that, the process ends.

<S06>制御部2が撮像対象Tの識別子Tmの抽出に失敗した場合、制御部2はエラー処理を実行する。エラー処理とは、例えば制御部2が提示部7に提示信号を送信し、提示部7が撮像対象Tの特定に失敗した旨を意味するエラーを提示することである。その後、処理を終了する。 <S06> When the control unit 2 fails to extract the identifier Tm of the image pickup target T, the control unit 2 executes error processing. The error processing means, for example, that the control unit 2 transmits a presentation signal to the presentation unit 7, and the presentation unit 7 presents an error indicating that the identification of the image pickup target T has failed. After that, the process ends.

図4で示した情報処理システムの撮像及び認識処理のフローチャートでは、撮像対象Tの特定を識別子Tmに基づいて行っているが、例えば特定物体認識を用いることも可能である。図5を用いて、特定物体認識を用いた場合の情報処理システムの撮像及び認識処理フローを説明する。 In the flowchart of the image pickup and recognition process of the information processing system shown in FIG. 4, the image pickup target T is specified based on the identifier Tm, but for example, specific object recognition can also be used. With reference to FIG. 5, the image pickup and recognition processing flow of the information processing system when the specific object recognition is used will be described.

図5は、<S01>、<S02>、<S05>及び<S06>は図4にした識別子Tmに基づく撮像対象Tの特定と同一処理のため、説明は省略する。 In FIG. 5, since <S01>, <S02>, <S05> and <S06> are the same processes as the identification of the image pickup target T based on the identifier Tm shown in FIG. 4, the description thereof will be omitted.

<S03’>制御部2が撮像部4から撮像画像を受信した後、制御部2は、撮像画像に対して画像認識処理を実行し、撮像対象Tが映し出された撮像対象T領域の抽出を試みる。制御部2が撮像対象Tの撮像対象T領域の抽出に成功した場合、<S04’>に移行する。制御部2が撮像対象Tの撮像対象T領域の抽出に失敗した場合、<S06>に移行する。 <S03'> After the control unit 2 receives the captured image from the image pickup unit 4, the control unit 2 executes an image recognition process on the captured image to extract the image pickup target T region on which the image pickup target T is projected. Try. When the control unit 2 succeeds in extracting the image pickup target T region of the image pickup target T, the process proceeds to <S04'>. If the control unit 2 fails to extract the image pickup target T region of the image pickup target T, the process proceeds to <S06>.

<S04’>制御部2が撮像対象Tの撮像対象T領域の抽出に成功した場合、制御部2は抽出した撮像対象T領域に対して特定物体認識を行い、撮像対象Tを特定する。その後、<S05>に移行する。 <S04'> When the control unit 2 succeeds in extracting the image pickup target T region of the image pickup target T, the control unit 2 performs specific object recognition for the extracted image pickup target T region and specifies the image pickup target T. After that, it shifts to <S05>.

ここまで、画像登録システムについて、本開示を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。 Up to this point, the present disclosure of the image registration system has been described based on various drawings and examples, but it should be noted that those skilled in the art can easily make various modifications and modifications based on the present disclosure.

図6は、本開示に係る情報処理装置の異なる実施形態における外観図である。 FIG. 6 is an external view of the information processing apparatus according to the present disclosure in different embodiments.

例えば、図6に示すようにゲート部3は、図2に示す例より接地面U方向に短くてもよい。 For example, as shown in FIG. 6, the gate portion 3 may be shorter in the ground plane U direction than the example shown in FIG.

また、図6に示すようにゲート部3は、収容部5の取手部を引っ掛ける引掛部9を備えてもよい。引掛部9は、例えばフックまたはストッパーなどであってもよい。 Further, as shown in FIG. 6, the gate portion 3 may include a hook portion 9 for hooking the handle portion of the accommodating portion 5. The hooking portion 9 may be, for example, a hook or a stopper.

また、情報処理システムは、ゲート部3の空洞内部に撮像部4の撮像と同タイミングで投光する投光部を設置してもよい。投光部を設置することにより、撮像画像の明度が向上
し、撮像対象Tの特定が容易になる場合がある。
Further, the information processing system may install a light projecting unit that emits light at the same timing as the image pickup of the image pickup unit 4 inside the cavity of the gate unit 3. By installing the light projecting unit, the brightness of the captured image may be improved and the image pickup target T may be easily specified.

また、制御部2は、撮像部4が撮像した撮像画像に対して補正処理を行ってもよい。補正処理とは、例えば彩度、色調、コントラスト及び歪み等の補正を含んでもよい。補正処理は、撮像画像から撮像対象Tの識別子Tmまたは撮像対象領域の抽出が可能になるように行ってもよい。補正処理を行うことにより、撮像画像から撮像対象Tの識別子Tmまたは撮像対象領域の抽出が容易になる場合がある。 Further, the control unit 2 may perform correction processing on the image captured by the image pickup unit 4. The correction process may include, for example, correction of saturation, color tone, contrast, distortion, and the like. The correction process may be performed so that the identifier Tm of the imaging target T or the imaging target region can be extracted from the captured image. By performing the correction process, it may be easy to extract the identifier Tm of the imaging target T or the imaging target region from the captured image.

また、撮像部4が撮像した撮像画像にユーザの手指または腕等が映った場合、制御部2は、手指または腕等を認識し、その存在を考慮して撮像対象Tを特定してもよい。例えば、撮像画像に写った識別子Tmを手指Hが覆っていると制御部2が判断した場合、制御部2は特定物体認識によって撮像対象Tを特定してもよい。また、撮像画像に写った識別子Tmを除いた撮像対象Tの領域を手指Hが覆っていると制御部2が判断した場合、制御部2は識別子Tmの認識によって撮像対象Tを特定してもよい。 Further, when the user's finger or arm or the like is reflected in the image captured by the image pickup unit 4, the control unit 2 may recognize the finger or arm or the like and specify the image pickup target T in consideration of the existence thereof. .. For example, when the control unit 2 determines that the hand H covers the identifier Tm captured in the captured image, the control unit 2 may specify the image pickup target T by recognizing a specific object. Further, when the control unit 2 determines that the finger H covers the area of the image pickup target T excluding the identifier Tm captured in the captured image, the control unit 2 may specify the image pickup target T by recognizing the identifier Tm. good.

また、収容部5は、収容部5内に撮像対象Tが収容されたかを判定するセンサを設置してもよい。センサとは、例えば光電センサ、ファイバセンサ、レーザセンサ、超音波センサ、画像センサまたは重量センサであってもよい。収容部5に設置したセンサが収容部5内に撮像対象Tが収容されたと判定された場合、制御部2に収容信号を送信する。制御部2は、撮像部4からの撮像画像の受信有無と収容信号とを比較し、撮像対象Tが正しく収容されたかを判定してもよい。撮像対象Tが正しく収容されたと判定されなかった場合、換言すると例えば制御部2が撮像画像を受信しているにも関わらず収容信号を受信しなかった場合、または撮像画像を受信していないにもかかわらず収容信号を受信した場合、制御部2はエラー処理を実行してもよい。 Further, the accommodating unit 5 may be provided with a sensor for determining whether or not the image pickup target T is accommodated in the accommodating unit 5. The sensor may be, for example, a photoelectric sensor, a fiber sensor, a laser sensor, an ultrasonic sensor, an image sensor or a weight sensor. When the sensor installed in the accommodating unit 5 determines that the image pickup target T is accommodated in the accommodating unit 5, the accommodating signal is transmitted to the control unit 2. The control unit 2 may compare the presence / absence of reception of the captured image from the image pickup unit 4 with the accommodation signal, and determine whether the image pickup target T is correctly accommodated. When it is not determined that the image pickup target T is correctly accommodated, in other words, for example, when the control unit 2 receives the captured image but does not receive the accommodation signal, or the captured image is not received. Nevertheless, when the accommodation signal is received, the control unit 2 may execute error processing.

また、提示部7は、ユーザへの提示ではなく例えば店舗の従業員またはシステム管理者への提示であってもよい。この場合のユーザは、店舗における購買者である。店舗の従業員またはシステム管理者へ提示することにより、店舗の従業員またはシステム管理者が撮像及び認識処理状況を把握することが出来、必要に応じてユーザにフォロー対応が迅速に出来るようになる場合がある。 Further, the presentation unit 7 may not be presented to the user but may be presented to, for example, a store employee or a system administrator. The user in this case is a purchaser in the store. By presenting it to the store employee or system administrator, the store employee or system administrator can grasp the imaging and recognition processing status, and the user can quickly follow up as needed. In some cases.

また、本開示に係るユーザは購買者に限られない。ユーザは、例えば店舗の従業員またはシステム管理者であってもよい。 Further, the user according to the present disclosure is not limited to the purchaser. The user may be, for example, a store employee or a system administrator.

また、本開示に係る情報処理システムを用いて撮像した、撮像対象Tが映し出された撮像画像または撮像対象領域を、特定した撮像対象Tと紐づける形でデータベース6に記録してもよい。撮像画像または撮像対象領域と撮像対象Tとをデータベースで紐づけることにより、例えばパターンマッチングまたは機械学習で用いる画像データの追加収集が容易になる場合がある。 Further, the captured image or the imaging target region on which the imaging target T imaged by using the information processing system according to the present disclosure may be recorded in the database 6 in association with the specified imaging target T. By associating the captured image or the imaging target area with the imaging target T in a database, it may be easy to additionally collect image data used in, for example, pattern matching or machine learning.

また、本開示に係る情報処理システム及び情報処理装置は、例えばベルトコンベヤなど搬送路C上に載せられた撮像対象Tの種別または固体の判別にも用いることが可能である。例えば、ベルトコンベヤ上に情報処理装置を図7のように設置してもよい。図7は、ベルトコンベヤ上に情報処理装置を設置した場合の外観図である。なおこの場合、ユーザは例えば現場作業員または作業監督者などであってもよい。 Further, the information processing system and the information processing apparatus according to the present disclosure can also be used for discriminating the type or solid of the image pickup target T mounted on the transport path C such as a belt conveyor. For example, the information processing device may be installed on the belt conveyor as shown in FIG. FIG. 7 is an external view when the information processing device is installed on the belt conveyor. In this case, the user may be, for example, a field worker or a work supervisor.

さらに、これまでに述べたように、本開示の解決手段を情報処理システム、情報処理装置、及び、情報処理方法として説明してきたが、本開示は、これらを含む態様としても実現し得るものであり、また、これらに実質的に相当する、プログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本開示の範囲にはこれらも包含されるもの
と理解されたい。
Further, as described above, the solution means of the present disclosure have been described as an information processing system, an information processing apparatus, and an information processing method, but the present disclosure can also be realized as an embodiment including these. It is also possible to realize a program and a storage medium on which the program is recorded, which is substantially equivalent to these, and it should be understood that these are also included in the scope of the present disclosure.

1 検出部
2 制御部
3 ゲート部
4 撮像部
5 収容部
6 データベース
7 提示部
8 支持部
9 引掛部
H 手指
T 撮像対象
Tm 識別子
1 Detection unit 2 Control unit 3 Gate unit 4 Imaging unit 5 Storage unit 6 Database 7 Presentation unit 8 Support unit 9 Hooking unit H Hand finger T Imaging target Tm identifier

Claims (7)

撮像対象を多面的に撮像して撮像画像を生成する撮像部と、
前記撮像部を備え、前記撮像対象が通過するゲート部と、
前記撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定する制御部とを備える、
情報処理システム。
An imaging unit that captures an image to be imaged from multiple surfaces and generates an image.
A gate portion provided with the image pickup unit and through which the image pickup target passes,
A control unit that extracts an arbitrary region of the imaging target from the captured image and identifies the imaging target based on the arbitrary region is provided.
Information processing system.
さらに前記撮像対象を検出する検出部を備え、
前記撮像部は、前記検出部が前記撮像対象を検出した場合に撮像を行う、請求項1に記載の情報処理システム。
Further, it is provided with a detection unit for detecting the image pickup target.
The information processing system according to claim 1, wherein the image pickup unit performs imaging when the detection unit detects the image pickup target.
前記ゲート部を通過した前記撮像対象を収容部へと収容できるように構成される、請求項1または2に記載の情報処理システム。 The information processing system according to claim 1 or 2, wherein the image pickup target that has passed through the gate portion can be accommodated in the accommodating portion. 前記撮像画像は、前記撮像対象の前記ゲート部の内面に面する全周囲画像である、請求項1乃至3の何れか一項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 3, wherein the captured image is an omnidirectional image facing the inner surface of the gate portion to be imaged. 前記撮像部は、前記撮像画像を複数枚生成し、
前記制御部は、複数枚の前記撮像画像から所定の条件を満たすものを1枚以上選定し、選定した撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定する、請求項1乃至4の何れか一項に記載の情報処理システム。
The imaging unit generates a plurality of captured images and generates a plurality of captured images.
The control unit selects one or more images satisfying a predetermined condition from a plurality of the captured images, extracts an arbitrary region to be imaged from the selected captured images, and captures the image based on the arbitrary region. The information processing system according to any one of claims 1 to 4, which specifies an object.
撮像対象を多面的に撮像する撮像部と、
前記撮像部を備え、前記撮像対象が通過するゲート部と、
前記撮像部の撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定する制御部とを備える、
情報処理装置。
An image pickup unit that captures images to be imaged from multiple sides,
A gate portion provided with the image pickup unit and through which the image pickup target passes,
It includes a control unit that extracts an arbitrary region of the imaging target from the image captured by the imaging unit and identifies the imaging target based on the arbitrary region.
Information processing equipment.
ゲート部に備えられた撮像部が、前記ゲート部を通過する撮像対象を多面的に撮像し、
前記撮像部の撮像画像から前記撮像対象の任意の領域を抽出し、前記任意の領域に基づいて前記撮像対象を特定する、
情報処理方法。
The imaging unit provided in the gate unit multifacetedly images the image pickup target passing through the gate unit.
An arbitrary region of the imaging target is extracted from the image captured by the imaging unit, and the imaging target is specified based on the arbitrary region.
Information processing method.
JP2020144647A 2020-08-28 2020-08-28 Information processing system, information processing apparatus, and information processing method Pending JP2022039553A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020144647A JP2022039553A (en) 2020-08-28 2020-08-28 Information processing system, information processing apparatus, and information processing method
US18/042,983 US20230316757A1 (en) 2020-08-28 2021-08-23 Information processing system, information processing apparatus, and information processing method
CN202180053029.4A CN115989532A (en) 2020-08-28 2021-08-23 Information processing system, information processing apparatus, and information processing method
PCT/JP2021/030874 WO2022045085A1 (en) 2020-08-28 2021-08-23 Information processing system, information processing device, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020144647A JP2022039553A (en) 2020-08-28 2020-08-28 Information processing system, information processing apparatus, and information processing method

Publications (1)

Publication Number Publication Date
JP2022039553A true JP2022039553A (en) 2022-03-10

Family

ID=80353330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020144647A Pending JP2022039553A (en) 2020-08-28 2020-08-28 Information processing system, information processing apparatus, and information processing method

Country Status (4)

Country Link
US (1) US20230316757A1 (en)
JP (1) JP2022039553A (en)
CN (1) CN115989532A (en)
WO (1) WO2022045085A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887681A (en) * 1994-09-20 1996-04-02 Hitachi Ltd Check-out device
JP6417912B2 (en) * 2014-12-10 2018-11-07 カシオ計算機株式会社 Product processing system, product processing method and program
JP6891389B2 (en) * 2015-03-31 2021-06-18 日本電気株式会社 Product registration device, program, control method, and settlement system
JP2019008759A (en) * 2017-06-28 2019-01-17 株式会社 コリアセブン Unmanned computing device, control method thereof, computer program, and control device of the unmanned computing device
JP2019184380A (en) * 2018-04-09 2019-10-24 株式会社アドダイス Imaging device and inspection system using imaging device

Also Published As

Publication number Publication date
US20230316757A1 (en) 2023-10-05
CN115989532A (en) 2023-04-18
WO2022045085A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
US11238298B2 (en) Item tracking using a dynamic region of interest
JP6535775B2 (en) Image data acquisition processing method and system
US20140246487A1 (en) Information processing apparatus and information processing method
WO2015147333A1 (en) Sales registration apparatus, program, and sales registration method
US20110180596A1 (en) Code reading apparatus, sales registration processing apparatus, and code reading method
US10402611B2 (en) Automated modification of imaging scanner function based on orientation
US11809999B2 (en) Object recognition scanning systems and methods for implementing artificial based item determination
US20120054052A1 (en) Store system, sales registration apparatus, and control method
WO2022045085A1 (en) Information processing system, information processing device, and information processing method
JP2013145454A (en) Information processing device and program
WO2019003688A1 (en) Projection indication device, baggage sorting system, and projection indication system
JP2012074025A (en) Imaging device, reading device, and light quantity adjustment method
US20230206014A1 (en) Fixed retail scanner with on-board artificial intelligence (ai) accelerator module and related methods
CN107742383B (en) Automatic settlement system and method based on smooth surface imaging
EP3989105A1 (en) Embedded device based detection system
JP2012177992A (en) Information code reader and information code read method
US10803607B2 (en) Systems and methods tracking objects within a venue using a symbology accelerator
JP2016062564A (en) Information processing device, and information processing program
JP2006270137A (en) Imaging apparatus
US20190378389A1 (en) System and Method of Detecting a Potential Cashier Fraud
CN113762429A (en) Self-service pickup method, device, equipment, electronic equipment and storage medium
CN112149461A (en) Method and apparatus for identifying an object
US20240087428A1 (en) Display device and display method
US11328139B1 (en) Method for scanning multiple items in a single swipe
US20230057369A1 (en) Image data registration system and image data registration method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618