JP2009176209A - Automatic adjustment device for restaurant - Google Patents

Automatic adjustment device for restaurant Download PDF

Info

Publication number
JP2009176209A
JP2009176209A JP2008016295A JP2008016295A JP2009176209A JP 2009176209 A JP2009176209 A JP 2009176209A JP 2008016295 A JP2008016295 A JP 2008016295A JP 2008016295 A JP2008016295 A JP 2008016295A JP 2009176209 A JP2009176209 A JP 2009176209A
Authority
JP
Japan
Prior art keywords
tableware
imaging
image data
dimensional information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008016295A
Other languages
Japanese (ja)
Inventor
Shinichi Sarugaku
信一 猿楽
Fumihiko Miyamoto
文彦 宮本
Hiroharu Enomoto
宏治 榎元
Akira Hirakawa
暁 平川
Kazutoshi Miyazaki
和俊 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi KE Systems Ltd
Original Assignee
Hitachi KE Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi KE Systems Ltd filed Critical Hitachi KE Systems Ltd
Priority to JP2008016295A priority Critical patent/JP2009176209A/en
Publication of JP2009176209A publication Critical patent/JP2009176209A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic adjustment device for a restaurant, capable of reliably recognizing various types of tableware and precisely adjusting price regardless of orientation of the tableware. <P>SOLUTION: The tableware is recognized using three-dimensional information by stereo measurement using three cameras 2L, 2R, 2V arranged on each vertex of a triangle. The most reliable information is chosen among the plurality of pieces of three-dimensional information acquired by combination of three cameras. As a result, the stable tableware three-dimensional information can be measured, and precise price adjustment is attained. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、食堂用自動精算装置に係り、特に、カフェテリア方式の食堂に設置され、利用者が選択した飲食物の種類及び数に応じた料金の精算を自動的に行う精算装置における精算精度の向上手段に関する。   The present invention relates to an automatic settlement apparatus for a cafeteria, and in particular, in a settlement apparatus installed in a cafeteria-style cafeteria and automatically settles a fee according to the type and number of food and drink selected by a user. It relates to improvement means.

従来、食堂が提供する多種類の飲食物の中から利用者が所望の飲食物を自由に選択して飲食するカフェテリア方式の食堂に適用可能な自動精算装置がいくつか考案されている。この種の自動精算装置は、いずれも使用する食器に予め価格を設定しておき、食器を判別することにより利用者が選択した飲食物の料金を自動的に精算する構成になっている。   2. Description of the Related Art Conventionally, several automatic payment apparatuses that can be applied to a cafeteria-style dining room where a user freely selects a desired food from a variety of foods provided by the cafeteria have been devised. This type of automatic payment apparatus is configured to automatically set the price of food and drink selected by the user by setting a price in advance for the tableware to be used and determining the tableware.

例えば、特許文献1に開示の自動精算装置は、通常のトレイの上に載せられた食器を、上から1台のテレビカメラによって撮像し、食器の平面形状により食器を判別して、料金の精算を行う。しかしながら、かかる構成によると、使用できる食器の種類にきびしい制限がつくため、多種多様の飲食物を多種多様の食器に盛って提供することが困難になる。   For example, the automatic settlement apparatus disclosed in Patent Document 1 captures tableware placed on a normal tray with a single TV camera from the top, discriminates the tableware based on the planar shape of the tableware, and settles the fee. I do. However, according to such a configuration, since there are severe restrictions on the types of tableware that can be used, it is difficult to provide a wide variety of food and drink on a wide variety of tableware.

これを改良するものとして、特許文献2に開示の自動精算装置では、テレビカメラを2台使用することによって商品の高さ情報を取得し、商品の高さ情報、形状情報及び色情報を加味して料金を計算している。
特開平4−304597号公報 特開2001−216571号公報
In order to improve this, the automatic settlement apparatus disclosed in Patent Document 2 acquires product height information by using two television cameras, and takes into account product height information, shape information, and color information. To calculate the charge.
JP-A-4-304597 JP 2001-216571 A

しかるに、特許文献2に開示の技術は、テレビカメラを2台のみ使用するので、商品の高さ情報を正確に取得できない場合があり、そのため、商品の精算を必ずしも精度よく行えないという問題がある。   However, since the technology disclosed in Patent Document 2 uses only two TV cameras, there is a case where the height information of the product cannot be obtained accurately, and thus there is a problem that the product cannot be settled accurately. .

この点につき、図2を用いて具体的に説明する。図2は、テーブル7の上に置かれた四角い食器8bを2台のカメラ2L、2Rで認識する場合を示している。図示しない高さ認識手段は、これら2台のカメラ2L、2Rの中心距離に応じた視差を用いて、高さ情報を計算で求める。視差は、カメラ2Lと食器8b上の注目点とを結ぶ直線のカメラ2Rへの投影、及びカメラ2Rと食器8b上の注目点とを結ぶ直線のカメラ2Lへの投影であるエピポーララインと交差する方向で求められる。しかしながら、図2に示すように、四角い食器8bの辺がエピポーララインと平行になった場合、対応点が特定できないため、その辺上の高さ情報を得ることができない。このように、特許文献2に開示の技術によると、食器の置かれた方向によって極端に認識精度が悪くなることがあり、商品(飲食物)の精算を必ずしも精度よく行うことができない。   This point will be specifically described with reference to FIG. FIG. 2 shows a case where the square tableware 8b placed on the table 7 is recognized by the two cameras 2L and 2R. A height recognition means (not shown) obtains height information by calculation using a parallax corresponding to the center distance between the two cameras 2L and 2R. The parallax intersects an epipolar line that is a projection of a straight line connecting the camera 2L and the point of interest on the tableware 8b onto the camera 2R and a projection of a straight line connecting the camera 2R and the point of interest on the tableware 8b onto the camera 2L. Required by direction. However, as shown in FIG. 2, when the side of the square tableware 8b is parallel to the epipolar line, the corresponding point cannot be specified, so that the height information on the side cannot be obtained. As described above, according to the technique disclosed in Patent Document 2, the recognition accuracy may be extremely deteriorated depending on the direction in which the tableware is placed, and the product (food or drink) cannot be settled accurately.

本発明は、かかる従来技術の不備を解決するためになされたものであり、その目的は、食器の置かれた方向によらず、多種類の食器の認識を確実に行うことができて、代金の精算を高精度に行うことができる食堂用自動精算装置を提供することにある。   The present invention has been made to solve such deficiencies in the prior art, and the object thereof is to reliably recognize various types of tableware regardless of the direction in which the tableware is placed. An object of the present invention is to provide an automatic checkout apparatus for a cafeteria that can perform the checkout of a restaurant with high accuracy.

本発明は、前記課題を解決するため、第1に、利用者が選択した食器を置くテーブルと、当該テーブル上に置かれた食器を撮像する撮像手段と、当該撮像手段から取り込まれた画像データを記憶する画像データ記憶手段と、複数種類の食器の特徴量が予め記憶された教示データ記憶手段と、前記画像データ記憶手段に記憶された画像データと前記教示データ記憶手段に記憶された前記食器の特徴量とに基づいて、前記撮像手段により撮像された食器の種類を認識する認識手段と、前記食器の種類毎に設定された飲食物の価格が予め登録された価格記憶手段と、前記認識手段により認識された食器の種類及び数と前記価格記憶手段に登録された価格とに基づいて、前記テーブル上に置かれた食器に盛られて提供される飲食物の合計金額を計算する計算手段とを備えた自動精算装置において、前記テーブルと対向に3つ以上の前記撮像手段を設置し、これら3つ以上の撮像手段を三角形の各頂点位置に配置すると共に、前記認識手段は、前記3つ以上の撮像手段のうちの1つの撮像手段により撮像された画像データと他の1つの撮像手段により撮像された画像データとから得られる複数の三次元情報の中から前記食器の高さ情報を含む1種類以上の三次元情報を選択して、前記食器の種類を認識するという構成にした。   In order to solve the above-described problems, the present invention firstly includes a table on which tableware selected by the user is placed, an imaging unit for imaging the tableware placed on the table, and image data captured from the imaging unit. Image data storage means for storing the feature data, teaching data storage means in which feature quantities of a plurality of types of tableware are stored in advance, image data stored in the image data storage means, and the tableware stored in the teaching data storage means Recognition means for recognizing the type of tableware imaged by the image pickup means, price storage means for pre-registered prices of food and drink set for each type of tableware, and the recognition Based on the type and number of tableware recognized by the means and the price registered in the price storage means, the total amount of food and drink provided and served on the tableware placed on the table is calculated. In an automatic settlement apparatus comprising a calculation unit, three or more imaging units are installed opposite to the table, the three or more imaging units are arranged at each vertex position of a triangle, and the recognition unit is The height of the tableware from among a plurality of three-dimensional information obtained from image data captured by one of the three or more imaging units and image data captured by the other imaging unit. One or more types of three-dimensional information including information are selected and the type of the tableware is recognized.

例えば3つの撮像手段(カメラ)を上記のように配置すると、図3に示すように、食器8b上の1点について、互いに非平行の3本のエピポーラライン、即ち、LRエピポーラライン、RVエピポーラライン、VLエピポーララインが存在する。なお、LRエピポーララインは、カメラ2Lと食器8b上の注目点とを結ぶ直線のカメラ2Rへの投影(カメラ2Rと食器8b上の注目点とを結ぶ直線のカメラ2Lへの投影)であり、RVエピポーララインは、カメラ2Rと食器8b上の注目点とを結ぶ直線のカメラ2Vへの投影(カメラ2Vと食器8b上の注目点とを結ぶ直線のカメラ2Rへの投影)であり、VLエピポーララインは、カメラ2Vと食器8b上の注目点とを結ぶ直線のカメラ2Lへの投影(カメラ2Lと食器8b上の注目点とを結ぶ直線のカメラ2Vへの投影)である。このため、仮に、食器8bの一辺が1本のエピポーラライン(図3ではLRエピポーラライン)と平行になった場合にも、他の2本のエピポーララインについては、当該食器8bの一辺と平行とならず、視差による高さ情報を得ることが可能となる。   For example, when three imaging means (cameras) are arranged as described above, as shown in FIG. 3, three epipolar lines that are not parallel to each other, that is, LR epipolar line and RV epipolar line, for one point on the tableware 8b. , VL epipolar line exists. The LR epipolar line is a projection onto the camera 2R that is a straight line connecting the camera 2L and the attention point on the tableware 8b (projection onto the camera 2L is a straight line connecting the camera 2R and the attention point on the tableware 8b). The RV epipolar line is a projection of a straight line connecting the camera 2R and the point of interest on the tableware 8b onto the camera 2V (projection of a straight line connecting the camera 2V and the point of interest on the tableware 8b onto the camera 2R). The line is a projection of a straight line connecting the camera 2V and the attention point on the tableware 8b onto the camera 2L (projection of a straight line connecting the camera 2L and the attention point on the tableware 8b onto the camera 2V). For this reason, even if one side of the tableware 8b is parallel to one epipolar line (LR epipolar line in FIG. 3), the other two epipolar lines are parallel to one side of the tableware 8b. Instead, it is possible to obtain height information by parallax.

図4を用いてさらに説明する。図4は、説明をより解りやすくするため、直角三角形の直角部分にカメラ2Lを配置し、食器8bの長辺8b−1と平行な方向にカメラ2Rを配置し、他の1つの頂点にカメラ2Vを配置した場合の各カメラの撮像画像を示している。なお、カメラR画像2R−1と2R−2、カメラV画像2V−1と2V−2は同じ画像を場所を変えて示したものである。図4(a)と図4(b)とから明らかなように、食器8bの長辺8b−1は、LRエピポーララインに平行なため、カメラL画像とカメラR画像からは視差が得られない。これに対して、図4(a)と図4(c)とから明らかなように、カメラV画像2V−1とカメラ画像2L−1とを用いればVL視差があるため、長辺8b−1の高さ情報を計算することが可能である。同様に、図4(a)と図4(e)とから明らかなように、食器8bの短辺8b−2は、VLエピポーララインに平行なため、カメラL画像とカメラV画像からは視差が得られない。これに対して、図4(a)と図4(d)とから明らかなように、カメラR画像2R−2とカメラ画像2L−1とを用いればLR視差があるため、長辺8b−1の高さ情報を計算することが可能である。   This will be further described with reference to FIG. In FIG. 4, in order to make the explanation easier to understand, the camera 2L is arranged at a right angle portion of a right triangle, the camera 2R is arranged in a direction parallel to the long side 8b-1 of the tableware 8b, and the camera is arranged at the other vertex. The captured image of each camera when 2V is arranged is shown. The camera R images 2R-1 and 2R-2, and the camera V images 2V-1 and 2V-2 are the same images shown in different places. As is clear from FIGS. 4A and 4B, since the long side 8b-1 of the tableware 8b is parallel to the LR epipolar line, no parallax can be obtained from the camera L image and the camera R image. . On the other hand, as apparent from FIGS. 4A and 4C, if the camera V image 2V-1 and the camera image 2L-1 are used, there is a VL parallax, so the long side 8b-1 It is possible to calculate the height information. Similarly, as is clear from FIG. 4A and FIG. 4E, the short side 8b-2 of the tableware 8b is parallel to the VL epipolar line, so that there is no parallax from the camera L image and the camera V image. I can't get it. On the other hand, as apparent from FIGS. 4A and 4D, if the camera R image 2R-2 and the camera image 2L-1 are used, there is an LR parallax, so the long side 8b-1 It is possible to calculate the height information.

したがって、仮に食器8bの一辺が1本のエピポーララインと平行になった場合にも、他のカメラ画像を利用して当該一辺の高さ情報を得ることができるので、食器8bの認識精度を高めることができ、飲食物の代金の精算を正確に行うことができる。   Therefore, even if one side of the tableware 8b is parallel to one epipolar line, the height information of the side can be obtained using another camera image, so that the recognition accuracy of the tableware 8b is increased. It is possible to pay for food and drink accurately.

本発明は第2に、前記第1の自動精算装置において、前記第1の前記認識手段は、前記複数の三次元情報の中から、線分のエピポーラ確信度が最も高い三次元情報を選択し、この選択された三次元情報と前記教示データ記憶手段に記憶された前記食器の特徴量とに基づいて食器の種類を認識するという構成にした。   Secondly, in the first automatic settlement apparatus, the first recognition unit selects the three-dimensional information having the highest epipolar certainty from the plurality of three-dimensional information. The tableware type is recognized based on the selected three-dimensional information and the feature amount of the tableware stored in the teaching data storage means.

エピポーラ確信度とは、XY方向に配置された2台のカメラで撮像した2つのカメラ画像をそれぞれエッジ抽出、セグメンテーション及び各セグメント内でのエッジの直線近似を行うことによって得られる各線分のXY平面への射影とエピポーララインとのなす角度であって、90度を最大とし、大きいほど2つのカメラ画像から得られる三次元情報における三次元位置の信頼性が高くなる指数である。したがって、3台以上のカメラによって撮像された各カメラ画像の組合せから得られる3種類以上の三次元情報の中から、線分のエピポーラ確信度が最も高い三次元情報を選択し、この選択された三次元情報に基づいて食器の種類を認識すると、他種類の食器を最も高精度に認識することが可能になるので、飲食物の代金の精算をより高精度に行うことができる。   The epipolar confidence is the XY plane of each line segment obtained by performing edge extraction, segmentation, and linear approximation of edges in each segment of two camera images captured by two cameras arranged in the XY direction. The angle between the projection and the epipolar line is 90 degrees, and the larger the index, the higher the reliability of the three-dimensional position in the three-dimensional information obtained from the two camera images. Therefore, the three-dimensional information having the highest epipolar certainty of the line segment is selected from the three or more types of three-dimensional information obtained from the combination of the camera images captured by three or more cameras. Recognizing the type of tableware based on the three-dimensional information makes it possible to recognize the other types of tableware with the highest accuracy, so that the payment for the food and drink can be performed with higher accuracy.

本発明は第3に、前記第1の自動精算装置において、前記テーブルと平行な平面内で3つの前記撮像手段を正三角形の各頂点位置に配置し、これら3つの撮像手段のうちの2つを、前記テーブルの一辺と平行に配置するという構成にした。   Thirdly, according to the present invention, in the first automatic settlement apparatus, the three imaging units are arranged at each vertex position of an equilateral triangle in a plane parallel to the table, and two of the three imaging units are arranged. Is arranged in parallel with one side of the table.

かかる構成によると、3つの撮像手段で多種類の食器を高精度に認識できるので、撮像手段の増加によるコスト高を最小限に抑えることができる。また、3つの撮像手段がテーブルと平行な平面内で等分に配置されているので、各撮像手段によって撮像された画像データ上の点の対応付けが容易になり、認識手段のプログラム構成を簡略化できて、精算処理を高速化することができる。   According to such a configuration, since various types of tableware can be recognized with high accuracy by the three imaging means, the cost increase due to the increase in the imaging means can be minimized. In addition, since the three image pickup means are equally arranged in a plane parallel to the table, it is easy to associate points on the image data picked up by each image pickup means, and the program configuration of the recognition means is simplified. The settlement process can be speeded up.

本発明によれば、テーブルと対向に3つ以上の撮像手段を設置し、これら3つ以上の撮像手段を三角形の各頂点位置に配置すると共に、認識手段は、3つ以上の撮像手段のうちの1つの撮像手段により撮像された画像データと他の1つの撮像手段により撮像された画像データとから得られる複数の三次元情報の中から食器の高さ情報を含む1種類以上の三次元情報を選択して食器の種類を認識するので、テーブル上に置かれた食器の形状や姿勢に関係なく、テーブル上の食器を精度よく認識することができ、精度の高い料金精算が可能となる。   According to the present invention, three or more imaging units are installed opposite to the table, and these three or more imaging units are arranged at the respective vertex positions of the triangle, and the recognition unit is one of the three or more imaging units. One or more types of three-dimensional information including table height information from among a plurality of three-dimensional information obtained from image data captured by one imaging means and image data captured by another one imaging means Is selected and the type of tableware is recognized, so that the tableware on the table can be accurately recognized regardless of the shape and posture of the tableware placed on the table, and high-accuracy fee settlement is possible.

以下、本発明に係る自動精算装置の一実施形態を図面を用いて説明する。   Hereinafter, an embodiment of an automatic settlement apparatus according to the present invention will be described with reference to the drawings.

図1は本発明の全体構成図である。この図において、1は制御装置であり、トレイ6上に並べられてテーブル7上に置かれた食器8a,8b,8cの認識と料金の精算を行う。2L、2R、2Vはテレビカメラであり、食器8a,8b,8cの撮像を行う。本実施形態においては、これら3個のテレビカメラ2L、2R、2Vを、テーブル7と平行な平面内の正三角形の各頂点位置に配置している。3は照明装置であり、被写体である食器8a,8b,8cに撮影用の光を照射する。4は非接触式カードリーダであり、食堂利用者が所持するIDカードとの間で、ID情報を含む必要な精算情報のやりとりを行う。5はタッチパネルであり、食器8a,8b,8cの認識結果と代金の合計金額の表示を行うと共に、画面上に設定されたタッチスイッチを食堂利用者が操作して、必要な入力を行う。   FIG. 1 is an overall configuration diagram of the present invention. In this figure, reference numeral 1 denotes a control device that recognizes tableware 8a, 8b, 8c arranged on the tray 6 and placed on the table 7 and settles the fee. 2L, 2R, and 2V are television cameras, and image the dishes 8a, 8b, and 8c. In the present embodiment, these three television cameras 2L, 2R, 2V are arranged at the vertex positions of equilateral triangles in a plane parallel to the table 7. An illumination device 3 irradiates the tableware 8a, 8b, 8c, which is a subject, with light for photographing. Reference numeral 4 denotes a non-contact card reader, which exchanges necessary settlement information including ID information with an ID card possessed by a restaurant user. A touch panel 5 displays the recognition results of the dishes 8a, 8b, and 8c and the total price, and the dining room user operates the touch switch set on the screen to make necessary inputs.

食堂利用者がこの自動精算装置を利用する場合、食堂利用者は、食堂が提供する各種のメニューの中から所望の飲食物が盛られた食器8a,8b,8cをトレイ6に並べ、このトレイ6をテーブル7上に乗せた後に、自己が所有するIDカードを非接触式カードリーダ4にかざす。非接触式カードリーダ4によりIDカードが検出されると、食器の認識と料金の精算が行われ、結果がタッチパネル5に表示される。食堂利用者は、精算内容を確認し、結果が間違いなければ、タッチパネル5に表示される「終了」などのキーを操作する。これにより、精算が完了する。   When a cafeteria user uses this automatic checkout device, the cafeteria user arranges dishes 8a, 8b, and 8c on which desired food and drink are arranged from various menus provided by the cafeteria on the tray 6, and this tray. After placing 6 on the table 7, the ID card owned by itself is held over the non-contact card reader 4. When the ID card is detected by the contactless card reader 4, tableware recognition and fee settlement are performed, and the result is displayed on the touch panel 5. The cafeteria user confirms the payment details and, if the result is correct, operates a key such as “END” displayed on the touch panel 5. This completes the settlement.

次に、制御装置1の内部構成について説明する。図5は制御装置1のハードウエア構成図である。10はバスであり、以下に説明する各機器を接続している。11はCPUであり、この装置での全ての演算を行う。12はROMであり、電源投入時の初期化プログラムが格納されている。13はRAMであり、この装置で実行するプログラムと演算の途中結果、3台のテレビカメラから取り込んだ画像データ等が格納される。14はシリアルI/Oであり、CPU11はここを介してカードリーダ4とタッチパネル5との情報のやりとりを行う。15はカメラインターフェイスである。CPU11からの撮像命令が発行されると、カメラインターフェイス15はテレビカメラ2L、2R、2Vの撮像制御を行い、取り込んだ画像データをRAM13にバス10を介して転送する。16は照明用のインターフェイスであり照明装置3の点灯、消灯を行う。17はDISKインターフェイスであり、ハードディスク18とのインターフェイスである。ハードディスク18には、この装置で実行するプログラムと食器の教示データ、食器の金額テーブル等が格納されている。この装置で実行するプログラムは、電源投入時にROM12に格納されているプログラムによってRAM13に転送され、CPU11によって実行される。19はLANインターフェイスであり、上位コンピュータとのデータのやりとりを行う。本実施形態では、精算した情報を上位コンピュータに転送し、給与天引き又はクレジット引き落としにて、実際の料金の決済を行う。   Next, the internal configuration of the control device 1 will be described. FIG. 5 is a hardware configuration diagram of the control device 1. Reference numeral 10 denotes a bus, which connects each device described below. Reference numeral 11 denotes a CPU which performs all calculations in this apparatus. A ROM 12 stores an initialization program at power-on. Reference numeral 13 denotes a RAM, which stores a program executed by the apparatus and an intermediate result of the calculation, image data taken from three television cameras, and the like. Reference numeral 14 denotes a serial I / O, through which the CPU 11 exchanges information between the card reader 4 and the touch panel 5. Reference numeral 15 denotes a camera interface. When the imaging command from the CPU 11 is issued, the camera interface 15 performs imaging control of the television cameras 2L, 2R, and 2V, and transfers the captured image data to the RAM 13 via the bus 10. Reference numeral 16 denotes an illumination interface that turns on and off the illumination device 3. Reference numeral 17 denotes a DISK interface, which is an interface with the hard disk 18. The hard disk 18 stores a program executed by the apparatus, tableware teaching data, a tableware amount table, and the like. A program to be executed by this apparatus is transferred to the RAM 13 by a program stored in the ROM 12 when the power is turned on, and is executed by the CPU 11. Reference numeral 19 denotes a LAN interface, which exchanges data with a host computer. In this embodiment, the settled information is transferred to the host computer, and the actual fee is settled by payroll deduction or credit deduction.

図6はCPU11で実行されるプログラムの全体処理フローである。電源が投入されると、ステップ101で初期化が行われる。初期化ではハードディスク18に格納されているプログラムと教示データ、金額テーブル等をRAM14に転送する。また、各I/OとLANインターフェイスの初期化も行う。次に、ステップ102で入力をチェックする。タッチパネル5からの終了キーの入力がある場合には、処理を終了する。一方、カードリーダ4からのIDカードの読み取り入力がある場合には、ステップ103の処理に進む。 ステップ103では、食器の認識を行う。食器認識処理の詳細については後述する。食器の認識からは認識した食器番号が返される。ステップ104では、ステップ103で認識された食器の料金計算を行う。料金計算ではあらかじめ登録されている食器番号と食器の名称、その金額のテーブルを使用する。認識された食器番号を用いて料金の合計金額を計算する。ステップ105では、タッチパネル5に金額の表示を行う。表示内容は合計金額と認識した食器の名称とそれぞれの金額である。処理が終了すると、ステップ102に戻る。この時、IDカードの番号と合計金額は精算情報としてハードディスク18に書き込まれる。ハードディスク18に書き込まれた精算情報は、上位コンピュータの要求によって上位コンピュータに転送される。   FIG. 6 is an overall process flow of a program executed by the CPU 11. When the power is turned on, initialization is performed in step 101. In initialization, the program, teaching data, amount table, and the like stored in the hard disk 18 are transferred to the RAM 14. It also initializes each I / O and LAN interface. Next, in step 102, the input is checked. If there is an end key input from the touch panel 5, the process ends. On the other hand, if there is an ID card reading input from the card reader 4, the process proceeds to step 103. In step 103, the tableware is recognized. Details of the tableware recognition process will be described later. The recognized tableware number is returned from the tableware recognition. In step 104, the fee for the tableware recognized in step 103 is calculated. In the fee calculation, a table of registered tableware numbers, tableware names, and amounts is used. Calculate the total price using the recognized tableware number. In step 105, the amount is displayed on the touch panel 5. The displayed contents are the name of the tableware recognized as the total amount and the respective amounts. When the process ends, the process returns to step 102. At this time, the ID card number and the total amount are written to the hard disk 18 as settlement information. The settlement information written in the hard disk 18 is transferred to the host computer at the request of the host computer.

以下、図7を用いて、ステップ103の食器認識処理の処理フローを説明する。まず、ステップ201で、3台のカメラ2L,2R,2Vを用いて、テーブル7上に置かれた食器8a,8b,8cの撮像を行う。撮像した画像情報はRAM13に格納される。 次に、ステップ202で、3台のカメラ2L,2R,2Vからの画像データに基づいて食器8a,8b,8cの三次元計測を行う。処理した結果は、三次元の形状を近似した線分の集合として出力される。各線分は、始点と終点とに関する三次元位置の情報を保有している。処理内容詳細については後述する。ステップ203では、得られた線分のグループ化を行う。グループ化は、各線分の始点または終点が近いものを同一のグループとする。グループ化によって各食器の縁はそれぞれひとつのグループとなる。ステップ204で、グループ化した各グループについて特徴量の計算を行う。1つのグループは1つの食器に対応している。特徴量として、本実施形態では、グループの平均高さ、面積、周囲長を算出している。このとき、高さ10mm以下のグループは箸や食器の影だと判断しグループ自体を削除する。   Hereinafter, the processing flow of the tableware recognition processing in step 103 will be described with reference to FIG. First, in step 201, the tableware 8a, 8b, 8c placed on the table 7 is imaged using the three cameras 2L, 2R, 2V. The captured image information is stored in the RAM 13. Next, in step 202, three-dimensional measurement of the tableware 8a, 8b, 8c is performed based on the image data from the three cameras 2L, 2R, 2V. The processed result is output as a set of line segments approximating a three-dimensional shape. Each line segment has information on the three-dimensional position regarding the start point and the end point. Details of the processing contents will be described later. In step 203, the obtained line segments are grouped. In the grouping, the ones with the close start point or end point of each line segment are made the same group. By grouping, the edges of each tableware become one group. In step 204, feature quantities are calculated for each grouped group. One group corresponds to one tableware. In the present embodiment, the average height, area, and perimeter of the group are calculated as feature amounts. At this time, a group having a height of 10 mm or less is determined to be a shadow of chopsticks or tableware, and the group itself is deleted.

次に、ステップ205で、先に得られた三次元情報の特徴量とハードディスク18に記憶された教示データとの比較を行う。教示データは、テーブルとしてあらかじめ登録しておく。教示データテーブルには、食器番号、食器名称、縁の平均高さ、面積、周囲長が登録されている。計算した特徴量とこのテーブルの各値とを比較して、差がそれぞれ一定の閾値以下になるものを探す。一致するものがあれば、ステップ206で食器番号を認識結果として登録する。一致するものがなければステップ207に進む。ステップ207では全グループについて処理が完了したかをチェックし、完了していなければステップ205に戻る。完了していれば処理を終了する。このようにしてトレイの上に乗ったすべての食器8a,8b,8cの認識が行われる。   Next, in step 205, the feature quantity of the previously obtained three-dimensional information is compared with the teaching data stored in the hard disk 18. The teaching data is registered in advance as a table. In the teaching data table, the tableware number, tableware name, average height of the edge, area, and perimeter are registered. The calculated feature quantity is compared with each value in this table, and a search is made for a difference that is less than a certain threshold value. If there is a match, the table number is registered as a recognition result in step 206. If there is no match, go to step 207. In step 207, it is checked whether the processing has been completed for all groups. If not, the process returns to step 205. If completed, the process is terminated. In this way, recognition of all tableware 8a, 8b, 8c on the tray is performed.

図8はステップ202の詳細を示した三次元計測の処理フローである。この処理フローでは、まず、ステップ301で、左カメラ2Lの画像データと右カメラ2Rの画像データとを使用して計測処理を行う。次に、ステップ302で、右カメラ2Rの画像データと垂直カメラ2Vの画像データとを使用して計測処理を行う。さらに、ステップ303では、垂直カメラ2Vの画像データと左カメラ2Lの画像データとを使用して計測処理を行う。ステップ304では、ステップ301〜ステップ303で得られた3つの三次元情報の中から、精算に最適なものを選択する。本例においては、最適なものとして、次に説明するエピポーラ確信度が最も高いものを選択する。   FIG. 8 is a three-dimensional measurement process flow showing details of step 202. In this processing flow, first, in step 301, measurement processing is performed using the image data of the left camera 2L and the image data of the right camera 2R. Next, in step 302, measurement processing is performed using the image data of the right camera 2R and the image data of the vertical camera 2V. Further, in step 303, measurement processing is performed using the image data of the vertical camera 2V and the image data of the left camera 2L. In step 304, the optimal three-dimensional information obtained in steps 301 to 303 is selected from the three-dimensional information. In this example, the most suitable epipolar certainty described below is selected.

図9はステップ301、ステップ302、ステップ303の詳細を示す計測処理の処理フローである。但し、この処理フローでは、便宜上、ステップ301の左カメラの画像と右カメラの画像が入力されたケースについて説明する。   FIG. 9 is a processing flow of measurement processing showing details of step 301, step 302, and step 303. However, in this processing flow, the case where the left camera image and the right camera image in step 301 are input will be described for the sake of convenience.

まず、ステップ401で2つの画像を各々微分し、画像中の濃淡の差が顕著になっているエッジを抽出する。ステップ402で、左カメラ画像のエッジの画像中での連結状態を用いてセグメンテーションを行う。次に、ステップ403で左カメラの連結しているセグメント内でエッジを直線近似する。直線近似したある線分の始点を(XLS、YLS)、終点を(XLE、YLE)とする。ステップ404では、すべての線分の始点終点について右カメラ画像での対応点を探索する。画像中のLRエピポーララインに沿ってエッジを探索して行き見つかったところを対応点とする。始点に対する対応点(XRS、YRS)、終点に対する対応点を(XRE、YRE)とする。ステップ405で各対応点に対して三次元計算を行う。対応点の三次元座標を(x、y、z)とし次式にて計算する。

Figure 2009176209
First, in step 401, the two images are differentiated, and an edge in which the difference in shading in the image is significant is extracted. In step 402, segmentation is performed using the connected state in the edge image of the left camera image. Next, in step 403, the edge is linearly approximated within the segment connected to the left camera. The start point of a line segment approximated by a straight line is set to (XLS, YLS), and the end point is set to (XLE, YLE). In step 404, corresponding points in the right camera image are searched for the start point and end point of all line segments. An edge is searched for along the LR epipolar line in the image, and a found point is set as a corresponding point. The corresponding points for the start point (XRS, YRS) and the corresponding points for the end point are (XRE, YRE). In step 405, a three-dimensional calculation is performed for each corresponding point. The three-dimensional coordinates of the corresponding point are set as (x, y, z) and calculated by the following formula.
Figure 2009176209

上式において、aはカメラ間の距離である。また、各々のカメラのY軸はエピポーララインと平行になっているものとする。平行でない場合は回転行列を用いてあらかじめ座標変換を行っておく。次に、406でエピポーラ確信度Kを求める。エピポーラ確信度Kは、各線分のXY平面への射影とエピポーララインのなす角度で定義され、90度のとき最大になるよう次式で求める。

Figure 2009176209
In the above formula, a is the distance between the cameras. In addition, the Y axis of each camera is assumed to be parallel to the epipolar line. If they are not parallel, coordinate transformation is performed in advance using a rotation matrix. Next, at 406, an epipolar certainty factor K is obtained. The epipolar confidence K is defined by the angle formed by the projection of each line segment on the XY plane and the epipolar line, and is determined by the following equation so as to be maximum at 90 degrees.
Figure 2009176209

上式において、θは線分のXY平面への射影とエピポーララインとのなす角度である。各線分に対してこのKを求めておく。同じ部分の線分は各2台のカメラの組み合わせで3個得られる。このうちKが最大のものが信頼性が一番高いので、それを最終的な三次元位置として採用する。対応点が見つからず3個得られていない場合は、得られているものの中でもっとも信頼性の高いものを採用する。これにより、食器の縁(エッジ)の方向によらずに常に信頼性の高い三次元位置の検出が可能となる。   In the above equation, θ is an angle formed by the projection of the line segment onto the XY plane and the epipolar line. This K is obtained for each line segment. Three line segments of the same part can be obtained by combining two cameras each. Of these, the one with the largest K has the highest reliability, and is adopted as the final three-dimensional position. If no corresponding point is found and three are obtained, the most reliable one is adopted. This makes it possible to always detect a reliable three-dimensional position regardless of the direction of the edge of the tableware.

本実施形態に係る食堂用自動精算装置は、上述の構成を有するので、以下に示す効果を奏する。   Since the automatic settlement apparatus for a cafeteria according to the present embodiment has the above-described configuration, the following effects can be obtained.

1.精算する食器8a,8b,8cの認識を、信頼性の高い三次元情報に基づいて行うので、使用する食器の制限が少なく、多種類のメニューの提供が可能である。本実施形態では、高さの判別性能を約5mmに調整しており、食器の高さは通常20mmから100mm程度であるので、平面形状のみを用いた場合に比べて約18倍の数のメニューを設定することができる。   1. Since the tableware 8a, 8b, 8c to be settled is recognized based on highly reliable three-dimensional information, there are few restrictions on the tableware to be used, and a variety of menus can be provided. In this embodiment, the height discrimination performance is adjusted to about 5 mm, and the height of the tableware is usually about 20 mm to 100 mm. Therefore, the number of menus is about 18 times that of the case where only the planar shape is used. Can be set.

2.食器の3次元形状のみを判別の手がかりとしているので、食器にICタグ等の情報を付加する必要がなく、従来使用していた食器をそのまま使用できる。   2. Since only the three-dimensional shape of the tableware is used as a clue, it is not necessary to add information such as an IC tag to the tableware, and the tableware used conventionally can be used as it is.

3.食器の上方からの撮像によって食器の認識を行っているので、特殊なトレイ等を使用する必要がない。   3. Since the tableware is recognized by imaging from above the tableware, it is not necessary to use a special tray or the like.

4.食器の外形に着目して認識を行っているため、食器の中に盛られている料理の影響がなく、食前、食後、いずれの精算処理も可能である。   4). Since recognition is performed by paying attention to the outer shape of the tableware, there is no influence of the dishes accumulated in the tableware, and any checkout process can be performed before or after the meal.

5.カードによる精算を行っているので、現金を扱う必要がない。   5). There is no need to handle cash because payment is done by card.

6.高さ画像を用いて10mm以上の高さを有するものだけを検出しているので、箸、スプーン等を特別な処理や設定無しで精算対象外にできる。   6). Since only those having a height of 10 mm or more are detected using the height image, chopsticks, spoons, etc. can be excluded from the adjustment target without special processing or setting.

7.カメラ数を3つとしたので、カメラ数の増加によるコスト高を最小限に抑えることができる。また、3つのカメラ2L,2R,2Vをテーブル7と平行な平面内で等分に配置したので、各カメラ2L,2R,2Vによって撮像された画像データ上の点の対応付けが容易になり、認識手段のプログラム構成を簡略化できると共に、精算処理を高速化することができる。   7. Since the number of cameras is three, the high cost due to the increase in the number of cameras can be minimized. In addition, since the three cameras 2L, 2R, and 2V are equally arranged in a plane parallel to the table 7, it is easy to associate points on the image data captured by the cameras 2L, 2R, and 2V. The program configuration of the recognition means can be simplified and the settlement process can be speeded up.

なお、前記実施形態では、IDカードを用いて精算を行う構成としたが、かかる構成に換えて、プリペイドカードを用いて精算を行う構成とすることもできる。   In the above-described embodiment, the payment is performed using the ID card. However, the payment may be performed using a prepaid card instead of the configuration.

また、前記実施形態では、カメラ数を3つとしたが、本発明の要旨はこれに限定されるものではなく、3つ以上の任意の数とすることができる。   In the embodiment, the number of cameras is three. However, the gist of the present invention is not limited to this, and the number of cameras can be any number of three or more.

さらに、前記実施形態では、複数の三次元情報の中からエピポーラ確信度が最も高いものを選択して食器の種類の判定を行ったが、エピポーラ確信度が最も高いものを選択する必要は必ずしも無く、食器の高さ情報を含む少なくとも1種類以上の三次元情報を選択して食器の種類の判定すれば足りる。   Further, in the embodiment, the type of tableware is determined by selecting the one having the highest epipolar certainty from the plurality of three-dimensional information, but it is not always necessary to select the one having the highest epipolar certainty. It is sufficient to select at least one type of three-dimensional information including table height information and determine the type of tableware.

実施形態に係る食堂用自動精算装置の全体構成図である。It is a whole block diagram of the automatic adjustment apparatus for dining rooms which concerns on embodiment. 従来例に係る食堂用自動精算装置の光学系配置図である。It is an optical system arrangement | positioning figure of the automatic adjustment apparatus for dining rooms which concerns on a prior art example. 実施形態に係る食堂用自動精算装置の光学系配置図である。It is an optical system arrangement | positioning figure of the automatic adjustment apparatus for dining rooms which concerns on embodiment. 図3の撮像画像の例を示す図である。It is a figure which shows the example of the captured image of FIG. 実施形態に係る食堂用自動精算装置のハードウエア構成図である。It is a hardware block diagram of the automatic adjustment apparatus for dining rooms which concerns on embodiment. 実施形態に係る食堂用自動精算装置の全体処理フローである。It is the whole processing flow of the automatic adjustment apparatus for restaurants which concerns on embodiment. 実施形態に係る食堂用自動精算装置の食器認識処理フローである。It is the tableware recognition processing flow of the automatic adjustment apparatus for dining rooms which concerns on embodiment. 実施形態に係る食堂用自動精算装置の三次元認識処理フローである。It is a three-dimensional recognition process flow of the automatic adjustment apparatus for dining rooms which concerns on embodiment. 実施形態に係る食堂用自動精算装置の計測認識処理フローである。It is a measurement recognition process flow of the automatic adjustment apparatus for dining rooms which concerns on embodiment.

符号の説明Explanation of symbols

1 制御装置
2L、2R、2V テレビカメラ
3 照明装置
4 非接触カードリーダ
5 タッチパネル
6 トレイ
8 食器
DESCRIPTION OF SYMBOLS 1 Control apparatus 2L, 2R, 2V Television camera 3 Illumination apparatus 4 Non-contact card reader 5 Touch panel 6 Tray 8 Tableware

Claims (3)

利用者が選択した食器を置くテーブルと、当該テーブル上に置かれた食器を撮像する撮像手段と、当該撮像手段から取り込まれた画像データを記憶する画像データ記憶手段と、複数種類の食器の特徴量が予め記憶された教示データ記憶手段と、前記画像データ記憶手段に記憶された画像データと前記教示データ記憶手段に記憶された前記食器の特徴量とに基づいて、前記撮像手段により撮像された食器の種類を認識する認識手段と、前記食器の種類毎に設定された飲食物の価格が予め登録された価格記憶手段と、前記認識手段により認識された食器の種類及び数と前記価格記憶手段に登録された価格とに基づいて、前記テーブル上に置かれた食器に盛られて提供される飲食物の合計金額を計算する計算手段とを備えた自動精算装置において、
前記テーブルと対向に3つ以上の前記撮像手段を設置し、これら3つ以上の撮像手段を三角形の各頂点位置に配置すると共に、前記認識手段は、前記3つ以上の撮像手段のうちの1つの撮像手段により撮像された画像データと他の1つの撮像手段により撮像された画像データとから得られる複数の三次元情報の中から前記食器の高さ情報を含む1種類以上の三次元情報を選択して、前記食器の種類を認識することを特徴とする食堂用自動精算装置。
Table for placing tableware selected by a user, imaging means for imaging tableware placed on the table, image data storage means for storing image data captured from the imaging means, and characteristics of a plurality of types of tableware Based on the teaching data storage means in which the amount is stored in advance, the image data stored in the image data storage means, and the feature amount of the tableware stored in the teaching data storage means, the image is taken by the imaging means Recognition means for recognizing the type of tableware, price storage means for pre-registered prices of food and drink set for each type of tableware, type and number of tableware recognized by the recognition means, and the price storage means An automatic checkout device comprising a calculation means for calculating the total amount of food and drink provided on the tableware placed on the table based on the price registered in the table,
Three or more of the imaging units are installed opposite to the table, and the three or more imaging units are arranged at each vertex position of the triangle, and the recognition unit is one of the three or more imaging units. One or more types of three-dimensional information including the height information of the tableware out of a plurality of pieces of three-dimensional information obtained from image data captured by one imaging unit and image data captured by another one imaging unit. An automatic settlement apparatus for a cafeteria characterized by selecting and recognizing the type of the tableware.
前記認識手段は、前記複数の三次元情報の中から、線分のエピポーラ確信度が最も高い三次元情報を選択し、この選択された三次元情報と前記教示データ記憶手段に記憶された前記食器の特徴量とに基づいて食器の種類を認識することを特徴とする請求項1に記載の食堂用自動精算装置。   The recognizing unit selects three-dimensional information having the highest epipolar certainty of the line segment from the plurality of three-dimensional information, and the tableware stored in the selected three-dimensional information and the teaching data storage unit The automatic settlement apparatus for canteens according to claim 1, wherein the type of tableware is recognized based on the feature amount of the restaurant. 前記テーブルと平行な平面内で3つの前記撮像手段を正三角形の各頂点位置に配置し、これら3つの撮像手段のうちの2つを、前記テーブルの一辺と平行に配置したことを特徴とする請求項1に記載の食堂用自動精算装置。   In the plane parallel to the table, the three image pickup means are arranged at each vertex position of an equilateral triangle, and two of the three image pickup means are arranged parallel to one side of the table. The automatic settlement apparatus for cafeterias according to claim 1.
JP2008016295A 2008-01-28 2008-01-28 Automatic adjustment device for restaurant Pending JP2009176209A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008016295A JP2009176209A (en) 2008-01-28 2008-01-28 Automatic adjustment device for restaurant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008016295A JP2009176209A (en) 2008-01-28 2008-01-28 Automatic adjustment device for restaurant

Publications (1)

Publication Number Publication Date
JP2009176209A true JP2009176209A (en) 2009-08-06

Family

ID=41031192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008016295A Pending JP2009176209A (en) 2008-01-28 2008-01-28 Automatic adjustment device for restaurant

Country Status (1)

Country Link
JP (1) JP2009176209A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103646475A (en) * 2013-11-14 2014-03-19 成都博约创信科技有限责任公司 Cashier system integrating image identification and label identification
US9025816B2 (en) 2011-09-06 2015-05-05 Toshiba Tec Kabushiki Kaisha Image processing apparatus and method for object recognition
JP2016157328A (en) * 2015-02-25 2016-09-01 東芝テック株式会社 Measurement system, commodity selling data processor, and program
JP2016192089A (en) * 2015-03-31 2016-11-10 日本電気株式会社 Merchandise registration device, program, control method, and fare adjustment system
JP2017162024A (en) * 2016-03-07 2017-09-14 学校法人早稲田大学 Stereo matching processing method, processing program and processing device
CN107729851A (en) * 2017-10-24 2018-02-23 湖北工业大学 A kind of Chinese meal dinner party table top is set a table intelligent scoring method and system
WO2018073510A1 (en) 2016-10-20 2018-04-26 Jes Labs System for identifying or assisting the identification of a product or set of products
JP2018112559A (en) * 2018-04-04 2018-07-19 東芝テック株式会社 Measurement system, commodity selling data processor, and program
JP2019148868A (en) * 2018-02-26 2019-09-05 株式会社ブレイン Identification system and identification program of tableware
US11829982B2 (en) 2019-04-15 2023-11-28 Jes Labs System for identifying or assisting the identification of a product or set of products

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069579A (en) * 1996-08-28 1998-03-10 Hitachi Keiyo Eng Co Ltd Automatic charge settling device for eating and drinking
JPH10228542A (en) * 1997-02-13 1998-08-25 Advance Co Ltd Method and instrument for three-dimensional measurement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069579A (en) * 1996-08-28 1998-03-10 Hitachi Keiyo Eng Co Ltd Automatic charge settling device for eating and drinking
JPH10228542A (en) * 1997-02-13 1998-08-25 Advance Co Ltd Method and instrument for three-dimensional measurement

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9025816B2 (en) 2011-09-06 2015-05-05 Toshiba Tec Kabushiki Kaisha Image processing apparatus and method for object recognition
CN103646475A (en) * 2013-11-14 2014-03-19 成都博约创信科技有限责任公司 Cashier system integrating image identification and label identification
JP2016157328A (en) * 2015-02-25 2016-09-01 東芝テック株式会社 Measurement system, commodity selling data processor, and program
JP2016192089A (en) * 2015-03-31 2016-11-10 日本電気株式会社 Merchandise registration device, program, control method, and fare adjustment system
JP2017162024A (en) * 2016-03-07 2017-09-14 学校法人早稲田大学 Stereo matching processing method, processing program and processing device
WO2018073510A1 (en) 2016-10-20 2018-04-26 Jes Labs System for identifying or assisting the identification of a product or set of products
CN107729851A (en) * 2017-10-24 2018-02-23 湖北工业大学 A kind of Chinese meal dinner party table top is set a table intelligent scoring method and system
CN107729851B (en) * 2017-10-24 2020-12-29 湖北工业大学 Intelligent scoring method and system for table arrangement of Chinese meal banquet table
JP2019148868A (en) * 2018-02-26 2019-09-05 株式会社ブレイン Identification system and identification program of tableware
JP7084603B2 (en) 2018-02-26 2022-06-15 株式会社ブレイン Tableware identification system and identification program
JP2018112559A (en) * 2018-04-04 2018-07-19 東芝テック株式会社 Measurement system, commodity selling data processor, and program
US11829982B2 (en) 2019-04-15 2023-11-28 Jes Labs System for identifying or assisting the identification of a product or set of products

Similar Documents

Publication Publication Date Title
JP2009176209A (en) Automatic adjustment device for restaurant
CN107992871B (en) Restaurant automatic checkout method based on image recognition
US11587195B2 (en) Image processing methods and arrangements useful in automated store shelf inspections
KR101879586B1 (en) Method and system for managing implementation of augmented reality
US10007964B1 (en) Image processing methods and arrangements
TWI531929B (en) Identifying a target touch region of a touch-sensitive surface based on an image
US9390314B2 (en) Methods and apparatus for determining dimensions of an item using 3-dimensional triangulation
JP5343042B2 (en) Point cloud data processing apparatus and point cloud data processing program
CN109584307B (en) System and method for improving calibration of intrinsic parameters of a camera
US10156937B2 (en) Determining a segmentation boundary based on images representing an object
US10417769B2 (en) Automatic mode switching in a volume dimensioner
US20090213224A1 (en) Fast Imaging System Calibration
CN106920279A (en) Three-dimensional map construction method and device
CN112464697B (en) Visual and gravity sensing based commodity and customer matching method and device
JP6031258B2 (en) Display device
CN107958458A (en) Image partition method, image segmentation system and include its equipment
US10664090B2 (en) Touch region projection onto touch-sensitive surface
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
WO2020007323A1 (en) Supermarket shopping cart positioning method, supermarket shopping cart positioning system, and supermarket shopping cart
CN108320403B (en) Commodity identification device, control method and terminal equipment
US20200012878A1 (en) Image recognition system, image recognition method, and storage medium
WO2024012463A1 (en) Positioning method and apparatus
JP5931646B2 (en) Image processing device
JP2010243405A (en) Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program
EP3177005B1 (en) Display control system, display control device, display control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305