JP2019074699A - インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法 - Google Patents

インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法 Download PDF

Info

Publication number
JP2019074699A
JP2019074699A JP2017202077A JP2017202077A JP2019074699A JP 2019074699 A JP2019074699 A JP 2019074699A JP 2017202077 A JP2017202077 A JP 2017202077A JP 2017202077 A JP2017202077 A JP 2017202077A JP 2019074699 A JP2019074699 A JP 2019074699A
Authority
JP
Japan
Prior art keywords
display screen
interactive interface
sensor device
interface system
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017202077A
Other languages
English (en)
Inventor
優策 島岡
Yusaku Shimaoka
優策 島岡
貴之 毛利
Takayuki Mori
貴之 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017202077A priority Critical patent/JP2019074699A/ja
Priority to US16/164,398 priority patent/US20190114801A1/en
Publication of JP2019074699A publication Critical patent/JP2019074699A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Food-Manufacturing Devices (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】キャリブレーションの精度向上を図ることが可能なインタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法を提供する。【解決手段】インタラクティブインタフェースシステム1は、表示装置(投影装置2)と、センサ装置5とを備える。センサ装置5は、表示装置(投影装置2)の表示画面(作業面)と対向する物体の位置を検出する。インタラクティブインタフェースシステム1は、キャリブレーションモードを有する。キャリブレーションモードでは、表示画面(作業面)と対向する所定位置に配置される立体指標の位置をセンサ装置5が検出した検出結果に基づいて、表示画面(作業面)の表示位置とセンサ装置5の検出位置とのキャリブレーションを行う。【選択図】図1

Description

本開示は、インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法に関し、特に、表示装置を有するインタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法に関する。
特許文献1には、プロジェクターと発光ペンと位置情報変換装置とを備えるインタラクティブシステムが開示されている。プロジェクターは投影面に映像を投影する。発光ペンは、ペン状の本体の先端部に押圧スイッチと発光ダイオードとを備える。ユーザが、発光ペンの先端部を投影面に押し付ける操作を行うと、押圧スイッチが押されて発光ダイオードが点灯する。位置情報変換装置は、投影面に投影された投影画像を含む範囲を撮像する撮像部を備える。位置情報変換装置は、撮像部の撮像画像に基づいて撮像画像内で発光ペンが発光したか否かを判別し、発光があった場合には発光した位置の位置情報(座標)を検出する。
特許文献1のインタラクティブシステムでは、プロジェクターから投影される投影画像と、撮像画像との間で位置の対応付けを行うキャリブレーションを実施する。キャリブレーションの実行時には、プロジェクターが、キャリブレーションポイントを表示する画像を投影する。ユーザがキャリブレーションポイントの中心に発光ペンの先端部を押し付けると、発光ペンが発光し、位置情報変換装置が発光した位置の位置情報を検出する。位置情報変換装置は、複数のキャリブレーションポイントについてキャリブレーションを実施し、プロジェクターから投影される投影画像と、撮像画像との間で位置の対応付けを行っている。
特開2012−173447号公報
特許文献1のインタラクティブシステムでは、キャリブレーションの実施時に、ユーザが発光ペンを持ち、キャリブレーションポイントの中心に発光ペンの先端部を押し付けている。そのため、撮像部に、発光ペンを持つユーザの手や腕等の体や影、ユーザの体や衣服等で反射された光等が映り込む可能性があり、キャリブレーションの精度が低下する可能性があった。
本開示の目的は、キャリブレーションの精度向上を図ることが可能なインタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法を提供することにある。
本開示の一態様のインタラクティブインタフェースシステムは、表示画面に表示する表示装置と、検出対象の位置を検出するセンサ装置とを備え、キャリブレーションモードを有する。キャリブレーションモードでは、前記表示画面の範囲内の指標の位置を前記センサ装置が検出した検出結果に基づいて、前記表示画面の表示位置と前記センサ装置の検出位置とのキャリブレーションを行う。
本開示の一態様の作業支援システムは、前記インタラクティブインタフェースシステムを備え、前記表示装置が、作業を支援する内容を前記表示画面に表示する。
本開示の一態様の厨房支援システムは、前記インタラクティブインタフェースシステムを備え、前記表示装置が、厨房での調理作業を支援する内容を前記表示画面に表示する。
本開示の一態様のインタラクティブインタフェースシステムのキャリブレーション方法は、表示ステップと、検出ステップと、調整ステップとを有する。前記表示ステップでは、表示装置が表示画面に表示する。前記検出ステップでは、前記表示画面の範囲内の指標の位置をセンサ装置が検出する。前記調整ステップでは、前記センサ装置の検出結果に基づいて前記表示画面の表示位置と前記センサ装置の検出位置とのキャリブレーションを行う。
本開示によれば、キャリブレーションの精度向上を図ることが可能なインタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法を提供することができる。
図1は、本発明の一実施形態に係るインタラクティブインタフェースシステムのブロック図である。 図2は、同上のインタラクティブインタフェースシステムが適用された調理台の斜視図である。 図3は、同上のインタラクティブインタフェースシステムが適用された調理台の側面図である。 図4は、同上のインタラクティブインタフェースシステムのキャリブレーション動作を説明するフローチャートである。 図5は、同上のインタラクティブインタフェースシステムにより投影される調整用画像の説明図である。 図6は、同上のインタラクティブインタフェースシステムのキャリブレーション時に使用する立体指標の斜視図である。 図7は、同上のインタラクティブインタフェースシステムのキャリブレーション時に立体指標を配置した状態の説明図である。 図8は、同上のインタラクティブインタフェースシステムのキャリブレーション時に立体指標を配置した状態を斜め前方から見た説明図である。 図9は、同上のインタラクティブインタフェースシステムを備える厨房支援システムによって表示される調理指示画面の説明図である。 図10は、本発明の一実施形態の変形例に係るインタラクティブインタフェースシステムのキャリブレーション時に立体指標を配置した状態の説明図である。
(実施形態)
(1)概要
本実施形態のインタラクティブインタフェースシステム1は、図1に示すように、表示装置(投影装置2)と、センサ装置5とを備える。
表示装置(投影装置2)は表示画面に表示する。ここにおいて、「表示画面」とは表示内容が表示される表示面であり、表示装置が投影装置2である場合は投影装置2から映像が投影されるスクリーン(本実施形態では作業面101)が表示画面となる。なお、表示装置が液晶ディスプレイ等のディスプレイ装置である場合はディスプレイ装置の画面が表示画面となる。
センサ装置5は、検出対象の位置を検出する。
インタラクティブインタフェースシステム1はキャリブレーションモードを有する。キャリブレーションモードでは、表示画面の範囲内の指標の位置をセンサ装置5が検出した検出結果に基づいて、表示画面の表示位置とセンサ装置5の検出位置とのキャリブレーションを行う。ここにおいて、「表示画面の範囲内の指標」とは、センサ装置5から見て表示画面の範囲内にある指標であり、表示画面と接触している状態又は表示画面と離れた状態で表示画面と対向する位置にある指標、表示画面の画面内にある指標を含む。「指標」は、センサ装置5で検出可能であれば、有形の指標でもよいし、無形の指標でもよい。「指標」は、例えば、表示装置(投影装置2)の表示画面と対向する所定位置に配置される立体指標60(図6及び図7参照)等である。なお、表示画面と対向する所定位置とは、表示画面に接触する位置でもよいし、表示画面と離れた位置でもよい。また、センサ装置5が画像センサである場合、「指標」は、例えば、光を発する光源、光を反射する反射部材、光を拡散する拡散部材、表示画面上に表示される輝点等でもよい。
このように、キャリブレーションモードでは、表示画面の表示位置と、センサ装置5が検出した指標の検出位置とのキャリブレーションを行っている。そのため、指標の位置の周辺や表示位置の周辺に、ユーザが居る必要がなく、指標の位置の周辺や表示位置の周辺にユーザの体や衣服等が存在しない状態でキャリブレーションを行うことができる。したがって、ユーザの体や衣服等がキャリブレーション結果に影響しにくくなるため、キャリブレーションの精度向上を図ることができる。
(2)詳細
以下、本実施形態のインタラクティブインタフェースシステム1について図面を参照して説明する。以下に説明するインタラクティブインタフェースシステム1は、例えば、厨房支援システムのヒューマンマシンインタフェースとして使用される。厨房支援システムは、例えば、ファストフード店の調理場等の厨房に設けられて、ユーザ(調理作業の作業者)が行う調理作業を支援する。
(2.1)構成
本実施形態のインタラクティブインタフェースシステム1は、図1に示すように、投影装置2と、制御装置3と、記憶装置4と、センサ装置5とを備える。
インタラクティブインタフェースシステム1は、図2及び図3に示すように、客から注文された料理の調理を作業者H1が行う調理台100に設けられる。以下では、図2等において「上」、「下」、「左」、「右」、「前」、「後」の矢印で示す通りに各方向を規定する。つまり、調理を行う作業者H1が作業領域110(調理台100の上面である作業面101及びその上方の空間)を見たときの方向に基づいて、上下、左右、前後の各方向を定義する。但し、これらの方向はインタラクティブインタフェースシステム1の使用時の方向を規定する趣旨ではない。
投影装置2は、例えば調理台100の前側に配置される支柱10に支持されており、調理台100の上方に配置される。本実施形態の投影装置2は、例えば、プロジェクター等のディスプレイ装置と、ディスプレイ装置から出力された映像を反射して投影するミラー21とを備える。投影装置2は、作業領域110に向かって、つまり調理台100の作業面101に向かって映像を投影する。なお、投影装置2は、投影した映像をミラー21で反射させることで、調理台100の上面(作業面101)に映像を投影しているが、調理台100の作業面101面に映像を直接投影してもよい。また、投影装置2は、調理台100と一体に設けられてもよい。
記憶装置4は、ハードディスク、メモリカード等の記憶装置を含む。記憶装置4は、例えば投影装置2が表示画面(作業面101)に投影する画像データ、後述する制御装置3のコンピュータシステムが実行するプログラム等を記憶する。画像データとしては、例えば作業者H1に調理手順を指示するための調理指示画面の画像データ等がある。
センサ装置5は、赤外線照射部51と、赤外線カメラ52と、RGBカメラ53とを備える。センサ装置5のケース50は、調理台100の作業面101の前端付近に配置される。つまり、センサ装置5は、表示画面となる作業面101から見て一方向に配置されており、表示画面(作業面101)の一辺側(本実施形態では前辺側)に配置されている。本実施形態では、センサ装置5は表示画面の全周に配置されておらず、表示画面から見て一方向に配置されたセンサ装置5を用いて、表示画面と対向する物体の位置を検出している。
赤外線照射部51と赤外線カメラ52とRGBカメラ53とはケース50の前面(作業領域110側の面)に配置される(図2参照)。赤外線照射部51は、上下方向(表示画面となる作業面101と直交する方向)に対して交差する方向(本実施形態では上下方向と垂直な前後方向)から作業領域110側に赤外光を照射する。センサ装置5は画像センサとして赤外線カメラ52及びRGBカメラ53を備え、赤外線カメラ52及びRGBカメラ53は上下方向と交差する方向(本実施形態では上下方向と垂直な前後方向)から作業領域110を撮影する。
RGBカメラ53は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等の撮像素子を有している。RGBカメラ53は、例えば、所定のフレームレート(例えば1秒間に10〜80フレーム)で、作業領域110の二次元画像(カラー画像)を撮影する。
赤外線照射部51及び赤外線カメラ52は、例えばTOF(Time of Flight)方式により距離計測を行う距離画像センサを構成する。赤外線照射部51は作業領域110に赤外線を照射する。赤外線カメラ52は、例えばCMOSイメージセンサ、CCDイメージセンサ等の赤外線に感度を有する受光素子を有しており、赤外光を受光する。赤外線カメラ52は、RGBカメラ53と同じ方向を向くようにケース50に配置される。赤外線カメラ52は、赤外線照射部51からの照射光を作業領域110にある物体(食材、調理器具、作業者H1の手等)が反射した反射光を受光する。赤外線照射部51から照射された赤外光が赤外線カメラ52で受光されるまでの時間をもとに物体までの距離を計測できる。
したがって、センサ装置5は、RGBカメラ53で撮影された二次元画像と、赤外線カメラ52から出力される距離画像とを制御装置3に出力する。ここにおいて、距離画像とは、物体までの距離を濃淡で表した濃淡画像である。また、赤外線カメラ52及びRGBカメラ53は上下方向と交差する方向から作業領域110を撮影しているので、センサ装置5は、作業領域110に存在する物体の高さ方向(上下方向)の位置を検知できる。したがって、制御装置3は、センサ装置5から入力される二次元画像及び距離画像に基づいて物体が表示画面(作業面101)に接しているか否かを検知できる。
なお、本実施形態では、センサ装置5の赤外線照射部51と赤外線カメラ52とRGBカメラ53とは1つのケース50に収納されているが、赤外線照射部51と赤外線カメラ52とRGBカメラ53とは2つ以上の筐体に分散して配置されていてもよい。
制御装置3は、映像制御部31、位置取得部32、及び検出位置調整部33の機能を備える。
制御装置3は、プロセッサ及びメモリを有するコンピュータシステムを備える。コンピュータシステムのメモリ又は記憶装置4に記録されたプログラムを、コンピュータシステムのプロセッサが実行することによって、制御装置3の機能が実現される。コンピュータシステムのプロセッサが実行するプログラムは、メモリ又は記憶装置4に予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
映像制御部31は、投影装置2が作業領域110に向かって映像を投影する動作を制御する。映像制御部31は、作業者H1が行う調理作業に関連する料理関連の映像等を投影装置2に投影させる。料理関連の映像は、複数の工程を含む調理作業において工程ごとに作業内容を指示する調理指示画面を含む。映像制御部31は、投影装置2を制御して、作業領域110側に調理指示画面等の映像を投影させる。
位置取得部32は、センサ装置5から入力される二次元画像と距離画像とに基づいて、調理台100の作業面101(投影装置2によって映像が投影される面)と対向する物体の位置を取得する。具体的には、位置取得部32は、例えばテンプレートマッチングを行うことによって二次元画像から物体を検出し、二次元画像における物体の位置を求める。また、位置取得部32は、二次元画像における物体の位置と距離画像とに基づいて、センサ装置5から物体までの距離を求める。そして、位置取得部32は、二次元画像における物体の位置とセンサ装置5から物体までの距離とを用いて、表示画面となる作業面101における物体の位置を求めている。ここで、位置取得部32は、二次元画像から複数の物体を検出した場合、複数の物体のそれぞれについて作業面101における物体の位置を求めればよい。
検出位置調整部33は、キャリブレーションモードにおいて、位置取得部32がセンサ装置5から取得した立体指標60の検出位置に基づいて、表示画面上の表示位置とセンサ装置5の検出位置とのキャリブレーションを行う。立体指標60は、キャリブレーションモードにおいて、表示画面と対向する所定位置に配置される。検出位置調整部33は、センサ装置5の検出結果を補正する補正情報を求め、補正情報を記憶装置4に記憶する。
制御装置3は、キャリブレーションモードを終了すると、位置取得部32が取得した物体の位置の検出結果を、記憶装置4に記憶された補正情報を用いて補正することで、物体の位置を求める。
本実施形態において、キャリブレーションモードで使用される立体指標60は、図6に示すように、調理台100の作業面101に載せられる矩形板状の台座部61と、台座部61の長手方向における一端部から上方に突出する矩形板状の表示部62とを有している。表示部62の表面には逆三角形のマーク63が印刷、塗装、テープ等の適宜の方法で設けられている。マーク63は、表示部62の上辺を一辺とし、表示部62の下辺の中点を頂点とする二等辺三角形である。表示部62に設けられたマーク63の下端は、表示画面(作業面101)との接触点を示している。なお、立体指標60及びマーク63の形状は適宜変更が可能である。立体指標60は、例えば角柱や三角柱等の柱状でもよいし、三角錐、四角錐等の錐体状でもよい。
(2.2)動作
本実施形態のインタラクティブインタフェースシステム1の動作について説明する。
(2.2.1)キャリブレーションモードの動作説明
インタラクティブインタフェースシステム1の制御装置3は、適宜のタイミング、又は作業者H1から操作入力を受け付けたタイミングでキャリブレーション動作を実行する。ここで、制御装置3が行うキャリブレーション動作について図4のフローチャートに基づいて説明する。
制御装置3の映像制御部31は、キャリブレーションに使用するパラメータを入力するための入力画面の画像データを作成し、投影装置2に出力する。投影装置2は、映像制御部31から入力画面の画像データが入力されると、入力画面を調理台100の作業面101に投影する。パラメータは、例えば投影装置2が作業面101に投影する映像の大きさ、センサ装置5から投影装置2によって投影される画面(例えば、画面の前側辺)までの距離、左右方向におけるセンサ装置5の中心位置と画面の中心位置とのずれ量等を含む。
作業面101に入力画面が投影されている状態で、作業者H1がキーボード等の入力装置を用いてパラメータを入力すると(図4のS1)、制御装置3は入力されたパラメータを記憶装置4に記憶する。なお、パラメータの入力は事前に行っておいてもよい。
パラメータの入力が終了すると、制御装置3の映像制御部31は調整用画面G1(図5参照)の画像データを作成して投影装置2に出力する。調整用画面G1は、複数の立体指標60(図6参照)の配置位置をそれぞれ示す複数(図5の例では11個)の円形のドットD1〜D11を表示する映像である。なお、ドットD1〜D11の形状は円形に限定されず、調整用画面G1に表示される立体指標60の配置位置を示す印の形状は適宜変更が可能である。
また、本実施形態では、調整用画面G1が、RGBカメラ53の二次元画像を表示する表示領域G11と、RGBカメラ53の二次元画像と赤外線カメラ52の距離画像との合成画像を表示する表示領域G12を含んでいる。なお、調整用画面G1が表示領域G11,G12を含むことは必須ではなく、表示領域G11,G12は省略が可能である。
投影装置2は、映像制御部31から調整用画面G1の画像データが入力されると、調理台100の作業面101に調整用画面G1を投影する(図4のS2)。
調理台100の作業面101に調整用画面G1が表示されると、作業者H1は、図7及び図8に示すように、複数のドットD1〜D11の上に複数の立体指標60をそれぞれ配置する(図4のS3)。ここにおいて、複数の立体指標60は、表示部62がセンサ装置5の方を向くようにして配置される。
投影装置2が調整用画面G1を投影してから所定時間が経過すると、制御装置3の位置取得部32はセンサ装置5から検出結果として作業領域110を映した二次元画像と距離画像とを取得する(図4のS4)。なお、投影装置2が調整用画面G1を投影した後に、制御装置3が作業者H1から適宜の方法で入力された操作入力を受け付けると、制御装置3の位置取得部32がセンサ装置5から作業領域110を映した二次元画像と距離画像とを取得してもよい。
位置取得部32は、例えばテンプレートマッチングを行って二次元画像から複数の立体指標60のマーク63を検出し、複数の立体指標60のそれぞれについてマーク63の下端の位置(二次元画像上の位置)を求める。また、位置取得部32は、二次元画像から検出した複数の立体指標60のそれぞれで、センサ装置5からマーク63の下端までの距離を距離画像から求める。そして、位置取得部32は、複数の立体指標60のそれぞれで、マーク63の下端の二次元画像上の位置と、センサ装置5からマーク63の下端までの距離とを用いて、表示画面となる作業面101におけるマーク63の下端の位置を求める。これにより、位置取得部32は、センサ装置5の検出結果に基づいて、調整用画面G1のドットD1〜D11の上に置かれた複数の立体指標60の位置(作業面101における位置)をそれぞれ取得することができる。
ここで、位置取得部32は、立体指標60の表示部62に表示されたマーク63の下端(表示画面との接触点)の位置を立体指標60の位置として取得する。したがって、複数の立体指標60の各々が、複数のドットD1〜D11のうち対応するドットの位置にマーク63の下端が一致するように配置されることで、複数の立体指標60の検出位置を対応するドットD1〜D11の位置と一致させることができる。
このように、位置取得部32が複数の立体指標60の検出位置を取得すると、検出位置調整部33は、調整用画面G1におけるドットD1〜D11の位置と、ドットD1〜D11の上に置かれた立体指標60の検出位置とに基づいて補正情報を求める(図4のS5)。補正情報は、ドットD1〜D11のうち演算対象のマークの上に配置された立体指標60の検出位置(本実施形態では表示画面との接触点)を、演算対象のマークの調整用画面G1における位置に変換するための位置変換情報である。つまり、本実施形態のセンサ装置5は、マーク63の下端の位置から立体指標60と表示画面との接触点を検出でき、表示画面の表示位置と接触点のキャリブレーションを行うことができる。検出位置調整部33は、ドットD1〜D11の位置でそれぞれ補正情報を求めると、ドットD1〜D11の位置でそれぞれ求めた補正情報(位置変換情報)を記憶装置4に記憶させ(図4のS6)、キャリブレーションモードを終了する。
本実施形態では、複数のドットD1〜D11は、ドットD1〜D11の上に配置された複数の立体指標60がセンサ装置5から見て互いに重ならないような位置に設定されている。したがって、センサ装置5が作業領域110の二次元画像及び距離画像を撮影すると、センサ装置5が撮影した二次元画像及び距離画像に複数の立体指標60の全てが映るので、複数の立体指標60の位置を一度に検出することができる。なお、ドットD1〜D11の上に配置される複数の立体指標60は、センサ装置5から見て全体が重なっていなければよく、立体指標60の少なくとも一部(マーク63の下端である頂点を含む部位)が互いに重なっていなければよい。
また、図8に示すように、ドットD1〜D11の上に配置される複数の立体指標60はセンサ装置5からの距離に応じて3つのグループGR1,GR2,GR3に分かれている。グループGR1に属する立体指標60(601)とセンサ装置5との距離は、グループGR2に属する立体指標60(602)とセンサ装置5との距離よりも短い。グループGR3に属する立体指標60(603)とセンサ装置5との距離は、グループGR2に属する立体指標60(602)とセンサ装置5との距離よりも長い。そして、グループGR1に属する立体指標60(601)の前面(表示部62)の大きさは、グループGR2に属する立体指標60(602)のの前面の大きさに比べて小さい。また、グループGR3に属する立体指標60(603)の前面の大きさは、グループGR2に属する立体指標60(602)の前面の大きさよりも大きい。
このように、グループGR1,GR2,GR3にそれぞれ属する立体指標601,602,603において、センサ装置5からの距離が相対的に長いグループの立体指標60は、センサ装置5からの距離が相対的に短いグループの立体指標60に比べて前面の大きさが大きい。つまり、複数の立体指標60のうち、センサ装置5との距離が異なる2以上の立体指標60では、センサ装置5から見た見かけ上の寸法差が低減されるように、前面の実際(実物)の大きさが異なっている。
したがって、センサ装置5に相対的に近いグループの立体指標60と、センサ装置5に相対的に遠いグループの立体指標60とで、センサ装置5から見た見かけ上の寸法差が低減される。よって、センサ装置5から出力される二次元画像において、立体指標60の見かけ上の大きさのばらつきを低減できる。なお、センサ装置5からの距離が異なる場合でも、実際の大きさが同じ立体指標60を用いてもよく、大きさが異なる複数種類の立体指標60を用意する必要がないという利点がある。
(2.2.2)調理支援モードの動作説明
本実施形態のインタラクティブインタフェースシステム1は厨房支援システムに用いられ、厨房支援システムが作業者H1の厨房作業を支援する動作について以下に説明する。厨房支援システムは、例えば、ファストフード店の調理場等の厨房において、作業者(調理人)が行う調理作業を支援するために用いられる。本実施形態の厨房支援システムは、例えばハンバーガーを調理する調理作業を支援するものである。ハンバーガーの調理作業は複数の工程を含む。厨房支援システムでは、複数の工程のそれぞれで作業者H1が行う作業を指示する調理指示画面を投影装置2から調理台100の作業面101に投影する。
図9は、調理台100の作業面101に投影される調理指示画面G2の一例である。図9の例では、調理指示画面G2は、作業内容を示す文章等を表示する表示領域A11と、調理に使用する食材を写真等で表示する表示領域A21と、作業内容を絵などで表示する表示領域A31とを含んでいる。表示領域A11には、作業内容を示す文章として例えば「バンズ(下)を置く」などの文章が表示されている。また、表示領域A31には、下側のバンズを表す絵記号B1が表示されている。
作業者H1が、調理指示画面G2の表示領域A31に表示された絵記号B1の上に、下側のバンズ71を置くと、センサ装置5が、作業面101に置かれたバンズ71の位置を検出する。すなわち、センサ装置5は作業領域110を撮影した二次元画像と距離画像とを制御装置3に出力する。位置取得部32は、例えばパターンマッチングを行って、センサ装置5から入力された二次元画像からバンズ71を検出する。そして、位置取得部32は、バンズ71の二次元画像上の位置と、距離画像から求めたセンサ装置5からバンズ71までの距離とに基づいて、作業面101におけるバンズ71の位置を取得する。なお、バンズ71の位置を求める際にパターンマッチングの処理を行うことは必須ではなく、距離画像から求めた距離でバンズ71の位置を求めてもよい。位置取得部32が、作業面101におけるバンズ71の検出位置を取得すると、記憶装置4に記憶させた補正情報を用いてバンズ71の検出位置を補正することで、バンズ71の位置を求めており、検出位置の誤差を低減できる。
なお、記憶装置4には、投影装置2の表示画面(作業面101)における複数の所定位置(ドットD1〜D11の位置)での補正情報が記憶されている。制御装置3は、複数の所定位置(ドットD1〜D11の位置)以外の位置での補正情報を、所定位置での補正情報を用いて補間することで求めているので、表示画面の全ての位置で補正情報を求める必要がない。また、制御装置3は、複数の所定位置(ドットD1〜D11の位置)以外の位置では、補間処理で求めた補正情報を用いて検出位置を補正しているので、物体の位置をより正確に求めることができる。
制御装置3は、作業面101に置かれたバンズ71の位置を検出すると、バンズ71の検出位置に基づいて、バンズ71の上に載せる食材(例えばミートパテ等)の画像をバンズ71の上に投影する。これにより、調理作業を行う作業者H1は、バンズ71の上に投影された画像をもとに、次に行う作業を容易に理解でき、厨房支援システムにより作業者H1が行う調理作業を支援することができる。また、本実施形態によれば作業面101に置かれた物体の位置を正確に検出できるので、作業面101に置かれた物体の上に正確に画像を投影できる。また、制御装置3は、例えば調理指示画面G2において表示領域A11,A21の表示を物体が存在しない位置に投影させることができ、表示領域A11,A12の表示を見やすくできる。
(3)変形例
上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、インタラクティブインタフェースシステム1又は厨房支援システムと同様の機能は、インタラクティブインタフェースシステム1のキャリブレーション方法、又はプログラムを記録した非一時的な記録媒体等で具現化されてもよい。一態様に係るインタラクティブインタフェースシステム1のキャリブレーション方法は、配置ステップ(図4のステップS3)と、検出ステップ(図4のステップS4)と、調整ステップ(図4のステップS5)と、を含む。配置ステップでは、表示装置(投影装置2)の表示画面と対向する所定位置に立体指標60を配置する。検出ステップでは、立体指標60の位置をセンサ装置5が検出する。調整ステップでは、センサ装置5の検出結果に基づいて表示画面の表示位置とセンサ装置5の検出位置とのキャリブレーションを行う。一態様に係る(コンピュータ)プログラムは、コンピュータシステムに、センサ装置5から検出結果を取得する取得ステップと、調整ステップと、を実行させるためのプログラムである。
以下、上記の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
本開示におけるインタラクティブインタフェースシステム1、厨房支援システム又はキャリブレーション方法の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示におけるインタラクティブインタフェースシステム1、厨房支援システム又はキャリブレーション方法の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよいし、コンピュータシステムで読み取り可能な非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムで読み取り可能な非一時的な記録媒体は、メモリカード、光学ディスク、ハードディスクドライブ等である。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
インタラクティブインタフェースシステム1は、制御装置3と、センサ装置5と、投影装置2とで構成されているが、インタラクティブインタフェースシステム1は1つの筐体に収まる1つの装置にて実現されてもよい。
上記の実施形態では、キャリブレーションモードにおいて、表示画面に11個の立体指標60を配置してキャリブレーションを行っているが、立体指標60の数はでもよいし複数個でもよく、適宜変更が可能である。なお、立体指標60の検出位置をもとに面を形成する場合には立体指標60が少なくとも3つあればよい。ただし、調整したい面の大きさや形状を定めておけば、1個以上の基準点があればよいので、その場合は、立体指標60の数は1個以上でよい。また、図5に示す立体指標60の配置パターンは一例であり、複数の立体指標60の配置パターンは適宜変更可能である。
また、図10に示すように複数の立体指標60が一体化されていてもよい。すなわち、作業面101の上に載せられる平板状の板材70に複数の立体指標60が固定されていてもよい。この場合、調整用画面G1では、複数の立体指標60の位置を示すドットD1〜D11が表示されてもよいし、板材70を位置決めするための枠線などが表示されてもよい。複数の立体指標60が板材70に一体化されているので、複数の立体指標60を配置する作業が容易である。
上記の実施形態では、指標が、表示画面と対向する所定位置に配置される立体指標60であったが、指標は立体指標60に限定されない。指標は、センサ装置5で検出可能であれば適宜変更が可能である。センサ装置5が赤外線カメラ52である場合、指標は赤外線カメラ52で検出可能であればよい。例えば、指標は、表示画面の範囲内にある赤外光を発する光源、表示画面の範囲内にある赤外光を反射する反射部材、表示画面の範囲内にある赤外光を散乱する散乱部材、表示画面の画面内に表示される輝点等でもよい。
上記の実施形態では、表示装置が投影装置2で構成されているので、投影装置2は作業面101の所望の位置に画像を投影できる。なお、表示装置は投影装置2に限定されず、調理台100の作業面101に組み込まれた薄型のディスプレイ装置でもよい。この種のディスプレイ装置としては、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等がある。
また、投影装置2によって表示される画像のうち、調整用画面G1以外の画像の一部を、投影装置2以外の別の表示装置で表示してもよい。別の表示装置は、作業領域110の周囲に設置された液晶ディスプレイ装置、タブレット端末等である。
また、上記の実施形態において、インタラクティブインタフェースシステム1の制御装置3が備える位置取得部32、検出位置調整部33のうち少なくとも1つの機能が2つ以上のシステムに分散して設けられてもよい。また、位置取得部32、検出位置調整部33の各々の機能が、複数の装置に分散して設けられていてもよい。また、インタラクティブインタフェースシステム1の少なくとも一部の機能は、例えば、クラウド(クラウドコンピューティング)によって実現されてもよい。
また、本実施形態のセンサ装置5の赤外線照射部51は測距領域の全体に赤外光を照射させ、赤外線カメラ52は物体による反射光を面で受光するが、赤外線照射部51が赤外光を照射する方向を測距領域内でスイープさせてもよい。この場合、赤外線カメラ52は物体による反射光を1点で受光する。また、赤外線照射部51はインタラクティブインタフェースシステム1に必須の構成ではなく、赤外線カメラ52が自然光や照明光を利用して撮影可能であれば、赤外線照射部51は適宜省略が可能である。
センサ装置5の赤外線照射部51と赤外線カメラ52とはTOF方式で物体までの距離を計測しているが、パターン照射方式(Light Coding方式)で距離を計測してもよいし、ステレオカメラで距離を計測してもよい。また、赤外線カメラ52は、COMSイメージセンサ又はCCDイメージセンサと、赤外線透過フィルターとを組み合わせて使用することで、適宜省略が可能である。
センサ装置5は、赤外線照射部51と赤外線カメラ52とで赤外光を用いて物体までの距離を測定しているが、超音波や電波などで物体までの距離を測定してもよい。
上記実施形態のインタラクティブインタフェースシステム1を備える厨房支援システムはファストフード店の調理場で用いられているが、厨房支援システムはレストラン、ホテル等の調理場で用いられてもよい。また、インタラクティブインタフェースシステム1を備える厨房支援システムは、スーパーマーケットのバックヤードに設けられた総菜の調理場、食品加工工場等で用いられてもよい。また、上記実施形態のインタラクティブインタフェースシステム1は、一般家庭での調理作業を支援する作業支援システムに備えられてもよい。
また、上記実施形態のインタラクティブインタフェースシステム1は、調理作業以外の作業を支援する作業支援システムに備えられてもよく、投影装置2は作業を支援するための映像を表示画面に表示する。この種の作業支援システムには、工場等において複数の工程で対象物を組み立てる組立作業、対象物を分解する分解作業、対象物を清掃する清掃作業、対象物をメンテナンスするメンテナンス作業等の作業を支援するものでもよい。
また、上記実施形態のインタラクティブインタフェースシステム1は、何らかの作業を支援する作業支援システムに備えられるものに限定されず、任意のシステムのインタフェースシステムとして利用可能である。
(まとめ)
以上説明したように、第1の態様のインタラクティブインタフェースシステム(1)は、表示画面に表示する表示装置(2)と、検出対象の位置を検出するセンサ装置(5)とを備える。インタラクティブインタフェースシステム(1)はキャリブレーションモードを有する。キャリブレーションモードでは、表示画面(101)の範囲内の指標(60,601〜603)の位置をセンサ装置(5)が検出した検出結果に基づいて表示画面(101)の表示位置とセンサ装置(5)の検出位置とのキャリブレーションを行う。
この態様によれば、キャリブレーションモードでは、表示画面(101)の表示位置と、センサ装置(5)が検出した指標(60,601〜603)の検出位置とのキャリブレーションを行っている。そのため、指標の位置の周辺や表示画面(101)の表示位置の周辺にユーザの体や衣服等が存在しない状態でキャリブレーションを行うことができる。したがって、ユーザの体や衣服等がキャリブレーション結果に影響しにくくなり、キャリブレーションの精度向上を図ることができる。
第2の態様のインタラクティブインタフェースシステム(1)では、第1の態様において、センサ装置(5)は、表示画面(101)と直交する方向に対して交差する方向から物体を検出する。
この態様によれば、物体が表示画面(101)に接しているか否かを検知できる。
第3の態様のインタラクティブインタフェースシステム(1)では、第1又は第2の態様において、表示装置(2)は、表示画面(101)に映像を投影する投影装置(2)である。
この態様によれば、表示画面(101)の所望の位置に映像を投影できる。
第4の態様のインタラクティブインタフェースシステム(1)では、第1〜第3のいずれか1つの態様において、指標(60,601〜603)は、表示画面(101)と対向する所定位置に配置される立体指標である。
この態様によれば、立体指標(60,601〜603)の位置の周辺や表示画面の表示位置の周辺にユーザの体や衣服等が存在しない状態でキャリブレーションを行うことができる。したがって、ユーザの体や衣服等がキャリブレーション結果に影響しにくくなるため、キャリブレーションの精度向上を図ることができる。
第5の態様のインタラクティブインタフェースシステム(1)では、第4の態様において、センサ装置(5)は、表示画面(101)を含む撮影領域(110)を撮影する画像センサ(52,53)を含む。立体指標(60,601〜603)は、表示画面(101)との接触点を示す表示部(62)を有する。
この態様によれば、センサ装置(5)は表示部(62)が示す接触点を検出でき、表示画面(101)の表示位置と接触点とのキャリブレーションを行うことができる。
第6の態様のインタラクティブインタフェースシステム(1)では、第4又は第5の態様において、立体指標(60,601〜603)が複数ある。キャリブレーションモードにおいて、複数の立体指標(60,601〜603)が表示画面(101)と対向する複数の所定位置に配置される。複数の立体指標(60,601〜603)が一体化されている。
この態様によれば、複数の立体指標(60,601〜603)を配置する作業を簡単に行うことができる。
第7の態様のインタラクティブインタフェースシステム(1)では、第4〜第6のいずれか1つの態様において、立体指標(60,601〜603)が複数ある。キャリブレーションモードにおいて、複数の立体指標(60,601〜603)が表示画面(101)と対向する複数の所定位置に配置される。複数の立体指標(60,601〜603)のうち、センサ装置(5)との距離が異なる2以上の立体指標(60,601〜603)で、センサ装置(5)から見た見かけ上の寸法差が低減されるように、実際の大きさが異なる。
この態様によれば、複数の立体指標(60,601〜603)において、センサ装置(5)から見た見かけ上の大きさのばらつきを低減できる。
第8の態様のインタラクティブインタフェースシステム(1)では、第4〜第7のいずれか1つの態様において、立体指標(60,601〜603)が複数ある。複数の立体指標(60,601〜603)は、センサ装置(5)から見たときに少なくとも一部が互いに重ならないように配置される。
この態様によれば、センサ装置(5)が複数の立体指標(60,601〜603)の位置を一度に検出することができる。
第9の態様のインタラクティブインタフェースシステム(1)では、第1〜第8のいずれか1つの態様において、センサ装置(5)は表示画面(101)から見て一方向に配置される。
この態様によれば、表示画面(101)から見て一方向に配置されたセンサ装置(5)を用いて、表示画面(101)と対向する物体の位置を検出することができる。
なお、第2〜第9の態様に係る構成については、インタラクティブインタフェースシステム(1)に必須の構成ではなく、適宜省略可能である。
第10の態様の作業支援システムは、第1〜第9のいずれか1つの態様のインタラクティブインタフェースシステム(1)を備える。表示装置(2)が、作業を支援する内容を表示画面(101)に表示する。
この態様によれば、キャリブレーションの精度向上を図ることができる作業支援システムを提供できる。
第11の態様の厨房支援システムは、第1〜第9のいずれか1つの態様のインタラクティブインタフェースシステム(1)を備える。表示装置(2)が、厨房での調理作業を支援する内容を表示画面(101)に表示する。
この態様によれば、キャリブレーションの精度向上を図ることができる厨房支援システムを提供できる。
第12の態様のインタラクティブインタフェースシステムのキャリブレーション方法は、表示ステップと、検出ステップと、調整ステップと、を含む。表示ステップでは、表示装置(2)が表示画面(101)に表示する。検出ステップでは、表示画面の範囲内の指標(60,601〜603)の位置をセンサ装置(5)が検出する。調整ステップでは、センサ装置(5)の検出結果に基づいて表示画面(101)の表示位置とセンサ装置(5)の検出位置とのキャリブレーションを行う。
この態様によれば、キャリブレーションの精度向上を図ることができる。
1 インタラクティブインタフェースシステム(厨房支援システム)
2 投影装置(表示装置)
3 制御装置
5 センサ装置
31 映像制御部
32 位置取得部
33 検出位置調整部
52 赤外線カメラ(画像センサ)
53 RGBカメラ(画像センサ)
60,601〜603 立体指標
101 作業面(表示画面)

Claims (12)

  1. 表示画面に表示する表示装置と、
    検出対象の位置を検出するセンサ装置とを備え、
    前記表示画面の範囲内の指標の位置を前記センサ装置が検出した検出結果に基づいて前記表示画面の表示位置と前記センサ装置の検出位置とのキャリブレーションを行うキャリブレーションモードを有する
    インタラクティブインタフェースシステム。
  2. 前記センサ装置は、前記表示画面と直交する方向に対して交差する方向から前記検出対象を検出する
    請求項1に記載のインタラクティブインタフェースシステム。
  3. 前記表示装置は、前記表示画面に映像を投影する投影装置である
    請求項1又は2に記載のインタラクティブインタフェースシステム。
  4. 前記指標は、前記表示画面と対向する所定位置に配置される立体指標である
    請求項1〜3のいずれか1項に記載のインタラクティブインタフェースシステム。
  5. 前記センサ装置は、前記表示画面を含む撮影領域を撮影する画像センサを含み、
    前記立体指標は、前記表示画面との接触点を示す表示部を有する
    請求項4に記載のインタラクティブインタフェースシステム。
  6. 前記立体指標が複数あり、
    前記キャリブレーションモードにおいて、前記複数の立体指標が前記表示画面と対向する複数の前記所定位置に配置され、
    前記複数の立体指標が一体化されている
    請求項4又は5に記載のインタラクティブインタフェースシステム。
  7. 前記立体指標が複数あり、
    前記キャリブレーションモードにおいて、前記複数の立体指標が前記表示画面と対向する複数の前記所定位置に配置され、
    前記複数の立体指標のうち、前記センサ装置との距離が異なる2以上の立体指標で、前記センサ装置から見た見かけ上の寸法差が低減されるように、実際の大きさが異なる
    請求項4〜6のいずれか1項に記載のインタラクティブインタフェースシステム。
  8. 前記立体指標が複数あり、
    前記複数の立体指標は、前記センサ装置から見たときに少なくとも一部が互いに重ならないように配置される
    請求項4〜7のいずれか1項に記載のインタラクティブインタフェースシステム。
  9. 前記センサ装置は前記表示画面から見て一方向に配置される
    請求項1〜8のいずれか1項に記載のインタラクティブインタフェースシステム。
  10. 請求項1〜9のいずれか1項に記載のインタラクティブインタフェースシステムを備え、
    前記表示装置が、作業を支援する内容を前記表示画面に表示する
    作業支援システム。
  11. 請求項1〜9のいずれか1項に記載のインタラクティブインタフェースシステムを備え、
    前記表示装置が、厨房での調理作業を支援する内容を前記表示画面に表示する
    厨房支援システム。
  12. 表示装置が表示画面に表示する表示ステップと、
    前記表示画面の範囲内の指標の位置をセンサ装置が検出する検出ステップと、
    前記センサ装置の検出結果に基づいて前記表示画面の表示位置と前記センサ装置の検出位置とのキャリブレーションを行う調整ステップと、を含む
    インタラクティブインタフェースシステムのキャリブレーション方法。
JP2017202077A 2017-10-18 2017-10-18 インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法 Pending JP2019074699A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017202077A JP2019074699A (ja) 2017-10-18 2017-10-18 インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法
US16/164,398 US20190114801A1 (en) 2017-10-18 2018-10-18 Interactive interface system, work assistance system, kitchen assistance system, and interactive interface system calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202077A JP2019074699A (ja) 2017-10-18 2017-10-18 インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法

Publications (1)

Publication Number Publication Date
JP2019074699A true JP2019074699A (ja) 2019-05-16

Family

ID=66097037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202077A Pending JP2019074699A (ja) 2017-10-18 2017-10-18 インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法

Country Status (2)

Country Link
US (1) US20190114801A1 (ja)
JP (1) JP2019074699A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898447A (zh) * 2022-07-13 2022-08-12 北京科技大学 一种基于自注意力机制的个性化注视点检测方法及装置
JP2022543158A (ja) * 2019-08-07 2022-10-07 アークソフト コーポレーション リミテド キャリブレーションパラメータの取得方法、装置、プロセッサ及び電子機器

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4083757A1 (en) * 2020-10-19 2022-11-02 ameria AG Touchless input interface for an electronic display using multiple sensors
WO2022170105A1 (en) * 2021-02-05 2022-08-11 Pepsico, Inc. Devices, systems, and methods for contactless interfacing
EP4258086A1 (en) * 2022-04-08 2023-10-11 ameria AG Calibration device and method for an electronic display screen for touchless gesture control
EP4258087A1 (en) * 2022-04-08 2023-10-11 ameria AG Calibration method for an electronic display screen for touchless gesture control

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022543158A (ja) * 2019-08-07 2022-10-07 アークソフト コーポレーション リミテド キャリブレーションパラメータの取得方法、装置、プロセッサ及び電子機器
JP7387872B2 (ja) 2019-08-07 2023-11-28 アークソフト コーポレーション リミテド キャリブレーションパラメータの取得方法、装置、プロセッサ及び電子機器
CN114898447A (zh) * 2022-07-13 2022-08-12 北京科技大学 一种基于自注意力机制的个性化注视点检测方法及装置

Also Published As

Publication number Publication date
US20190114801A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP2019074699A (ja) インタラクティブインタフェースシステム、作業支援システム、厨房支援システム、及びインタラクティブインタフェースシステムのキャリブレーション方法
US10402956B2 (en) Image-stitching for dimensioning
US20210030199A1 (en) Augmented reality-enhanced food preparation system and related methods
US8139110B2 (en) Calibration of a gesture recognition interface system
US9377874B2 (en) Gesture recognition light and video image projector
CN109118543B (zh) 沿至少三个不连续平面对机器视觉摄像机进行校准的系统和方法
US10395389B2 (en) Calibration based on intrinsic parameter selection and a projected calibration target
JP2019075009A (ja) 作業支援システム、厨房支援システム、作業支援方法、及びプログラム
GB2531928A (en) Image-stitching for dimensioning
KR20140112064A (ko) 가상 자
US11557060B2 (en) Systems and methods for scanning three-dimensional objects
JP2014170511A (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
CN107249128B (zh) 一种摄像头的校正方法及装置
CN104978077B (zh) 一种交互方法及系统
TWI498792B (zh) 光學觸控系統及觸控顯示系統
CN105700736A (zh) 输入操作检测设备、投影装置、交互白板和数字标识装置
EP2924548B1 (en) Correction of touch screen camera geometry
US11431959B2 (en) Object capture and illumination
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
US10168833B2 (en) Presentation of a digital image of an object
JP2018189369A (ja) 三次元計測装置
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
KR101773772B1 (ko) 그림자 출력장치를 이용한 주문 관리 시스템
JP2013101591A (ja) 3次元形状計測装置
US20230290079A1 (en) System for augmented reality