JP2017084090A - Customer service system - Google Patents
Customer service system Download PDFInfo
- Publication number
- JP2017084090A JP2017084090A JP2015211640A JP2015211640A JP2017084090A JP 2017084090 A JP2017084090 A JP 2017084090A JP 2015211640 A JP2015211640 A JP 2015211640A JP 2015211640 A JP2015211640 A JP 2015211640A JP 2017084090 A JP2017084090 A JP 2017084090A
- Authority
- JP
- Japan
- Prior art keywords
- display
- customer
- processor
- sight
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、レジやチケットカウンターなどの接客場所に配置されるディスプレイを含む接客システムに関する。 The present invention relates to a customer service system including a display arranged at a customer service location such as a cash register or a ticket counter.
従来から、商品の販売などの支援に利用される機器が提案されている。たとえば、特開2012−22589号公報(特許文献1)には、商品選択支援方法が開示されている。特開2012−22589号公報(特許文献1)によると、表示画面の前に注視する利用者が居ない場合には、表示画面に複数の商品の画像がランダムな配列でスクロールする商品一覧画面が表示され、利用者が表示画面に近づいて商品一覧画面の特定の商品の画像を注視すると、その注視点を含む注視領域内の商品の画像が、中央部に注視領域が設定されて、この注視領域内に位置付けられた商品一覧画面が表示される。さらに、この注視領域内の商品の画像を注視続けると、この商品の画像が強調表示される。 2. Description of the Related Art Conventionally, devices used for support such as sales of products have been proposed. For example, Japanese Unexamined Patent Application Publication No. 2012-22589 (Patent Document 1) discloses a product selection support method. According to Japanese Patent Laying-Open No. 2012-22589 (Patent Document 1), when there is no user to watch before the display screen, a product list screen in which images of a plurality of products are scrolled in a random arrangement on the display screen. When the user approaches the display screen and gazes at the image of a specific product on the product list screen, the product image in the gaze area including the gaze point is set to the gaze area in the center. The product list screen positioned in the area is displayed. Further, when the image of the product in the gaze area is continuously watched, the product image is highlighted.
また、特開2008−226161号公報(特許文献2)には、注視認識システムが開示されている。特開2008−226161号公報(特許文献2)よると、この注視認識システムは、改札通路に沿って配置され、所定の場所に広告画面表示部が付設された改札機本体と、この改札機本体に配置され、かつ改札通路を移動する通行人の顔の存在領域に設定された視線検知範囲を撮像するカメラと、カメラから得られた撮像情報に基づいて、広告画面表示部に対する通行人の視線変化を検出する視線変化検出部とを備えるように構成される。 Japanese Unexamined Patent Application Publication No. 2008-226161 (Patent Document 2) discloses a gaze recognition system. According to Japanese Patent Application Laid-Open No. 2008-226161 (Patent Document 2), this gaze recognition system is arranged along a ticket gate passage and has a ticket gate main body provided with an advertisement screen display unit at a predetermined location, and the ticket gate main body. And a camera that captures a gaze detection range set in a presence area of a passer's face moving in the ticket gate, and a passer's gaze on the advertising screen display unit based on imaging information obtained from the camera And a line-of-sight change detection unit that detects a change.
従来よりも有用な接客システムが求められている。そこで、本発明の目的は、従来よりも有用な接客システムを提供することにある。 There is a need for a customer service system that is more useful than before. Accordingly, an object of the present invention is to provide a customer service system that is more useful than conventional ones.
この発明のある態様に従うと、第1のディスプレイと、センサと、出力部と、制御部と、を備える接客システムが提供される。前記制御部は、前記センサからの情報に基づいて、前記第1のディスプレイの前にいる人の視線に関する情報を前記出力部に出力させる。 According to an aspect of the present invention, a customer service system including a first display, a sensor, an output unit, and a control unit is provided. The control unit causes the output unit to output information related to the line of sight of a person in front of the first display based on information from the sensor.
好ましくは、前記出力部は、第2のディスプレイである。前記制御部は、前記第2のディスプレイに、前記第1のディスプレイに表示されている画面上に前記視線の位置を表示させる。 Preferably, the output unit is a second display. The control unit causes the second display to display the position of the line of sight on the screen displayed on the first display.
好ましくは、接客システムは、入力部をさらに備える。前記制御部は、前記入力部を介して前記第1のディスプレイの画面に表示されるオブジェクトを指定する命令を受け付け、前記第1のディスプレイにおける指定された前記オブジェクトの表示を変える。 Preferably, the customer service system further includes an input unit. The control unit receives an instruction for designating an object displayed on the screen of the first display via the input unit, and changes the display of the designated object on the first display.
好ましくは、前記制御部は、前記入力部を介して、前記画面に表示されるオブジェクトの選択命令を受け付ける。 Preferably, the control unit receives an object selection command displayed on the screen via the input unit.
好ましくは、前記制御部は、前記センサからの情報に基づいて、前記視線が前記ディスプレイから外れた場合に、前記第1のディスプレイの周辺における前記視線に関する情報を前記出力部に出力させる。 Preferably, based on information from the sensor, the control unit causes the output unit to output information on the line of sight around the first display when the line of sight deviates from the display.
好ましくは、前記制御部は、前記センサからの情報に基づいて、前記視線が店員のいる方向を向いていることを前記出力部に出力させる。 Preferably, the control unit causes the output unit to output that the line of sight is directed in a direction where a store clerk is present based on information from the sensor.
好ましくは、接客システムは、マイクをさらに備える。前記制御部は、前記視線が第1のディスプレイの近傍または前記出力部の近傍を向いている場合に、前記マイクを介して入力された音声の処理の結果を前記出力部に出力させる。 Preferably, the customer service system further includes a microphone. The control unit causes the output unit to output the processing result of the voice input via the microphone when the line of sight is directed to the vicinity of the first display or the vicinity of the output unit.
以上のように、この発明によれば、従来よりも有用な接客システムが提供される。 As described above, according to the present invention, a customer service system that is more useful than conventional ones is provided.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<システム1の全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of
まず、図1および図2を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図1は、本実施の形態にかかるシステム1の全体構成と第1のユースシーンとを示すイメージ図である。図2は、本実施の形態にかかるシステム1の全体構成と第2のユースシーンとを示すイメージ図である。
First, the overall configuration of the
図1および図2を参照して、本実施の形態にかかるシステム1は、コンビニやスーパーなどのレジ付近に配置される。システム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するためのカメラ200とを含む。
With reference to FIG. 1 and FIG. 2, the
ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイとを有する。本実施の形態においては、第1のディスプレイと第2のディスプレイとは、背中合わせに配置されている。
The
ディスプレイ装置100と、カメラ200とは、有線または無線によって接続されている。ディスプレイ装置100は、カメラ200が取得した画像データを取得することができる。ただし、カメラ200は、ディスプレイ装置100の客側の表面に搭載される形態であってもよい。
<システムのユースシーン>
The
<System use scene>
次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図1を参照して、本実施の形態にかかるシステム1の第1のユースシーンについて説明する。
Next, a typical use scene of the
図1(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイがお薦めの商品を選択可能に表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線の先にある第1のディスプレイの位置を表示する。これによって、店員が、客の見ている位置や商品などを把握することができる。
As shown in FIG. 1 (a), when a customer comes in front of the cash
図1(b)に示すように、店員が、第2のディスプレイの客が見ている商品のボタンにタッチすると、第1のディスプレイにおける当該商品の表示が変わる。たとえば、当該商品の周囲を、黄色や赤で点滅させたりする。この状態で、店員が、当該商品の説明をすることが好ましい。 As shown in FIG. 1B, when the store clerk touches the button of the product that the customer on the second display is viewing, the display of the product on the first display changes. For example, the surroundings of the product are blinked in yellow or red. In this state, it is preferable that the store clerk explains the product.
このように、本実施の形態にかかるシステム1においては、客が見ている商品を店員が把握することができるで、効果的な営業を行うことができる。また、客も、店員が説明してくれている商品がどれであるかをすぐに理解することができる。
As described above, in the
次に、図2を参照して、本実施の形態にかかるシステム1の第2のユースシーンについて説明する。図2(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、言語の選択画面を表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線の先の位置を表示する。これによって、店員が、客の見ている位置を把握することができる。
Next, a second use scene of the
図2(b)に示すように、店員が、第2のディスプレイの客が見ている言語のボタンにタッチすると、第1のディスプレイにおける当該言語の表示が変わる。たとえば、当該言語の周囲を、黄色や赤で点滅させたりする。この状態で、店員が、当該言語の説明をしたり、そのまま店員が当該言語の選択命令を入力したりする。なお、言語の選択命令は、客が第1のディスプレイにタッチするか、店員が第2のディスプレイに2回タッチする、または長押しするなどして、入力される。 As shown in FIG. 2B, when the store clerk touches the button of the language that the customer on the second display is viewing, the display of the language on the first display changes. For example, the surroundings of the language are blinked in yellow or red. In this state, the store clerk explains the language, or the store clerk directly inputs a selection instruction for the language. The language selection command is input when the customer touches the first display, or the store clerk touches the second display twice or presses and holds it.
このように、本実施の形態にかかるシステム1においては、客が見ている言語を店員が把握することができるで、接客がスムーズに行われ、店員の言語を話すことができない客も安心してレジにて買い物ができる。
As described above, in the
以下では、このような機能を実現するためのシステム1について詳細に説明する。
<ディスプレイ装置100のハードウェア構成>
Below, the
<Hardware Configuration of
まず、システム1を構成するディスプレイ装置100のハードウェア構成の一態様について説明する。なお、図3は、本実施の形態にかかるシステム1のハードウェア構成を表わすブロック図である。
First, an aspect of the hardware configuration of the
図3を参照して、本実施の形態にかかるディスプレイ装置100は、主たる構成要素として、プロセッサ110と、メモリ120と、第1のタッチパネル130(ディスプレイ131とポインティングデバイス132)と、第2のタッチパネル140(ディスプレイ141とポインティングデバイス142)と、通信インターフェイス160と、マイク170と、スピーカ180とを含む。
Referring to FIG. 3,
プロセッサ110は、メモリ120あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、ディスプレイ装置100の各部を制御する。すなわち、プロセッサ110は、メモリ120に格納されているプログラムを実行することによって、後述する各種の処理を実現する。
The
メモリ120は、各種のRAM(Random Access Memory)や各種のROM(Read Only Memory)などによって実現される。メモリ120は、たとえば、プロセッサ110によって実行されるプログラムや、プロセッサ110によるプログラムの実行により生成されたデータ、第1および第2のタッチパネル130,140から入力されたデータ、カメラ200から受信した画像データ、画像データから算出した視線の位置データ、第1および第2のタッチパネル130,140に表示すべき商品のデータや広告のデータなどを記憶する。
The
第1および第2のディスプレイ131,141は、プロセッサ110からの信号に基づいて、文字や画像、たとえば図1および図2などに示す画面を出力する。第1および第2のポインティングデバイス132,142は、ユーザからの命令を受け付けて当該命令をプロセッサ110に入力する。なお、本実施の形態においては、ディスプレイ装置100は、第1のディスプレイ131と第1のポインティングデバイス132とが組み合わされた第1のタッチパネル130と、第2のディスプレイ141と第2のポインティングデバイス142とが組み合わされた第2のタッチパネル140とを有する。
The first and
通信インターフェイス160は、アンテナやコネクタによって実現される。通信インターフェイス160は、有線通信あるいは無線通信によって他の装置、たとえばカメラ200との間でデータをやり取りする。プロセッサ110は、通信インターフェイス160を介して、カメラ200から画像データを受信したり、商品の購入履歴をサーバに送信したりする。
The
マイク170は、各種の音声を受け付けて、音声信号をプロセッサ110に入力する。スピーカ180は、プロセッサ110からの音声信号に基づいて、各種の音声を出力する。
<カメラ200のハードウェア構成>
The
<Hardware Configuration of
次に、システム1を構成するカメラ200のハードウェア構成の一態様について説明する。
Next, an aspect of the hardware configuration of the
図3を参照して、本実施の形態にかかるカメラ200は、主たる構成要素として、プロセッサ210と、メモリ220と、画像センサ230と、通信インターフェイス260とを含む。
Referring to FIG. 3,
プロセッサ210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、カメラ200の各部を制御する。すなわち、プロセッサ210は、メモリ220に格納されているプログラムを実行することによって、後述する各種の処理を実現する。
The
メモリ220は、各種のRAMや各種のROMなどによって実現される。メモリ220は、たとえば、画像センサ230が読み取った画像データを一時的に記憶する。
The
画像センサ230は、複数の撮像素子を含む。画像センサ230は、外部からの光を検知して、画像信号をプロセッサ210に入力する。プロセッサ310は、画像信号に基づいて、画像データをメモリ220に格納する。
The
通信インターフェイス260は、アンテナやコネクタによって実現される。通信インターフェイス260は、有線通信あるいは無線通信によって他の装置、たとえばディスプレイ装置100との間でデータをやり取りする。たとえば、プロセッサ210は、通信インターフェイス160を介して、メモリ220に一時的に記憶した画像データをディスプレイ装置100に送信する。
<ディスプレイ装置100のプロセッサ110の処理>
The
<Processing of
次に、図4を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図4は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。
Next, information processing of the
まず、カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に画像データを送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。
First, the
プロセッサ110は、受信したデータから画像データを取得する(ステップS102)。
The
プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131の画面のうちの視線の先の位置を計算する(ステップS104)。
The
プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画像を表示させるともに、当該画像上に客の視線の位置を表示させる(ステップS106)。
The
プロセッサ110は、第2のポインティングデバイス142を介して、店員が第2のタッチパネル140にタッチしたか否かを判断する(ステップS108)。プロセッサ110は、店員が第2のタッチパネル140にタッチしなかった場合(ステップS108にてNOの場合)、ステップS112からの処理を実行する。
The
一方、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語にタッチした場合(ステップS108にてYESの場合)、第1のディスプレイ131の当該商品または当該言語の部分が目立つように、表示態様を変更する(ステップS110)。
On the other hand, when the store clerk touches any product or language on the second touch panel 140 (YES in step S108), the
プロセッサ110は、第1のポインティングデバイス132を介して、客が第1のタッチパネル130にタッチしたか否かを判断する(ステップS112)。プロセッサ110は、客が第1のタッチパネル130にタッチしなかった場合(ステップS112にてNOの場合)、通信インターフェイス160を介して、次の画像データを待ち受ける。
The
一方、プロセッサ110は、客が第1のタッチパネル130のいずれかの商品または言語にタッチした場合(ステップS112にてYESの場合)、当該命令を実行する(ステップS114)。たとえば、プロセッサ110は、客が商品のボタンにタッチした場合は、当該商品の詳細な説明を第1のディスプレイ131に表示させたり、当該商品の購入を受け付けたりする。あるいは、プロセッサ110は、客が言語のボタンにタッチした場合は、第1のディスプレイ131の表示言語を当該言語のものに変更する。プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。
On the other hand, when the customer touches any product or language on first touch panel 130 (YES in step S112),
なお、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語をダブルクリックした場合にも、ステップS114と同様の処理を実行することが好ましい。
<第2の実施の形態>
In addition, it is preferable that the
<Second Embodiment>
第1の実施の形態にかかるシステム1は、客が第1のディスプレイのどの部分をみているのかを店員に伝えるものであった。本実施の形態にかかるシステム1は、第1の実施の形態のシステム1に、第1のディスプレイの周囲、たとえばレジ付近のどのエリアをみているかを店員に伝える機能を追加したものである。
<システムの全体構成>
The
<Overall system configuration>
まず、図5を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図5は、本実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。
First, the overall configuration of the
図5を参照して、本実施の形態にかかるシステム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するための第1のカメラ200Aと、客の方向からディスプレイ装置100の周辺を撮影するための第2のカメラ200Bとを含む。
Referring to FIG. 5,
ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイとを有する。本実施の形態においても、第1のディスプレイと第2のディスプレイとが、背中合わせに配置されている。
The
ディスプレイ装置100と、第1のカメラ200Aおよび第2のカメラ200Bとは、有線または無線によって接続されている。ディスプレイ装置100は、第1のカメラ200Aと第2のカメラ200Bとが取得した画像データを取得することができる。
<システムのユースシーン>
The
<System use scene>
次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図5を参照して、本実施の形態にかかるシステム1のユースシーンについて説明する。
Next, a typical use scene of the
図5(a)に示すように、客がレジの第1のディスプレイの前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、お薦めの商品を表示する。そして、第1のカメラ200Aが、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。第2のカメラ200Bは、ディスプレイ装置100を含む、レジ周辺の画像データをディスプレイ装置100に送信する。
As shown in FIG. 5 (a), when the customer comes in front of the first display of the cash register, the first display automatically or by the store clerk displays the recommended products. Then, the
ディスプレイ装置100は、客が第1のディスプレイを見ている場合には、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線がある位置を画面上に表示する。そして、本実施の形態においては、ディスプレイ装置100は、客が第1のディスプレイの周囲を見ている場合には、第2のカメラ200Bからの画像を利用して、第2のディスプレイに、第1のディスプレイの周囲あるいはレジ周辺の画像を表示しながら、客の視線がある位置を画面上に表示する。これによって、店員は、第1のディスプレイの画面に限らず、客の見ている位置を把握することができる。
When the customer is looking at the first display, the
図5(b)に示すように、店員が、第2のディスプレイの客が見ている部分にタッチすると、第1のディスプレイは、第1のディスプレイの周囲の画像を表示しながら、店員がタッチした位置にポインタなどを表示する。この状態で、店員が、当該商品の説明をすることが好ましい。 As shown in FIG. 5B, when the clerk touches the portion of the second display that the customer is viewing, the clerk touches the first display while displaying an image around the first display. A pointer etc. is displayed at the position. In this state, it is preferable that the store clerk explains the product.
このように、本実施の形態にかかるシステム1においては、客が見ている商品を店員が把握することができるで、効果的な営業を行うことができる。また、客も、店員が説明している商品がどれかをすぐに理解できるため、商品の理解が容易になる。
As described above, in the
以下では、このような機能を実現するためのシステム1について詳細に説明する。ただし、ディスプレイ装置100のハードウェア構成は、第1の実施の形態のディスプレイ装置100のハードウェア構成と同様であるため、ここでは説明を繰り返さない。また、第1のカメラ200Aと第2のカメラのハードウェア構成は、第1の実施の形態のカメラ200のハードウェア構成と同様であるため、ここでは説明を繰り返さない。
<ディスプレイ装置100のプロセッサ110の処理>
Below, the
<Processing of
次に、図6を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図6は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。
Next, information processing of the
カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。
The
プロセッサ110は、受信したデータから画像データを取得する(ステップS202)。
The
プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131に対する視線の位置を計算する(ステップS204)。
The
本実施の形態においては、プロセッサ110は、客の視線の先が第1のディスプレイ131の画面内にあるか否かを判断する(ステップS205)。
In the present embodiment, the
客の視線が第1のディスプレイ131の画面内にある場合(ステップS205にてYESである場合)、プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画像を表示させるともに、当該画像のうちの客の視線の先の位置を表示させる(ステップS206)。プロセッサ110は、ステップS208からの処理を実行する。
When the line of sight of the customer is within the screen of first display 131 (YES in step S205),
一方、客の視線が第1のディスプレイ131の外側にある場合(ステップS205にてNOである場合)、プロセッサ110は、第2のディスプレイ141に、第2のカメラ200Bからの画像データに基づいて第1のディスプレイ131の周囲の画像を表示させるともに、当該画像のうちの客の視線の先の位置を表示させる(ステップS207)。
On the other hand, when the customer's line of sight is outside the first display 131 (NO in step S205), the
プロセッサ110は、第2のポインティングデバイス142を介して、店員が第2のタッチパネル140にタッチしたか否かを判断する(ステップS208)。プロセッサ110は、店員が第2のタッチパネル140にタッチしなかった場合(ステップS208にてNOの場合)、ステップS212からの処理を実行する。
The
一方、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語にタッチした場合(ステップS208にてYESの場合)、第1のディスプレイ131の当該商品または当該言語の部分が目立つように、表示態様を変更する(ステップS210)。
On the other hand, when the clerk touches any product or language on the second touch panel 140 (YES in step S208), the
より詳細には、店員が第2のタッチパネル140にタッチした時に、客の視線が第1のディスプレイ131の内側にある場合には、プロセッサ110は、第1のディスプレイ131に、通常の画面において、当該商品または当該言語の部分が目立つように、表示態様を変更させる。一方、店員が第2のタッチパネル140にタッチした時に、客の視線が第1のディスプレイ131の外側にある場合には、プロセッサ110は、第1のディスプレイ131に、第2のカメラ200Bが撮影したレジ周辺の画像を表示させながら、店員がタッチした部分が目立つように、表示態様を変更したり、当該部分にポインタを表示させたりする。
More specifically, when the customer's line of sight is inside the
プロセッサ110は、第1のポインティングデバイス132を介して、客が第1のタッチパネル130にタッチしたか否かを判断する(ステップS212)。プロセッサ110は、客が第1のタッチパネル130にタッチしなかった場合(ステップS212にてNOの場合)、通信インターフェイス160を介して、次の画像データを待ち受ける。
The
一方、プロセッサ110は、客が第1のタッチパネル130のいずれかの商品または言語にタッチした場合(ステップS212にてYESの場合)、該当する命令を実行する(ステップS214)。たとえば、プロセッサ110は、客が商品のボタンにタッチした場合は、当該商品の詳細な説明を第1のディスプレイ131に表示させたり、当該商品の購入を受け付けたりする。あるいは、プロセッサ110は、客が言語のボタンにタッチした場合は、第1のディスプレイ131の表示言語を当該言語のものに変更する。プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。
On the other hand, when the customer touches any product or language on first touch panel 130 (YES in step S212),
なお、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語をダブルクリックした場合にも、ステップS114と同様の処理を実行することが好ましい。
<第3の実施の形態>
In addition, it is preferable that the
<Third Embodiment>
本実施の形態にかかるシステム1は、第1または第2の実施の形態のシステム1に、客が店員の方を向いているときに、その旨を店員に伝えることができる機能を追加したものである。
<システムの全体構成>
The
<Overall system configuration>
まず、図7を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図7は、本実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。
First, the overall configuration of the
図7を参照して、本実施の形態にかかるシステム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するためのカメラ200とを含む。ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイとを有する。第1のディスプレイと第2のディスプレイとが、背中合わせに配置されている。
Referring to FIG. 7,
ディスプレイ装置100とカメラ200とは、有線または無線によって接続されている。ディスプレイ装置100は、カメラ200が取得した画像データを取得することができる。
<システムのユースシーン>
The
<System use scene>
次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図7を参照して、本実施の形態にかかるシステム1のユースシーンについて説明する。
Next, a typical use scene of the
図7(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、お薦め商品の選択画面や言語の選択画面を表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線がある位置を画面上に表示する。これによって、店員が、客の見ている位置を把握することができる。
As shown in FIG. 7A, when the customer comes in front of the cash
図7(b)に示すように、客が店員の方を見ると、ディスプレイ装置100は、カメラ200からの画像データに基づいて、客の視線が店員の方向を向いていること把握する。ディスプレイ装置100は、第2のディスプレイに、客が店員の方を向いていることを表示する。
As shown in FIG. 7B, when the customer looks at the store clerk, the
このように、本実施の形態にかかるシステム1においては、店員が第2のディスプレイに集中して、客が店員の方を向いていることに気が付かないという事態の発生を抑制することができる。
As described above, in the
以下では、このような機能を実現するためのシステム1について詳細に説明する。ただし、ディスプレイ装置100のハードウェア構成は、第1の実施の形態のディスプレイ装置100のハードウェア構成と同様であるため、ここでは説明を繰り返さない。また、カメラ200のハードウェア構成は、第1の実施の形態のカメラ200のハードウェア構成と同様であるため、ここでは説明を繰り返さない。
<ディスプレイ装置100のプロセッサ110の処理>
Below, the
<Processing of
次に、図8を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図8は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。
Next, information processing of the
カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。
The
プロセッサ110は、受信したデータから画像データを取得する(ステップS302)。
The
プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131の画面に対する視線の位置を計算する(ステップS304)。
The
本実施の形態においては、プロセッサ110は、客の視線が第1のディスプレイ131内にあるか否かを判断する(ステップS305)。
In the present embodiment, the
客の視線が第1のディスプレイ131の内側にある場合(ステップS305にてYESである場合)、プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画像を表示させるともに、当該画像のうちの客の視線の位置を表示させる(ステップS306)。プロセッサ110は、ステップS308からの処理を実行する。
If the customer's line of sight is inside first display 131 (YES in step S305),
一方、客の視線が第1のディスプレイ131の外側にある場合(ステップS305にてNOである場合)、プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131の周囲の画像を表示させるともに、当該画像のうちの客の視線の位置を表示させる(ステップS307)。
On the other hand, when the customer's line of sight is outside the first display 131 (NO in step S305), the
さらに、プロセッサ110は、客の視線が店員の方へ向いているか否かを判断する(ステップS322)。たとえば、プロセッサ110は、客の視線が第1のディスプレイ131または第2のディスプレイ141の上方に位置する場合に、客の視線が店員の方へ向いていると判断する。あるいは、プロセッサ110は、第2のカメラ200Bから店員の位置を取得して、第1のカメラ200Aからのデータに基づいて、客の視線が店員の方へ向いているか否かを判断してもよい。
Further, the
そして、客の視線が店員の方へ向いていない場合(ステップS322にてNOの場合)、プロセッサ110は、ステップS308の処理へ進む。一方、客の視線が店員の方へ向いている場合(ステップS332にてYESである場合)、プロセッサ110は、第2のディスプレイ141に、客が店員の方を向いている旨を出力する(ステップS324)。
If the customer's line of sight is not pointing toward the store clerk (NO in step S322), the
ステップS308以降の処理については、第2の実施の形態のステップS208以降の処理と同様であるため、ここでは説明を繰り返さない。
<第4の実施の形態>
Since the processing after step S308 is the same as the processing after step S208 of the second embodiment, description thereof will not be repeated here.
<Fourth embodiment>
第1の実施の形態にかかるシステム1は、客が第1のディスプレイのどの部分をみているのかを店員に伝えるものであった。本実施の形態にかかるシステム1は、第1〜第3の実施の形態のシステム1に、客がレジやディスプレイ装置100の方を向いているときに音声認識処理を実行し、客がいない場合や客が別の方向を向いているときに音声認識処理を実行しないという機能を追加したものである。
<システムの全体構成>
The
<Overall system configuration>
まず、図9を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図9は、本実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。
First, the overall configuration of the
図9を参照して、本実施の形態にかかるシステム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するためのカメラ200とを含む。ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイと、マイクとを有する。本実施の形態においても、第1のディスプレイと第2のディスプレイとが、背中合わせに配置されている。
Referring to FIG. 9,
ディスプレイ装置100と、カメラ200とは、有線または無線によって接続されている。ディスプレイ装置100は、カメラ200が取得した画像データを取得することができる。
<システムのユースシーン>
The
<System use scene>
次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図9を参照して、本実施の形態にかかるシステム1のユースシーンについて説明する。
Next, a typical use scene of the
図9(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、お薦めの商品を表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、客が第1のディスプレイを見ている場合には、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線がある位置を画面上に表示する。
As shown in FIG. 9A, when the customer comes in front of the cash
そして、特に、本実施の形態においては、客が横を向いて話をしている場合には、マイクが音声認識処理を実行しない。 In particular, in the present embodiment, when the customer is talking sideways, the microphone does not execute the voice recognition process.
一方、図9(b)に示すように、客がディスプレイ装置100や店員の方向を見ている場合には、ディスプレイ装置100はマイクが拾った音声を認識し、店員の言語に翻訳し、翻訳結果を第2のディスプレイに表示する。
On the other hand, as shown in FIG. 9B, when the customer is looking at the direction of the
そして、図9(c)に示すように、店員は、客が見ている商品または位置と、翻訳結果とに基づいて、返事をする。ディスプレイ装置100は、返事の音声をマイクで取得して、客の言語に翻訳し、翻訳結果をスピーカから出力する。
Then, as shown in FIG. 9C, the store clerk replies based on the product or position that the customer is viewing and the translation result. The
なお、店員は、第2のディスプレイの客が見ている部分にタッチすることによって、第1のディスプレイが店員のタッチした位置にポインタなどを表示した状態で、当該商品の説明を音声で入力してもよい。 The store clerk touches the portion of the second display that the customer is viewing, and the first display displays a pointer or the like at the position touched by the store clerk, and inputs the description of the product by voice. May be.
このように、本実施の形態にかかるシステム1においては、店員に問いかけられた可能性が高い場合にだけ翻訳結果を出力するため、システム1や店員が無駄な労力を払う必要がなくなる。
As described above, in the
以下では、このような機能を実現するためのシステム1について詳細に説明する。ただし、ディスプレイ装置100のハードウェア構成は、第1の実施の形態のディスプレイ装置100のハードウェア構成と同様であるため、ここでは説明を繰り返さない。また、カメラ200のハードウェア構成も、第1の実施の形態のカメラ200のハードウェア構成と同様であるため、ここでは説明を繰り返さない。
Below, the
なお、本実施の形態にかかるディスプレイ装置100は、1つのマイク170を有するものであるが、たとえばディスプレイ装置100は客の方に向けた第1の指向性マイクと店員の方に向けた第2の指向性マイクとを有するものであってもよい。そして、プロセッサ110は、客が向いている方向に応じて、第1の指向性マイクで取得した音声認識処理を実行するか否かを判断し、店員が向いている方向に応じて、第2の指向性マイクで取得した音声認識処理を実行するか否かを判断してもよい。
<ディスプレイ装置100のプロセッサ110の処理>
In addition, although the
<Processing of
次に、図10を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図10は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。
Next, information processing of the
カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。
The
プロセッサ110は、受信したデータから画像データを取得する(ステップS402)。
The
プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131に対する視線の位置を計算する(ステップS404)。
The
本実施の形態においては、プロセッサ110は、客の視線がディスプレイ装置100や店員の方向を向いているか否かを判断する(ステップS406)。
In the present embodiment, the
客の視線がディスプレイ装置100や店員の方向を向いていない場合(ステップS406にてNOである場合)、プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。
If the customer's line of sight is not facing the
客の視線がディスプレイ装置100や店員の方向を向いている場合(ステップS406にてYESである場合)、プロセッサ110は、マイク170を介して音声を取得し、音声を翻訳し、翻訳結果をスピーカ180または第2のディスプレイ141に出力させる(ステップS408)。プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。
<第5の実施の形態>
When the line of sight of the customer is facing the
<Fifth embodiment>
第4の実施の形態にかかるシステム1は、客がレジやディスプレイ装置100の方を向いているときにマイクから音声を取得し、音声認識処理を実行し、翻訳処理を実行し、翻訳結果を出力するものであった。一方、客がいない場合や客が別の方向を向いているときに音声認識処理以降を実行しないというものであった。
The
しかしながら、ディスプレイ装置100のプロセッサ110は、客がいない場合や客が別の方向を向いているときはマイクを動作させずに音声を取得することしないものであってもよい。
<第6の実施の形態>
However, the
<Sixth Embodiment>
あるいは、ディスプレイ装置100のプロセッサ110は、客がいない場合や客が別の方向を向いているときはマイクから音声を取得し、音声認識処理を実行するが、翻訳処理以降を実行しないものであってもよい。
<第7の実施の形態>
Alternatively, the
<Seventh embodiment>
あるいは、ディスプレイ装置100のプロセッサ110は、客がいない場合や客が別の方向を向いているときはマイクから音声を取得し、音声認識処理を実行し、翻訳処理も実行するが、翻訳結果を出力しないものであってもよい。
<第8の実施の形態>
Alternatively, the
<Eighth Embodiment>
第1〜第7の実施の形態にかかるシステム1は、ディスプレイ装置100がほとんどの処理を実行するものであった。しかしながら、ディスプレイ装置100やカメラ200の役割分担は、そのような形態には限られない。
In the
たとえば、図11に示すように、システム1は、サーバ300を有するものであってもよい。サーバ300は、LANまたはWANおよび/またはインターネットなどを介して、ディスプレイ装置100とデータの送受信が可能である。そして、ディスプレイ装置100のプロセッサ110の役割の一部または全部をサーバ300のプロセッサが担ったり、ディスプレイ装置100が記憶しているデータの一部または全部をサーバ300が記憶したりしてもよい。
<第9の実施の形態>
For example, as illustrated in FIG. 11, the
<Ninth embodiment>
第1〜第8の実施の形態にかかるシステム1は、第1のディスプレイと第2のディスプレイとが背中合わせに配置されるものであった。しかしながら、第1のディスプレイと第2のディスプレイとはそのような配置に限定されるものではない。
In the
たとえば、図12に示すように、第1のディスプレイと第2のディスプレイとが別々の装置であってもよい。換言すれば、第1の装置100Aが第1のディスプレイ131を搭載し、第2の装置100Bが第2のディスプレイ141を搭載し、いずれかの装置100A,100Bがディスプレイ装置100の機能の大部分を搭載してもよい。そして、第1の装置100Aと第2の装置100Bとカメラ200とが、互いにデータ通信可能であればよい。
<第10の実施の形態>
For example, as shown in FIG. 12, the first display and the second display may be separate devices. In other words, the
<Tenth Embodiment>
あるいは、図13に示すように、レジ付近または店員の控室または店の事務室に配置されるパーソナルコンピュータ400などの別の通信機器が、第1から第9の実施の形態のディスプレイ装置100の機能の一部、たとえばプロセッサ110やメモリ120やマイク170やスピーカ180などの機能の一部、または全部を搭載してもよい。そして、第1の装置100Aが第1のディスプレイ131を搭載し、第2の装置100Bが第2のディスプレイ141を搭載してもよい。当然に、パーソナルコンピュータ400は、第1の装置100A、第2の装置100B、カメラ200などと、直接的または間接的にデータ通信可能である。
<第11の実施の形態>
Alternatively, as shown in FIG. 13, another communication device such as a
<Eleventh embodiment>
また、図14に示すように、パーソナルコンピュータ400の代わりに、システム1は、第1のディスプレイ131と第2のディスプレイ141とカメラ200と、LANまたはWANおよび/またはインターネットなどを介して通信可能なサーバ300を利用してもよい。
<第12の実施の形態>
As shown in FIG. 14, instead of the
<Twelfth embodiment>
第1〜第11の実施の形態にかかるシステム1は、店員向けの各種の情報を第2のディスプレイからテキストまたは画像によって出力するものであり、客向けの各種の情報を第1のディスプレイからテキストまたは画像によって出力するものであった。しかしながら、出力形態はこれに限定されるものではない。
The
図15に示すように、店員向けの各種の情報は、店員が装着しているイヤホン500から出力されるものであってもよい。すなわち、本実施の形態にかかるディスプレイ装置100のプロセッサ110は、第2のディスプレイ141に出力するべき情報を、通信インターフェイス160を介して、イヤホン500から出力させる。たとえば、プロセッサ110は、イヤホン500に、「お客様はディスプレイの唐揚げを見ています」と出力させたり、「お客様は肉まんの棚を見ています」と出力させたり、「お客様はタバコの棚を見ています」と出力させたり、「お客様が店員を見ています。」と出力させたり、翻訳結果を出力させたりする。
As shown in FIG. 15, various kinds of information for the store clerk may be output from the
これによって、店員は、第2のディスプレイを見なくても、客が見ているものを知ることができるので、「唐揚げ、できたてですよ。」とか「肉まん、1割引きですよ。」などと、効率的な商品の提案ができる。 This allows the store clerk to know what the customer is looking at without having to look at the second display, such as “Fried chicken, freshly made.” Efficient product proposals can be made.
なお、この場合にも、プロセッサ110は、各種情報の音声出力に合わせて、第2のディスプレイ141にも各種情報を表示させてもよい。
<第13の実施の形態>
Also in this case, the
<Thirteenth embodiment>
あるいは、システム1のプロセッサ110は、客向けの各種の情報を、ディスプレイ装置100のスピーカ180から出力させてもよい。
Alternatively, the
この場合も、プロセッサ110は、各種情報の音声出力に合わせて、第1のディスプレイ131にも各種情報を表示させてもよい。
<第14の実施の形態>
Also in this case, the
<Fourteenth embodiment>
第1〜第13の実施の形態にかかるシステム1は、レジの前にいる客の視線を、レジの後にいる店員が利用するためのものであった。しかしながら、客や店員は、レジの前ではなく、別の場所にいてもよい。
The
たとえば、第1のディスプレイは客に見える場所であれば、レジに限らず、商品棚の近くに配置してもよい。あるいは、第1のディスプレイは、テレビショッピングの視聴に利用されるテレビであってもよいし、ネットショッピングに利用されるパーソナルコンピュータのディスプレイであってもよい。 For example, the first display is not limited to the cash register as long as it is visible to the customer, and may be arranged near the product shelf. Alternatively, the first display may be a television used for watching TV shopping or a personal computer display used for online shopping.
また、第2のディスプレイは、サービスや商品の提供者に見える場所であれば、レジに限らず、店員の控室や、テレフォンセンターなどに配置されてもよい。
<第15の実施の形態>
In addition, the second display is not limited to the cash register as long as it is visible to the service or product provider, and may be disposed in a waiting room of a store clerk, a telephone center, or the like.
<Fifteenth embodiment>
さらに上記のシステム1は、サービスや商品の販売以外の目的で利用されてもよい。たとえば、店員と客とに利用される代わりに、上記のシステム1を利用する教師が、生徒の視線を確認しながら、授業を進めることも可能である。
<第16の実施の形態>
Furthermore, the
<Sixteenth Embodiment>
上記の第1〜第15の実施の形態にかかるシステム1は、カメラ200からの画像に基づいて客の視線を取得するものであった。しかしながら、本実施の形態として、システム1は、カメラ200からの画像データに限らず、他の画像センサ、熱センサ、音センサ、人感センサなどからの情報に基づいて、客の位置や視線を取得するものであってもよい。なお、視線の方向の検出方法は、公知のいずれかの方法を採用すればよい。
<その他の応用例>
The
<Other application examples>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
<まとめ>
Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
<Summary>
以上、第1〜第16の実施の形態およびその応用例においては、第1のディスプレイ131と、センサ200と、出力部141,500と、制御部110と、を備えるシステム1が提供される。制御部110は、センサ200からの情報に基づいて、第1のディスプレイ131の前にいる人の視線に関する情報を出力部141に出力させる。
As described above, in the first to sixteenth embodiments and application examples thereof, the
好ましくは、出力部141は、第2のディスプレイ141である。制御部110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画面上に視線の位置を表示させる。
Preferably, the
好ましくは、システム1は、入力部142をさらに備える。制御部110は、入力部142を介して第1のディスプレイ131の画面に表示されるオブジェクトを指定する命令を受け付け、第1のディスプレイ131における指定されたオブジェクトの表示を変える。
Preferably, the
好ましくは、制御部110は、入力部142を介して、画面に表示されるオブジェクトの選択命令を受け付ける。
Preferably,
好ましくは、制御部110は、センサ200からの情報に基づいて、視線が第1のディスプレイ131から外れた場合に、第1のディスプレイ131の周辺における視線に関する情報を出力部141,500に出力させる。
Preferably, the
好ましくは、制御部110は、センサ200からの情報に基づいて、視線が店員のいる方向を向いていることを出力部141,500に出力させる。
Preferably, based on information from
好ましくは、システム1は、マイク170をさらに備える。制御部110は、視線が第1のディスプレイ131の近傍または出力部141,500の近傍を向いている場合に、マイク170を介して入力された音声の処理の結果を出力部141,500に出力させる。
Preferably, the
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 :システム
100 :ディスプレイ装置
100A :第1の装置
100B :第2の装置
110 :プロセッサ(制御部)
120 :メモリ
130 :第1のタッチパネル
131 :第1のディスプレイ(出力部)
132 :第1のポインティングデバイス(入力部)
140 :第2のタッチパネル
141 :第2のディスプレイ(出力部)
142 :第2のポインティングデバイス(入力部)
160 :通信インターフェイス
170 :マイク
180 :スピーカ
200 :カメラ
200A :第1のカメラ
200B :第2のカメラ
210 :プロセッサ
220 :メモリ
230 :画像センサ
260 :通信インターフェイス
300 :サーバ
310 :プロセッサ
400 :パーソナルコンピュータ
500 :イヤホン(出力部)
1: System 100:
120: Memory 130: First touch panel 131: First display (output unit)
132: First pointing device (input unit)
140: second touch panel 141: second display (output unit)
142: second pointing device (input unit)
160: Communication interface 170: Microphone 180: Speaker 200:
Claims (7)
センサと、
出力部と、
制御部と、を備え、前記制御部は、
前記センサからの情報に基づいて、前記第1のディスプレイの前にいる人の視線に関する情報を前記出力部に出力させる、接客システム。 A first display;
A sensor,
An output section;
A control unit, the control unit,
A customer service system that causes the output unit to output information relating to the line of sight of a person in front of the first display based on information from the sensor.
前記制御部は、前記第2のディスプレイに、前記第1のディスプレイに表示されている画面上に前記視線の位置を表示させる、請求項1に記載の接客システム。 The output unit is a second display,
The customer service system according to claim 1, wherein the control unit causes the second display to display a position of the line of sight on a screen displayed on the first display.
前記制御部は、前記入力部を介して前記第1のディスプレイの画面に表示されるオブジェクトを指定する命令を受け付け、前記第1のディスプレイにおける指定された前記オブジェクトの表示を変える、請求項2に記載の接客システム。 An input unit,
The control unit receives an instruction to specify an object displayed on the screen of the first display via the input unit, and changes a display of the specified object on the first display. The customer service system described.
前記制御部は、前記視線が前記第1のディスプレイの近傍または前記出力部の近傍を向いている場合に、前記マイクを介して入力された音声の処理の結果を前記出力部に出力させる、請求項1から6のいずれか1項に記載の接客システム。 A microphone,
The said control part makes the said output part output the result of the process of the audio | voice input via the said microphone, when the said eyes | visual_axis has faced the vicinity of the said 1st display, or the vicinity of the said output part. Item 7. The customer service system according to any one of items 1 to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015211640A JP2017084090A (en) | 2015-10-28 | 2015-10-28 | Customer service system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015211640A JP2017084090A (en) | 2015-10-28 | 2015-10-28 | Customer service system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017084090A true JP2017084090A (en) | 2017-05-18 |
Family
ID=58713475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015211640A Pending JP2017084090A (en) | 2015-10-28 | 2015-10-28 | Customer service system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017084090A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018020828A1 (en) * | 2016-07-28 | 2018-02-01 | パナソニックIpマネジメント株式会社 | Translation device and translation system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002015140A (en) * | 2000-06-29 | 2002-01-18 | Hitachi Ltd | Counseling terminal, counseling system using the same and device using the same |
JP2004133909A (en) * | 2002-09-17 | 2004-04-30 | Matsushita Electric Ind Co Ltd | Portable electronic equipment |
JP2007286995A (en) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | Attention level measurement device and attention level measurement system |
JP2014175944A (en) * | 2013-03-11 | 2014-09-22 | Ricoh Co Ltd | Television conference apparatus, control method of the same, and program |
WO2015133608A1 (en) * | 2014-03-07 | 2015-09-11 | 国立大学法人京都大学 | Surgery assistance system and camera unit used therein |
WO2015147168A1 (en) * | 2014-03-28 | 2015-10-01 | 大和ハウス工業株式会社 | Communication unit |
-
2015
- 2015-10-28 JP JP2015211640A patent/JP2017084090A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002015140A (en) * | 2000-06-29 | 2002-01-18 | Hitachi Ltd | Counseling terminal, counseling system using the same and device using the same |
JP2004133909A (en) * | 2002-09-17 | 2004-04-30 | Matsushita Electric Ind Co Ltd | Portable electronic equipment |
JP2007286995A (en) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | Attention level measurement device and attention level measurement system |
JP2014175944A (en) * | 2013-03-11 | 2014-09-22 | Ricoh Co Ltd | Television conference apparatus, control method of the same, and program |
WO2015133608A1 (en) * | 2014-03-07 | 2015-09-11 | 国立大学法人京都大学 | Surgery assistance system and camera unit used therein |
WO2015147168A1 (en) * | 2014-03-28 | 2015-10-01 | 大和ハウス工業株式会社 | Communication unit |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018020828A1 (en) * | 2016-07-28 | 2018-02-01 | パナソニックIpマネジメント株式会社 | Translation device and translation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216847B2 (en) | System and method for retail customer tracking in surveillance camera network | |
US20160253843A1 (en) | Method and system of management for switching virtual-reality mode and augmented-reality mode | |
KR101894022B1 (en) | Method and device for payment processing in virtual reality space | |
US9361501B2 (en) | Headheld scanner and POS display with mobile phone | |
JP4928592B2 (en) | Image processing apparatus and program | |
US9491368B2 (en) | Information obtaining and viewing device, data processing method thereof, and non-transitory computer readable medium storing a program | |
JP6323586B1 (en) | Store system, electronic shelf label, store system processing method and program | |
US20170213277A1 (en) | Goods purchase apparatus and goods purchase system having the same | |
US9741062B2 (en) | System for collaboratively interacting with content | |
CN112182426A (en) | User interface information display method and device and electronic equipment | |
CN111243200A (en) | Shopping method, wearable device and medium | |
JP2019039084A (en) | Mirror device with display function and system | |
JP2023029520A (en) | Display control device, control method, program, and storage medium | |
KR20180000007A (en) | Shoping inducing system using augmented reality | |
US20150100464A1 (en) | Information displaying apparatus and method of object | |
CN114926242A (en) | Live broadcast commodity processing method and device, electronic equipment and storage medium | |
WO2019116620A1 (en) | Processing device, processing method, and program | |
KR101431804B1 (en) | Apparatus for displaying show window image using transparent display, method for displaying show window image using transparent display and recording medium thereof | |
JP2017084090A (en) | Customer service system | |
JP2010032851A (en) | Advertisement output system and advertisement output method | |
CN113259773B (en) | Live broadcast data processing method and device, terminal, server and readable storage medium | |
US11436826B2 (en) | Augmented reality experience for shopping | |
KR20180077881A (en) | System for intelligent exhibition based on transparent display and method thereof | |
KR20170103453A (en) | Electronic catalog service system | |
JP2017146939A (en) | Image display device, display control method and display control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200204 |