JP2017084090A - Customer service system - Google Patents

Customer service system Download PDF

Info

Publication number
JP2017084090A
JP2017084090A JP2015211640A JP2015211640A JP2017084090A JP 2017084090 A JP2017084090 A JP 2017084090A JP 2015211640 A JP2015211640 A JP 2015211640A JP 2015211640 A JP2015211640 A JP 2015211640A JP 2017084090 A JP2017084090 A JP 2017084090A
Authority
JP
Japan
Prior art keywords
display
customer
processor
sight
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015211640A
Other languages
Japanese (ja)
Inventor
龍司 池田
Ryuji Ikeda
龍司 池田
洵也 居駒
Junya Ikoma
洵也 居駒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015211640A priority Critical patent/JP2017084090A/en
Publication of JP2017084090A publication Critical patent/JP2017084090A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a more useful customer service system.SOLUTION: A customer service system 1 includes: a display device 100 that includes: a first display that, when a customer comes in front thereof, displays recommended commodities for customers thereon in a selectable manner; and a second display displays the same contents as the first display thereon for allowing a user thereof to view. The customer service system 1 also includes a camera 200 which detects a position as the viewing target of the customer and indicates the same on the second display.SELECTED DRAWING: Figure 1

Description

本発明は、レジやチケットカウンターなどの接客場所に配置されるディスプレイを含む接客システムに関する。   The present invention relates to a customer service system including a display arranged at a customer service location such as a cash register or a ticket counter.

従来から、商品の販売などの支援に利用される機器が提案されている。たとえば、特開2012−22589号公報(特許文献1)には、商品選択支援方法が開示されている。特開2012−22589号公報(特許文献1)によると、表示画面の前に注視する利用者が居ない場合には、表示画面に複数の商品の画像がランダムな配列でスクロールする商品一覧画面が表示され、利用者が表示画面に近づいて商品一覧画面の特定の商品の画像を注視すると、その注視点を含む注視領域内の商品の画像が、中央部に注視領域が設定されて、この注視領域内に位置付けられた商品一覧画面が表示される。さらに、この注視領域内の商品の画像を注視続けると、この商品の画像が強調表示される。   2. Description of the Related Art Conventionally, devices used for support such as sales of products have been proposed. For example, Japanese Unexamined Patent Application Publication No. 2012-22589 (Patent Document 1) discloses a product selection support method. According to Japanese Patent Laying-Open No. 2012-22589 (Patent Document 1), when there is no user to watch before the display screen, a product list screen in which images of a plurality of products are scrolled in a random arrangement on the display screen. When the user approaches the display screen and gazes at the image of a specific product on the product list screen, the product image in the gaze area including the gaze point is set to the gaze area in the center. The product list screen positioned in the area is displayed. Further, when the image of the product in the gaze area is continuously watched, the product image is highlighted.

また、特開2008−226161号公報(特許文献2)には、注視認識システムが開示されている。特開2008−226161号公報(特許文献2)よると、この注視認識システムは、改札通路に沿って配置され、所定の場所に広告画面表示部が付設された改札機本体と、この改札機本体に配置され、かつ改札通路を移動する通行人の顔の存在領域に設定された視線検知範囲を撮像するカメラと、カメラから得られた撮像情報に基づいて、広告画面表示部に対する通行人の視線変化を検出する視線変化検出部とを備えるように構成される。   Japanese Unexamined Patent Application Publication No. 2008-226161 (Patent Document 2) discloses a gaze recognition system. According to Japanese Patent Application Laid-Open No. 2008-226161 (Patent Document 2), this gaze recognition system is arranged along a ticket gate passage and has a ticket gate main body provided with an advertisement screen display unit at a predetermined location, and the ticket gate main body. And a camera that captures a gaze detection range set in a presence area of a passer's face moving in the ticket gate, and a passer's gaze on the advertising screen display unit based on imaging information obtained from the camera And a line-of-sight change detection unit that detects a change.

特開2012−22589号公報JP 2012-22589 A 特開2008−226161号公報JP 2008-226161 A

従来よりも有用な接客システムが求められている。そこで、本発明の目的は、従来よりも有用な接客システムを提供することにある。   There is a need for a customer service system that is more useful than before. Accordingly, an object of the present invention is to provide a customer service system that is more useful than conventional ones.

この発明のある態様に従うと、第1のディスプレイと、センサと、出力部と、制御部と、を備える接客システムが提供される。前記制御部は、前記センサからの情報に基づいて、前記第1のディスプレイの前にいる人の視線に関する情報を前記出力部に出力させる。   According to an aspect of the present invention, a customer service system including a first display, a sensor, an output unit, and a control unit is provided. The control unit causes the output unit to output information related to the line of sight of a person in front of the first display based on information from the sensor.

好ましくは、前記出力部は、第2のディスプレイである。前記制御部は、前記第2のディスプレイに、前記第1のディスプレイに表示されている画面上に前記視線の位置を表示させる。   Preferably, the output unit is a second display. The control unit causes the second display to display the position of the line of sight on the screen displayed on the first display.

好ましくは、接客システムは、入力部をさらに備える。前記制御部は、前記入力部を介して前記第1のディスプレイの画面に表示されるオブジェクトを指定する命令を受け付け、前記第1のディスプレイにおける指定された前記オブジェクトの表示を変える。   Preferably, the customer service system further includes an input unit. The control unit receives an instruction for designating an object displayed on the screen of the first display via the input unit, and changes the display of the designated object on the first display.

好ましくは、前記制御部は、前記入力部を介して、前記画面に表示されるオブジェクトの選択命令を受け付ける。   Preferably, the control unit receives an object selection command displayed on the screen via the input unit.

好ましくは、前記制御部は、前記センサからの情報に基づいて、前記視線が前記ディスプレイから外れた場合に、前記第1のディスプレイの周辺における前記視線に関する情報を前記出力部に出力させる。   Preferably, based on information from the sensor, the control unit causes the output unit to output information on the line of sight around the first display when the line of sight deviates from the display.

好ましくは、前記制御部は、前記センサからの情報に基づいて、前記視線が店員のいる方向を向いていることを前記出力部に出力させる。   Preferably, the control unit causes the output unit to output that the line of sight is directed in a direction where a store clerk is present based on information from the sensor.

好ましくは、接客システムは、マイクをさらに備える。前記制御部は、前記視線が第1のディスプレイの近傍または前記出力部の近傍を向いている場合に、前記マイクを介して入力された音声の処理の結果を前記出力部に出力させる。   Preferably, the customer service system further includes a microphone. The control unit causes the output unit to output the processing result of the voice input via the microphone when the line of sight is directed to the vicinity of the first display or the vicinity of the output unit.

以上のように、この発明によれば、従来よりも有用な接客システムが提供される。   As described above, according to the present invention, a customer service system that is more useful than conventional ones is provided.

第1の実施の形態にかかるシステム1の全体構成と第1のユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure of the system 1 concerning 1st Embodiment, and a 1st use scene. 第1の実施の形態にかかるシステム1の全体構成と第2のユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure of the system 1 concerning 1st Embodiment, and a 2nd use scene. 第1の実施の形態にかかるシステム1のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the system 1 concerning 1st Embodiment. 第1の実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。It is a flowchart which shows the information processing of the display apparatus 100 concerning 1st Embodiment. 第2の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 2nd Embodiment. 第2の実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。It is a flowchart which shows the information processing of the display apparatus 100 concerning 2nd Embodiment. 第3の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 3rd Embodiment. 第3の実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。It is a flowchart which shows the information processing of the display apparatus 100 concerning 3rd Embodiment. 第4の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 4th Embodiment. 第4の実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。It is a flowchart which shows the information processing of the display apparatus 100 concerning 4th Embodiment. 第8の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 8th Embodiment. 第9の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 9th Embodiment. 第10の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 10th Embodiment. 第11の実施の形態にかかるシステム1の第3の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the 3rd whole structure and use scene of the system 1 concerning 11th Embodiment. 第12の実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。It is an image figure which shows the whole structure and use scene of the system 1 concerning 12th Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<システム1の全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of system 1>

まず、図1および図2を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図1は、本実施の形態にかかるシステム1の全体構成と第1のユースシーンとを示すイメージ図である。図2は、本実施の形態にかかるシステム1の全体構成と第2のユースシーンとを示すイメージ図である。   First, the overall configuration of the system 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is an image diagram showing the overall configuration of the system 1 and the first use scene according to the present embodiment. FIG. 2 is an image diagram showing the overall configuration of the system 1 and the second use scene according to the present embodiment.

図1および図2を参照して、本実施の形態にかかるシステム1は、コンビニやスーパーなどのレジ付近に配置される。システム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するためのカメラ200とを含む。   With reference to FIG. 1 and FIG. 2, the system 1 concerning this Embodiment is arrange | positioned near cash registers, such as a convenience store and a supermarket. The system 1 includes a display device 100 for a customer to browse and a camera 200 for acquiring the line of sight of the customer in front of the display device 100.

ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイとを有する。本実施の形態においては、第1のディスプレイと第2のディスプレイとは、背中合わせに配置されている。   The display device 100 includes a first display for a customer to browse and a second display for a store clerk to browse. In the present embodiment, the first display and the second display are arranged back to back.

ディスプレイ装置100と、カメラ200とは、有線または無線によって接続されている。ディスプレイ装置100は、カメラ200が取得した画像データを取得することができる。ただし、カメラ200は、ディスプレイ装置100の客側の表面に搭載される形態であってもよい。
<システムのユースシーン>
The display device 100 and the camera 200 are connected by wire or wireless. The display device 100 can acquire image data acquired by the camera 200. However, the camera 200 may be mounted on the surface of the display device 100 on the customer side.
<System use scene>

次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図1を参照して、本実施の形態にかかるシステム1の第1のユースシーンについて説明する。   Next, a typical use scene of the system 1 according to the present embodiment will be described. First, a first use scene of the system 1 according to the present embodiment will be described with reference to FIG.

図1(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイがお薦めの商品を選択可能に表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線の先にある第1のディスプレイの位置を表示する。これによって、店員が、客の見ている位置や商品などを把握することができる。   As shown in FIG. 1 (a), when a customer comes in front of the cash register display device 100, the first display displays a recommended product in a selectable manner automatically or by a store clerk. Then, the camera 200 sequentially transmits the image data of the customer's face to the display device 100. The display device 100 displays the position of the first display ahead of the customer's line of sight while displaying the same screen as the first display on the second display. As a result, the store clerk can grasp the position or the product that the customer is viewing.

図1(b)に示すように、店員が、第2のディスプレイの客が見ている商品のボタンにタッチすると、第1のディスプレイにおける当該商品の表示が変わる。たとえば、当該商品の周囲を、黄色や赤で点滅させたりする。この状態で、店員が、当該商品の説明をすることが好ましい。   As shown in FIG. 1B, when the store clerk touches the button of the product that the customer on the second display is viewing, the display of the product on the first display changes. For example, the surroundings of the product are blinked in yellow or red. In this state, it is preferable that the store clerk explains the product.

このように、本実施の形態にかかるシステム1においては、客が見ている商品を店員が把握することができるで、効果的な営業を行うことができる。また、客も、店員が説明してくれている商品がどれであるかをすぐに理解することができる。   As described above, in the system 1 according to the present embodiment, the store clerk can grasp the product that the customer is looking at, so that effective sales can be performed. In addition, customers can immediately understand which product the store clerk explains.

次に、図2を参照して、本実施の形態にかかるシステム1の第2のユースシーンについて説明する。図2(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、言語の選択画面を表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線の先の位置を表示する。これによって、店員が、客の見ている位置を把握することができる。   Next, a second use scene of the system 1 according to the present embodiment will be described with reference to FIG. As shown in FIG. 2 (a), when the customer comes in front of the cash register display device 100, the first display displays a language selection screen automatically or by a store clerk. Then, the camera 200 sequentially transmits the image data of the customer's face to the display device 100. The display device 100 displays the position ahead of the customer's line of sight while displaying the same screen as the first display on the second display. Thus, the store clerk can grasp the position that the customer is looking at.

図2(b)に示すように、店員が、第2のディスプレイの客が見ている言語のボタンにタッチすると、第1のディスプレイにおける当該言語の表示が変わる。たとえば、当該言語の周囲を、黄色や赤で点滅させたりする。この状態で、店員が、当該言語の説明をしたり、そのまま店員が当該言語の選択命令を入力したりする。なお、言語の選択命令は、客が第1のディスプレイにタッチするか、店員が第2のディスプレイに2回タッチする、または長押しするなどして、入力される。   As shown in FIG. 2B, when the store clerk touches the button of the language that the customer on the second display is viewing, the display of the language on the first display changes. For example, the surroundings of the language are blinked in yellow or red. In this state, the store clerk explains the language, or the store clerk directly inputs a selection instruction for the language. The language selection command is input when the customer touches the first display, or the store clerk touches the second display twice or presses and holds it.

このように、本実施の形態にかかるシステム1においては、客が見ている言語を店員が把握することができるで、接客がスムーズに行われ、店員の言語を話すことができない客も安心してレジにて買い物ができる。   As described above, in the system 1 according to the present embodiment, the store clerk can grasp the language that the customer is viewing, so that the customer service is performed smoothly and the customer who cannot speak the store clerk's language can be relieved. You can shop at the cash register.

以下では、このような機能を実現するためのシステム1について詳細に説明する。
<ディスプレイ装置100のハードウェア構成>
Below, the system 1 for implement | achieving such a function is demonstrated in detail.
<Hardware Configuration of Display Device 100>

まず、システム1を構成するディスプレイ装置100のハードウェア構成の一態様について説明する。なお、図3は、本実施の形態にかかるシステム1のハードウェア構成を表わすブロック図である。   First, an aspect of the hardware configuration of the display device 100 configuring the system 1 will be described. FIG. 3 is a block diagram showing a hardware configuration of the system 1 according to the present embodiment.

図3を参照して、本実施の形態にかかるディスプレイ装置100は、主たる構成要素として、プロセッサ110と、メモリ120と、第1のタッチパネル130(ディスプレイ131とポインティングデバイス132)と、第2のタッチパネル140(ディスプレイ141とポインティングデバイス142)と、通信インターフェイス160と、マイク170と、スピーカ180とを含む。   Referring to FIG. 3, display device 100 according to the present embodiment includes, as main components, processor 110, memory 120, first touch panel 130 (display 131 and pointing device 132), and second touch panel. 140 (display 141 and pointing device 142), communication interface 160, microphone 170, and speaker 180.

プロセッサ110は、メモリ120あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、ディスプレイ装置100の各部を制御する。すなわち、プロセッサ110は、メモリ120に格納されているプログラムを実行することによって、後述する各種の処理を実現する。   The processor 110 controls each unit of the display device 100 by executing a program stored in the memory 120 or an external storage medium. That is, the processor 110 implements various processes to be described later by executing a program stored in the memory 120.

メモリ120は、各種のRAM(Random Access Memory)や各種のROM(Read Only Memory)などによって実現される。メモリ120は、たとえば、プロセッサ110によって実行されるプログラムや、プロセッサ110によるプログラムの実行により生成されたデータ、第1および第2のタッチパネル130,140から入力されたデータ、カメラ200から受信した画像データ、画像データから算出した視線の位置データ、第1および第2のタッチパネル130,140に表示すべき商品のデータや広告のデータなどを記憶する。   The memory 120 is realized by various RAMs (Random Access Memory) and various ROMs (Read Only Memory). The memory 120 includes, for example, a program executed by the processor 110, data generated by execution of the program by the processor 110, data input from the first and second touch panels 130 and 140, and image data received from the camera 200. The line-of-sight position data calculated from the image data, the data of products to be displayed on the first and second touch panels 130 and 140, the data of advertisements, and the like are stored.

第1および第2のディスプレイ131,141は、プロセッサ110からの信号に基づいて、文字や画像、たとえば図1および図2などに示す画面を出力する。第1および第2のポインティングデバイス132,142は、ユーザからの命令を受け付けて当該命令をプロセッサ110に入力する。なお、本実施の形態においては、ディスプレイ装置100は、第1のディスプレイ131と第1のポインティングデバイス132とが組み合わされた第1のタッチパネル130と、第2のディスプレイ141と第2のポインティングデバイス142とが組み合わされた第2のタッチパネル140とを有する。   The first and second displays 131 and 141 output characters and images, for example, screens shown in FIGS. 1 and 2 based on signals from the processor 110. The first and second pointing devices 132 and 142 receive a command from the user and input the command to the processor 110. In the present embodiment, the display device 100 includes a first touch panel 130 in which the first display 131 and the first pointing device 132 are combined, a second display 141, and a second pointing device 142. And a second touch panel 140 combined with.

通信インターフェイス160は、アンテナやコネクタによって実現される。通信インターフェイス160は、有線通信あるいは無線通信によって他の装置、たとえばカメラ200との間でデータをやり取りする。プロセッサ110は、通信インターフェイス160を介して、カメラ200から画像データを受信したり、商品の購入履歴をサーバに送信したりする。   The communication interface 160 is realized by an antenna or a connector. The communication interface 160 exchanges data with other devices, for example, the camera 200 by wired communication or wireless communication. The processor 110 receives image data from the camera 200 via the communication interface 160 and transmits a purchase history of products to the server.

マイク170は、各種の音声を受け付けて、音声信号をプロセッサ110に入力する。スピーカ180は、プロセッサ110からの音声信号に基づいて、各種の音声を出力する。
<カメラ200のハードウェア構成>
The microphone 170 receives various sounds and inputs sound signals to the processor 110. The speaker 180 outputs various sounds based on the audio signal from the processor 110.
<Hardware Configuration of Camera 200>

次に、システム1を構成するカメラ200のハードウェア構成の一態様について説明する。   Next, an aspect of the hardware configuration of the camera 200 constituting the system 1 will be described.

図3を参照して、本実施の形態にかかるカメラ200は、主たる構成要素として、プロセッサ210と、メモリ220と、画像センサ230と、通信インターフェイス260とを含む。   Referring to FIG. 3, camera 200 according to the present embodiment includes a processor 210, a memory 220, an image sensor 230, and a communication interface 260 as main components.

プロセッサ210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、カメラ200の各部を制御する。すなわち、プロセッサ210は、メモリ220に格納されているプログラムを実行することによって、後述する各種の処理を実現する。   The processor 210 controls each unit of the camera 200 by executing a program stored in the memory 220 or an external storage medium. That is, the processor 210 implements various processes described later by executing a program stored in the memory 220.

メモリ220は、各種のRAMや各種のROMなどによって実現される。メモリ220は、たとえば、画像センサ230が読み取った画像データを一時的に記憶する。   The memory 220 is realized by various RAMs, various ROMs, and the like. For example, the memory 220 temporarily stores image data read by the image sensor 230.

画像センサ230は、複数の撮像素子を含む。画像センサ230は、外部からの光を検知して、画像信号をプロセッサ210に入力する。プロセッサ310は、画像信号に基づいて、画像データをメモリ220に格納する。   The image sensor 230 includes a plurality of image sensors. The image sensor 230 detects light from the outside and inputs an image signal to the processor 210. The processor 310 stores image data in the memory 220 based on the image signal.

通信インターフェイス260は、アンテナやコネクタによって実現される。通信インターフェイス260は、有線通信あるいは無線通信によって他の装置、たとえばディスプレイ装置100との間でデータをやり取りする。たとえば、プロセッサ210は、通信インターフェイス160を介して、メモリ220に一時的に記憶した画像データをディスプレイ装置100に送信する。
<ディスプレイ装置100のプロセッサ110の処理>
The communication interface 260 is realized by an antenna or a connector. The communication interface 260 exchanges data with other devices, for example, the display device 100 by wired communication or wireless communication. For example, the processor 210 transmits the image data temporarily stored in the memory 220 to the display device 100 via the communication interface 160.
<Processing of Processor 110 of Display Device 100>

次に、図4を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図4は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。   Next, information processing of the display device 100 according to the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing information processing of the display apparatus 100 according to the present embodiment.

まず、カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に画像データを送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。   First, the camera 200 periodically acquires image data and transmits the image data to the display device 100. When the processor 110 of the display device 100 receives data from the camera 200, the processor 110 executes the following processing.

プロセッサ110は、受信したデータから画像データを取得する(ステップS102)。   The processor 110 acquires image data from the received data (step S102).

プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131の画面のうちの視線の先の位置を計算する(ステップS104)。   The processor 110 acquires the direction of the line of sight of the customer with respect to the camera 200 from the image data. Based on the direction of the customer's line of sight with respect to the camera 200 and the position and orientation of the first display 131 with respect to the camera 200, the processor 110 calculates the position of the line of sight on the screen of the first display 131 (step). S104).

プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画像を表示させるともに、当該画像上に客の視線の位置を表示させる(ステップS106)。   The processor 110 causes the second display 141 to display the image displayed on the first display 131 and also displays the position of the customer's line of sight on the image (step S106).

プロセッサ110は、第2のポインティングデバイス142を介して、店員が第2のタッチパネル140にタッチしたか否かを判断する(ステップS108)。プロセッサ110は、店員が第2のタッチパネル140にタッチしなかった場合(ステップS108にてNOの場合)、ステップS112からの処理を実行する。   The processor 110 determines whether or not the store clerk has touched the second touch panel 140 via the second pointing device 142 (step S108). If the store clerk has not touched the second touch panel 140 (NO in step S108), the processor 110 executes the processing from step S112.

一方、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語にタッチした場合(ステップS108にてYESの場合)、第1のディスプレイ131の当該商品または当該言語の部分が目立つように、表示態様を変更する(ステップS110)。   On the other hand, when the store clerk touches any product or language on the second touch panel 140 (YES in step S108), the processor 110 makes the product or the language portion of the first display 131 stand out. Next, the display mode is changed (step S110).

プロセッサ110は、第1のポインティングデバイス132を介して、客が第1のタッチパネル130にタッチしたか否かを判断する(ステップS112)。プロセッサ110は、客が第1のタッチパネル130にタッチしなかった場合(ステップS112にてNOの場合)、通信インターフェイス160を介して、次の画像データを待ち受ける。   The processor 110 determines whether or not the customer has touched the first touch panel 130 via the first pointing device 132 (step S112). When the customer does not touch the first touch panel 130 (NO in step S112), the processor 110 waits for the next image data via the communication interface 160.

一方、プロセッサ110は、客が第1のタッチパネル130のいずれかの商品または言語にタッチした場合(ステップS112にてYESの場合)、当該命令を実行する(ステップS114)。たとえば、プロセッサ110は、客が商品のボタンにタッチした場合は、当該商品の詳細な説明を第1のディスプレイ131に表示させたり、当該商品の購入を受け付けたりする。あるいは、プロセッサ110は、客が言語のボタンにタッチした場合は、第1のディスプレイ131の表示言語を当該言語のものに変更する。プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。   On the other hand, when the customer touches any product or language on first touch panel 130 (YES in step S112), processor 110 executes the command (step S114). For example, when a customer touches a product button, the processor 110 displays a detailed description of the product on the first display 131 or accepts the purchase of the product. Alternatively, when the customer touches a language button, the processor 110 changes the display language of the first display 131 to that language. The processor 110 waits for the next image data via the communication interface 160.

なお、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語をダブルクリックした場合にも、ステップS114と同様の処理を実行することが好ましい。
<第2の実施の形態>
In addition, it is preferable that the processor 110 performs the same process as step S <b> 114 even when the store clerk double-clicks any product or language on the second touch panel 140.
<Second Embodiment>

第1の実施の形態にかかるシステム1は、客が第1のディスプレイのどの部分をみているのかを店員に伝えるものであった。本実施の形態にかかるシステム1は、第1の実施の形態のシステム1に、第1のディスプレイの周囲、たとえばレジ付近のどのエリアをみているかを店員に伝える機能を追加したものである。
<システムの全体構成>
The system 1 according to the first embodiment tells the store clerk what part of the first display the customer is looking at. The system 1 according to the present embodiment is obtained by adding a function of telling the store clerk which area around the first display, for example, the vicinity of the cash register, to the system 1 of the first embodiment.
<Overall system configuration>

まず、図5を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図5は、本実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。   First, the overall configuration of the system 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is an image diagram showing the overall configuration and use scene of the system 1 according to the present embodiment.

図5を参照して、本実施の形態にかかるシステム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するための第1のカメラ200Aと、客の方向からディスプレイ装置100の周辺を撮影するための第2のカメラ200Bとを含む。   Referring to FIG. 5, system 1 according to the present embodiment includes display device 100 for a customer to browse, first camera 200 </ b> A for acquiring the line of sight of a customer in front of display device 100, and And a second camera 200B for photographing the periphery of the display device 100 from the direction of the customer.

ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイとを有する。本実施の形態においても、第1のディスプレイと第2のディスプレイとが、背中合わせに配置されている。   The display device 100 includes a first display for a customer to browse and a second display for a store clerk to browse. Also in the present embodiment, the first display and the second display are arranged back to back.

ディスプレイ装置100と、第1のカメラ200Aおよび第2のカメラ200Bとは、有線または無線によって接続されている。ディスプレイ装置100は、第1のカメラ200Aと第2のカメラ200Bとが取得した画像データを取得することができる。
<システムのユースシーン>
The display device 100 is connected to the first camera 200A and the second camera 200B by wire or wirelessly. The display device 100 can acquire image data acquired by the first camera 200A and the second camera 200B.
<System use scene>

次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図5を参照して、本実施の形態にかかるシステム1のユースシーンについて説明する。   Next, a typical use scene of the system 1 according to the present embodiment will be described. First, a use scene of the system 1 according to the present embodiment will be described with reference to FIG.

図5(a)に示すように、客がレジの第1のディスプレイの前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、お薦めの商品を表示する。そして、第1のカメラ200Aが、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。第2のカメラ200Bは、ディスプレイ装置100を含む、レジ周辺の画像データをディスプレイ装置100に送信する。   As shown in FIG. 5 (a), when the customer comes in front of the first display of the cash register, the first display automatically or by the store clerk displays the recommended products. Then, the first camera 200 </ b> A sequentially transmits the image data of the customer's face to the display device 100. The second camera 200 </ b> B transmits image data around the cash register including the display device 100 to the display device 100.

ディスプレイ装置100は、客が第1のディスプレイを見ている場合には、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線がある位置を画面上に表示する。そして、本実施の形態においては、ディスプレイ装置100は、客が第1のディスプレイの周囲を見ている場合には、第2のカメラ200Bからの画像を利用して、第2のディスプレイに、第1のディスプレイの周囲あるいはレジ周辺の画像を表示しながら、客の視線がある位置を画面上に表示する。これによって、店員は、第1のディスプレイの画面に限らず、客の見ている位置を把握することができる。   When the customer is looking at the first display, the display device 100 displays a position where the line of sight of the customer is present on the screen while displaying the same screen as the first display on the second display. . In the present embodiment, when the customer is looking around the first display, the display device 100 uses the image from the second camera 200B to display the second display on the second display. While displaying the image around the display of 1 or around the cash register, the position where the line of sight of the customer is displayed is displayed on the screen. Thereby, the salesclerk can grasp not only the screen of the first display but also the position that the customer is looking at.

図5(b)に示すように、店員が、第2のディスプレイの客が見ている部分にタッチすると、第1のディスプレイは、第1のディスプレイの周囲の画像を表示しながら、店員がタッチした位置にポインタなどを表示する。この状態で、店員が、当該商品の説明をすることが好ましい。   As shown in FIG. 5B, when the clerk touches the portion of the second display that the customer is viewing, the clerk touches the first display while displaying an image around the first display. A pointer etc. is displayed at the position. In this state, it is preferable that the store clerk explains the product.

このように、本実施の形態にかかるシステム1においては、客が見ている商品を店員が把握することができるで、効果的な営業を行うことができる。また、客も、店員が説明している商品がどれかをすぐに理解できるため、商品の理解が容易になる。   As described above, in the system 1 according to the present embodiment, the store clerk can grasp the product that the customer is looking at, so that effective sales can be performed. In addition, since the customer can immediately understand which product the store clerk explains, the product can be easily understood.

以下では、このような機能を実現するためのシステム1について詳細に説明する。ただし、ディスプレイ装置100のハードウェア構成は、第1の実施の形態のディスプレイ装置100のハードウェア構成と同様であるため、ここでは説明を繰り返さない。また、第1のカメラ200Aと第2のカメラのハードウェア構成は、第1の実施の形態のカメラ200のハードウェア構成と同様であるため、ここでは説明を繰り返さない。
<ディスプレイ装置100のプロセッサ110の処理>
Below, the system 1 for implement | achieving such a function is demonstrated in detail. However, since the hardware configuration of the display apparatus 100 is the same as the hardware configuration of the display apparatus 100 of the first embodiment, the description thereof will not be repeated here. The hardware configurations of the first camera 200A and the second camera are the same as the hardware configuration of the camera 200 of the first embodiment, and thus description thereof will not be repeated here.
<Processing of Processor 110 of Display Device 100>

次に、図6を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図6は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。   Next, information processing of the display device 100 according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing information processing of the display apparatus 100 according to the present embodiment.

カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。   The camera 200 periodically acquires image data and transmits it to the display device 100. When the processor 110 of the display device 100 receives data from the camera 200, the processor 110 executes the following processing.

プロセッサ110は、受信したデータから画像データを取得する(ステップS202)。   The processor 110 acquires image data from the received data (step S202).

プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131に対する視線の位置を計算する(ステップS204)。   The processor 110 acquires the direction of the line of sight of the customer with respect to the camera 200 from the image data. The processor 110 calculates the position of the line of sight with respect to the first display 131 based on the direction of the line of sight of the customer with respect to the camera 200 and the position and orientation of the first display 131 with respect to the camera 200 (step S204).

本実施の形態においては、プロセッサ110は、客の視線の先が第1のディスプレイ131の画面内にあるか否かを判断する(ステップS205)。   In the present embodiment, the processor 110 determines whether or not the customer's line of sight is within the screen of the first display 131 (step S205).

客の視線が第1のディスプレイ131の画面内にある場合(ステップS205にてYESである場合)、プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画像を表示させるともに、当該画像のうちの客の視線の先の位置を表示させる(ステップS206)。プロセッサ110は、ステップS208からの処理を実行する。   When the line of sight of the customer is within the screen of first display 131 (YES in step S205), processor 110 displays the image displayed on first display 131 on second display 141. At the same time, the position ahead of the customer's line of sight in the image is displayed (step S206). The processor 110 executes the processing from step S208.

一方、客の視線が第1のディスプレイ131の外側にある場合(ステップS205にてNOである場合)、プロセッサ110は、第2のディスプレイ141に、第2のカメラ200Bからの画像データに基づいて第1のディスプレイ131の周囲の画像を表示させるともに、当該画像のうちの客の視線の先の位置を表示させる(ステップS207)。   On the other hand, when the customer's line of sight is outside the first display 131 (NO in step S205), the processor 110 causes the second display 141 to display the image data from the second camera 200B. While displaying the image around the 1st display 131, the position of the point of the customer's eyes | visual_axis among the said images is displayed (step S207).

プロセッサ110は、第2のポインティングデバイス142を介して、店員が第2のタッチパネル140にタッチしたか否かを判断する(ステップS208)。プロセッサ110は、店員が第2のタッチパネル140にタッチしなかった場合(ステップS208にてNOの場合)、ステップS212からの処理を実行する。   The processor 110 determines whether or not the store clerk has touched the second touch panel 140 via the second pointing device 142 (step S208). If the store clerk has not touched the second touch panel 140 (NO in step S208), the processor 110 executes the processing from step S212.

一方、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語にタッチした場合(ステップS208にてYESの場合)、第1のディスプレイ131の当該商品または当該言語の部分が目立つように、表示態様を変更する(ステップS210)。   On the other hand, when the clerk touches any product or language on the second touch panel 140 (YES in step S208), the processor 110 makes the product or the language portion of the first display 131 stand out. Next, the display mode is changed (step S210).

より詳細には、店員が第2のタッチパネル140にタッチした時に、客の視線が第1のディスプレイ131の内側にある場合には、プロセッサ110は、第1のディスプレイ131に、通常の画面において、当該商品または当該言語の部分が目立つように、表示態様を変更させる。一方、店員が第2のタッチパネル140にタッチした時に、客の視線が第1のディスプレイ131の外側にある場合には、プロセッサ110は、第1のディスプレイ131に、第2のカメラ200Bが撮影したレジ周辺の画像を表示させながら、店員がタッチした部分が目立つように、表示態様を変更したり、当該部分にポインタを表示させたりする。   More specifically, when the customer's line of sight is inside the first display 131 when the store clerk touches the second touch panel 140, the processor 110 displays the first display 131 on the normal screen. The display mode is changed so that the product or the language portion stands out. On the other hand, when the store clerk touches the second touch panel 140 and the customer's line of sight is outside the first display 131, the processor 110 captures the image on the first display 131 by the second camera 200B. While displaying the image around the cash register, the display mode is changed so that the portion touched by the store clerk stands out, or the pointer is displayed on the portion.

プロセッサ110は、第1のポインティングデバイス132を介して、客が第1のタッチパネル130にタッチしたか否かを判断する(ステップS212)。プロセッサ110は、客が第1のタッチパネル130にタッチしなかった場合(ステップS212にてNOの場合)、通信インターフェイス160を介して、次の画像データを待ち受ける。   The processor 110 determines whether or not the customer has touched the first touch panel 130 via the first pointing device 132 (step S212). If the customer does not touch the first touch panel 130 (NO in step S212), the processor 110 waits for the next image data via the communication interface 160.

一方、プロセッサ110は、客が第1のタッチパネル130のいずれかの商品または言語にタッチした場合(ステップS212にてYESの場合)、該当する命令を実行する(ステップS214)。たとえば、プロセッサ110は、客が商品のボタンにタッチした場合は、当該商品の詳細な説明を第1のディスプレイ131に表示させたり、当該商品の購入を受け付けたりする。あるいは、プロセッサ110は、客が言語のボタンにタッチした場合は、第1のディスプレイ131の表示言語を当該言語のものに変更する。プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。   On the other hand, when the customer touches any product or language on first touch panel 130 (YES in step S212), processor 110 executes the corresponding command (step S214). For example, when a customer touches a product button, the processor 110 displays a detailed description of the product on the first display 131 or accepts the purchase of the product. Alternatively, when the customer touches a language button, the processor 110 changes the display language of the first display 131 to that language. The processor 110 waits for the next image data via the communication interface 160.

なお、プロセッサ110は、店員が第2のタッチパネル140のいずれかの商品または言語をダブルクリックした場合にも、ステップS114と同様の処理を実行することが好ましい。
<第3の実施の形態>
In addition, it is preferable that the processor 110 performs the same process as step S <b> 114 even when the store clerk double-clicks any product or language on the second touch panel 140.
<Third Embodiment>

本実施の形態にかかるシステム1は、第1または第2の実施の形態のシステム1に、客が店員の方を向いているときに、その旨を店員に伝えることができる機能を追加したものである。
<システムの全体構成>
The system 1 according to the present embodiment is obtained by adding a function capable of notifying the store clerk when the customer is facing the store clerk to the system 1 according to the first or second embodiment. It is.
<Overall system configuration>

まず、図7を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図7は、本実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。   First, the overall configuration of the system 1 according to the present embodiment will be described with reference to FIG. FIG. 7 is an image diagram showing the overall configuration and use scene of the system 1 according to the present embodiment.

図7を参照して、本実施の形態にかかるシステム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するためのカメラ200とを含む。ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイとを有する。第1のディスプレイと第2のディスプレイとが、背中合わせに配置されている。   Referring to FIG. 7, system 1 according to the present embodiment includes a display device 100 for a customer to browse and a camera 200 for acquiring the line of sight of the customer in front of display device 100. The display device 100 includes a first display for a customer to browse and a second display for a store clerk to browse. The first display and the second display are arranged back to back.

ディスプレイ装置100とカメラ200とは、有線または無線によって接続されている。ディスプレイ装置100は、カメラ200が取得した画像データを取得することができる。
<システムのユースシーン>
The display device 100 and the camera 200 are connected by wire or wireless. The display device 100 can acquire image data acquired by the camera 200.
<System use scene>

次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図7を参照して、本実施の形態にかかるシステム1のユースシーンについて説明する。   Next, a typical use scene of the system 1 according to the present embodiment will be described. First, a use scene of the system 1 according to the present embodiment will be described with reference to FIG.

図7(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、お薦め商品の選択画面や言語の選択画面を表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線がある位置を画面上に表示する。これによって、店員が、客の見ている位置を把握することができる。   As shown in FIG. 7A, when the customer comes in front of the cash register display device 100, the first display automatically or by the store clerk displays a recommended product selection screen or a language selection screen. . Then, the camera 200 sequentially transmits the image data of the customer's face to the display device 100. The display device 100 displays a position where the line of sight of the customer is on the screen while displaying the same screen as the first display on the second display. Thus, the store clerk can grasp the position that the customer is looking at.

図7(b)に示すように、客が店員の方を見ると、ディスプレイ装置100は、カメラ200からの画像データに基づいて、客の視線が店員の方向を向いていること把握する。ディスプレイ装置100は、第2のディスプレイに、客が店員の方を向いていることを表示する。   As shown in FIG. 7B, when the customer looks at the store clerk, the display apparatus 100 grasps that the customer's line of sight is facing the store clerk based on the image data from the camera 200. The display device 100 displays on the second display that the customer is facing the store clerk.

このように、本実施の形態にかかるシステム1においては、店員が第2のディスプレイに集中して、客が店員の方を向いていることに気が付かないという事態の発生を抑制することができる。   As described above, in the system 1 according to the present embodiment, it is possible to suppress the occurrence of a situation where the store clerk concentrates on the second display and the customer is not aware that the store is facing the store clerk.

以下では、このような機能を実現するためのシステム1について詳細に説明する。ただし、ディスプレイ装置100のハードウェア構成は、第1の実施の形態のディスプレイ装置100のハードウェア構成と同様であるため、ここでは説明を繰り返さない。また、カメラ200のハードウェア構成は、第1の実施の形態のカメラ200のハードウェア構成と同様であるため、ここでは説明を繰り返さない。
<ディスプレイ装置100のプロセッサ110の処理>
Below, the system 1 for implement | achieving such a function is demonstrated in detail. However, since the hardware configuration of the display apparatus 100 is the same as the hardware configuration of the display apparatus 100 of the first embodiment, the description thereof will not be repeated here. Moreover, since the hardware configuration of the camera 200 is the same as the hardware configuration of the camera 200 of the first embodiment, description thereof will not be repeated here.
<Processing of Processor 110 of Display Device 100>

次に、図8を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図8は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。   Next, information processing of the display apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing information processing of the display apparatus 100 according to the present embodiment.

カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。   The camera 200 periodically acquires image data and transmits it to the display device 100. When the processor 110 of the display device 100 receives data from the camera 200, the processor 110 executes the following processing.

プロセッサ110は、受信したデータから画像データを取得する(ステップS302)。   The processor 110 acquires image data from the received data (step S302).

プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131の画面に対する視線の位置を計算する(ステップS304)。   The processor 110 acquires the direction of the line of sight of the customer with respect to the camera 200 from the image data. The processor 110 calculates the position of the line of sight with respect to the screen of the first display 131 based on the direction of the line of sight of the customer with respect to the camera 200 and the position and orientation of the first display 131 with respect to the camera 200 (step S304).

本実施の形態においては、プロセッサ110は、客の視線が第1のディスプレイ131内にあるか否かを判断する(ステップS305)。   In the present embodiment, the processor 110 determines whether or not the customer's line of sight is in the first display 131 (step S305).

客の視線が第1のディスプレイ131の内側にある場合(ステップS305にてYESである場合)、プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画像を表示させるともに、当該画像のうちの客の視線の位置を表示させる(ステップS306)。プロセッサ110は、ステップS308からの処理を実行する。   If the customer's line of sight is inside first display 131 (YES in step S305), processor 110 causes second display 141 to display the image displayed on first display 131. In both cases, the position of the line of sight of the customer in the image is displayed (step S306). The processor 110 executes the processing from step S308.

一方、客の視線が第1のディスプレイ131の外側にある場合(ステップS305にてNOである場合)、プロセッサ110は、第2のディスプレイ141に、第1のディスプレイ131の周囲の画像を表示させるともに、当該画像のうちの客の視線の位置を表示させる(ステップS307)。   On the other hand, when the customer's line of sight is outside the first display 131 (NO in step S305), the processor 110 causes the second display 141 to display an image around the first display 131. Both display the position of the customer's line of sight in the image (step S307).

さらに、プロセッサ110は、客の視線が店員の方へ向いているか否かを判断する(ステップS322)。たとえば、プロセッサ110は、客の視線が第1のディスプレイ131または第2のディスプレイ141の上方に位置する場合に、客の視線が店員の方へ向いていると判断する。あるいは、プロセッサ110は、第2のカメラ200Bから店員の位置を取得して、第1のカメラ200Aからのデータに基づいて、客の視線が店員の方へ向いているか否かを判断してもよい。   Further, the processor 110 determines whether or not the customer's line of sight is facing the store clerk (step S322). For example, when the customer's line of sight is located above the first display 131 or the second display 141, the processor 110 determines that the customer's line of sight is facing the store clerk. Alternatively, the processor 110 obtains the position of the store clerk from the second camera 200B, and determines whether or not the customer's line of sight is directed toward the store clerk based on the data from the first camera 200A. Good.

そして、客の視線が店員の方へ向いていない場合(ステップS322にてNOの場合)、プロセッサ110は、ステップS308の処理へ進む。一方、客の視線が店員の方へ向いている場合(ステップS332にてYESである場合)、プロセッサ110は、第2のディスプレイ141に、客が店員の方を向いている旨を出力する(ステップS324)。   If the customer's line of sight is not pointing toward the store clerk (NO in step S322), the processor 110 proceeds to the process of step S308. On the other hand, if the customer's line of sight is facing the store clerk (YES in step S332), the processor 110 outputs to the second display 141 that the customer is facing the store clerk ( Step S324).

ステップS308以降の処理については、第2の実施の形態のステップS208以降の処理と同様であるため、ここでは説明を繰り返さない。
<第4の実施の形態>
Since the processing after step S308 is the same as the processing after step S208 of the second embodiment, description thereof will not be repeated here.
<Fourth embodiment>

第1の実施の形態にかかるシステム1は、客が第1のディスプレイのどの部分をみているのかを店員に伝えるものであった。本実施の形態にかかるシステム1は、第1〜第3の実施の形態のシステム1に、客がレジやディスプレイ装置100の方を向いているときに音声認識処理を実行し、客がいない場合や客が別の方向を向いているときに音声認識処理を実行しないという機能を追加したものである。
<システムの全体構成>
The system 1 according to the first embodiment tells the store clerk what part of the first display the customer is looking at. The system 1 according to the present embodiment performs voice recognition processing when the customer is facing the cash register or the display device 100 in the system 1 of the first to third embodiments, and there is no customer. And a function that does not execute the speech recognition process when the customer is facing another direction.
<Overall system configuration>

まず、図9を参照して、本実施の形態にかかるシステム1の全体構成について説明する。なお、図9は、本実施の形態にかかるシステム1の全体構成とユースシーンとを示すイメージ図である。   First, the overall configuration of the system 1 according to the present embodiment will be described with reference to FIG. FIG. 9 is an image diagram showing the overall configuration and use scene of the system 1 according to the present embodiment.

図9を参照して、本実施の形態にかかるシステム1は、客が閲覧するためのディスプレイ装置100と、ディスプレイ装置100の前にいる客の視線を取得するためのカメラ200とを含む。ディスプレイ装置100は、顧客が閲覧するための第1のディスプレイと、店員が閲覧するための第2のディスプレイと、マイクとを有する。本実施の形態においても、第1のディスプレイと第2のディスプレイとが、背中合わせに配置されている。   Referring to FIG. 9, system 1 according to the present embodiment includes a display device 100 for a customer to browse and a camera 200 for acquiring the line of sight of the customer in front of display device 100. The display device 100 includes a first display for a customer to browse, a second display for a store clerk to browse, and a microphone. Also in the present embodiment, the first display and the second display are arranged back to back.

ディスプレイ装置100と、カメラ200とは、有線または無線によって接続されている。ディスプレイ装置100は、カメラ200が取得した画像データを取得することができる。
<システムのユースシーン>
The display device 100 and the camera 200 are connected by wire or wireless. The display device 100 can acquire image data acquired by the camera 200.
<System use scene>

次に、本実施の形態にかかるシステム1の代表的なユースシーンについて説明する。まず、図9を参照して、本実施の形態にかかるシステム1のユースシーンについて説明する。   Next, a typical use scene of the system 1 according to the present embodiment will be described. First, a use scene of the system 1 according to the present embodiment will be described with reference to FIG.

図9(a)に示すように、客がレジのディスプレイ装置100の前に来ると、自動的に、あるいは店員によって、第1のディスプレイは、お薦めの商品を表示する。そして、カメラ200が、逐次、客の顔の画像データを、ディスプレイ装置100に送信する。ディスプレイ装置100は、客が第1のディスプレイを見ている場合には、第2のディスプレイに、第1のディスプレイと同様の画面を表示しながら、客の視線がある位置を画面上に表示する。   As shown in FIG. 9A, when the customer comes in front of the cash register display device 100, the first display displays the recommended product automatically or by a store clerk. Then, the camera 200 sequentially transmits the image data of the customer's face to the display device 100. When the customer is looking at the first display, the display device 100 displays a position where the line of sight of the customer is present on the screen while displaying the same screen as the first display on the second display. .

そして、特に、本実施の形態においては、客が横を向いて話をしている場合には、マイクが音声認識処理を実行しない。   In particular, in the present embodiment, when the customer is talking sideways, the microphone does not execute the voice recognition process.

一方、図9(b)に示すように、客がディスプレイ装置100や店員の方向を見ている場合には、ディスプレイ装置100はマイクが拾った音声を認識し、店員の言語に翻訳し、翻訳結果を第2のディスプレイに表示する。   On the other hand, as shown in FIG. 9B, when the customer is looking at the direction of the display device 100 or the store clerk, the display device 100 recognizes the voice picked up by the microphone, translates it into the store clerk's language, and translates it. The result is displayed on the second display.

そして、図9(c)に示すように、店員は、客が見ている商品または位置と、翻訳結果とに基づいて、返事をする。ディスプレイ装置100は、返事の音声をマイクで取得して、客の言語に翻訳し、翻訳結果をスピーカから出力する。   Then, as shown in FIG. 9C, the store clerk replies based on the product or position that the customer is viewing and the translation result. The display apparatus 100 acquires the reply voice with the microphone, translates it into the customer's language, and outputs the translation result from the speaker.

なお、店員は、第2のディスプレイの客が見ている部分にタッチすることによって、第1のディスプレイが店員のタッチした位置にポインタなどを表示した状態で、当該商品の説明を音声で入力してもよい。   The store clerk touches the portion of the second display that the customer is viewing, and the first display displays a pointer or the like at the position touched by the store clerk, and inputs the description of the product by voice. May be.

このように、本実施の形態にかかるシステム1においては、店員に問いかけられた可能性が高い場合にだけ翻訳結果を出力するため、システム1や店員が無駄な労力を払う必要がなくなる。   As described above, in the system 1 according to the present embodiment, the translation result is output only when there is a high possibility that the store clerk is inquired, so that it is not necessary for the system 1 and the store clerk to use unnecessary effort.

以下では、このような機能を実現するためのシステム1について詳細に説明する。ただし、ディスプレイ装置100のハードウェア構成は、第1の実施の形態のディスプレイ装置100のハードウェア構成と同様であるため、ここでは説明を繰り返さない。また、カメラ200のハードウェア構成も、第1の実施の形態のカメラ200のハードウェア構成と同様であるため、ここでは説明を繰り返さない。   Below, the system 1 for implement | achieving such a function is demonstrated in detail. However, since the hardware configuration of the display apparatus 100 is the same as the hardware configuration of the display apparatus 100 of the first embodiment, the description thereof will not be repeated here. Also, the hardware configuration of the camera 200 is the same as the hardware configuration of the camera 200 of the first embodiment, and thus description thereof will not be repeated here.

なお、本実施の形態にかかるディスプレイ装置100は、1つのマイク170を有するものであるが、たとえばディスプレイ装置100は客の方に向けた第1の指向性マイクと店員の方に向けた第2の指向性マイクとを有するものであってもよい。そして、プロセッサ110は、客が向いている方向に応じて、第1の指向性マイクで取得した音声認識処理を実行するか否かを判断し、店員が向いている方向に応じて、第2の指向性マイクで取得した音声認識処理を実行するか否かを判断してもよい。
<ディスプレイ装置100のプロセッサ110の処理>
In addition, although the display apparatus 100 concerning this Embodiment has the one microphone 170, for example, the display apparatus 100 is the 1st directional microphone toward the customer, and the 2nd toward the store clerk. The directional microphone may be included. Then, the processor 110 determines whether or not to execute the voice recognition process acquired by the first directional microphone according to the direction in which the customer is facing, and the second according to the direction in which the store clerk is facing. It may be determined whether or not to execute the speech recognition process acquired by the directional microphone.
<Processing of Processor 110 of Display Device 100>

次に、図10を参照しながら、本実施の形態にかかるディスプレイ装置100の情報処理について説明する。なお、図10は、本実施の形態にかかるディスプレイ装置100の情報処理を示すフローチャートである。   Next, information processing of the display device 100 according to the present embodiment will be described with reference to FIG. In addition, FIG. 10 is a flowchart which shows the information processing of the display apparatus 100 concerning this Embodiment.

カメラ200は、定期的に画像データを取得して、ディスプレイ装置100に送信する。ディスプレイ装置100のプロセッサ110は、カメラ200からデータを受信すると、以下の処理を実行する。   The camera 200 periodically acquires image data and transmits it to the display device 100. When the processor 110 of the display device 100 receives data from the camera 200, the processor 110 executes the following processing.

プロセッサ110は、受信したデータから画像データを取得する(ステップS402)。   The processor 110 acquires image data from the received data (step S402).

プロセッサ110は、画像データから、カメラ200に対する客の視線の方向を取得する。プロセッサ110は、カメラ200に対する客の視線の方向と、カメラ200に対する第1のディスプレイ131の位置および向きと基づいて、第1のディスプレイ131に対する視線の位置を計算する(ステップS404)。   The processor 110 acquires the direction of the line of sight of the customer with respect to the camera 200 from the image data. The processor 110 calculates the position of the line of sight with respect to the first display 131 based on the direction of the line of sight of the customer with respect to the camera 200 and the position and orientation of the first display 131 with respect to the camera 200 (step S404).

本実施の形態においては、プロセッサ110は、客の視線がディスプレイ装置100や店員の方向を向いているか否かを判断する(ステップS406)。   In the present embodiment, the processor 110 determines whether or not the customer's line of sight is facing the display device 100 or the store clerk (step S406).

客の視線がディスプレイ装置100や店員の方向を向いていない場合(ステップS406にてNOである場合)、プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。   If the customer's line of sight is not facing the display device 100 or the store clerk (NO in step S406), the processor 110 waits for the next image data via the communication interface 160.

客の視線がディスプレイ装置100や店員の方向を向いている場合(ステップS406にてYESである場合)、プロセッサ110は、マイク170を介して音声を取得し、音声を翻訳し、翻訳結果をスピーカ180または第2のディスプレイ141に出力させる(ステップS408)。プロセッサ110は、通信インターフェイス160を介して、次の画像データを待ち受ける。
<第5の実施の形態>
When the line of sight of the customer is facing the display device 100 or the store clerk (YES in step S406), the processor 110 acquires the voice via the microphone 170, translates the voice, and outputs the translation result to the speaker. The output is made to 180 or the second display 141 (step S408). The processor 110 waits for the next image data via the communication interface 160.
<Fifth embodiment>

第4の実施の形態にかかるシステム1は、客がレジやディスプレイ装置100の方を向いているときにマイクから音声を取得し、音声認識処理を実行し、翻訳処理を実行し、翻訳結果を出力するものであった。一方、客がいない場合や客が別の方向を向いているときに音声認識処理以降を実行しないというものであった。   The system 1 according to the fourth embodiment acquires speech from a microphone when a customer is facing the cash register or the display device 100, performs speech recognition processing, performs translation processing, and obtains a translation result. It was something to output. On the other hand, when there is no customer or when the customer is facing a different direction, the voice recognition processing and the subsequent steps are not executed.

しかしながら、ディスプレイ装置100のプロセッサ110は、客がいない場合や客が別の方向を向いているときはマイクを動作させずに音声を取得することしないものであってもよい。
<第6の実施の形態>
However, the processor 110 of the display device 100 may not acquire sound without operating the microphone when there is no customer or when the customer is facing another direction.
<Sixth Embodiment>

あるいは、ディスプレイ装置100のプロセッサ110は、客がいない場合や客が別の方向を向いているときはマイクから音声を取得し、音声認識処理を実行するが、翻訳処理以降を実行しないものであってもよい。
<第7の実施の形態>
Alternatively, the processor 110 of the display apparatus 100 acquires voice from a microphone and performs voice recognition processing when there is no customer or when the customer is facing in a different direction, but does not perform translation processing or later. May be.
<Seventh embodiment>

あるいは、ディスプレイ装置100のプロセッサ110は、客がいない場合や客が別の方向を向いているときはマイクから音声を取得し、音声認識処理を実行し、翻訳処理も実行するが、翻訳結果を出力しないものであってもよい。
<第8の実施の形態>
Alternatively, the processor 110 of the display apparatus 100 acquires voice from a microphone when there is no customer or when the customer is facing in another direction, performs voice recognition processing, and executes translation processing. You may not output.
<Eighth Embodiment>

第1〜第7の実施の形態にかかるシステム1は、ディスプレイ装置100がほとんどの処理を実行するものであった。しかしながら、ディスプレイ装置100やカメラ200の役割分担は、そのような形態には限られない。   In the system 1 according to the first to seventh embodiments, the display device 100 executes most of the processing. However, the division of roles of the display device 100 and the camera 200 is not limited to such a form.

たとえば、図11に示すように、システム1は、サーバ300を有するものであってもよい。サーバ300は、LANまたはWANおよび/またはインターネットなどを介して、ディスプレイ装置100とデータの送受信が可能である。そして、ディスプレイ装置100のプロセッサ110の役割の一部または全部をサーバ300のプロセッサが担ったり、ディスプレイ装置100が記憶しているデータの一部または全部をサーバ300が記憶したりしてもよい。
<第9の実施の形態>
For example, as illustrated in FIG. 11, the system 1 may include a server 300. The server 300 can transmit and receive data to and from the display device 100 via a LAN, WAN, and / or the Internet. The processor of the server 300 may play part or all of the role of the processor 110 of the display apparatus 100, or the server 300 may store part or all of the data stored in the display apparatus 100.
<Ninth embodiment>

第1〜第8の実施の形態にかかるシステム1は、第1のディスプレイと第2のディスプレイとが背中合わせに配置されるものであった。しかしながら、第1のディスプレイと第2のディスプレイとはそのような配置に限定されるものではない。   In the system 1 according to the first to eighth embodiments, the first display and the second display are arranged back to back. However, the first display and the second display are not limited to such an arrangement.

たとえば、図12に示すように、第1のディスプレイと第2のディスプレイとが別々の装置であってもよい。換言すれば、第1の装置100Aが第1のディスプレイ131を搭載し、第2の装置100Bが第2のディスプレイ141を搭載し、いずれかの装置100A,100Bがディスプレイ装置100の機能の大部分を搭載してもよい。そして、第1の装置100Aと第2の装置100Bとカメラ200とが、互いにデータ通信可能であればよい。
<第10の実施の形態>
For example, as shown in FIG. 12, the first display and the second display may be separate devices. In other words, the first device 100A is equipped with the first display 131, the second device 100B is equipped with the second display 141, and any one of the devices 100A and 100B has most of the functions of the display device 100. May be installed. The first device 100A, the second device 100B, and the camera 200 need only be capable of data communication with each other.
<Tenth Embodiment>

あるいは、図13に示すように、レジ付近または店員の控室または店の事務室に配置されるパーソナルコンピュータ400などの別の通信機器が、第1から第9の実施の形態のディスプレイ装置100の機能の一部、たとえばプロセッサ110やメモリ120やマイク170やスピーカ180などの機能の一部、または全部を搭載してもよい。そして、第1の装置100Aが第1のディスプレイ131を搭載し、第2の装置100Bが第2のディスプレイ141を搭載してもよい。当然に、パーソナルコンピュータ400は、第1の装置100A、第2の装置100B、カメラ200などと、直接的または間接的にデータ通信可能である。
<第11の実施の形態>
Alternatively, as shown in FIG. 13, another communication device such as a personal computer 400 arranged in the vicinity of the cash register or in the clerk's waiting room or in the store office functions as a function of the display device 100 of the first to ninth embodiments. For example, some or all of the functions such as the processor 110, the memory 120, the microphone 170, and the speaker 180 may be mounted. Then, the first device 100A may be equipped with the first display 131, and the second device 100B may be equipped with the second display 141. Naturally, the personal computer 400 can perform data communication directly or indirectly with the first device 100A, the second device 100B, the camera 200, and the like.
<Eleventh embodiment>

また、図14に示すように、パーソナルコンピュータ400の代わりに、システム1は、第1のディスプレイ131と第2のディスプレイ141とカメラ200と、LANまたはWANおよび/またはインターネットなどを介して通信可能なサーバ300を利用してもよい。
<第12の実施の形態>
As shown in FIG. 14, instead of the personal computer 400, the system 1 can communicate with the first display 131, the second display 141, and the camera 200 via a LAN or WAN and / or the Internet. The server 300 may be used.
<Twelfth embodiment>

第1〜第11の実施の形態にかかるシステム1は、店員向けの各種の情報を第2のディスプレイからテキストまたは画像によって出力するものであり、客向けの各種の情報を第1のディスプレイからテキストまたは画像によって出力するものであった。しかしながら、出力形態はこれに限定されるものではない。   The system 1 according to the first to eleventh embodiments outputs various types of information for shop assistants from the second display as text or images, and various types of information for customers from the first display to text. Or it was what was output by the image. However, the output form is not limited to this.

図15に示すように、店員向けの各種の情報は、店員が装着しているイヤホン500から出力されるものであってもよい。すなわち、本実施の形態にかかるディスプレイ装置100のプロセッサ110は、第2のディスプレイ141に出力するべき情報を、通信インターフェイス160を介して、イヤホン500から出力させる。たとえば、プロセッサ110は、イヤホン500に、「お客様はディスプレイの唐揚げを見ています」と出力させたり、「お客様は肉まんの棚を見ています」と出力させたり、「お客様はタバコの棚を見ています」と出力させたり、「お客様が店員を見ています。」と出力させたり、翻訳結果を出力させたりする。   As shown in FIG. 15, various kinds of information for the store clerk may be output from the earphone 500 worn by the store clerk. That is, the processor 110 of the display device 100 according to the present embodiment causes the earphone 500 to output information to be output to the second display 141 via the communication interface 160. For example, the processor 110 may cause the earphone 500 to output “Customer is watching a deep-fried display”, “Customer is looking at a meat shelf”, or “Customer has a cigarette shelf. “You are watching”, “You are watching the store clerk”, or the translation result is output.

これによって、店員は、第2のディスプレイを見なくても、客が見ているものを知ることができるので、「唐揚げ、できたてですよ。」とか「肉まん、1割引きですよ。」などと、効率的な商品の提案ができる。   This allows the store clerk to know what the customer is looking at without having to look at the second display, such as “Fried chicken, freshly made.” Efficient product proposals can be made.

なお、この場合にも、プロセッサ110は、各種情報の音声出力に合わせて、第2のディスプレイ141にも各種情報を表示させてもよい。
<第13の実施の形態>
Also in this case, the processor 110 may display various information on the second display 141 in accordance with the sound output of the various information.
<Thirteenth embodiment>

あるいは、システム1のプロセッサ110は、客向けの各種の情報を、ディスプレイ装置100のスピーカ180から出力させてもよい。   Alternatively, the processor 110 of the system 1 may output various information for customers from the speaker 180 of the display device 100.

この場合も、プロセッサ110は、各種情報の音声出力に合わせて、第1のディスプレイ131にも各種情報を表示させてもよい。
<第14の実施の形態>
Also in this case, the processor 110 may display various information on the first display 131 in accordance with the audio output of the various information.
<Fourteenth embodiment>

第1〜第13の実施の形態にかかるシステム1は、レジの前にいる客の視線を、レジの後にいる店員が利用するためのものであった。しかしながら、客や店員は、レジの前ではなく、別の場所にいてもよい。   The system 1 according to the first to thirteenth embodiments is for a store clerk at the back of the cash register to use the line of sight of the customer at the cash register. However, the customer or the store clerk may be in another place instead of in front of the cash register.

たとえば、第1のディスプレイは客に見える場所であれば、レジに限らず、商品棚の近くに配置してもよい。あるいは、第1のディスプレイは、テレビショッピングの視聴に利用されるテレビであってもよいし、ネットショッピングに利用されるパーソナルコンピュータのディスプレイであってもよい。   For example, the first display is not limited to the cash register as long as it is visible to the customer, and may be arranged near the product shelf. Alternatively, the first display may be a television used for watching TV shopping or a personal computer display used for online shopping.

また、第2のディスプレイは、サービスや商品の提供者に見える場所であれば、レジに限らず、店員の控室や、テレフォンセンターなどに配置されてもよい。
<第15の実施の形態>
In addition, the second display is not limited to the cash register as long as it is visible to the service or product provider, and may be disposed in a waiting room of a store clerk, a telephone center, or the like.
<Fifteenth embodiment>

さらに上記のシステム1は、サービスや商品の販売以外の目的で利用されてもよい。たとえば、店員と客とに利用される代わりに、上記のシステム1を利用する教師が、生徒の視線を確認しながら、授業を進めることも可能である。
<第16の実施の形態>
Furthermore, the system 1 described above may be used for purposes other than sales of services and products. For example, instead of being used by a store clerk and a customer, a teacher using the system 1 can advance a class while confirming a student's line of sight.
<Sixteenth Embodiment>

上記の第1〜第15の実施の形態にかかるシステム1は、カメラ200からの画像に基づいて客の視線を取得するものであった。しかしながら、本実施の形態として、システム1は、カメラ200からの画像データに限らず、他の画像センサ、熱センサ、音センサ、人感センサなどからの情報に基づいて、客の位置や視線を取得するものであってもよい。なお、視線の方向の検出方法は、公知のいずれかの方法を採用すればよい。
<その他の応用例>
The system 1 according to the first to fifteenth embodiments acquires a customer's line of sight based on an image from the camera 200. However, as the present embodiment, the system 1 is not limited to the image data from the camera 200, but based on information from other image sensors, thermal sensors, sound sensors, human sensors, etc. You may acquire. Any known method may be adopted as a method for detecting the direction of the line of sight.
<Other application examples>

本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。   It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
<まとめ>
Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
<Summary>

以上、第1〜第16の実施の形態およびその応用例においては、第1のディスプレイ131と、センサ200と、出力部141,500と、制御部110と、を備えるシステム1が提供される。制御部110は、センサ200からの情報に基づいて、第1のディスプレイ131の前にいる人の視線に関する情報を出力部141に出力させる。   As described above, in the first to sixteenth embodiments and application examples thereof, the system 1 including the first display 131, the sensor 200, the output units 141 and 500, and the control unit 110 is provided. Based on the information from the sensor 200, the control unit 110 causes the output unit 141 to output information related to the line of sight of the person in front of the first display 131.

好ましくは、出力部141は、第2のディスプレイ141である。制御部110は、第2のディスプレイ141に、第1のディスプレイ131に表示されている画面上に視線の位置を表示させる。   Preferably, the output unit 141 is the second display 141. The control unit 110 causes the second display 141 to display the position of the line of sight on the screen displayed on the first display 131.

好ましくは、システム1は、入力部142をさらに備える。制御部110は、入力部142を介して第1のディスプレイ131の画面に表示されるオブジェクトを指定する命令を受け付け、第1のディスプレイ131における指定されたオブジェクトの表示を変える。   Preferably, the system 1 further includes an input unit 142. The control unit 110 receives a command for designating an object displayed on the screen of the first display 131 via the input unit 142 and changes the display of the designated object on the first display 131.

好ましくは、制御部110は、入力部142を介して、画面に表示されるオブジェクトの選択命令を受け付ける。   Preferably, control unit 110 accepts an object selection command displayed on the screen via input unit 142.

好ましくは、制御部110は、センサ200からの情報に基づいて、視線が第1のディスプレイ131から外れた場合に、第1のディスプレイ131の周辺における視線に関する情報を出力部141,500に出力させる。   Preferably, the control unit 110 causes the output units 141 and 500 to output information about the line of sight around the first display 131 when the line of sight deviates from the first display 131 based on the information from the sensor 200. .

好ましくは、制御部110は、センサ200からの情報に基づいて、視線が店員のいる方向を向いていることを出力部141,500に出力させる。   Preferably, based on information from sensor 200, control unit 110 causes output units 141 and 500 to output that the line of sight is in the direction in which the store clerk is present.

好ましくは、システム1は、マイク170をさらに備える。制御部110は、視線が第1のディスプレイ131の近傍または出力部141,500の近傍を向いている場合に、マイク170を介して入力された音声の処理の結果を出力部141,500に出力させる。   Preferably, the system 1 further includes a microphone 170. When the line of sight is directed to the vicinity of the first display 131 or the vicinity of the output units 141 and 500, the control unit 110 outputs the processing result of the sound input via the microphone 170 to the output units 141 and 500. Let

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 :システム
100 :ディスプレイ装置
100A :第1の装置
100B :第2の装置
110 :プロセッサ(制御部)
120 :メモリ
130 :第1のタッチパネル
131 :第1のディスプレイ(出力部)
132 :第1のポインティングデバイス(入力部)
140 :第2のタッチパネル
141 :第2のディスプレイ(出力部)
142 :第2のポインティングデバイス(入力部)
160 :通信インターフェイス
170 :マイク
180 :スピーカ
200 :カメラ
200A :第1のカメラ
200B :第2のカメラ
210 :プロセッサ
220 :メモリ
230 :画像センサ
260 :通信インターフェイス
300 :サーバ
310 :プロセッサ
400 :パーソナルコンピュータ
500 :イヤホン(出力部)
1: System 100: Display device 100A: First device 100B: Second device 110: Processor (control unit)
120: Memory 130: First touch panel 131: First display (output unit)
132: First pointing device (input unit)
140: second touch panel 141: second display (output unit)
142: second pointing device (input unit)
160: Communication interface 170: Microphone 180: Speaker 200: Camera 200A: First camera 200B: Second camera 210: Processor 220: Memory 230: Image sensor 260: Communication interface 300: Server 310: Processor 400: Personal computer 500 : Earphone (output unit)

Claims (7)

第1のディスプレイと、
センサと、
出力部と、
制御部と、を備え、前記制御部は、
前記センサからの情報に基づいて、前記第1のディスプレイの前にいる人の視線に関する情報を前記出力部に出力させる、接客システム。
A first display;
A sensor,
An output section;
A control unit, the control unit,
A customer service system that causes the output unit to output information relating to the line of sight of a person in front of the first display based on information from the sensor.
前記出力部は、第2のディスプレイであって、
前記制御部は、前記第2のディスプレイに、前記第1のディスプレイに表示されている画面上に前記視線の位置を表示させる、請求項1に記載の接客システム。
The output unit is a second display,
The customer service system according to claim 1, wherein the control unit causes the second display to display a position of the line of sight on a screen displayed on the first display.
入力部をさらに備え、
前記制御部は、前記入力部を介して前記第1のディスプレイの画面に表示されるオブジェクトを指定する命令を受け付け、前記第1のディスプレイにおける指定された前記オブジェクトの表示を変える、請求項2に記載の接客システム。
An input unit,
The control unit receives an instruction to specify an object displayed on the screen of the first display via the input unit, and changes a display of the specified object on the first display. The customer service system described.
前記制御部は、前記入力部を介して、前記画面に表示されるオブジェクトの選択命令を受け付ける、請求項3に記載の接客システム。   The customer service system according to claim 3, wherein the control unit receives an instruction to select an object displayed on the screen via the input unit. 前記制御部は、前記センサからの情報に基づいて、前記視線が前記第1のディスプレイから外れた場合に、前記第1のディスプレイの周辺における前記視線に関する情報を前記出力部に出力させる、請求項1から4のいずれか1項に記載の接客システム。   The said control part makes the said output part output the information regarding the said visual line in the circumference | surroundings of the said 1st display, when the said visual line remove | deviates from the said 1st display based on the information from the said sensor. The customer service system according to any one of 1 to 4. 前記制御部は、前記センサからの情報に基づいて、前記視線が店員のいる方向を向いていることを前記出力部に出力させる、請求項1から5のいずれか1項に記載の接客システム。   The customer service system according to any one of claims 1 to 5, wherein the control unit causes the output unit to output that the line of sight faces a direction in which a store clerk is present based on information from the sensor. マイクをさらに備え、
前記制御部は、前記視線が前記第1のディスプレイの近傍または前記出力部の近傍を向いている場合に、前記マイクを介して入力された音声の処理の結果を前記出力部に出力させる、請求項1から6のいずれか1項に記載の接客システム。
A microphone,
The said control part makes the said output part output the result of the process of the audio | voice input via the said microphone, when the said eyes | visual_axis has faced the vicinity of the said 1st display, or the vicinity of the said output part. Item 7. The customer service system according to any one of items 1 to 6.
JP2015211640A 2015-10-28 2015-10-28 Customer service system Pending JP2017084090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015211640A JP2017084090A (en) 2015-10-28 2015-10-28 Customer service system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015211640A JP2017084090A (en) 2015-10-28 2015-10-28 Customer service system

Publications (1)

Publication Number Publication Date
JP2017084090A true JP2017084090A (en) 2017-05-18

Family

ID=58713475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015211640A Pending JP2017084090A (en) 2015-10-28 2015-10-28 Customer service system

Country Status (1)

Country Link
JP (1) JP2017084090A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020828A1 (en) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 Translation device and translation system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002015140A (en) * 2000-06-29 2002-01-18 Hitachi Ltd Counseling terminal, counseling system using the same and device using the same
JP2004133909A (en) * 2002-09-17 2004-04-30 Matsushita Electric Ind Co Ltd Portable electronic equipment
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measurement device and attention level measurement system
JP2014175944A (en) * 2013-03-11 2014-09-22 Ricoh Co Ltd Television conference apparatus, control method of the same, and program
WO2015133608A1 (en) * 2014-03-07 2015-09-11 国立大学法人京都大学 Surgery assistance system and camera unit used therein
WO2015147168A1 (en) * 2014-03-28 2015-10-01 大和ハウス工業株式会社 Communication unit

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002015140A (en) * 2000-06-29 2002-01-18 Hitachi Ltd Counseling terminal, counseling system using the same and device using the same
JP2004133909A (en) * 2002-09-17 2004-04-30 Matsushita Electric Ind Co Ltd Portable electronic equipment
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measurement device and attention level measurement system
JP2014175944A (en) * 2013-03-11 2014-09-22 Ricoh Co Ltd Television conference apparatus, control method of the same, and program
WO2015133608A1 (en) * 2014-03-07 2015-09-11 国立大学法人京都大学 Surgery assistance system and camera unit used therein
WO2015147168A1 (en) * 2014-03-28 2015-10-01 大和ハウス工業株式会社 Communication unit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020828A1 (en) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 Translation device and translation system

Similar Documents

Publication Publication Date Title
US11216847B2 (en) System and method for retail customer tracking in surveillance camera network
US20160253843A1 (en) Method and system of management for switching virtual-reality mode and augmented-reality mode
KR101894022B1 (en) Method and device for payment processing in virtual reality space
US9361501B2 (en) Headheld scanner and POS display with mobile phone
JP4928592B2 (en) Image processing apparatus and program
US9491368B2 (en) Information obtaining and viewing device, data processing method thereof, and non-transitory computer readable medium storing a program
JP6323586B1 (en) Store system, electronic shelf label, store system processing method and program
US20170213277A1 (en) Goods purchase apparatus and goods purchase system having the same
US9741062B2 (en) System for collaboratively interacting with content
CN112182426A (en) User interface information display method and device and electronic equipment
CN111243200A (en) Shopping method, wearable device and medium
JP2019039084A (en) Mirror device with display function and system
JP2023029520A (en) Display control device, control method, program, and storage medium
KR20180000007A (en) Shoping inducing system using augmented reality
US20150100464A1 (en) Information displaying apparatus and method of object
CN114926242A (en) Live broadcast commodity processing method and device, electronic equipment and storage medium
WO2019116620A1 (en) Processing device, processing method, and program
KR101431804B1 (en) Apparatus for displaying show window image using transparent display, method for displaying show window image using transparent display and recording medium thereof
JP2017084090A (en) Customer service system
JP2010032851A (en) Advertisement output system and advertisement output method
CN113259773B (en) Live broadcast data processing method and device, terminal, server and readable storage medium
US11436826B2 (en) Augmented reality experience for shopping
KR20180077881A (en) System for intelligent exhibition based on transparent display and method thereof
KR20170103453A (en) Electronic catalog service system
JP2017146939A (en) Image display device, display control method and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204