JP6240291B1 - Determination apparatus, determination method, and determination program - Google Patents

Determination apparatus, determination method, and determination program Download PDF

Info

Publication number
JP6240291B1
JP6240291B1 JP2016210635A JP2016210635A JP6240291B1 JP 6240291 B1 JP6240291 B1 JP 6240291B1 JP 2016210635 A JP2016210635 A JP 2016210635A JP 2016210635 A JP2016210635 A JP 2016210635A JP 6240291 B1 JP6240291 B1 JP 6240291B1
Authority
JP
Japan
Prior art keywords
user
product
sensor information
determination
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016210635A
Other languages
Japanese (ja)
Other versions
JP2018073046A (en
Inventor
千惠 菊池
千惠 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016210635A priority Critical patent/JP6240291B1/en
Application granted granted Critical
Publication of JP6240291B1 publication Critical patent/JP6240291B1/en
Publication of JP2018073046A publication Critical patent/JP2018073046A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】商品またはサービスに関する処理態様を適切に決定すること。【解決手段】本願に係る決定装置は、第1受付部と、第2受付部と、決定部とを有する。第1受付部は、第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。第2受付部は、第2センサにより検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。決定部は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。【選択図】図2To appropriately determine a processing mode related to goods or services. A determination apparatus according to the present application includes a first reception unit, a second reception unit, and a determination unit. The first reception unit is first sensor information detected by the first sensor, and receives first sensor information related to a user designation for a product or service displayed in a predetermined area. The second reception unit is second sensor information detected by the second sensor, and receives second sensor information related to a user's intention for a product or service specified based on the first sensor information. A determination part determines the process aspect regarding the purchase object which is goods or services specified based on 1st sensor information based on 2nd sensor information. [Selection] Figure 2

Description

本発明は、決定装置、決定方法、及び決定プログラムに関する。   The present invention relates to a determination device, a determination method, and a determination program.

近年、オンラインショッピング等の電子商取引に関する種々の技術が提供されている。例えば、ユーザ端末により音声認識された手続きワードに基づいて購入に関する処理を行う技術が提供されている。   In recent years, various technologies related to electronic commerce such as online shopping have been provided. For example, a technique for performing processing related to purchase based on a procedure word recognized by a user terminal is provided.

特開2003−44756号公報JP 2003-44756 A 特開2014−186214号公報JP 2014-186214 A

しかしながら、上記の従来技術では商品またはサービスに関する処理態様を適切に決定することが難しい。例えば、手続きワードを用いる場合、予め手続きワードを設定する必要があり、商品またはサービスに関する処理態様を適切に決定することが難しい。   However, it is difficult to appropriately determine the processing mode related to the product or service in the above-described conventional technology. For example, when a procedure word is used, it is necessary to set the procedure word in advance, and it is difficult to appropriately determine a processing mode related to goods or services.

本願は、上記に鑑みてなされたものであって、商品またはサービスに関する処理態様を適切に決定する決定装置、決定方法、及び決定プログラムを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide a determination device, a determination method, and a determination program for appropriately determining a processing mode related to a product or a service.

本願に係る決定装置は、第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付部と、第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付部と、前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記第2センサ情報に基づいて決定する決定部と、を備えたことを特徴とする。   The determination device according to the present application is first sensor information that is detected by a first sensor and that receives first sensor information related to a user's designation for a product or service displayed in a predetermined area; 2nd reception information detected by 2 sensors, The 2nd reception part which receives the 2nd sensor information about the user's intention to the goods or service specified based on the 1st sensor information, The 1st sensor information And a determination unit that determines a processing mode related to a purchase target that is a product or service specified based on the second sensor information.

実施形態の一態様によれば、商品またはサービスに関する処理態様を適切に決定することができるという効果を奏する。   According to one aspect of the embodiment, there is an effect that it is possible to appropriately determine a processing aspect related to a product or service.

図1は、実施形態に係る決定処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a determination process according to the embodiment. 図2は、実施形態に係る決定装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the determination device according to the embodiment. 図3は、実施形態に係るデバイス情報記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a device information storage unit according to the embodiment. 図4は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of a content information storage unit according to the embodiment. 図5は、実施形態に係る商品情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a product information storage unit according to the embodiment. 図6は、実施形態に係る買物一覧情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of a shopping list information storage unit according to the embodiment. 図7は、実施形態に係る決定処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment. 図8は、変形例に係る決定装置の構成例を示す図である。FIG. 8 is a diagram illustrating a configuration example of a determination device according to a modification. 図9は、変形例に係るモデル情報記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of the model information storage unit according to the modification. 図10は、決定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the determination apparatus.

以下に、本願に係る決定装置、決定方法、及び決定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る決定装置、決定方法、及び決定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a determination apparatus, a determination method, and a mode for executing a determination program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the determination device, the determination method, and the determination program according to the present application are not limited to the embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

(実施形態)
〔1.決定処理〕
まず、実施形態に係る決定処理について説明する。図1は、実施形態に係る決定処理の一例を示す図である。図1に示す決定装置100は、検知された各種センサ情報に基づいて、商品またはサービスに関する処理態様を決定する決定サービスを提供する。なお、ここでいう商品またはサービスには、取引可能な対象であればそのような対象が含まれてもよく、以下では、「商品またはサービス」を単に「商品」と記載する場合がある。
(Embodiment)
[1. Decision process)
First, the determination process according to the embodiment will be described. FIG. 1 is a diagram illustrating an example of a determination process according to the embodiment. The determination apparatus 100 illustrated in FIG. 1 provides a determination service that determines a processing mode related to a product or a service based on various detected sensor information. Note that the product or service mentioned here may include such a target as long as it can be traded. In the following, “product or service” may be simply referred to as “product”.

図1に示すように、実施形態に係る決定システム1には、端末機器AP11と、決定装置100とが含まれる。端末機器AP11と、決定装置100とは、所定のネットワークを介して通信可能に接続される。なお、図1に示した決定システム1には、複数の端末機器AP11、複数の決定装置100が含まれてもよい。   As illustrated in FIG. 1, the determination system 1 according to the embodiment includes a terminal device AP11 and a determination device 100. The terminal device AP11 and the determination apparatus 100 are connected to be communicable via a predetermined network. In addition, the determination system 1 illustrated in FIG. 1 may include a plurality of terminal devices AP11 and a plurality of determination devices 100.

図1に示す例において、端末機器AP11は、プロジェクタの機能を有し、コンテンツの画像を所定の表示面に投影することにより、コンテンツを表示する。図1では、端末機器AP11は、テーブルの机上面PP11にコンテンツID「CT11」により識別されるコンテンツ(以下、「コンテンツCT11」ともいう)を投影する場合を示す。すなわち、端末機器AP11は、机上面PP11にコンテンツCT11を投影することにより、机上面PP11にコンテンツCT11を表示する。図1に示すように、コンテンツCT11は、例えば、複数の商品を含み、閲覧するユーザにライフスタイルを提案するコンテンツである。例えば、端末機器AP11が表示するコンテンツは、コンテンツCT11に限らず、クリスマスや運動会等の所定のイベントに関連する複数の商品が含まれるコンテンツ等の種々のコンテンツであってもよい。このように、端末機器AP11は、例えば、所定のコンセプトに基づいて複数の商品が含まれる雑誌のページのようなコンテンツを、ユーザの操作に応じて順次表示することにより、ユーザに所定のコンセプトに基づく複数の商品を閲覧させることができる。また、端末機器AP11は、机上面PP11に限らず、コンテンツを表示可能であれば、例えば空間等どのような対象にコンテンツを表示してもよい。   In the example illustrated in FIG. 1, the terminal device AP11 has a projector function, and displays content by projecting an image of the content onto a predetermined display surface. FIG. 1 shows a case where the terminal device AP11 projects the content identified by the content ID “CT11” (hereinafter also referred to as “content CT11”) onto the table top surface PP11 of the table. That is, the terminal device AP11 displays the content CT11 on the desk surface PP11 by projecting the content CT11 on the desk surface PP11. As shown in FIG. 1, the content CT11 is content that includes, for example, a plurality of products and proposes a lifestyle to the browsing user. For example, the content displayed by the terminal device AP11 is not limited to the content CT11, and may be various content such as content including a plurality of products related to a predetermined event such as Christmas or athletic meet. In this way, the terminal device AP11, for example, displays content such as magazine pages including a plurality of products based on a predetermined concept sequentially according to the user's operation, so that the user can obtain the predetermined concept. A plurality of products can be browsed. Further, the terminal device AP11 is not limited to the desktop surface PP11, and may display the content in any target such as a space as long as the content can be displayed.

また、図1の例では、端末機器AP11は、赤外線センサを第1センサSN1として有する。これにより、端末機器AP11は、表示したコンテンツに対するユーザの指定を検知する機能を有する。例えば、端末機器AP11は、第1センサSN1が放射した赤外線を画像センサ等により撮像しその変化を検知することや、赤外線の反射を検知することにより、表示したコンテンツにおける座標に関する情報(以下、「座標情報」ともいう)を第1センサ情報として検知してもよい。この場合、例えば、端末機器AP11の第1センサSN1(以下、単に「端末機器AP11」と記載する場合がある)は、赤外線を放射する機能と、赤外線を検知する機能を有してもよい。例えば、端末機器AP11の第1センサSN1は、赤外線を放射する機能と、画像認識の技術により赤外線の変化を検知する機能を有してもよい。   In the example of FIG. 1, the terminal device AP11 includes an infrared sensor as the first sensor SN1. Accordingly, the terminal device AP11 has a function of detecting a user designation for the displayed content. For example, the terminal device AP11 captures infrared rays emitted from the first sensor SN1 with an image sensor or the like and detects the change thereof, or detects reflection of the infrared rays, thereby detecting information on coordinates in the displayed content (hereinafter, “ (Also referred to as “coordinate information”) may be detected as the first sensor information. In this case, for example, the first sensor SN1 of the terminal device AP11 (hereinafter sometimes simply referred to as “terminal device AP11”) may have a function of emitting infrared light and a function of detecting infrared light. For example, the first sensor SN1 of the terminal device AP11 may have a function of radiating infrared rays and a function of detecting changes in infrared rays using image recognition technology.

図1の例では、端末機器AP11は、コンテンツCT11が表示された机上面PP11に沿って赤外線を放射し、ユーザがコンテンツCT11を指等で指示する等の操作を行った際に反射される赤外線を検知する。例えば、端末機器AP11は、机上面PP11においてコンテンツCT11が表示された領域に対応する直交座標(XY座標)等の座標情報を検知してもよい。例えば、端末機器AP11は、図1中のコンテンツCT11の横方向をX軸方向とし、縦方向をY軸方向としたXY座標の座標情報を検知してもよい。この場合、例えば、端末機器AP11は、図1中のコンテンツCT11の左下の位置を原点(0,0)としたXY座標の座標情報を検知してもよい。なお、上記は一例であり、端末機器AP11は、種々の従来技術を適宜用いて、ユーザが表示されたコンテンツを指定した位置を検知してもよい。   In the example of FIG. 1, the terminal device AP11 emits infrared rays along the desk surface PP11 on which the content CT11 is displayed, and is reflected when the user performs an operation such as pointing the content CT11 with a finger or the like. Is detected. For example, the terminal device AP11 may detect coordinate information such as orthogonal coordinates (XY coordinates) corresponding to the area where the content CT11 is displayed on the desk surface PP11. For example, the terminal device AP11 may detect coordinate information of XY coordinates in which the horizontal direction of the content CT11 in FIG. 1 is the X-axis direction and the vertical direction is the Y-axis direction. In this case, for example, the terminal device AP11 may detect coordinate information of XY coordinates with the lower left position of the content CT11 in FIG. 1 as the origin (0, 0). Note that the above is an example, and the terminal device AP11 may detect a position where the user has designated the displayed content by appropriately using various conventional techniques.

これにより、端末機器AP11や決定装置100は、表示したコンテンツと検知した座標情報とをユーザが指定した位置にどの商品が表示されているかに基づいて、ユーザが指定した商品を特定することができる。なお、上記は一例であり、端末機器AP11は、種々の従来技術を適宜用いてユーザの指定を検知してもよい。また、第1センサSN1は、表示したコンテンツに対するユーザの指定を検知可能であれば、赤外線センサに限らず、どのようなセンサが用いられてもよい。例えば、端末機器AP11は、第1センサSN1により検知されたコンテンツに対するユーザの指定に関する座標情報を第1センサ情報として決定装置100へ送信する。   Thereby, terminal device AP11 and the determination apparatus 100 can specify the product designated by the user based on which product is displayed at the position designated by the user for the displayed content and the detected coordinate information. . Note that the above is an example, and the terminal device AP11 may detect a user's designation by appropriately using various conventional techniques. The first sensor SN1 is not limited to the infrared sensor, and any sensor may be used as long as it can detect the user's designation for the displayed content. For example, the terminal device AP11 transmits coordinate information related to the user designation for the content detected by the first sensor SN1 to the determination device 100 as the first sensor information.

また、端末機器AP11は、音声センサを第2センサSN2として有する。これにより、端末機器AP11は、音声認識の機能を有し、周囲の音を検知し、検知した音に応じて種々の処理を行う。以下では、第2センサSN2により検知された情報を第2センサ情報と記載する場合がある。また、以下では、端末機器AP11の第2センサSN2を、単に「端末機器AP11」と記載する場合がある。また、端末機器AP11は、音声認識の機能を有してもよい。この場合、端末機器AP11は、第2センサSN2により検知されたユーザの発話に関する情報に基づいて推定される発話を行ったユーザの意図に関する情報(以下、単に「意図」や「意図情報」ともいう)を推定してもよい。   Further, the terminal device AP11 includes a voice sensor as the second sensor SN2. Accordingly, the terminal device AP11 has a voice recognition function, detects surrounding sounds, and performs various processes according to the detected sounds. Hereinafter, information detected by the second sensor SN2 may be referred to as second sensor information. Hereinafter, the second sensor SN2 of the terminal device AP11 may be simply referred to as “terminal device AP11”. The terminal device AP11 may have a voice recognition function. In this case, the terminal device AP11 includes information related to the intention of the user who made the speech estimated based on the information related to the user's speech detected by the second sensor SN2 (hereinafter also simply referred to as “intention” or “intention information”). ) May be estimated.

また、端末機器AP11は、決定装置100等の外部装置との間において情報の送受信が可能である。例えば、端末機器AP11は、決定装置100から表示するコンテンツに関する情報を受信したり、各種センサの検知に関する情報を決定装置100へ送信したりする。なお、ここでいう、端末機器AP11は、他の装置を介して決定装置100との間において情報の送受信が可能であってもよい。また、例えば、端末機器AP11は、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等であってもよく、汎用機器にアプリケーションがインストールされた機器であってもよい。   The terminal device AP11 can transmit and receive information to and from an external device such as the determining device 100. For example, the terminal device AP11 receives information related to content to be displayed from the determination device 100, or transmits information related to detection of various sensors to the determination device 100. Note that the terminal device AP11 referred to here may be capable of transmitting and receiving information to and from the determining device 100 via another device. Further, for example, the terminal device AP11 may be a smartphone, a tablet-type terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), etc. A device in which an application is installed may be used.

なお、端末機器AP11によるコンテンツの表示処理等の処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーションにより行われる場合や表示処理が専用アプリにより行われる場合、端末機器AP11は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。   Note that processing such as content display processing by the terminal device AP11 may be realized by, for example, JavaScript (registered trademark). When the display process described above is performed by a predetermined application or when the display process is performed by a dedicated application, the terminal device AP11 may include, for example, an application control unit that controls the predetermined application or the dedicated application. .

なお、決定装置100が決定処理に用いる情報を取得可能であれば、決定システム1はどのような構成でも良く、端末機器AP11の各機能の各々を有する装置が含まれてもよい。例えば、決定システム1において、端末機器AP11の各機能は、コンテンツを表示する機器や第1センサSN1や第2センサSN2等の各装置により実現されてもよい。また、例えば、決定システム1において、決定装置100が端末機器AP11の機能を有してもよい。この場合、決定装置100と端末機器AP11とは一体であってもよい。また、決定装置100は、決定処理に関する機能を実現できれば、どのような形態であってもよく、例えば、机上面PP11を有するテーブルと一体であったり、複数の情報処理装置に分散して構成されたりすることより実現されてもよい。   The determination system 1 may have any configuration as long as the determination device 100 can acquire information used for the determination process, and may include a device having each function of the terminal device AP11. For example, in the determination system 1, each function of the terminal device AP11 may be realized by a device that displays content, and each device such as the first sensor SN1 and the second sensor SN2. For example, in the determination system 1, the determination apparatus 100 may have the function of the terminal device AP11. In this case, the determination apparatus 100 and the terminal device AP11 may be integrated. Further, the determination device 100 may be in any form as long as it can realize a function related to the determination process. For example, the determination device 100 is integrated with a table having the desk surface PP11 or is distributed among a plurality of information processing devices. Or may be realized.

決定装置100は、第1センサ情報に基づいて特定される商品に関する処理態様を、第2センサ情報に基づいて決定する決定サービスを提供する。また、決定装置100は、端末機器AP11が表示するコンテンツを端末機器AP11に提供する情報処理装置であってもよい。また、決定装置100は、コンテンツ配信サービスを提供する情報処理装置から情報を取得可能であってもよい。この場合、決定システム1は、例えば、コンテンツ配信サービスを提供する情報処理装置を含んでもよい。   The determination apparatus 100 provides a determination service for determining a processing mode related to a product specified based on the first sensor information based on the second sensor information. Further, the determination device 100 may be an information processing device that provides content displayed by the terminal device AP11 to the terminal device AP11. Further, the determination apparatus 100 may be able to acquire information from an information processing apparatus that provides a content distribution service. In this case, the determination system 1 may include an information processing apparatus that provides a content distribution service, for example.

また、例えば、決定装置100は、オンラインショッピング等の電子商取引サービスを提供する情報処理装置であってもよい。また、決定装置100は、電子商取引サービスを提供する情報処理装置から情報を取得可能であってもよい。この場合、決定システム1は、例えば、オンラインショッピング等の電子商取引サービスを提供する情報処理装置を含んでもよい。   For example, the determination apparatus 100 may be an information processing apparatus that provides an electronic commerce service such as online shopping. Moreover, the determination apparatus 100 may be able to acquire information from an information processing apparatus that provides an electronic commerce service. In this case, the determination system 1 may include, for example, an information processing apparatus that provides an electronic commerce service such as online shopping.

また、決定装置100は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、決定システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、決定装置100や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを特定したりするものとして、説明を省略する。また、例えば、決定装置100は、端末機器AP11から受け付けた第2センサ情報に基づいてユーザの意図情報を推定する。   Moreover, the determination apparatus 100 may be able to acquire information from a voice recognition server that provides a voice recognition service. In this case, the determination system 1 may include a voice recognition server. In the example of FIG. 1, the determination device 100 and the voice recognition server will not be described on the assumption that the user's utterance is recognized or the uttered user is identified by appropriately using various conventional techniques. For example, the determination apparatus 100 estimates user intention information based on the second sensor information received from the terminal device AP11.

以下、図1を用いて、決定処理の一例を説明する。図1に示す例においては、ユーザU11、ユーザU12、ユーザU13が居住する住宅内に、端末機器AP11が配置される。以下、ユーザU11、ユーザU12、ユーザU13を区別せず説明する場合、単に「ユーザ」と記載する場合がある。例えば、端末機器AP11は、住宅内のテーブルに配置され、配置されたテーブルの机上面PP11にコンテンツCT11を表示する場合を示す。   Hereinafter, an example of the determination process will be described with reference to FIG. In the example illustrated in FIG. 1, the terminal device AP11 is arranged in a house where the user U11, the user U12, and the user U13 live. Hereinafter, when the user U11, the user U12, and the user U13 are described without being distinguished, they may be simply referred to as “users”. For example, the terminal device AP11 is arranged on a table in a house, and the content CT11 is displayed on the desk surface PP11 of the arranged table.

なお、図1の例では、端末機器AP11は、決定装置100等の外部装置からコンテンツCT11を取得済みであり、ユーザの操作等に応じて端末機器AP11がコンテンツCT11をテーブルの机上面PP11に表示しているものとする。具体的には、端末機器AP11は、机上面PP11中の領域RG1にコンテンツCT11を表示しているものとする。また、図1においては、符号「RG1」が示す領域は、コンテンツCT11が図示された領域と重なる。また、端末機器AP11は、コンテンツCT11に限らず、種々のコンテンツをテーブルの机上面PP11に表示する。例えば、端末機器AP11は、ユーザによる表示を変更する操作に応じて、コンテンツCT11以外の他のコンテンツを机上面PP11に表示する。例えば、端末機器AP11は、ユーザが机上面PP11の領域RG1上において指FG1を所定の方向に移動させる動作に応じて、机上面PP11に表示されるコンテンツを変更してもよい。   In the example of FIG. 1, the terminal device AP11 has already acquired the content CT11 from an external device such as the determining device 100, and the terminal device AP11 displays the content CT11 on the table top surface PP11 of the table in accordance with a user operation or the like. Suppose you are. Specifically, it is assumed that the terminal device AP11 displays the content CT11 in the region RG1 in the desk surface PP11. In FIG. 1, the region indicated by the symbol “RG1” overlaps the region where the content CT11 is illustrated. The terminal device AP11 displays not only the content CT11 but also various contents on the desk surface PP11 of the table. For example, the terminal device AP11 displays content other than the content CT11 on the desk surface PP11 in accordance with an operation for changing the display by the user. For example, the terminal device AP11 may change the content displayed on the desk surface PP11 in accordance with an operation in which the user moves the finger FG1 in a predetermined direction on the region RG1 of the desk surface PP11.

また、図1に示すように、机上面PP11に表示されたコンテンツCT11には、5つの商品IT11〜IT15が含まれる。なお、このように、「商品IT*(*は任意の数値)」と記載した場合、その商品は商品ID「IT*」により識別される商品であることを示す。例えば、「商品IT11」と記載した場合、その商品は商品ID「IT11」により識別される商品である。   Further, as shown in FIG. 1, the content CT11 displayed on the desk surface PP11 includes five products IT11 to IT15. As described above, “product IT * (* is an arbitrary numerical value)” indicates that the product is a product identified by the product ID “IT *”. For example, when “product IT11” is described, the product is a product identified by the product ID “IT11”.

例えば、商品IT11は、コンテンツCT11に含まれる商品「シャンプーA」に対応する。また、例えば、商品IT12は、コンテンツCT11に含まれる商品「シャンプーAの詰替品」に対応する。また、例えば、商品IT13は、コンテンツCT11に含まれる商品「タオルA」に対応する。また、例えば、商品IT14は、コンテンツCT11に含まれる商品「かごA」に対応する。また、例えば、商品IT15は、コンテンツCT11に含まれる商品「ポットA」に対応する。このように、図1では、ユーザU11〜U13が、種々の商品が含まれるコンテンツCT11を閲覧している場合を示す。   For example, the product IT11 corresponds to the product “Shampoo A” included in the content CT11. Further, for example, the product IT12 corresponds to the product “refill product of shampoo A” included in the content CT11. For example, the product IT13 corresponds to the product “towel A” included in the content CT11. In addition, for example, the product IT14 corresponds to the product “car A” included in the content CT11. For example, the product IT15 corresponds to the product “pot A” included in the content CT11. As described above, FIG. 1 shows a case where the users U11 to U13 are browsing the content CT11 including various products.

まず、コンテンツCT11を閲覧しているユーザU12が、コンテンツCT11中の商品IT14を指FG1で指定する(ステップS11)。例えば、日時DT11に、ユーザU12が、コンテンツCT11中の商品IT14が含まれる位置を指FG1で指示したり、机上面PP11の商品IT14が表示された部分をタッチしたりすることにより、商品IT14を指定する。   First, the user U12 browsing the content CT11 designates the product IT14 in the content CT11 with the finger FG1 (step S11). For example, when the user U12 indicates the position where the product IT14 in the content CT11 is included with the finger FG1 or touches the part on the desk surface PP11 where the product IT14 is displayed, for example, the date IT11 specify.

そして、ユーザU12が指FG1で指定したことに応じて、端末機器AP11の第1センサSN1は、ユーザU12が指FG1で指定した位置の座標情報を第1センサ情報として検知する(ステップS12)。図1の例では、端末機器AP11は、ユーザU12が指FG1で指定した位置の座標情報を検知する。具体的には、端末機器AP11は、ユーザU12が指FG1で指定した位置が位置(x1,y1)であることを示す座標情報を検知する。なお、ここでいう「x1」や「y1」は、コンテンツCT11における商品IT14が表示される範囲に含まれる位置に対応する任意の値であるものとする。   Then, in response to designation by the user U12 with the finger FG1, the first sensor SN1 of the terminal device AP11 detects the coordinate information of the position designated by the user U12 with the finger FG1 as first sensor information (step S12). In the example of FIG. 1, the terminal device AP11 detects the coordinate information of the position specified by the user U12 with the finger FG1. Specifically, the terminal device AP11 detects coordinate information indicating that the position designated by the user U12 with the finger FG1 is the position (x1, y1). Note that “x1” and “y1” here are arbitrary values corresponding to positions included in the range in which the product IT14 is displayed in the content CT11.

そして、端末機器AP11は、検知した第1センサ情報を決定装置100に送信する(ステップS13)。これにより、決定装置100は、端末機器AP11から第1センサ情報を受け付ける。図1の例では、端末機器AP11は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報や、ユーザにより指定されたコンテンツがコンテンツCT11であることを示す情報を送信する。なお、決定装置100がユーザによる指定時において端末機器AP11がどのコンテンツを表示しているかに関する情報を取得済みである場合、ユーザにより指定されたコンテンツを識別する情報を送信しなくてもよい。   Then, the terminal device AP11 transmits the detected first sensor information to the determination device 100 (step S13). Thereby, the determination apparatus 100 receives the first sensor information from the terminal device AP11. In the example of FIG. 1, the terminal device AP11 displays first sensor information indicating that the position specified by the user is the position (x1, y1) and information indicating that the content specified by the user is the content CT11. Send. In addition, when the determination apparatus 100 has already acquired information regarding which content the terminal device AP11 displays when specified by the user, information for identifying the content specified by the user may not be transmitted.

そして、端末機器AP11から第1センサ情報を受け付けた決定装置100は、第1センサ情報に基づいてユーザが指定した商品を特定する。図1の例では、決定装置100は、受け付けた第1センサ情報と、コンテンツ情報記憶部122に記憶されたコンテンツ情報とに基づいて、ユーザが指定した商品を特定する。   And the determination apparatus 100 which received 1st sensor information from terminal device AP11 specifies the goods which the user specified based on 1st sensor information. In the example of FIG. 1, the determination device 100 specifies a product designated by the user based on the received first sensor information and the content information stored in the content information storage unit 122.

図1の例では、決定装置100は、コンテンツ情報記憶部122に示すように、各コンテンツに含まれる商品とその商品がコンテンツ中のどの範囲に位置するかを示す情報を記憶している。例えば、決定装置100は、コンテンツ情報記憶部122に示すように、コンテンツCT11には、商品IT11〜IT15の5つの商品が含まれることを示す情報を記憶している。また、コンテンツ情報記憶部122には、商品IT11がコンテンツCT11中の範囲AR11に位置することを示す情報が記憶される。なお、範囲AR11は、商品IT11がコンテンツCT11において占める範囲を示す情報であればどのような情報であってもよく、例えば座標情報であってもよい。   In the example of FIG. 1, the determination apparatus 100 stores, as shown in the content information storage unit 122, information indicating the products included in each content and the range in which the products are located in the content. For example, as shown in the content information storage unit 122, the determination apparatus 100 stores information indicating that the content CT11 includes five products IT11 to IT15. The content information storage unit 122 stores information indicating that the product IT11 is located in the range AR11 in the content CT11. The range AR11 may be any information as long as it is information indicating the range that the product IT11 occupies in the content CT11. For example, the range AR11 may be coordinate information.

また、コンテンツ情報記憶部122には、商品IT12がコンテンツCT11中の範囲AR12に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT13がコンテンツCT11中の範囲AR13に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT14がコンテンツCT11中の範囲AR14に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT15がコンテンツCT11中の範囲AR15に位置することを示す情報が記憶される。   Further, the content information storage unit 122 stores information indicating that the product IT12 is located in the range AR12 in the content CT11. In addition, the content information storage unit 122 stores information indicating that the product IT13 is located in the range AR13 in the content CT11. In addition, the content information storage unit 122 stores information indicating that the product IT14 is located in the range AR14 in the content CT11. The content information storage unit 122 stores information indicating that the product IT15 is located in the range AR15 in the content CT11.

図1の例では、決定装置100は、第1センサ情報と、コンテンツ情報記憶部122に記憶された各商品IT11〜IT15の範囲AR11〜AR15とに基づいて、ユーザが指定した商品を特定する(ステップS14)。例えば、決定装置100は、第1センサ情報の座標(x1,y1)が範囲AR11〜AR15のいずれかに含まれる場合、ユーザが指定した商品を特定する。図1の例では、第1センサ情報の座標(x1,y1)が範囲AR14に含まれるため、決定装置100は、ユーザが指定した商品が商品IT14であると特定する。また、決定装置100は、商品情報記憶部123に記憶された商品IDと商品名の対応に基づいて、商品IT14が商品名「かごA」であると特定する。   In the example of FIG. 1, the determination apparatus 100 specifies the product designated by the user based on the first sensor information and the ranges AR11 to AR15 of the products IT11 to IT15 stored in the content information storage unit 122 ( Step S14). For example, when the coordinates (x1, y1) of the first sensor information are included in any of the ranges AR11 to AR15, the determination device 100 specifies a product designated by the user. In the example of FIG. 1, since the coordinates (x1, y1) of the first sensor information are included in the range AR14, the determination apparatus 100 specifies that the product designated by the user is the product IT14. Further, the determining apparatus 100 specifies that the product IT14 is the product name “car A” based on the correspondence between the product ID and the product name stored in the product information storage unit 123.

その後、ユーザU12が、端末機器AP11(第2センサSN2)の付近において「これ欲しいわね」という発話PA11を行う(ステップS15)。例えば、日時DT11より後の日時DT12に、ユーザU12が、ステップS11において指定した商品IT14について「これ欲しいわね」という発話PA11を行う。なお、図1の例では、ステップS15においても、ユーザU12が指FG1により商品IT14の指定を継続している場合を示すが、ユーザU12が指定した商品が特定済みであれば、ユーザU12が指FG1による商品IT14の指定を解除している状態であってもよい。   Thereafter, the user U12 performs the utterance PA11 “I want this” in the vicinity of the terminal device AP11 (second sensor SN2) (step S15). For example, at the date DT12 after the date DT11, the user U12 performs the utterance PA11 "I want this" for the product IT14 specified in step S11. In the example of FIG. 1, also in step S15, the case where the user U12 continues to specify the product IT14 with the finger FG1 is shown. However, if the product specified by the user U12 has been specified, the user U12 It may be in a state where designation of the product IT14 by FG1 is cancelled.

そして、ユーザU12が発話PA11を行ったことに応じて、端末機器AP11の第2センサSN2は、ユーザU12による発話PA11の音声情報を第2センサ情報として検知する(ステップS16)。図1の例では、端末機器AP11は、ユーザU12による「これ欲しいわね」という発話PA11に対応する音声情報を検知する。なお、図1の例では、説明を簡単にするために、発話PA11のみを図示するが、ユーザU11〜U13は、商品IT14に関する種々の会話を行ってもよい。また、端末機器AP11の第2センサSN2は、発話PA11以外の発話も第2センサ情報として検知してもよい。   Then, in response to the user U12 performing the utterance PA11, the second sensor SN2 of the terminal device AP11 detects the voice information of the utterance PA11 by the user U12 as the second sensor information (step S16). In the example of FIG. 1, the terminal device AP11 detects voice information corresponding to the utterance PA11 “I want this” by the user U12. In the example of FIG. 1, only the utterance PA11 is illustrated for the sake of simplicity, but the users U11 to U13 may perform various conversations regarding the product IT14. Further, the second sensor SN2 of the terminal device AP11 may detect utterances other than the utterance PA11 as the second sensor information.

そして、端末機器AP11は、検知した第2センサ情報を決定装置100に送信する(ステップS17)。これにより、決定装置100は、端末機器AP11から第2センサ情報を受け付ける。図1の例では、端末機器AP11は、ユーザの発話に関する第2センサ情報を送信する。具体的には、端末機器AP11は、発話PA11の音声情報を第2センサ情報として送信する。   Then, the terminal device AP11 transmits the detected second sensor information to the determination device 100 (step S17). Thereby, the determination apparatus 100 receives the second sensor information from the terminal device AP11. In the example of FIG. 1, the terminal device AP11 transmits second sensor information related to the user's utterance. Specifically, the terminal device AP11 transmits the voice information of the utterance PA11 as the second sensor information.

なお、端末機器AP11は、発話PA11の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA11の文字情報を取得し、取得した文字情報を決定装置100へ送信してもよい。また、端末機器AP11は、取得した発話PA11を行ったユーザがユーザU12であることを示す情報を決定装置100に送信してもよい。また、端末機器AP11が発話の意図の推定を行う場合、端末機器AP11は、推定した発話の意図を決定装置100に送信してもよい。   The terminal device AP11 may transmit the voice information of the utterance PA11 to the voice recognition server, acquire the character information of the utterance PA11 from the voice recognition server, and transmit the acquired character information to the determination apparatus 100. Further, the terminal device AP11 may transmit information indicating that the user who performed the acquired utterance PA11 is the user U12 to the determination device 100. Further, when the terminal device AP11 estimates the utterance intention, the terminal device AP11 may transmit the estimated utterance intention to the determination apparatus 100.

端末機器AP11から第2センサ情報を受け付けた決定装置100は、第2センサ情報に基づいてユーザの意図を推定する(ステップS18)。例えば、決定装置100は、受け付けた第2センサ情報を解析することにより、ステップS14において特定された商品IT14をユーザが購入することを希望していると推定する。例えば、決定装置100は、受け付けた第2センサ情報である発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、ユーザの意図を推定する。例えば、決定装置100は、発話PA11に「これ」という指示代名詞と、その指示代名詞に対応する商品を購入することを希望していることを示す「欲しい」という形容詞が含まれることを特定する。例えば、決定装置100は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。これにより、決定装置100は、発話PA11の内容に基づいて、ユーザが商品IT14の購入意思があると推定する。   The determination apparatus 100 that has received the second sensor information from the terminal device AP11 estimates the user's intention based on the second sensor information (step S18). For example, the determination apparatus 100 estimates that the user desires to purchase the product IT14 specified in step S14 by analyzing the received second sensor information. For example, the determination apparatus 100 converts the received voice information of the utterance PA11, which is the second sensor information, into character information, and estimates the user's intention based on the converted character information. For example, the deciding device 100 specifies that the utterance PA11 includes the adjective pronoun “this” and the adjective “wanted” indicating that the user desires to purchase a product corresponding to the pronoun pronoun. For example, the determination apparatus 100 presumes that the user desires to purchase a product corresponding to the pronoun by analyzing the character information of the utterance PA11 by appropriately using various conventional techniques such as syntax analysis. . Thereby, the determination apparatus 100 estimates that the user intends to purchase the product IT14 based on the content of the utterance PA11.

このように、ステップS18において、決定装置100は、第2センサ情報に基づいて、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。そして、決定装置100は、ステップS14において、ユーザが指定した商品が商品IT14であると特定している。そのため、決定装置100は、ユーザが商品IT14であるかごAを購入することを希望していると推定する。   Thus, in step S18, the determination apparatus 100 estimates that the user desires to purchase a product corresponding to the indicating pronoun based on the second sensor information. Then, in step S14, the determining apparatus 100 specifies that the product designated by the user is the product IT14. Therefore, the determination apparatus 100 estimates that the user desires to purchase the car A that is the product IT14.

そして、決定装置100は、推定したユーザの商品IT14に対する意図に応じて、商品IT14に関する処理態様を決定する。図1の例では、ユーザが商品IT14であるかごAを購入することを希望していると推定されるため、決定装置100は、商品IT14を所定の買物リストに追加すると決定する(ステップS19)。具体的には、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。そして、決定装置100は、買物一覧情報記憶部124に示すように、端末機器AP11に対応付けられた買物リストに商品IT14を追加する。図1の例では、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。   And the determination apparatus 100 determines the process aspect regarding goods IT14 according to the user's estimated intention with respect to goods IT14. In the example of FIG. 1, since it is presumed that the user desires to purchase the car A that is the product IT14, the determination apparatus 100 determines to add the product IT14 to a predetermined shopping list (step S19). . Specifically, the determination device 100 determines to add the product IT14 to the shopping list associated with the terminal device AP11. Then, as shown in the shopping list information storage unit 124, the determination device 100 adds the product IT14 to the shopping list associated with the terminal device AP11. In the example of FIG. 1, the determination device 100 determines to add the product IT14 to the shopping list associated with the terminal device AP11.

このように、決定装置100は、第1センサ情報に基づいて特定される商品IT14に関する処理態様を、第2センサ情報に基づいて決定する。また、図1の例では、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定することにより、複数のユーザU11〜U13が会話し、どのユーザによる商品に対する購入の意思であるかが特定できない場合であっても、適切に買物リストに商品を追加することができる。また、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定することにより、商品を指定したユーザと、商品に関する発話を行ったユーザが異なる場合であっても、適切に買物リストに商品を追加することができる。このように、決定装置100は、複数のユーザが会話をしながらコンテンツを閲覧し、商品の指定や、商品に対する意思を示す発話を行った場合であっても、商品に関する処理態様を適切に決定することができる。また、決定装置100は、所定のタイミングでユーザに端末機器AP11に対応付けられた買物リストに追加された商品に関する情報を送信してもよい。   Thus, the determination apparatus 100 determines the process aspect regarding the goods IT14 specified based on 1st sensor information based on 2nd sensor information. Further, in the example of FIG. 1, the determination device 100 determines to add the product IT14 to the shopping list associated with the terminal device AP11, whereby a plurality of users U11 to U13 have a conversation, and which user purchases the product. Even if it is not possible to specify whether or not the user intends, the product can be appropriately added to the shopping list. Further, the determination apparatus 100 determines that the product IT14 is added to the shopping list associated with the terminal device AP11, so that even if the user who specified the product and the user who made the utterance about the product are different, Appropriately add items to the shopping list. As described above, the determination device 100 appropriately determines a processing mode related to a product even when a plurality of users browse the content while having a conversation and specify a product or make an utterance indicating intention to the product. can do. Moreover, the determination apparatus 100 may transmit information regarding the product added to the shopping list associated with the terminal device AP11 to the user at a predetermined timing.

また、図1の例では、説明を簡単にするために、商品IT14に関する処理態様を決定するまでを示したが、ユーザU11〜U13は、商品IT14に続けて種々の商品を指定したり、表示されたコンテンツに関する会話をしたりしてもよい。そして、決定装置100は、ユーザによる商品の指定や会話に基づいて、順次商品に関する処理態様の決定を行ってもよい。例えば、決定装置100は、ステップS19後にユーザが商品IT11を指定し、会話を継続した場合、商品IT11に関する処理態様の決定を行ってもよい。例えば、決定装置100は、商品IT11に関する処理態様の決定後にユーザが商品IT15を指定し、会話を継続した場合、商品IT15に関する処理態様の決定を行ってもよい。また、ユーザがコンテンツCT11以外のコンテンツに表示を切り替え、会話を続けた場合、決定装置100は、ユーザの指定や会話に基づいて、ユーザに指定された商品に関する処理態様の決定を行ってもよい。   Further, in the example of FIG. 1, for the sake of simplicity, the process up to the determination of the processing mode related to the product IT14 is shown. However, the users U11 to U13 can specify various products following the product IT14, or display them. You may also have a conversation about the content that has been played. And the determination apparatus 100 may determine the process aspect regarding goods sequentially based on the designation | designated and conversation of goods by a user. For example, when the user designates the product IT11 after step S19 and continues the conversation, the determining apparatus 100 may determine a processing mode related to the product IT11. For example, the determination apparatus 100 may determine the processing mode related to the product IT15 when the user specifies the product IT15 after the determination of the processing mode related to the product IT11 and continues the conversation. In addition, when the user switches the display to content other than the content CT11 and continues the conversation, the determination apparatus 100 may determine the processing mode related to the product designated by the user based on the user's designation or conversation. .

また、図1の例では、説明を簡単にするために、商品IT14を端末機器AP11に対応付けられた買物リストに追加する場合を示したが、決定装置100は、推定されるユーザに購入に関する意思に応じて、処理態様を異ならせてもよい。例えば、決定装置100は、推定されるユーザの購入意思のレベル(強弱)に応じて、処理態様を異ならせてもよい。例えば、決定装置100は、「すぐ欲しい」や「絶対買う」等のユーザの発話に基づいて、ユーザの購入意思が高いと推定される場合、指定された商品を即購入、すなわち決済の処理を行ってもよい。図1の例では、発話PA11に「欲しい」という購入を希望する内容が含まれるため、決定装置100は、ユーザU12の購入意思が高いと推定し、指定された商品IT14を即購入、すなわち決済の処理を行ってもよい。この場合、決定装置100は、ユーザU12の口座を用いて決済の処理を行ってもよいし、端末機器AP11に対応付けられたユーザU11の口座ACN11(図3参照)を用いて決済の処理を行ってもよい。また、例えば、決定装置100は、「いいかも」や「気になる」等のユーザの発話に基づいて、ユーザが購入意思は低いが商品に対して関心があると推定される場合、指定された商品を保留リストや買物リスト等に追加してもよい。このように、決定装置100は、ユーザの発話に基づいて推定されるユーザの購入意思のレベルに基づいて、指定された商品に対する処理態様を異ならせてもよい。   Further, in the example of FIG. 1, in order to simplify the explanation, the case where the product IT14 is added to the shopping list associated with the terminal device AP11 is shown. Depending on the intention, the processing mode may be varied. For example, the determination apparatus 100 may vary the processing mode according to the estimated level (strongness) of the user's purchase intention. For example, when it is estimated that the user's intention to purchase is high based on the user's utterance such as “I want it now” or “Absolutely buy”, the determination device 100 immediately purchases the designated product, that is, performs a settlement process. You may go. In the example of FIG. 1, since the utterance PA11 includes the content that the user wants to purchase “desired”, the determination apparatus 100 presumes that the user U12 has a high intention to purchase, and immediately purchases the designated product IT14, that is, settles. You may perform the process of. In this case, the determination apparatus 100 may perform the settlement process using the account of the user U12, or the settlement process using the account ACN11 (see FIG. 3) of the user U11 associated with the terminal device AP11. You may go. In addition, for example, the determination apparatus 100 is designated when it is estimated that the user has a low intention to purchase but is interested in the product based on the user's utterances such as “Ikomoka” and “I am interested”. Products may be added to a hold list or shopping list. Thus, the determination apparatus 100 may vary the processing mode for the designated product based on the level of the user's intention to purchase based on the user's utterance.

上述したように、決定装置100は、第1センサ情報に基づいてユーザが指定した商品を特定し、第2センサ情報に基づいて第1センサ情報に基づいて特定される商品(購入対象)に関する処理態様を決定する。このように、決定装置100は、ユーザが指定する商品の特定を第1センサ情報に基づいて行い、その商品に対するユーザの意図の推定を第2センサ情報に基づいて行う。これにより、決定装置100は、処理を商品の特定と、ユーザの意図の推定との2段階に分けて行うことにより、ユーザが指定した商品の特定の精度や、商品に対するユーザの意図の推定の精度を高めることができる。したがって、決定装置100は、商品またはサービスに関する処理態様を適切に決定することができる。   As described above, the determination apparatus 100 specifies a product specified by the user based on the first sensor information, and processes related to the product (purchase target) specified based on the first sensor information based on the second sensor information. Determine aspects. As described above, the determination apparatus 100 identifies the product designated by the user based on the first sensor information, and estimates the user's intention for the product based on the second sensor information. As a result, the determination apparatus 100 performs processing in two stages of product identification and estimation of the user's intention, thereby identifying the accuracy of the product specified by the user and estimating the user's intention for the product. Accuracy can be increased. Therefore, the determination apparatus 100 can appropriately determine the processing mode related to the product or service.

上述した例においては、決定装置100は、第1センサ情報として赤外線センサにより検知された情報を用い、第2センサ情報として音声センサにより検知された情報を用いる。このように、決定装置100は、各処理において、異なるセンサにより検知された情報を用いることにより、ユーザが指定した商品の特定の精度や、商品に対するユーザの意図の推定の精度を高めることができる。   In the example described above, the determination device 100 uses information detected by the infrared sensor as the first sensor information, and uses information detected by the voice sensor as the second sensor information. Thus, the determination apparatus 100 can improve the accuracy of specifying a product specified by the user and the accuracy of estimating the user's intention for the product by using information detected by different sensors in each process. .

図1の例では、決定装置100は、ユーザが指FG1等で指示した位置に表示された商品を、ユーザが指定した商品として特定することにより、ユーザが指定した商品の特定の精度を高めることができる。例えば、ユーザが指定する商品を音声情報に基づいて特定する場合、「これ」や「あれ」といった指示代名詞で発話された場合、ユーザが指定する商品を特定することが難しい。また、図1の例では、商品IT11である「シャンプーA」や商品IT12である「シャンプーAの詰替品」がコンテンツCT11に含まれるため、ユーザが「シャンプーA買わないと」と発話した場合であっても、商品IT11と商品IT12とのいずれを指定しているのかを特定することが難しい。一方、図1の例では、決定装置100は、ユーザが指FG1等で指示した位置に表示された商品を、ユーザが指定した商品として特定することにより、ユーザが指定した商品が商品IT11と商品IT12とのいずれであるかの特定の精度を高めることができる。   In the example of FIG. 1, the determination apparatus 100 increases the specific accuracy of the product specified by the user by specifying the product displayed at the position designated by the user with the finger FG1 or the like as the product specified by the user. Can do. For example, when the product specified by the user is specified based on the voice information, it is difficult to specify the product specified by the user when the user speaks with a pronoun such as “this” or “that”. Further, in the example of FIG. 1, since the content CT11 includes “shampoo A” that is the product IT11 and “refilled products of shampoo A” that is the product IT12, the user utters “you must buy shampoo A”. Even so, it is difficult to specify which of the product IT11 and the product IT12 is specified. On the other hand, in the example of FIG. 1, the determination device 100 specifies the product displayed at the position designated by the user with the finger FG1 or the like as the product specified by the user, so that the product specified by the user is the product IT11 and the product. It is possible to increase the specific accuracy of the IT12.

なお、決定装置100は、ユーザが指定する商品が音声情報により特定可能である場合、音声情報に基づいて、ユーザが指定する商品を特定してもよい。このように、決定装置100は、各センサが検知する情報の内容に基づいて、ユーザが指定した商品の特定や、商品に対するユーザの意図の推定を行ってもよい。また、決定装置100は、図1に示すようにユーザU12が指FG1により商品IT14の指定を継続している間に行われた発話に関する第2センサ情報のみを受け付けてもよい。これにより、決定装置100は、より正確にユーザが指定した商品とのユーザの意思とを対応付けることができる。   Note that the determination device 100 may specify the product specified by the user based on the audio information when the product specified by the user can be specified by the audio information. As described above, the determination apparatus 100 may identify the product designated by the user or estimate the user's intention for the product based on the content of the information detected by each sensor. Further, as illustrated in FIG. 1, the determination apparatus 100 may accept only the second sensor information related to the utterance performed while the user U12 continues to specify the product IT14 with the finger FG1. Thereby, the determination apparatus 100 can match the user's intention with the product designated by the user more accurately.

また、上述した例では、第1センサSN1として赤外線センサを用い、ユーザの指FG1による指示に基づいて指定する商品を特定したが、決定装置100は、種々のセンサを第1センサとして用いてもよい。例えば、決定装置100は、ユーザのジェスチャ等を検知するモーションセンサ等を第1センサとして用いてもよい。この場合、決定装置100は、ユーザのジェスチャ等に基づいて指定する商品を特定してもよい。また、例えば、決定装置100は、ユーザの視線を検知するセンサ等を第1センサとして用いてもよい。この場合、決定装置100は、ユーザの視線に基づいて指定する商品を特定してもよい。また、決定装置100は、上述したような複数のセンサを第1センサとして用い、複数の第1センサが検知する複数の第1センサ情報に基づいて、指定する商品を特定してもよい。   In the above-described example, the infrared sensor is used as the first sensor SN1 and the product to be specified is specified based on the instruction by the user's finger FG1, but the determination device 100 may use various sensors as the first sensor. Good. For example, the determination apparatus 100 may use a motion sensor or the like that detects a user gesture or the like as the first sensor. In this case, the determination apparatus 100 may specify a product to be designated based on a user gesture or the like. For example, the determination apparatus 100 may use a sensor or the like that detects the user's line of sight as the first sensor. In this case, the determination apparatus 100 may specify a product to be specified based on the user's line of sight. Moreover, the determination apparatus 100 may specify the goods to designate based on the some 1st sensor information which a some 1st sensor detects using several sensors as mentioned above as a 1st sensor.

また、上述した例において、決定装置100は、受け付けた発話PA11の音声情報である第2センサ情報を解析することにより、発話PA11を行ったユーザがユーザU12であることを特定してもよい。例えば、決定装置100は、各ユーザに対応付けられた音声情報等に基づいて、発話PA11の音声情報を解析することにより、発話PA11を行ったユーザがユーザU12であることを特定してもよい。なお、発話PA11を行ったユーザの特定は、決定装置100が行ってもよいし、他の装置が行ってもよい。発話PA11を行ったユーザの特定を他の装置が行う場合、決定装置100は発話PA11を行ったユーザを特定する情報を他の装置から取得するものとする。このように、決定装置100は、発話を行ったユーザを特定することにより、ユーザの意図の推定の精度を向上させることができる。例えば、決定装置100は、特定したユーザに応じてモデルを使い分けることにより、ユーザの意図を推定してもよいが、この点の詳細については後述する。   Moreover, in the example mentioned above, the determination apparatus 100 may specify that the user who performed the utterance PA11 is the user U12 by analyzing the second sensor information that is the voice information of the received utterance PA11. For example, the determination apparatus 100 may specify that the user who performed the utterance PA11 is the user U12 by analyzing the audio information of the utterance PA11 based on the audio information associated with each user. . Note that the user who performed the utterance PA11 may be specified by the determination device 100 or another device. When the other device specifies the user who performed the utterance PA11, the determination device 100 acquires information identifying the user who performed the utterance PA11 from the other device. Thus, the determination apparatus 100 can improve the accuracy of estimation of the user's intention by specifying the user who has spoken. For example, the determination apparatus 100 may estimate the user's intention by using different models according to the specified user. Details of this point will be described later.

また、決定装置100は、第2センサ情報に個数に関する情報が含まれる場合、その個数に関する情報に基づいて、指定された商品に関する処理態様を決定してもよい。図1の例において、決定装置100は、第2センサ情報が「これ3個欲しい」等の個数に関する情報が含まれる音声情報である場合、端末機器AP11に対応付けられた買物リストに商品IT14を3個追加してもよい。   Moreover, when the information regarding the number is included in the second sensor information, the determination device 100 may determine the processing mode regarding the designated product based on the information regarding the number. In the example of FIG. 1, when the second sensor information is voice information including information on the number of pieces such as “I want three,” the item IT14 is added to the shopping list associated with the terminal device AP11. Three may be added.

また、上述した例では、決定装置100が端末機器AP11に対応付けられた買物リスト、すなわちデバイスに対応付けられた買物リストに指定された商品IT14を追加する場合を示したが、決定装置100は、種々の処理態様を適宜決定してもよい。例えば、決定装置100は、ユーザに対応付けられた買物リストに指定された商品IT14を追加してもよい。例えば、決定装置100は、デバイス情報記憶部121(図3参照)に示すように、端末機器AP11に対応付けられたユーザであるユーザU11の買物リストに指定された商品IT14を追加してもよい。   In the above-described example, the determination apparatus 100 adds the product IT14 designated to the shopping list associated with the terminal device AP11, that is, the shopping list associated with the device. Various processing modes may be determined as appropriate. For example, the determination apparatus 100 may add the product IT14 specified in the shopping list associated with the user. For example, as illustrated in the device information storage unit 121 (see FIG. 3), the determination apparatus 100 may add the product IT14 specified in the shopping list of the user U11 who is a user associated with the terminal device AP11. .

また、例えば、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の買物リストに商品IT14を追加してもよい。図1の例では、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の買物リストに商品IT14を追加し、発話PA11を行ったユーザが特定できない場合、端末機器AP11に対応付けられたユーザU11の買物リストに商品IT14を追加してもよい。このように、決定装置100は、第2センサ情報を含む種々の情報に基づいて、指定された商品に関する処理態様を決定してもよい。   For example, when the user who performed the utterance PA11 can specify that the user who performed the utterance PA11 is the user U12, the determination apparatus 100 may add the product IT14 to the shopping list of the user U12. In the example of FIG. 1, the determination apparatus 100 adds the product IT14 to the shopping list of the user U12 when the user who performed the utterance PA11 can be identified as the user U12, and cannot identify the user who performed the utterance PA11. The product IT14 may be added to the shopping list of the user U11 associated with the terminal device AP11. Thus, the determination apparatus 100 may determine the processing mode regarding the designated product based on various information including the second sensor information.

また、例えば、決定装置100は、第2センサ情報に基づいて推定されるユーザの意図が商品の購入を示す場合、その商品の決済を行うと決定してもよい。図1の例では、決定装置100は、指定された商品IT14に対する購入意思が推定されるため、商品IT14の決済を行うと決定してもよい。この場合、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の口座を用いた決済を行うと決定し、発話PA11を行ったユーザが特定できない場合、端末機器AP11に対応付けられたユーザU11の口座ACN11(図3参照)を用いた決済を行うと決定してもよい。   Further, for example, when the user's intention estimated based on the second sensor information indicates purchase of a product, the determination device 100 may determine that the product is to be settled. In the example of FIG. 1, the determination apparatus 100 may determine that the product IT14 is to be settled because the purchase intention for the designated product IT14 is estimated. In this case, the determination apparatus 100 determines that the payment using the account of the user U12 is performed when the user who performed the utterance PA11 can be identified as the user U12, and the terminal who has performed the utterance PA11 cannot be identified, It may be determined that the payment is made using the account ACN11 (see FIG. 3) of the user U11 associated with the device AP11.

また、例えば、決定装置100は、第2センサ情報に基づいて推定されるユーザの意図が商品への関心を示す場合、その商品を保留リストに追加すると決定してもよい。例えば、商品が指定された場合において、ユーザが「これいいかも」や「いつか買おうかな」等の購入の意思までには至らず、商品への関心を示す発話を行った場合、決定装置100は、その商品を保留リストに追加すると決定してもよい。例えば、決定装置100は、デバイスに対応付け付けられた保留リストに商品を追加してもよい。例えば、決定装置100は、発話を行ったユーザが特定できる場合、そのユーザの保留リストに商品を追加してもよい。また、例えば、決定装置100は、発話を行ったユーザが特定できない場合、デバイスに対応付けられたユーザの保留リストに商品を追加してもよい。   For example, when the user's intention estimated based on the second sensor information indicates interest in a product, the determination device 100 may determine to add the product to the hold list. For example, when a product is specified, if the user does not reach the intention of purchase such as “Is this good?” Or “I want to buy it someday” and makes an utterance indicating interest in the product, the determination device 100 May decide to add the item to the hold list. For example, the determination apparatus 100 may add a product to the hold list associated with the device. For example, when the user who has made an utterance can be identified, the determination apparatus 100 may add a product to the user's hold list. Further, for example, when the user who has spoken cannot be identified, the determination apparatus 100 may add a product to the user's hold list associated with the device.

また、決定装置100や端末機器AP11は、ユーザの発話に応じて、端末機器AP11が表示しているコンテンツの表示態様を変化させてもよい。図1の例では、机上面PP11に表示されたコンテンツCT11が、ユーザの発話に応じて変化してもよい。例えば、ユーザU13が、商品IT15である白いポットAを指定し、「これの赤いやつ」と発話した場合、決定装置100や端末機器AP11は、端末機器AP11が表示しているコンテンツCT11における白いポットAを赤いポットAに表示を変化させてもよい。例えば、端末機器AP11は、音声認識の機能を有し、予め各商品の各色に対応する画像(コンテンツ)を取得済みである場合、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、コンテンツCT11における白いポットAを赤いポットAに表示を変化させてもよい。例えば、決定装置100は、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、端末機器AP11にコンテンツCT11における白いポットAを赤いポットAに表示を変化させるように指示してもよい。例えば、決定装置100は、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、端末機器AP11に赤いポットAに対応する画像(コンテンツ)を送信し、机上面PP11に表示された白いポットAを赤いポットAに表示を変化させるように指示してもよい。   Moreover, the determination apparatus 100 and the terminal device AP11 may change the display mode of the content displayed by the terminal device AP11 according to the user's utterance. In the example of FIG. 1, the content CT11 displayed on the desk surface PP11 may change according to the user's utterance. For example, when the user U13 designates the white pot A that is the product IT15 and utters “the red one”, the determination device 100 and the terminal device AP11 use the white pot in the content CT11 displayed by the terminal device AP11. The display of A may be changed to a red pot A. For example, when the terminal device AP11 has a voice recognition function and has acquired an image (content) corresponding to each color of each product in advance, the user U13 designates the white pot A and “this red guy” The display of the white pot A in the content CT11 may be changed to the red pot A according to the utterance. For example, the determination apparatus 100 causes the terminal device AP11 to change the display of the white pot A in the content CT11 to the red pot A in response to the designation of the white pot A by the user U13 and the utterance of “this red guy”. You may instruct. For example, the determination apparatus 100 transmits an image (contents) corresponding to the red pot A to the terminal device AP11 in response to the designation of the white pot A by the user U13 and the utterance of “this red guy”. It may be instructed to change the display of the white pot A displayed on the PP 11 to the red pot A.

また、例えば、ユーザU11が、商品IT11であるタオルAを指定し、「これの色違い」と発話した場合、決定装置100や端末機器AP11は、端末機器AP11が表示しているコンテンツCT11における白いタオルAを他の色のタオルAに表示を変化させてもよい。例えば、ユーザU11が、商品IT11であるタオルAを指定し、「これの色違い」と発話した場合、端末機器AP11は、白いタオルAをタオルAが対応可能な他の色(例えば青)のタオルAに表示を変化させてもよい。なお、上述した表示の変化については、種々の技術を適宜用いて、端末機器AP11が行ってもよい。例えば、端末機器AP11は、あらかじめそのような各商品の各色に対応する(画像)データを取得し、表示するデータを切り替えてもよい。また、例えば、端末機器AP11は、オーバレイ等で重畳させて表示することにより、コンテンツの表示態様を変化させてもよい。   Further, for example, when the user U11 specifies the towel A that is the product IT11 and utters “this color difference”, the determination device 100 and the terminal device AP11 are white in the content CT11 displayed by the terminal device AP11. The display of the towel A may be changed to a towel A of another color. For example, when the user U11 designates the towel A that is the product IT11 and utters “this color difference”, the terminal device AP11 uses a white towel A of another color (for example, blue) that the towel A can handle. The display may be changed to towel A. Note that the above-described display change may be performed by the terminal device AP11 using various techniques as appropriate. For example, the terminal device AP11 may acquire (image) data corresponding to each color of each product in advance and switch data to be displayed. Further, for example, the terminal device AP11 may change the display mode of the content by superimposing and displaying it with an overlay or the like.

〔2.決定装置の構成〕
次に、図2を用いて、実施形態に係る決定装置100の構成について説明する。図2は、実施形態に係る決定装置の構成例を示す図である。図2に示すように、決定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、決定装置100は、決定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of decision device]
Next, the configuration of the determination apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of the determination device according to the embodiment. As illustrated in FIG. 2, the determination device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The determination device 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator of the determination device 100 and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末機器AP11との間で情報の送受信を行う。また、通信部110は、電子商取引サービスを提供する情報処理装置や音声認識サーバとの間で情報の送受信を行ってもよい。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network by wire or wireless, and transmits / receives information to / from the terminal device AP11. The communication unit 110 may transmit and receive information to and from an information processing apparatus that provides an electronic commerce service or a voice recognition server.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、デバイス情報記憶部121やコンテンツ情報記憶部122や商品情報記憶部123や買物一覧情報記憶部124を有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 2, the storage unit 120 according to the embodiment includes a device information storage unit 121, a content information storage unit 122, a product information storage unit 123, and a shopping list information storage unit 124.

(デバイス情報記憶部121)
実施形態に係るデバイス情報記憶部121は、端末機器AP11等の各種デバイスに関する各種情報を記憶する。例えば、デバイス情報記憶部121は、第1センサ情報や第2センサ情報の収集に用いられる各種デバイスに関する各種情報を記憶する。図3に、実施形態に係るデバイス情報記憶部121の一例を示す。図3に示すデバイス情報記憶部121は、「デバイスID」、「ユーザID」、「口座ID」といった項目を有する。
(Device information storage unit 121)
The device information storage unit 121 according to the embodiment stores various information regarding various devices such as the terminal device AP11. For example, the device information storage unit 121 stores various pieces of information related to various devices used for collecting the first sensor information and the second sensor information. FIG. 3 shows an example of the device information storage unit 121 according to the embodiment. The device information storage unit 121 illustrated in FIG. 3 includes items such as “device ID”, “user ID”, and “account ID”.

「デバイスID」は、デバイスを識別するための識別情報を示す。また、「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、「ユーザID」は、デバイスに対応付けられたユーザを識別するための識別情報を示す。例えば、各デバイスIDには、複数のユーザIDが対応付けられてもよい。「口座ID」は、口座を識別するための識別情報を示す。例えば、「口座ID」は、ユーザに対応付けられた口座を識別するための識別情報を示す。   “Device ID” indicates identification information for identifying a device. “User ID” indicates identification information for identifying a user. For example, “user ID” indicates identification information for identifying a user associated with a device. For example, a plurality of user IDs may be associated with each device ID. “Account ID” indicates identification information for identifying an account. For example, “Account ID” indicates identification information for identifying an account associated with the user.

例えば、図3に示す例において、デバイスID「AP11」により識別されるデバイス(端末機器AP11)には、ユーザID「U11」により識別されるユーザ(ユーザU11)が対応付けられていることを示す。また、ユーザID「U11」により識別されるユーザ(ユーザU11)は、口座ID「ACN11」により識別される口座が対応付けられていることを示す。   For example, in the example illustrated in FIG. 3, the device (terminal device AP11) identified by the device ID “AP11” is associated with the user (user U11) identified by the user ID “U11”. . Further, the user (user U11) identified by the user ID “U11” indicates that the account identified by the account ID “ACN11” is associated.

なお、デバイス情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。デバイス情報記憶部121は、限度額に関する情報を記憶してもよい。例えば、デバイス情報記憶部121は、過去の決済金額に関する情報を記憶してもよい。   The device information storage unit 121 is not limited to the above, and may store various types of information according to the purpose. The device information storage unit 121 may store information on the limit amount. For example, the device information storage unit 121 may store information on past payment amounts.

(コンテンツ情報記憶部122)
実施形態に係るコンテンツ情報記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ情報記憶部122は、端末機器AP11等の表示手段を有する装置により表示されるコンテンツに関する各種情報を記憶する。図4は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図4に示すコンテンツ情報記憶部122は、「コンテンツID」、「商品ID」、「範囲」といった項目が含まれる。
(Content information storage unit 122)
The content information storage unit 122 according to the embodiment stores various types of information related to content. For example, the content information storage unit 122 stores various types of information related to content displayed by a device having display means such as the terminal device AP11. FIG. 4 is a diagram illustrating an example of a content information storage unit according to the embodiment. The content information storage unit 122 illustrated in FIG. 4 includes items such as “content ID”, “product ID”, and “range”.

「コンテンツID」は、コンテンツを識別するための識別情報を示す。例えば、コンテンツID「CT11」により識別されるコンテンツは、図1の例に示したコンテンツCT11に対応する。「商品ID」は、商品を識別するための識別情報を示す。また、「範囲」は、コンテンツ中において、対応する商品IDにより識別される商品が含まれる位置を示す。なお、図4の例では、「範囲」をAR11等の抽象的な符号で示すが、「範囲」は、対応する商品IDにより識別される商品のコンテンツ中における位置を示す座標等であってもよい。   “Content ID” indicates identification information for identifying the content. For example, the content identified by the content ID “CT11” corresponds to the content CT11 shown in the example of FIG. “Product ID” indicates identification information for identifying a product. The “range” indicates a position in the content where the product identified by the corresponding product ID is included. In the example of FIG. 4, the “range” is indicated by an abstract code such as AR11, but the “range” may be a coordinate indicating the position in the content of the product identified by the corresponding product ID. Good.

例えば、図4に示す例において、コンテンツID「CT11」により識別されるコンテンツには、商品ID「IT11」により識別される商品や、商品ID「IT12」により識別される商品や、商品ID「IT13」により識別される商品や、商品ID「IT14」により識別される商品や、商品ID「IT15」により識別される商品が含まれることを示す。また、例えば、図4に示す例において、商品ID「IT11」により識別される商品は、コンテンツCT11中の範囲AR11に位置することを示す。例えば、範囲AR11は、コンテンツCT11中の略中央に位置する所定の範囲に対応する。   For example, in the example illustrated in FIG. 4, the content identified by the content ID “CT11” includes the product identified by the product ID “IT11”, the product identified by the product ID “IT12”, and the product ID “IT13”. ”, A product identified by the product ID“ IT14 ”, and a product identified by the product ID“ IT15 ”. For example, in the example illustrated in FIG. 4, the product identified by the product ID “IT11” is located in the range AR11 in the content CT11. For example, the range AR11 corresponds to a predetermined range located approximately at the center in the content CT11.

また、例えば、図4に示す例において、商品ID「IT12」により識別される商品は、コンテンツCT11中の範囲AR12に位置することを示す。また、例えば、図4に示す例において、商品ID「IT13」により識別される商品は、コンテンツCT11中の範囲AR13に位置することを示す。また、例えば、図4に示す例において、商品ID「IT14」により識別される商品は、コンテンツCT11中の範囲AR14に位置することを示す。また、例えば、図4に示す例において、商品ID「IT15」により識別される商品は、コンテンツCT11中の範囲AR15に位置することを示す。   For example, in the example illustrated in FIG. 4, the product identified by the product ID “IT12” is located in the range AR12 in the content CT11. For example, in the example illustrated in FIG. 4, the product identified by the product ID “IT13” is located in the range AR13 in the content CT11. For example, in the example illustrated in FIG. 4, the product identified by the product ID “IT14” is located in the range AR14 in the content CT11. For example, in the example illustrated in FIG. 4, the product identified by the product ID “IT15” is located in the range AR15 in the content CT11.

なお、コンテンツ情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。   The content information storage unit 122 is not limited to the above, and may store various types of information according to the purpose.

(商品情報記憶部123)
実施形態に係る商品情報記憶部123は、商品に関する各種情報を記憶する。図5は、実施形態に係る商品情報記憶部の一例を示す図である。図5に示す商品情報記憶部123は、「商品ID」、「商品名」といった項目を有する。
(Product information storage unit 123)
The product information storage unit 123 according to the embodiment stores various types of information related to products. FIG. 5 is a diagram illustrating an example of a product information storage unit according to the embodiment. The product information storage unit 123 illustrated in FIG. 5 includes items such as “product ID” and “product name”.

「商品ID」は、商品を識別するための識別情報を示す。「商品名」は、商品やサービスの具体的な名称等を示す。   “Product ID” indicates identification information for identifying a product. “Product name” indicates a specific name of a product or service.

また、図5に示す例において、商品ID「IT11」により識別される商品は「シャンプーA」であることを示す。また、図5に示す例において、商品ID「IT12」により識別される商品は「シャンプーA詰替品」、すなわちシャンプーAの詰め替え用の商品であることを示す。また、図5に示す例において、商品ID「IT13」により識別される商品は「タオルA」であることを示す。また、図5に示す例において、商品ID「IT14」により識別される商品は「かごA」であることを示す。また、図5に示す例において、商品ID「IT15」により識別される商品は「ポットA」であることを示す。   Further, in the example illustrated in FIG. 5, the product identified by the product ID “IT11” is “Shampoo A”. Further, in the example shown in FIG. 5, the product identified by the product ID “IT12” indicates “shampoo A refill product”, that is, a product for refilling shampoo A. In the example illustrated in FIG. 5, the product identified by the product ID “IT13” is “towel A”. Further, in the example illustrated in FIG. 5, the product identified by the product ID “IT14” is “car A”. Further, in the example illustrated in FIG. 5, the product identified by the product ID “IT15” is “pot A”.

なお、商品情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、商品情報記憶部123は、商品の金額に関する情報を記憶してもよい。例えば、商品情報記憶部123は、商品を取り扱うストア(店舗)に関する情報や在庫に関する情報を記憶してもよい。   The product information storage unit 123 is not limited to the above, and may store various information according to the purpose. For example, the product information storage unit 123 may store information related to the price of the product. For example, the product information storage unit 123 may store information on stores (stores) that handle products and information on stock.

(買物一覧情報記憶部124)
実施形態に係る買物一覧情報記憶部124は、買物(購入)に関する各種情報を記憶する。例えば、買物一覧情報記憶部124は、所定の商品に関する各種情報を記憶する。図6は、実施形態に係る買物一覧情報記憶部の一例を示す図である。図6に示す買物一覧情報記憶部124は、「対象ID」、「買物リスト」といった項目を有する。
(Shopping list information storage unit 124)
The shopping list information storage unit 124 according to the embodiment stores various information related to shopping (purchase). For example, the shopping list information storage unit 124 stores various information related to a predetermined product. FIG. 6 is a diagram illustrating an example of a shopping list information storage unit according to the embodiment. The shopping list information storage unit 124 illustrated in FIG. 6 includes items such as “target ID” and “shopping list”.

「対象ID」は、商品のリストが対応付けられる対象を識別する情報を示す。なお、「対象ID」には、「AP11」等の端末機器を識別するIDや「U1」等のユーザを識別するID等、商品のリストが対応付けられる対象を識別するIDであれば、どのような対象を識別するIDが含まれてもよい。「買物リスト」は、対象に対応づけられている商品に関する情報を示す。例えば、「買物リスト」は、第1センサ情報に基づいて特定された商品と対象との対応付けを示す。   “Target ID” indicates information for identifying a target associated with a list of products. The “target ID” may be any ID that identifies a target associated with a list of products, such as an ID that identifies a terminal device such as “AP11” or an ID that identifies a user such as “U1”. An ID for identifying such an object may be included. The “shopping list” indicates information relating to the product associated with the target. For example, the “shopping list” indicates the association between the product specified based on the first sensor information and the target.

「買物リスト」には、「商品」や「日時」といった項目が含まれる。例えば、「商品」は、グループにおいて決済が行われた商品を識別する情報を示す。また、「日時」は、対応する商品の決済が行われた日時を示す。なお、「日時」は、対応する商品の入力が行われた日時であってもよい。   The “shopping list” includes items such as “product” and “date and time”. For example, “product” indicates information for identifying a product for which payment has been made in the group. The “date and time” indicates the date and time when the corresponding product was settled. The “date and time” may be the date and time when the corresponding product is input.

なお、「買物リスト」には、「入力ユーザ」といった項目が含まれてもよい。「買物リスト」中の「入力ユーザ」は、対応する商品の指定を行ったユーザであってもよいし、対応する商品に対する意図を示したユーザであってもよい。例えば、「買物リスト」中の「入力ユーザ」は、第1センサ情報を検知されたユーザであってもよいし、第2センサ情報を検知されたユーザであってもよい。   The “shopping list” may include an item such as “input user”. The “input user” in the “shopping list” may be a user who specifies a corresponding product, or may be a user who indicates an intention for the corresponding product. For example, the “input user” in the “shopping list” may be a user whose first sensor information is detected or a user whose second sensor information is detected.

例えば、図6に示す例において、対象ID「AP11」により識別される対象は、「AP11」により識別される端末機器AP11であることを示す。例えば、図6に示す例において、「買物リスト」に示すように、商品ID「IT1」により識別される商品が日時「DT1」に端末機器AP11に対応する買物リストに追加されたことを示す。また、例えば、商品ID「IT14」により識別される商品が日時「DT12」に端末機器AP11に対応する買物リストに追加されたことを示す。   For example, in the example illustrated in FIG. 6, the target identified by the target ID “AP11” is the terminal device AP11 identified by “AP11”. For example, in the example illustrated in FIG. 6, as illustrated in the “shopping list”, the product identified by the product ID “IT1” is added to the shopping list corresponding to the terminal device AP11 at the date “DT1”. Further, for example, it indicates that the product identified by the product ID “IT14” is added to the shopping list corresponding to the terminal device AP11 at the date “DT12”.

なお、買物一覧情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、買物一覧情報記憶部124は、商品の金額に関する情報を記憶してもよい。例えば、買物一覧情報記憶部124は、「買物リスト」に加えて、決済が行われた商品に関する情報を示す「決済済リスト」や、ユーザの操作により決済が保留されている商品に関する情報を示す「保留リスト」等を記憶してもよい。   The shopping list information storage unit 124 is not limited to the above, and may store various information according to the purpose. For example, the shopping list information storage unit 124 may store information related to the amount of merchandise. For example, the shopping list information storage unit 124 indicates, in addition to the “shopping list”, a “settlement completed list” indicating information on products for which payment has been made, and information on products for which payment has been suspended by a user operation. A “hold list” or the like may be stored.

(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラム(決定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 2, the control unit 130 is a controller and is stored in a storage device inside the determination apparatus 100 by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs (corresponding to an example of a determination program) are implemented by using the RAM as a work area. The control unit 130 is a controller, and is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図2に示すように、制御部130は、第1受付部131と、第2受付部132と、推定部133と、決定部134と、送信部135とを有し、以下に説明する決定処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する決定処理を行う構成であれば他の構成であってもよい。   As shown in FIG. 2, the control unit 130 includes a first reception unit 131, a second reception unit 132, an estimation unit 133, a determination unit 134, and a transmission unit 135, and a determination process described below. Realize or execute the functions and operations of Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 2, and may be another configuration as long as the determination process described later is performed.

(第1受付部131)
第1受付部131は、各種情報を受け付ける。例えば、第1受付部131は、外部の情報処理装置から各種情報を受け付ける。例えば、第1受付部131は、第1センサSN1により検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。例えば、第1受付部131は、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付ける。例えば、第1受付部131は、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。
(First reception part 131)
The 1st reception part 131 receives various information. For example, the first receiving unit 131 receives various types of information from an external information processing apparatus. For example, the 1st reception part 131 is the 1st sensor information detected by 1st sensor SN1, Comprising: The 1st sensor information regarding the designation | designated of the user with respect to the goods or service displayed on the predetermined area | region is received. For example, the 1st reception part 131 receives the 1st sensor information detected by the infrared sensor as 1st sensor SN1. For example, the 1st reception part 131 receives the 1st sensor information regarding designation | designated of the user with respect to one goods or service among the goods or services displayed in multiple in the predetermined area | region.

図1では、第1受付部131は、端末機器AP11から第1センサ情報を受け付ける。図1の例では、第1受付部131は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報や、ユーザにより指定されたコンテンツがコンテンツCT11であることを示す情報を端末機器AP11から受け付ける。また、例えば、第1受付部131は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報のみを端末機器AP11から受け付けてもよい。   In FIG. 1, the 1st reception part 131 receives 1st sensor information from terminal device AP11. In the example of FIG. 1, the first receiving unit 131 indicates that the first sensor information indicating that the position specified by the user is the position (x1, y1) and that the content specified by the user is the content CT11. Information is received from the terminal device AP11. Further, for example, the first receiving unit 131 may receive only the first sensor information indicating that the position specified by the user is the position (x1, y1) from the terminal device AP11.

(第2受付部132)
第2受付部132は、各種情報を受け付ける。例えば、第2受付部132は、外部の情報処理装置から各種情報を受け付ける。例えば、第2受付部132は、第2センサSN2により検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。例えば、第2受付部132は、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付ける。
(Second reception part 132)
The 2nd reception part 132 receives various information. For example, the second reception unit 132 receives various types of information from an external information processing apparatus. For example, the 2nd reception part 132 is 2nd sensor information detected by 2nd sensor SN2, Comprising: The 2nd sensor information regarding a user's intention with respect to the goods or service specified based on 1st sensor information is received. For example, the 2nd reception part 132 receives the 2nd sensor information detected by the audio | voice sensor as 2nd sensor SN2.

図1では、第2受付部132は、端末機器AP11から第2センサ情報を受け付ける。図1の例では、第2受付部132は、ユーザの発話に関する第2センサ情報を端末機器AP11から受け付ける。例えば、第2受付部132は、発話PA11の音声情報を第2センサ情報として端末機器AP11から受け付ける。なお、第1受付部131と第2受付部132とは一体であってもよい。   In FIG. 1, the 2nd reception part 132 receives 2nd sensor information from terminal device AP11. In the example of FIG. 1, the 2nd reception part 132 receives the 2nd sensor information regarding a user's utterance from terminal device AP11. For example, the second reception unit 132 receives the voice information of the utterance PA11 from the terminal device AP11 as the second sensor information. The first reception unit 131 and the second reception unit 132 may be integrated.

(推定部133)
推定部133は、種々の情報の推定や特定を行う。例えば、推定部133は、第2センサ情報に基づいて購入対象に対するユーザの意図を推定する。例えば、推定部133は、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定してもよい。例えば、推定部133は、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに第2センサ情報を入力することにより、購入対象に対する当該ユーザの意図を推定してもよい。なお、この点についての詳細は後述する。
(Estimation unit 133)
The estimation unit 133 estimates and specifies various information. For example, the estimation unit 133 estimates the user's intention for the purchase target based on the second sensor information. For example, the estimation unit 133 may estimate the user's intention for the purchase target based on the model that varies depending on the user and the second sensor information. For example, the estimation unit 133 uses the model learned based on the user's intention estimated in the past and the information regarding the user's behavior with respect to the product or service whose processing mode is determined based on the intention. By inputting sensor information, the user's intention for the purchase target may be estimated. Details of this point will be described later.

図1の例では、推定部133は、端末機器AP11からの第1センサ情報に基づいてユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報と、コンテンツ情報記憶部122に記憶されたコンテンツ情報とに基づいて、ユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報と、コンテンツ情報記憶部122に記憶された各商品IT11〜IT15の範囲AR11〜AR15とに基づいて、ユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報の座標(x1,y1)が範囲AR11〜AR15のいずれかに含まれる場合、ユーザが指定した商品を特定する。図1の例では、推定部133は、第1センサ情報の座標(x1,y1)が範囲AR14に含まれるため、ユーザが指定した商品が商品IT14であると特定する。また、例えば、推定部133は、商品情報記憶部123に記憶された商品IDと商品名の対応に基づいて、商品IT14が商品名「かごA」であると特定する。   In the example of FIG. 1, the estimation unit 133 identifies the product designated by the user based on the first sensor information from the terminal device AP11. For example, the estimation unit 133 identifies the product designated by the user based on the first sensor information and the content information stored in the content information storage unit 122. For example, the estimation unit 133 identifies the product designated by the user based on the first sensor information and the ranges AR11 to AR15 of the products IT11 to IT15 stored in the content information storage unit 122. For example, when the coordinates (x1, y1) of the first sensor information are included in any of the ranges AR11 to AR15, the estimation unit 133 identifies the product designated by the user. In the example of FIG. 1, since the coordinates (x1, y1) of the first sensor information are included in the range AR14, the estimation unit 133 specifies that the product specified by the user is the product IT14. Further, for example, the estimating unit 133 specifies that the product IT14 is the product name “car A” based on the correspondence between the product ID and the product name stored in the product information storage unit 123.

また、図1の例では、推定部133は、端末機器AP11からの第2センサ情報に基づいてユーザの意図を推定する。例えば、推定部133は、受け付けた第2センサ情報を解析することにより、第1センサ情報に基づいて特定した商品IT14をユーザが購入することを希望していると推定する。例えば、推定部133は、第2センサ情報である発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11に「これ」という指示代名詞とその指示代名詞に対応する商品を購入することを希望していることを示す内容が含まれることを特定する。例えば、推定部133は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。   In the example of FIG. 1, the estimation unit 133 estimates the user's intention based on the second sensor information from the terminal device AP11. For example, the estimating unit 133 analyzes the received second sensor information, and estimates that the user desires to purchase the product IT14 specified based on the first sensor information. For example, the estimation unit 133 converts the voice information of the utterance PA11, which is the second sensor information, into character information, and corresponds to the indicating pronoun “this” and the indicating pronoun for the utterance PA11 based on the converted character information. Specify that it contains content that indicates that you wish to purchase the item. For example, the estimation unit 133 analyzes the character information of the utterance PA11 by appropriately using various conventional techniques such as syntax analysis, and thereby estimates that the user desires to purchase a product corresponding to the indicating pronoun. .

例えば、推定部133は、第2センサ情報に基づいて、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。また、図1の例では、推定部133は、ユーザが指定した商品が商品IT14であると特定しているため、ユーザが商品IT14であるかごAを購入することを希望していると推定する。   For example, the estimation unit 133 estimates that the user desires to purchase a product corresponding to the indicating pronoun based on the second sensor information. Further, in the example of FIG. 1, since the estimation unit 133 specifies that the product designated by the user is the product IT14, the estimation unit 133 estimates that the user desires to purchase the car A that is the product IT14. .

(決定部134)
決定部134は、種々の決定を行う。例えば、決定部134は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定する。
(Determining unit 134)
The determination unit 134 makes various determinations. For example, the determination unit 134 determines, based on the second sensor information, a processing mode related to a purchase target that is a product or service specified based on the first sensor information. For example, the determination unit 134 determines to add the purchase target to the predetermined list when the user's intention estimated based on the second sensor information satisfies a predetermined condition. For example, when the user's intention estimated based on the second sensor information indicates purchase of a purchase target, the determination unit 134 determines to perform payment for the purchase target. For example, when the user's intention estimated based on the second sensor information indicates an interest in the purchase target, the determination unit 134 determines to add the purchase target to the hold list.

図1の例では、決定部134は、推定部133により推定されたユーザの商品IT14に対する意図に応じて、商品IT14に関する処理態様を決定する。例えば、決定部134は、ユーザが商品IT14であるかごAを購入することを希望していると推定されるため、商品IT14を所定の買物リストに追加すると決定する。例えば、決定部134は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。例えば、決定部134は、買物一覧情報記憶部124に示すように、端末機器AP11に対応付けられた買物リストに商品IT14を追加する。端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。図1の例では、決定部134は、第1センサ情報に基づいて特定される商品IT14に関する処理態様を、第2センサ情報に基づいて決定する。   In the example of FIG. 1, the determination unit 134 determines a processing mode related to the product IT14 according to the user's intention for the product IT14 estimated by the estimation unit 133. For example, since it is presumed that the user desires to purchase the car A that is the product IT14, the determination unit 134 determines to add the product IT14 to a predetermined shopping list. For example, the determination unit 134 determines to add the product IT14 to the shopping list associated with the terminal device AP11. For example, as illustrated in the shopping list information storage unit 124, the determination unit 134 adds the product IT14 to the shopping list associated with the terminal device AP11. It is determined that the product IT14 is added to the shopping list associated with the terminal device AP11. In the example of FIG. 1, the determination unit 134 determines a processing mode related to the product IT14 specified based on the first sensor information based on the second sensor information.

(送信部135)
送信部135は、各種情報を送信する。例えば、送信部135は、各種情報を外部の情報処理装置へ送信する。例えば、送信部135は、買物一覧情報記憶部124中の買物リストに商品が追加された場合、所定のタイミングでユーザが利用する種々の装置に商品の追加に関する情報を送信してもよい。例えば、送信部135は、端末機器AP11に買物リストに追加された商品に関する情報を送信し、端末機器AP11は、所定のタイミングで受信した商品に関する情報を出力してもよい。例えば、端末機器AP11は、ユーザが買物に関する行動を終了した後に、端末機器AP11を再び利用するタイミングで商品に関する情報を表示してもよい。
(Transmitter 135)
The transmission unit 135 transmits various information. For example, the transmission unit 135 transmits various types of information to an external information processing apparatus. For example, when a product is added to the shopping list in the shopping list information storage unit 124, the transmission unit 135 may transmit information regarding addition of the product to various devices used by the user at a predetermined timing. For example, the transmission unit 135 may transmit information about the product added to the shopping list to the terminal device AP11, and the terminal device AP11 may output information about the product received at a predetermined timing. For example, the terminal device AP11 may display information about the product at a timing when the user uses the terminal device AP11 again after the user finishes the action regarding shopping.

〔3.処理フロー〕
次に、図7を用いて、実施形態に係る決定システム1による決定処理の手順について説明する。図7は、実施形態に係る決定処理の一例を示すフローチャートである。
[3. Processing flow
Next, the procedure of the determination process by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment.

図7に示すように、決定装置100の第1受付部131は、ユーザの商品の指定に関する第1センサ情報を受け付ける(ステップS101)。図1の例では、第1受付部131は、端末機器AP11からユーザがかごAを指定したことを示す第1センサ情報を受け付ける。   As illustrated in FIG. 7, the first reception unit 131 of the determination device 100 receives first sensor information related to the user's product specification (step S <b> 101). In the example of FIG. 1, the 1st reception part 131 receives the 1st sensor information which shows that the user designated the car A from terminal device AP11.

そして、決定装置100の第2受付部132は、ユーザの商品の購入意思に関する第2センサ情報を受け付ける(ステップS102)。図1の例では、第2受付部132は、端末機器AP11からユーザがかごAの購入する意図があることを示す第2センサ情報を受け付ける。   And the 2nd reception part 132 of the determination apparatus 100 receives the 2nd sensor information regarding the purchase intention of a user's goods (step S102). In the example of FIG. 1, the second receiving unit 132 receives second sensor information indicating that the user intends to purchase the car A from the terminal device AP11.

その後、決定装置100の決定部134は、第1センサ情報に基づいて特定される商品またはサービスに関する処理態様を、第2センサ情報に基づいて決定する(ステップS103)。図1の例では、決定部134は、ユーザにより指定されたかごAを買物一覧情報記憶部124中の買物リストに追加する。   Then, the determination part 134 of the determination apparatus 100 determines the process aspect regarding the goods or service specified based on 1st sensor information based on 2nd sensor information (step S103). In the example of FIG. 1, the determination unit 134 adds the basket A designated by the user to the shopping list in the shopping list information storage unit 124.

〔4.変形例〕
例えば、変形例に係る決定装置100Aは、モデルを生成し、生成したモデルを用いてユーザの意図を推定してもよい。この点を図8及び図9を用いて説明する。なお、実施形態と同様の構成については、同一の符号を付して説明を省略する。
[4. (Modification)
For example, the determination apparatus 100A according to the modification may generate a model and estimate the user's intention using the generated model. This point will be described with reference to FIGS. In addition, about the structure similar to embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

〔4−1.決定装置の構成〕
次に、図8を用いて、変形例に係る決定装置100Aの構成について説明する。図8は、変形例に係る決定装置の構成例を示す図である。図8に示すように、決定装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、決定装置100Aは、決定装置100Aの管理者等から各種操作を取得する入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[4-1. Configuration of decision device]
Next, the configuration of the determination apparatus 100A according to the modification will be described with reference to FIG. FIG. 8 is a diagram illustrating a configuration example of a determination device according to a modification. As illustrated in FIG. 8, the determination apparatus 100A includes a communication unit 110, a storage unit 120A, and a control unit 130A. The determination device 100A includes an input unit (for example, a keyboard and a mouse) that acquires various operations from an administrator of the determination device 100A and a display unit (for example, a liquid crystal display) that displays various types of information. May be.

(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図8に示すように、デバイス情報記憶部121やコンテンツ情報記憶部122や商品情報記憶部123や買物一覧情報記憶部124やモデル情報記憶部125を有する。
(Storage unit 120A)
The storage unit 120A is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 8, the storage unit 120A according to the modification includes a device information storage unit 121, a content information storage unit 122, a product information storage unit 123, a shopping list information storage unit 124, and a model information storage unit 125.

(モデル情報記憶部125)
変形例に係るモデル情報記憶部125は、学習に関する情報を記憶する。例えば、モデル情報記憶部125は、複数のモデル情報を記憶する。図9は、実施形態に係るモデル情報記憶部の一例を示す図である。図9に示すモデル情報記憶部125は、モデル情報として、各モデルM1、M2等に対応させて「素性1」〜「素性3」等といった項目を有する。
(Model information storage unit 125)
The model information storage unit 125 according to the modification stores information related to learning. For example, the model information storage unit 125 stores a plurality of model information. FIG. 9 is a diagram illustrating an example of a model information storage unit according to the embodiment. The model information storage unit 125 illustrated in FIG. 9 includes items such as “feature 1” to “feature 3” corresponding to each model M1, M2, and the like as model information.

例えば、図9に示す例において、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。また、例えば、図9に示す例において、モデルM2に関するモデル情報は、素性1の重みが「−0.3」、素性2の重みが「0.1」、素性3の重みが「−0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。   For example, in the example illustrated in FIG. 9, the model information regarding the model M1 includes feature 1 weight “0.5”, feature 2 weight “−0.4”, feature 3 weight “0.2”, and the like. Indicates that Further, for example, in the example illustrated in FIG. 9, the model information regarding the model M <b> 2 has a feature 1 weight of “−0.3”, a feature 2 weight of “0.1”, and a feature 3 weight of “−0. 2 "etc. For example, when the feature (feature value) of the model is expressed by an m-dimensional vector, the number of features is m, and the weights of the features 1 to m are stored.

なお、モデル情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。   The model information storage unit 125 is not limited to the above, and may store various model information according to the purpose.

(制御部130A)
図8の説明に戻って、制御部130Aは、コントローラであり、例えば、CPUやMPU等によって、決定装置100A内部の記憶装置に記憶されている各種プログラム(決定プログラムや学習プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130A)
Returning to the description of FIG. 8, the control unit 130A is a controller, and for example, various programs (corresponding to examples of a determination program and a learning program) stored in a storage device inside the determination device 100A by a CPU, an MPU, or the like. Is implemented by using the RAM as a work area. The control unit 130A is a controller, and is realized by an integrated circuit such as an ASIC or FPGA, for example.

図8に示すように、制御部130Aは、第1受付部131と、第2受付部132と、推定部133Aと、決定部134と、送信部135と、学習部136を有し、以下に説明する情報処理の機能や作用を実現または実行する。   As shown in FIG. 8, the control unit 130A includes a first reception unit 131, a second reception unit 132, an estimation unit 133A, a determination unit 134, a transmission unit 135, and a learning unit 136. Implement or execute the functions and operations of the information processing described.

(学習部136)
学習部136は、種々の情報を学習する。例えば、学習部136は、種々の情報に基づいてモデルを生成する。例えば、学習部136は、過去に推定されたユーザの意図と、その意図に基づいて処理態様が決定された商品に対するユーザの行動に関する情報とに基づいて学習する。
(Learning unit 136)
The learning unit 136 learns various information. For example, the learning unit 136 generates a model based on various information. For example, the learning unit 136 learns based on the user's intention estimated in the past and information on the user's behavior with respect to the product whose processing mode is determined based on the intention.

例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入した場合、その情報を正例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入した場合の第2センサ情報を正例として学習を行なってもよい。   For example, when the user's intention is estimated to be purchase intention and the user purchases a product added to the shopping list, the learning unit 136 may perform learning using the information as a positive example. For example, the learning unit 136 may perform learning using the second sensor information when the user's intention is estimated to be a purchase intention and the user has purchased a product added to the shopping list as a positive example.

例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入しなかった場合、その情報を負例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入しなかった場合の第2センサ情報を負例として学習を行なってもよい。   For example, the learning unit 136 may perform learning using the information as a negative example when it is estimated that the user's intention is to purchase and the user has not purchased a product added to the shopping list. For example, the learning unit 136 may perform learning by using the second sensor information as a negative example when the user's intention is presumed to be purchase and the user does not purchase a product added to the shopping list. .

例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入しなかった場合、その情報を正例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入しなかった場合の第2センサ情報を正例として学習を行なってもよい。   For example, when the user's intention is not intended to purchase and the user does not purchase a product that has not been added to the shopping list, the learning unit 136 may perform learning using the information as a positive example. For example, the learning unit 136 may perform learning using the second sensor information as a positive example when the user's intention is not intended to purchase and the user has not purchased a product that has not been added to the shopping list. Good.

例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入した場合、その情報を負例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入した場合の第2センサ情報を負例として学習を行なってもよい。   For example, when the user purchases a product that is presumed that the user's intention is not the purchase intention and has not been added to the shopping list, the learning unit 136 may perform learning using the information as a negative example. For example, the learning unit 136 may perform learning by using second sensor information as a negative example when the user purchases a product that is presumed that the user's intention is not the intention to purchase and has not been added to the shopping list.

例えば、学習部136は、ユーザの意図が購入意図である可能性が高い程、大きい値を出力するモデルを生成してもよい。また、学習部136は、ユーザの意図が購入意図である可能性が低い程、小さい値を出力するモデルを生成してもよい。例えば、学習部136は、ユーザの意図が購入意図である可能性が高い程1に近く、ユーザの意図が購入意図である可能性が低い程0に近い値(スコア)を出力するモデルを生成してもよい。   For example, the learning unit 136 may generate a model that outputs a larger value as the user's intention is more likely to be a purchase intention. The learning unit 136 may generate a model that outputs a smaller value as the user's intention is less likely to be a purchase intention. For example, the learning unit 136 generates a model that outputs a value (score) closer to 1 as the user's intention is more likely to be a purchase intention and closer to 0 as the user's intention is less likely to be a purchase intention. May be.

例えば、学習部136は、ユーザ毎にモデルを生成してもよい。例えば、学習部136は、推定部133Aにより特定されたユーザ毎にモデルを生成してもよい。また、例えば、学習部136は、ユーザ分類毎にモデルを生成してもよい。例えば、学習部136は、30代男性や20代女性等の種々のユーザ分類毎にモデルを生成してもよい。例えば、学習部136は、推定部133Aにより特定されたユーザの属性に基づいて、ユーザ分類毎にモデルを生成してもよい。また、学習部136は、複数のモデルに限らず、全ユーザに共通して用いる1つのモデルを生成してもよい。なお、上記は一例であり、学習部136は、どのような情報に基づいてモデルを生成してもよい。例えば、学習部136は、第1センサ情報と第2センサ情報との入力として、スコアを出力するモデルを生成してもよい。   For example, the learning unit 136 may generate a model for each user. For example, the learning unit 136 may generate a model for each user specified by the estimation unit 133A. For example, the learning unit 136 may generate a model for each user classification. For example, the learning unit 136 may generate a model for each of various user classifications such as males in their 30s and females in their 20s. For example, the learning unit 136 may generate a model for each user classification based on the user attribute specified by the estimation unit 133A. The learning unit 136 is not limited to a plurality of models, and may generate one model that is commonly used by all users. Note that the above is an example, and the learning unit 136 may generate a model based on any information. For example, the learning unit 136 may generate a model that outputs a score as input of the first sensor information and the second sensor information.

(推定部133A)
推定部133Aは、学習部136において生成されたモデルを用いて、ユーザの意図の推定を行う。例えば、推定部133Aは、モデルに第2センサ情報を入力することにより出力されたスコアに基づいて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、モデルに第2センサ情報や第1センサ情報を入力することにより出力されたスコアに基づいて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、種々の従来技術を適宜用いて、第2センサ情報が検知されたユーザを特定し、特定したユーザに応じて選択されるモデルを用いて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、第2センサ情報である音声情報を解析することにより、発話を行ったユーザを特定し、特定したユーザに応じて選択されるモデルを用いて、ユーザの意図の推定を行ってもよい。
(Estimation unit 133A)
The estimation unit 133A estimates the user's intention using the model generated by the learning unit 136. For example, the estimation unit 133A may estimate the user's intention based on the score output by inputting the second sensor information to the model. For example, the estimation unit 133A may perform estimation of the user's intention based on the score output by inputting the second sensor information or the first sensor information to the model. For example, the estimation unit 133A uses various conventional techniques as appropriate to identify a user whose second sensor information is detected, and estimates a user's intention using a model selected according to the identified user. May be. For example, the estimation unit 133A analyzes the voice information that is the second sensor information to identify the user who made the utterance, and uses the model selected according to the identified user to estimate the user's intention. You may go.

例えば、推定部133Aは、モデルが出力したスコアが所定の閾値以上である場合、ユーザの意図を購入意図と推定してもよい。また、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満である場合、ユーザの意図を購入意図ではないと推定してもよい。また、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満の所定の範囲内である場合、ユーザの意図を購入検討の意図であると推定してもよい。この場合、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満の所定の範囲よりもさらに低い場合、ユーザの意図を購入の意図が無いと推定してもよい。   For example, the estimation unit 133A may estimate the user's intention as a purchase intention when the score output by the model is equal to or greater than a predetermined threshold. For example, the estimation unit 133A may estimate that the user's intention is not a purchase intention when the score output by the model is less than a predetermined threshold. Further, for example, the estimation unit 133A may estimate that the user's intention is the intention of the purchase examination when the score output by the model is within a predetermined range that is less than a predetermined threshold. In this case, for example, when the score output by the model is further lower than a predetermined range less than a predetermined threshold, the estimation unit 133A may estimate that the user's intention is not intended to purchase.

なお、ユーザの意図の推定に用いるモデルを外部の情報処理装置から取得する場合、決定装置100Aは、学習部136を有しなくてもよい。   Note that, when a model used for estimating the user's intention is acquired from an external information processing apparatus, the determination apparatus 100A may not include the learning unit 136.

〔5.効果〕
上述してきたように、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1受付部131と、第2受付部132と、決定部134とを有する。第1受付部131は、第1センサSN1により検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。第2受付部132は、第2センサSN2により検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。決定部134は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。
[5. effect〕
As described above, the determination device 100 according to the embodiment and the determination device 100A according to the modification include the first reception unit 131, the second reception unit 132, and the determination unit 134. The 1st reception part 131 is the 1st sensor information detected by 1st sensor SN1, Comprising: The 1st sensor information regarding the designation | designated of the user with respect to the goods or service displayed on the predetermined area | region is received. The 2nd reception part 132 is 2nd sensor information detected by 2nd sensor SN2, Comprising: The 2nd sensor information regarding a user's intention with respect to the goods or service specified based on 1st sensor information is received. The determination part 134 determines the process aspect regarding the purchase target which is a goods or service specified based on 1st sensor information based on 2nd sensor information.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1センサ情報に基づいて商品またはサービスを特定し、特定した商品またはサービスに対するユーザの意図に関する第2センサ情報に基づいて推定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification specify the product or service based on the first sensor information, and based on the second sensor information related to the user's intention for the specified product or service. Can be estimated. Thereby, the determination apparatuses 100 and 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定する。   In addition, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the determination unit 134 determines that the purchase target is predetermined when the user's intention estimated based on the second sensor information satisfies a predetermined condition. Decide to add to the list.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification add the purchase target to the predetermined list when the user's intention estimated based on the second sensor information satisfies the predetermined condition. By determining, it is possible to appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定する。   Further, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the determination unit 134 determines whether the purchase target is purchased when the user's intention estimated based on the second sensor information indicates purchase of the purchase target. Decide to make a payment.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modified example perform settlement of the purchase target when the intention of the user estimated based on the second sensor information indicates purchase of the purchase target. By determining, it is possible to appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定する。   In addition, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the determination unit 134 determines that the purchase target is obtained when the user's intention estimated based on the second sensor information indicates interest in the purchase target. To add to the pending list.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modified example place the purchase target in the hold list when the intention of the user estimated based on the second sensor information indicates interest in the purchase target. By determining to add, the processing mode regarding goods or a service can be determined appropriately.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第1受付部131は、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付ける。   In the determination device 100 according to the embodiment and the determination device 100A according to the modification, the first reception unit 131 receives first sensor information detected by an infrared sensor as the first sensor SN1.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付けることにより、ユーザが指定した商品またはサービスを適切に特定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification appropriately receive the first sensor information detected by the infrared sensor as the first sensor SN1, thereby appropriately specifying the product or service designated by the user. Can be specified. Thereby, the determination apparatuses 100 and 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第2受付部132は、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付ける。   In the determination device 100 according to the embodiment and the determination device 100A according to the modification, the second reception unit 132 receives second sensor information detected by a voice sensor as the second sensor SN2.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付けることにより、特定した商品またはサービスに対するユーザの意図をユーザの音声に基づいて推定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification receive the second sensor information detected by the voice sensor as the second sensor SN2, and thereby the user's intention for the specified product or service. Can be estimated based on the user's voice. Thereby, the determination apparatuses 100 and 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第1受付部131は、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。   Further, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the first reception unit 131 relates to a user designation for one product or service among a plurality of products or services displayed in a predetermined area. The first sensor information is received.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付けることにより、複数の対象が表示される場合であっても、ユーザが指定した商品またはサービスを適切に特定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification receive first sensor information related to the designation of a user for one product or service among a plurality of products or services displayed in a predetermined area. Thus, even when a plurality of objects are displayed, the product or service designated by the user can be appropriately specified. Thereby, the determination apparatuses 100 and 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、推定部133、133Aを有する。推定部133、133Aは、第2センサ情報に基づいて購入対象に対するユーザの意図を推定する。   Moreover, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification include estimation units 133 and 133A. The estimation units 133 and 133A estimate the user's intention with respect to the purchase target based on the second sensor information.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて購入対象に対するユーザの意図を推定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modified example appropriately determine the processing mode related to the product or service by estimating the user's intention for the purchase target based on the second sensor information. be able to.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、推定部133、133Aは、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定する。   In addition, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the estimation units 133 and 133A determine the intention of the user with respect to the purchase target based on the model that varies depending on the user and the second sensor information. presume.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modified example estimate the user's intention with respect to the purchase target based on the model that varies depending on the user and the second sensor information. Alternatively, the processing mode related to the service can be appropriately determined.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、推定部133、133Aは、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに第2センサ情報を入力することにより、購入対象に対する当該ユーザの意図を推定する。   In addition, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the estimation units 133 and 133A include a user's intention estimated in the past and a product or service whose processing mode is determined based on the intention. The second sensor information is input to a model learned based on information on the user's behavior with respect to the user's behavior, and the user's intention with respect to the purchase target is estimated.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルを用いることにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modified example relate to the user's intention estimated in the past and the user's behavior with respect to the product or service whose processing mode is determined based on the intention. By using the model learned based on the information, it is possible to appropriately determine the processing mode related to the product or service.

〔6.ハードウェア構成〕
上述してきた実施形態に係る決定装置100及び変形例に係る決定装置100Aは、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、決定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration)
The determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification described above are realized by a computer 1000 having a configuration illustrated in FIG. 10, for example. FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the determination apparatus. The computer 1000 includes a CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I / F) 1500, input / output interface (I / F) 1600, and media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が決定装置100、100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130、130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the determination devices 100 and 100A, the CPU 1100 of the computer 1000 implements the functions of the control units 130 and 130A by executing a program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them. However, as another example, these programs may be acquired from other devices via the network N.

以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various aspects can be made based on the knowledge of those skilled in the art including the aspects described in the disclosure line of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. Others]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the above-described embodiments and modifications can be combined as appropriate within a range that does not contradict processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、第1受付部は、第1受付手段や第1受付回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the first reception unit can be read as first reception means or a first reception circuit.

1 決定システム
100 決定装置
121 デバイス情報記憶部
122 コンテンツ情報記憶部
123 商品情報記憶部
124 買物一覧情報記憶部
130 制御部
131 第1受付部
132 第2受付部
133 推定部
134 決定部
135 送信部
AP11 端末機器
SN1 第1センサ
SN2 第2センサ
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Determination system 100 Determination apparatus 121 Device information storage part 122 Content information storage part 123 Merchandise information storage part 124 Shopping list information storage part 130 Control part 131 1st reception part 132 2nd reception part 133 Estimation part 134 Determination part 135 Transmission part AP11 Terminal equipment SN1 First sensor SN2 Second sensor N Network

Claims (12)

商品またはサービスが投影される投影面に対するユーザの指示を検知する第1センサにより検知される第1センサ情報であって、前記投影面に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付部と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付部と
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記第2センサ情報に基づいて決定する決定部と、
を備えたことを特徴とする決定装置。
First sensor information detected by a first sensor that detects a user's instruction on a projection surface on which a product or service is projected, the first sensor information relating to a user designation for the product or service displayed on the projection surface A first reception unit for receiving
A second receiving unit that receives second sensor information relating to a user's intention with respect to a product or service identified based on the first sensor information, the second sensor information being detected by a second sensor ;
A determination unit that determines, based on the second sensor information, a processing mode related to a purchase target that is a product or service specified based on the first sensor information ;
A determination apparatus comprising:
前記決定部は、
前記第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、前記購入対象を所定のリストに追加すると決定する
ことを特徴とする請求項1に記載の決定装置。
The determination unit
The determination apparatus according to claim 1, wherein when the user's intention estimated based on the second sensor information satisfies a predetermined condition, it is determined to add the purchase target to a predetermined list.
前記決定部は、
前記第2センサ情報に基づいて推定されるユーザの意図が、前記購入対象の購入を示す場合、前記購入対象の決済を行うと決定する
ことを特徴とする請求項1または請求項2に記載の決定装置。
The determination unit
3. The method according to claim 1, wherein when the intention of the user estimated based on the second sensor information indicates purchase of the purchase target, the purchase target is determined to be settled. Decision device.
前記決定部は、
前記第2センサ情報に基づいて推定されるユーザの意図が、前記購入対象への関心を示す場合、前記購入対象を保留リストに追加すると決定する
ことを特徴とする請求項1〜3のいずれか1項に記載の決定装置。
The determination unit
The user's intention estimated based on the second sensor information indicates that the purchase target is added to the holding list when the user's intention indicates interest in the purchase target. The determination apparatus according to item 1.
前記第1受付部は、
前記第1センサとしての赤外線センサにより検知される前記第1センサ情報を受け付ける
ことを特徴とする請求項1〜4のいずれか1項に記載の決定装置。
The first reception unit
The determination apparatus according to any one of claims 1 to 4, wherein the first sensor information detected by an infrared sensor as the first sensor is received.
前記第2受付部は、
前記第2センサとしての音声センサにより検知される前記第2センサ情報を受け付ける
ことを特徴とする請求項1〜5のいずれか1項に記載の決定装置。
The second reception unit
The determination apparatus according to any one of claims 1 to 5, wherein the second sensor information detected by a voice sensor as the second sensor is received.
前記第1受付部は、
前記投影面に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける
ことを特徴とする請求項1〜6のいずれか1項に記載の決定装置。
The first reception unit
7. The determination device according to claim 1, wherein first sensor information related to a user designation for one product or service among a plurality of products or services displayed on the projection plane is received. .
前記第2センサ情報に基づいて前記購入対象に対するユーザの意図を推定する推定部、An estimation unit that estimates a user's intention for the purchase target based on the second sensor information;
をさらに備えることを特徴とする請求項1〜7のいずれか1項に記載の決定装置。The determination apparatus according to claim 1, further comprising:
前記推定部は、
ユーザに応じて変動するモデルと前記第2センサ情報とに基づいて、前記購入対象に対するユーザの意図を推定する
ことを特徴とする請求項に記載の決定装置。
The estimation unit includes
The determination apparatus according to claim 8 , wherein the intention of the user with respect to the purchase target is estimated based on a model that varies depending on the user and the second sensor information.
前記推定部は、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに前記第2センサ情報を入力することにより、前記購入対象に対する当該ユーザの意図を推定する
ことを特徴とする請求項に記載の決定装置。
The estimation unit includes
Inputting the second sensor information into a model learned based on a user's intention estimated in the past and information on the user's behavior with respect to a product or service whose processing mode is determined based on the intention; The determination device according to claim 9 , wherein the intention of the user with respect to the purchase target is estimated.
コンピュータが実行する決定方法であって、
商品またはサービスが投影される投影面に対するユーザの指示を検知する第1センサにより検知される第1センサ情報であって、前記投影面に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付工程と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付工程と
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記第2センサ情報に基づいて決定する決定工程と、
を含んだことを特徴とする決定方法。
A decision method performed by a computer,
First sensor information detected by a first sensor that detects a user's instruction on a projection surface on which a product or service is projected, the first sensor information relating to a user designation for the product or service displayed on the projection surface A first reception step of receiving
A second receiving step of receiving second sensor information relating to a user's intention with respect to a product or service identified based on the first sensor information, the second sensor information being detected by a second sensor ;
A determination step of determining a processing mode related to a purchase target, which is a product or service specified based on the first sensor information, based on the second sensor information;
The determination method characterized by including.
商品またはサービスが投影される投影面に対するユーザの指示を検知する第1センサにより検知される第1センサ情報であって、前記投影面に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付手順と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付手順と
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記第2センサ情報に基づいて決定する決定手順と、
をコンピュータに実行させることを特徴とする決定プログラム。
First sensor information detected by a first sensor that detects a user's instruction on a projection surface on which a product or service is projected, the first sensor information relating to a user designation for the product or service displayed on the projection surface A first acceptance procedure for accepting
A second reception procedure for receiving second sensor information relating to a user's intention with respect to a product or service identified based on the first sensor information, the second sensor information being detected by a second sensor ;
A determination procedure for determining, based on the second sensor information, a processing mode related to a purchase target that is a product or service specified based on the first sensor information ;
A determination program characterized by causing a computer to execute.
JP2016210635A 2016-10-27 2016-10-27 Determination apparatus, determination method, and determination program Active JP6240291B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016210635A JP6240291B1 (en) 2016-10-27 2016-10-27 Determination apparatus, determination method, and determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016210635A JP6240291B1 (en) 2016-10-27 2016-10-27 Determination apparatus, determination method, and determination program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017203679A Division JP6546244B2 (en) 2017-10-20 2017-10-20 DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM

Publications (2)

Publication Number Publication Date
JP6240291B1 true JP6240291B1 (en) 2017-11-29
JP2018073046A JP2018073046A (en) 2018-05-10

Family

ID=60477220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016210635A Active JP6240291B1 (en) 2016-10-27 2016-10-27 Determination apparatus, determination method, and determination program

Country Status (1)

Country Link
JP (1) JP6240291B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191795A (en) * 2018-04-23 2019-10-31 和夫 金子 Customer service support system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044756A (en) * 2001-07-26 2003-02-14 Kenichi Omae On-line shopping method, shopping site, voice recognizing device and voice recognition supporting device
JP2005018376A (en) * 2003-06-25 2005-01-20 K & L Interactive:Kk Shopping information providing system
JP2007264747A (en) * 2006-03-27 2007-10-11 Casio Comput Co Ltd Merchandise transaction system and merchandise retrieval method
JP2014035633A (en) * 2012-08-08 2014-02-24 Fujitsu Frontech Ltd Drive-through management device, drive-through management method, drive-through management program, and drive-through management system
JP2014052987A (en) * 2012-09-10 2014-03-20 Pc Depot Corp Purchasing system, set-top box, and program
JP2014178909A (en) * 2013-03-15 2014-09-25 Plus Corp Commerce system
JP2014229278A (en) * 2013-05-27 2014-12-08 株式会社東芝 Electronic apparatus, method, and program
JP2015111344A (en) * 2013-12-06 2015-06-18 株式会社Nttドコモ Shopping support device and shopping support method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044756A (en) * 2001-07-26 2003-02-14 Kenichi Omae On-line shopping method, shopping site, voice recognizing device and voice recognition supporting device
JP2005018376A (en) * 2003-06-25 2005-01-20 K & L Interactive:Kk Shopping information providing system
JP2007264747A (en) * 2006-03-27 2007-10-11 Casio Comput Co Ltd Merchandise transaction system and merchandise retrieval method
JP2014035633A (en) * 2012-08-08 2014-02-24 Fujitsu Frontech Ltd Drive-through management device, drive-through management method, drive-through management program, and drive-through management system
JP2014052987A (en) * 2012-09-10 2014-03-20 Pc Depot Corp Purchasing system, set-top box, and program
JP2014178909A (en) * 2013-03-15 2014-09-25 Plus Corp Commerce system
JP2014229278A (en) * 2013-05-27 2014-12-08 株式会社東芝 Electronic apparatus, method, and program
JP2015111344A (en) * 2013-12-06 2015-06-18 株式会社Nttドコモ Shopping support device and shopping support method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191795A (en) * 2018-04-23 2019-10-31 和夫 金子 Customer service support system
WO2019208327A1 (en) * 2018-04-23 2019-10-31 Kaneko Kazuo Customer service assistance system

Also Published As

Publication number Publication date
JP2018073046A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
US12020701B2 (en) Detection of mission change in conversation
US11775844B2 (en) Visual aspect localization presentation
US20220116340A1 (en) Electronic device and method for changing chatbot
US11100054B2 (en) Digital image suitability determination to generate AR/VR digital content
US10795641B2 (en) Information processing device and information processing method
US10853747B2 (en) Selection of computational agent for task performance
US9690457B2 (en) Virtual reality applications
JP2019535037A (en) Synthetic Speech Selection for Agents by Computer
JP6633211B2 (en) Product purchase support system, product purchase support method, and program
US11875241B2 (en) Aspect pre-selection using machine learning
KR20200006103A (en) Determining an agent to perform an action based at least in part on image data
US20160139777A1 (en) Screenshot based indication of supplemental information
US10817923B2 (en) Information providing system, information providing apparatus, information providing method, and program
US20220300066A1 (en) Interaction method, apparatus, device and storage medium
JP6831898B2 (en) Product purchase support system, product purchase support method, and program
KR20240110537A (en) Operating method for providing page information and electronic apparatus supporting thereof
US20170293938A1 (en) Interactive competitive advertising commentary
JP6240291B1 (en) Determination apparatus, determination method, and determination program
KR20200013164A (en) Electronic apparatus and controlling method thereof
KR102254570B1 (en) Joint order processing apparatus for food materials
JP6546244B2 (en) DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM
US20220108694A1 (en) Method and appartaus for supporting voice instructions
JP7018850B2 (en) Terminal device, decision method, decision program and decision device
CN109685582A (en) Pricing information acquisition, output method and device, storage medium and electronic equipment
KR102642268B1 (en) Apparatus and method for processing shared task

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171102

R150 Certificate of patent or registration of utility model

Ref document number: 6240291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350