JP6546244B2 - DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM - Google Patents

DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM Download PDF

Info

Publication number
JP6546244B2
JP6546244B2 JP2017203679A JP2017203679A JP6546244B2 JP 6546244 B2 JP6546244 B2 JP 6546244B2 JP 2017203679 A JP2017203679 A JP 2017203679A JP 2017203679 A JP2017203679 A JP 2017203679A JP 6546244 B2 JP6546244 B2 JP 6546244B2
Authority
JP
Japan
Prior art keywords
user
product
intention
sensor information
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017203679A
Other languages
Japanese (ja)
Other versions
JP2018073410A (en
Inventor
千惠 菊池
千惠 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017203679A priority Critical patent/JP6546244B2/en
Publication of JP2018073410A publication Critical patent/JP2018073410A/en
Application granted granted Critical
Publication of JP6546244B2 publication Critical patent/JP6546244B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、決定装置、決定方法、及び決定プログラムに関する。   The present invention relates to a determination apparatus, a determination method, and a determination program.

近年、オンラインショッピング等の電子商取引に関する種々の技術が提供されている。例えば、ユーザ端末により音声認識された手続きワードに基づいて購入に関する処理を行う技術が提供されている。   In recent years, various techniques related to electronic commerce such as online shopping have been provided. For example, there is provided a technology for performing processing related to purchase based on a procedure word that is voice-recognized by a user terminal.

特開2003−44756号公報Japanese Patent Application Publication No. 2003-44756 特開2014−186214号公報JP, 2014-186214, A

しかしながら、上記の従来技術では商品またはサービスに関する処理態様を適切に決定することが難しい。例えば、手続きワードを用いる場合、予め手続きワードを設定する必要があり、商品またはサービスに関する処理態様を適切に決定することが難しい。   However, in the above-mentioned prior art, it is difficult to appropriately determine the processing mode regarding the product or service. For example, in the case of using a procedure word, it is necessary to set the procedure word in advance, and it is difficult to appropriately determine the processing mode regarding the product or service.

本願は、上記に鑑みてなされたものであって、商品またはサービスに関する処理態様を適切に決定する決定装置、決定方法、及び決定プログラムを提供することを目的とする。   The present application is made in view of the above, and an object of the present application is to provide a determination device, a determination method, and a determination program for appropriately determining a processing mode regarding a product or service.

本願に係る決定装置は、第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付部と、第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付部と、前記第2センサ情報に基づいて、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図を推定する推定部と、前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定部の推定結果に基づいて決定する決定部と、を備えたことを特徴とする。   A determination apparatus according to the present application is a first reception unit that receives first sensor information regarding specification of a user for a product or service displayed in a predetermined area, which is first sensor information detected by a first sensor; A second reception unit that receives second sensor information that is the second sensor information detected by the second sensor and that is the user's intention for the product or service specified based on the first sensor information; and the second sensor information Based on the first sensor information, an estimation unit for estimating the user's intention for the product or service identified based on the first sensor information, and a processing aspect related to a purchase target that is the product or service identified based on the first sensor information And a determination unit that determines based on the estimation result of the estimation unit.

実施形態の一態様によれば、商品またはサービスに関する処理態様を適切に決定することができるという効果を奏する。   According to one aspect of the embodiment, it is possible to appropriately determine the processing mode related to a product or service.

図1は、実施形態に係る決定処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of the determination process according to the embodiment. 図2は、実施形態に係る決定装置の構成例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the determination apparatus according to the embodiment. 図3は、実施形態に係るデバイス情報記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a device information storage unit according to the embodiment. 図4は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of the content information storage unit according to the embodiment. 図5は、実施形態に係る商品情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of the product information storage unit according to the embodiment. 図6は、実施形態に係る買物一覧情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the shopping list information storage unit according to the embodiment. 図7は、実施形態に係る決定処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment. 図8は、変形例に係る決定装置の構成例を示す図である。FIG. 8 is a diagram showing a configuration example of a determination device according to a modification. 図9は、変形例に係るモデル情報記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of a model information storage unit according to a modification. 図10は、決定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram showing an example of a computer that implements the function of the determination device.

以下に、本願に係る決定装置、決定方法、及び決定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る決定装置、決定方法、及び決定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a determination apparatus, a determination method, and an embodiment for implementing a determination program (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. In addition, the determination apparatus which concerns on this application, the determination method, and the determination program are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.

(実施形態)
〔1.決定処理〕
まず、実施形態に係る決定処理について説明する。図1は、実施形態に係る決定処理の一例を示す図である。図1に示す決定装置100は、検知された各種センサ情報に基づいて、商品またはサービスに関する処理態様を決定する決定サービスを提供する。なお、ここでいう商品またはサービスには、取引可能な対象であればそのような対象が含まれてもよく、以下では、「商品またはサービス」を単に「商品」と記載する場合がある。
(Embodiment)
[1. Decision processing]
First, the determination process according to the embodiment will be described. FIG. 1 is a diagram illustrating an example of the determination process according to the embodiment. The determination apparatus 100 illustrated in FIG. 1 provides a determination service that determines a processing mode related to a product or service based on the detected various sensor information. In addition, if goods or a service here are the objects which can be transacted, such objects may be included, and "goods or service" may only be described as "goods" below.

図1に示すように、実施形態に係る決定システム1には、端末機器AP11と、決定装置100とが含まれる。端末機器AP11と、決定装置100とは、所定のネットワークを介して通信可能に接続される。なお、図1に示した決定システム1には、複数の端末機器AP11、複数の決定装置100が含まれてもよい。   As shown in FIG. 1, the determination system 1 according to the embodiment includes a terminal device AP11 and a determination apparatus 100. The terminal device AP11 and the determination apparatus 100 are communicably connected via a predetermined network. The determination system 1 illustrated in FIG. 1 may include a plurality of terminal devices AP11 and a plurality of determination devices 100.

図1に示す例において、端末機器AP11は、プロジェクタの機能を有し、コンテンツの画像を所定の表示面に投影することにより、コンテンツを表示する。図1では、端末機器AP11は、テーブルの机上面PP11にコンテンツID「CT11」により識別されるコンテンツ(以下、「コンテンツCT11」ともいう)を投影する場合を示す。すなわち、端末機器AP11は、机上面PP11にコンテンツCT11を投影することにより、机上面PP11にコンテンツCT11を表示する。図1に示すように、コンテンツCT11は、例えば、複数の商品を含み、閲覧するユーザにライフスタイルを提案するコンテンツである。例えば、端末機器AP11が表示するコンテンツは、コンテンツCT11に限らず、クリスマスや運動会等の所定のイベントに関連する複数の商品が含まれるコンテンツ等の種々のコンテンツであってもよい。このように、端末機器AP11は、例えば、所定のコンセプトに基づいて複数の商品が含まれる雑誌のページのようなコンテンツを、ユーザの操作に応じて順次表示することにより、ユーザに所定のコンセプトに基づく複数の商品を閲覧させることができる。また、端末機器AP11は、机上面PP11に限らず、コンテンツを表示可能であれば、例えば空間等どのような対象にコンテンツを表示してもよい。   In the example illustrated in FIG. 1, the terminal device AP11 has a projector function, and displays the content by projecting an image of the content on a predetermined display surface. FIG. 1 shows a case where the terminal device AP11 projects the content (hereinafter also referred to as “content CT11”) identified by the content ID “CT11” on the desk top PP11 of the table. That is, the terminal device AP11 displays the content CT11 on the desktop surface PP11 by projecting the content CT11 on the desktop surface PP11. As shown in FIG. 1, the content CT11 is, for example, content that includes a plurality of products and proposes a lifestyle to a user who browses. For example, the content displayed by the terminal device AP11 is not limited to the content CT11, and may be various content such as content including a plurality of products related to a predetermined event such as Christmas or an athletic meet. As described above, the terminal device AP11 displays the contents such as a page of a magazine including a plurality of products on the basis of a predetermined concept sequentially to the user according to the user's operation. You can browse multiple products based on Further, the terminal device AP11 may display the content on any target such as a space, as long as the content can be displayed without being limited to the desk top PP11.

また、図1の例では、端末機器AP11は、赤外線センサを第1センサSN1として有する。これにより、端末機器AP11は、表示したコンテンツに対するユーザの指定を検知する機能を有する。例えば、端末機器AP11は、第1センサSN1が放射した赤外線を画像センサ等により撮像しその変化を検知することや、赤外線の反射を検知することにより、表示したコンテンツにおける座標に関する情報(以下、「座標情報」ともいう)を第1センサ情報として検知してもよい。この場合、例えば、端末機器AP11の第1センサSN1(以下、単に「端末機器AP11」と記載する場合がある)は、赤外線を放射する機能と、赤外線を検知する機能を有してもよい。例えば、端末機器AP11の第1センサSN1は、赤外線を放射する機能と、画像認識の技術により赤外線の変化を検知する機能を有してもよい。   Further, in the example of FIG. 1, the terminal device AP11 includes an infrared sensor as the first sensor SN1. Thus, the terminal device AP11 has a function of detecting the designation of the user for the displayed content. For example, the terminal device AP11 picks up an infrared ray emitted by the first sensor SN1 with an image sensor or the like and detects a change thereof, or detects a reflection of the infrared ray, thereby detecting information related to coordinates in the displayed content (hereinafter Coordinate information may also be detected as first sensor information. In this case, for example, the first sensor SN1 of the terminal device AP11 (hereinafter, may be simply referred to as "terminal device AP11") may have a function of emitting infrared light and a function of detecting infrared light. For example, the first sensor SN1 of the terminal device AP11 may have a function of emitting infrared light, and a function of detecting a change in infrared light by image recognition technology.

図1の例では、端末機器AP11は、コンテンツCT11が表示された机上面PP11に沿って赤外線を放射し、ユーザがコンテンツCT11を指等で指示する等の操作を行った際に反射される赤外線を検知する。例えば、端末機器AP11は、机上面PP11においてコンテンツCT11が表示された領域に対応する直交座標(XY座標)等の座標情報を検知してもよい。例えば、端末機器AP11は、図1中のコンテンツCT11の横方向をX軸方向とし、縦方向をY軸方向としたXY座標の座標情報を検知してもよい。この場合、例えば、端末機器AP11は、図1中のコンテンツCT11の左下の位置を原点(0,0)としたXY座標の座標情報を検知してもよい。なお、上記は一例であり、端末機器AP11は、種々の従来技術を適宜用いて、ユーザが表示されたコンテンツを指定した位置を検知してもよい。   In the example of FIG. 1, the terminal device AP11 emits infrared radiation along the desktop surface PP11 on which the content CT11 is displayed, and the infrared radiation reflected when the user performs an operation such as pointing the content CT11 with a finger or the like To detect For example, the terminal device AP11 may detect coordinate information such as orthogonal coordinates (XY coordinates) corresponding to the area where the content CT11 is displayed on the desktop surface PP11. For example, the terminal device AP11 may detect coordinate information of XY coordinates with the horizontal direction of the content CT11 in FIG. 1 as the X-axis direction and the vertical direction as the Y-axis direction. In this case, for example, the terminal device AP11 may detect coordinate information of XY coordinates with the lower left position of the content CT11 in FIG. 1 as the origin (0, 0). Note that the above is an example, and the terminal device AP11 may detect the position at which the user has designated the displayed content, using various conventional techniques as appropriate.

これにより、端末機器AP11や決定装置100は、表示したコンテンツと検知した座標情報とをユーザが指定した位置にどの商品が表示されているかに基づいて、ユーザが指定した商品を特定することができる。なお、上記は一例であり、端末機器AP11は、種々の従来技術を適宜用いてユーザの指定を検知してもよい。また、第1センサSN1は、表示したコンテンツに対するユーザの指定を検知可能であれば、赤外線センサに限らず、どのようなセンサが用いられてもよい。例えば、端末機器AP11は、第1センサSN1により検知されたコンテンツに対するユーザの指定に関する座標情報を第1センサ情報として決定装置100へ送信する。   Thus, the terminal device AP11 or the determination device 100 can specify the product specified by the user based on which product is displayed at the position where the displayed content and the detected coordinate information are specified by the user. . The above is an example, and the terminal device AP11 may detect the designation of the user using various conventional techniques as appropriate. The first sensor SN1 is not limited to the infrared sensor, and any sensor may be used as long as it can detect the user's designation of the displayed content. For example, the terminal device AP11 transmits, as first sensor information, coordinate information on the designation of the user for the content detected by the first sensor SN1 to the determination device 100.

また、端末機器AP11は、音声センサを第2センサSN2として有する。これにより、端末機器AP11は、音声認識の機能を有し、周囲の音を検知し、検知した音に応じて種々の処理を行う。以下では、第2センサSN2により検知された情報を第2センサ情報と記載する場合がある。また、以下では、端末機器AP11の第2センサSN2を、単に「端末機器AP11」と記載する場合がある。また、端末機器AP11は、音声認識の機能を有してもよい。この場合、端末機器AP11は、第2センサSN2により検知されたユーザの発話に関する情報に基づいて推定される発話を行ったユーザの意図に関する情報(以下、単に「意図」や「意図情報」ともいう)を推定してもよい。   The terminal device AP11 also has a voice sensor as a second sensor SN2. Thus, the terminal device AP11 has a voice recognition function, detects surrounding sounds, and performs various processing in accordance with the detected sounds. Below, the information detected by 2nd sensor SN2 may be described as 2nd sensor information. Moreover, below, 2nd sensor SN2 of terminal device AP11 may only be described as "terminal device AP11." The terminal device AP11 may have a voice recognition function. In this case, the terminal device AP11 also refers to information on the intention of the user who made the utterance estimated based on the information on the user's utterance detected by the second sensor SN2 (hereinafter, also simply referred to as "intention" or "intention information" ) May be estimated.

また、端末機器AP11は、決定装置100等の外部装置との間において情報の送受信が可能である。例えば、端末機器AP11は、決定装置100から表示するコンテンツに関する情報を受信したり、各種センサの検知に関する情報を決定装置100へ送信したりする。なお、ここでいう、端末機器AP11は、他の装置を介して決定装置100との間において情報の送受信が可能であってもよい。また、例えば、端末機器AP11は、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等であってもよく、汎用機器にアプリケーションがインストールされた機器であってもよい。   Further, the terminal device AP11 can transmit and receive information with an external device such as the determination device 100. For example, the terminal device AP11 receives information on the content to be displayed from the determination device 100, and transmits information on detection of various sensors to the determination device 100. Here, the terminal device AP11 may be able to transmit and receive information to and from the determination device 100 via another device. For example, the terminal device AP11 may be a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), etc. It may be a device on which the application is installed.

なお、端末機器AP11によるコンテンツの表示処理等の処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーションにより行われる場合や表示処理が専用アプリにより行われる場合、端末機器AP11は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。   Note that processing such as display processing of content by the terminal device AP11 may be realized by JavaScript (registered trademark) or the like, for example. In addition, when the display processing described above is performed by a predetermined application or when the display processing is performed by a dedicated application, the terminal device AP11 may have, for example, an application control unit that controls the predetermined application or the dedicated application. .

なお、決定装置100が決定処理に用いる情報を取得可能であれば、決定システム1はどのような構成でも良く、端末機器AP11の各機能の各々を有する装置が含まれてもよい。例えば、決定システム1において、端末機器AP11の各機能は、コンテンツを表示する機器や第1センサSN1や第2センサSN2等の各装置により実現されてもよい。また、例えば、決定システム1において、決定装置100が端末機器AP11の機能を有してもよい。この場合、決定装置100と端末機器AP11とは一体であってもよい。また、決定装置100は、決定処理に関する機能を実現できれば、どのような形態であってもよく、例えば、机上面PP11を有するテーブルと一体であったり、複数の情報処理装置に分散して構成されたりすることより実現されてもよい。   The determination system 1 may have any configuration as long as the determination apparatus 100 can acquire information used for the determination process, and an apparatus having each of the functions of the terminal device AP11 may be included. For example, in the determination system 1, each function of the terminal device AP11 may be realized by a device that displays content, or each device such as the first sensor SN1 or the second sensor SN2. Also, for example, in the determination system 1, the determination device 100 may have the function of the terminal device AP11. In this case, the determination device 100 and the terminal device AP11 may be integrated. In addition, the determination apparatus 100 may have any form as long as it can realize the function related to the determination process, and is, for example, integrated with a table having the desk top PP11 or distributed to a plurality of information processing apparatuses It may be realized by

決定装置100は、第1センサ情報に基づいて特定される商品に関する処理態様を、第2センサ情報に基づいて決定する決定サービスを提供する。また、決定装置100は、端末機器AP11が表示するコンテンツを端末機器AP11に提供する情報処理装置であってもよい。また、決定装置100は、コンテンツ配信サービスを提供する情報処理装置から情報を取得可能であってもよい。この場合、決定システム1は、例えば、コンテンツ配信サービスを提供する情報処理装置を含んでもよい。   The determination apparatus 100 provides a determination service that determines the processing mode related to the item identified based on the first sensor information based on the second sensor information. Further, the determination device 100 may be an information processing device that provides the terminal device AP11 with the content displayed by the terminal device AP11. In addition, the determination apparatus 100 may be able to acquire information from an information processing apparatus that provides a content distribution service. In this case, the determination system 1 may include, for example, an information processing apparatus that provides a content distribution service.

また、例えば、決定装置100は、オンラインショッピング等の電子商取引サービスを提供する情報処理装置であってもよい。また、決定装置100は、電子商取引サービスを提供する情報処理装置から情報を取得可能であってもよい。この場合、決定システム1は、例えば、オンラインショッピング等の電子商取引サービスを提供する情報処理装置を含んでもよい。   Also, for example, the determination device 100 may be an information processing device that provides an electronic commerce service such as online shopping. In addition, the determination device 100 may be able to obtain information from an information processing device that provides an electronic commerce service. In this case, the determination system 1 may include, for example, an information processing apparatus that provides an electronic commerce service such as online shopping.

また、決定装置100は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、決定システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、決定装置100や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを特定したりするものとして、説明を省略する。また、例えば、決定装置100は、端末機器AP11から受け付けた第2センサ情報に基づいてユーザの意図情報を推定する。   In addition, the determination device 100 may be capable of acquiring information from a speech recognition server that provides a speech recognition service. In this case, the decision system 1 may include a speech recognition server. In the example of FIG. 1, the description will be omitted as the determination apparatus 100 and the voice recognition server recognize various user's utterances or identify the uttered user by using various conventional techniques as appropriate. Also, for example, the determination apparatus 100 estimates the user's intention information based on the second sensor information received from the terminal device AP11.

以下、図1を用いて、決定処理の一例を説明する。図1に示す例においては、ユーザU11、ユーザU12、ユーザU13が居住する住宅内に、端末機器AP11が配置される。以下、ユーザU11、ユーザU12、ユーザU13を区別せず説明する場合、単に「ユーザ」と記載する場合がある。例えば、端末機器AP11は、住宅内のテーブルに配置され、配置されたテーブルの机上面PP11にコンテンツCT11を表示する場合を示す。   Hereinafter, an example of the determination process will be described with reference to FIG. In the example illustrated in FIG. 1, the terminal device AP11 is disposed in a house in which the user U11, the user U12, and the user U13 reside. In the following description, when the user U11, the user U12, and the user U13 are described without distinction, they may be simply described as "user". For example, the terminal device AP11 is arranged on a table in a house, and shows the case where the content CT11 is displayed on the desk top PP11 of the arranged table.

なお、図1の例では、端末機器AP11は、決定装置100等の外部装置からコンテンツCT11を取得済みであり、ユーザの操作等に応じて端末機器AP11がコンテンツCT11をテーブルの机上面PP11に表示しているものとする。具体的には、端末機器AP11は、机上面PP11中の領域RG1にコンテンツCT11を表示しているものとする。また、図1においては、符号「RG1」が示す領域は、コンテンツCT11が図示された領域と重なる。また、端末機器AP11は、コンテンツCT11に限らず、種々のコンテンツをテーブルの机上面PP11に表示する。例えば、端末機器AP11は、ユーザによる表示を変更する操作に応じて、コンテンツCT11以外の他のコンテンツを机上面PP11に表示する。例えば、端末機器AP11は、ユーザが机上面PP11の領域RG1上において指FG1を所定の方向に移動させる動作に応じて、机上面PP11に表示されるコンテンツを変更してもよい。   In the example of FIG. 1, the terminal device AP11 has already acquired the content CT11 from an external device such as the determination device 100, and the terminal device AP11 displays the content CT11 on the table top PP11 of the table according to the user's operation or the like. It shall be done. Specifically, it is assumed that the terminal device AP11 displays the content CT11 in the area RG1 in the desk top PP11. Further, in FIG. 1, the area indicated by the code “RG1” overlaps the area in which the content CT11 is illustrated. Further, the terminal device AP11 displays not only the content CT11 but also various contents on the table top PP11. For example, the terminal device AP11 displays content other than the content CT11 on the desk top PP11 in accordance with the user's operation to change the display. For example, the terminal device AP11 may change the content displayed on the desk top PP11 in accordance with an operation of the user moving the finger FG1 in a predetermined direction on the area RG1 of the desk top PP11.

また、図1に示すように、机上面PP11に表示されたコンテンツCT11には、5つの商品IT11〜IT15が含まれる。なお、このように、「商品IT*(*は任意の数値)」と記載した場合、その商品は商品ID「IT*」により識別される商品であることを示す。例えば、「商品IT11」と記載した場合、その商品は商品ID「IT11」により識別される商品である。   Further, as shown in FIG. 1, the content CT11 displayed on the desk top PP11 includes five products IT11 to IT15. In addition, when it describes as "commodity IT * (* is arbitrary numerical value)" in this way, it shows that the goods are goods identified by goods ID "IT *." For example, when "commodity IT11" is described, the product is a product identified by the product ID "IT11".

例えば、商品IT11は、コンテンツCT11に含まれる商品「シャンプーA」に対応する。また、例えば、商品IT12は、コンテンツCT11に含まれる商品「シャンプーAの詰替品」に対応する。また、例えば、商品IT13は、コンテンツCT11に含まれる商品「タオルA」に対応する。また、例えば、商品IT14は、コンテンツCT11に含まれる商品「かごA」に対応する。また、例えば、商品IT15は、コンテンツCT11に含まれる商品「ポットA」に対応する。このように、図1では、ユーザU11〜U13が、種々の商品が含まれるコンテンツCT11を閲覧している場合を示す。   For example, the product IT11 corresponds to the product "shampoo A" included in the content CT11. Further, for example, the product IT12 corresponds to the product “refill of shampoo A” included in the content CT11. Further, for example, the product IT13 corresponds to the product "towel A" included in the content CT11. Further, for example, the product IT14 corresponds to the product "car A" included in the content CT11. Further, for example, the product IT15 corresponds to the product “pot A” included in the content CT11. Thus, FIG. 1 shows the case where the users U11 to U13 browse the content CT11 including various products.

まず、コンテンツCT11を閲覧しているユーザU12が、コンテンツCT11中の商品IT14を指FG1で指定する(ステップS11)。例えば、日時DT11に、ユーザU12が、コンテンツCT11中の商品IT14が含まれる位置を指FG1で指示したり、机上面PP11の商品IT14が表示された部分をタッチしたりすることにより、商品IT14を指定する。   First, the user U12 who is browsing the content CT11 specifies the product IT14 in the content CT11 with the finger FG1 (step S11). For example, the user U12 designates a position at which the product IT14 is included in the content CT11 with the finger FG1 at the date and time DT11, or touches the portion of the desk top PP11 where the product IT14 is displayed. specify.

そして、ユーザU12が指FG1で指定したことに応じて、端末機器AP11の第1センサSN1は、ユーザU12が指FG1で指定した位置の座標情報を第1センサ情報として検知する(ステップS12)。図1の例では、端末機器AP11は、ユーザU12が指FG1で指定した位置の座標情報を検知する。具体的には、端末機器AP11は、ユーザU12が指FG1で指定した位置が位置(x1,y1)であることを示す座標情報を検知する。なお、ここでいう「x1」や「y1」は、コンテンツCT11における商品IT14が表示される範囲に含まれる位置に対応する任意の値であるものとする。   Then, in response to designation by the user U12 with the finger FG1, the first sensor SN1 of the terminal device AP11 detects, as first sensor information, coordinate information of a position designated by the user U12 with the finger FG1 (step S12). In the example of FIG. 1, the terminal device AP11 detects coordinate information of the position designated by the user U12 with the finger FG1. Specifically, the terminal device AP11 detects coordinate information indicating that the position designated by the user U12 with the finger FG1 is the position (x1, y1). Here, “x1” and “y1” are arbitrary values corresponding to positions included in the range in which the product IT14 in the content CT11 is displayed.

そして、端末機器AP11は、検知した第1センサ情報を決定装置100に送信する(ステップS13)。これにより、決定装置100は、端末機器AP11から第1センサ情報を受け付ける。図1の例では、端末機器AP11は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報や、ユーザにより指定されたコンテンツがコンテンツCT11であることを示す情報を送信する。なお、決定装置100がユーザによる指定時において端末機器AP11がどのコンテンツを表示しているかに関する情報を取得済みである場合、ユーザにより指定されたコンテンツを識別する情報を送信しなくてもよい。   Then, the terminal device AP11 transmits the detected first sensor information to the determination apparatus 100 (step S13). Thereby, the determination apparatus 100 receives the first sensor information from the terminal device AP11. In the example of FIG. 1, the terminal device AP11 displays first sensor information indicating that the position designated by the user is the position (x1, y1), and information indicating that the content designated by the user is the content CT11. Send. In addition, when the information regarding which content the terminal device AP11 is displaying is already acquired at the time of designation | designated by the user by the determination apparatus 100, it is not necessary to transmit the information which identifies the content designated by the user.

そして、端末機器AP11から第1センサ情報を受け付けた決定装置100は、第1センサ情報に基づいてユーザが指定した商品を特定する。図1の例では、決定装置100は、受け付けた第1センサ情報と、コンテンツ情報記憶部122に記憶されたコンテンツ情報とに基づいて、ユーザが指定した商品を特定する。   Then, the determination device 100 that has received the first sensor information from the terminal device AP11 specifies the product specified by the user based on the first sensor information. In the example of FIG. 1, the determination apparatus 100 specifies the product designated by the user based on the received first sensor information and the content information stored in the content information storage unit 122.

図1の例では、決定装置100は、コンテンツ情報記憶部122に示すように、各コンテンツに含まれる商品とその商品がコンテンツ中のどの範囲に位置するかを示す情報を記憶している。例えば、決定装置100は、コンテンツ情報記憶部122に示すように、コンテンツCT11には、商品IT11〜IT15の5つの商品が含まれることを示す情報を記憶している。また、コンテンツ情報記憶部122には、商品IT11がコンテンツCT11中の範囲AR11に位置することを示す情報が記憶される。なお、範囲AR11は、商品IT11がコンテンツCT11において占める範囲を示す情報であればどのような情報であってもよく、例えば座標情報であってもよい。   In the example of FIG. 1, as shown in the content information storage unit 122, the determining apparatus 100 stores the product included in each content and information indicating in which range in the content the product is located. For example, as illustrated in the content information storage unit 122, the determining device 100 stores information indicating that the content CT11 includes five products of the products IT11 to IT15. Further, the content information storage unit 122 stores information indicating that the product IT11 is located in the range AR11 in the content CT11. The range AR11 may be any information that indicates the range occupied by the product IT11 in the content CT11, and may be, for example, coordinate information.

また、コンテンツ情報記憶部122には、商品IT12がコンテンツCT11中の範囲AR12に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT13がコンテンツCT11中の範囲AR13に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT14がコンテンツCT11中の範囲AR14に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT15がコンテンツCT11中の範囲AR15に位置することを示す情報が記憶される。   Further, the content information storage unit 122 stores information indicating that the product IT12 is located in the range AR12 in the content CT11. Further, the content information storage unit 122 stores information indicating that the product IT13 is located in the range AR13 in the content CT11. Further, the content information storage unit 122 stores information indicating that the product IT14 is located in the range AR14 in the content CT11. Further, the content information storage unit 122 stores information indicating that the product IT15 is located in the range AR15 in the content CT11.

図1の例では、決定装置100は、第1センサ情報と、コンテンツ情報記憶部122に記憶された各商品IT11〜IT15の範囲AR11〜AR15とに基づいて、ユーザが指定した商品を特定する(ステップS14)。例えば、決定装置100は、第1センサ情報の座標(x1,y1)が範囲AR11〜AR15のいずれかに含まれる場合、ユーザが指定した商品を特定する。図1の例では、第1センサ情報の座標(x1,y1)が範囲AR14に含まれるため、決定装置100は、ユーザが指定した商品が商品IT14であると特定する。また、決定装置100は、商品情報記憶部123に記憶された商品IDと商品名の対応に基づいて、商品IT14が商品名「かごA」であると特定する。   In the example of FIG. 1, the determination apparatus 100 specifies the product designated by the user based on the first sensor information and the ranges AR11 to AR15 of the respective products IT11 to IT15 stored in the content information storage unit 122 ( Step S14). For example, when the coordinates (x1, y1) of the first sensor information are included in any of the ranges AR11 to AR15, the determination device 100 specifies the item designated by the user. In the example of FIG. 1, since the coordinates (x1, y1) of the first sensor information are included in the range AR14, the determining apparatus 100 specifies that the product designated by the user is the product IT14. Further, based on the correspondence between the product ID and the product name stored in the product information storage unit 123, the determination apparatus 100 specifies that the product IT14 is the product name "car A".

その後、ユーザU12が、端末機器AP11(第2センサSN2)の付近において「これ欲しいわね」という発話PA11を行う(ステップS15)。例えば、日時DT11より後の日時DT12に、ユーザU12が、ステップS11において指定した商品IT14について「これ欲しいわね」という発話PA11を行う。なお、図1の例では、ステップS15においても、ユーザU12が指FG1により商品IT14の指定を継続している場合を示すが、ユーザU12が指定した商品が特定済みであれば、ユーザU12が指FG1による商品IT14の指定を解除している状態であってもよい。   Thereafter, the user U12 performs an utterance PA11 "I want this" in the vicinity of the terminal device AP11 (the second sensor SN2) (step S15). For example, at a date and time DT12 after the date and time DT11, the user U12 performs an utterance PA11 of "I want this" for the product IT14 specified in step S11. Although the example in FIG. 1 shows that the user U12 continues to designate the product IT14 with the finger FG1 also in step S15, if the product designated by the user U12 has already been identified, the user U12 does not It may be in the state where specification of goods IT14 with FG1 is cancelled.

そして、ユーザU12が発話PA11を行ったことに応じて、端末機器AP11の第2センサSN2は、ユーザU12による発話PA11の音声情報を第2センサ情報として検知する(ステップS16)。図1の例では、端末機器AP11は、ユーザU12による「これ欲しいわね」という発話PA11に対応する音声情報を検知する。なお、図1の例では、説明を簡単にするために、発話PA11のみを図示するが、ユーザU11〜U13は、商品IT14に関する種々の会話を行ってもよい。また、端末機器AP11の第2センサSN2は、発話PA11以外の発話も第2センサ情報として検知してもよい。   Then, in response to the user U12 having made the utterance PA11, the second sensor SN2 of the terminal device AP11 detects voice information of the utterance PA11 by the user U12 as second sensor information (step S16). In the example of FIG. 1, the terminal device AP11 detects voice information corresponding to the utterance PA11 "I want this" by the user U12. Although only the speech PA11 is illustrated in the example of FIG. 1 to simplify the description, the users U11 to U13 may perform various conversations regarding the product IT14. The second sensor SN2 of the terminal device AP11 may also detect an utterance other than the utterance PA11 as the second sensor information.

そして、端末機器AP11は、検知した第2センサ情報を決定装置100に送信する(ステップS17)。これにより、決定装置100は、端末機器AP11から第2センサ情報を受け付ける。図1の例では、端末機器AP11は、ユーザの発話に関する第2センサ情報を送信する。具体的には、端末機器AP11は、発話PA11の音声情報を第2センサ情報として送信する。   Then, the terminal device AP11 transmits the detected second sensor information to the determination apparatus 100 (step S17). Thereby, the determination apparatus 100 receives the second sensor information from the terminal device AP11. In the example of FIG. 1, the terminal device AP11 transmits second sensor information related to the user's speech. Specifically, the terminal device AP11 transmits the voice information of the utterance PA11 as the second sensor information.

なお、端末機器AP11は、発話PA11の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA11の文字情報を取得し、取得した文字情報を決定装置100へ送信してもよい。また、端末機器AP11は、取得した発話PA11を行ったユーザがユーザU12であることを示す情報を決定装置100に送信してもよい。また、端末機器AP11が発話の意図の推定を行う場合、端末機器AP11は、推定した発話の意図を決定装置100に送信してもよい。   The terminal device AP11 may transmit the voice information of the utterance PA11 to the voice recognition server, acquire the character information of the utterance PA11 from the speech recognition server, and transmit the acquired character information to the determination apparatus 100. In addition, the terminal device AP11 may transmit, to the determination apparatus 100, information indicating that the user who has performed the acquired utterance PA11 is the user U12. When the terminal device AP11 estimates the intention of the utterance, the terminal device AP11 may transmit the estimated intention of the utterance to the determination device 100.

端末機器AP11から第2センサ情報を受け付けた決定装置100は、第2センサ情報に基づいてユーザの意図を推定する(ステップS18)。例えば、決定装置100は、受け付けた第2センサ情報を解析することにより、ステップS14において特定された商品IT14をユーザが購入することを希望していると推定する。例えば、決定装置100は、受け付けた第2センサ情報である発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、ユーザの意図を推定する。例えば、決定装置100は、発話PA11に「これ」という指示代名詞と、その指示代名詞に対応する商品を購入することを希望していることを示す「欲しい」という形容詞が含まれることを特定する。例えば、決定装置100は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。これにより、決定装置100は、発話PA11の内容に基づいて、ユーザが商品IT14の購入意思があると推定する。   The determination apparatus 100 that has received the second sensor information from the terminal device AP11 estimates the user's intention based on the second sensor information (step S18). For example, the determination apparatus 100 analyzes the received second sensor information to estimate that the user desires to purchase the product IT14 identified in step S14. For example, the determination apparatus 100 converts the voice information of the utterance PA11, which is the received second sensor information, into character information, and estimates the user's intention based on the converted character information. For example, the determination apparatus 100 specifies that the utterance PA11 includes an indicative pronoun "this" and an adjective "want" indicating that it desires to purchase a product corresponding to the indicative pronoun. For example, the determination apparatus 100 estimates that the user desires to purchase a product corresponding to the designated pronoun by appropriately analyzing the character information of the utterance PA11 using various conventional techniques such as syntactic analysis. . Thus, the determination apparatus 100 estimates that the user has an intention to purchase the product IT14 based on the content of the utterance PA11.

このように、ステップS18において、決定装置100は、第2センサ情報に基づいて、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。そして、決定装置100は、ステップS14において、ユーザが指定した商品が商品IT14であると特定している。そのため、決定装置100は、ユーザが商品IT14であるかごAを購入することを希望していると推定する。   Thus, in step S18, the determination apparatus 100 estimates that the user desires to purchase a product corresponding to the designated pronoun based on the second sensor information. Then, in step S14, the determination apparatus 100 specifies that the product designated by the user is the product IT14. Therefore, the determination apparatus 100 estimates that the user desires to purchase the car A, which is the product IT14.

そして、決定装置100は、推定したユーザの商品IT14に対する意図に応じて、商品IT14に関する処理態様を決定する。図1の例では、ユーザが商品IT14であるかごAを購入することを希望していると推定されるため、決定装置100は、商品IT14を所定の買物リストに追加すると決定する(ステップS19)。具体的には、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。そして、決定装置100は、買物一覧情報記憶部124に示すように、端末機器AP11に対応付けられた買物リストに商品IT14を追加する。図1の例では、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。   Then, the determination apparatus 100 determines the processing mode related to the product IT14 according to the estimated user's intention for the product IT14. In the example of FIG. 1, since it is estimated that the user desires to purchase the car A which is the product IT14, the determination apparatus 100 determines to add the product IT14 to a predetermined shopping list (step S19). . Specifically, the determination apparatus 100 determines to add the product IT14 to the shopping list associated with the terminal device AP11. Then, as illustrated in the shopping list information storage unit 124, the determination apparatus 100 adds the commodity IT14 to the shopping list associated with the terminal device AP11. In the example of FIG. 1, the determination apparatus 100 determines to add the product IT14 to the shopping list associated with the terminal device AP11.

このように、決定装置100は、第1センサ情報に基づいて特定される商品IT14に関する処理態様を、第2センサ情報に基づいて決定する。また、図1の例では、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定することにより、複数のユーザU11〜U13が会話し、どのユーザによる商品に対する購入の意思であるかが特定できない場合であっても、適切に買物リストに商品を追加することができる。また、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定することにより、商品を指定したユーザと、商品に関する発話を行ったユーザが異なる場合であっても、適切に買物リストに商品を追加することができる。このように、決定装置100は、複数のユーザが会話をしながらコンテンツを閲覧し、商品の指定や、商品に対する意思を示す発話を行った場合であっても、商品に関する処理態様を適切に決定することができる。また、決定装置100は、所定のタイミングでユーザに端末機器AP11に対応付けられた買物リストに追加された商品に関する情報を送信してもよい。   Thus, the determination apparatus 100 determines the processing mode related to the product IT 14 identified based on the first sensor information based on the second sensor information. Further, in the example of FIG. 1, the determining apparatus 100 determines that the product IT14 is to be added to the shopping list associated with the terminal device AP11, whereby the plurality of users U11 to U13 talk, and the purchase of the product by any user Even if it is not possible to identify the intention of the item, it is possible to appropriately add the item to the shopping list. Further, the determination device 100 determines that the product IT 14 is added to the shopping list associated with the terminal device AP11, so that the user who has specified the product is different from the user who has made an utterance regarding the product, Products can be added to the shopping list appropriately. As described above, the determination apparatus 100 appropriately determines the processing mode related to the product even when the plurality of users browse the content while having a conversation and perform the specification of the product or the utterance indicating the intention for the product. can do. In addition, the determination apparatus 100 may transmit information on a product added to the shopping list associated with the terminal device AP11 to the user at a predetermined timing.

また、図1の例では、説明を簡単にするために、商品IT14に関する処理態様を決定するまでを示したが、ユーザU11〜U13は、商品IT14に続けて種々の商品を指定したり、表示されたコンテンツに関する会話をしたりしてもよい。そして、決定装置100は、ユーザによる商品の指定や会話に基づいて、順次商品に関する処理態様の決定を行ってもよい。例えば、決定装置100は、ステップS19後にユーザが商品IT11を指定し、会話を継続した場合、商品IT11に関する処理態様の決定を行ってもよい。例えば、決定装置100は、商品IT11に関する処理態様の決定後にユーザが商品IT15を指定し、会話を継続した場合、商品IT15に関する処理態様の決定を行ってもよい。また、ユーザがコンテンツCT11以外のコンテンツに表示を切り替え、会話を続けた場合、決定装置100は、ユーザの指定や会話に基づいて、ユーザに指定された商品に関する処理態様の決定を行ってもよい。   Further, in the example of FIG. 1, for the sake of simplifying the description, the processing mode for the product IT14 is shown to be determined, but the users U11 to U13 specify various products or display following the product IT14 You may have a conversation about the content being Then, the determination apparatus 100 may sequentially determine the processing mode related to the product based on the specification of the product by the user and the conversation. For example, if the user specifies the product IT11 after step S19 and continues the conversation, the determination apparatus 100 may determine the processing mode regarding the product IT11. For example, when the user designates the product IT15 after determining the processing mode related to the product IT11 and continues the conversation, the determining apparatus 100 may determine the processing mode related to the product IT15. In addition, when the user switches the display to content other than the content CT11 and continues the conversation, the determination apparatus 100 may determine the processing mode related to the product designated by the user based on the user's designation or the conversation. .

また、図1の例では、説明を簡単にするために、商品IT14を端末機器AP11に対応付けられた買物リストに追加する場合を示したが、決定装置100は、推定されるユーザに購入に関する意思に応じて、処理態様を異ならせてもよい。例えば、決定装置100は、推定されるユーザの購入意思のレベル(強弱)に応じて、処理態様を異ならせてもよい。例えば、決定装置100は、「すぐ欲しい」や「絶対買う」等のユーザの発話に基づいて、ユーザの購入意思が高いと推定される場合、指定された商品を即購入、すなわち決済の処理を行ってもよい。図1の例では、発話PA11に「欲しい」という購入を希望する内容が含まれるため、決定装置100は、ユーザU12の購入意思が高いと推定し、指定された商品IT14を即購入、すなわち決済の処理を行ってもよい。この場合、決定装置100は、ユーザU12の口座を用いて決済の処理を行ってもよいし、端末機器AP11に対応付けられたユーザU11の口座ACN11(図3参照)を用いて決済の処理を行ってもよい。また、例えば、決定装置100は、「いいかも」や「気になる」等のユーザの発話に基づいて、ユーザが購入意思は低いが商品に対して関心があると推定される場合、指定された商品を保留リストや買物リスト等に追加してもよい。このように、決定装置100は、ユーザの発話に基づいて推定されるユーザの購入意思のレベルに基づいて、指定された商品に対する処理態様を異ならせてもよい。   Further, although the example of FIG. 1 shows the case where the product IT14 is added to the shopping list associated with the terminal device AP11 in order to simplify the description, the determining apparatus 100 relates to the estimated user purchasing Depending on the intention, the processing mode may be different. For example, the determination apparatus 100 may change the processing mode depending on the estimated level (weakness) of the user's purchase intention. For example, when it is estimated that the purchase intention of the user is high based on the user's utterance such as “immediately want” or “absolutely buy”, the determination apparatus 100 immediately purchases the specified product, that is, performs the payment process. You may go. In the example of FIG. 1, the determination apparatus 100 estimates that the purchase intention of the user U12 is high because the utterance PA11 includes the content desired to be purchased, and the purchase instruction IT14 is immediately purchased, that is, the settlement is performed. Processing may be performed. In this case, the determination apparatus 100 may perform the settlement process using the account of the user U12 or the settlement process using the account ACN11 (see FIG. 3) of the user U11 associated with the terminal device AP11. You may go. Also, for example, the determination device 100 is designated when it is estimated that the user has low purchase intention but is interested in the product based on the user's utterance such as "Good" or "It is anxious". Items may be added to the pending list, shopping list, etc. Thus, the determination apparatus 100 may change the processing mode for the designated product based on the level of the purchase intention of the user estimated based on the user's utterance.

上述したように、決定装置100は、第1センサ情報に基づいてユーザが指定した商品を特定し、第2センサ情報に基づいて第1センサ情報に基づいて特定される商品(購入対象)に関する処理態様を決定する。このように、決定装置100は、ユーザが指定する商品の特定を第1センサ情報に基づいて行い、その商品に対するユーザの意図の推定を第2センサ情報に基づいて行う。これにより、決定装置100は、処理を商品の特定と、ユーザの意図の推定との2段階に分けて行うことにより、ユーザが指定した商品の特定の精度や、商品に対するユーザの意図の推定の精度を高めることができる。したがって、決定装置100は、商品またはサービスに関する処理態様を適切に決定することができる。   As described above, the determining apparatus 100 identifies the item designated by the user based on the first sensor information, and processes the item (purchasing object) identified based on the first sensor information based on the second sensor information. Determine the aspect. As described above, the determination apparatus 100 identifies the product designated by the user based on the first sensor information, and estimates the user's intention for the product based on the second sensor information. Thus, the determination apparatus 100 divides the processing into two steps of product specification and estimation of the user's intention, thereby estimating the user's specified accuracy of the product specified and the user's intention for the product. Accuracy can be improved. Therefore, the determination apparatus 100 can appropriately determine the processing mode related to the product or service.

上述した例においては、決定装置100は、第1センサ情報として赤外線センサにより検知された情報を用い、第2センサ情報として音声センサにより検知された情報を用いる。このように、決定装置100は、各処理において、異なるセンサにより検知された情報を用いることにより、ユーザが指定した商品の特定の精度や、商品に対するユーザの意図の推定の精度を高めることができる。   In the example described above, the determination apparatus 100 uses the information detected by the infrared sensor as the first sensor information, and uses the information detected by the voice sensor as the second sensor information. Thus, the determination apparatus 100 can improve the accuracy of specifying the product specified by the user and the accuracy of estimating the user's intention for the product by using information detected by different sensors in each process. .

図1の例では、決定装置100は、ユーザが指FG1等で指示した位置に表示された商品を、ユーザが指定した商品として特定することにより、ユーザが指定した商品の特定の精度を高めることができる。例えば、ユーザが指定する商品を音声情報に基づいて特定する場合、「これ」や「あれ」といった指示代名詞で発話された場合、ユーザが指定する商品を特定することが難しい。また、図1の例では、商品IT11である「シャンプーA」や商品IT12である「シャンプーAの詰替品」がコンテンツCT11に含まれるため、ユーザが「シャンプーA買わないと」と発話した場合であっても、商品IT11と商品IT12とのいずれを指定しているのかを特定することが難しい。一方、図1の例では、決定装置100は、ユーザが指FG1等で指示した位置に表示された商品を、ユーザが指定した商品として特定することにより、ユーザが指定した商品が商品IT11と商品IT12とのいずれであるかの特定の精度を高めることができる。   In the example of FIG. 1, the determination apparatus 100 enhances the accuracy of specifying the product specified by the user by specifying the product displayed at the position indicated by the user with the finger FG1 or the like as the product specified by the user. Can. For example, in the case where a product designated by the user is specified based on voice information, it is difficult to specify the product designated by the user when uttered with a designated pronoun such as “this” or “that”. Further, in the example of FIG. 1, since the product IT11 "Shampoo A" and the product IT12 "Shampoo A Refill" are included in the content CT11, the user utters "Shampoo A must buy" Even in this case, it is difficult to specify which of the product IT11 and the product IT12 is specified. On the other hand, in the example of FIG. 1, the determining apparatus 100 specifies the product displayed at the position indicated by the user with the finger FG1 or the like as the product specified by the user, whereby the product specified by the user is the product IT11 and the product The specific accuracy of either IT12 can be increased.

なお、決定装置100は、ユーザが指定する商品が音声情報により特定可能である場合、音声情報に基づいて、ユーザが指定する商品を特定してもよい。このように、決定装置100は、各センサが検知する情報の内容に基づいて、ユーザが指定した商品の特定や、商品に対するユーザの意図の推定を行ってもよい。また、決定装置100は、図1に示すようにユーザU12が指FG1により商品IT14の指定を継続している間に行われた発話に関する第2センサ情報のみを受け付けてもよい。これにより、決定装置100は、より正確にユーザが指定した商品とのユーザの意思とを対応付けることができる。   In addition, the determination apparatus 100 may specify the product specified by the user based on the voice information, when the product specified by the user can be specified by the voice information. As described above, the determination apparatus 100 may identify the product designated by the user or estimate the user's intention for the product based on the content of the information detected by each sensor. In addition, as illustrated in FIG. 1, the determination apparatus 100 may receive only the second sensor information regarding an utterance performed while the user U12 continues specifying the product IT14 with the finger FG1. Thus, the determination apparatus 100 can more accurately associate the user's intention with the product specified by the user.

また、上述した例では、第1センサSN1として赤外線センサを用い、ユーザの指FG1による指示に基づいて指定する商品を特定したが、決定装置100は、種々のセンサを第1センサとして用いてもよい。例えば、決定装置100は、ユーザのジェスチャ等を検知するモーションセンサ等を第1センサとして用いてもよい。この場合、決定装置100は、ユーザのジェスチャ等に基づいて指定する商品を特定してもよい。また、例えば、決定装置100は、ユーザの視線を検知するセンサ等を第1センサとして用いてもよい。この場合、決定装置100は、ユーザの視線に基づいて指定する商品を特定してもよい。また、決定装置100は、上述したような複数のセンサを第1センサとして用い、複数の第1センサが検知する複数の第1センサ情報に基づいて、指定する商品を特定してもよい。   In the example described above, although the infrared sensor is used as the first sensor SN1 and the product to be designated is specified based on the instruction by the finger FG1 of the user, the determination apparatus 100 may use various sensors as the first sensor. Good. For example, the determination apparatus 100 may use a motion sensor or the like that detects a user's gesture or the like as the first sensor. In this case, the determination device 100 may specify a product to be specified based on a user's gesture or the like. Also, for example, the determination device 100 may use a sensor or the like that detects the line of sight of the user as the first sensor. In this case, the determination apparatus 100 may specify the product to be specified based on the line of sight of the user. In addition, the determination device 100 may specify a product to be designated based on a plurality of first sensor information detected by a plurality of first sensors using the plurality of sensors as described above as the first sensor.

また、上述した例において、決定装置100は、受け付けた発話PA11の音声情報である第2センサ情報を解析することにより、発話PA11を行ったユーザがユーザU12であることを特定してもよい。例えば、決定装置100は、各ユーザに対応付けられた音声情報等に基づいて、発話PA11の音声情報を解析することにより、発話PA11を行ったユーザがユーザU12であることを特定してもよい。なお、発話PA11を行ったユーザの特定は、決定装置100が行ってもよいし、他の装置が行ってもよい。発話PA11を行ったユーザの特定を他の装置が行う場合、決定装置100は発話PA11を行ったユーザを特定する情報を他の装置から取得するものとする。このように、決定装置100は、発話を行ったユーザを特定することにより、ユーザの意図の推定の精度を向上させることができる。例えば、決定装置100は、特定したユーザに応じてモデルを使い分けることにより、ユーザの意図を推定してもよいが、この点の詳細については後述する。   Further, in the above-described example, the determination apparatus 100 may specify that the user who has performed the utterance PA11 is the user U12 by analyzing the second sensor information that is voice information of the received utterance PA11. For example, the determination apparatus 100 may specify that the user who has performed the utterance PA11 is the user U12 by analyzing the audio information of the utterance PA11 based on the audio information or the like associated with each user. . Note that the determination device 100 may identify the user who has made the utterance PA11, or another device may identify the user. When another device specifies the user who has made the utterance PA11, the determining device 100 acquires information for specifying the user who made the utterance PA11 from the other device. Thus, the determination device 100 can improve the accuracy of estimation of the user's intention by specifying the user who made the utterance. For example, the determination apparatus 100 may estimate the user's intention by selectively using the model according to the specified user, and the details of this point will be described later.

また、決定装置100は、第2センサ情報に個数に関する情報が含まれる場合、その個数に関する情報に基づいて、指定された商品に関する処理態様を決定してもよい。図1の例において、決定装置100は、第2センサ情報が「これ3個欲しい」等の個数に関する情報が含まれる音声情報である場合、端末機器AP11に対応付けられた買物リストに商品IT14を3個追加してもよい。   In addition, when the second sensor information includes information related to the number, the determination device 100 may determine the processing mode related to the designated product based on the information related to the number. In the example of FIG. 1, when the second sensor information is voice information including information on the number of “three want this” etc., the determination device 100 adds the item IT14 to the shopping list associated with the terminal device AP11. You may add three.

また、上述した例では、決定装置100が端末機器AP11に対応付けられた買物リスト、すなわちデバイスに対応付けられた買物リストに指定された商品IT14を追加する場合を示したが、決定装置100は、種々の処理態様を適宜決定してもよい。例えば、決定装置100は、ユーザに対応付けられた買物リストに指定された商品IT14を追加してもよい。例えば、決定装置100は、デバイス情報記憶部121(図3参照)に示すように、端末機器AP11に対応付けられたユーザであるユーザU11の買物リストに指定された商品IT14を追加してもよい。   Further, although the example described above shows a case where the determination apparatus 100 adds the shopping list associated with the terminal device AP11, that is, the product IT14 specified in the shopping list associated with the device, the determination apparatus 100 Various processing modes may be determined as appropriate. For example, the determination device 100 may add the designated product IT14 to the shopping list associated with the user. For example, as illustrated in the device information storage unit 121 (see FIG. 3), the determination apparatus 100 may add the product IT14 designated in the shopping list of the user U11 who is the user associated with the terminal device AP11. .

また、例えば、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の買物リストに商品IT14を追加してもよい。図1の例では、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の買物リストに商品IT14を追加し、発話PA11を行ったユーザが特定できない場合、端末機器AP11に対応付けられたユーザU11の買物リストに商品IT14を追加してもよい。このように、決定装置100は、第2センサ情報を含む種々の情報に基づいて、指定された商品に関する処理態様を決定してもよい。   Also, for example, when it is possible to specify that the user who has made the utterance PA11 is the user U12, the determination apparatus 100 may add the product IT14 to the shopping list of the user U12. In the example of FIG. 1, when the determining apparatus 100 can specify that the user who has made the utterance PA11 is the user U12, it adds the product IT14 to the shopping list of the user U12 and can not specify the user who has made the utterance PA11. The commodity IT14 may be added to the shopping list of the user U11 associated with the terminal device AP11. In this manner, the determination apparatus 100 may determine the processing mode related to the designated product based on various information including the second sensor information.

また、例えば、決定装置100は、第2センサ情報に基づいて推定されるユーザの意図が商品の購入を示す場合、その商品の決済を行うと決定してもよい。図1の例では、決定装置100は、指定された商品IT14に対する購入意思が推定されるため、商品IT14の決済を行うと決定してもよい。この場合、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の口座を用いた決済を行うと決定し、発話PA11を行ったユーザが特定できない場合、端末機器AP11に対応付けられたユーザU11の口座ACN11(図3参照)を用いた決済を行うと決定してもよい。   Also, for example, when the intention of the user estimated based on the second sensor information indicates the purchase of a product, the determination apparatus 100 may determine to settle the product. In the example of FIG. 1, the determination apparatus 100 may determine to settle the product IT14 because the purchase intention for the specified product IT14 is estimated. In this case, the determination apparatus 100 determines that the user who has made the utterance PA11 can specify that the user U12 is to make a payment using the account of the user U12, and can not specify the user who made the utterance PA11, the terminal It may be determined to make a settlement using the account ACN 11 (see FIG. 3) of the user U11 associated with the device AP11.

また、例えば、決定装置100は、第2センサ情報に基づいて推定されるユーザの意図が商品への関心を示す場合、その商品を保留リストに追加すると決定してもよい。例えば、商品が指定された場合において、ユーザが「これいいかも」や「いつか買おうかな」等の購入の意思までには至らず、商品への関心を示す発話を行った場合、決定装置100は、その商品を保留リストに追加すると決定してもよい。例えば、決定装置100は、デバイスに対応付け付けられた保留リストに商品を追加してもよい。例えば、決定装置100は、発話を行ったユーザが特定できる場合、そのユーザの保留リストに商品を追加してもよい。また、例えば、決定装置100は、発話を行ったユーザが特定できない場合、デバイスに対応付けられたユーザの保留リストに商品を追加してもよい。   Also, for example, when the intention of the user estimated based on the second sensor information indicates an interest in a product, the determination device 100 may determine to add the product to the hold list. For example, when a product is specified, the determination apparatus 100 does not reach the intention of purchase such as “This is good” or “I will buy someday,” and the like, and the determination apparatus 100 determines that the user indicates an interest in the product. May decide to add the item to the hold list. For example, the determination apparatus 100 may add the product to the hold list associated with the device. For example, when the determination device 100 can identify the user who made the utterance, the determination device 100 may add the item to the user's hold list. Also, for example, when the determination device 100 can not specify the user who made the utterance, the determination device 100 may add the product to the hold list of the user associated with the device.

また、決定装置100や端末機器AP11は、ユーザの発話に応じて、端末機器AP11が表示しているコンテンツの表示態様を変化させてもよい。図1の例では、机上面PP11に表示されたコンテンツCT11が、ユーザの発話に応じて変化してもよい。例えば、ユーザU13が、商品IT15である白いポットAを指定し、「これの赤いやつ」と発話した場合、決定装置100や端末機器AP11は、端末機器AP11が表示しているコンテンツCT11における白いポットAを赤いポットAに表示を変化させてもよい。例えば、端末機器AP11は、音声認識の機能を有し、予め各商品の各色に対応する画像(コンテンツ)を取得済みである場合、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、コンテンツCT11における白いポットAを赤いポットAに表示を変化させてもよい。例えば、決定装置100は、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、端末機器AP11にコンテンツCT11における白いポットAを赤いポットAに表示を変化させるように指示してもよい。例えば、決定装置100は、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、端末機器AP11に赤いポットAに対応する画像(コンテンツ)を送信し、机上面PP11に表示された白いポットAを赤いポットAに表示を変化させるように指示してもよい。   Further, the determination apparatus 100 or the terminal device AP11 may change the display mode of the content displayed by the terminal device AP11 in accordance with the user's utterance. In the example of FIG. 1, the content CT <b> 11 displayed on the desktop surface PP <b> 11 may change in accordance with the user's utterance. For example, when the user U13 designates the white pot A which is the product IT15 and utters “this red guy”, the determination apparatus 100 or the terminal device AP11 selects the white pot in the content CT11 displayed by the terminal device AP11 A may be changed to a red pot A. For example, when the terminal device AP11 has a voice recognition function and has previously acquired images (content) corresponding to each color of each product, designation of the white pot A by the user U13, and "the red guy of this" , And may change the display of the white pot A in the content CT11 to the red pot A. For example, the determination apparatus 100 causes the terminal device AP11 to change the display of the white pot A in the content CT11 to the red pot A according to the specification of the white pot A by the user U13 and the utterance of “the red guy of this”. You may instruct to For example, the determination device 100 transmits an image (content) corresponding to the red pot A to the terminal device AP11 according to the specification of the white pot A by the user U13 and the utterance of “the red guy of this”, and the desk surface The white pot A displayed in PP11 may be instructed to change the display to the red pot A.

また、例えば、ユーザU11が、商品IT11であるタオルAを指定し、「これの色違い」と発話した場合、決定装置100や端末機器AP11は、端末機器AP11が表示しているコンテンツCT11における白いタオルAを他の色のタオルAに表示を変化させてもよい。例えば、ユーザU11が、商品IT11であるタオルAを指定し、「これの色違い」と発話した場合、端末機器AP11は、白いタオルAをタオルAが対応可能な他の色(例えば青)のタオルAに表示を変化させてもよい。なお、上述した表示の変化については、種々の技術を適宜用いて、端末機器AP11が行ってもよい。例えば、端末機器AP11は、あらかじめそのような各商品の各色に対応する(画像)データを取得し、表示するデータを切り替えてもよい。また、例えば、端末機器AP11は、オーバレイ等で重畳させて表示することにより、コンテンツの表示態様を変化させてもよい。   Further, for example, when the user U11 designates the towel A which is the product IT11 and utters “this is a different color”, the determination apparatus 100 or the terminal device AP11 is white in the content CT11 displayed by the terminal device AP11. The display of towel A may be changed to towel A of another color. For example, when the user U11 designates the towel A which is the product IT11 and utters “this is a different color”, the terminal device AP11 is a white towel A in another color (for example, blue) to which the towel A can correspond. The display may be changed on the towel A. The terminal device AP11 may perform the above-described change in display using various techniques as appropriate. For example, the terminal device AP11 may obtain (image) data corresponding to each color of each product in advance and switch data to be displayed. Also, for example, the terminal device AP11 may change the display mode of the content by superimposing it on an overlay or the like and displaying it.

〔2.決定装置の構成〕
次に、図2を用いて、実施形態に係る決定装置100の構成について説明する。図2は、実施形態に係る決定装置の構成例を示す図である。図2に示すように、決定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、決定装置100は、決定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of determination device]
Next, the configuration of the determination apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of the configuration of the determination apparatus according to the embodiment. As illustrated in FIG. 2, the determination apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The determination apparatus 100 includes an input unit (for example, a keyboard or a mouse) that receives various operations from the administrator of the determination apparatus 100 or the like, and a display unit (for example, a liquid crystal display or the like) for displaying various information. May be

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末機器AP11との間で情報の送受信を行う。また、通信部110は、電子商取引サービスを提供する情報処理装置や音声認識サーバとの間で情報の送受信を行ってもよい。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information to and from the terminal device AP11. In addition, the communication unit 110 may transmit and receive information to and from an information processing apparatus that provides an electronic commerce service or a voice recognition server.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、デバイス情報記憶部121やコンテンツ情報記憶部122や商品情報記憶部123や買物一覧情報記憶部124を有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 according to the embodiment has a device information storage unit 121, a content information storage unit 122, a product information storage unit 123, and a shopping list information storage unit 124, as shown in FIG.

(デバイス情報記憶部121)
実施形態に係るデバイス情報記憶部121は、端末機器AP11等の各種デバイスに関する各種情報を記憶する。例えば、デバイス情報記憶部121は、第1センサ情報や第2センサ情報の収集に用いられる各種デバイスに関する各種情報を記憶する。図3に、実施形態に係るデバイス情報記憶部121の一例を示す。図3に示すデバイス情報記憶部121は、「デバイスID」、「ユーザID」、「口座ID」といった項目を有する。
(Device information storage unit 121)
The device information storage unit 121 according to the embodiment stores various information related to various devices such as the terminal device AP11. For example, the device information storage unit 121 stores various information on various devices used to collect the first sensor information and the second sensor information. FIG. 3 shows an example of the device information storage unit 121 according to the embodiment. The device information storage unit 121 illustrated in FIG. 3 has items such as “device ID”, “user ID”, and “account ID”.

「デバイスID」は、デバイスを識別するための識別情報を示す。また、「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、「ユーザID」は、デバイスに対応付けられたユーザを識別するための識別情報を示す。例えば、各デバイスIDには、複数のユーザIDが対応付けられてもよい。「口座ID」は、口座を識別するための識別情報を示す。例えば、「口座ID」は、ユーザに対応付けられた口座を識別するための識別情報を示す。   “Device ID” indicates identification information for identifying a device. Also, “user ID” indicates identification information for identifying a user. For example, the “user ID” indicates identification information for identifying the user associated with the device. For example, each device ID may be associated with a plurality of user IDs. "Account ID" indicates identification information for identifying an account. For example, “account ID” indicates identification information for identifying an account associated with the user.

例えば、図3に示す例において、デバイスID「AP11」により識別されるデバイス(端末機器AP11)には、ユーザID「U11」により識別されるユーザ(ユーザU11)が対応付けられていることを示す。また、ユーザID「U11」により識別されるユーザ(ユーザU11)は、口座ID「ACN11」により識別される口座が対応付けられていることを示す。   For example, in the example illustrated in FIG. 3, it is indicated that the device (terminal device AP11) identified by the device ID “AP11” is associated with the user (user U11) identified by the user ID “U11”. . Also, the user (user U11) identified by the user ID "U11" indicates that the account identified by the account ID "ACN11" is associated.

なお、デバイス情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。デバイス情報記憶部121は、限度額に関する情報を記憶してもよい。例えば、デバイス情報記憶部121は、過去の決済金額に関する情報を記憶してもよい。   The device information storage unit 121 is not limited to the above, and may store various information according to the purpose. The device information storage unit 121 may store information on the limit amount. For example, the device information storage unit 121 may store information on past payment amounts.

(コンテンツ情報記憶部122)
実施形態に係るコンテンツ情報記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ情報記憶部122は、端末機器AP11等の表示手段を有する装置により表示されるコンテンツに関する各種情報を記憶する。図4は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図4に示すコンテンツ情報記憶部122は、「コンテンツID」、「商品ID」、「範囲」といった項目が含まれる。
(Content information storage unit 122)
The content information storage unit 122 according to the embodiment stores various information related to content. For example, the content information storage unit 122 stores various information related to the content displayed by a device having display means such as the terminal device AP11. FIG. 4 is a diagram showing an example of the content information storage unit according to the embodiment. The content information storage unit 122 illustrated in FIG. 4 includes items such as “content ID”, “product ID”, and “range”.

「コンテンツID」は、コンテンツを識別するための識別情報を示す。例えば、コンテンツID「CT11」により識別されるコンテンツは、図1の例に示したコンテンツCT11に対応する。「商品ID」は、商品を識別するための識別情報を示す。また、「範囲」は、コンテンツ中において、対応する商品IDにより識別される商品が含まれる位置を示す。なお、図4の例では、「範囲」をAR11等の抽象的な符号で示すが、「範囲」は、対応する商品IDにより識別される商品のコンテンツ中における位置を示す座標等であってもよい。   "Content ID" indicates identification information for identifying content. For example, the content identified by the content ID “CT11” corresponds to the content CT11 shown in the example of FIG. "Product ID" indicates identification information for identifying a product. Further, “range” indicates a position in the content at which the product identified by the corresponding product ID is included. In the example shown in FIG. 4, “range” is indicated by an abstract code such as AR 11, but “range” may be coordinates etc. indicating the position in the content of the product identified by the corresponding product ID Good.

例えば、図4に示す例において、コンテンツID「CT11」により識別されるコンテンツには、商品ID「IT11」により識別される商品や、商品ID「IT12」により識別される商品や、商品ID「IT13」により識別される商品や、商品ID「IT14」により識別される商品や、商品ID「IT15」により識別される商品が含まれることを示す。また、例えば、図4に示す例において、商品ID「IT11」により識別される商品は、コンテンツCT11中の範囲AR11に位置することを示す。例えば、範囲AR11は、コンテンツCT11中の略中央に位置する所定の範囲に対応する。   For example, in the example illustrated in FIG. 4, the content identified by the content ID “CT11” includes the item identified by the item ID “IT11”, the item identified by the item ID “IT12”, and the item ID “IT13”. It indicates that the product identified by “”, the product identified by the product ID “IT14”, and the product identified by the product ID “IT15” are included. Also, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT11” indicates that the item is located in the range AR11 in the content CT11. For example, the range AR11 corresponds to a predetermined range located substantially at the center of the content CT11.

また、例えば、図4に示す例において、商品ID「IT12」により識別される商品は、コンテンツCT11中の範囲AR12に位置することを示す。また、例えば、図4に示す例において、商品ID「IT13」により識別される商品は、コンテンツCT11中の範囲AR13に位置することを示す。また、例えば、図4に示す例において、商品ID「IT14」により識別される商品は、コンテンツCT11中の範囲AR14に位置することを示す。また、例えば、図4に示す例において、商品ID「IT15」により識別される商品は、コンテンツCT11中の範囲AR15に位置することを示す。   Further, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT12” indicates that the item is located in the range AR12 in the content CT11. Further, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT13” indicates that the item is located in the range AR13 in the content CT11. Also, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT14” indicates that the item is located in the range AR14 in the content CT11. Also, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT15” indicates that the item is located in the range AR15 in the content CT11.

なお、コンテンツ情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。   The content information storage unit 122 is not limited to the above, and may store various information according to the purpose.

(商品情報記憶部123)
実施形態に係る商品情報記憶部123は、商品に関する各種情報を記憶する。図5は、実施形態に係る商品情報記憶部の一例を示す図である。図5に示す商品情報記憶部123は、「商品ID」、「商品名」といった項目を有する。
(Product information storage unit 123)
The product information storage unit 123 according to the embodiment stores various pieces of information on the product. FIG. 5 is a diagram showing an example of the product information storage unit according to the embodiment. The product information storage unit 123 illustrated in FIG. 5 has items such as “product ID” and “product name”.

「商品ID」は、商品を識別するための識別情報を示す。「商品名」は、商品やサービスの具体的な名称等を示す。   "Product ID" indicates identification information for identifying a product. "Product name" indicates a specific name or the like of a product or service.

また、図5に示す例において、商品ID「IT11」により識別される商品は「シャンプーA」であることを示す。また、図5に示す例において、商品ID「IT12」により識別される商品は「シャンプーA詰替品」、すなわちシャンプーAの詰め替え用の商品であることを示す。また、図5に示す例において、商品ID「IT13」により識別される商品は「タオルA」であることを示す。また、図5に示す例において、商品ID「IT14」により識別される商品は「かごA」であることを示す。また、図5に示す例において、商品ID「IT15」により識別される商品は「ポットA」であることを示す。   Further, in the example shown in FIG. 5, it indicates that the product identified by the product ID “IT11” is “shampoo A”. Further, in the example shown in FIG. 5, it is indicated that the product identified by the product ID “IT12” is “Shampoo A Refill”, that is, a product for refilling shampoo A. Moreover, in the example shown in FIG. 5, it shows that the goods identified by goods ID "IT13" are "towel A". Moreover, in the example shown in FIG. 5, it shows that the goods identified by goods ID "IT14" are "car A." Moreover, in the example shown in FIG. 5, it shows that the goods identified by goods ID "IT15" are "pot A."

なお、商品情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、商品情報記憶部123は、商品の金額に関する情報を記憶してもよい。例えば、商品情報記憶部123は、商品を取り扱うストア(店舗)に関する情報や在庫に関する情報を記憶してもよい。   The product information storage unit 123 is not limited to the above, and may store various information according to the purpose. For example, the product information storage unit 123 may store information on the price of the product. For example, the product information storage unit 123 may store information on stores (stores) that handle products or information on inventory.

(買物一覧情報記憶部124)
実施形態に係る買物一覧情報記憶部124は、買物(購入)に関する各種情報を記憶する。例えば、買物一覧情報記憶部124は、所定の商品に関する各種情報を記憶する。図6は、実施形態に係る買物一覧情報記憶部の一例を示す図である。図6に示す買物一覧情報記憶部124は、「対象ID」、「買物リスト」といった項目を有する。
(Shopping list information storage unit 124)
The shopping list information storage unit 124 according to the embodiment stores various information related to shopping (purchase). For example, the shopping list information storage unit 124 stores various information on a predetermined product. FIG. 6 is a diagram illustrating an example of the shopping list information storage unit according to the embodiment. The shopping list information storage unit 124 illustrated in FIG. 6 has items such as “target ID” and “shopping list”.

「対象ID」は、商品のリストが対応付けられる対象を識別する情報を示す。なお、「対象ID」には、「AP11」等の端末機器を識別するIDや「U1」等のユーザを識別するID等、商品のリストが対応付けられる対象を識別するIDであれば、どのような対象を識別するIDが含まれてもよい。「買物リスト」は、対象に対応づけられている商品に関する情報を示す。例えば、「買物リスト」は、第1センサ情報に基づいて特定された商品と対象との対応付けを示す。   "Object ID" indicates information identifying an object to which the list of products is associated. The “target ID” may be an ID for identifying a terminal device such as “AP11” or an ID for identifying a user such as “U1”, as long as it is an ID for identifying a target associated with a list of products. It may include an ID identifying such an object. The “shopping list” indicates information on the product associated with the target. For example, the “shopping list” indicates the correspondence between the item identified based on the first sensor information and the object.

「買物リスト」には、「商品」や「日時」といった項目が含まれる。例えば、「商品」は、グループにおいて決済が行われた商品を識別する情報を示す。また、「日時」は、対応する商品の決済が行われた日時を示す。なお、「日時」は、対応する商品の入力が行われた日時であってもよい。   The "shopping list" includes items such as "goods" and "date and time". For example, “merchandise” indicates information identifying a product for which settlement has been made in the group. Also, “date and time” indicates the date and time when the settlement of the corresponding product was performed. The “date and time” may be the date and time when the corresponding product was input.

なお、「買物リスト」には、「入力ユーザ」といった項目が含まれてもよい。「買物リスト」中の「入力ユーザ」は、対応する商品の指定を行ったユーザであってもよいし、対応する商品に対する意図を示したユーザであってもよい。例えば、「買物リスト」中の「入力ユーザ」は、第1センサ情報を検知されたユーザであってもよいし、第2センサ情報を検知されたユーザであってもよい。   The “shopping list” may include an item such as “input user”. The “input user” in the “shopping list” may be a user who has specified a corresponding product or may be a user who has indicated an intention for the corresponding product. For example, the “input user” in the “shopping list” may be a user whose first sensor information has been detected or a user whose second sensor information has been detected.

例えば、図6に示す例において、対象ID「AP11」により識別される対象は、「AP11」により識別される端末機器AP11であることを示す。例えば、図6に示す例において、「買物リスト」に示すように、商品ID「IT1」により識別される商品が日時「DT1」に端末機器AP11に対応する買物リストに追加されたことを示す。また、例えば、商品ID「IT14」により識別される商品が日時「DT12」に端末機器AP11に対応する買物リストに追加されたことを示す。   For example, in the example illustrated in FIG. 6, the target identified by the target ID "AP11" indicates that the terminal device AP11 identified by "AP11". For example, in the example illustrated in FIG. 6, as illustrated in the “shopping list”, it indicates that the item identified by the item ID “IT1” has been added to the shopping list corresponding to the terminal device AP11 at the date “DT1”. Further, for example, it indicates that the product identified by the product ID “IT14” has been added to the shopping list corresponding to the terminal device AP11 at the date and time “DT12”.

なお、買物一覧情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、買物一覧情報記憶部124は、商品の金額に関する情報を記憶してもよい。例えば、買物一覧情報記憶部124は、「買物リスト」に加えて、決済が行われた商品に関する情報を示す「決済済リスト」や、ユーザの操作により決済が保留されている商品に関する情報を示す「保留リスト」等を記憶してもよい。   In addition, shopping list information storage part 124 may memorize not only the above but various information according to the object. For example, the shopping list information storage unit 124 may store information on the amount of goods. For example, the shopping list information storage unit 124 displays, in addition to the "shopping list", a "settled list" indicating information on the item for which settlement has been performed, and information on the item for which settlement is suspended by the user operation. The "pending list" may be stored.

(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラム(決定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 2, the control unit 130 is a controller, and is stored in a storage device in the determination device 100 by, for example, a central processing unit (CPU) or a micro processing unit (MPU). Various programs (corresponding to an example of the determination program) are realized by executing the RAM as a work area. The control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図2に示すように、制御部130は、第1受付部131と、第2受付部132と、推定部133と、決定部134と、送信部135とを有し、以下に説明する決定処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する決定処理を行う構成であれば他の構成であってもよい。   As shown in FIG. 2, the control unit 130 includes a first reception unit 131, a second reception unit 132, an estimation unit 133, a determination unit 134, and a transmission unit 135, and the determination process described below Realize or execute the function or action of The internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 2, and may be another configuration as long as it performs a determination process described later.

(第1受付部131)
第1受付部131は、各種情報を受け付ける。例えば、第1受付部131は、外部の情報処理装置から各種情報を受け付ける。例えば、第1受付部131は、第1センサSN1により検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。例えば、第1受付部131は、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付ける。例えば、第1受付部131は、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。
(1st reception part 131)
The first accepting unit 131 accepts various information. For example, the first reception unit 131 receives various information from an external information processing apparatus. For example, the first reception unit 131 receives the first sensor information which is the first sensor information detected by the first sensor SN1 and which relates to the specification of the user for the product or service displayed in the predetermined area. For example, the first reception unit 131 receives the first sensor information detected by the infrared sensor as the first sensor SN1. For example, the first reception unit 131 receives first sensor information regarding specification of the user for one product or service among products or services displayed in a plurality of predetermined areas.

図1では、第1受付部131は、端末機器AP11から第1センサ情報を受け付ける。図1の例では、第1受付部131は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報や、ユーザにより指定されたコンテンツがコンテンツCT11であることを示す情報を端末機器AP11から受け付ける。また、例えば、第1受付部131は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報のみを端末機器AP11から受け付けてもよい。   In FIG. 1, the first reception unit 131 receives the first sensor information from the terminal device AP11. In the example of FIG. 1, the first reception unit 131 indicates that the first sensor information indicating that the position designated by the user is the position (x1, y1) or that the content designated by the user is the content CT11. Information is received from the terminal device AP11. Also, for example, the first reception unit 131 may receive only the first sensor information indicating that the position designated by the user is the position (x1, y1) from the terminal device AP11.

(第2受付部132)
第2受付部132は、各種情報を受け付ける。例えば、第2受付部132は、外部の情報処理装置から各種情報を受け付ける。例えば、第2受付部132は、第2センサSN2により検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。例えば、第2受付部132は、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付ける。
(Second acceptance unit 132)
The second accepting unit 132 accepts various information. For example, the second accepting unit 132 accepts various information from an external information processing apparatus. For example, the second accepting unit 132 is the second sensor information detected by the second sensor SN2, and accepts the second sensor information regarding the intention of the user for the product or service specified based on the first sensor information. For example, the second reception unit 132 receives the second sensor information detected by the voice sensor as the second sensor SN2.

図1では、第2受付部132は、端末機器AP11から第2センサ情報を受け付ける。図1の例では、第2受付部132は、ユーザの発話に関する第2センサ情報を端末機器AP11から受け付ける。例えば、第2受付部132は、発話PA11の音声情報を第2センサ情報として端末機器AP11から受け付ける。なお、第1受付部131と第2受付部132とは一体であってもよい。   In FIG. 1, the second receiving unit 132 receives second sensor information from the terminal device AP11. In the example of FIG. 1, the second reception unit 132 receives, from the terminal device AP11, second sensor information related to the user's speech. For example, the second accepting unit 132 accepts voice information of the utterance PA11 from the terminal device AP11 as second sensor information. The first reception unit 131 and the second reception unit 132 may be integrated.

(推定部133)
推定部133は、種々の情報の推定や特定を行う。例えば、推定部133は、第2センサ情報に基づいて購入対象に対するユーザの意図を推定する。例えば、推定部133は、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定してもよい。例えば、推定部133は、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに第2センサ情報を入力することにより、購入対象に対する当該ユーザの意図を推定してもよい。なお、この点についての詳細は後述する。
(Estimation unit 133)
The estimation unit 133 estimates and specifies various information. For example, the estimation unit 133 estimates the user's intention for the purchase target based on the second sensor information. For example, the estimation unit 133 may estimate the intention of the user with respect to the purchase target based on the model and the second sensor information that change according to the user. For example, the estimation unit 133 may use the second learning model based on the user's intention estimated in the past and information on the user's behavior with respect to the product or service whose processing mode has been determined based on the intention. By inputting sensor information, the user's intention for the purchase target may be estimated. The details of this point will be described later.

図1の例では、推定部133は、端末機器AP11からの第1センサ情報に基づいてユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報と、コンテンツ情報記憶部122に記憶されたコンテンツ情報とに基づいて、ユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報と、コンテンツ情報記憶部122に記憶された各商品IT11〜IT15の範囲AR11〜AR15とに基づいて、ユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報の座標(x1,y1)が範囲AR11〜AR15のいずれかに含まれる場合、ユーザが指定した商品を特定する。図1の例では、推定部133は、第1センサ情報の座標(x1,y1)が範囲AR14に含まれるため、ユーザが指定した商品が商品IT14であると特定する。また、例えば、推定部133は、商品情報記憶部123に記憶された商品IDと商品名の対応に基づいて、商品IT14が商品名「かごA」であると特定する。   In the example of FIG. 1, the estimation unit 133 specifies the product designated by the user based on the first sensor information from the terminal device AP11. For example, the estimation unit 133 specifies the product designated by the user based on the first sensor information and the content information stored in the content information storage unit 122. For example, the estimation unit 133 specifies the product designated by the user based on the first sensor information and the ranges AR11 to AR15 of the products IT11 to IT15 stored in the content information storage unit 122. For example, when the coordinates (x1, y1) of the first sensor information are included in any of the ranges AR11 to AR15, the estimation unit 133 specifies the product specified by the user. In the example of FIG. 1, since the coordinates (x1, y1) of the first sensor information are included in the range AR14, the estimation unit 133 specifies that the product designated by the user is the product IT14. Also, for example, based on the correspondence between the product ID stored in the product information storage unit 123 and the product name, the estimation unit 133 specifies that the product IT14 is the product name “car A”.

また、図1の例では、推定部133は、端末機器AP11からの第2センサ情報に基づいてユーザの意図を推定する。例えば、推定部133は、受け付けた第2センサ情報を解析することにより、第1センサ情報に基づいて特定した商品IT14をユーザが購入することを希望していると推定する。例えば、推定部133は、第2センサ情報である発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11に「これ」という指示代名詞とその指示代名詞に対応する商品を購入することを希望していることを示す内容が含まれることを特定する。例えば、推定部133は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。   Moreover, in the example of FIG. 1, the estimation part 133 estimates a user's intention based on the 2nd sensor information from terminal device AP11. For example, the estimation unit 133 analyzes the received second sensor information to estimate that the user desires to purchase the product IT14 specified based on the first sensor information. For example, the estimation unit 133 converts the voice information of the utterance PA11 which is the second sensor information into character information, and based on the character information after conversion, the utterance PA11 corresponds to a designated pronoun “this” and its designated pronoun Identify the content that indicates that you want to purchase the product. For example, the estimation unit 133 estimates that the user desires to purchase a product corresponding to the designated pronoun by appropriately analyzing the character information of the utterance PA11 using various conventional techniques such as syntactic analysis. .

例えば、推定部133は、第2センサ情報に基づいて、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。また、図1の例では、推定部133は、ユーザが指定した商品が商品IT14であると特定しているため、ユーザが商品IT14であるかごAを購入することを希望していると推定する。   For example, based on the second sensor information, the estimation unit 133 estimates that the user desires to purchase a product corresponding to the designated pronoun. Further, in the example of FIG. 1, since the estimation unit 133 specifies that the product specified by the user is the product IT14, it is estimated that the user desires to purchase the car A which is the product IT14. .

(決定部134)
決定部134は、種々の決定を行う。例えば、決定部134は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定する。
(Determination unit 134)
The determination unit 134 performs various determinations. For example, the determination unit 134 determines, based on the second sensor information, a processing mode related to a purchase target that is a product or service specified based on the first sensor information. For example, when the intention of the user estimated based on the second sensor information satisfies a predetermined condition, the determination unit 134 determines to add the purchase target to the predetermined list. For example, when the intention of the user estimated based on the second sensor information indicates the purchase of the purchase target, the determination unit 134 determines to perform the settlement of the purchase target. For example, when the intention of the user estimated based on the second sensor information indicates an interest in the purchase object, the determination unit 134 determines to add the purchase object to the hold list.

図1の例では、決定部134は、推定部133により推定されたユーザの商品IT14に対する意図に応じて、商品IT14に関する処理態様を決定する。例えば、決定部134は、ユーザが商品IT14であるかごAを購入することを希望していると推定されるため、商品IT14を所定の買物リストに追加すると決定する。例えば、決定部134は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。例えば、決定部134は、買物一覧情報記憶部124に示すように、端末機器AP11に対応付けられた買物リストに商品IT14を追加する。端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。図1の例では、決定部134は、第1センサ情報に基づいて特定される商品IT14に関する処理態様を、第2センサ情報に基づいて決定する。   In the example of FIG. 1, the determination unit 134 determines the processing mode related to the product IT14 in accordance with the user's intention for the product IT14 estimated by the estimation unit 133. For example, the determination unit 134 determines that the product IT14 is to be added to a predetermined shopping list because it is estimated that the user desires to purchase the car A, which is the product IT14. For example, the determination unit 134 determines to add the product IT14 to the shopping list associated with the terminal device AP11. For example, as illustrated in the shopping list information storage unit 124, the determining unit 134 adds the product IT14 to the shopping list associated with the terminal device AP11. It is determined to add the product IT 14 to the shopping list associated with the terminal device AP11. In the example of FIG. 1, the determination unit 134 determines, based on the second sensor information, the processing mode regarding the product IT 14 identified based on the first sensor information.

(送信部135)
送信部135は、各種情報を送信する。例えば、送信部135は、各種情報を外部の情報処理装置へ送信する。例えば、送信部135は、買物一覧情報記憶部124中の買物リストに商品が追加された場合、所定のタイミングでユーザが利用する種々の装置に商品の追加に関する情報を送信してもよい。例えば、送信部135は、端末機器AP11に買物リストに追加された商品に関する情報を送信し、端末機器AP11は、所定のタイミングで受信した商品に関する情報を出力してもよい。例えば、端末機器AP11は、ユーザが買物に関する行動を終了した後に、端末機器AP11を再び利用するタイミングで商品に関する情報を表示してもよい。
(Transmission unit 135)
The transmission unit 135 transmits various information. For example, the transmitting unit 135 transmits various information to an external information processing apparatus. For example, when a product is added to the shopping list in the shopping list information storage unit 124, the transmitting unit 135 may transmit information on the addition of the product to various devices used by the user at a predetermined timing. For example, the transmission unit 135 may transmit, to the terminal device AP11, information on the item added to the shopping list, and the terminal device AP11 may output information on the item received at a predetermined timing. For example, the terminal device AP11 may display information on a product at a timing at which the terminal device AP11 is used again after the user finishes an action related to shopping.

〔3.処理フロー〕
次に、図7を用いて、実施形態に係る決定システム1による決定処理の手順について説明する。図7は、実施形態に係る決定処理の一例を示すフローチャートである。
[3. Processing flow]
Next, the procedure of the determination process by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment.

図7に示すように、決定装置100の第1受付部131は、ユーザの商品の指定に関する第1センサ情報を受け付ける(ステップS101)。図1の例では、第1受付部131は、端末機器AP11からユーザがかごAを指定したことを示す第1センサ情報を受け付ける。   As shown in FIG. 7, the first accepting unit 131 of the determining apparatus 100 accepts first sensor information regarding specification of a product of the user (step S101). In the example of FIG. 1, the first reception unit 131 receives, from the terminal device AP11, first sensor information indicating that the user has specified the car A.

そして、決定装置100の第2受付部132は、ユーザの商品の購入意思に関する第2センサ情報を受け付ける(ステップS102)。図1の例では、第2受付部132は、端末機器AP11からユーザがかごAの購入する意図があることを示す第2センサ情報を受け付ける。   Then, the second reception unit 132 of the determination device 100 receives the second sensor information regarding the purchase intention of the user for the product (step S102). In the example of FIG. 1, the second accepting unit 132 accepts second sensor information indicating that the user intends to purchase the car A from the terminal device AP11.

その後、決定装置100の決定部134は、第1センサ情報に基づいて特定される商品またはサービスに関する処理態様を、第2センサ情報に基づいて決定する(ステップS103)。図1の例では、決定部134は、ユーザにより指定されたかごAを買物一覧情報記憶部124中の買物リストに追加する。   Thereafter, the determination unit 134 of the determination device 100 determines the processing mode related to the product or service specified based on the first sensor information based on the second sensor information (step S103). In the example of FIG. 1, the determination unit 134 adds the car A specified by the user to the shopping list in the shopping list information storage unit 124.

〔4.変形例〕
例えば、変形例に係る決定装置100Aは、モデルを生成し、生成したモデルを用いてユーザの意図を推定してもよい。この点を図8及び図9を用いて説明する。なお、実施形態と同様の構成については、同一の符号を付して説明を省略する。
[4. Modified example]
For example, the determination device 100A according to the modification may generate a model, and estimate the user's intention using the generated model. This point will be described using FIG. 8 and FIG. About the same composition as an embodiment, the same numerals are attached and explanation is omitted.

〔4−1.決定装置の構成〕
次に、図8を用いて、変形例に係る決定装置100Aの構成について説明する。図8は、変形例に係る決定装置の構成例を示す図である。図8に示すように、決定装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、決定装置100Aは、決定装置100Aの管理者等から各種操作を取得する入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[4-1. Configuration of determination device]
Next, the configuration of the determination apparatus 100A according to the modification will be described with reference to FIG. FIG. 8 is a diagram showing a configuration example of a determination device according to a modification. As illustrated in FIG. 8, the determination apparatus 100A includes a communication unit 110, a storage unit 120A, and a control unit 130A. The determination apparatus 100A has an input unit (for example, a keyboard or a mouse) for acquiring various operations from the administrator or the like of the determination apparatus 100A, and a display unit (for example, a liquid crystal display or the like) for displaying various information. You may

(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図8に示すように、デバイス情報記憶部121やコンテンツ情報記憶部122や商品情報記憶部123や買物一覧情報記憶部124やモデル情報記憶部125を有する。
(Storage unit 120A)
The storage unit 120A is implemented by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 8, the storage unit 120A according to the modification includes a device information storage unit 121, a content information storage unit 122, a product information storage unit 123, a shopping list information storage unit 124, and a model information storage unit 125.

(モデル情報記憶部125)
変形例に係るモデル情報記憶部125は、学習に関する情報を記憶する。例えば、モデル情報記憶部125は、複数のモデル情報を記憶する。図9は、実施形態に係るモデル情報記憶部の一例を示す図である。図9に示すモデル情報記憶部125は、モデル情報として、各モデルM1、M2等に対応させて「素性1」〜「素性3」等といった項目を有する。
(Model information storage unit 125)
The model information storage unit 125 according to the modification stores information on learning. For example, the model information storage unit 125 stores a plurality of model information. FIG. 9 is a diagram illustrating an example of a model information storage unit according to the embodiment. The model information storage unit 125 illustrated in FIG. 9 has items such as “feature 1” to “feature 3” and the like corresponding to the models M1 and M2 as model information.

例えば、図9に示す例において、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。また、例えば、図9に示す例において、モデルM2に関するモデル情報は、素性1の重みが「−0.3」、素性2の重みが「0.1」、素性3の重みが「−0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。   For example, in the example shown in FIG. 9, the model information related to the model M1 has a weight of feature 1 of “0.5”, a weight of feature 2 of “−0.4”, a weight of feature 3 of “0.2”, etc. To indicate that Further, for example, in the example illustrated in FIG. 9, in the model information regarding the model M2, the weight of feature 1 is “−0.3”, the weight of feature 2 is “0.1”, and the weight of feature 3 is “−0. 2 ”and so on. For example, when the feature (feature amount) of the model is expressed by an m-dimensional vector, the number of feature numbers is m, and the weight of the feature 1 to the feature m is stored.

なお、モデル情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。   The model information storage unit 125 is not limited to the above, and may store various model information according to the purpose.

(制御部130A)
図8の説明に戻って、制御部130Aは、コントローラであり、例えば、CPUやMPU等によって、決定装置100A内部の記憶装置に記憶されている各種プログラム(決定プログラムや学習プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130A)
Returning to the explanation of FIG. 8, the control unit 130A is a controller, and for example, various programs (corresponding to an example of a determination program or a learning program) stored in a storage device inside the determination device 100A by a CPU, an MPU, or the like. Is implemented by executing the RAM as a work area. The control unit 130A is a controller, and is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図8に示すように、制御部130Aは、第1受付部131と、第2受付部132と、推定部133Aと、決定部134と、送信部135と、学習部136を有し、以下に説明する情報処理の機能や作用を実現または実行する。   As shown in FIG. 8, the control unit 130A includes a first reception unit 131, a second reception unit 132, an estimation unit 133A, a determination unit 134, a transmission unit 135, and a learning unit 136. Implement or execute the functions and actions of the information processing to be described.

(学習部136)
学習部136は、種々の情報を学習する。例えば、学習部136は、種々の情報に基づいてモデルを生成する。例えば、学習部136は、過去に推定されたユーザの意図と、その意図に基づいて処理態様が決定された商品に対するユーザの行動に関する情報とに基づいて学習する。
(Learning unit 136)
The learning unit 136 learns various information. For example, the learning unit 136 generates a model based on various information. For example, the learning unit 136 learns based on the user's intention estimated in the past and information on the user's action on the product whose processing mode is determined based on the user's intention.

例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入した場合、その情報を正例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入した場合の第2センサ情報を正例として学習を行なってもよい。   For example, the learning unit 136 may estimate that the user's intention is the intention to purchase, and when the user purchases a product added to the shopping list, learning may be performed using the information as a positive example. For example, the learning unit 136 may perform learning using the second sensor information in the case where the user purchases a product added to the shopping list, which is assumed to be the intention of the user and intends to purchase.

例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入しなかった場合、その情報を負例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入しなかった場合の第2センサ情報を負例として学習を行なってもよい。   For example, when the user's intention is presumed to be an intention to purchase, and the user does not purchase the item added to the shopping list, the learning unit 136 may perform learning using the information as a negative example. For example, the learning unit 136 may perform learning using, as a negative example, the second sensor information in the case where the user's intention is presumed to be the intention to purchase, and the user does not purchase the item added to the shopping list. .

例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入しなかった場合、その情報を正例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入しなかった場合の第2センサ情報を正例として学習を行なってもよい。   For example, when the user's intention is presumed not to be purchased and the user does not purchase a product not added to the shopping list, the learning unit 136 may perform learning using the information as a positive example. For example, even if the learning unit 136 performs learning using the second sensor information as a positive example when the user does not purchase a product that is not intended to be purchased by the user and is not added to the shopping list. Good.

例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入した場合、その情報を負例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入した場合の第2センサ情報を負例として学習を行なってもよい。   For example, the learning unit 136 may perform learning using the information as a negative example when it is estimated that the user's intention is not the intention to purchase and the product purchased by the user is not added to the shopping list. For example, the learning unit 136 may perform learning by using, as a negative example, second sensor information in the case where the user purchases a product that is not intended to be purchased by the user and is not added to the shopping list.

例えば、学習部136は、ユーザの意図が購入意図である可能性が高い程、大きい値を出力するモデルを生成してもよい。また、学習部136は、ユーザの意図が購入意図である可能性が低い程、小さい値を出力するモデルを生成してもよい。例えば、学習部136は、ユーザの意図が購入意図である可能性が高い程1に近く、ユーザの意図が購入意図である可能性が低い程0に近い値(スコア)を出力するモデルを生成してもよい。   For example, the learning unit 136 may generate a model that outputs a larger value as the user's intention is more likely to be a purchase intention. The learning unit 136 may also generate a model that outputs a smaller value as the user's intention is less likely to be a purchase intention. For example, the learning unit 136 generates a model that outputs a value (score) closer to 1 when the user's intention is more likely to be a purchase intention, and as the user's intention is less likely to be a purchase intention. You may

例えば、学習部136は、ユーザ毎にモデルを生成してもよい。例えば、学習部136は、推定部133Aにより特定されたユーザ毎にモデルを生成してもよい。また、例えば、学習部136は、ユーザ分類毎にモデルを生成してもよい。例えば、学習部136は、30代男性や20代女性等の種々のユーザ分類毎にモデルを生成してもよい。例えば、学習部136は、推定部133Aにより特定されたユーザの属性に基づいて、ユーザ分類毎にモデルを生成してもよい。また、学習部136は、複数のモデルに限らず、全ユーザに共通して用いる1つのモデルを生成してもよい。なお、上記は一例であり、学習部136は、どのような情報に基づいてモデルを生成してもよい。例えば、学習部136は、第1センサ情報と第2センサ情報との入力として、スコアを出力するモデルを生成してもよい。   For example, the learning unit 136 may generate a model for each user. For example, the learning unit 136 may generate a model for each user identified by the estimation unit 133A. Also, for example, the learning unit 136 may generate a model for each user classification. For example, the learning unit 136 may generate a model for each of various user classifications such as a 30's male and a 20's female. For example, the learning unit 136 may generate a model for each user classification based on the attribute of the user specified by the estimation unit 133A. In addition, the learning unit 136 may generate one model that is commonly used by all users, not limited to a plurality of models. The above is an example, and the learning unit 136 may generate a model based on any information. For example, the learning unit 136 may generate a model that outputs a score as an input of the first sensor information and the second sensor information.

(推定部133A)
推定部133Aは、学習部136において生成されたモデルを用いて、ユーザの意図の推定を行う。例えば、推定部133Aは、モデルに第2センサ情報を入力することにより出力されたスコアに基づいて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、モデルに第2センサ情報や第1センサ情報を入力することにより出力されたスコアに基づいて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、種々の従来技術を適宜用いて、第2センサ情報が検知されたユーザを特定し、特定したユーザに応じて選択されるモデルを用いて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、第2センサ情報である音声情報を解析することにより、発話を行ったユーザを特定し、特定したユーザに応じて選択されるモデルを用いて、ユーザの意図の推定を行ってもよい。
(Estimation unit 133A)
The estimation unit 133A uses the model generated by the learning unit 136 to estimate the user's intention. For example, the estimation unit 133A may estimate the user's intention based on the score output by inputting the second sensor information into the model. For example, the estimation unit 133A may estimate the user's intention based on the score output by inputting the second sensor information or the first sensor information to the model. For example, the estimation unit 133A identifies the user whose second sensor information has been detected, using various conventional techniques as appropriate, and estimates the user's intention using a model selected according to the identified user. May be For example, the estimation unit 133A identifies the user who made the utterance by analyzing the voice information that is the second sensor information, and estimates the user's intention using the model selected according to the identified user. You may go.

例えば、推定部133Aは、モデルが出力したスコアが所定の閾値以上である場合、ユーザの意図を購入意図と推定してもよい。また、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満である場合、ユーザの意図を購入意図ではないと推定してもよい。また、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満の所定の範囲内である場合、ユーザの意図を購入検討の意図であると推定してもよい。この場合、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満の所定の範囲よりもさらに低い場合、ユーザの意図を購入の意図が無いと推定してもよい。   For example, when the score output by the model is equal to or greater than a predetermined threshold, the estimation unit 133A may estimate the user's intention as the purchase intention. Also, for example, when the score output by the model is less than a predetermined threshold, the estimation unit 133A may estimate that the user's intention is not a purchase intention. Also, for example, when the score output from the model is within a predetermined range less than a predetermined threshold, the estimation unit 133A may estimate the user's intention as the purchase consideration intention. In this case, for example, when the score output from the model is lower than a predetermined range less than a predetermined threshold, the estimation unit 133A may estimate that the user's intention is not the intention of purchase.

なお、ユーザの意図の推定に用いるモデルを外部の情報処理装置から取得する場合、決定装置100Aは、学習部136を有しなくてもよい。   When acquiring a model used to estimate the user's intention from an external information processing apparatus, the determination apparatus 100A may not have the learning unit 136.

〔5.効果〕
上述してきたように、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1受付部131と、第2受付部132と、決定部134とを有する。第1受付部131は、第1センサSN1により検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。第2受付部132は、第2センサSN2により検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。決定部134は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。
[5. effect〕
As described above, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification include the first reception unit 131, the second reception unit 132, and the determination unit 134. The first accepting unit 131 is the first sensor information detected by the first sensor SN1, and accepts the first sensor information related to the designation of the user for the product or service displayed in the predetermined area. The second accepting unit 132 is the second sensor information detected by the second sensor SN2, and accepts the second sensor information regarding the user's intention for the product or service specified based on the first sensor information. The determination unit 134 determines, based on the second sensor information, a processing mode related to a purchase target that is a product or service specified based on the first sensor information.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1センサ情報に基づいて商品またはサービスを特定し、特定した商品またはサービスに対するユーザの意図に関する第2センサ情報に基づいて推定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification specify the product or service based on the first sensor information, and based on the second sensor information on the user's intention for the specified product or service. Can be estimated. Thereby, the determination apparatus 100, 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定する。   Further, in the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification, when the intention of the user estimated based on the second sensor information satisfies a predetermined condition, the determination unit 134 determines a predetermined purchase target. Decide to add to the list.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, when the intention of the user estimated based on the second sensor information satisfies a predetermined condition, the determination device 100 according to the embodiment and the determination device 100A according to the modification add the purchase target to the predetermined list. By determining, the processing aspect regarding goods or services can be determined appropriately.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定する。   Further, in the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification, when the intention of the user estimated based on the second sensor information indicates purchase of a purchase target, the determination unit 134 is a purchase target. Decide to settle.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, when the intention of the user estimated based on the second sensor information indicates the purchase of the purchase object, the determination device 100 according to the embodiment and the determination device 100A according to the modification perform settlement of the purchase object. By determining, the processing aspect regarding goods or services can be determined appropriately.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定する。   Further, in the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification, when the intention of the user estimated based on the second sensor information indicates an interest in the purchase target, the determination unit 134 is a purchase target. Decide to add to the pending list.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification set the purchase target to the hold list when the intention of the user estimated based on the second sensor information indicates an interest in the purchase target. By deciding to add, it is possible to appropriately determine the processing aspect regarding the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第1受付部131は、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付ける。   In addition, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the first reception unit 131 receives the first sensor information detected by the infrared sensor as the first sensor SN1.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付けることにより、ユーザが指定した商品またはサービスを適切に特定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification appropriately receive the first sensor information detected by the infrared sensor as the first sensor SN1, thereby appropriately applying the product or service designated by the user. Can be identified. Thereby, the determination apparatus 100, 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第2受付部132は、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付ける。   In addition, in the determination device 100 according to the embodiment and the determination device 100A according to the modification, the second reception unit 132 receives the second sensor information detected by the voice sensor as the second sensor SN2.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付けることにより、特定した商品またはサービスに対するユーザの意図をユーザの音声に基づいて推定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification receive the second sensor information detected by the voice sensor as the second sensor SN2, thereby the user's intention for the identified product or service Can be estimated based on the user's voice. Thereby, the determination apparatus 100, 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第1受付部131は、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。   Further, in the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification, the first reception unit 131 relates to designation of the user for one product or service among products or services displayed in a plurality of predetermined areas. Accept first sensor information.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付けることにより、複数の対象が表示される場合であっても、ユーザが指定した商品またはサービスを適切に特定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification receive the first sensor information regarding the user's designation for one product or service among the products or services displayed in a plurality of predetermined areas. Thereby, even when a plurality of objects are displayed, it is possible to appropriately identify the product or service designated by the user. Thereby, the determination apparatus 100, 100A can appropriately determine the processing mode related to the product or service.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、推定部133、133Aを有する。推定部133、133Aは、第2センサ情報に基づいて購入対象に対するユーザの意図を推定する。   Further, the determination device 100 according to the embodiment and the determination device 100A according to the modification include estimation units 133 and 133A. The estimation units 133 and 133A estimate the user's intention for the purchase target based on the second sensor information.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて購入対象に対するユーザの意図を推定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification appropriately determine the processing mode related to the product or service by estimating the user's intention for the purchase target based on the second sensor information. be able to.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、推定部133、133Aは、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定する。   Further, in the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification, the estimation units 133 and 133A calculate the user's intention for the purchase target based on the model and the second sensor information that change according to the user. presume.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定することにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification estimate the intention of the user with respect to the purchase target based on the model that fluctuates according to the user and the second sensor information. Or the processing aspect regarding a service can be determined appropriately.

また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、推定部133、133Aは、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに第2センサ情報を入力することにより、購入対象に対する当該ユーザの意図を推定する。   Further, in the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification, the estimation units 133 and 133A are goods or services for which the processing mode is determined based on the intention of the user estimated in the past and the intention. The second sensor information is input to the model learned on the basis of the information on the user's action for the user to estimate the user's intention for the purchase target.

これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルを用いることにより、商品またはサービスに関する処理態様を適切に決定することができる。   Thereby, the determination apparatus 100 according to the embodiment and the determination apparatus 100A according to the modification relate to the user's intention for the user estimated in the past and the action of the user for the product or service for which the processing mode is determined based on the intention. By using the information and the model learned based on the information, it is possible to appropriately determine the processing aspect regarding the product or service.

〔6.ハードウェア構成〕
上述してきた実施形態に係る決定装置100及び変形例に係る決定装置100Aは、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、決定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The determination apparatus 100 according to the embodiment described above and the determination apparatus 100A according to the modification are realized by, for example, a computer 1000 configured as shown in FIG. FIG. 10 is a hardware configuration diagram showing an example of a computer that implements the function of the determination device. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via the network N, sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to the other device via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from an input device via the input / output interface 1600. The CPU 1100 also outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the CPU 1100 with the program via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a digital versatile disc (DVD) or a phase change rewritable disc (PD), a magneto-optical recording medium such as a magneto-optical disk (MO), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が決定装置100、100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130、130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the determination device 100, 100A, the CPU 1100 of the computer 1000 implements the functions of the control units 130, 130A by executing the program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although some of the embodiments and modifications of the present application have been described above in detail based on the drawings, these are merely examples, and various aspects can be obtained based on the knowledge of those skilled in the art, including the aspects described in the rows of the disclosure of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. Other]
Further, among the processes described in the embodiment and the modification, all or part of the process described as being automatically performed can be manually performed, or it is described as manually performed. All or part of the treatment may be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, it is possible to combine suitably the embodiment and modification which were mentioned above in the range which does not make process content contradictory.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、第1受付部は、第1受付手段や第1受付回路に読み替えることができる。   In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the first reception unit can be read as a first reception means or a first reception circuit.

1 決定システム
100 決定装置
121 デバイス情報記憶部
122 コンテンツ情報記憶部
123 商品情報記憶部
124 買物一覧情報記憶部
130 制御部
131 第1受付部
132 第2受付部
133 推定部
134 決定部
135 送信部
AP11 端末機器
SN1 第1センサ
SN2 第2センサ
N ネットワーク
DESCRIPTION OF SYMBOLS 1 determination system 100 determination device 121 device information storage unit 122 content information storage unit 123 product information storage unit 124 shopping list information storage unit 130 control unit 131 first reception unit 132 second reception unit 133 estimation unit 134 determination unit 135 transmission unit AP11 Terminal equipment SN1 1st sensor SN2 2nd sensor N network

Claims (9)

第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付部と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付部と、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習することによりユーザ分類毎にモデルを生成する学習部と、
前記学習部で生成された前記ユーザ分類毎のモデルに前記第2センサ情報を入力することにより、前記第1センサ情報に基づいて特定される商品またはサービスに対する当該ユーザの意図を推定する推定部と、
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定部の推定結果に基づいて決定する決定部と、を備え、
前記学習部は、前記推定部で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致した場合を正例として学習することにより、或いは、前記推定部で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致しなかった場合を負例として学習することにより、前記モデルを生成する、
とを特徴とする決定装置。
A first reception unit that receives the first sensor information detected by the first sensor, the first sensor information regarding specification of the user for the product or service displayed in the predetermined area;
A second reception unit that receives second sensor information that is the second sensor information detected by the second sensor and that is about the user's intention for the product or service specified based on the first sensor information;
A learning unit that generates a model for each user classification by learning based on the user's intention estimated in the past and information on the user's behavior for the product or service whose processing mode has been determined based on the user's intention When,
An estimation unit configured to estimate an intention of the user for a product or service specified based on the first sensor information by inputting the second sensor information to the model for each of the user classifications generated by the learning unit; ,
A determination unit configured to determine, based on the estimation result of the estimation unit, a processing mode related to a purchase target that is a product or service specified based on the first sensor information ;
The learning unit learns, as a positive example, a case in which the intention of the user estimated in the past by the estimation unit matches the behavior of the user for the purchase target whose processing mode is determined based on the intention. Or, by learning as a negative example, the case where the user's intention for the purchase target whose processing mode is determined based on the user's intention estimated in the past by the estimation unit and the user's action for the purchase object does not match , Generate the model,
Determining device which is characterized a call.
前記決定部は、
前記第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、前記購入対象を所定のリストに追加すると決定する
ことを特徴とする請求項に記載の決定装置。
The determination unit is
Determining apparatus according to claim 1, characterized in that determining the intention of the user is estimated based on the second sensor information when a predetermined condition is satisfied, adding the purchase target to the predetermined list.
前記決定部は、
前記第2センサ情報に基づいて推定されるユーザの意図が、前記購入対象の購入を示す場合、前記購入対象の決済を行うと決定する
ことを特徴とする請求項1又は2に記載の決定装置。
The determination unit is
The determination device according to claim 1 or 2 , wherein if the user's intention estimated based on the second sensor information indicates the purchase of the purchase object, it is determined that the purchase object is to be settled. .
前記決定部は、
前記第2センサ情報に基づいて推定されるユーザの意図が、前記購入対象への関心を示す場合、前記購入対象を保留リストに追加すると決定する
ことを特徴とする請求項1〜のいずれか1項に記載の決定装置。
The determination unit is
The method according to any one of claims 1 to 3 , wherein if the user's intention estimated based on the second sensor information indicates an interest in the purchase object, the purchase object is determined to be added to the hold list. The determination device according to item 1.
前記第1受付部は、
前記第1センサとしての赤外線センサにより検知される前記第1センサ情報を受け付ける
ことを特徴とする請求項1〜のいずれか1項に記載の決定装置。
The first reception unit is
The determination apparatus according to any one of claims 1 to 4 , wherein the first sensor information detected by an infrared sensor as the first sensor is received.
前記第2受付部は、
前記第2センサとしての音声センサにより検知される前記第2センサ情報を受け付ける
ことを特徴とする請求項1〜のいずれか1項に記載の決定装置。
The second reception unit is
The determination apparatus according to any one of claims 1 to 5 , wherein the second sensor information detected by an audio sensor as the second sensor is received.
前記第1受付部は、
前記所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける
ことを特徴とする請求項1〜のいずれか1項に記載の決定装置。
The first reception unit is
7. The determination according to any one of claims 1 to 6 , wherein first sensor information regarding specification of a user for one product or service among a plurality of products or services displayed in the predetermined area is received. apparatus.
コンピュータが実行する決定方法であって、
第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付工程と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付工程と、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習することによりユーザ分類毎にモデルを生成する学習工程と、
前記学習工程で生成された前記ユーザ分類毎のモデルに前記第2センサ情報を入力することにより、前記第1センサ情報に基づいて特定される商品またはサービスに対する当該ユーザの意図を推定する推定工程と、
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定工程の推定結果に基づいて決定する決定工程と、を含み、
前記学習工程では、前記推定工程で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致した場合を正例として学習することにより、或いは、前記推定工程で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致しなかった場合を負例として学習することにより、前記モデルを生成する、
とを特徴とする決定方法。
A decision method that the computer executes,
A first accepting step of accepting first sensor information detected by the first sensor, the first sensor information relating to the designation of the user for the product or service displayed in the predetermined area;
A second receiving step of receiving second sensor information which is the second sensor information detected by the second sensor and which relates to the user's intention for the product or service specified based on the first sensor information;
A learning step of generating a model for each user classification by learning based on the user's intention estimated in the past and information on the user's behavior for the product or service whose processing mode has been determined based on the user's intention When,
Estimating the intention of the user for the product or service specified based on the first sensor information by inputting the second sensor information to the model for each of the user classifications generated in the learning step; ,
Determining a processing mode related to a purchase target, which is a product or service specified based on the first sensor information, based on an estimation result of the estimation step ;
In the learning step, learning is performed by using as a positive example a case where the user's intention estimated in the past in the estimation step matches the user's action on the purchase target whose processing mode is determined based on the intention. Or, by learning as a negative example, the case where the user's intention for the past determined in the estimation step and the user's action for the purchase target whose processing mode is determined based on the intention does not match , Generate the model,
Decision wherein a call.
第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付手順と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付手順と、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習することによりユーザ分類毎にモデルを生成する学習手順と、
前記学習手順で生成された前記ユーザ分類毎のモデルに前記第2センサ情報を入力することにより、前記第1センサ情報に基づいて特定される商品またはサービスに対する当該ユーザの意図を推定する推定手順と、
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定手順の推定結果に基づいて決定する決定手順と、をコンピュータに実行させ、
前記学習手順では、前記推定手順で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致した場合を正例として学習することにより、或いは、前記推定手順で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致しなかった場合を負例として学習することにより、前記モデルを生成する、
とを特徴とする決定プログラム。
A first acceptance procedure for accepting the first sensor information detected by the first sensor, the first sensor information relating to the specification of the user for the product or service displayed in the predetermined area;
A second reception procedure for receiving second sensor information which is second sensor information detected by a second sensor, and which relates to a user's intention for a product or service specified based on the first sensor information;
A learning procedure that generates a model for each user classification by learning based on the user's intention estimated in the past and information on the user's behavior for the product or service whose processing mode has been determined based on the user's intention When,
An estimation procedure for estimating an intention of the user for a product or service specified based on the first sensor information by inputting the second sensor information to the model for each of the user classifications generated in the learning procedure; ,
And causing a computer to execute a determination step of determining a processing mode related to a purchase target, which is a product or service specified based on the first sensor information, based on an estimation result of the estimation step .
In the learning procedure, learning is performed by using, as a positive example, a case where the user's intention estimated in the past in the estimation procedure and the user's action for the purchase target whose processing mode is determined based on the intention matches. Or, by learning as a negative example, the case where the user's intention for the purchase target whose processing mode is determined based on the user's intention estimated in the past in the estimation procedure and the user's action for the purchase object does not match , Generate the model,
Determining program, wherein a call.
JP2017203679A 2017-10-20 2017-10-20 DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM Active JP6546244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017203679A JP6546244B2 (en) 2017-10-20 2017-10-20 DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017203679A JP6546244B2 (en) 2017-10-20 2017-10-20 DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016210635A Division JP6240291B1 (en) 2016-10-27 2016-10-27 Determination apparatus, determination method, and determination program

Publications (2)

Publication Number Publication Date
JP2018073410A JP2018073410A (en) 2018-05-10
JP6546244B2 true JP6546244B2 (en) 2019-07-17

Family

ID=62115527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017203679A Active JP6546244B2 (en) 2017-10-20 2017-10-20 DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM

Country Status (1)

Country Link
JP (1) JP6546244B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3822357B2 (en) * 1998-02-09 2006-09-20 株式会社東芝 Interface device and method for multimodal input / output device
JP2003044756A (en) * 2001-07-26 2003-02-14 Kenichi Omae On-line shopping method, shopping site, voice recognizing device and voice recognition supporting device
US20100114654A1 (en) * 2008-10-31 2010-05-06 Hewlett-Packard Development Company, L.P. Learning user purchase intent from user-centric data
JP2014052987A (en) * 2012-09-10 2014-03-20 Pc Depot Corp Purchasing system, set-top box, and program
US20150106304A1 (en) * 2013-10-15 2015-04-16 Adobe Systems Incorporated Identifying Purchase Intent in Social Posts
EP3161768A4 (en) * 2014-06-25 2017-11-01 RetailMeNot, Inc. Apparatus and method for mobile-dispatcher for offer redemption work flows

Also Published As

Publication number Publication date
JP2018073410A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
US11671386B2 (en) Electronic device and method for changing chatbot
US11487712B2 (en) Digital image suitability determination to generate AR/VR digital content
US11775844B2 (en) Visual aspect localization presentation
US9230160B1 (en) Method, medium, and system for online ordering using sign language
EP3221817B1 (en) Screenshot based indication of supplemental information
KR20190131065A (en) Detect Mission Changes During Conversation
JP2019535037A (en) Synthetic Speech Selection for Agents by Computer
JP6633211B2 (en) Product purchase support system, product purchase support method, and program
US11875241B2 (en) Aspect pre-selection using machine learning
TW201928709A (en) Method and apparatus for merging model prediction values, and device
WO2021223656A1 (en) Information presentation based on graphic code recognition
US10817923B2 (en) Information providing system, information providing apparatus, information providing method, and program
US20150276700A1 (en) Representing the taste of food
JP6831898B2 (en) Product purchase support system, product purchase support method, and program
KR20240110537A (en) Operating method for providing page information and electronic apparatus supporting thereof
US20230360078A1 (en) Intelligent and interactive shopping engine
KR20210044551A (en) Electronic receipt-based artificial calorie calculation apparatus and method
JP6240291B1 (en) Determination apparatus, determination method, and determination program
JP6546244B2 (en) DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM
KR20200013164A (en) Electronic apparatus and controlling method thereof
KR102254570B1 (en) Joint order processing apparatus for food materials
US20170185228A1 (en) System, Method, and Apparatus for an Interactive Container
KR102202945B1 (en) Smart order processing apparatus
JP7018850B2 (en) Terminal device, decision method, decision program and decision device
JP6419254B2 (en) Estimation apparatus, estimation method, and estimation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190620

R150 Certificate of patent or registration of utility model

Ref document number: 6546244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350