JP6546244B2 - DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM - Google Patents
DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM Download PDFInfo
- Publication number
- JP6546244B2 JP6546244B2 JP2017203679A JP2017203679A JP6546244B2 JP 6546244 B2 JP6546244 B2 JP 6546244B2 JP 2017203679 A JP2017203679 A JP 2017203679A JP 2017203679 A JP2017203679 A JP 2017203679A JP 6546244 B2 JP6546244 B2 JP 6546244B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- product
- intention
- sensor information
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims description 67
- 230000009471 action Effects 0.000 claims description 11
- 230000006399 behavior Effects 0.000 claims description 5
- 230000004048 modification Effects 0.000 description 31
- 238000012986 modification Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000008859 change Effects 0.000 description 16
- 230000010365 information processing Effects 0.000 description 13
- 102000016252 Huntingtin Human genes 0.000 description 12
- 108050004784 Huntingtin Proteins 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 239000002453 shampoo Substances 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000386 athletic effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、決定装置、決定方法、及び決定プログラムに関する。 The present invention relates to a determination apparatus, a determination method, and a determination program.
近年、オンラインショッピング等の電子商取引に関する種々の技術が提供されている。例えば、ユーザ端末により音声認識された手続きワードに基づいて購入に関する処理を行う技術が提供されている。 In recent years, various techniques related to electronic commerce such as online shopping have been provided. For example, there is provided a technology for performing processing related to purchase based on a procedure word that is voice-recognized by a user terminal.
しかしながら、上記の従来技術では商品またはサービスに関する処理態様を適切に決定することが難しい。例えば、手続きワードを用いる場合、予め手続きワードを設定する必要があり、商品またはサービスに関する処理態様を適切に決定することが難しい。 However, in the above-mentioned prior art, it is difficult to appropriately determine the processing mode regarding the product or service. For example, in the case of using a procedure word, it is necessary to set the procedure word in advance, and it is difficult to appropriately determine the processing mode regarding the product or service.
本願は、上記に鑑みてなされたものであって、商品またはサービスに関する処理態様を適切に決定する決定装置、決定方法、及び決定プログラムを提供することを目的とする。 The present application is made in view of the above, and an object of the present application is to provide a determination device, a determination method, and a determination program for appropriately determining a processing mode regarding a product or service.
本願に係る決定装置は、第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付部と、第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付部と、前記第2センサ情報に基づいて、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図を推定する推定部と、前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定部の推定結果に基づいて決定する決定部と、を備えたことを特徴とする。 A determination apparatus according to the present application is a first reception unit that receives first sensor information regarding specification of a user for a product or service displayed in a predetermined area, which is first sensor information detected by a first sensor; A second reception unit that receives second sensor information that is the second sensor information detected by the second sensor and that is the user's intention for the product or service specified based on the first sensor information; and the second sensor information Based on the first sensor information, an estimation unit for estimating the user's intention for the product or service identified based on the first sensor information, and a processing aspect related to a purchase target that is the product or service identified based on the first sensor information And a determination unit that determines based on the estimation result of the estimation unit.
実施形態の一態様によれば、商品またはサービスに関する処理態様を適切に決定することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately determine the processing mode related to a product or service.
以下に、本願に係る決定装置、決定方法、及び決定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る決定装置、決定方法、及び決定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a determination apparatus, a determination method, and an embodiment for implementing a determination program (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. In addition, the determination apparatus which concerns on this application, the determination method, and the determination program are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.
(実施形態)
〔1.決定処理〕
まず、実施形態に係る決定処理について説明する。図1は、実施形態に係る決定処理の一例を示す図である。図1に示す決定装置100は、検知された各種センサ情報に基づいて、商品またはサービスに関する処理態様を決定する決定サービスを提供する。なお、ここでいう商品またはサービスには、取引可能な対象であればそのような対象が含まれてもよく、以下では、「商品またはサービス」を単に「商品」と記載する場合がある。
(Embodiment)
[1. Decision processing]
First, the determination process according to the embodiment will be described. FIG. 1 is a diagram illustrating an example of the determination process according to the embodiment. The
図1に示すように、実施形態に係る決定システム1には、端末機器AP11と、決定装置100とが含まれる。端末機器AP11と、決定装置100とは、所定のネットワークを介して通信可能に接続される。なお、図1に示した決定システム1には、複数の端末機器AP11、複数の決定装置100が含まれてもよい。
As shown in FIG. 1, the determination system 1 according to the embodiment includes a terminal device AP11 and a
図1に示す例において、端末機器AP11は、プロジェクタの機能を有し、コンテンツの画像を所定の表示面に投影することにより、コンテンツを表示する。図1では、端末機器AP11は、テーブルの机上面PP11にコンテンツID「CT11」により識別されるコンテンツ(以下、「コンテンツCT11」ともいう)を投影する場合を示す。すなわち、端末機器AP11は、机上面PP11にコンテンツCT11を投影することにより、机上面PP11にコンテンツCT11を表示する。図1に示すように、コンテンツCT11は、例えば、複数の商品を含み、閲覧するユーザにライフスタイルを提案するコンテンツである。例えば、端末機器AP11が表示するコンテンツは、コンテンツCT11に限らず、クリスマスや運動会等の所定のイベントに関連する複数の商品が含まれるコンテンツ等の種々のコンテンツであってもよい。このように、端末機器AP11は、例えば、所定のコンセプトに基づいて複数の商品が含まれる雑誌のページのようなコンテンツを、ユーザの操作に応じて順次表示することにより、ユーザに所定のコンセプトに基づく複数の商品を閲覧させることができる。また、端末機器AP11は、机上面PP11に限らず、コンテンツを表示可能であれば、例えば空間等どのような対象にコンテンツを表示してもよい。 In the example illustrated in FIG. 1, the terminal device AP11 has a projector function, and displays the content by projecting an image of the content on a predetermined display surface. FIG. 1 shows a case where the terminal device AP11 projects the content (hereinafter also referred to as “content CT11”) identified by the content ID “CT11” on the desk top PP11 of the table. That is, the terminal device AP11 displays the content CT11 on the desktop surface PP11 by projecting the content CT11 on the desktop surface PP11. As shown in FIG. 1, the content CT11 is, for example, content that includes a plurality of products and proposes a lifestyle to a user who browses. For example, the content displayed by the terminal device AP11 is not limited to the content CT11, and may be various content such as content including a plurality of products related to a predetermined event such as Christmas or an athletic meet. As described above, the terminal device AP11 displays the contents such as a page of a magazine including a plurality of products on the basis of a predetermined concept sequentially to the user according to the user's operation. You can browse multiple products based on Further, the terminal device AP11 may display the content on any target such as a space, as long as the content can be displayed without being limited to the desk top PP11.
また、図1の例では、端末機器AP11は、赤外線センサを第1センサSN1として有する。これにより、端末機器AP11は、表示したコンテンツに対するユーザの指定を検知する機能を有する。例えば、端末機器AP11は、第1センサSN1が放射した赤外線を画像センサ等により撮像しその変化を検知することや、赤外線の反射を検知することにより、表示したコンテンツにおける座標に関する情報(以下、「座標情報」ともいう)を第1センサ情報として検知してもよい。この場合、例えば、端末機器AP11の第1センサSN1(以下、単に「端末機器AP11」と記載する場合がある)は、赤外線を放射する機能と、赤外線を検知する機能を有してもよい。例えば、端末機器AP11の第1センサSN1は、赤外線を放射する機能と、画像認識の技術により赤外線の変化を検知する機能を有してもよい。 Further, in the example of FIG. 1, the terminal device AP11 includes an infrared sensor as the first sensor SN1. Thus, the terminal device AP11 has a function of detecting the designation of the user for the displayed content. For example, the terminal device AP11 picks up an infrared ray emitted by the first sensor SN1 with an image sensor or the like and detects a change thereof, or detects a reflection of the infrared ray, thereby detecting information related to coordinates in the displayed content (hereinafter Coordinate information may also be detected as first sensor information. In this case, for example, the first sensor SN1 of the terminal device AP11 (hereinafter, may be simply referred to as "terminal device AP11") may have a function of emitting infrared light and a function of detecting infrared light. For example, the first sensor SN1 of the terminal device AP11 may have a function of emitting infrared light, and a function of detecting a change in infrared light by image recognition technology.
図1の例では、端末機器AP11は、コンテンツCT11が表示された机上面PP11に沿って赤外線を放射し、ユーザがコンテンツCT11を指等で指示する等の操作を行った際に反射される赤外線を検知する。例えば、端末機器AP11は、机上面PP11においてコンテンツCT11が表示された領域に対応する直交座標(XY座標)等の座標情報を検知してもよい。例えば、端末機器AP11は、図1中のコンテンツCT11の横方向をX軸方向とし、縦方向をY軸方向としたXY座標の座標情報を検知してもよい。この場合、例えば、端末機器AP11は、図1中のコンテンツCT11の左下の位置を原点(0,0)としたXY座標の座標情報を検知してもよい。なお、上記は一例であり、端末機器AP11は、種々の従来技術を適宜用いて、ユーザが表示されたコンテンツを指定した位置を検知してもよい。 In the example of FIG. 1, the terminal device AP11 emits infrared radiation along the desktop surface PP11 on which the content CT11 is displayed, and the infrared radiation reflected when the user performs an operation such as pointing the content CT11 with a finger or the like To detect For example, the terminal device AP11 may detect coordinate information such as orthogonal coordinates (XY coordinates) corresponding to the area where the content CT11 is displayed on the desktop surface PP11. For example, the terminal device AP11 may detect coordinate information of XY coordinates with the horizontal direction of the content CT11 in FIG. 1 as the X-axis direction and the vertical direction as the Y-axis direction. In this case, for example, the terminal device AP11 may detect coordinate information of XY coordinates with the lower left position of the content CT11 in FIG. 1 as the origin (0, 0). Note that the above is an example, and the terminal device AP11 may detect the position at which the user has designated the displayed content, using various conventional techniques as appropriate.
これにより、端末機器AP11や決定装置100は、表示したコンテンツと検知した座標情報とをユーザが指定した位置にどの商品が表示されているかに基づいて、ユーザが指定した商品を特定することができる。なお、上記は一例であり、端末機器AP11は、種々の従来技術を適宜用いてユーザの指定を検知してもよい。また、第1センサSN1は、表示したコンテンツに対するユーザの指定を検知可能であれば、赤外線センサに限らず、どのようなセンサが用いられてもよい。例えば、端末機器AP11は、第1センサSN1により検知されたコンテンツに対するユーザの指定に関する座標情報を第1センサ情報として決定装置100へ送信する。
Thus, the terminal device AP11 or the
また、端末機器AP11は、音声センサを第2センサSN2として有する。これにより、端末機器AP11は、音声認識の機能を有し、周囲の音を検知し、検知した音に応じて種々の処理を行う。以下では、第2センサSN2により検知された情報を第2センサ情報と記載する場合がある。また、以下では、端末機器AP11の第2センサSN2を、単に「端末機器AP11」と記載する場合がある。また、端末機器AP11は、音声認識の機能を有してもよい。この場合、端末機器AP11は、第2センサSN2により検知されたユーザの発話に関する情報に基づいて推定される発話を行ったユーザの意図に関する情報(以下、単に「意図」や「意図情報」ともいう)を推定してもよい。 The terminal device AP11 also has a voice sensor as a second sensor SN2. Thus, the terminal device AP11 has a voice recognition function, detects surrounding sounds, and performs various processing in accordance with the detected sounds. Below, the information detected by 2nd sensor SN2 may be described as 2nd sensor information. Moreover, below, 2nd sensor SN2 of terminal device AP11 may only be described as "terminal device AP11." The terminal device AP11 may have a voice recognition function. In this case, the terminal device AP11 also refers to information on the intention of the user who made the utterance estimated based on the information on the user's utterance detected by the second sensor SN2 (hereinafter, also simply referred to as "intention" or "intention information" ) May be estimated.
また、端末機器AP11は、決定装置100等の外部装置との間において情報の送受信が可能である。例えば、端末機器AP11は、決定装置100から表示するコンテンツに関する情報を受信したり、各種センサの検知に関する情報を決定装置100へ送信したりする。なお、ここでいう、端末機器AP11は、他の装置を介して決定装置100との間において情報の送受信が可能であってもよい。また、例えば、端末機器AP11は、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等であってもよく、汎用機器にアプリケーションがインストールされた機器であってもよい。
Further, the terminal device AP11 can transmit and receive information with an external device such as the
なお、端末機器AP11によるコンテンツの表示処理等の処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーションにより行われる場合や表示処理が専用アプリにより行われる場合、端末機器AP11は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。 Note that processing such as display processing of content by the terminal device AP11 may be realized by JavaScript (registered trademark) or the like, for example. In addition, when the display processing described above is performed by a predetermined application or when the display processing is performed by a dedicated application, the terminal device AP11 may have, for example, an application control unit that controls the predetermined application or the dedicated application. .
なお、決定装置100が決定処理に用いる情報を取得可能であれば、決定システム1はどのような構成でも良く、端末機器AP11の各機能の各々を有する装置が含まれてもよい。例えば、決定システム1において、端末機器AP11の各機能は、コンテンツを表示する機器や第1センサSN1や第2センサSN2等の各装置により実現されてもよい。また、例えば、決定システム1において、決定装置100が端末機器AP11の機能を有してもよい。この場合、決定装置100と端末機器AP11とは一体であってもよい。また、決定装置100は、決定処理に関する機能を実現できれば、どのような形態であってもよく、例えば、机上面PP11を有するテーブルと一体であったり、複数の情報処理装置に分散して構成されたりすることより実現されてもよい。
The determination system 1 may have any configuration as long as the
決定装置100は、第1センサ情報に基づいて特定される商品に関する処理態様を、第2センサ情報に基づいて決定する決定サービスを提供する。また、決定装置100は、端末機器AP11が表示するコンテンツを端末機器AP11に提供する情報処理装置であってもよい。また、決定装置100は、コンテンツ配信サービスを提供する情報処理装置から情報を取得可能であってもよい。この場合、決定システム1は、例えば、コンテンツ配信サービスを提供する情報処理装置を含んでもよい。
The
また、例えば、決定装置100は、オンラインショッピング等の電子商取引サービスを提供する情報処理装置であってもよい。また、決定装置100は、電子商取引サービスを提供する情報処理装置から情報を取得可能であってもよい。この場合、決定システム1は、例えば、オンラインショッピング等の電子商取引サービスを提供する情報処理装置を含んでもよい。
Also, for example, the
また、決定装置100は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、決定システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、決定装置100や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを特定したりするものとして、説明を省略する。また、例えば、決定装置100は、端末機器AP11から受け付けた第2センサ情報に基づいてユーザの意図情報を推定する。
In addition, the
以下、図1を用いて、決定処理の一例を説明する。図1に示す例においては、ユーザU11、ユーザU12、ユーザU13が居住する住宅内に、端末機器AP11が配置される。以下、ユーザU11、ユーザU12、ユーザU13を区別せず説明する場合、単に「ユーザ」と記載する場合がある。例えば、端末機器AP11は、住宅内のテーブルに配置され、配置されたテーブルの机上面PP11にコンテンツCT11を表示する場合を示す。 Hereinafter, an example of the determination process will be described with reference to FIG. In the example illustrated in FIG. 1, the terminal device AP11 is disposed in a house in which the user U11, the user U12, and the user U13 reside. In the following description, when the user U11, the user U12, and the user U13 are described without distinction, they may be simply described as "user". For example, the terminal device AP11 is arranged on a table in a house, and shows the case where the content CT11 is displayed on the desk top PP11 of the arranged table.
なお、図1の例では、端末機器AP11は、決定装置100等の外部装置からコンテンツCT11を取得済みであり、ユーザの操作等に応じて端末機器AP11がコンテンツCT11をテーブルの机上面PP11に表示しているものとする。具体的には、端末機器AP11は、机上面PP11中の領域RG1にコンテンツCT11を表示しているものとする。また、図1においては、符号「RG1」が示す領域は、コンテンツCT11が図示された領域と重なる。また、端末機器AP11は、コンテンツCT11に限らず、種々のコンテンツをテーブルの机上面PP11に表示する。例えば、端末機器AP11は、ユーザによる表示を変更する操作に応じて、コンテンツCT11以外の他のコンテンツを机上面PP11に表示する。例えば、端末機器AP11は、ユーザが机上面PP11の領域RG1上において指FG1を所定の方向に移動させる動作に応じて、机上面PP11に表示されるコンテンツを変更してもよい。
In the example of FIG. 1, the terminal device AP11 has already acquired the content CT11 from an external device such as the
また、図1に示すように、机上面PP11に表示されたコンテンツCT11には、5つの商品IT11〜IT15が含まれる。なお、このように、「商品IT*(*は任意の数値)」と記載した場合、その商品は商品ID「IT*」により識別される商品であることを示す。例えば、「商品IT11」と記載した場合、その商品は商品ID「IT11」により識別される商品である。 Further, as shown in FIG. 1, the content CT11 displayed on the desk top PP11 includes five products IT11 to IT15. In addition, when it describes as "commodity IT * (* is arbitrary numerical value)" in this way, it shows that the goods are goods identified by goods ID "IT *." For example, when "commodity IT11" is described, the product is a product identified by the product ID "IT11".
例えば、商品IT11は、コンテンツCT11に含まれる商品「シャンプーA」に対応する。また、例えば、商品IT12は、コンテンツCT11に含まれる商品「シャンプーAの詰替品」に対応する。また、例えば、商品IT13は、コンテンツCT11に含まれる商品「タオルA」に対応する。また、例えば、商品IT14は、コンテンツCT11に含まれる商品「かごA」に対応する。また、例えば、商品IT15は、コンテンツCT11に含まれる商品「ポットA」に対応する。このように、図1では、ユーザU11〜U13が、種々の商品が含まれるコンテンツCT11を閲覧している場合を示す。 For example, the product IT11 corresponds to the product "shampoo A" included in the content CT11. Further, for example, the product IT12 corresponds to the product “refill of shampoo A” included in the content CT11. Further, for example, the product IT13 corresponds to the product "towel A" included in the content CT11. Further, for example, the product IT14 corresponds to the product "car A" included in the content CT11. Further, for example, the product IT15 corresponds to the product “pot A” included in the content CT11. Thus, FIG. 1 shows the case where the users U11 to U13 browse the content CT11 including various products.
まず、コンテンツCT11を閲覧しているユーザU12が、コンテンツCT11中の商品IT14を指FG1で指定する(ステップS11)。例えば、日時DT11に、ユーザU12が、コンテンツCT11中の商品IT14が含まれる位置を指FG1で指示したり、机上面PP11の商品IT14が表示された部分をタッチしたりすることにより、商品IT14を指定する。 First, the user U12 who is browsing the content CT11 specifies the product IT14 in the content CT11 with the finger FG1 (step S11). For example, the user U12 designates a position at which the product IT14 is included in the content CT11 with the finger FG1 at the date and time DT11, or touches the portion of the desk top PP11 where the product IT14 is displayed. specify.
そして、ユーザU12が指FG1で指定したことに応じて、端末機器AP11の第1センサSN1は、ユーザU12が指FG1で指定した位置の座標情報を第1センサ情報として検知する(ステップS12)。図1の例では、端末機器AP11は、ユーザU12が指FG1で指定した位置の座標情報を検知する。具体的には、端末機器AP11は、ユーザU12が指FG1で指定した位置が位置(x1,y1)であることを示す座標情報を検知する。なお、ここでいう「x1」や「y1」は、コンテンツCT11における商品IT14が表示される範囲に含まれる位置に対応する任意の値であるものとする。 Then, in response to designation by the user U12 with the finger FG1, the first sensor SN1 of the terminal device AP11 detects, as first sensor information, coordinate information of a position designated by the user U12 with the finger FG1 (step S12). In the example of FIG. 1, the terminal device AP11 detects coordinate information of the position designated by the user U12 with the finger FG1. Specifically, the terminal device AP11 detects coordinate information indicating that the position designated by the user U12 with the finger FG1 is the position (x1, y1). Here, “x1” and “y1” are arbitrary values corresponding to positions included in the range in which the product IT14 in the content CT11 is displayed.
そして、端末機器AP11は、検知した第1センサ情報を決定装置100に送信する(ステップS13)。これにより、決定装置100は、端末機器AP11から第1センサ情報を受け付ける。図1の例では、端末機器AP11は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報や、ユーザにより指定されたコンテンツがコンテンツCT11であることを示す情報を送信する。なお、決定装置100がユーザによる指定時において端末機器AP11がどのコンテンツを表示しているかに関する情報を取得済みである場合、ユーザにより指定されたコンテンツを識別する情報を送信しなくてもよい。
Then, the terminal device AP11 transmits the detected first sensor information to the determination apparatus 100 (step S13). Thereby, the
そして、端末機器AP11から第1センサ情報を受け付けた決定装置100は、第1センサ情報に基づいてユーザが指定した商品を特定する。図1の例では、決定装置100は、受け付けた第1センサ情報と、コンテンツ情報記憶部122に記憶されたコンテンツ情報とに基づいて、ユーザが指定した商品を特定する。
Then, the
図1の例では、決定装置100は、コンテンツ情報記憶部122に示すように、各コンテンツに含まれる商品とその商品がコンテンツ中のどの範囲に位置するかを示す情報を記憶している。例えば、決定装置100は、コンテンツ情報記憶部122に示すように、コンテンツCT11には、商品IT11〜IT15の5つの商品が含まれることを示す情報を記憶している。また、コンテンツ情報記憶部122には、商品IT11がコンテンツCT11中の範囲AR11に位置することを示す情報が記憶される。なお、範囲AR11は、商品IT11がコンテンツCT11において占める範囲を示す情報であればどのような情報であってもよく、例えば座標情報であってもよい。
In the example of FIG. 1, as shown in the content
また、コンテンツ情報記憶部122には、商品IT12がコンテンツCT11中の範囲AR12に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT13がコンテンツCT11中の範囲AR13に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT14がコンテンツCT11中の範囲AR14に位置することを示す情報が記憶される。また、コンテンツ情報記憶部122には、商品IT15がコンテンツCT11中の範囲AR15に位置することを示す情報が記憶される。
Further, the content
図1の例では、決定装置100は、第1センサ情報と、コンテンツ情報記憶部122に記憶された各商品IT11〜IT15の範囲AR11〜AR15とに基づいて、ユーザが指定した商品を特定する(ステップS14)。例えば、決定装置100は、第1センサ情報の座標(x1,y1)が範囲AR11〜AR15のいずれかに含まれる場合、ユーザが指定した商品を特定する。図1の例では、第1センサ情報の座標(x1,y1)が範囲AR14に含まれるため、決定装置100は、ユーザが指定した商品が商品IT14であると特定する。また、決定装置100は、商品情報記憶部123に記憶された商品IDと商品名の対応に基づいて、商品IT14が商品名「かごA」であると特定する。
In the example of FIG. 1, the
その後、ユーザU12が、端末機器AP11(第2センサSN2)の付近において「これ欲しいわね」という発話PA11を行う(ステップS15)。例えば、日時DT11より後の日時DT12に、ユーザU12が、ステップS11において指定した商品IT14について「これ欲しいわね」という発話PA11を行う。なお、図1の例では、ステップS15においても、ユーザU12が指FG1により商品IT14の指定を継続している場合を示すが、ユーザU12が指定した商品が特定済みであれば、ユーザU12が指FG1による商品IT14の指定を解除している状態であってもよい。 Thereafter, the user U12 performs an utterance PA11 "I want this" in the vicinity of the terminal device AP11 (the second sensor SN2) (step S15). For example, at a date and time DT12 after the date and time DT11, the user U12 performs an utterance PA11 of "I want this" for the product IT14 specified in step S11. Although the example in FIG. 1 shows that the user U12 continues to designate the product IT14 with the finger FG1 also in step S15, if the product designated by the user U12 has already been identified, the user U12 does not It may be in the state where specification of goods IT14 with FG1 is cancelled.
そして、ユーザU12が発話PA11を行ったことに応じて、端末機器AP11の第2センサSN2は、ユーザU12による発話PA11の音声情報を第2センサ情報として検知する(ステップS16)。図1の例では、端末機器AP11は、ユーザU12による「これ欲しいわね」という発話PA11に対応する音声情報を検知する。なお、図1の例では、説明を簡単にするために、発話PA11のみを図示するが、ユーザU11〜U13は、商品IT14に関する種々の会話を行ってもよい。また、端末機器AP11の第2センサSN2は、発話PA11以外の発話も第2センサ情報として検知してもよい。 Then, in response to the user U12 having made the utterance PA11, the second sensor SN2 of the terminal device AP11 detects voice information of the utterance PA11 by the user U12 as second sensor information (step S16). In the example of FIG. 1, the terminal device AP11 detects voice information corresponding to the utterance PA11 "I want this" by the user U12. Although only the speech PA11 is illustrated in the example of FIG. 1 to simplify the description, the users U11 to U13 may perform various conversations regarding the product IT14. The second sensor SN2 of the terminal device AP11 may also detect an utterance other than the utterance PA11 as the second sensor information.
そして、端末機器AP11は、検知した第2センサ情報を決定装置100に送信する(ステップS17)。これにより、決定装置100は、端末機器AP11から第2センサ情報を受け付ける。図1の例では、端末機器AP11は、ユーザの発話に関する第2センサ情報を送信する。具体的には、端末機器AP11は、発話PA11の音声情報を第2センサ情報として送信する。
Then, the terminal device AP11 transmits the detected second sensor information to the determination apparatus 100 (step S17). Thereby, the
なお、端末機器AP11は、発話PA11の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA11の文字情報を取得し、取得した文字情報を決定装置100へ送信してもよい。また、端末機器AP11は、取得した発話PA11を行ったユーザがユーザU12であることを示す情報を決定装置100に送信してもよい。また、端末機器AP11が発話の意図の推定を行う場合、端末機器AP11は、推定した発話の意図を決定装置100に送信してもよい。
The terminal device AP11 may transmit the voice information of the utterance PA11 to the voice recognition server, acquire the character information of the utterance PA11 from the speech recognition server, and transmit the acquired character information to the
端末機器AP11から第2センサ情報を受け付けた決定装置100は、第2センサ情報に基づいてユーザの意図を推定する(ステップS18)。例えば、決定装置100は、受け付けた第2センサ情報を解析することにより、ステップS14において特定された商品IT14をユーザが購入することを希望していると推定する。例えば、決定装置100は、受け付けた第2センサ情報である発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、ユーザの意図を推定する。例えば、決定装置100は、発話PA11に「これ」という指示代名詞と、その指示代名詞に対応する商品を購入することを希望していることを示す「欲しい」という形容詞が含まれることを特定する。例えば、決定装置100は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。これにより、決定装置100は、発話PA11の内容に基づいて、ユーザが商品IT14の購入意思があると推定する。
The
このように、ステップS18において、決定装置100は、第2センサ情報に基づいて、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。そして、決定装置100は、ステップS14において、ユーザが指定した商品が商品IT14であると特定している。そのため、決定装置100は、ユーザが商品IT14であるかごAを購入することを希望していると推定する。
Thus, in step S18, the
そして、決定装置100は、推定したユーザの商品IT14に対する意図に応じて、商品IT14に関する処理態様を決定する。図1の例では、ユーザが商品IT14であるかごAを購入することを希望していると推定されるため、決定装置100は、商品IT14を所定の買物リストに追加すると決定する(ステップS19)。具体的には、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。そして、決定装置100は、買物一覧情報記憶部124に示すように、端末機器AP11に対応付けられた買物リストに商品IT14を追加する。図1の例では、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。
Then, the
このように、決定装置100は、第1センサ情報に基づいて特定される商品IT14に関する処理態様を、第2センサ情報に基づいて決定する。また、図1の例では、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定することにより、複数のユーザU11〜U13が会話し、どのユーザによる商品に対する購入の意思であるかが特定できない場合であっても、適切に買物リストに商品を追加することができる。また、決定装置100は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定することにより、商品を指定したユーザと、商品に関する発話を行ったユーザが異なる場合であっても、適切に買物リストに商品を追加することができる。このように、決定装置100は、複数のユーザが会話をしながらコンテンツを閲覧し、商品の指定や、商品に対する意思を示す発話を行った場合であっても、商品に関する処理態様を適切に決定することができる。また、決定装置100は、所定のタイミングでユーザに端末機器AP11に対応付けられた買物リストに追加された商品に関する情報を送信してもよい。
Thus, the
また、図1の例では、説明を簡単にするために、商品IT14に関する処理態様を決定するまでを示したが、ユーザU11〜U13は、商品IT14に続けて種々の商品を指定したり、表示されたコンテンツに関する会話をしたりしてもよい。そして、決定装置100は、ユーザによる商品の指定や会話に基づいて、順次商品に関する処理態様の決定を行ってもよい。例えば、決定装置100は、ステップS19後にユーザが商品IT11を指定し、会話を継続した場合、商品IT11に関する処理態様の決定を行ってもよい。例えば、決定装置100は、商品IT11に関する処理態様の決定後にユーザが商品IT15を指定し、会話を継続した場合、商品IT15に関する処理態様の決定を行ってもよい。また、ユーザがコンテンツCT11以外のコンテンツに表示を切り替え、会話を続けた場合、決定装置100は、ユーザの指定や会話に基づいて、ユーザに指定された商品に関する処理態様の決定を行ってもよい。
Further, in the example of FIG. 1, for the sake of simplifying the description, the processing mode for the product IT14 is shown to be determined, but the users U11 to U13 specify various products or display following the product IT14 You may have a conversation about the content being Then, the
また、図1の例では、説明を簡単にするために、商品IT14を端末機器AP11に対応付けられた買物リストに追加する場合を示したが、決定装置100は、推定されるユーザに購入に関する意思に応じて、処理態様を異ならせてもよい。例えば、決定装置100は、推定されるユーザの購入意思のレベル(強弱)に応じて、処理態様を異ならせてもよい。例えば、決定装置100は、「すぐ欲しい」や「絶対買う」等のユーザの発話に基づいて、ユーザの購入意思が高いと推定される場合、指定された商品を即購入、すなわち決済の処理を行ってもよい。図1の例では、発話PA11に「欲しい」という購入を希望する内容が含まれるため、決定装置100は、ユーザU12の購入意思が高いと推定し、指定された商品IT14を即購入、すなわち決済の処理を行ってもよい。この場合、決定装置100は、ユーザU12の口座を用いて決済の処理を行ってもよいし、端末機器AP11に対応付けられたユーザU11の口座ACN11(図3参照)を用いて決済の処理を行ってもよい。また、例えば、決定装置100は、「いいかも」や「気になる」等のユーザの発話に基づいて、ユーザが購入意思は低いが商品に対して関心があると推定される場合、指定された商品を保留リストや買物リスト等に追加してもよい。このように、決定装置100は、ユーザの発話に基づいて推定されるユーザの購入意思のレベルに基づいて、指定された商品に対する処理態様を異ならせてもよい。
Further, although the example of FIG. 1 shows the case where the product IT14 is added to the shopping list associated with the terminal device AP11 in order to simplify the description, the determining
上述したように、決定装置100は、第1センサ情報に基づいてユーザが指定した商品を特定し、第2センサ情報に基づいて第1センサ情報に基づいて特定される商品(購入対象)に関する処理態様を決定する。このように、決定装置100は、ユーザが指定する商品の特定を第1センサ情報に基づいて行い、その商品に対するユーザの意図の推定を第2センサ情報に基づいて行う。これにより、決定装置100は、処理を商品の特定と、ユーザの意図の推定との2段階に分けて行うことにより、ユーザが指定した商品の特定の精度や、商品に対するユーザの意図の推定の精度を高めることができる。したがって、決定装置100は、商品またはサービスに関する処理態様を適切に決定することができる。
As described above, the determining
上述した例においては、決定装置100は、第1センサ情報として赤外線センサにより検知された情報を用い、第2センサ情報として音声センサにより検知された情報を用いる。このように、決定装置100は、各処理において、異なるセンサにより検知された情報を用いることにより、ユーザが指定した商品の特定の精度や、商品に対するユーザの意図の推定の精度を高めることができる。
In the example described above, the
図1の例では、決定装置100は、ユーザが指FG1等で指示した位置に表示された商品を、ユーザが指定した商品として特定することにより、ユーザが指定した商品の特定の精度を高めることができる。例えば、ユーザが指定する商品を音声情報に基づいて特定する場合、「これ」や「あれ」といった指示代名詞で発話された場合、ユーザが指定する商品を特定することが難しい。また、図1の例では、商品IT11である「シャンプーA」や商品IT12である「シャンプーAの詰替品」がコンテンツCT11に含まれるため、ユーザが「シャンプーA買わないと」と発話した場合であっても、商品IT11と商品IT12とのいずれを指定しているのかを特定することが難しい。一方、図1の例では、決定装置100は、ユーザが指FG1等で指示した位置に表示された商品を、ユーザが指定した商品として特定することにより、ユーザが指定した商品が商品IT11と商品IT12とのいずれであるかの特定の精度を高めることができる。
In the example of FIG. 1, the
なお、決定装置100は、ユーザが指定する商品が音声情報により特定可能である場合、音声情報に基づいて、ユーザが指定する商品を特定してもよい。このように、決定装置100は、各センサが検知する情報の内容に基づいて、ユーザが指定した商品の特定や、商品に対するユーザの意図の推定を行ってもよい。また、決定装置100は、図1に示すようにユーザU12が指FG1により商品IT14の指定を継続している間に行われた発話に関する第2センサ情報のみを受け付けてもよい。これにより、決定装置100は、より正確にユーザが指定した商品とのユーザの意思とを対応付けることができる。
In addition, the
また、上述した例では、第1センサSN1として赤外線センサを用い、ユーザの指FG1による指示に基づいて指定する商品を特定したが、決定装置100は、種々のセンサを第1センサとして用いてもよい。例えば、決定装置100は、ユーザのジェスチャ等を検知するモーションセンサ等を第1センサとして用いてもよい。この場合、決定装置100は、ユーザのジェスチャ等に基づいて指定する商品を特定してもよい。また、例えば、決定装置100は、ユーザの視線を検知するセンサ等を第1センサとして用いてもよい。この場合、決定装置100は、ユーザの視線に基づいて指定する商品を特定してもよい。また、決定装置100は、上述したような複数のセンサを第1センサとして用い、複数の第1センサが検知する複数の第1センサ情報に基づいて、指定する商品を特定してもよい。
In the example described above, although the infrared sensor is used as the first sensor SN1 and the product to be designated is specified based on the instruction by the finger FG1 of the user, the
また、上述した例において、決定装置100は、受け付けた発話PA11の音声情報である第2センサ情報を解析することにより、発話PA11を行ったユーザがユーザU12であることを特定してもよい。例えば、決定装置100は、各ユーザに対応付けられた音声情報等に基づいて、発話PA11の音声情報を解析することにより、発話PA11を行ったユーザがユーザU12であることを特定してもよい。なお、発話PA11を行ったユーザの特定は、決定装置100が行ってもよいし、他の装置が行ってもよい。発話PA11を行ったユーザの特定を他の装置が行う場合、決定装置100は発話PA11を行ったユーザを特定する情報を他の装置から取得するものとする。このように、決定装置100は、発話を行ったユーザを特定することにより、ユーザの意図の推定の精度を向上させることができる。例えば、決定装置100は、特定したユーザに応じてモデルを使い分けることにより、ユーザの意図を推定してもよいが、この点の詳細については後述する。
Further, in the above-described example, the
また、決定装置100は、第2センサ情報に個数に関する情報が含まれる場合、その個数に関する情報に基づいて、指定された商品に関する処理態様を決定してもよい。図1の例において、決定装置100は、第2センサ情報が「これ3個欲しい」等の個数に関する情報が含まれる音声情報である場合、端末機器AP11に対応付けられた買物リストに商品IT14を3個追加してもよい。
In addition, when the second sensor information includes information related to the number, the
また、上述した例では、決定装置100が端末機器AP11に対応付けられた買物リスト、すなわちデバイスに対応付けられた買物リストに指定された商品IT14を追加する場合を示したが、決定装置100は、種々の処理態様を適宜決定してもよい。例えば、決定装置100は、ユーザに対応付けられた買物リストに指定された商品IT14を追加してもよい。例えば、決定装置100は、デバイス情報記憶部121(図3参照)に示すように、端末機器AP11に対応付けられたユーザであるユーザU11の買物リストに指定された商品IT14を追加してもよい。
Further, although the example described above shows a case where the
また、例えば、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の買物リストに商品IT14を追加してもよい。図1の例では、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の買物リストに商品IT14を追加し、発話PA11を行ったユーザが特定できない場合、端末機器AP11に対応付けられたユーザU11の買物リストに商品IT14を追加してもよい。このように、決定装置100は、第2センサ情報を含む種々の情報に基づいて、指定された商品に関する処理態様を決定してもよい。
Also, for example, when it is possible to specify that the user who has made the utterance PA11 is the user U12, the
また、例えば、決定装置100は、第2センサ情報に基づいて推定されるユーザの意図が商品の購入を示す場合、その商品の決済を行うと決定してもよい。図1の例では、決定装置100は、指定された商品IT14に対する購入意思が推定されるため、商品IT14の決済を行うと決定してもよい。この場合、決定装置100は、発話PA11を行ったユーザがユーザU12であると特定できる場合、ユーザU12の口座を用いた決済を行うと決定し、発話PA11を行ったユーザが特定できない場合、端末機器AP11に対応付けられたユーザU11の口座ACN11(図3参照)を用いた決済を行うと決定してもよい。
Also, for example, when the intention of the user estimated based on the second sensor information indicates the purchase of a product, the
また、例えば、決定装置100は、第2センサ情報に基づいて推定されるユーザの意図が商品への関心を示す場合、その商品を保留リストに追加すると決定してもよい。例えば、商品が指定された場合において、ユーザが「これいいかも」や「いつか買おうかな」等の購入の意思までには至らず、商品への関心を示す発話を行った場合、決定装置100は、その商品を保留リストに追加すると決定してもよい。例えば、決定装置100は、デバイスに対応付け付けられた保留リストに商品を追加してもよい。例えば、決定装置100は、発話を行ったユーザが特定できる場合、そのユーザの保留リストに商品を追加してもよい。また、例えば、決定装置100は、発話を行ったユーザが特定できない場合、デバイスに対応付けられたユーザの保留リストに商品を追加してもよい。
Also, for example, when the intention of the user estimated based on the second sensor information indicates an interest in a product, the
また、決定装置100や端末機器AP11は、ユーザの発話に応じて、端末機器AP11が表示しているコンテンツの表示態様を変化させてもよい。図1の例では、机上面PP11に表示されたコンテンツCT11が、ユーザの発話に応じて変化してもよい。例えば、ユーザU13が、商品IT15である白いポットAを指定し、「これの赤いやつ」と発話した場合、決定装置100や端末機器AP11は、端末機器AP11が表示しているコンテンツCT11における白いポットAを赤いポットAに表示を変化させてもよい。例えば、端末機器AP11は、音声認識の機能を有し、予め各商品の各色に対応する画像(コンテンツ)を取得済みである場合、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、コンテンツCT11における白いポットAを赤いポットAに表示を変化させてもよい。例えば、決定装置100は、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、端末機器AP11にコンテンツCT11における白いポットAを赤いポットAに表示を変化させるように指示してもよい。例えば、決定装置100は、ユーザU13による白いポットAの指定、及び「これの赤いやつ」との発話に応じて、端末機器AP11に赤いポットAに対応する画像(コンテンツ)を送信し、机上面PP11に表示された白いポットAを赤いポットAに表示を変化させるように指示してもよい。
Further, the
また、例えば、ユーザU11が、商品IT11であるタオルAを指定し、「これの色違い」と発話した場合、決定装置100や端末機器AP11は、端末機器AP11が表示しているコンテンツCT11における白いタオルAを他の色のタオルAに表示を変化させてもよい。例えば、ユーザU11が、商品IT11であるタオルAを指定し、「これの色違い」と発話した場合、端末機器AP11は、白いタオルAをタオルAが対応可能な他の色(例えば青)のタオルAに表示を変化させてもよい。なお、上述した表示の変化については、種々の技術を適宜用いて、端末機器AP11が行ってもよい。例えば、端末機器AP11は、あらかじめそのような各商品の各色に対応する(画像)データを取得し、表示するデータを切り替えてもよい。また、例えば、端末機器AP11は、オーバレイ等で重畳させて表示することにより、コンテンツの表示態様を変化させてもよい。
Further, for example, when the user U11 designates the towel A which is the product IT11 and utters “this is a different color”, the
〔2.決定装置の構成〕
次に、図2を用いて、実施形態に係る決定装置100の構成について説明する。図2は、実施形態に係る決定装置の構成例を示す図である。図2に示すように、決定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、決定装置100は、決定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of determination device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末機器AP11との間で情報の送受信を行う。また、通信部110は、電子商取引サービスを提供する情報処理装置や音声認識サーバとの間で情報の送受信を行ってもよい。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information to and from the terminal device AP11. In addition, the communication unit 110 may transmit and receive information to and from an information processing apparatus that provides an electronic commerce service or a voice recognition server.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、デバイス情報記憶部121やコンテンツ情報記憶部122や商品情報記憶部123や買物一覧情報記憶部124を有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 according to the embodiment has a device
(デバイス情報記憶部121)
実施形態に係るデバイス情報記憶部121は、端末機器AP11等の各種デバイスに関する各種情報を記憶する。例えば、デバイス情報記憶部121は、第1センサ情報や第2センサ情報の収集に用いられる各種デバイスに関する各種情報を記憶する。図3に、実施形態に係るデバイス情報記憶部121の一例を示す。図3に示すデバイス情報記憶部121は、「デバイスID」、「ユーザID」、「口座ID」といった項目を有する。
(Device information storage unit 121)
The device
「デバイスID」は、デバイスを識別するための識別情報を示す。また、「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、「ユーザID」は、デバイスに対応付けられたユーザを識別するための識別情報を示す。例えば、各デバイスIDには、複数のユーザIDが対応付けられてもよい。「口座ID」は、口座を識別するための識別情報を示す。例えば、「口座ID」は、ユーザに対応付けられた口座を識別するための識別情報を示す。 “Device ID” indicates identification information for identifying a device. Also, “user ID” indicates identification information for identifying a user. For example, the “user ID” indicates identification information for identifying the user associated with the device. For example, each device ID may be associated with a plurality of user IDs. "Account ID" indicates identification information for identifying an account. For example, “account ID” indicates identification information for identifying an account associated with the user.
例えば、図3に示す例において、デバイスID「AP11」により識別されるデバイス(端末機器AP11)には、ユーザID「U11」により識別されるユーザ(ユーザU11)が対応付けられていることを示す。また、ユーザID「U11」により識別されるユーザ(ユーザU11)は、口座ID「ACN11」により識別される口座が対応付けられていることを示す。 For example, in the example illustrated in FIG. 3, it is indicated that the device (terminal device AP11) identified by the device ID “AP11” is associated with the user (user U11) identified by the user ID “U11”. . Also, the user (user U11) identified by the user ID "U11" indicates that the account identified by the account ID "ACN11" is associated.
なお、デバイス情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。デバイス情報記憶部121は、限度額に関する情報を記憶してもよい。例えば、デバイス情報記憶部121は、過去の決済金額に関する情報を記憶してもよい。
The device
(コンテンツ情報記憶部122)
実施形態に係るコンテンツ情報記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ情報記憶部122は、端末機器AP11等の表示手段を有する装置により表示されるコンテンツに関する各種情報を記憶する。図4は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図4に示すコンテンツ情報記憶部122は、「コンテンツID」、「商品ID」、「範囲」といった項目が含まれる。
(Content information storage unit 122)
The content
「コンテンツID」は、コンテンツを識別するための識別情報を示す。例えば、コンテンツID「CT11」により識別されるコンテンツは、図1の例に示したコンテンツCT11に対応する。「商品ID」は、商品を識別するための識別情報を示す。また、「範囲」は、コンテンツ中において、対応する商品IDにより識別される商品が含まれる位置を示す。なお、図4の例では、「範囲」をAR11等の抽象的な符号で示すが、「範囲」は、対応する商品IDにより識別される商品のコンテンツ中における位置を示す座標等であってもよい。
"Content ID" indicates identification information for identifying content. For example, the content identified by the content ID “CT11” corresponds to the content CT11 shown in the example of FIG. "Product ID" indicates identification information for identifying a product. Further, “range” indicates a position in the content at which the product identified by the corresponding product ID is included. In the example shown in FIG. 4, “range” is indicated by an abstract code such as
例えば、図4に示す例において、コンテンツID「CT11」により識別されるコンテンツには、商品ID「IT11」により識別される商品や、商品ID「IT12」により識別される商品や、商品ID「IT13」により識別される商品や、商品ID「IT14」により識別される商品や、商品ID「IT15」により識別される商品が含まれることを示す。また、例えば、図4に示す例において、商品ID「IT11」により識別される商品は、コンテンツCT11中の範囲AR11に位置することを示す。例えば、範囲AR11は、コンテンツCT11中の略中央に位置する所定の範囲に対応する。 For example, in the example illustrated in FIG. 4, the content identified by the content ID “CT11” includes the item identified by the item ID “IT11”, the item identified by the item ID “IT12”, and the item ID “IT13”. It indicates that the product identified by “”, the product identified by the product ID “IT14”, and the product identified by the product ID “IT15” are included. Also, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT11” indicates that the item is located in the range AR11 in the content CT11. For example, the range AR11 corresponds to a predetermined range located substantially at the center of the content CT11.
また、例えば、図4に示す例において、商品ID「IT12」により識別される商品は、コンテンツCT11中の範囲AR12に位置することを示す。また、例えば、図4に示す例において、商品ID「IT13」により識別される商品は、コンテンツCT11中の範囲AR13に位置することを示す。また、例えば、図4に示す例において、商品ID「IT14」により識別される商品は、コンテンツCT11中の範囲AR14に位置することを示す。また、例えば、図4に示す例において、商品ID「IT15」により識別される商品は、コンテンツCT11中の範囲AR15に位置することを示す。 Further, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT12” indicates that the item is located in the range AR12 in the content CT11. Further, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT13” indicates that the item is located in the range AR13 in the content CT11. Also, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT14” indicates that the item is located in the range AR14 in the content CT11. Also, for example, in the example illustrated in FIG. 4, the item identified by the item ID “IT15” indicates that the item is located in the range AR15 in the content CT11.
なお、コンテンツ情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The content
(商品情報記憶部123)
実施形態に係る商品情報記憶部123は、商品に関する各種情報を記憶する。図5は、実施形態に係る商品情報記憶部の一例を示す図である。図5に示す商品情報記憶部123は、「商品ID」、「商品名」といった項目を有する。
(Product information storage unit 123)
The product
「商品ID」は、商品を識別するための識別情報を示す。「商品名」は、商品やサービスの具体的な名称等を示す。 "Product ID" indicates identification information for identifying a product. "Product name" indicates a specific name or the like of a product or service.
また、図5に示す例において、商品ID「IT11」により識別される商品は「シャンプーA」であることを示す。また、図5に示す例において、商品ID「IT12」により識別される商品は「シャンプーA詰替品」、すなわちシャンプーAの詰め替え用の商品であることを示す。また、図5に示す例において、商品ID「IT13」により識別される商品は「タオルA」であることを示す。また、図5に示す例において、商品ID「IT14」により識別される商品は「かごA」であることを示す。また、図5に示す例において、商品ID「IT15」により識別される商品は「ポットA」であることを示す。 Further, in the example shown in FIG. 5, it indicates that the product identified by the product ID “IT11” is “shampoo A”. Further, in the example shown in FIG. 5, it is indicated that the product identified by the product ID “IT12” is “Shampoo A Refill”, that is, a product for refilling shampoo A. Moreover, in the example shown in FIG. 5, it shows that the goods identified by goods ID "IT13" are "towel A". Moreover, in the example shown in FIG. 5, it shows that the goods identified by goods ID "IT14" are "car A." Moreover, in the example shown in FIG. 5, it shows that the goods identified by goods ID "IT15" are "pot A."
なお、商品情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、商品情報記憶部123は、商品の金額に関する情報を記憶してもよい。例えば、商品情報記憶部123は、商品を取り扱うストア(店舗)に関する情報や在庫に関する情報を記憶してもよい。
The product
(買物一覧情報記憶部124)
実施形態に係る買物一覧情報記憶部124は、買物(購入)に関する各種情報を記憶する。例えば、買物一覧情報記憶部124は、所定の商品に関する各種情報を記憶する。図6は、実施形態に係る買物一覧情報記憶部の一例を示す図である。図6に示す買物一覧情報記憶部124は、「対象ID」、「買物リスト」といった項目を有する。
(Shopping list information storage unit 124)
The shopping list
「対象ID」は、商品のリストが対応付けられる対象を識別する情報を示す。なお、「対象ID」には、「AP11」等の端末機器を識別するIDや「U1」等のユーザを識別するID等、商品のリストが対応付けられる対象を識別するIDであれば、どのような対象を識別するIDが含まれてもよい。「買物リスト」は、対象に対応づけられている商品に関する情報を示す。例えば、「買物リスト」は、第1センサ情報に基づいて特定された商品と対象との対応付けを示す。 "Object ID" indicates information identifying an object to which the list of products is associated. The “target ID” may be an ID for identifying a terminal device such as “AP11” or an ID for identifying a user such as “U1”, as long as it is an ID for identifying a target associated with a list of products. It may include an ID identifying such an object. The “shopping list” indicates information on the product associated with the target. For example, the “shopping list” indicates the correspondence between the item identified based on the first sensor information and the object.
「買物リスト」には、「商品」や「日時」といった項目が含まれる。例えば、「商品」は、グループにおいて決済が行われた商品を識別する情報を示す。また、「日時」は、対応する商品の決済が行われた日時を示す。なお、「日時」は、対応する商品の入力が行われた日時であってもよい。 The "shopping list" includes items such as "goods" and "date and time". For example, “merchandise” indicates information identifying a product for which settlement has been made in the group. Also, “date and time” indicates the date and time when the settlement of the corresponding product was performed. The “date and time” may be the date and time when the corresponding product was input.
なお、「買物リスト」には、「入力ユーザ」といった項目が含まれてもよい。「買物リスト」中の「入力ユーザ」は、対応する商品の指定を行ったユーザであってもよいし、対応する商品に対する意図を示したユーザであってもよい。例えば、「買物リスト」中の「入力ユーザ」は、第1センサ情報を検知されたユーザであってもよいし、第2センサ情報を検知されたユーザであってもよい。 The “shopping list” may include an item such as “input user”. The “input user” in the “shopping list” may be a user who has specified a corresponding product or may be a user who has indicated an intention for the corresponding product. For example, the “input user” in the “shopping list” may be a user whose first sensor information has been detected or a user whose second sensor information has been detected.
例えば、図6に示す例において、対象ID「AP11」により識別される対象は、「AP11」により識別される端末機器AP11であることを示す。例えば、図6に示す例において、「買物リスト」に示すように、商品ID「IT1」により識別される商品が日時「DT1」に端末機器AP11に対応する買物リストに追加されたことを示す。また、例えば、商品ID「IT14」により識別される商品が日時「DT12」に端末機器AP11に対応する買物リストに追加されたことを示す。 For example, in the example illustrated in FIG. 6, the target identified by the target ID "AP11" indicates that the terminal device AP11 identified by "AP11". For example, in the example illustrated in FIG. 6, as illustrated in the “shopping list”, it indicates that the item identified by the item ID “IT1” has been added to the shopping list corresponding to the terminal device AP11 at the date “DT1”. Further, for example, it indicates that the product identified by the product ID “IT14” has been added to the shopping list corresponding to the terminal device AP11 at the date and time “DT12”.
なお、買物一覧情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、買物一覧情報記憶部124は、商品の金額に関する情報を記憶してもよい。例えば、買物一覧情報記憶部124は、「買物リスト」に加えて、決済が行われた商品に関する情報を示す「決済済リスト」や、ユーザの操作により決済が保留されている商品に関する情報を示す「保留リスト」等を記憶してもよい。
In addition, shopping list
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラム(決定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 2, the control unit 130 is a controller, and is stored in a storage device in the
図2に示すように、制御部130は、第1受付部131と、第2受付部132と、推定部133と、決定部134と、送信部135とを有し、以下に説明する決定処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する決定処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 2, the control unit 130 includes a
(第1受付部131)
第1受付部131は、各種情報を受け付ける。例えば、第1受付部131は、外部の情報処理装置から各種情報を受け付ける。例えば、第1受付部131は、第1センサSN1により検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。例えば、第1受付部131は、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付ける。例えば、第1受付部131は、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。
(1st reception part 131)
The first accepting
図1では、第1受付部131は、端末機器AP11から第1センサ情報を受け付ける。図1の例では、第1受付部131は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報や、ユーザにより指定されたコンテンツがコンテンツCT11であることを示す情報を端末機器AP11から受け付ける。また、例えば、第1受付部131は、ユーザが指定した位置が位置(x1,y1)であることを示す第1センサ情報のみを端末機器AP11から受け付けてもよい。
In FIG. 1, the
(第2受付部132)
第2受付部132は、各種情報を受け付ける。例えば、第2受付部132は、外部の情報処理装置から各種情報を受け付ける。例えば、第2受付部132は、第2センサSN2により検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。例えば、第2受付部132は、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付ける。
(Second acceptance unit 132)
The second accepting unit 132 accepts various information. For example, the second accepting unit 132 accepts various information from an external information processing apparatus. For example, the second accepting unit 132 is the second sensor information detected by the second sensor SN2, and accepts the second sensor information regarding the intention of the user for the product or service specified based on the first sensor information. For example, the second reception unit 132 receives the second sensor information detected by the voice sensor as the second sensor SN2.
図1では、第2受付部132は、端末機器AP11から第2センサ情報を受け付ける。図1の例では、第2受付部132は、ユーザの発話に関する第2センサ情報を端末機器AP11から受け付ける。例えば、第2受付部132は、発話PA11の音声情報を第2センサ情報として端末機器AP11から受け付ける。なお、第1受付部131と第2受付部132とは一体であってもよい。
In FIG. 1, the second receiving unit 132 receives second sensor information from the terminal device AP11. In the example of FIG. 1, the second reception unit 132 receives, from the terminal device AP11, second sensor information related to the user's speech. For example, the second accepting unit 132 accepts voice information of the utterance PA11 from the terminal device AP11 as second sensor information. The
(推定部133)
推定部133は、種々の情報の推定や特定を行う。例えば、推定部133は、第2センサ情報に基づいて購入対象に対するユーザの意図を推定する。例えば、推定部133は、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定してもよい。例えば、推定部133は、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに第2センサ情報を入力することにより、購入対象に対する当該ユーザの意図を推定してもよい。なお、この点についての詳細は後述する。
(Estimation unit 133)
The
図1の例では、推定部133は、端末機器AP11からの第1センサ情報に基づいてユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報と、コンテンツ情報記憶部122に記憶されたコンテンツ情報とに基づいて、ユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報と、コンテンツ情報記憶部122に記憶された各商品IT11〜IT15の範囲AR11〜AR15とに基づいて、ユーザが指定した商品を特定する。例えば、推定部133は、第1センサ情報の座標(x1,y1)が範囲AR11〜AR15のいずれかに含まれる場合、ユーザが指定した商品を特定する。図1の例では、推定部133は、第1センサ情報の座標(x1,y1)が範囲AR14に含まれるため、ユーザが指定した商品が商品IT14であると特定する。また、例えば、推定部133は、商品情報記憶部123に記憶された商品IDと商品名の対応に基づいて、商品IT14が商品名「かごA」であると特定する。
In the example of FIG. 1, the
また、図1の例では、推定部133は、端末機器AP11からの第2センサ情報に基づいてユーザの意図を推定する。例えば、推定部133は、受け付けた第2センサ情報を解析することにより、第1センサ情報に基づいて特定した商品IT14をユーザが購入することを希望していると推定する。例えば、推定部133は、第2センサ情報である発話PA11の音声情報を文字情報に変換し、変換後の文字情報に基づいて、発話PA11に「これ」という指示代名詞とその指示代名詞に対応する商品を購入することを希望していることを示す内容が含まれることを特定する。例えば、推定部133は、発話PA11の文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。
Moreover, in the example of FIG. 1, the
例えば、推定部133は、第2センサ情報に基づいて、ユーザが指示代名詞に対応する商品を購入することを希望していると推定する。また、図1の例では、推定部133は、ユーザが指定した商品が商品IT14であると特定しているため、ユーザが商品IT14であるかごAを購入することを希望していると推定する。
For example, based on the second sensor information, the
(決定部134)
決定部134は、種々の決定を行う。例えば、決定部134は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定する。例えば、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定する。
(Determination unit 134)
The
図1の例では、決定部134は、推定部133により推定されたユーザの商品IT14に対する意図に応じて、商品IT14に関する処理態様を決定する。例えば、決定部134は、ユーザが商品IT14であるかごAを購入することを希望していると推定されるため、商品IT14を所定の買物リストに追加すると決定する。例えば、決定部134は、端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。例えば、決定部134は、買物一覧情報記憶部124に示すように、端末機器AP11に対応付けられた買物リストに商品IT14を追加する。端末機器AP11に対応付けられた買物リストに商品IT14を追加すると決定する。図1の例では、決定部134は、第1センサ情報に基づいて特定される商品IT14に関する処理態様を、第2センサ情報に基づいて決定する。
In the example of FIG. 1, the
(送信部135)
送信部135は、各種情報を送信する。例えば、送信部135は、各種情報を外部の情報処理装置へ送信する。例えば、送信部135は、買物一覧情報記憶部124中の買物リストに商品が追加された場合、所定のタイミングでユーザが利用する種々の装置に商品の追加に関する情報を送信してもよい。例えば、送信部135は、端末機器AP11に買物リストに追加された商品に関する情報を送信し、端末機器AP11は、所定のタイミングで受信した商品に関する情報を出力してもよい。例えば、端末機器AP11は、ユーザが買物に関する行動を終了した後に、端末機器AP11を再び利用するタイミングで商品に関する情報を表示してもよい。
(Transmission unit 135)
The
〔3.処理フロー〕
次に、図7を用いて、実施形態に係る決定システム1による決定処理の手順について説明する。図7は、実施形態に係る決定処理の一例を示すフローチャートである。
[3. Processing flow]
Next, the procedure of the determination process by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the determination process according to the embodiment.
図7に示すように、決定装置100の第1受付部131は、ユーザの商品の指定に関する第1センサ情報を受け付ける(ステップS101)。図1の例では、第1受付部131は、端末機器AP11からユーザがかごAを指定したことを示す第1センサ情報を受け付ける。
As shown in FIG. 7, the first accepting
そして、決定装置100の第2受付部132は、ユーザの商品の購入意思に関する第2センサ情報を受け付ける(ステップS102)。図1の例では、第2受付部132は、端末機器AP11からユーザがかごAの購入する意図があることを示す第2センサ情報を受け付ける。
Then, the second reception unit 132 of the
その後、決定装置100の決定部134は、第1センサ情報に基づいて特定される商品またはサービスに関する処理態様を、第2センサ情報に基づいて決定する(ステップS103)。図1の例では、決定部134は、ユーザにより指定されたかごAを買物一覧情報記憶部124中の買物リストに追加する。
Thereafter, the
〔4.変形例〕
例えば、変形例に係る決定装置100Aは、モデルを生成し、生成したモデルを用いてユーザの意図を推定してもよい。この点を図8及び図9を用いて説明する。なお、実施形態と同様の構成については、同一の符号を付して説明を省略する。
[4. Modified example]
For example, the determination device 100A according to the modification may generate a model, and estimate the user's intention using the generated model. This point will be described using FIG. 8 and FIG. About the same composition as an embodiment, the same numerals are attached and explanation is omitted.
〔4−1.決定装置の構成〕
次に、図8を用いて、変形例に係る決定装置100Aの構成について説明する。図8は、変形例に係る決定装置の構成例を示す図である。図8に示すように、決定装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、決定装置100Aは、決定装置100Aの管理者等から各種操作を取得する入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[4-1. Configuration of determination device]
Next, the configuration of the determination apparatus 100A according to the modification will be described with reference to FIG. FIG. 8 is a diagram showing a configuration example of a determination device according to a modification. As illustrated in FIG. 8, the determination apparatus 100A includes a communication unit 110, a
(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図8に示すように、デバイス情報記憶部121やコンテンツ情報記憶部122や商品情報記憶部123や買物一覧情報記憶部124やモデル情報記憶部125を有する。
(
The
(モデル情報記憶部125)
変形例に係るモデル情報記憶部125は、学習に関する情報を記憶する。例えば、モデル情報記憶部125は、複数のモデル情報を記憶する。図9は、実施形態に係るモデル情報記憶部の一例を示す図である。図9に示すモデル情報記憶部125は、モデル情報として、各モデルM1、M2等に対応させて「素性1」〜「素性3」等といった項目を有する。
(Model information storage unit 125)
The model
例えば、図9に示す例において、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。また、例えば、図9に示す例において、モデルM2に関するモデル情報は、素性1の重みが「−0.3」、素性2の重みが「0.1」、素性3の重みが「−0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。 For example, in the example shown in FIG. 9, the model information related to the model M1 has a weight of feature 1 of “0.5”, a weight of feature 2 of “−0.4”, a weight of feature 3 of “0.2”, etc. To indicate that Further, for example, in the example illustrated in FIG. 9, in the model information regarding the model M2, the weight of feature 1 is “−0.3”, the weight of feature 2 is “0.1”, and the weight of feature 3 is “−0. 2 ”and so on. For example, when the feature (feature amount) of the model is expressed by an m-dimensional vector, the number of feature numbers is m, and the weight of the feature 1 to the feature m is stored.
なお、モデル情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130A)
図8の説明に戻って、制御部130Aは、コントローラであり、例えば、CPUやMPU等によって、決定装置100A内部の記憶装置に記憶されている各種プログラム(決定プログラムや学習プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130A)
Returning to the explanation of FIG. 8, the control unit 130A is a controller, and for example, various programs (corresponding to an example of a determination program or a learning program) stored in a storage device inside the determination device 100A by a CPU, an MPU, or the like. Is implemented by executing the RAM as a work area. The control unit 130A is a controller, and is realized by, for example, an integrated circuit such as an ASIC or an FPGA.
図8に示すように、制御部130Aは、第1受付部131と、第2受付部132と、推定部133Aと、決定部134と、送信部135と、学習部136を有し、以下に説明する情報処理の機能や作用を実現または実行する。
As shown in FIG. 8, the control unit 130A includes a
(学習部136)
学習部136は、種々の情報を学習する。例えば、学習部136は、種々の情報に基づいてモデルを生成する。例えば、学習部136は、過去に推定されたユーザの意図と、その意図に基づいて処理態様が決定された商品に対するユーザの行動に関する情報とに基づいて学習する。
(Learning unit 136)
The learning unit 136 learns various information. For example, the learning unit 136 generates a model based on various information. For example, the learning unit 136 learns based on the user's intention estimated in the past and information on the user's action on the product whose processing mode is determined based on the user's intention.
例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入した場合、その情報を正例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入した場合の第2センサ情報を正例として学習を行なってもよい。 For example, the learning unit 136 may estimate that the user's intention is the intention to purchase, and when the user purchases a product added to the shopping list, learning may be performed using the information as a positive example. For example, the learning unit 136 may perform learning using the second sensor information in the case where the user purchases a product added to the shopping list, which is assumed to be the intention of the user and intends to purchase.
例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入しなかった場合、その情報を負例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図であると推定され、買物リストに追加された商品をユーザが購入しなかった場合の第2センサ情報を負例として学習を行なってもよい。 For example, when the user's intention is presumed to be an intention to purchase, and the user does not purchase the item added to the shopping list, the learning unit 136 may perform learning using the information as a negative example. For example, the learning unit 136 may perform learning using, as a negative example, the second sensor information in the case where the user's intention is presumed to be the intention to purchase, and the user does not purchase the item added to the shopping list. .
例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入しなかった場合、その情報を正例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入しなかった場合の第2センサ情報を正例として学習を行なってもよい。 For example, when the user's intention is presumed not to be purchased and the user does not purchase a product not added to the shopping list, the learning unit 136 may perform learning using the information as a positive example. For example, even if the learning unit 136 performs learning using the second sensor information as a positive example when the user does not purchase a product that is not intended to be purchased by the user and is not added to the shopping list. Good.
例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入した場合、その情報を負例として学習を行なってもよい。例えば、学習部136は、ユーザの意図が購入する意図ではないと推定され、買物リストに追加されなかった商品をユーザが購入した場合の第2センサ情報を負例として学習を行なってもよい。 For example, the learning unit 136 may perform learning using the information as a negative example when it is estimated that the user's intention is not the intention to purchase and the product purchased by the user is not added to the shopping list. For example, the learning unit 136 may perform learning by using, as a negative example, second sensor information in the case where the user purchases a product that is not intended to be purchased by the user and is not added to the shopping list.
例えば、学習部136は、ユーザの意図が購入意図である可能性が高い程、大きい値を出力するモデルを生成してもよい。また、学習部136は、ユーザの意図が購入意図である可能性が低い程、小さい値を出力するモデルを生成してもよい。例えば、学習部136は、ユーザの意図が購入意図である可能性が高い程1に近く、ユーザの意図が購入意図である可能性が低い程0に近い値(スコア)を出力するモデルを生成してもよい。 For example, the learning unit 136 may generate a model that outputs a larger value as the user's intention is more likely to be a purchase intention. The learning unit 136 may also generate a model that outputs a smaller value as the user's intention is less likely to be a purchase intention. For example, the learning unit 136 generates a model that outputs a value (score) closer to 1 when the user's intention is more likely to be a purchase intention, and as the user's intention is less likely to be a purchase intention. You may
例えば、学習部136は、ユーザ毎にモデルを生成してもよい。例えば、学習部136は、推定部133Aにより特定されたユーザ毎にモデルを生成してもよい。また、例えば、学習部136は、ユーザ分類毎にモデルを生成してもよい。例えば、学習部136は、30代男性や20代女性等の種々のユーザ分類毎にモデルを生成してもよい。例えば、学習部136は、推定部133Aにより特定されたユーザの属性に基づいて、ユーザ分類毎にモデルを生成してもよい。また、学習部136は、複数のモデルに限らず、全ユーザに共通して用いる1つのモデルを生成してもよい。なお、上記は一例であり、学習部136は、どのような情報に基づいてモデルを生成してもよい。例えば、学習部136は、第1センサ情報と第2センサ情報との入力として、スコアを出力するモデルを生成してもよい。
For example, the learning unit 136 may generate a model for each user. For example, the learning unit 136 may generate a model for each user identified by the
(推定部133A)
推定部133Aは、学習部136において生成されたモデルを用いて、ユーザの意図の推定を行う。例えば、推定部133Aは、モデルに第2センサ情報を入力することにより出力されたスコアに基づいて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、モデルに第2センサ情報や第1センサ情報を入力することにより出力されたスコアに基づいて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、種々の従来技術を適宜用いて、第2センサ情報が検知されたユーザを特定し、特定したユーザに応じて選択されるモデルを用いて、ユーザの意図の推定を行ってもよい。例えば、推定部133Aは、第2センサ情報である音声情報を解析することにより、発話を行ったユーザを特定し、特定したユーザに応じて選択されるモデルを用いて、ユーザの意図の推定を行ってもよい。
(
The
例えば、推定部133Aは、モデルが出力したスコアが所定の閾値以上である場合、ユーザの意図を購入意図と推定してもよい。また、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満である場合、ユーザの意図を購入意図ではないと推定してもよい。また、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満の所定の範囲内である場合、ユーザの意図を購入検討の意図であると推定してもよい。この場合、例えば、推定部133Aは、モデルが出力したスコアが所定の閾値未満の所定の範囲よりもさらに低い場合、ユーザの意図を購入の意図が無いと推定してもよい。
For example, when the score output by the model is equal to or greater than a predetermined threshold, the
なお、ユーザの意図の推定に用いるモデルを外部の情報処理装置から取得する場合、決定装置100Aは、学習部136を有しなくてもよい。 When acquiring a model used to estimate the user's intention from an external information processing apparatus, the determination apparatus 100A may not have the learning unit 136.
〔5.効果〕
上述してきたように、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1受付部131と、第2受付部132と、決定部134とを有する。第1受付部131は、第1センサSN1により検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。第2受付部132は、第2センサSN2により検知される第2センサ情報であって、第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける。決定部134は、第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、第2センサ情報に基づいて決定する。
[5. effect〕
As described above, the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1センサ情報に基づいて商品またはサービスを特定し、特定した商品またはサービスに対するユーザの意図に関する第2センサ情報に基づいて推定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定する。
Further, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、購入対象を所定のリストに追加すると決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, when the intention of the user estimated based on the second sensor information satisfies a predetermined condition, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定する。
Further, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が、購入対象の購入を示す場合、購入対象の決済を行うと決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, when the intention of the user estimated based on the second sensor information indicates the purchase of the purchase object, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、決定部134は、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定する。
Further, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて推定されるユーザの意図が、購入対象への関心を示す場合、購入対象を保留リストに追加すると決定することにより、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第1受付部131は、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付ける。
In addition, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第1センサSN1としての赤外線センサにより検知される第1センサ情報を受け付けることにより、ユーザが指定した商品またはサービスを適切に特定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第2受付部132は、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付ける。
In addition, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサSN2としての音声センサにより検知される第2センサ情報を受け付けることにより、特定した商品またはサービスに対するユーザの意図をユーザの音声に基づいて推定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、第1受付部131は、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける。
Further, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付けることにより、複数の対象が表示される場合であっても、ユーザが指定した商品またはサービスを適切に特定することができる。これにより、決定装置100、100Aは、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、推定部133、133Aを有する。推定部133、133Aは、第2センサ情報に基づいて購入対象に対するユーザの意図を推定する。
Further, the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、第2センサ情報に基づいて購入対象に対するユーザの意図を推定することにより、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、推定部133、133Aは、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定する。
Further, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、ユーザに応じて変動するモデルと第2センサ情報とに基づいて、購入対象に対するユーザの意図を推定することにより、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
また、実施形態に係る決定装置100及び変形例に係る決定装置100Aにおいて、推定部133、133Aは、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルに第2センサ情報を入力することにより、購入対象に対する当該ユーザの意図を推定する。
Further, in the
これにより、実施形態に係る決定装置100及び変形例に係る決定装置100Aは、過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習されたモデルを用いることにより、商品またはサービスに関する処理態様を適切に決定することができる。
Thereby, the
〔6.ハードウェア構成〕
上述してきた実施形態に係る決定装置100及び変形例に係る決定装置100Aは、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、決定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が決定装置100、100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130、130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and modifications of the present application have been described above in detail based on the drawings, these are merely examples, and various aspects can be obtained based on the knowledge of those skilled in the art, including the aspects described in the rows of the disclosure of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. Other]
Further, among the processes described in the embodiment and the modification, all or part of the process described as being automatically performed can be manually performed, or it is described as manually performed. All or part of the treatment may be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, it is possible to combine suitably the embodiment and modification which were mentioned above in the range which does not make process content contradictory.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、第1受付部は、第1受付手段や第1受付回路に読み替えることができる。 In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the first reception unit can be read as a first reception means or a first reception circuit.
1 決定システム
100 決定装置
121 デバイス情報記憶部
122 コンテンツ情報記憶部
123 商品情報記憶部
124 買物一覧情報記憶部
130 制御部
131 第1受付部
132 第2受付部
133 推定部
134 決定部
135 送信部
AP11 端末機器
SN1 第1センサ
SN2 第2センサ
N ネットワーク
DESCRIPTION OF SYMBOLS 1
Claims (9)
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付部と、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習することによりユーザ分類毎にモデルを生成する学習部と、
前記学習部で生成された前記ユーザ分類毎のモデルに前記第2センサ情報を入力することにより、前記第1センサ情報に基づいて特定される商品またはサービスに対する当該ユーザの意図を推定する推定部と、
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定部の推定結果に基づいて決定する決定部と、を備え、
前記学習部は、前記推定部で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致した場合を正例として学習することにより、或いは、前記推定部で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致しなかった場合を負例として学習することにより、前記モデルを生成する、
ことを特徴とする決定装置。 A first reception unit that receives the first sensor information detected by the first sensor, the first sensor information regarding specification of the user for the product or service displayed in the predetermined area;
A second reception unit that receives second sensor information that is the second sensor information detected by the second sensor and that is about the user's intention for the product or service specified based on the first sensor information;
A learning unit that generates a model for each user classification by learning based on the user's intention estimated in the past and information on the user's behavior for the product or service whose processing mode has been determined based on the user's intention When,
An estimation unit configured to estimate an intention of the user for a product or service specified based on the first sensor information by inputting the second sensor information to the model for each of the user classifications generated by the learning unit; ,
A determination unit configured to determine, based on the estimation result of the estimation unit, a processing mode related to a purchase target that is a product or service specified based on the first sensor information ;
The learning unit learns, as a positive example, a case in which the intention of the user estimated in the past by the estimation unit matches the behavior of the user for the purchase target whose processing mode is determined based on the intention. Or, by learning as a negative example, the case where the user's intention for the purchase target whose processing mode is determined based on the user's intention estimated in the past by the estimation unit and the user's action for the purchase object does not match , Generate the model,
Determining device which is characterized a call.
前記第2センサ情報に基づいて推定されるユーザの意図が所定の条件を満たす場合、前記購入対象を所定のリストに追加すると決定する
ことを特徴とする請求項1に記載の決定装置。 The determination unit is
Determining apparatus according to claim 1, characterized in that determining the intention of the user is estimated based on the second sensor information when a predetermined condition is satisfied, adding the purchase target to the predetermined list.
前記第2センサ情報に基づいて推定されるユーザの意図が、前記購入対象の購入を示す場合、前記購入対象の決済を行うと決定する
ことを特徴とする請求項1又は2に記載の決定装置。 The determination unit is
The determination device according to claim 1 or 2 , wherein if the user's intention estimated based on the second sensor information indicates the purchase of the purchase object, it is determined that the purchase object is to be settled. .
前記第2センサ情報に基づいて推定されるユーザの意図が、前記購入対象への関心を示す場合、前記購入対象を保留リストに追加すると決定する
ことを特徴とする請求項1〜3のいずれか1項に記載の決定装置。 The determination unit is
The method according to any one of claims 1 to 3 , wherein if the user's intention estimated based on the second sensor information indicates an interest in the purchase object, the purchase object is determined to be added to the hold list. The determination device according to item 1.
前記第1センサとしての赤外線センサにより検知される前記第1センサ情報を受け付ける
ことを特徴とする請求項1〜4のいずれか1項に記載の決定装置。 The first reception unit is
The determination apparatus according to any one of claims 1 to 4 , wherein the first sensor information detected by an infrared sensor as the first sensor is received.
前記第2センサとしての音声センサにより検知される前記第2センサ情報を受け付ける
ことを特徴とする請求項1〜5のいずれか1項に記載の決定装置。 The second reception unit is
The determination apparatus according to any one of claims 1 to 5 , wherein the second sensor information detected by an audio sensor as the second sensor is received.
前記所定の領域に複数表示された商品またはサービスのうち、一の商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける
ことを特徴とする請求項1〜6のいずれか1項に記載の決定装置。 The first reception unit is
7. The determination according to any one of claims 1 to 6 , wherein first sensor information regarding specification of a user for one product or service among a plurality of products or services displayed in the predetermined area is received. apparatus.
第1センサにより検知される第1センサ情報であって、所定の領域に表示された商品またはサービスに対するユーザの指定に関する第1センサ情報を受け付ける第1受付工程と、
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付工程と、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習することによりユーザ分類毎にモデルを生成する学習工程と、
前記学習工程で生成された前記ユーザ分類毎のモデルに前記第2センサ情報を入力することにより、前記第1センサ情報に基づいて特定される商品またはサービスに対する当該ユーザの意図を推定する推定工程と、
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定工程の推定結果に基づいて決定する決定工程と、を含み、
前記学習工程では、前記推定工程で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致した場合を正例として学習することにより、或いは、前記推定工程で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致しなかった場合を負例として学習することにより、前記モデルを生成する、
ことを特徴とする決定方法。 A decision method that the computer executes,
A first accepting step of accepting first sensor information detected by the first sensor, the first sensor information relating to the designation of the user for the product or service displayed in the predetermined area;
A second receiving step of receiving second sensor information which is the second sensor information detected by the second sensor and which relates to the user's intention for the product or service specified based on the first sensor information;
A learning step of generating a model for each user classification by learning based on the user's intention estimated in the past and information on the user's behavior for the product or service whose processing mode has been determined based on the user's intention When,
Estimating the intention of the user for the product or service specified based on the first sensor information by inputting the second sensor information to the model for each of the user classifications generated in the learning step; ,
Determining a processing mode related to a purchase target, which is a product or service specified based on the first sensor information, based on an estimation result of the estimation step ;
In the learning step, learning is performed by using as a positive example a case where the user's intention estimated in the past in the estimation step matches the user's action on the purchase target whose processing mode is determined based on the intention. Or, by learning as a negative example, the case where the user's intention for the past determined in the estimation step and the user's action for the purchase target whose processing mode is determined based on the intention does not match , Generate the model,
Decision wherein a call.
第2センサにより検知される第2センサ情報であって、前記第1センサ情報に基づいて特定される商品またはサービスに対するユーザの意図に関する第2センサ情報を受け付ける第2受付手順と、
過去に推定されたユーザの意図と、当該意図に基づいて処理態様が決定された商品またはサービスに対する当該ユーザの行動に関する情報と、に基づいて学習することによりユーザ分類毎にモデルを生成する学習手順と、
前記学習手順で生成された前記ユーザ分類毎のモデルに前記第2センサ情報を入力することにより、前記第1センサ情報に基づいて特定される商品またはサービスに対する当該ユーザの意図を推定する推定手順と、
前記第1センサ情報に基づいて特定される商品またはサービスである購入対象に関する処理態様を、前記推定手順の推定結果に基づいて決定する決定手順と、をコンピュータに実行させ、
前記学習手順では、前記推定手順で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致した場合を正例として学習することにより、或いは、前記推定手順で過去に推定されたユーザの意図と当該意図に基づいて処理態様が決定された前記購入対象に対する当該ユーザの行動とが合致しなかった場合を負例として学習することにより、前記モデルを生成する、
ことを特徴とする決定プログラム。 A first acceptance procedure for accepting the first sensor information detected by the first sensor, the first sensor information relating to the specification of the user for the product or service displayed in the predetermined area;
A second reception procedure for receiving second sensor information which is second sensor information detected by a second sensor, and which relates to a user's intention for a product or service specified based on the first sensor information;
A learning procedure that generates a model for each user classification by learning based on the user's intention estimated in the past and information on the user's behavior for the product or service whose processing mode has been determined based on the user's intention When,
An estimation procedure for estimating an intention of the user for a product or service specified based on the first sensor information by inputting the second sensor information to the model for each of the user classifications generated in the learning procedure; ,
And causing a computer to execute a determination step of determining a processing mode related to a purchase target, which is a product or service specified based on the first sensor information, based on an estimation result of the estimation step .
In the learning procedure, learning is performed by using, as a positive example, a case where the user's intention estimated in the past in the estimation procedure and the user's action for the purchase target whose processing mode is determined based on the intention matches. Or, by learning as a negative example, the case where the user's intention for the purchase target whose processing mode is determined based on the user's intention estimated in the past in the estimation procedure and the user's action for the purchase object does not match , Generate the model,
Determining program, wherein a call.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017203679A JP6546244B2 (en) | 2017-10-20 | 2017-10-20 | DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017203679A JP6546244B2 (en) | 2017-10-20 | 2017-10-20 | DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016210635A Division JP6240291B1 (en) | 2016-10-27 | 2016-10-27 | Determination apparatus, determination method, and determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018073410A JP2018073410A (en) | 2018-05-10 |
JP6546244B2 true JP6546244B2 (en) | 2019-07-17 |
Family
ID=62115527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017203679A Active JP6546244B2 (en) | 2017-10-20 | 2017-10-20 | DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6546244B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3822357B2 (en) * | 1998-02-09 | 2006-09-20 | 株式会社東芝 | Interface device and method for multimodal input / output device |
JP2003044756A (en) * | 2001-07-26 | 2003-02-14 | Kenichi Omae | On-line shopping method, shopping site, voice recognizing device and voice recognition supporting device |
US20100114654A1 (en) * | 2008-10-31 | 2010-05-06 | Hewlett-Packard Development Company, L.P. | Learning user purchase intent from user-centric data |
JP2014052987A (en) * | 2012-09-10 | 2014-03-20 | Pc Depot Corp | Purchasing system, set-top box, and program |
US20150106304A1 (en) * | 2013-10-15 | 2015-04-16 | Adobe Systems Incorporated | Identifying Purchase Intent in Social Posts |
EP3161768A4 (en) * | 2014-06-25 | 2017-11-01 | RetailMeNot, Inc. | Apparatus and method for mobile-dispatcher for offer redemption work flows |
-
2017
- 2017-10-20 JP JP2017203679A patent/JP6546244B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018073410A (en) | 2018-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11671386B2 (en) | Electronic device and method for changing chatbot | |
US11487712B2 (en) | Digital image suitability determination to generate AR/VR digital content | |
US11775844B2 (en) | Visual aspect localization presentation | |
US9230160B1 (en) | Method, medium, and system for online ordering using sign language | |
EP3221817B1 (en) | Screenshot based indication of supplemental information | |
KR20190131065A (en) | Detect Mission Changes During Conversation | |
JP2019535037A (en) | Synthetic Speech Selection for Agents by Computer | |
JP6633211B2 (en) | Product purchase support system, product purchase support method, and program | |
US11875241B2 (en) | Aspect pre-selection using machine learning | |
TW201928709A (en) | Method and apparatus for merging model prediction values, and device | |
WO2021223656A1 (en) | Information presentation based on graphic code recognition | |
US10817923B2 (en) | Information providing system, information providing apparatus, information providing method, and program | |
US20150276700A1 (en) | Representing the taste of food | |
JP6831898B2 (en) | Product purchase support system, product purchase support method, and program | |
KR20240110537A (en) | Operating method for providing page information and electronic apparatus supporting thereof | |
US20230360078A1 (en) | Intelligent and interactive shopping engine | |
KR20210044551A (en) | Electronic receipt-based artificial calorie calculation apparatus and method | |
JP6240291B1 (en) | Determination apparatus, determination method, and determination program | |
JP6546244B2 (en) | DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM | |
KR20200013164A (en) | Electronic apparatus and controlling method thereof | |
KR102254570B1 (en) | Joint order processing apparatus for food materials | |
US20170185228A1 (en) | System, Method, and Apparatus for an Interactive Container | |
KR102202945B1 (en) | Smart order processing apparatus | |
JP7018850B2 (en) | Terminal device, decision method, decision program and decision device | |
JP6419254B2 (en) | Estimation apparatus, estimation method, and estimation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6546244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |