JP2017174222A - Guide output device, guide output method, and program - Google Patents

Guide output device, guide output method, and program Download PDF

Info

Publication number
JP2017174222A
JP2017174222A JP2016060694A JP2016060694A JP2017174222A JP 2017174222 A JP2017174222 A JP 2017174222A JP 2016060694 A JP2016060694 A JP 2016060694A JP 2016060694 A JP2016060694 A JP 2016060694A JP 2017174222 A JP2017174222 A JP 2017174222A
Authority
JP
Japan
Prior art keywords
guidance
information
reaction
output
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016060694A
Other languages
Japanese (ja)
Inventor
弘明 根岸
Hiroaki Negishi
弘明 根岸
祐和 神田
Sukekazu Kanda
祐和 神田
佐藤 健治
Kenji Sato
健治 佐藤
勇二 阿部
Yuji Abe
勇二 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016060694A priority Critical patent/JP2017174222A/en
Publication of JP2017174222A publication Critical patent/JP2017174222A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To directly present guide information required by a user.SOLUTION: A signage device comprises an operation unit 35 accepting selection operation by a user for a plurality of guide objects, an imaging unit IM detecting action of the user as action information, a wireless LAN interface 38, a wireless LAN antenna 39, a content management memory 20 storing the accepted guide objects and the detected action information in association with each other, projection systems 21-25 for outputting guide information related to the accepted guide objects on the basis of the stored contents, and a CPU 32 for updating the contents fo the guide information output by the projection systems 21-25 on the basis of the contents stored in the content management memory 20.SELECTED DRAWING: Figure 2

Description

本発明は、案内出力装置、案内出力方法及びプログラムに関する。   The present invention relates to a guidance output device, a guidance output method, and a program.

従来、来店した入場者の行動を追跡し、その入場者の潜在的な要望や来店目的を抽出し、サービスレベルを向上させるための技術が提案されている。(例えば、特許文献1)   2. Description of the Related Art Conventionally, a technique has been proposed for improving the service level by tracking the behavior of a visitor who has visited the store, extracting the potential request or purpose of the visitor. (For example, Patent Document 1)

特開2010−108166号公報JP 2010-108166 A

上記特許文献に記載された技術は、個人を特定できるICタグを装着した入場者の姿勢と表情等から、入場者の目的や潜在的な要望等を特定するものであり、通過者撮影カメラ、望遠カメラ、広角カメラを含む多種、多数のカメラと、専用のICタグ、及びそのICタグの情報を読取るために店内に複数設置するタグリーダなど、複雑なシステム構成が必要となる。   The technique described in the above-mentioned patent document specifies the purpose and potential demand of the visitor from the posture and facial expression of the visitor wearing an IC tag that can identify an individual. A complicated system configuration is required, such as a wide variety of cameras including a telephoto camera and a wide-angle camera, a dedicated IC tag, and a plurality of tag readers installed in the store to read information of the IC tag.

また、この特許文献における装置は、店舗の利用頻度が異なる各種の入場者に対するサービス等を、店舗側で受信端末を所持したサービス員に指示するものであり、実際のサービスは人間であるサービス員が実行している。そのため、入場者と1:1で対応するような人数の人員を配置しなければならないなど、上記システム構成自体が複雑である点も合わせて、実現するのはきわめて困難と考えられる。   In addition, the device in this patent document instructs a service person possessing a receiving terminal on the store side to provide services for various visitors with different store use frequencies, and the actual service is a human service person Is running. For this reason, the system configuration itself is complicated, such as having to arrange a number of people corresponding to the visitors 1: 1, and it is considered extremely difficult to realize.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、利用者が必要としている案内コンテンツを提示することが可能な案内出力装置、案内出力方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a guidance output device, a guidance output method, and a program capable of presenting guidance content required by a user. There is.

本発明の一態様は、案内対象に対する利用者の反応を受付ける反応受付手段と、上記利用者の行動を行動情報として検出する行動検出手段と、上記反応受付手段で反応された案内対象と上記行動検出手段で検出した行動情報とに基づいて、案内情報を出力する出力手段と、を備えることを特徴とする。   One aspect of the present invention includes a reaction receiving unit that receives a user's response to a guidance target, a behavior detection unit that detects the user's behavior as behavior information, and the guidance target and the behavior that are reacted by the reaction receiving unit. Output means for outputting guidance information based on the behavior information detected by the detection means.

本発明によれば、利用者が必要としている案内コンテンツを提示することが可能となる。   According to the present invention, it is possible to present guidance content that a user needs.

本発明の一実施形態に係るサイネージ装置の外観構成を示す斜視図。The perspective view which shows the external appearance structure of the signage apparatus which concerns on one Embodiment of this invention. 同実施形態に係るサイネージ装置の電子回路の機能構成を示すブロック図。The block diagram which shows the function structure of the electronic circuit of the signage apparatus which concerns on the same embodiment. 同実施形態に係るサイネージ装置で実行される処理内容を示すフローチャート。The flowchart which shows the processing content performed with the signage apparatus which concerns on the same embodiment. 同実施形態に係る追跡対象の人物が店舗に入ってからサイネージ装置に到達するまでに至る経路を当該人物の動線で例示する図。The figure which illustrates the path | route from the person of the tracking object which concerns on the embodiment to a signage apparatus after entering a shop with the flow line of the said person. 同実施形態に係る追跡対象の人物がサイネージ装置から選択した商品に到達するまでに至る経路を当該人物の動線で例示する図。The figure which illustrates the path | route until the person of the tracking object concerning the embodiment reaches | attains the goods selected from the signage apparatus with the flow line of the said person. 同実施形態に係るサイネージ装置で投影する案内コンテンツの画像を例示する図。The figure which illustrates the image of the guidance content projected with the signage apparatus which concerns on the embodiment.

以下、本発明を店舗内で商品の宣伝を行なうサイネージ装置に適用した場合の一実施形態について、図面を参照して詳細に説明する。   Hereinafter, an embodiment in which the present invention is applied to a signage device that advertises a product in a store will be described in detail with reference to the drawings.

図1は、上記サイネージ装置10の外観構成を示す斜視図である。サイネージ装置10は、プロジェクタ技術を用いた電子マネキンであり、装置筐体11の上面前端側に、交換可能な矩形状のサイネージボードSBが立設される。   FIG. 1 is a perspective view showing an external configuration of the signage device 10. The signage device 10 is an electronic mannequin using projector technology, and a replaceable rectangular signage board SB is erected on the upper front end side of the device housing 11.

このサイネージボードSBは、装置筐体11の上面に設けられた、図示しないリアプロジェクション方式の投影レンズから出射された光像が背面側から投影されることで画像を表示する。   The signage board SB displays an image by projecting a light image emitted from a rear projection projection lens (not shown) provided on the upper surface of the apparatus housing 11 from the back side.

このサイネージボードSBの下端部中央寄りには複数、ここでは4個の操作ボタンB1〜B4を合わせて投影しており、当該ボタン中のいずれかを閲覧者がタッチ操作した場合、ボード取付け基部に配列された、それぞれが指向性を有するライン状の赤外線センサアレイ12により当該操作位置が検知可能となっている。   Near the center of the lower end of the signage board SB, a plurality of, in this case, four operation buttons B1 to B4 are projected together, and when the viewer touches any of these buttons, the board mounting base The operation positions can be detected by the arrayed linear infrared sensor arrays 12 each having directivity.

さらに装置筐体11の前面には、このサイネージ装置10の前面側を撮影するための広角光学系の撮像部IMを備える。   Furthermore, an imaging unit IM of a wide-angle optical system for photographing the front side of the signage device 10 is provided on the front surface of the device housing 11.

次に図2により上記サイネージ装置10の電子回路の機能構成を説明する。コンテンツ管理メモリ20は、上記サイネージボードSBで投影する複数の商品のコンテンツデータに加え、このサイネージ装置10を設置した店舗内の各種商品の配置構成を示すデータやこのサイネージ装置10の位置から選択された商品の陳列位置に至るまでの経路を画像化した案内コンテンツ、後述する商品毎の来店客の興味度を示すデータなどの管理データを合わせて記憶する。   Next, the functional configuration of the electronic circuit of the signage apparatus 10 will be described with reference to FIG. The content management memory 20 is selected from data indicating the arrangement configuration of various products in the store where the signage device 10 is installed and the position of the signage device 10 in addition to the content data of a plurality of products projected on the signage board SB. Management data such as guidance content obtained by imaging the route to the display position of the product and data indicating the degree of interest of the visitor for each product to be described later are also stored.

このコンテンツ管理メモリ20が記憶するコンテンツデータ等はいずれも、動画像データと音データから構成される。コンテンツデータ中の動画像データは、後述するCPU32により読出され、システムバスBSを介して投影画像駆動部21に送られる。   The content data stored in the content management memory 20 is composed of moving image data and sound data. The moving image data in the content data is read by a CPU 32 described later and sent to the projection image driving unit 21 via the system bus BS.

上記投影画像駆動部21は、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、表示素子であるマイクロミラー素子22を表示駆動する。   The projection image drive unit 21 multiplies a frame rate according to a predetermined format, for example, 120 [frames / second], the number of color component divisions, and the number of display gradations, according to the transmitted image data. The micromirror element 22 as a display element is driven to display by faster time-division driving.

このマイクロミラー素子22は、アレイ状に配列された複数個、例えばWXGA(横1280画素×縦800画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。   The micromirror element 22 performs display operation by individually turning on / off each inclination angle of a plurality of micromirrors arranged in an array, for example, WXGA (horizontal 1280 pixels × vertical 800 pixels) at high speed. Thus, an optical image is formed by the reflected light.

一方で、光源部23から時分割でR,G,Bの原色光が循環的に出射される。光源部23は、半導体発光素子であるLEDを有し、R,G,Bの原色光を時分割で繰返し出射する。   On the other hand, primary color lights of R, G, and B are emitted from the light source unit 23 in a time-sharing manner. The light source unit 23 includes an LED which is a semiconductor light emitting element, and repeatedly emits R, G, and B primary color lights in a time-sharing manner.

光源部23が有するLEDは、広義でのLEDとして、LD(半導体レーザ)や有機EL素子を含むものとしても良い。この光源部23からの原色光が、ミラー24で反射して上記マイクロミラー素子22に照射される。   The LED included in the light source unit 23 may include an LD (semiconductor laser) or an organic EL element as an LED in a broad sense. The primary color light from the light source unit 23 is reflected by the mirror 24 and applied to the micromirror element 22.

そして、マイクロミラー素子22での反射光で光像が形成され、形成された光像が投影レンズ部25を介して上記サイネージボードSBに背面側から投射される。   Then, an optical image is formed by the reflected light from the micromirror element 22, and the formed optical image is projected from the back side onto the signage board SB via the projection lens unit 25.

上記撮像部IMは、サイネージ装置10の正面方向を向いた広角系の撮影レンズ部27、及びこの撮影レンズ部27の焦点位置に配設された固体撮像素子であるCMOSイメージセンサ28を含む。   The imaging unit IM includes a wide-angle imaging lens unit 27 facing the front direction of the signage device 10 and a CMOS image sensor 28 that is a solid-state imaging device disposed at the focal position of the imaging lens unit 27.

CMOSイメージセンサ28で得られる画像信号は、A/D変換器29でデジタル化された後、撮影画像処理部30に送られる。   An image signal obtained by the CMOS image sensor 28 is digitized by the A / D converter 29 and then sent to the captured image processing unit 30.

この撮影画像処理部30は、上記CMOSイメージセンサ28を走査駆動して撮影動作を実行させ、撮影により得た画像データをデータファイル化して、後述するCPU32に送出する。   The captured image processing unit 30 scans and drives the CMOS image sensor 28 to execute an image capturing operation. The captured image data is converted into a data file and sent to a CPU 32 described later.

また撮影画像処理部30は、この撮像部IMで得られた画像信号に対する顔認識処理を実行して、画像信号中から人物の顔認識を行ない、顔認識処理によって得られた特徴データを、画像中の位置を示す情報、撮影レンズ部27から当該顔位置までの距離情報(撮影レンズ部27中のフォーカスレンズ位置から類推)と取り纏めた上でCPU32へ送出する。   The captured image processing unit 30 executes face recognition processing on the image signal obtained by the imaging unit IM, performs face recognition of a person from the image signal, and uses the feature data obtained by the face recognition processing as an image. The information indicating the internal position and the distance information from the photographing lens unit 27 to the face position (analogue from the focus lens position in the photographing lens unit 27) are collected and sent to the CPU 32.

上記各回路の動作すべてをCPU32が制御する。このCPU32は、メインメモリ33及びプログラムメモリ34と直接接続される。メインメモリ33は、例えばSRAMで構成され、CPU32のワークメモリとして機能する。プログラムメモリ34は、電気的書換可能な不揮発性メモリ、例えばフラッシュROMで構成され、CPU32が実行する動作プログラムや各種定型データ等を記憶する。   The CPU 32 controls all the operations of the above circuits. The CPU 32 is directly connected to the main memory 33 and the program memory 34. The main memory 33 is composed of, for example, an SRAM and functions as a work memory for the CPU 32. The program memory 34 is composed of an electrically rewritable nonvolatile memory such as a flash ROM, and stores an operation program executed by the CPU 32, various fixed data, and the like.

CPU32は、上記プログラムメモリ34に記憶されている動作プログラムや定型データ等を読出し、メインメモリ33に展開して記憶させた上で当該プログラムを実行することにより、このサイネージ装置10を統括して制御する。   The CPU 32 controls the signage device 10 in an integrated manner by reading out the operation program, fixed data, and the like stored in the program memory 34, developing and storing them in the main memory 33, and executing the program. To do.

上記CPU32は、操作部35からの操作信号に応じて各種投影動作を実行する。この操作部35は、サイネージ装置10の本体に備える、電源キーを含むいくつかの操作キーのキー操作信号、または上記サイネージボードSBの一部に仮想的に投影する上記操作ボタンB1〜B4への操作を検出する、上記した赤外線センサアレイ12からの検出信号を受付け、受付けた操作に応じた信号を上記CPU32へ送出する。   The CPU 32 executes various projection operations in accordance with operation signals from the operation unit 35. This operation unit 35 is provided on the main body of the signage device 10 to key operation signals of several operation keys including a power key, or to the operation buttons B1 to B4 that are virtually projected onto a part of the signage board SB. A detection signal from the infrared sensor array 12 that detects the operation is received, and a signal corresponding to the received operation is sent to the CPU 32.

上記CPU32はさらに、上記システムバスBSを介して音処理部36、無線LANインタフェイス(I/F)38と接続される。
音処理部36は、PCM音源等の音源回路を備え、投影動作時に上記コンテンツ管理メモリ20から読出されるコンテンツデータ中の音データをアナログ化し、スピーカ部37を駆動して放音させ、あるいは必要によりビープ音等を発生させる。
The CPU 32 is further connected to a sound processing unit 36 and a wireless LAN interface (I / F) 38 via the system bus BS.
The sound processing unit 36 includes a sound source circuit such as a PCM sound source, converts the sound data in the content data read from the content management memory 20 during the projection operation into analog, and drives the speaker unit 37 to emit sound, or is necessary Generates a beep sound and the like.

無線LANインタフェイス38は、無線LANアンテナ39を介して、このサイネージ装置10を設置した店舗内の各所に設置されている外部の図示しない複数のカメラから、画像情報と、その画像情報中から人物の顔認識によって得られた、顔画像の特徴データ、画像中の位置を示す情報、撮影レンズから当該顔位置までの距離情報とを取り纏めた情報(行動情報)を取得する。   The wireless LAN interface 38 receives image information from a plurality of external cameras (not shown) installed in various places in the store where the signage device 10 is installed via the wireless LAN antenna 39 and a person from the image information. Information (behavior information) obtained by collecting the feature data of the face image, the information indicating the position in the image, and the distance information from the photographing lens to the face position.

次に上記実施形態の動作について説明する。
サイネージ装置10において、CPU32がプログラムメモリ34から読出し、メインメモリ33に展開した上で実行する動作プログラムや定型データ等は、サイネージ装置10が製品として工場から出荷された当時に予めプログラムメモリ34に記憶されていたもののみならず、サイネージ装置10が店舗等に設置された時点でも、無線LANインタフェイス38、無線LANアンテナ39を介し、サイネージ装置10外部のネットワークを経由して適宜バージョンアップ等の処理により更新記憶された内容を含む。
Next, the operation of the above embodiment will be described.
In the signage apparatus 10, the CPU 32 reads out from the program memory 34, develops it in the main memory 33, and executes the operation program, fixed data, and the like stored in the program memory 34 in advance when the signage apparatus 10 is shipped from the factory as a product. Processes such as version upgrades as needed via the network outside the signage device 10 via the wireless LAN interface 38 and the wireless LAN antenna 39 even when the signage device 10 is installed in a store or the like. The content updated and stored by is included.

図3は、CPU32が、例えばサイネージボードSBに複数の商品の画像を投影してそのいずれかの商品に対する選択操作がなされるのを待機する動作と並行して実行する、サイネージ装置10の外部の複数のカメラから送られてくる複数の画像情報中から顔画像の特徴データを用いて一人を特定した上で、その特定した人物がこのサイネージ装置10を設置した店舗から退出するまでの一連の処理を抽出して示す。   FIG. 3 shows an external view of the signage apparatus 10 that is executed in parallel with an operation in which the CPU 32 waits for an image of a plurality of products to be projected on the signage board SB and a selection operation for any of the products to be performed. A series of processing until a specified person is identified from a plurality of pieces of image information sent from a plurality of cameras using facial image feature data and the identified person leaves the store where the signage device 10 is installed. Is extracted and shown.

すなわち、CPU32は実際にはこの図3に示す処理を、店舗の来店客一人一人に対して平行して実行している。本実施形態では、店舗の来店客一人一人に対して並行して実行しているが、これに限られるものではなく、来店客のうち一部の来店客を対象に処理を行なってもよいし、来店客全員を対象に処理を行なってもよい。   That is, the CPU 32 actually executes the processing shown in FIG. 3 in parallel with each customer at the store. In the present embodiment, it is executed in parallel for each store visitor, but the present invention is not limited to this, and processing may be performed for some of the store visitors. , Processing may be performed for all customers who visit the store.

その当初にCPU32は、店舗の出入り口に最も近いカメラから送られてくる、新たな入場者の顔画像が写り込んでいる画像情報と、その画像情報から人物の顔認識処理によって得られた特徴データを、画像中の位置を示す情報、撮影レンズ部27から当該顔位置までの距離情報と取り纏めた情報と一括して受信した上で、その入場者を追跡対象として決定する(ステップS101)。   Initially, the CPU 32 sends image information of a new visitor's face image sent from the camera closest to the store entrance and exit, and feature data obtained from the image information by human face recognition processing. Are collectively received as information indicating a position in the image, distance information from the photographing lens unit 27 to the face position, and information collected, and the visitor is determined as a tracking target (step S101).

以後CPU32は、同サイネージ装置10内の撮像部IMを含めてすべてのカメラに対して当該入場者を含む画像の撮影を指示した上で(ステップS102)、以後各カメラ及び撮像部IMで得られる画像情報から当該人物の特徴データが追跡対象と一致するものを抽出して、該当するカメラの配置、画像中の写り込んでいる位置、及び追跡対象までの距離情報等により、投影対象の人物がいる店舗内での平面上の位置を特定し、行動履歴として時刻情報と共にコンテンツ管理メモリ20に保存する(ステップS103)。   Thereafter, the CPU 32 instructs all cameras including the imaging unit IM in the signage device 10 to capture images including the attendee (step S102), and thereafter obtained by each camera and the imaging unit IM. The person whose feature data matches the tracking target is extracted from the image information, and the person to be projected is determined based on the arrangement of the corresponding camera, the position in the image, the distance information to the tracking target, etc. The position on the plane in the store is specified and stored in the content management memory 20 together with time information as an action history (step S103).

その後、追跡対象の人物がいる店舗内での平面上の位置と、その最も近い位置に展示されている商品との距離により、当該商品への興味度を測定して更新保存する(ステップS104)。   Thereafter, the degree of interest in the product is measured and updated based on the distance between the position on the plane in the store where the person to be tracked is located and the product displayed at the closest position (step S104). .

この場合、例えば、当該商品への興味度は、累積して保存される内容に対し、所定の距離しきい値から近接している度合いと、近接している時間とを積算した積算値として算出するものとする。   In this case, for example, the degree of interest in the product is calculated as an integrated value obtained by integrating the degree of proximity from a predetermined distance threshold and the time of proximity to the accumulated and stored content. It shall be.

その後にCPU32は、追跡対象の人物が撮像部IMで撮影され、且つサイネージボードSBで投影している複数の商品に対して選択操作がなされたか否かにより、追跡対象の人物によりサイネージ装置10で商品が選択(反応)されたか否かを判断する(ステップS105)。なお、追跡対象の人物が、サイネージ装置10の前で立ち止まり、あるコンテンツに対して興味を持ったことを判定することで、判断を行なってもよい。また、その他、サイネージ装置10で宣伝されている商品に対して興味を持ったことを判定する手段は種々に変形可能である。   Thereafter, the CPU 32 determines whether or not the person to be tracked has been picked up by the person to be tracked by the signage device 10 depending on whether or not a selection operation has been performed on a plurality of products projected on the signage board SB. It is determined whether or not a product has been selected (reacted) (step S105). The determination may be made by determining that the person to be tracked stops in front of the signage device 10 and is interested in a certain content. In addition, the means for determining that the product advertised by the signage device 10 is interested can be variously modified.

ここで追跡対象の人物が撮像部IMで撮影されておらず、サイネージボードSBで投影している複数の商品に対しての選択操作もなく、追跡対象の人物によるサイネージ装置10での商品選択がないと判断すると(ステップS105のNo)、CPU32は再び上記ステップS103からの処理に戻る。   Here, the person to be tracked is not photographed by the imaging unit IM, and there is no selection operation for a plurality of products projected on the signage board SB, and the merchandise selection by the signage device 10 by the person to be tracked is performed. If it is determined that there is not (No in step S105), the CPU 32 returns to the processing from step S103 again.

こうしてステップS103〜S105の処理を繰返し実行し、追跡対象の人物がサイネージ装置10に到達して任意の商品を選択するまで、追跡対象の人物が通過する店舗内の経路に展示されている各種商品への興味度を積算していく。   In this way, the processes in steps S103 to S105 are repeatedly executed, and various products displayed on the route in the store through which the tracking target person passes until the tracking target person reaches the signage device 10 and selects an arbitrary product. Accumulate your interest in.

上記ステップS105において、追跡対象の人物がサイネージ装置10に到達して任意の商品を選択する操作を行なったと判断した場合(ステップS105のYes)、CPU32はその操作に対応して、選択された商品が展示されている店舗内の位置を案内するための案内コンテンツ(案内情報)のデータをコンテンツ管理メモリ20から読出してサイネージボードSB上に投影させる(ステップS106)。   If it is determined in step S105 that the person to be tracked has reached the signage device 10 and has performed an operation for selecting an arbitrary product (Yes in step S105), the CPU 32 selects the selected product corresponding to the operation. Is read out from the content management memory 20 and projected onto the signage board SB (step S106).

図4は、追跡対象の人物が、店舗SPに入ってからサイネージ装置10に到達するまでに至る経路を、当該人物の動線ML1として例示する図である。同図で追跡対象の人物は、特に商品D、商品C、及び商品Bに関心を持っていたことが理解できる。   FIG. 4 is a diagram illustrating a path from the tracking target person entering the store SP to the signage device 10 as the flow line ML1 of the person. In the figure, it can be understood that the person to be tracked was particularly interested in the products D, C, and B.

ここで、上記興味度により各商品への興味度を数値化する場合、上述したように所定の距離のしきい値から当該商品に近接している度合いと、近接している時間とを積算した積算値で示すものとすると、この図4では「商品D>商品C>商品B」の順序で興味度が高いものとなると考えられる。   Here, when the degree of interest in each product is quantified based on the degree of interest, as described above, the degree of proximity to the product and the time of proximity are integrated from a predetermined distance threshold. Assuming that it is indicated by the integrated value, in FIG. 4, it is considered that the degree of interest is high in the order of “product D> product C> product B”.

上記ステップS106で追跡対象の人物に対して選択された商品に対応する案内コンテンツを投影により提示したCPU32は、再び当該人物の興味度を積算する工程に移行する。すなわち、CPU32は、以後各カメラ及び撮像部IMで得られる画像情報から当該人物の特徴データが追跡対象と一致するものを抽出して、該当するカメラの配置、画像中の写り込んでいる位置、及び追跡対象までの距離情報等により、投影対象の人物がいる店舗内での平面上の位置を特定し、行動履歴として時刻情報と共にコンテンツ管理メモリ20に保存する(ステップS107)。   The CPU 32 that presented the guidance content corresponding to the product selected for the person to be tracked in step S106 by projection shifts again to the step of integrating the interest level of the person. That is, the CPU 32 subsequently extracts from the image information obtained by each camera and the imaging unit IM what the person's feature data matches the tracking target, and arranges the corresponding camera, the position in the image, Then, the position on the plane in the store where the person to be projected is located is specified by the distance information to the tracking target, etc., and stored in the content management memory 20 together with time information as an action history (step S107).

その後、追跡対象の人物がいる店舗内での平面上の位置と、その最も近い位置に展示されている商品との距離により、当該商品への興味度を測定して更新保存する(ステップS108)。   Thereafter, the degree of interest in the product is measured and updated based on the distance between the position on the plane in the store where the person to be tracked is located and the product displayed at the nearest position (step S108). .

その後にCPU32は、追跡対象の人物が選択した商品の最寄りのカメラで撮影されるか、または選択した商品の最寄りのカメラで撮影される前に追跡対象の人物の画像が取得できなくなって、当該人物が退店したかにより、当該人物の追跡を終了するタイミングとなったか否かを判断する(ステップS109)。   After that, the CPU 32 captures the image of the person to be tracked before it is captured by the camera closest to the selected product or before being captured by the camera closest to the selected product. Based on whether the person has left the store, it is determined whether or not it is time to end the tracking of the person (step S109).

ここで追跡対象の人物の画像がまだ選択した商品最寄りのカメラで取得されていないが、他のカメラで取得されており、まだ退店はしていないと判断すると(ステップS109のNo)、CPU32は再び上記ステップS107からの処理に戻る。   If it is determined that the image of the person to be tracked has not yet been acquired by the camera closest to the selected product but has been acquired by another camera and has not yet left the store (No in step S109), the CPU 32 Returns to the processing from step S107 again.

こうしてステップS107〜S109の処理を繰返し実行し、追跡対象の人物が選択した商品にまで到達するか、あるいは退店したと判断するまで、追跡対象の人物が通過する店舗内の経路に展示されている各種商品への興味度を積算していく。   In this way, the processes in steps S107 to S109 are repeatedly executed, and the person to be tracked is displayed on the route in the store through which the person to be tracked passes until it reaches the selected product or is determined to have left the store. Accumulate interest in various products.

上記ステップS109において、追跡対象の人物が選択した商品の最寄りのカメラで撮影されるか、または選択した商品の最寄りのカメラで撮影される前に追跡対象の人物の画像が取得できなくなって、当該人物が退店したと判断した時点で(ステップS109のYes)、CPU32はそれまで積算していた一連の興味度の情報を取り纏めてファイル化し、追跡対象となった人物が選択した商品の情報と関連付けて、コンテンツ管理メモリ20に記憶させる(ステップS110)。   In step S109, the person to be tracked is photographed with the camera closest to the selected product, or the image of the person to be tracked cannot be acquired before being photographed with the camera nearest to the selected product. When it is determined that the person has left the store (Yes in Step S109), the CPU 32 collects a series of information on the degree of interest that has been accumulated up to that point and forms a file, and information on the product selected by the person to be tracked The contents are stored in the content management memory 20 (step S110).

図5は、追跡対象の人物が、サイネージ装置10で「商品Z」を選択してから、実際に「商品Z」が展示されている位置までに至る経路を、当該人物の動線ML2として例示する図である。同図で追跡対象の人物は、引き続き商品C及び商品Dに関心を持っていたことが理解できる。   FIG. 5 illustrates, as the flow line ML2 of the person, the route from the person to be tracked selecting “product Z” with the signage device 10 to the position where the “product Z” is actually displayed. It is a figure to do. In the figure, it can be understood that the person to be tracked was still interested in the products C and D.

ここでも興味度を数値化した場合、所定の距離のしきい値から当該商品に近接している度合いと、近接している時間とを積算した積算値で示すものとすると、この図5では「商品D>商品C」の順序で明白に商品Dへの興味度が高いと考えられる。   Here, when the degree of interest is quantified, it is assumed that the degree of proximity to the product and the time of proximity are represented by an integrated value from a predetermined distance threshold value. It is considered that the degree of interest in the product D is clearly high in the order of “product D> product C”.

図3では、CPU32がこのコンテンツ管理メモリ20に記憶させた内容に基づいて、必要により同じくコンテンツ管理メモリ20に記憶する案内コンテンツの内容を更新記憶させた上で(ステップS111)、次の入場者を追跡対象とするべく、上記ステップS101からの処理に戻る。   In FIG. 3, based on the content stored in the content management memory 20 by the CPU 32, the content of the guidance content stored in the content management memory 20 is updated and stored as necessary (step S <b> 111). Is returned to the process from step S101.

上記ステップS111において、CPU32は、ある商品を選択した人物達の多くがその選択した商品に到達する過程で、その他の商品に関してもほぼ同様に共通して興味度が高かったと判断できるような商品が存在していた場合に、その他の商品に関しても合わせて宣伝を行なうべく、案内コンテンツの内容を更新する。   In the above step S111, the CPU 32 finds a product that can be judged to have a high degree of interest in common with other products in the process in which many people who have selected a product reach the selected product. If it exists, the content of the guidance content is updated so that other products are also advertised.

図6は、サイネージ装置10で商品Zを選択した追跡対象の人物に対して、サイネージボードSBで投影する案内コンテンツの画像を例示する図である。ここでは商品Zを選択した人物の多くが、「商品A>商品C>商品E」の順序で他の商品に対しても興味度が高かった場合に、図中に破線で示すルートGL1の経路を案内コンテンツの画像としてサイネージボードSBで投影させる。   FIG. 6 is a diagram illustrating an example of an image of guidance content projected on the signage board SB with respect to a tracking target person who has selected the product Z with the signage device 10. Here, when many people who have selected the product Z are highly interested in other products in the order of “product A> product C> product E”, the route of the route GL1 indicated by a broken line in the figure. Is projected on the signage board SB as an image of guidance content.

また、商品Zを選択した人物の多くが、「商品C>商品B>商品D」の順序で他の商品に対しても興味度が高かった場合に、図中に実線で示すルートGL2の経路を案内コンテンツの画像としてサイネージボードSBで投影させる。   In addition, when many people who have selected the product Z are highly interested in other products in the order of “product C> product B> product D”, the route GL2 indicated by a solid line in the figure. Is projected on the signage board SB as an image of guidance content.

さらに、商品Zを選択した人物の多くが、「商品E>商品D>商品A」の順序で他の商品に対しても興味度が高かった場合に、図中に実線で示すルートGL3の経路を案内コンテンツの画像としてサイネージボードSBで投影させる。   Furthermore, when many of the persons who have selected the product Z are highly interested in other products in the order of “product E> product D> product A”, the route GL3 indicated by a solid line in FIG. Is projected on the signage board SB as an image of guidance content.

このように、対象となった人物本人やその他の人物の興味度から、趣味や嗜好の傾向を抽出して案内コンテンツの内容に反映させることができる。   In this way, it is possible to extract a hobby or preference tendency from the interest level of the subject person or another person and reflect it in the content of the guidance content.

以上詳述した如く本実施形態によれば、利用者が必要としている案内コンテンツを提示することが可能となる。   As described above in detail, according to the present embodiment, it is possible to present the guidance content required by the user.

また上記実施形態では、サイネージ装置10で選択された商品に対する案内コンテンツを提示するものとしたが、この際に異なる他の案内対象を合わせて上記の各ルート付近等のエリアに提示しても良く、意外性を持って他の案内対象を印象付けることにより、高い宣伝効果を得ることができる。   Moreover, in the said embodiment, although the guidance content with respect to the goods selected with the signage apparatus 10 shall be shown, you may show to other areas, such as each said route | root, together with another different guidance object in this case By impressing other guidance objects with unexpectedness, a high advertising effect can be obtained.

さらに上記実施形態では、利用者の動線を行動情報として取得するものとしたので、利用者の無意識で自然な行動を行動情報として取得し易い。   Furthermore, in the said embodiment, since the user's flow line was acquired as action information, it is easy to acquire a user's unconscious natural action as action information.

また上記案内コンテンツとして提示するのは、選択された案内対象の商品が展示されている位置に至るまでの経路であるため、選択された案内対象により適していると思われる経路を利用者に提示できる。   In addition, since the route to the position where the selected target product is displayed is presented as the guidance content, a route that is more suitable for the selected guidance target is presented to the user. it can.

さらに上記図6でも示したように、特に複数の経路が設定可能である場合の誘導の仕方など、その時点での設備内の混雑度やキャンペーン中の他の商品の有無、利用者の興味度など、より多くの選択肢の中から最適と思われる経路を利用者に提示できる。   Further, as shown in FIG. 6 above, the degree of congestion in the facility at that time, the presence of other products in the campaign, the degree of interest of the user, such as a guidance method particularly when a plurality of routes can be set It is possible to present to the user a route that seems to be optimal from a larger number of options.

また上記実施形態では、利用者が選択した案内対象以外の案内対象を合わせて提示する場合に、その内容を多くの利用者の傾向に合わせて更新設定することで、より多くの利用者に説得力のある案内対象を提示し続けることができる。   Also, in the above embodiment, when a guidance target other than the guidance target selected by the user is presented together, the content is updated according to the tendency of many users, so that more users can be persuaded. It is possible to continue presenting powerful guidance objects.

さらに上記実施形態では、単に利用者の動線のみならず、展示されていた商品への興味度を測定するものとしたので、利用者の無意識な行動からより多くの需要を抽出して、提示する案内コンテンツに活用できる。   Furthermore, in the above embodiment, since the degree of interest in not only the flow of the user but also the exhibited product is measured, more demand is extracted from the unconscious behavior of the user and presented. It can be used for guidance content.

その場合、具体的な興味度を、異なる案内対象毎に、一定距離範囲内に利用者が位置していた時間に基づいて測定するものとしたので、複雑な装置等を用いることなく、複数のカメラ装置を連動して運用することで、容易に構築できる。   In that case, the specific degree of interest is measured for each different guidance object based on the time that the user has been located within a certain distance range. It can be easily constructed by operating the camera device in conjunction.

また上記実施形態では、コンテンツ管理メモリ20に記憶する案内コンテンツの内容を利用者の興味度の傾向に応じて適宜更新変更することで、より多くの利用者の興味度を反映した案内対象を提示できる。   In the above-described embodiment, the content of the guidance content stored in the content management memory 20 is appropriately updated and changed according to the tendency of the user's interest level, thereby presenting a guidance target that reflects the interest level of more users. it can.

また上記実施形態では、サイネージ装置10に到達して任意の商品を選択する操作を行なうことを利用者の反応としたがこれに限らず、サイネージ装置10が出力しているコンテンツを注視することを視線抽出処理等により取得して利用者の反応としてもよい。
また、上記実施形態では、入場者を決定し決定された入場者の行動履歴を保存していたがこれに限らず、反応があった利用者を認識し、その後認識した利用者の反応前後の行動履歴を保存してもよい。
In the above embodiment, the user's reaction is to perform an operation of reaching the signage device 10 and selecting an arbitrary product. However, the present invention is not limited to this, and the content output by the signage device 10 is watched. It is good also as a user's reaction acquired by a look extraction process etc.
In the above embodiment, the behavior history of the determined visitor is determined and stored, but the present invention is not limited to this. Recognizing a user who has reacted, and before and after the recognized user's reaction You may save action history.

なお上記実施形態では、案内コンテンツを提示する装置として、DLP(登録商標)(Digital Light Processing)方式のプロジェクタ方式を用いたサイネージ装置10を用いる場合について説明したが、本発明はコンテンツの提示の仕方や装置等自体を限定するものではない。   In the above embodiment, a case has been described in which the signage device 10 using the projector system of the DLP (registered trademark) (Digital Light Processing) method is used as the device for presenting the guidance content. It does not limit the device itself or the like.

なお上記実施形態では、無線LANアンテナ39を介して、複数のカメラからサイネージ装置10に画像情報と、画像情報中から人物の顔認識によって得られた、顔画像の特徴データ、画像中の位置を示す情報、撮影レンズから当該顔位置までの距離情報とを取り纏めた情報を取得するものとしたが、これに限られず、複数のカメラからサイネージ装置10が画像情報のみを取得し、サイネージ装置10内で画像情報を解析することで、上記各情報を取得してもよい。   In the above embodiment, the image information from the plurality of cameras to the signage device 10 via the wireless LAN antenna 39, the feature data of the face image obtained by the face recognition of the person from the image information, and the position in the image are displayed. The information indicating the information shown and the distance information from the photographing lens to the face position is acquired. However, the present invention is not limited to this, and the signage device 10 acquires only image information from a plurality of cameras. The information may be acquired by analyzing the image information.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
案内対象に対する利用者の反応を受付ける反応受付手段と、
上記利用者の行動を行動情報として検出する行動検出手段と、
上記反応受付手段で反応された案内対象と上記行動検出手段で検出した行動情報とに基づいて、案内情報を出力する出力手段と、
を備えることを特徴とする案内出力装置。
[請求項2]
案内対象に対する利用者の反応は、複数の上記案内対象に対する利用者の選択操作であることを特徴とする請求項1記載の案内出力装置。
[請求項3]
上記反応受付手段で受付けた案内対象と上記行動検出手段で検出した行動情報とを関連付けて記憶する記憶手段をさらに備えることを特徴とする請求項1または2記載の案内出力装置。
[請求項4]
上記出力手段が出力する案内情報は、上記反応受付手段で反応された案内対象と異なる案内対象に関連する案内情報を含むことを特徴とする請求項1乃至3いずれか記載の案内出力装置。
[請求項5]
上記行動情報は、上記利用者の動線を示す情報であることを特徴とする請求項1乃至4いずれか記載の案内出力装置。
[請求項6]
上記出力手段が出力する案内情報は、上記反応受付手段で反応された案内対象に至るまでの経路を示す情報であることを特徴とする請求項1乃至5いずれか記載の案内出力装置。
[請求項7]
上記出力手段は、上記行動検出手段で検出した行動情報に基づいて、上記案内対象に至るまでの経路を示す案内情報を変更することを特徴とする請求項6記載の案内出力装置。
[請求項8]
上記出力手段は、上記記憶手段に記憶される内容に基づいて、上記出力手段で出力する案内情報に含まれる、上記反応受付手段で反応された案内対象と異なる案内対象を出力することを特徴とする請求項3記載の案内出力装置。
[請求項9]
上記記憶手段で記憶した行動情報に基づいて上記反応受付手段で反応された案内対象と異なる案内対象毎に興味度を測定する興味度測定手段をさらに備えることを特徴とする請求項3または8記載の案内出力装置。
[請求項10]
上記興味度測定手段は、上記行動情報から上記異なる案内対象毎の一定距離範囲内に利用者が位置する時間に基づいて上記興味度を測定することを特徴とする請求項9記載の案内出力装置。
[請求項11]
上記出力手段は、上記興味度に基づいて、上記出力手段で出力する案内情報に含まれる、上記反応受付手段で反応された案内対象と異なる案内対象を出力することを特徴とする請求項9または10記載の案内出力装置。
[請求項12]
案内対象に対する利用者の反応を受付ける反応受付工程と、
上記利用者の行動を行動情報として検出する行動検出工程と、
上記反応受付工程で反応された案内対象と上記行動検出工程で検出した行動情報とに基づいて、案内情報を出力する出力工程と、
を有することを特徴とする案内出力方法。
[請求項13]
コンピュータが実行するプログラムであって、上記コンピュータを、
案内対象に対する利用者の反応を受付ける反応受付手段、
上記利用者の行動を行動情報として検出する行動検出手段、及び
上記反応受付手段で反応された案内対象と上記行動検出手段で検出した行動情報とに基づいて、案内情報を出力する出力手段、
として機能させることを特徴とするプログラム。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[Claim 1]
A reaction accepting means for accepting a user's reaction to the guidance target;
Behavior detecting means for detecting the behavior of the user as behavior information;
An output means for outputting guidance information based on the guidance object reacted by the reaction accepting means and the behavior information detected by the behavior detecting means;
A guidance output device comprising:
[Claim 2]
The guidance output device according to claim 1, wherein the user's reaction to the guidance target is a user's selection operation for the plurality of guidance targets.
[Claim 3]
The guidance output device according to claim 1, further comprising a storage unit that stores the guidance target received by the reaction reception unit and the behavior information detected by the behavior detection unit in association with each other.
[Claim 4]
4. The guidance output device according to claim 1, wherein the guidance information output by the output means includes guidance information related to a guidance object different from the guidance object reacted by the reaction reception means.
[Claim 5]
The guidance output device according to any one of claims 1 to 4, wherein the behavior information is information indicating a flow line of the user.
[Claim 6]
The guidance output device according to any one of claims 1 to 5, wherein the guidance information output by the output means is information indicating a route to the guidance target reacted by the reaction reception means.
[Claim 7]
The guidance output device according to claim 6, wherein the output means changes guidance information indicating a route to the guidance target based on behavior information detected by the behavior detection means.
[Claim 8]
The output means outputs, based on the content stored in the storage means, a guidance object that is included in the guidance information output by the output means and that is different from the guidance object reacted by the reaction reception means. The guidance output device according to claim 3.
[Claim 9]
9. The degree of interest measuring means for measuring the degree of interest for each guidance object different from the guidance object reacted by the reaction accepting means based on the behavior information stored in the storage means. Guidance output device.
[Claim 10]
10. The guidance output device according to claim 9, wherein the interest level measuring unit measures the interest level based on time during which a user is located within a certain distance range for each different guidance target from the behavior information. .
[Claim 11]
The output means outputs a guide object different from the guide object reacted by the reaction accepting means included in the guide information output by the output means based on the degree of interest. 10. The guidance output device according to 10.
[Claim 12]
A reaction acceptance process for accepting a user's reaction to the guidance target;
A behavior detection step of detecting the behavior of the user as behavior information;
An output step for outputting guidance information based on the guidance object reacted in the reaction acceptance step and the behavior information detected in the behavior detection step;
A guide output method characterized by comprising:
[Claim 13]
A program executed by a computer, wherein the computer is
A reaction accepting means for accepting a user's reaction to the guidance object;
Behavior detecting means for detecting the user's behavior as behavior information, and
An output means for outputting guidance information based on the guidance object reacted by the reaction acceptance means and the behavior information detected by the behavior detection means;
A program characterized by functioning as

10…サイネージ装置、
11…装置筐体、
12…赤外線センサアレイ、
20…コンテンツ管理メモリ、
21…投影画像駆動部、
22…マイクロミラー素子、
23…光源部、
24…ミラー、
25…投影レンズ部、
27…撮影レンズ部、
28…CMOSイメージセンサ、
29…A/D変換器、
30…撮影画像処理部、
32…CPU、
33…メインメモリ、
34…プログラムメモリ、
35…操作部、
36…音処理部、
37…スピーカ部、
38…無線LANインタフェイス(I/F)、
39…無線LANアンテナ、
B1〜B4…操作ボタン、
GL1〜GL3…(案内)ルート、
IM…撮像部、
ML1,ML2…動線、
SB…サイネージボード
SP…店舗。
10 ... signage device,
11 ... device housing,
12 ... Infrared sensor array,
20 ... Content management memory,
21 ... Projected image drive unit,
22 ... Micromirror element,
23 ... light source part,
24 ... Mirror,
25 ... projection lens part,
27. Photography lens part,
28 ... CMOS image sensor,
29 ... A / D converter,
30. Photographed image processing unit,
32 ... CPU,
33 ... Main memory,
34 ... Program memory,
35 ... operation unit,
36 ... sound processing unit,
37 ... Speaker unit,
38 ... Wireless LAN interface (I / F),
39: Wireless LAN antenna,
B1 to B4 ... operation buttons,
GL1 to GL3 ... (guidance) route,
IM: Imaging unit,
ML1, ML2 ... flow line,
SB ... Signage board SP ... Store.

Claims (13)

案内対象に対する利用者の反応を受付ける反応受付手段と、
上記利用者の行動を行動情報として検出する行動検出手段と、
上記反応受付手段で反応された案内対象と上記行動検出手段で検出した行動情報とに基づいて、案内情報を出力する出力手段と、
を備えることを特徴とする案内出力装置。
A reaction accepting means for accepting a user's reaction to the guidance target;
Behavior detecting means for detecting the behavior of the user as behavior information;
An output means for outputting guidance information based on the guidance object reacted by the reaction accepting means and the behavior information detected by the behavior detecting means;
A guidance output device comprising:
案内対象に対する利用者の反応は、複数の上記案内対象に対する利用者の選択操作であることを特徴とする請求項1記載の案内出力装置。   The guidance output device according to claim 1, wherein the user's reaction to the guidance target is a user's selection operation for the plurality of guidance targets. 上記反応受付手段で受付けた案内対象と上記行動検出手段で検出した行動情報とを関連付けて記憶する記憶手段をさらに備えることを特徴とする請求項1または2記載の案内出力装置。   The guidance output device according to claim 1, further comprising a storage unit that stores the guidance target received by the reaction reception unit and the behavior information detected by the behavior detection unit in association with each other. 上記出力手段が出力する案内情報は、上記反応受付手段で反応された案内対象と異なる案内対象に関連する案内情報を含むことを特徴とする請求項1乃至3いずれか記載の案内出力装置。   4. The guidance output device according to claim 1, wherein the guidance information output by the output means includes guidance information related to a guidance object different from the guidance object reacted by the reaction reception means. 上記行動情報は、上記利用者の動線を示す情報であることを特徴とする請求項1乃至4いずれか記載の案内出力装置。   The guidance output device according to any one of claims 1 to 4, wherein the behavior information is information indicating a flow line of the user. 上記出力手段が出力する案内情報は、上記反応受付手段で反応された案内対象に至るまでの経路を示す情報であることを特徴とする請求項1乃至5いずれか記載の案内出力装置。   The guidance output device according to any one of claims 1 to 5, wherein the guidance information output by the output means is information indicating a route to the guidance target reacted by the reaction reception means. 上記出力手段は、上記行動検出手段で検出した行動情報に基づいて、上記案内対象に至るまでの経路を示す案内情報を変更することを特徴とする請求項6記載の案内出力装置。   The guidance output device according to claim 6, wherein the output means changes guidance information indicating a route to the guidance target based on behavior information detected by the behavior detection means. 上記出力手段は、上記記憶手段に記憶される内容に基づいて、上記出力手段で出力する案内情報に含まれる、上記反応受付手段で反応された案内対象と異なる案内対象を出力することを特徴とする請求項3記載の案内出力装置。   The output means outputs, based on the content stored in the storage means, a guidance object that is included in the guidance information output by the output means and that is different from the guidance object reacted by the reaction reception means. The guidance output device according to claim 3. 上記記憶手段で記憶した行動情報に基づいて上記反応受付手段で反応された案内対象と異なる案内対象毎に興味度を測定する興味度測定手段をさらに備えることを特徴とする請求項3または8記載の案内出力装置。   9. The degree of interest measuring means for measuring the degree of interest for each guidance object different from the guidance object reacted by the reaction accepting means based on the behavior information stored in the storage means. Guidance output device. 上記興味度測定手段は、上記行動情報から上記異なる案内対象毎の一定距離範囲内に利用者が位置する時間に基づいて上記興味度を測定することを特徴とする請求項9記載の案内出力装置。   10. The guidance output device according to claim 9, wherein the interest level measuring unit measures the interest level based on time during which a user is located within a certain distance range for each different guidance target from the behavior information. . 上記出力手段は、上記興味度に基づいて、上記出力手段で出力する案内情報に含まれる、上記反応受付手段で反応された案内対象と異なる案内対象を出力することを特徴とする請求項9または10記載の案内出力装置。   The output means outputs a guide object different from the guide object reacted by the reaction accepting means included in the guide information output by the output means based on the degree of interest. 10. The guidance output device according to 10. 案内対象に対する利用者の反応を受付ける反応受付工程と、
上記利用者の行動を行動情報として検出する行動検出工程と、
上記反応受付工程で反応された案内対象と上記行動検出工程で検出した行動情報とに基づいて、案内情報を出力する出力工程と、
を有することを特徴とする案内出力方法。
A reaction acceptance process for accepting a user's reaction to the guidance target;
A behavior detection step of detecting the behavior of the user as behavior information;
An output step for outputting guidance information based on the guidance object reacted in the reaction acceptance step and the behavior information detected in the behavior detection step;
A guide output method characterized by comprising:
コンピュータが実行するプログラムであって、上記コンピュータを、
案内対象に対する利用者の反応を受付ける反応受付手段、
上記利用者の行動を行動情報として検出する行動検出手段、及び
上記反応受付手段で反応された案内対象と上記行動検出手段で検出した行動情報とに基づいて、案内情報を出力する出力手段、
として機能させることを特徴とするプログラム。
A program executed by a computer, wherein the computer is
A reaction accepting means for accepting a user's reaction to the guidance object;
Action detecting means for detecting the user's action as action information; and output means for outputting guidance information based on the guidance object reacted by the reaction accepting means and the action information detected by the action detecting means;
A program characterized by functioning as
JP2016060694A 2016-03-24 2016-03-24 Guide output device, guide output method, and program Pending JP2017174222A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060694A JP2017174222A (en) 2016-03-24 2016-03-24 Guide output device, guide output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060694A JP2017174222A (en) 2016-03-24 2016-03-24 Guide output device, guide output method, and program

Publications (1)

Publication Number Publication Date
JP2017174222A true JP2017174222A (en) 2017-09-28

Family

ID=59973306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060694A Pending JP2017174222A (en) 2016-03-24 2016-03-24 Guide output device, guide output method, and program

Country Status (1)

Country Link
JP (1) JP2017174222A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021036376A (en) * 2019-08-30 2021-03-04 東芝Itコントロールシステム株式会社 Guiding device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178276A (en) * 2002-11-27 2004-06-24 Toshiba Lighting & Technology Corp Sales floor plan supporting system
JP2004326190A (en) * 2003-04-21 2004-11-18 Fuji Photo Film Co Ltd Guide system
JP2010020718A (en) * 2008-07-14 2010-01-28 Oki Electric Ind Co Ltd Information processing device and information processing method
JP2012185581A (en) * 2011-03-03 2012-09-27 Toshiba Tec Corp Shopping assist system, shopping assist terminal device and control program
JP2014232362A (en) * 2013-05-28 2014-12-11 Kddi株式会社 System for analyzing and predicting moving object action
US20150219466A1 (en) * 2014-01-31 2015-08-06 Aruba Networks Inc. Selection of a route based on prior user behavior or commercial interests

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178276A (en) * 2002-11-27 2004-06-24 Toshiba Lighting & Technology Corp Sales floor plan supporting system
JP2004326190A (en) * 2003-04-21 2004-11-18 Fuji Photo Film Co Ltd Guide system
JP2010020718A (en) * 2008-07-14 2010-01-28 Oki Electric Ind Co Ltd Information processing device and information processing method
JP2012185581A (en) * 2011-03-03 2012-09-27 Toshiba Tec Corp Shopping assist system, shopping assist terminal device and control program
JP2014232362A (en) * 2013-05-28 2014-12-11 Kddi株式会社 System for analyzing and predicting moving object action
US20150219466A1 (en) * 2014-01-31 2015-08-06 Aruba Networks Inc. Selection of a route based on prior user behavior or commercial interests

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021036376A (en) * 2019-08-30 2021-03-04 東芝Itコントロールシステム株式会社 Guiding device

Similar Documents

Publication Publication Date Title
US9760765B2 (en) Digital signage apparatus which performs face recognition and determines whether a behavior of a person satisfies a predetermined condition, and computer readable medium
EP3220180A1 (en) Camera applications in a handheld device
US20150324635A1 (en) Methods, systems, and apparatuses for visitor monitoring
JP2016038877A (en) Display system and display method
JP6730236B2 (en) Person identification system and person identification method
CN111178294A (en) State recognition method, device, equipment and storage medium
JP6405826B2 (en) Information processing apparatus, information processing method, and program
US9674495B2 (en) Projection device, projection control method, and computer-readable medium
EP2859716B1 (en) Photographic stage
JP2017123505A (en) Content playback device, content playback method, and program
JP2015230478A (en) Content presentation system, content presentation method, and program
JP2017174222A (en) Guide output device, guide output method, and program
US20160070959A1 (en) Display System With Imaging Unit, Display Apparatus And Display Method
KR20160091119A (en) Apparatus and Method for Estimating Human Characteristics based on Imaga
JP2017041065A (en) Information processor, information processing method and program
JP2016057607A (en) Display system, display device, and display method
JP2016118816A (en) Display system, display method, and program
JP2016061955A (en) Content output device, content output method and program
JP6326866B2 (en) Display device, display method, and program
JP2008085550A (en) Imaging apparatus, imaging control method and imaging control program
JP2006270137A (en) Imaging apparatus
US20160307046A1 (en) Content Output Apparatus, Content Output System, Content Output Method, And Computer Readable Storage Medium
KR101801062B1 (en) Pedestrian-based screen projection system and method for controlling the screen projection system thereof
JP6446779B2 (en) Content output system, content output apparatus, content output method, and program
US10163021B2 (en) Information processor, content determining method, and computer-readable storing medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027