JP2015106907A - Image output system, image output method, and program - Google Patents
Image output system, image output method, and program Download PDFInfo
- Publication number
- JP2015106907A JP2015106907A JP2013249848A JP2013249848A JP2015106907A JP 2015106907 A JP2015106907 A JP 2015106907A JP 2013249848 A JP2013249848 A JP 2013249848A JP 2013249848 A JP2013249848 A JP 2013249848A JP 2015106907 A JP2015106907 A JP 2015106907A
- Authority
- JP
- Japan
- Prior art keywords
- content
- image output
- person
- image
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、画像出力システム、画像出力方法及びプログラムに関する。 The present invention relates to an image output system, an image output method, and a program.
人の動作を検知して、その動作に対応した画像を出力するシステムが知られている。例えば、特許文献1には、カメラ、深度センサ、マイク及びプロセッサを内蔵したセンサを用いて、人物の動作を検出し、その動作に応じた内容を画面に出力するシステムを開示している。非特許文献1は、このようなセンサを応用してアプリケーションを開発するためのフレームワークに関する情報を開示している。アプリケーションの開発者は、非特許文献1に記載された情報を用いて、人の動作に応じて、コンテンツを変化させるアプリケーションを作成することができる。
There is known a system that detects a human motion and outputs an image corresponding to the motion. For example,
このようなシステムを店舗やショッピングモールに設置し、陳列の効果や買い物客の動線を分析するソリューションが開発されている(非特許文献2)。 A solution that installs such a system in a store or a shopping mall and analyzes the effect of display and the flow of a shopper has been developed (Non-Patent Document 2).
上述したシステムを用いることにより、買い物客の動作を検知して、店舗における売り上げ増を図りたいという要求がある。しかしながら、従来の技術では、店舗内にいる人の動作を検出することはできるが、店舗の外を通行する人の動作を検出し、店舗に効果的に誘導することで、売り上げ増を図ることができなかった。 By using the system described above, there is a demand for detecting an operation of a shopper and increasing sales in a store. However, with the conventional technology, it is possible to detect the movement of a person inside the store, but to increase the sales by detecting the movement of a person passing outside the store and effectively guiding it to the store. I could not.
本発明は、このような問題に鑑みてなされたものであり、人を効果的に店舗に誘導できるようにすることを目的とする。 This invention is made | formed in view of such a problem, and it aims at enabling it to guide a person to a store effectively.
上述した課題を解決し目的を達成するため、本発明の一実施形態における画像出力システムは、
所定の領域内の人の動作を検出する検出部と、
前記動作が予め定められた動作条件を満たすか判定する判定部と、
前記判定部による判定の結果に応じて、第一の画像出力装置に出力させる第一のコンテンツ及び第二の画像出力装置に出力させる第二のコンテンツを夫々選択する選択部と、
選択された前記第一及び第二のコンテンツを前記第一及び第二の画像出力装置に夫々出力させる制御部と、
を有し、
前記選択部は、前記動作が前記動作条件を満たさない場合に、前記動作条件を満たす動作を示すコンテンツを前記第一のコンテンツとして選択する。
In order to solve the above-described problems and achieve the object, an image output system according to an embodiment of the present invention includes:
A detection unit for detecting the movement of a person in a predetermined area;
A determination unit for determining whether the operation satisfies a predetermined operation condition;
A selection unit that selects the first content to be output to the first image output device and the second content to be output to the second image output device, respectively, according to the determination result by the determination unit;
A control unit for outputting the selected first and second contents to the first and second image output devices, respectively;
Have
The selection unit selects, as the first content, content indicating an operation that satisfies the operation condition when the operation does not satisfy the operation condition.
本発明の一実施形態により、人を効果的に店舗に誘導できるようになる。 According to an embodiment of the present invention, a person can be effectively guided to a store.
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1. システムの概要
2. ハードウェア構成
3. 機能
4. 動作例
5. 変形例
1. 1.
≪ 1. 概要 ≫
図1は、本発明の概要を説明する図である。図1(a)−(d)は、本発明の一実施形態における画像出力システム10が、店舗の近くを通りかかった人の動作を検知し、その動作に応じた画像を出力する処理の流れを示している。図1に示された画像出力システム10は、図2に例示される外観を有しており、ディスプレイの形状をした画像出力装置200−1と、プロジェクタの形状をした二つの画像出力装置200−2、200−3と、センサ300とを有する。画像出力システム10は、センサ300から得た画像情報を元に、人の存在、位置、動作、性別、衣服の色等を認識し、状況に応じた画像を、各画像出力装置に出力することができる。なお、画像出力装置200−1、200−2、200−3が出力する画像は、それぞれ、表示領域A、B、Cに出力される。また、センサ300は、例えば、Microsoft社のKinect for Windows(登録商標)である。
≪ 1. Overview ≫
FIG. 1 is a diagram for explaining the outline of the present invention. FIGS. 1A to 1D show a flow of processing in which the
図1(a)において、画像出力システム10は、店舗の近くを通行する人を検出し、人の注意を引きつけるような画像コンテンツを、画像出力装置200−1(すなわち表示領域A)に出力させる。このとき、画像出力システム10は、画像出力装置200−2(すなわち表示領域B)に、人を誘導するような画像を出力させる。図1(a)の例では、画像出力システム10は、人が何か動作を起こしたがっているような様子を表す動画コンテンツを、画像出力装置200−1に出力させる。また、画像出力システム10は、人を画像出力システム10の近くに誘導する矢印のような画像コンテンツを、画像出力装置200−2に出力させる。一方、画像出力システム10は、画像出力装置200−3(すなわち表示領域C)には、何も出力させない。
In FIG. 1A, an
次に、図1(b)において、画像出力システム10は、接近した人に対して、予め定められた動作を行うよう促すコンテンツを、画像出力装置200−1に出力させる。図1(b)の例では、画像出力システム10は、ある一定の高さでジャンプするよう指示する動画コンテンツを、画像出力装置200−1に出力させている。図1(b)は、人がそのコンテンツを確認し、ジャンプの動作を繰り返す様子を表している。ここで、画像出力システム10は、人の動作が、予め定められた動作条件を満たすか(例えば、一定の高さ以上ジャンプするか)を行うまで、同様のコンテンツを画像出力装置200−1に出力させ続ける。
Next, in FIG. 1B, the
次に、図1(c)において、画像出力システム10は、人が、動作条件を満たす動作を行ったことを検出すると、動作が成功したことを表すコンテンツを、画像出力装置200−1、200−2に出力させる。図1(c)の例では、高く跳躍した人が、表示領域Bから表示領域Cに飛び移り、そのまま店舗の方向に走り去る様子を表す一連の動画コンテンツを、画像出力装置200−1、200−2に出力させる。人は、このコンテンツを見ることにより、店舗内に視線を向け、店舗内の商品に関心を持つ。
Next, in FIG. 1C, when the
さらに、図1(d)において、画像出力システム10は、さらに、人を店舗に呼び込むためのコンテンツを、画像出力装置200−1、200−2に出力させる。図1(d)の例では、画像出力システム10は、人の衣服の色(横縞で示す)を検知しておき、図1(c)で店舗方向に走り去ったキャラクターが、人と同じ色の服を着て戻ってくる一連の動画コンテンツを、画像出力装置に出力させる。この服は、店舗内で実際に販売されている形状をしている。また、画像出力システム10は、商品に関する追加情報を表すコンテンツを、画像出力装置200−1に追加で出力させてもよい。
Further, in FIG. 1D, the
以上のように、本発明の一実施形態における画像出力システム10は、店舗の近くを通行する人の注意を引き、その人に対して所定の動作を行わせることにより、店舗への関心をひきつけることができる。通行する人は、ゲーム感覚で、自らの体験と共に、コンテンツの中身を閲覧するため、単に客引きのコンテンツを提示するのに比べて、より深く店舗又は商品に関心を持つようになる。
As described above, the
以下、本発明の一実施形態における画像出力システム10の詳細を説明する。
Details of the
≪ 2. ハードウェア構成 ≫
本発明の一実施形態における画像出力システム10は、画像出力装置200−1、200−2、200−3と、センサ300とを制御する、制御装置100を有する。図2は、本発明の一実施形態における制御装置100のハードウェア構成例を示す。制御装置100は、CPU11と、RAM12と、ROM13と、HDD14と、キーボード15と、マウス16と、NIC(Network Interface Card)17と、GPU18と、USBポート19とを有する。
≪ 2. Hardware configuration ≫
The
CPU11は、制御装置100の動作制御を行うプログラムを実行する。RAM12は、CPU11のワークエリアを構成する。ROM13は、CPU11が実行するプログラムや、プログラムの実行に必要なデータを記憶する。HDD14は、制御装置100が出力させるコンテンツ等を格納する。HDD14は、磁気ディスクや、ソリッドステートディスクであってもよい。
The
キーボード15及びマウス16は、制御装置100の管理者等からの入力を受け付ける装置である。NIC17は、例えばイーサネット(登録商標)によるLANと接続するための通信インターフェースである。GPU18は、画像処理を実行する処理装置であり、画像出力装置200−1、200−2、200−3に画像を出力する外部接続端子を有する。GPU18は、画像出力装置ごとに、複数設けられてもよい。USBポート19は、Kinect for Windowsのようなセンサと接続するための外部接続端子である。バス20は、上記の各装置を相互に接続する。
The
なお、図3の例では、制御装置100と各画像出力装置とが、GPU18のみを用いて接続されているが、この例に限られず、例えば、任意の画像出力装置が、NIC17等を通じて、ネットワークを介して接続されてもよい。また、同様に、センサ300は、USBポート19を用いて接続される代わりに、他の規格の外部接続端子を通じて、接続されても良い。
In the example of FIG. 3, the
また、図3の例では、制御装置100は、単一のコンピュータによって構成されているが、複数のコンピュータにまたがって構成されてもよい。また、そのような複数のコンピュータのそれぞれが、図3に示された装置の一部を有し、全体として、図3に示した装置を実現するよう構成されてもよい。
In the example of FIG. 3, the
≪ 3. 機能 ≫
図4は、本発明の一実施形態における制御装置100の機能ブロック図である。制御装置100は、記憶部101と、検知部102と、動作検出部103と、動作判定部104と、コンテンツ選択部105と、出力制御部106と、出力部107とを有する。
≪ 3. Function ≫
FIG. 4 is a functional block diagram of the
記憶部101は、図3に示されるROM13又はHDD14によって実現され、制御装置100で実行されるプログラムが必要とするデータを記憶する。記憶部101は、状態定義情報151と、出力画像情報152を含む。
The
状態定義情報151は、人に提示するコンテンツを切り替えるために用いる内部的なパラメータである状態を定義する。状態定義情報151は、例えば、図5に例示されるテーブルにより、状態ごとに付されたIDである状態IDと、状態に付された状態名と、その説明とを関連付けて格納する。本実施形態では、以下の6つの状態を定義している。
−非検知 :人を検知していない状態
−検知 :人を検知した状態
−滞在 :所定領域内に滞在する人を検知した状態
−動作検出 :所定領域内の人がコンテンツで指示した規定動作を行った後の状態
−接近/滞在:「動作検出」状態の後、人の接近又は所定領域内でのさらなる滞在を検出した状態
−離脱 :所定領域内からの人の離脱を検知した状態
制御装置100は、例えば、センサ300を通じて取得した画像データを元に、人の位置や動作を検知し、上記の状態を遷移させ、対応するコンテンツを出力させる。
The
-Non-detection: A state in which a person is not detected-Detection: A state in which a person is detected-Stay: A state in which a person staying in a predetermined area is detected-Motion detection: A prescribed action specified by content by a person in the predetermined area State after performing-approach / stay: State after detecting "approach" or further stay in a predetermined area after "motion detection" state-leaving: state control apparatus detecting that a person has left the predetermined area For example, 100 detects the position and movement of a person based on the image data acquired through the
出力画像情報152は、各状態ごとに、画像出力装置200−1、200−2、200−3に出力させるコンテンツを定義する。出力画像情報152は、例えば、図6(a)−(f)に例示されるテーブルにより、状態ごとに設けられ得る。出力画像情報152は、出力させる画像出力装置を特定するための出力先IDと、出力する画像コンテンツを特定する出力画像IDの項目を有する。本実施例では、出力先IDの「1」は、画像出力装置200−1に対応し、出力先ID「2」は、画像出力装置200−2に対応し、出力先ID「3」は、画像出力装置200−3に対応する。
The
図6(a)は、「非検知」状態において、画像出力システム10が、各画像出力装置に出力させるコンテンツの出力画像IDを定義する。この場合のコンテンツの具体例を以下に示す。
−info :商品紹介、カタログ、価格表のような情報を含むコンテンツ
−background:景色や模様等の背景画像のようなコンテンツ
−arrow :所定領域の方向を示すコンテンツ
図6(b)は、「検知」状態において、画像出力システム10が、各画像出力装置に出力させるコンテンツの出力画像IDを定義する。この場合のコンテンツの具体例を以下に示す。
−stand−by :キャラクターが何か動作を起こしたがっている様子を示すコンテンツ
−background:景色や模様等の背景画像のようなコンテンツ
−arrow :所定領域の方向を示すコンテンツ
図6(c)は、「滞在」状態において、画像出力システム10が、各画像出力装置に出力させるコンテンツの出力画像IDを定義する。この場合のコンテンツの具体例を以下に示す。
−guidance :規定の動作を行うよう指示するコンテンツ
−background:景色や模様等の背景画像のようなコンテンツ
−circle1 :所定領域を示すコンテンツ
図6(d)は、「動作検出」状態において、画像出力システム10が、各画像出力装置に出力させるコンテンツの出力画像IDを定義する。この場合のコンテンツの具体例を以下に示す。
−success1:動作条件を達成したことを祝福するとともに、人が店舗に関心をもつように、キャラクターを画像出力装置200−1の表示領域外に移動させるようなコンテンツ
−success2:success1のコンテンツと連携し、success1で表示領域外に移動したキャラクターが、画像出力装置200−2に現れ、さらに店舗方向に向かって、表示領域外に移動するようなコンテンツ
−circle2 :動作条件を達成したことを祝福するため、circle1とは異なる演出を行うコンテンツ
図6(e)は、「接近/滞在」状態において、画像出力システム10が、各画像出力装置に出力させるコンテンツの出力画像IDを定義する。この場合のコンテンツの具体例を以下に示す。
−welcpme1:success1、success2のコンテンツを通じて表示領域外に消えたキャラクターが、再び店舗方向から現れ、画像出力装置200−1の方向に向かって、画像出力装置200−2の表示領域外へ移動してゆくようなコンテンツ
−welcome2:welcome1のコンテンツと連携し、welcome1で表示領域外に移動したキャラクターが、画像出力装置200−1に現れるとともに、おすすめ商品や売れ筋商品等の紹介を行うコンテンツ
−circle2 :動作条件を達成したことを祝福するため、circle1とは異なる演出を行うコンテンツ
図6(f)は、「離脱」状態において、画像出力システム10が、各画像出力装置に出力させるコンテンツの出力画像IDを定義する。この場合のコンテンツの具体例を以下に示す。
−seeyou :感謝の意を示すコンテンツ
−background:景色や模様等の背景画像のようなコンテンツ
−arrow :所定領域の方向を示すコンテンツ
出力画像IDは、予め、記憶部101又は外部に保存された出力画像ファイル(例えば、jpegやgif形式の画像ファイル、又は、swfやavi形式等の動画ファイル)と関連付けられてもよい。また、出力画像IDは、制御装置100が、Open GLのような描画手段により、動的に生成して出力する、一連の動画像コンテンツと関連付けられてもよい。
FIG. 6A defines an output image ID of content that the
-Info: content including information such as product introduction, catalog, price list-background: content such as a background image such as scenery or pattern-arrow: content indicating the direction of a predetermined area FIG. In the state, the
-Stand-by: content indicating how the character wants to perform some action -background: content such as a background image such as a landscape or pattern -arrow: content indicating the direction of a predetermined area FIG. In the “stay” state, the
-Guidance: content instructing to perform a prescribed operation -background: content such as a background image such as a landscape or a pattern -cycle1: content indicating a predetermined area FIG. 6D shows an image output in the “motion detection” state. The
-Success1: Content that congratulates the achievement of the operating conditions and moves the character outside the display area of the image output device 200-1 so that people are interested in the store-success2: content with the success1 content Then, congratulate that the character that has moved out of the display area in
-Welcpme1: Characters that disappeared outside the display area through the contents of success1 and success2 appear again from the store direction and move out of the display area of the image output apparatus 200-2 toward the direction of the image output apparatus 200-1. A content that is going to be -welcome2: A character that is linked to the content of welcome1 and moves outside the display area with welcome1 appears in the image output device 200-1, and introduces recommended products, best-selling products, and the like. Content that produces an effect different from
-Seyou: content indicating gratitude -background: content such as a background image such as a landscape or pattern -arrow: content indicating the direction of a predetermined area The output image ID is output stored in advance in the
検知部102は、図3に示されるCPU11及びセンサ300の処理によって実現され、センサ300が取得した画像情報を取得し、画像出力システム10の近くを通行する人の接近を検知することができる。また、検知部102は、所定領域内における一定時間以上の人の滞在、及び、所定領域からの人の離脱を検知することができる。ここで、所定領域とは、人に対して規定の動作を行わせるための領域であり、例えば、画像出力装置200−1がコンテンツを出力する範囲と一致する。さらに、検知部102は、所定の領域内での人の接近や、後述する規定の動作後の一定時間以上の人の滞在を検知することができる。検知部102は、検知した内容を、コンテンツ選択部105に通知する。
The
動作検出部103は、図3に示されるCPU11及びセンサ300の処理によって実現され、センサ300が取得した画像データに基づき、所定の領域内での人の動作を検出する。動作検出部103は、人の動作を表すデータを、動作判定部104に渡す。
The
動作判定部104は、図3に示されるCPU11の処理によって実現され、動作検出部103が検出した動作が、予め規定された動作条件を満たすか判定する。例えば、予め規定された動作条件が、ジャンプの高さに関するものである場合、動作判定部104は、動作検出部103が検出した人の「ジャンプ」動作の高さが、規定の高さ以上であるかどうかを判定する。動作判定部104は、他にも、人の動作の激しさ(体の特定部分の時間当たりの移動量)や、回転量(時間当たりに顔が前方を向く回数)、しゃがんだ回数(顔の位置の高さの変化の回数)により、人の動作が条件を満たすか判定することができる。動作判定部104は、動作検出部103が検出した人の動作が動作条件を満たしているか否かを、コンテンツ選択部105に通知する。
The
コンテンツ選択部105は、図3に示されるCPU11の処理によって実現され、検知部102又は動作判定部104から受け取った通知の内容に応じて状態を管理し、その状態に応じて、出力すべきコンテンツを選択する。コンテンツ選択部105は、検知部102又は動作判定部104からの通知に基づき、図5に例示されるテーブルによって定義される状態を管理する。そして、コンテンツ選択部105は、図6に例示されるテーブルを参照し、状態に応じて、各画像出力装置に出力させるコンテンツを選択する。そして、コンテンツ選択部105は、選択したコンテンツを各画像出力装置に出力するよう、出力制御部106に指示する。
The
図7を用いて、コンテンツ選択部105が管理する状態の遷移を説明する。まず初めに、コンテンツ選択部105は、状態を「非検知」状態(S1)とする。非検知状態において、コンテンツ選択部105は、図6(a)に定義される画像出力IDを有するコンテンツを選択する。
The state transition managed by the
次に、コンテンツ選択部105は、検知部102から、人の接近を検知した旨の通知を受け取ると、状態を「検知」状態(S2)とする。検知状態において、コンテンツ選択部105は、図6(b)に定義される画像出力IDを有するコンテンツを選択する。
Next, when the
次に、コンテンツ選択部105は、検知部102から、所定領域内における人の滞在を検知した旨の通知を受け取ると、状態を「滞在」状態(S3)とする。検知状態において、コンテンツ選択部105は、図6(c)に定義される画像出力IDを有するコンテンツを選択する。また、コンテンツ選択部105は、動作判定部104から、人の動作が動作条件を満たしていない旨の通知を受け取ると、図6(c)に定義される画像出力IDを有するコンテンツを選択する。
Next, when the
次に、コンテンツ選択部105は、動作判定部104から、人の動作が動作条件を満たしている旨の通知を受け取ると、状態を「動作検出」状態(S4)とする。動作検出状態において、コンテンツ選択部105は、図6(d)に定義される画像出力IDを有するコンテンツを選択する。
Next, when the
次に、コンテンツ選択部105は、検知部102から、動作条件を満たした動作後の人の滞在を検知した旨の通知を受け取ると、状態を「接近/滞在」状態(S5)とする。接近/滞在状態において、コンテンツ選択部105は、図6(e)に定義される画像出力IDを有するコンテンツを選択する。
Next, when the
そして、コンテンツ選択部105は、接近/滞在状態の後、一定時間が経過すると、「非検知」状態へと戻る。一方、コンテンツ選択部105は、検知状態、滞在状態、動作検出状態において、検知部102から、所定領域からの人の離脱の通知を受け取ると、状態を「離脱」状態(S6)とする。離脱状態において、コンテンツ選択部105は、図6(f)に定義される画像出力IDを有するコンテンツを選択する。そして、コンテンツ選択部105は、離脱状態となった後に、一定時間経過後、「非検知」状態へと戻る。
Then, after a certain time has elapsed after the approach / stay state, the
出力制御部106は、図3に示されるCPU11の処理によって実現され、コンテンツ選択部105の指示に応じて、コンテンツが画像出力装置200−1、200−2、200−3でそれぞれ出力されるよう、出力部107を制御する。
The
出力部107は、図3に示されるGPU18の処理によって実現され、各コンテンツを各画像出力装置に出力する。
The
≪ 4. 動作例 ≫
図8を用いて、本発明の一実施形態における画像出力システム10の具体的な動作例を説明する。本実施形態における画像出力システム10は、通行している人に対して、キャラクターがジャンプする様子を提示することにより、ゲーム感覚で、実際にジャンプすることを促す。そして、ジャンプの高さが一定の高さに到達していた場合に、キャラクターが店舗内に走り去り、戻ってくるというパフォーマンスを行い、人の店舗への関心を高め、入店を促す。
<< 4. Example of operation ≫
A specific operation example of the
まず、制御装置100のコンテンツ選択部105は、状態が初期状態である「非検出」状態であることから、図6(a)に示される三つのコンテンツ「info」、「background」、「arrow」を選択する(ステップS201)。次いで、コンテンツ選択部105は、選択した三つのコンテンツを、各画像出力装置に出力するよう、出力制御部106に指示する(ステップS202)。出力制御部106は、三つのコンテンツが、それぞれ、画像出力装置200−1、200−2、200−3から出力されるよう、出力部107を制御する(ステップS203)。出力部107は、画像出力装置200−1に、コンテンツ「info」を出力する(ステップS204)。「info」は、商品紹介、カタログ、価格表のような情報を含むコンテンツである。また、出力部107は、画像出力装置200−2に、コンテンツ「background」を出力する(ステップS205)。「background」は、景色や模様等の背景画像のようなコンテンツである。また、出力部107は、画像出力装置200−3に、コンテンツ「arrow」を出力する(ステップS206)。「arrow」は、所定領域の方向を示すコンテンツである。なお、ステップS204−S206は、実質的に同時に実行される。これにより、通行する人は、遠方より、何らかの商品情報が出力されていることを視認することができる。
First, the
ここで、店舗の近くを通行していた人が、画像出力システム10に接近したものとする。センサ300は、取得した画像情報を、制御装置100の検知部102に渡す(ステップS207)。検知部102は、受け取った画像情報から、人の接近を検知する(ステップS208)。そして、検知部102は、人の接近を検知した旨を、コンテンツ選択部105に通知する(ステップS209)。
Here, it is assumed that a person passing near the store approaches the
制御装置100のコンテンツ選択部105は、ステップS209の通知を受け、状態を「検知」状態とし、図6(b)に示される三つのコンテンツ「stand−by」、「background」、「arrow」を選択する(ステップS210)。「stand−by」は、キャラクターが何か動作を起こしたがっている様子を示すコンテンツである。その後、出力部107を通じて、選択したコンテンツを各画像出力装置に出力するステップS211−S215は、上述したステップS202−S206と同様である。これにより、通行する人は、キャラクターが、何らかの動作をしたがっている(人に、何らかの動作をさせたがっている)ことを認識することができる。
Upon receiving the notification in step S209, the
ここで、人が、所定領域内に一定時間以上滞在したものとする。センサ300は、取得した一連の画像情報を、制御装置100の検知部102に渡す(ステップS216)。検知部102は、受け取った画像情報から、人の所定領域内の滞在を検知する(ステップS217)。そして、検知部102は、人の所定領域内の滞在を検知した旨を、コンテンツ選択部105に通知する(ステップS218)。
Here, it is assumed that a person stays in a predetermined area for a certain period of time. The
制御装置100のコンテンツ選択部105は、ステップS218の通知を受け、状態を「滞在」状態とし、図6(c)に示される三つのコンテンツ「guidance」、「background」、「circle1」を選択する(ステップS219)。「guidance」は、規定の動作を行うよう指示するコンテンツであり、ここでは、キャラクターがジャンプを繰り返し、その動作を人にもするよう促すコンテンツである。また、「circle」は、人が動作をするための所定領域をスポットライト風に示すコンテンツである。その後、出力部107を通じて、選択したコンテンツを各画像出力装置に出力するステップS220−S224は、上述したステップS202−S206、S211−S215と同様である。
Upon receiving the notification in step S218, the
ここで、人が、出力されたコンテンツ「guidance」に従って、一定領域内でジャンプの動作を行ったものとする(但し、動作条件である、一定の高さには到達せず)。センサ300は、取得した一連の画像情報を、制御装置100の動作検出部103に渡す(ステップS225)。動作検出部103は、受け取った画像情報から、人の所定領域内の動作を検出する(ステップS226)。そして、動作検出部103は、動作を検出した旨を、動作判定部104に通知する(ステップS227)。動作判定部104は、動作検出部103が検出した動作が、動作条件を満たすか判定する(ステップS228)。ここでは、動作判定部104は、動作が動作条件を満たさないと判定する。そして、動作判定部104は、その旨を、コンテンツ選択部105に通知する(ステップS229)。
Here, it is assumed that a person performs a jump operation within a certain area according to the output content “guidance” (however, the operation condition does not reach a certain height). The
制御装置100のコンテンツ選択部105は、ステップS229の通知を受け、再度、図6(c)に示される三つのコンテンツ「guidance」、「background」、「circle1」を選択する(ステップS230)。その後、出力部107を通じて、選択したコンテンツを各画像出力装置に出力するステップS231−S235は、上述したステップS202−S206、S211−S215等と同様である。
Upon receiving the notification in step S229, the
その後、人が、出力されたコンテンツ「guidance」に従って、一定領域内でさらにジャンプの動作を行い、動作条件である、一定の高さに到達したものとする。センサ300は、取得した一連の画像情報を、制御装置100の動作検出部103に渡す(ステップS236)。動作検出部103は、受け取った画像情報から、人の所定領域内の動作を検出する(ステップS237)。そして、動作検出部103は、動作を検出した旨を、動作判定部104に通知する(ステップS238)。動作判定部104は、動作検出部103が検出した動作が、動作条件を満たすか判定する(ステップS239)。ここでは、動作判定部104は、動作が動作条件を満たすと判定する。そして、動作判定部104は、その旨を、コンテンツ選択部105に通知する(ステップS240)。
Thereafter, it is assumed that a person performs a jump operation in a certain area in accordance with the output content “guidance” and reaches a certain height as an operation condition. The
制御装置100のコンテンツ選択部105は、ステップS240の通知を受け、状態を「動作検出」状態とし、再度、図6(d)に示される三つのコンテンツ「success1」、「success2」、「circle2」を選択する(ステップS241)。「success1」は、動作条件を達成したことを祝福するとともに、人が店舗に関心をもつように、キャラクターが店舗の方向に向かって、画像出力装置200−1の表示領域外に走ってゆく演出のコンテンツである。また、「success2」は、「success1」と連動するコンテンツであり、success1で表示領域外に移動したキャラクターが、画像出力装置200−2に現れ、さらに店舗方向に向かって、表示領域外に走っていく演出のコンテンツである。「circle2」は、動作条件を達成したことを祝福するため、人の足元のスポットライトの演出を盛り上げるコンテンツである。その後、出力部107を通じて、選択したコンテンツを各画像出力装置に出力するステップS242−S246は、上述したステップS202−S206、S211−S215等と同様である。なお、二つのコンテンツの出力を連動させるために、出力制御部106は、まず「success1」を、画像出力装置200−1に出力させた後に、「success2」を、画像出力装置200−2に出力させても良い。
Upon receiving the notification in step S240, the
その後、人が、さらに画像出力システム10に接近したとする。センサ300は、取得した一連の画像情報を、制御装置100の動作検出部103に渡す(ステップS247)。検知部102は、受け取った画像情報から、人の接近を検知する(ステップS248)。そして、検知部102は、人の接近を検知した旨を、コンテンツ選択部105に通知する(ステップS249)。
Thereafter, it is assumed that a person further approaches the
制御装置100のコンテンツ選択部105は、ステップS249の通知を受け、状態を「接近/滞在」状態とし、図6(e)に示される三つのコンテンツ「welcome2」、「welcome1」、「circle2」を選択する(ステップS250)。「welcome1」は、表示領域外に消えたキャラクターが、再び店舗方向から現れ、画像出力装置200−1の方向(すなわち、人の方向)に向かって、画像出力装置200−2の表示領域外へ走っていく演出のコンテンツである。また、「welcome2」は、「welcome1」と連動するコンテンツであり、welcome1で表示領域外に移動したキャラクターが、画像出力装置200−1に現れるとともに、おすすめ商品や売れ筋商品等の紹介を行うコンテンツである。その後、出力部107を通じて、選択したコンテンツを各画像出力装置に出力するステップS251−S255は、上述したステップS202−S206、S211−S215等と同様である。なお、二つのコンテンツの出力を連動させるために、出力制御部106は、まず「welcome1」を、画像出力装置200−2に出力させた後に、「welcome2」を、画像出力装置200−1に出力させても良い。
Upon receiving the notification in step S249, the
以上の動作により、本実施形態における画像出力システム10は、通行する人の注意を引き、さらに、ゲーム感覚で、コンテンツによる実体験を行わせることにより、人の店舗への関心を高めることができる。さらに、画像出力システム10は、ゲームでの目標の達成とともに、特別な演出を提示することにより、人の関心をよりひきつけることが可能となる。
With the above operation, the
≪ 5. 変形例 ≫
図9−図13を用いて、本発明の他の実施形態における画像出力システム10aを説明する。図9は、本実施形態における画像出力システム10aの外観を示している。画像出力システム10aは、図2を用いて説明した画像出力システム10と異なり、画像出力装置200−3を有していない。また、画像出力システム10aは、通行する人の存否や接近/離脱だけでなく、人の性別や衣服の色を検知することができる。
<< 5. Modified example ≫
An image output system 10a according to another embodiment of the present invention will be described with reference to FIGS. FIG. 9 shows the appearance of the image output system 10a in this embodiment. Unlike the
図10は、画像出力システム10aを構成する制御装置100aの機能ブロック図である。図4で示した制御装置100と異なり、センサ300から取得した画像情報に基づき、人の性別や衣服の色(属性)を検知可能な検知部102aと、属性に応じてコンテンツを選択するコンテンツ選択部105aを有する。また、記憶部101には、属性を定義する属性情報153と、属性ごとに出力させるコンテンツを選択できるようにした出力画像情報152aとを記憶する。
FIG. 10 is a functional block diagram of the
図11は、属性情報153を格納するテーブルの例を表す。図11は、属性を特定するための属性IDと、人の性別及び衣服の色とを関連付ける。すなわち、検知部102aの検知した人の属性に応じて、属性IDが特定される。例えば、検知部102aが、人を「女性」であり、衣服の色を「黒」と検知した場合には、属性IDは「fb」となる。
FIG. 11 shows an example of a table that stores attribute
図12は、図6を用いて説明した出力画像情報152のうち、本実施形態において「接近/滞在」状態に用いられる、出力画像情報152−5aを格納するテーブルである。図12に例示されるテーブルは、図6(e)に例示されるテーブルと比べて、新たに「属性ID」の項目を有する。本実施形態におけるコンテンツ選択部105aは、「接近/滞在」状態において(すなわち、動作条件が満たされた場合)、「属性ID」に応じて出力画像IDを選択する。
FIG. 12 is a table for storing output image information 152-5a used in the “approach / stay” state in the present embodiment, among the
図12の例では、同じ画像出力装置に対して、図11で定義された属性IDごとに、異なる複数の出力画像IDが関連付けられている。ここで、「welcome1_mb」及び「welcome2_mb」は、黒い服の男性向けに用意されたコンテンツである。同様に、「welcome1_mw」及び「welcome2_mw」は、白い服の男性向けに、「welcome1_fb」及び「welcome2_fb」は、黒い服の女性向けに用意されたコンテンツである。なお、本実施形態において、画像出力装置200−3が備えられていないことから、出力画像情報は、出力先ID「1」と「2」に対してのみ出力画像IDが関連付けられる。 In the example of FIG. 12, a plurality of different output image IDs are associated with the same image output apparatus for each attribute ID defined in FIG. Here, “welcome1_mb” and “welcome2_mb” are contents prepared for men in black clothes. Similarly, “welcome1_mw” and “welcome2_mw” are contents prepared for men in white clothes, and “welcome1_fb” and “welcome2_fb” are contents prepared for women in black clothes. In the present embodiment, since the image output device 200-3 is not provided, the output image information is associated with the output image IDs only for the output destination IDs “1” and “2”.
図13は、本実施形態における画像出力システム10aの具体的な動作例を表す。人による動作の順序や、出力されるコンテンツは、動作条件が満たされた場合を除いて、図8を用いて説明した動作例と同様である。但し、画像出力システム10aは、画像出力装置200−1、200−2に対してのみ、コンテンツを出力する。また、ここでは、通行する人が、女性であり、黒い衣服を纏っているものとする。 FIG. 13 shows a specific operation example of the image output system 10a in the present embodiment. The order of actions by humans and the content to be output are the same as those in the operation example described with reference to FIG. 8 except when the operation conditions are satisfied. However, the image output system 10a outputs content only to the image output devices 200-1 and 200-2. Here, it is assumed that the person who passes is a woman and wears black clothes.
まず、初期状態から、「非検知」状態におけるコンテンツを選択して出力する、ステップS301−S305は、図8のステップS201−S205と同様である。ただし、ここでは、コンテンツ選択部105aは、出力先IDが「1」と「2」の出力画像IDと対応するコンテンツを選択する。
First, steps S301 to S305 in which contents in the “non-detection” state are selected and output from the initial state are the same as steps S201 to S205 in FIG. However, here, the
次いで、図8の例と同様に、店舗の近くを通行していた人が、画像出力システム10aに接近したものとする。センサ300は、取得した画像情報を、制御装置100の検知部102aに渡す(ステップS306)。検知部102aは、受け取った画像情報から、人の接近を検知する(ステップS307)。さらに、検知部102aは、受け取った画像情報から、人の性別「女性」と、衣服の色「黒」とを検知し、図11に示される属性情報に基づいて、人の属性を表す属性ID「fb」を特定する(ステップS308)。そして、検知部102aは、人の接近を検知した旨と、特定した属性IDとを、コンテンツ選択部105aに通知する(ステップS309)。その後、コンテンツ選択部105aは、図8のステップS210−S214と同様に、状態を「検知」状態とし、図6(b)に示される、出力先ID「1」と「2」の出力画像IDのコンテンツを選択する。そして、出力部107がこれらのコンテンツを出力する(ステップS310−S314)。
Next, as in the example of FIG. 8, it is assumed that a person who has passed near the store approaches the image output system 10 a. The
その後、図8のステップS216−S223と同様に、人が、所定領域内に一定時間以上滞在すると、コンテンツ選択部105aは、状態を「滞在」状態とし、所定のコンテンツを選択して、出力部107に出力させる(ステップS315−S322)。さらに、図8のステップS225−S234と同様に、人が、動作条件を満たさない動作を行った場合には、再度同じコンテンツを出力部107に出力させる(ステップS323−S332)。
Thereafter, as in steps S216 to S223 in FIG. 8, when a person stays in the predetermined area for a predetermined time or longer, the
さらに、図8のステップS225−S234と同様に、人が、動作条件を満たす動作を行った場合には、コンテンツ選択部105aは、状態を「動作検出」状態とし、所定のコンテンツを選択して、出力部107に出力させる(ステップS333−S342)。
Furthermore, as in steps S225 to S234 in FIG. 8, when a person performs an operation that satisfies the operation condition, the
そして、図8のステップS247−S249と同様に、人が、さらに画像出力システム10に接近したとすると、検知部102aは、その旨をコンテンツ選択部105aに通知する(ステップS343−S345)。次に、コンテンツ選択部105aは、ステップS345の通知を受け、状態を「接近/滞在」状態とする。そして、ステップS309で受け取った属性ID「fb」に基づき、図12に示される二つのコンテンツ「welcome2_fb」、「welcome1_fb」を選択する(ステップS346)。「welcome1_fb」は、表示領域外に消えたキャラクターが、再び店舗方向から現れ、女性向けの黒い服を着て、画像出力装置200−1の方向(すなわち、人の方向)に向かって、画像出力装置200−2の表示領域外へ走っていく演出のコンテンツである。また、「welcome2_fb」は、「welcome1」と連動するコンテンツであり、welcome1で表示領域外に移動したキャラクターが、画像出力装置200−1に現れるとともに、おすすめ商品や売れ筋商品等の紹介を行うコンテンツである。なお、キャラクターが身にまとっている黒い服は、店舗で取り扱っている商品であってもよい。その後、出力部107を通じて、選択したコンテンツを各画像出力装置に出力するステップS347−350は、図8のステップS251−S254と同様である。
Then, as in steps S247 to S249 of FIG. 8, if a person further approaches the
以上の動作により、本実施形態における画像出力システム10aは、人の属性に合ったコンテンツを提示することにより、より店舗や商品に対する人の関心を惹くことができる。 With the above operation, the image output system 10a according to the present embodiment can attract more people's interest in stores and products by presenting content that matches human attributes.
なお、上述した変形例では、画像出力装置が二つである場合の例を用いたが、画像出力装置が三つであってもよい。 In the modification described above, an example in which there are two image output devices is used, but there may be three image output devices.
10、10a 画像出力システム
100、100a 制御装置
101 記憶部
102、102a 検知部
103 動作検出部
104 動作判定部
105 コンテンツ選択部
106 出力制御部
107 出力部
10, 10a
Claims (10)
前記動作が予め定められた動作条件を満たすか判定する判定部と、
前記判定部による判定の結果に応じて、第一の画像出力装置に出力させる第一のコンテンツ及び第二の画像出力装置に出力させる第二のコンテンツを夫々選択する選択部と、
選択された前記第一及び第二のコンテンツを前記第一及び第二の画像出力装置に夫々出力させる制御部と、
を有し、
前記選択部は、前記動作が前記動作条件を満たさない場合に、前記動作条件を満たす動作を示すコンテンツを前記第一のコンテンツとして選択する、
画像出力システム。 A detection unit for detecting the movement of a person in a predetermined area;
A determination unit for determining whether the operation satisfies a predetermined operation condition;
A selection unit that selects the first content to be output to the first image output device and the second content to be output to the second image output device, respectively, according to the determination result by the determination unit;
A control unit for outputting the selected first and second contents to the first and second image output devices, respectively;
Have
The selection unit selects, as the first content, content indicating an operation that satisfies the operation condition when the operation does not satisfy the operation condition;
Image output system.
請求項1に記載の画像出力システム。 The selection unit selects contents different from the first and second contents to be selected when the operation does not satisfy the operation condition when the operation satisfies the operation condition, respectively.
The image output system according to claim 1.
請求項2に記載の画像出力システム。 The selection unit selects, as the first content and the second content, content that prompts a person to be guided into a store when the operation satisfies the operation condition.
The image output system according to claim 2.
請求項2又は3に記載の画像出力システム。 The selection unit selects, as the first content and the second content, content reflecting the attribute of the person who performed the operation when the operation satisfies the operation condition.
The image output system according to claim 2 or 3.
請求項1乃至4の何れか一項に記載の画像出力システム。 The selection unit further selects third content to be output to the third image output device according to the determination result by the determination unit.
The image output system according to any one of claims 1 to 4.
請求項5に記載の画像出力システム。 The third content includes content indicating the predetermined area.
The image output system according to claim 5.
をさらに有し、
前記選択部は、前記検知部による検知の結果に応じて、前記第一のコンテンツを選択する、
請求項1乃至6の何れか一項に記載の画像出力システム。 A detection unit for detecting the approach of a person,
The selection unit selects the first content according to a detection result by the detection unit.
The image output system according to any one of claims 1 to 6.
請求項7に記載の画像出力システム。 The selection unit selects, as the first content, content that prompts a human action when the detection unit detects the approach of a person.
The image output system according to claim 7.
前記動作が予め定められた動作条件を満たすか判定する判定段階と、
前記判定段階における判定の結果に応じて、第一の画像出力装置に出力させる第一のコンテンツ及び第二の画像出力装置に出力させる第二のコンテンツを夫々選択する選択段階と、
選択された前記第一及び第二のコンテンツを前記第一及び第二の画像出力装置に夫々出力させる出力段階と、
を有し、
前記選択段階において、前記動作が前記動作条件を満たさない場合に、前記動作条件を満たす動作を示すコンテンツを前記第一のコンテンツとして選択する、
画像出力方法。 A detection stage for detecting the movement of a person in a predetermined area;
Determining whether the operation satisfies a predetermined operation condition; and
A selection step of selecting a first content to be output to the first image output device and a second content to be output to the second image output device, respectively, according to the determination result in the determination step;
An output stage for outputting the selected first and second contents to the first and second image output devices, respectively;
Have
In the selection step, when the operation does not satisfy the operation condition, the content indicating the operation satisfying the operation condition is selected as the first content.
Image output method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013249848A JP2015106907A (en) | 2013-12-03 | 2013-12-03 | Image output system, image output method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013249848A JP2015106907A (en) | 2013-12-03 | 2013-12-03 | Image output system, image output method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015106907A true JP2015106907A (en) | 2015-06-08 |
Family
ID=53436780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013249848A Pending JP2015106907A (en) | 2013-12-03 | 2013-12-03 | Image output system, image output method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015106907A (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003333359A (en) * | 2002-05-13 | 2003-11-21 | Sony Corp | Video display system and video display controller |
JP2008282092A (en) * | 2007-05-08 | 2008-11-20 | Canon Inc | Information processor allowing user to learn gesture command during operation |
JP2010113314A (en) * | 2008-11-10 | 2010-05-20 | Nec Corp | Electronic advertisement system, electronic advertisement distribution apparatus, electronic advertisement distribution method and program |
JP2010231355A (en) * | 2009-03-26 | 2010-10-14 | Sanyo Electric Co Ltd | Information display device |
JP2011077913A (en) * | 2009-09-30 | 2011-04-14 | Nhk Service Center Inc | Apparatus and system for processing information transmission, and computer program to be used therefor |
JP2012014602A (en) * | 2010-07-05 | 2012-01-19 | Hitachi Ltd | Signage terminal and system for the same |
JP2013050840A (en) * | 2011-08-31 | 2013-03-14 | Ube Machinery Corporation Ltd | Construction information notification system |
JP2013130682A (en) * | 2011-12-21 | 2013-07-04 | Canon Marketing Japan Inc | Information processing apparatus, and control method thereof, and program |
WO2013125032A1 (en) * | 2012-02-24 | 2013-08-29 | ジャパン サイエンス アンド テクノロジー トレーディング カンパニー リミテッド | Attractive multipurpose electronic signboard system |
-
2013
- 2013-12-03 JP JP2013249848A patent/JP2015106907A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003333359A (en) * | 2002-05-13 | 2003-11-21 | Sony Corp | Video display system and video display controller |
JP2008282092A (en) * | 2007-05-08 | 2008-11-20 | Canon Inc | Information processor allowing user to learn gesture command during operation |
JP2010113314A (en) * | 2008-11-10 | 2010-05-20 | Nec Corp | Electronic advertisement system, electronic advertisement distribution apparatus, electronic advertisement distribution method and program |
JP2010231355A (en) * | 2009-03-26 | 2010-10-14 | Sanyo Electric Co Ltd | Information display device |
JP2011077913A (en) * | 2009-09-30 | 2011-04-14 | Nhk Service Center Inc | Apparatus and system for processing information transmission, and computer program to be used therefor |
JP2012014602A (en) * | 2010-07-05 | 2012-01-19 | Hitachi Ltd | Signage terminal and system for the same |
JP2013050840A (en) * | 2011-08-31 | 2013-03-14 | Ube Machinery Corporation Ltd | Construction information notification system |
JP2013130682A (en) * | 2011-12-21 | 2013-07-04 | Canon Marketing Japan Inc | Information processing apparatus, and control method thereof, and program |
WO2013125032A1 (en) * | 2012-02-24 | 2013-08-29 | ジャパン サイエンス アンド テクノロジー トレーディング カンパニー リミテッド | Attractive multipurpose electronic signboard system |
Non-Patent Citations (1)
Title |
---|
加納 恵: "タッチ式、透過型、ジェスチャー操作ができる デジタルサイネージジャパン2012−3/17", CNET JAPAN, JPN6017032905, 13 June 2012 (2012-06-13), JP, ISSN: 0003630552 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Helf et al. | Apps for life change: Critical review and solution directions | |
US11061533B2 (en) | Large format display apparatus and control method thereof | |
US11120601B2 (en) | Animated expressive icon | |
Trajkova et al. | Move your body: Engaging museum visitors with human-data interaction | |
CN109074368A (en) | Use the graphics frame of isomery social networks | |
US11877203B2 (en) | Controlled exposure to location-based virtual content | |
US11741294B2 (en) | Decoupling website service from presentation layer | |
EP3336796A1 (en) | Simulation program, simulation method, and simulation device | |
US20120169754A1 (en) | Method and apparatus for providing synthesizable graphics for user terminals | |
US20240160655A1 (en) | Media request system | |
Muller et al. | A design approach towards affording the trend of privacy | |
US11120386B2 (en) | Computer-readable recording medium, simulation method, and simulation apparatus | |
Almeida et al. | Multi-device applications using the multimodal architecture | |
JP2015106907A (en) | Image output system, image output method, and program | |
US11915571B2 (en) | Systems and methods for dynamically monitoring distancing using a spatial monitoring platform | |
Liu et al. | Interactive point system supporting point classification and spatial visualization | |
KR102528108B1 (en) | Digital content output system using mirror media | |
US20230298239A1 (en) | Data processing method based on augmented reality | |
WO2024021792A1 (en) | Virtual scene information processing method and apparatus, device, storage medium, and program product | |
US11579684B1 (en) | System and method for an augmented reality goal assistant | |
US20230376175A1 (en) | Facilitating interactions based on user access patterns | |
US20230393730A1 (en) | User interface including multiple interaction zones | |
US20240004534A1 (en) | Click and swap | |
KR20210146638A (en) | Method and apparatus for inducing user access | |
Duque | AR interaction and collaboration in interchangeable reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181023 |