JP7403568B2 - プログラム、方法、情報処理装置、システム - Google Patents

プログラム、方法、情報処理装置、システム Download PDF

Info

Publication number
JP7403568B2
JP7403568B2 JP2022049005A JP2022049005A JP7403568B2 JP 7403568 B2 JP7403568 B2 JP 7403568B2 JP 2022049005 A JP2022049005 A JP 2022049005A JP 2022049005 A JP2022049005 A JP 2022049005A JP 7403568 B2 JP7403568 B2 JP 7403568B2
Authority
JP
Japan
Prior art keywords
object image
area
line
detecting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022049005A
Other languages
English (en)
Other versions
JP2023142228A (ja
Inventor
紋 笹川
篤子 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pokemon Co
Original Assignee
Pokemon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pokemon Co filed Critical Pokemon Co
Priority to JP2022049005A priority Critical patent/JP7403568B2/ja
Publication of JP2023142228A publication Critical patent/JP2023142228A/ja
Priority to JP2023208977A priority patent/JP2024019501A/ja
Application granted granted Critical
Publication of JP7403568B2 publication Critical patent/JP7403568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、プログラム、方法、情報処理装置、システムに関する。
近年、AR(Augmented Reality)やMR(Mixed Reality)に関する技術が発展している(特許文献1参照)。ARやMRは、ユーザが視認している現実空間に対して情報を付加等することで、ユーザが見ている現実の世界を拡張する。
特表2016-506565号公報
人が密集しやすい場所において、密集を避ける工夫がいたる所でなされている。例えば、会計を待つ列では、会計待ちのスペースの床に、顧客の存在位置を示すサインを設置することで、会計列における顧客間の距離を確保するようにしている。しかしながら、間隔を開けた状態を維持しながら列で待機することは興趣性に乏しい。
本開示の目的は、列で待機する際の興趣性を高めることである。
プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、第1領域について撮影した撮影データを取得するステップと、取得した撮影データに基づき、第2領域を検出するステップと、検出した第2領域に対応したオブジェクト画像を作成するステップと、作成したオブジェクト画像を、第2領域と対応する位置に表示させるステップとを実行させる。
本開示によれば、列で待機する際の興趣性を高めることができる。
システム1の全体構成の例を示すブロック図である。 図1に示す端末装置10の構成例を表すブロック図である。 サーバ20の機能的な構成の例を示す図である。 ユーザ情報181のデータ構造を示す図である。 オブジェクト情報182のデータ構造を示す図である。 環境情報183のデータ構造を示す図である。 本実施形態に係る店舗内のレジカウンター周辺の領域を表す模式図である。 端末装置10が列内にオブジェクト画像を発生させる際の動作の例を表すフローチャートである。 本実施形態に係る表示制御部195がオブジェクト画像を表示する際の動作の具体例を表すフローチャートである。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 サーバ20が列内にオブジェクト画像を発生させる際の動作の例を表すフローチャートである。 本実施形態に係るディスプレイ30の表示例を表す模式図である。 本実施形態に係る店舗内のレジカウンター周辺の領域のその他の例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 本実施形態に係るディスプレイ141の表示例を表す模式図である。 コンピュータ90の基本的なハードウェア構成を示すブロック図である。
以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<概略>
本実施形態に係るシステムは、例えば、客が列をなす設備で構築される。システムは、列に並ぶ客の間に配置させた所定の領域を認識し、認識した領域にオブジェクトが存在していると客が把握可能なように、オブジェクト画像を発生させる。これにより、客はオブジェクトと一緒に列に並んでいるように感じることが可能となり、列に並ぶという退屈であるはずの時間が楽しく感じられることになる。
<1 システム全体の構成図>
図1は、システム1の全体構成の例を示すブロック図である。図1に示すシステム1は、例えば、端末装置10、サーバ20、ディスプレイ30、及び撮影装置41を含む。端末装置10、サーバ20、ディスプレイ30、及び撮影装置41は、例えば、ネットワーク80を介して通信接続する。
図1において、システム1が端末装置10を1台含む例を示しているが、システム1に含まれる端末装置10の数は、1台に限定されない。システム1に含まれる端末装置10は、1台以上であってもよい。
図1において、システム1がサーバ20を1台含む例を示しているが、システム1に含まれるサーバ20の数は、1台に限定されない。サーバ20は、有する機能に応じ、複数のサーバから構成されていてもよい。また、サーバ20は、例えば、複数の装置の集合体を1つのサーバとしてもよい。1つ又は複数のハードウェアに対して本実施形態に係るサーバ20を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又はサーバ20に求められる仕様等に鑑みて適宜決定することができる。
図1において、システム1がディスプレイ30及び撮影装置41を1台ずつ含む例を示しているが、システム1に含まれるディスプレイ30及び撮影装置41の数は、1台ずつに限定されない。システム1に含まれるディスプレイ30及び撮影装置41は、1台以上であってもよい。
図1に示す端末装置10は、例えば、列に並ぶ客が操作する情報処理装置である。端末装置10は、例えば、スマートフォン、タブレット等の携帯端末により実現される。端末装置10は、HMD(Head Mount Display)等のウェアラブル端末であってもよい。
端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、タッチパネル、タッチパッド等)である。出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカー等)である。
サーバ20は、例えば、客に関する情報等を管理する情報処理装置である。
サーバ20は、例えば、ネットワーク80に接続されたコンピュータにより実現される。図1に示すように、サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対して情報を提示するための出力装置とのインタフェースとして機能する。
ディスプレイ30は、サーバ20の制御に応じたデータを表示する。ディスプレイ30は、例えば、列が形成される施設に設置され、施設の状況を撮影した画像を表示する。ディスプレイ30は、例えば、LCD(Liquid Crystal Display)、又は有機EL(Electro-Luminescence)ディスプレイ等によって実現される。
撮影装置41は、受光素子により光を受光し、撮影データとして出力するためのデバイスである。撮影装置41は、例えば、所定の画角で施設内の所定の位置を撮影可能に設置される。具体的には、撮影装置41は、例えば、施設内の所定の処理を待つ列を撮影可能に設置される。撮影装置41は、撮影データをサーバ20へ出力する。
施設内において、列が発生し得る領域には、拡張現実によるオブジェクト画像を発生させるための領域が、所定間隔毎に複数設けられている。拡張現実によるオブジェクト画像を発生させるための領域は、例えば、以下である。
・所定のマーカーが付されている領域(床、壁、所定の物体等)
・予め設定されている形状、又は色等の物体
マーカーは、識別情報が書き込まれたコードであってもよい。例えば、マーカーは、識別情報が書き込まれたバーコード、又はQRコード(登録商標)等により実現されてもよい。また、マーカーに書き込まれている情報は、サーバ20からオブジェクトに関する情報を読み出すためのアドレス情報であってもよい。マーカーの貼付は1か所に限らず、一つの領域に複数のマーカーが貼付されていてもよい。
列が発生し得る領域において、オブジェクト画像を発生させるための領域とは別に、客の位置を指定するための印が付されていてもよい。例えば、列が発生し得る領域の床には、所定の間隔をあけて列を形成するための印が付される。床に印が付される場合、オブジェクト画像を発生させるための領域は、印と印との間に配置される。つまり、印と領域とは交互に配置される。
各情報処理装置は演算装置と記憶装置とを備えたコンピュータにより構成されている。コンピュータの基本ハードウェア構成および、当該ハードウェア構成により実現されるコンピュータの基本機能構成は後述する。端末装置10、及びサーバ20のそれぞれについて、後述するコンピュータの基本ハードウェア構成およびコンピュータの基本機能構成と重複する説明は省略する。
<1.1 端末装置の構成>
図2は、図1に示す端末装置10の構成例を表すブロック図である。図2に示すように、端末装置10は、通信部120と、入力装置13と、出力装置14と、音声処理部17と、マイク171と、スピーカー172と、カメラ160と、位置情報センサ150と、記憶部180と、制御部190とを備える。端末装置10に含まれる各ブロックは、例えば、バス等により電気的に接続される。
通信部120は、端末装置10が他の装置と通信するための変復調処理等の処理を行う。通信部120は、制御部190で生成された信号に送信処理を施し、外部(例えば、サーバ20)へ送信する。通信部120は、外部から受信した信号に受信処理を施し、制御部190へ出力する。
入力装置13は、端末装置10を操作するユーザが指示、又は情報を入力するための装置である。入力装置13は、例えば、操作面へ触れることで指示が入力されるタッチ・センシティブ・デバイス131等により実現される。端末装置10がPC等である場合には、入力装置13は、リーダー、キーボード、マウス等により実現されてもよい。入力装置13は、ユーザから入力される指示を電気信号へ変換し、電気信号を制御部190へ出力する。なお、入力装置13には、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。
出力装置14は、端末装置10を操作するユーザへ情報を提示するための装置である。出力装置14は、例えば、ディスプレイ141等により実現される。ディスプレイ141は、制御部190の制御に応じたデータを表示する。ディスプレイ141は、例えば、LCD(Liquid Crystal Display)、又は有機EL(Electro-Luminescence)ディスプレイ等によって実現される。
音声処理部17は、例えば、音声信号のデジタル-アナログ変換処理を行う。音声処理部17は、マイク171から与えられる信号をデジタル信号に変換して、変換後の信号を制御部190へ与える。また、音声処理部17は、音声信号をスピーカー172へ与える。音声処理部17は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部17へ与える。スピーカー172は、音声処理部17から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
カメラ160は、受光素子により光を受光し、撮影信号として出力するためのデバイスである。
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。位置情報センサ150は、端末装置10が接続する無線基地局の位置から、端末装置10の現在の位置を検出してもよい。
記憶部180は、例えば、メモリ15、及びストレージ16等により実現され、端末装置10が使用するデータ、及びプログラムを記憶する。記憶部180は、例えば、ユーザ情報181、オブジェクト情報182、及び環境情報183を記憶する。
ユーザ情報181は、例えば、端末装置10を使用するユーザに関する情報を含む。詳細は後述する。
オブジェクト情報182は、列が発生し得る領域に発生させるオブジェクトに関する情報を含む。詳細は後述する。
環境情報183は、現在の環境を表す情報を含む。現在の環境を表す情報は、例えば、天気、大気圧、温度、湿度等に関する情報を含む。詳細は後述する。
制御部190は、プロセッサ19が記憶部180に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部190は、端末装置10の動作を制御する。制御部190は、プログラムに従って動作することにより、操作受付部191と、送受信部192と、撮影制御部193と、画像解析部194と、表示制御部195としての機能を発揮する。
操作受付部191は、入力装置13から入力される指示、又は情報を受け付けるための処理を行う。具体的には、例えば、操作受付部191は、タッチ・センシティブ・デバイス131等から入力される指示、又は情報を受け付ける。
また、操作受付部191は、カメラ160から入力される画像を受け付ける。具体的には、例えば、操作受付部191は、カメラ160により撮影された撮影データを受信する。
また、操作受付部191は、マイク171から入力される音声情報を受け付ける。具体的には、例えば、操作受付部191は、マイク171から入力され、音声処理部17でデジタルデータに変換された音声データを受信する。
送受信部192は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。具体的には、例えば、送受信部192は、ユーザから入力された指示、又は取得した種々の情報をサーバ20へ送信する。また、送受信部192は、サーバ20から提供される情報を受信する。
撮影制御部193は、カメラ160による撮影を制御する。例えば、撮影制御部193は、ユーザからの指示に応じ、カメラ160による撮影を開始する。
画像解析部194は、カメラ160により撮影された撮影データの解析を制御する。例えば、画像解析部194は、撮影データに含まれる所定の領域を検出する。具体的には、例えば、画像解析部194は、撮影データに含まれる、拡張現実によるオブジェクト画像を発生させるための領域を検出する。
また、例えば、画像解析部194は、撮影データに含まれる、列に並んでいる客を検出する。画像解析部194は、例えば、オブジェクト画像を発生させるための領域から所定方向に所定距離隔てた位置に所定時間以上留まっている客を、列に並んでいる客として検出する。また、客の位置を指定するための印が床等に付されている場合、画像解析部194は、その印近傍で留まっている客を、列に並んでいる客として検出してもよい。画像解析部194は、列の最後尾に並んでいる客を検出してもよい。
画像解析部194は、拡張現実によるオブジェクト画像を発生させるための領域を検出する際、列に並んでいる客の検出結果を利用してもよい。例えば、画像解析部194は、列に並んでいる客を検出し、検出した客の近傍の領域を検出してもよい。具体的には、例えば、画像解析部194は、列の最後尾に並んでいる客に対して列の形成方向後方に所定距離だけ隔てて位置する領域を検出してもよい。また、例えば、画像解析部194は、列に並んでいる客の間に位置する領域を検出してもよい。
画像解析部194が領域、又は列に並んでいる客等を検出する際の手法は、既存のいかなる技術が使用されてもよい。画像解析部194は、学習済みモデルを利用して領域、又は列に並んでいる客等を検出してもよい。
表示制御部195は、ユーザに対して所定の画像を表示させるため、出力装置14を制御する。例えば、表示制御部195は、撮影データから検出された情報に基づき、オブジェクト画像を発生させ、ディスプレイ141に表示させる。具体的には、例えば、表示制御部195は、撮影された領域に対応するオブジェクト画像を発生させ、当該領域と対応する位置にオブジェクト画像を表示させる。表示制御部195は、例えば、以下の情報に基づき、異なるオブジェクト画像を発生させてもよい。
・過去の商品購入実績(購入ログ)
・所定の日付(誕生日、記念日)
・過去の来店回数(来店ログ)
・お気に入りキャラクタ
・暦(曜日、祝休日等)
・天気
表示制御部195は、例えば、撮影された領域をディスプレイ141に表示させ、撮影された領域に含まれる、拡張現実によるオブジェクト画像を発生させるための領域に、作成したオブジェクト画像を重畳させる。また、HMDのように、実際の状況をディスプレイを透過して視認するデバイスの場合、表示制御部195は、拡張現実によるオブジェクト画像を発生させるための領域と対応する位置にオブジェクト画像を表示させる。
また、表示制御部195は、所定の情報に応じた演出を発生させる。所定の情報とは、例えば、以下である。
・列に新たに客が並ぶ行為の検出
・列に並んだ客が前へ進む動作の検出
・列に並んだ客が列から外れる動作の検出
・ディスプレイ141で表示されるオブジェクト画像への干渉(ディスプレイ141で表示されるオブジェクト画像に対するタッチ・センシティブ・デバイス131を介した接触、ディスプレイ141で表示されるオブジェクト画像に対する音声の入力)
・過去の商品購入実績
・所定の日付(誕生日、記念日)
・過去の来店回数
・お気に入りキャラクター
・暦(曜日、祝休日等)
・天気
端末装置10の構成は上記に限定されない。端末装置10は、3次元測定部を備えていてもよい。3次元測定部は、例えば、レーザーを所定の周期で、所定の走査領域へ照射し、反射された光を分析することで、反射点の3次元座標を算出する。3次元測定部は、例えば、LiDAR(Light Detection And Ranging)により実現される。3次元測定部は、例えば、カメラ160と同方向を測定可能に設置される。3次元測定部は、算出した3次元座標に関するデータを点群データとして制御部190へ送信する。
<1.2 サーバの機能的な構成>
図3は、サーバ20の機能的な構成の例を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、例えば、顧客情報テーブル2021と、オブジェクト情報テーブル2022と、位置情報テーブル2023と、環境情報テーブル2024と、学習済みモデル2025等とを有する。
顧客情報テーブル2021は、登録されている顧客に関する情報を記憶するテーブルである。
オブジェクト情報テーブル2022は、列が発生し得る領域に発生させるオブジェクトに関する情報を記憶するテーブルである。
位置情報テーブル2023は、客の現在位置を記憶するテーブルである。客の現在位置は、例えば、施設に設置される3次元測定装置により測定される3次元位置に基づいて設定される。3次元測定装置は、例えば、レーザーを所定の周期で、所定の走査領域へ照射し、反射された光を分析することで、反射点の3次元座標を算出する。3次元測定装置は、例えば、LiDARにより実現される。3次元測定装置は、例えば、施設内の全体を遮蔽物なく見渡せる位置に設置される。3次元測定装置は、算出した3次元座標に関するデータを点群データとしてサーバ20へ送信する。客が施設へ来訪した際に端末装置10を操作して来訪したことをサーバ20へ送信すると、登録した時の位置と、ユーザのIDとが関連付けられる。サーバ20は、点群データを参照し、ユーザの動きを追跡することで、客の現在位置を把握する。
環境情報テーブル2024は、環境に関する情報を記憶するテーブルである。
学習済みモデル2025は、例えば、撮影された画像から所定の領域を検出するためのモデルである。学習済みモデル2025は、サーバ20がサービスを提供するにあたり、予め記憶されている。学習済みモデル2025は、モデル学習プログラムに従い、機械学習モデルに機械学習を行わせることで生成される。学習済みモデル2025は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数及びパラメータの組合せにより定義される。本実施形態に係る学習済みモデル2025は、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。
例えば、学習済みモデル2025が順伝播型の多層化ネットワークを用いて生成される場合、パラメータ付き合成関数は、例えば、重み行列を用いた各層間の線形関係、各層における活性化関数を用いた非線形関係(又は線形関係)、及びバイアスの組み合わせとして定義される。重み付行列、及びバイアスは、多層化ネットワークのパラメータと呼ばれる。パラメータ付き合成関数は、パラメータをどのように選ぶかで、関数としての形を変える。多層化ネットワークでは、構成するパラメータを適切に設定することで、出力層から好ましい結果を出力することが可能な関数を定義することができる。
本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。
学習済みモデル2025は、例えば、列が発生し得る領域を含む画像を入力データとし、発生した列に並ぶ客を正解出力データとしてトレーニングされる。学習済みモデル2025は、列に並ぶ客のバリエーションに応じ、随時再学習されてもよい。
制御部203は、プロセッサ29が記憶部202に記憶されるプログラムを読み込み、プログラムに含まれる命令を実行することにより実現される。制御部203は、プログラムに従って動作することにより、受信制御モジュール2031、送信制御モジュール2032、画像解析モジュール2033、及び表示制御モジュール2034としての機能を発揮する。
受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
画像解析モジュール2033は、撮影装置41により撮影された撮影データの解析を制御する。例えば、画像解析モジュール2033は、撮影データに含まれる所定の領域を検出する。具体的には、例えば、画像解析モジュール2033は、撮影データに含まれる、拡張現実によるオブジェクト画像を発生させるための領域を検出する。
また、例えば、画像解析モジュール2033は、撮影データに含まれる、列に並んでいる客を検出する。画像解析モジュール2033は、例えば、オブジェクト画像を発生させるための領域から所定方向に所定距離隔てた位置に所定時間以上留まっている客を、列に並んでいる客として検出する。また、客の位置を指定するための印が床等に付されている場合、画像解析モジュール2033は、その印の近傍で留まっている客を、列に並んでいる客として検出してもよい。
画像解析モジュール2033は、拡張現実によるオブジェクト画像を発生させるための領域を検出する際、列に並んでいる客の検出結果を利用してもよい。例えば、画像解析モジュール2033は、列に並んでいる客を検出し、検出した客の近傍の領域を検出してもよい。具体的には、例えば、画像解析モジュール2033は、列の最後尾に並んでいる客に対して列の形成方向後方に所定距離だけ隔てて位置する領域を検出してもよい。また、例えば、画像解析モジュール2033は、列に並んでいる客の間に位置する領域を検出してもよい。
画像解析モジュール2033が領域、又は列に並んでいる客等を検出する際の手法は、既存のいかなる技術が使用されてもよい。画像解析モジュール2033は、学習済みモデルを利用して領域等を検出してもよい。
表示制御モジュール2034は、客に対して所定の画像を表示させるため、ディスプレイ30を制御する。例えば、表示制御モジュール2034は、撮影データから検出された情報に基づき、オブジェクト画像を発生させ、ディスプレイ30に表示させる。具体的には、例えば、表示制御モジュール2034は、撮影された領域に対応するオブジェクト画像を発生させ、当該領域と対応する位置にオブジェクト画像を表示させる。は、例えば、所定の情報に基づき、異なるオブジェクト画像を発生させてもよい。所定の情報は、例えば、表示制御部195で説明した情報と同様である。表示制御モジュール2034は、例えば、撮影された領域をディスプレイ30に表示させ、撮影された領域に含まれる、拡張現実によるオブジェクト画像を発生させるための領域に、作成したオブジェクト画像を重畳させる。
また、表示制御モジュール2034は、所定の情報に応じた演出を発生させる。所定の情報は、例えば、表示制御部195で説明した情報と同様である。
<2 データ構造>
図4~図6は、端末装置10が記憶する情報のデータ構造を示す図である。なお、図4~図6は一例であり、記載されていないデータを除外するものではない。
図4は、ユーザ情報181のデータ構造を示す図である。図4に示すユーザ情報181は、ユーザIDをキーとして、氏名、年齢、住所、生年月日、E-mailアドレス、登録年月日、来店情報、購入情報、お気に入りキャラ、発生オブジェクト等のカラムを有する。
ユーザIDは、ユーザを一意に識別するための識別子を記憶する項目である。ユーザIDは、ユーザが店舗の会員となる際に設定されたIDであってもよい。氏名は、ユーザの名前を記憶する項目である。年齢は、ユーザの年齢を記憶する項目である。住所は、ユーザが住んでいる居所を記憶する項目である。生年月日は、ユーザが生まれた日付を記憶する項目である。E-mailアドレスは、ユーザのE-mailアドレスを記憶する項目である。登録年月日は、ユーザが会員登録した日付を記憶する項目である。
来店情報は、ユーザが施設へ訪れた履歴を記憶する項目である。来店情報は、施設への来店が複数回ある場合、来店毎の日時を含む。関連する施設が複数存在する場合、来店情報は、来店日時と、来店した施設名とを関連付けて記憶してもよい。購入情報は、ユーザが購入した商品の履歴を記憶する項目である。購入情報は、例えば、購入日時、購入した商品の商品ID、購入した商品の商品名等を含む。お気に入りのキャラクターは、ユーザがお気に入りとして登録しているキャラクターのオブジェクトIDを記憶する項目である。
図5は、オブジェクト情報182のデータ構造を示す図である。図5に示すオブジェクト情報182は、オブジェクトIDをキーとして、オブジェクト名、発生条件、オブジェクトデータ、演出内容、及び演出内容に対応する要件等のカラムを有するテーブルである。
オブジェクトIDは、オブジェクトを一意に識別するための識別子を記憶する項目である。オブジェクト名は、オブジェクトの名称を記憶する項目である。発生条件は、オブジェクト画像を発生させるための条件を記憶する項目である。オブジェクト画像を発生させるための条件は、例えば、以下を含む。
・過去に所定の商品を購入していること
・過去に所定の種類の商品を購入していること
・商品の購入回数が所定回数を超えていること
・商品の購入額が所定額を超えていること
・現在の日付がユーザの誕生日と一致していること
・現在の日付が所定の日(例えば、クリスマス、海の日、年末、年始、成人の日等)と一致していること
・現在の曜日が所定の曜日(例えば、金曜日)であること
・過去の来店回数が所定回数を超えていること
・設定されているオブジェクト(キャラクター)がお気に入りキャラクターと一致すること
・天気が所定の天気(例えば、雪)であること
・マーカーに含まれる識別情報
なお、マーカーに識別情報が含まれている場合、項目:「発生条件」には、識別番号が記憶されていてもよい。
オブジェクトデータは、オブジェクトについての画像データを記憶する項目である。オブジェクトデータは、他の場所に配置されたオブジェクトデータファイルに対する参照情報(パス)を記憶してもよい。オブジェクトについての画像データは、例えば、以下を含む。
・所定のキャラクターの初期状態の画像データ
・所定のキャラクターが進化した状態の画像データ
・所定のキャラクターが特別な服装をした画像データ
・所定のキャラクターが複数いる画像データ
演出内容は、オブジェクトが実施する演出についての画像データを記憶する項目である。演出内容は、他の場所に配置された画像データファイルに対する参照情報(パス)を記憶してもよい。演出内容は、例えば、以下を含む。
・オブジェクトが所定の動作をする演出(誕生日、所定の日を祝う演出)
・列に新たに並んだ客の後ろに並ぶ演出
・列を進んだ客に合わせて前へ進む演出
・列から外れる演出
・オブジェクトが進化する演出
・オブジェクトが所定のアクセサリを身に着ける演出
図5に示す例では、演出内容は、第1演出と、第2演出等とを含む。要件は、オブジェクトに演出を実施させる要件を記憶する項目である。要件は、例えば、以下を含む。
・列に新たに客が並ぶ行為の検出
・列に並んだ客が前へ進む動作の検出
・列に並んだ客が列から外れる動作の検出
・ディスプレイ141で表示されるオブジェクト画像に対するタッチ・センシティブ・デバイス131を介した接触
・所定の音声入力
・過去に所定の商品を購入していること
・過去に所定の種類の商品を購入していること
・商品の購入回数が所定回数を超えていること
・商品の購入額が所定額を超えていること
・現在の日付がユーザの誕生日と一致していること
・現在の日付が所定の日(例えば、クリスマス、海の日、年末、年始、成人の日等)と一致していること
・現在の曜日が所定の曜日(例えば、金曜日)であること
・過去の来店回数が所定回数を超えていること
・設定されているオブジェクト(キャラクター)がお気に入りキャラクターと一致すること
・天気が所定の天気(例えば、雪)であること
図5に示す例では、第1演出を実施させるための第1要件と、第2演出を実施させるための第2要件等とを含む。
図6は、環境情報183のデータ構造を示す図である。図6に示す環境情報183は、日付、天気、大気圧、温度、湿度のカラムを有するテーブルである。環境情報183は、暦に関する情報を含んでいてもよい。暦に関する情報は、例えば、曜日に関する情報、祝祭日に関する情報を含む。
日付は、環境に関する情報を取得した日を記憶する項目である。天気、大気圧、温度、湿度は、環境に関する情報の一例を表し、所定の情報発信元から提供される情報を記憶する。
<3 動作>
オブジェクト画像を客に表示することで、列に並ぶ行為にも興趣性を提供する際の端末装置10とサーバ20との動作について説明する。
(端末装置10によるオブジェクト画像の表示)
以下の説明では、例えば、所定の店舗に来店した客が、購入したい商品を買い物かごに入れ、商品購入のためにレジカウンターでの会計を待つ状況を想定する。また、客が使用する端末装置10は、スマートフォン、又はタブレット端末等、ディスプレイを有する端末であることを想定する。
図7は、本実施形態に係る店舗内のレジカウンター周辺の領域を表す模式図である。図7において、店舗の床には、レジカウンターでの会計を待つ客が順番を待つための印51が付されている。印51は、順番待ちの列を形成させるための印と換言してもよい。印51は、シール又はペイントのような物理的なものでもよいし、所定の形状が投影された光学的なものであってもよい。印51は、例えば、人が通常の会話をする際に飛沫が飛散しにくい程度の間隔、例えば、2m程度毎に複数付されている。印51は、直線状に配列されていてもよいし、曲線状に配列されていてもよい。
印51の間には、マーカー52が付されている。マーカー52は、印51に対して所定の距離かつ所定の方向に配置されている。マーカー52は、シール又はペイントのような物理的なものでもよいし、所定の形状が投影された光学的なものであってもよい。なお、マーカー52が付されていれば、必ずしも印51が付されていなくてもよい。
図8は、端末装置10が列内にオブジェクト画像を発生させる際の動作の例を表すフローチャートである。
まず、ユーザは、レジカウンター周辺の領域を撮影するように端末装置10を操作する。
ステップS11において、制御部190は、撮影制御部193により、カメラ160を制御し、列が形成され得る領域、例えば、レジカウンター周辺の領域の動画を撮影する。
ステップS12において、制御部190は、画像解析部194により、撮影された撮影データを解析する。例えば、画像解析部194は、撮影データに含まれる、拡張現実によるオブジェクト画像を発生させるための領域であるマーカー52を検出する。また、レジカウンター前に客が列を形成している場合、画像解析部194は、撮影データに含まれる、列に並んでいる客を検出する。
ステップS13において、制御部190は、表示制御部195により、ディスプレイ141に画像を表示させる。例えば、表示制御部195は、撮影データから検出された情報に基づき、オブジェクト画像を発生させ、発生させたオブジェクト画像を撮影データと共にディスプレイ141に表示させる。
(オブジェクト画像表示の具体例)
図9は、本実施形態に係る表示制御部195がオブジェクト画像を表示する際の動作の具体例を表すフローチャートである。
ステップS21において、表示制御部195は、列の最後尾に並んでいる客の直後に位置するマーカー52、又は、列に並んでいる客の間に位置するマーカー52が検出されているか否かを判断する。列の最後尾に並んでいる客の直後に位置するマーカー52、又は、列に並んでいる客の間に位置するマーカー52が検出されている場合(ステップS21のYes)、表示制御部195は、処理をステップS22へ移行する。列の最後尾に並んでいる客の直後に位置するマーカー52、及び、列に並んでいる客の間に位置するマーカー52が検出されていない場合(ステップS21のNo)、表示制御部195は、処理をステップS24へ移行する。
ステップS22において、表示制御部195は、ステップS21で検出したマーカー52毎に、オブジェクト画像を作成する。具体的には、表示制御部195は、例えば、オブジェクト情報182の項目:「発生条件」に係る情報を、ユーザ情報181、及び環境情報183から取得する。表示制御部195は、取得した情報に基づき、発生条件を満たすレコードを選択する。表示制御部195は、選択したレコードの項目:「オブジェクトデータ」に記憶されるデータに基づき画像データを取得する。発生条件を満たすオブジェクトが複数存在する場合、表示制御部195は、例えば、予め設定される優先度に基づき、レコードを選択する。表示制御部195は、検出したマーカー52それぞれに異なるオブジェクトを選択してもよいし、同じオブジェクトを選択してもよい。
ステップS23において、表示制御部195は、オブジェクト画像をディスプレイ141に表示させる。具体的には、表示制御部195は、ステップS21で検出したマーカー52に、取得した画像データに基づくオブジェクト画像を重畳させる。これにより、列の最後尾に並んでいる客の直後に位置するマーカー52と、列に並んでいる客の間に位置するマーカー52とに、オブジェクト画像が表示される。
図10は、本実施形態に係るディスプレイ141の表示例を表す模式図である。図10において、画像解析部194は、印51内に留まっている客100を列に並んでいる客として検出する。そして、画像解析部194は、客100の直後に位置するマーカー52を検出する。表示制御部195は、検出されたマーカー52に、オブジェクト画像53を重畳させる。図10に示す例では、客と共に列に並び、後ろを向いたキャラクターがオブジェクト画像53として表示される。つまり、客の後ろにオブジェクト画像が表示されるようになる。
ステップS24において、表示制御部195は、演出発生の要件を満たす事象があったか否かを判断する。具体的には、例えば、表示制御部195は、オブジェクト情報182の項目:「要件」を満たす事象があるか否かを判断する。演出発生の要件を満たす事象がある場合、表示制御部195は、ステップS25へ移行する。
ステップS25において、表示制御部195は、事象に応じた演出を発生させる。具体的には、例えば、表示制御部195は、項目:「要件」に記憶される要件と対応する項目:「演出」に記憶される演出を発生させる。
具体的には、例えば、ステップS24において、表示制御部195は、新たに列に並んだ客が検出された場合、演出発生の要件を満たす事象があったと判断する。そして、ステップS25において、表示制御部195は、ステップS22に示すように画像データを取得し、取得した画像データに基づくオブジェクト画像をマーカー52へ向かって移動させる。
図11及び図12は、本実施形態に係るディスプレイ141の表示例を表す模式図である。図11及び図12において、画像解析部194は、印51内に移動してきた客100を検出する。そして、画像解析部194は、客100の直後に位置するマーカー52を検出する。表示制御部195は、検出されたマーカー52へ、オブジェクト画像53を列に加わるように移動させる。表示制御部195は、移動が完了したオブジェクト画像53に、挨拶等の演出をさせてもよい。
図12に示すように、すでに表示されているオブジェクト画像に加えて、新たなオブジェクト画像が表示される場合、新たに表示されるオブジェクト画像は、すでに表示されているオブジェクト画像と同じキャラクターであってもよいし、異なるキャラクターであってもよい。図12では、同じキャラクターである場合を例に示している。
また、例えば、ステップS24において、表示制御部195は、ディスプレイ141に表示しているオブジェクト画像に対し、タッチ・センシティブ・デバイス131を介してユーザからの接触があった場合、演出発生の要件を満たす事象があったと判断する。そして、ステップS25において、表示制御部195は、接触されたオブジェクト画像について、所定の演出を表示させる。
図13及び図14は、本実施形態に係るディスプレイ141の表示例を表す模式図である。図13において、表示されているオブジェクト画像53が、ユーザにより突かれる。図13における手は、ユーザによるオブジェクト画像53への接触を模式的に表すものである。表示制御部195は、図14で示すように、オブジェクト画像53に対し、振り向かせてポーズを取らせる演出を発現させる。なお、ユーザからの干渉に応じた動作は、所定のポーズに限定されず、所定のアクションをしてもよいし、所定の技を出すようにしてもよい。
また、例えば、ステップS24において、表示制御部195は、列の最後尾にオブジェクト画像を表示している状態で、列に並んでいる客が前進してレジカウンター側の印51へ移動した場合、演出発生の要件を満たす事象があったと判断する。そして、ステップS25において、表示制御部195は、表示しているオブジェクト画像を、客が移動した方向の次のマーカー52へ向かって移動させる。
図15は、本実施形態に係るディスプレイ141の表示例を表す模式図である。例えば、図13に示す状態において先頭の客の会計が終了し、図15に示すように、列に並んでいる客100が前進したとする。画像解析部194は、レジカウンター側へ1つ進んだ印51へ移動した客100を検出する。そして、画像解析部194は、移動した客100の直後に位置するマーカー52を検出する。表示制御部195は、図13においてオブジェクト画像53を重畳させていたマーカー52から、レジカウンター側へ1つ進んだマーカー52へ、オブジェクト画像53を移動させる。
また、例えば、ステップS24において、表示制御部195は、列の最後尾にオブジェクト画像を表示している状態で、列の最後尾に並んでいる客が列から外れた場合、演出発生の要件を満たす事象があったと判断する。そして、ステップS25において、表示制御部195は、表示しているオブジェクト画像を、列から外れるように移動させる。
図16は、本実施形態に係るディスプレイ141の表示例を表す模式図である。例えば、図13に示す状態において列の最後尾の客100が、図16に示すように、列から外れたとする。画像解析部194は、列から外れ印51から離れた客100を検出する。表示制御部195は、図13においてオブジェクト画像53を重畳させていたマーカー52から、列を離れる方向へ、オブジェクト画像53を移動させる。
(サーバ20によるオブジェクト画像の表示)
次に、店舗内の様子を、店舗内に設置された撮影装置41で撮影し、ディスプレイ30で表示する場合を説明する。以下の説明においても、所定の店舗に来店した客が、購入したい商品を買い物かごに入れ、商品購入のためにレジカウンターでの会計を待つ状況を想定する。
図17は、サーバ20が列内にオブジェクト画像を発生させる際の動作の例を表すフローチャートである。
まず、店舗内に設置された撮影装置41は、レジカウンター周辺の領域の動画を撮影する。
ステップS31において、制御部203は、受信制御モジュール2031により、撮影装置41により撮影された撮影データを取得する。
ステップS32において、制御部203は、画像解析モジュール2033により、撮影された撮影データを解析する。例えば、画像解析モジュール2033は、撮影データに含まれる、拡張現実によるオブジェクト画像を発生させるための領域であるマーカー52を検出する。また、レジカウンター前に客が列を形成している場合、画像解析モジュール2033は、撮影データに含まれる、列に並んでいる客を検出する。
ステップS33において、制御部203は、表示制御モジュール2034により、ディスプレイ30に画像を表示させる。例えば、表示制御モジュール2034は、撮影データから検出された情報に基づき、オブジェクト画像を発生させ、発生させたオブジェクト画像を撮影データと共にディスプレイ30に表示させる。
図18は、本実施形態に係るディスプレイ30の表示例を表す模式図である。図18において、画像解析モジュール2033は、印51内に留まっている客を列に並んでいる客として検出する。そして、画像解析モジュール2033は、列の最後尾に並んでいる客の直後に位置するマーカー52と、列に並んでいる客の間に位置するマーカー52とを検出する。表示制御モジュール2034は、検出したマーカー52に、オブジェクト画像53を重畳させる。図18に示す例では、客と共に列に並ぶキャラクターがオブジェクト画像53として表示される。
以上のように、上記実施形態では、列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されている。制御部190は、第1領域について撮影した撮影データを取得する。制御部190は、画像解析部194により、取得した撮影データに基づき、第2領域を検出する。制御部190は、表示制御部195により、検出した第2領域に対応したオブジェクト画像を作成する。表示制御部195は、作成したオブジェクト画像を、第2領域と対応する位置に表示させる。これにより、本実施形態に係る端末装置10、又はサーバ20は、列の中に拡張現実によるオブジェクトを発生させることが可能となり、列で待機している客に対し、待つ行為を楽しませることが可能となる。
したがって、本実施形態によれば、列で待機する際の興趣性を高めることができる。
また、上記実施形態では、表示制御部195は、撮影データに基づく画像を表示させ、画像中の第2領域に対応する位置にオブジェクト画像を重畳して表示する。これにより、スマートフォン、又はタブレット端末等を列が形成され得る領域にかざすことで、ユーザは、列の中に発生されたオブジェクト画像を手軽に視認することが可能となる。
また、上記実施形態では、画像解析部194は、列に並んでいる人を検出し、人の検出結果を利用して第2領域を検出する。表示制御部195は、人に対して列の形成方向後方の第2領域と対応する位置にオブジェクト画像を表示させる。これにより、列に並ぶ人の後ろにオブジェクト画像が発生することになる。言い換えると、人とオブジェクトとが交互に並んでいるように見えるようになる。現実には存在しない列を見ることが可能となり、ユーザは並ぶ動作をより楽しむことが可能となる。また、複数の人が並んでいる場合は、複数のオブジェクトが発生していることとなり、ユーザは並ぶ動作をより楽しむことが可能となる。
また、上記実施形態では、画像解析部194は、列の最後尾に並んでいる人を検出し、最後尾の人の検出結果を利用して第2領域を検出する。表示制御部195は、最後尾の人の後ろにオブジェクト画像を表示させる。これにより、オブジェクトが最後尾に存在することとなり、ユーザは、オブジェクトの次に並ぶことになる。オブジェクトが身近に感じられることで、並ぶ動作をより楽しむことが可能となる。
また、上記実施形態では、表示制御部195は、ユーザ情報に基づいてオブジェクト画像を作成する。これにより、来店の度に異なるオブジェクトを発生させることが可能となる。このため、ユーザは、来店することの楽しみが増え、次回来店する動機となる。ユーザ情報は、例えば、来店ログ、購入ログ、特別な日、又はお気に入りに関する情報を含む。
また、上記実施形態では、表示制御部195は、環境情報に基づいてオブジェクト画像を作成する。これにより、環境に応じて異なるオブジェクトを発生させることが可能となる。このため、ユーザは、来店することの楽しみが増え、次回来店する動機となる。環境情報は、例えば、暦、又は天気に関する情報を含む。
また、上記実施形態では、表示制御部195は、演出発生の要件を満たすか否かを判断する。表示制御部195は、満たした要件に応じた演出をオブジェクト画像に行わせる。これにより、オブジェクトが要件に応じた演出を行うようになるため、ユーザは、並ぶ動作をより楽しむことが可能となる。
また、上記実施形態では、表示制御部195は、列に加わった人を検出する。表示制御部195は、列に加わる演出をオブジェクト画像に行わせる。これにより、列に新たに客が加わるとオブジェクトが増えるため、興趣性がより向上する。
また、上記実施形態では、表示制御部195は、列に沿って先に進む人を検出する。表示制御部195は、列に沿って進む演出をオブジェクト画像に行わせる。これにより、列が先に進むとオブジェクトが特徴的に動作するため、ユーザは、列が進むのを楽しみに待つことが可能となる。
また、上記実施形態では、表示制御部195は、列から外れた人を検出する。表示制御部195は、列から外れる演出をオブジェクト画像に行わせる。これにより、列から客が抜けるとオブジェクトが特徴的に動作するため、ユーザは、列から客が抜ける動作についても楽しみに待つことが可能となる。
また、上記実施形態では、表示制御部195は、オブジェクト画像への干渉を検出する。表示制御部195は、干渉に応じた動作をオブジェクト画像に行わせる。これにより、列に変化がなくてもユーザの干渉によりオブジェクトが動作するため、列に変化がない場合であっても、ユーザは、待つ行為を楽しむことが可能となる。
<変形例>
上記実施形態では、所定の条件を満たすと、条件に応じたオブジェクト画像を表示し、所定の要件を満たすと、要件に応じた演出をオブジェクト画像が行うようにしている。このとき、どのような条件が満たされて、オブジェクト画像が表示されているか、又は、どのような要件が満たされて、オブジェクト画像が所定の演出をしているかが表示されてはいない。
しかしながら、どのような条件が満たされて、オブジェクト画像が表示されているかが明記されてもよい。また、どのような要件が満たされて、オブジェクト画像が所定の演出をしているかが明記されてもよい。例えば、「『所定の動作』をクリアしたので発生した!」のような記載が、オブジェクト画像の表示を妨げないような態様、例えば、暫時的なポップアップで表示されてもよい。これにより、特徴的なオブジェクトの発生条件、又は特徴的な演出の発生要件を把握可能となり、ユーザは、特徴的なオブジェクト、又は特徴的な演出を、意識的に再現させることが可能となる。このため、ユーザは、自身が望むオブジェクトを発生させるため、又は、自身が望む演出を発生させるため、自身の行動を調整することが可能となる。
また、上記実施形態では、次に表示されるオブジェクトについての示唆については記載されていない。しかしながら、次に表示されるオブジェクトについての示唆が記載されるようにしてもよい。例えば、「次に『所定の動作』をすると、『所定のオブジェクト、又は、所定の演出』が発生するぞ!」のような記載が、オブジェクト画像の表示を妨げないような態様、例えば、暫時的なポップアップで表示されてもよい。なお、発生をより隠すような表現であってもよい。これにより、次の機会で発生し得るオブジェクト、又は演出を把握することが可能となるため、ユーザは、次回の来店がより楽しみになる。
また、上記実施形態において、オブジェクト画像を発生させるための領域は、レジカウンターに設置されていてもよい。レジカウンターに配置される領域としてのマーカーは、所定のコードを含んでよい。所定のコードは、例えば、会計を行う店員に個別に割り振られたコードであり、店員に割り当てられたオブジェクトを発生させるためのコードである。これにより、列の先頭に、店員固有のオブジェクトが発生することになるため、ユーザは、店員のオブジェクトが何かを楽しみに列に並ぶことが可能となる。つまり、ユーザは、列に並ぶ楽しみが増えることになる。
また、上記実施形態において、画像解析部194、又は画像解析モジュール2033が、列に並んでいる客を検出する場合を例に説明した。しかしながら、列に並んでいる客を検出するのは、画像解析部194、又は画像解析モジュール2033に限定されない。制御部190は、プログラムに従って動作することにより、列状態認識部として機能してもよい。また、制御部203は、プログラムに従って動作することにより、列状態認識モジュールとして機能してもよい。列状態認識部は、例えば、3次元測定部により測定された点群データに基づいて、列に並んでいる客を検出する。また、列状態認識モジュールは、例えば、3次元測定モジュールにより測定された点群データに基づいて、列に並んでいる客を検出する。
列状態認識部、又は列状態認識モジュールが、列に並んでいる客等を検出する際の手法は、既存のいかなる技術が使用されてもよい。
また、上記実施形態では、会計中の客の後ろには、例えば、図10で示すように、別の客が並ぶ場合を例に説明した。しかしながら、会計中の客の直後にキャラクターが並ぶようにしてもよい。つまり、例えば、図19に示すように、拡張現実によるオブジェクト画像を発生させるための領域が、レジカウンターと、列の先頭の客が待機する位置との間に設けられていてもよい。これにより、例えば、レジカウンターで会計中の客が存在する場合、会計中の客と、列の先頭で待機する客との間にオブジェクト画像が発生することになる。また、図20に示すように、会計中の客の後方において、オブジェクト画像のみが列に並んでいる状況が発生し得る。これにより、列がどこから始まるかを、客が容易に認識することが可能となる。
また、例えば、レジカウンターにおいて会計が終了し、レジカウンターから客が移動した場合、列の最前列の客を、オブジェクト画像が誘導するようにしてもよい。具体的には、例えば、レジカウンターにおいて会計が終了し、レジカウンターから客が移動した場合、画像解析部194、又は画像解析モジュール2033は、レジカウンターから客がいなくなったことを検出する。表示制御部195、又は表示制御モジュール2034は、レジカウンター直前のマーカーに重畳させているオブジェクト画像に、列の先頭の客を誘導させる。図21は、本実施形態に係るディスプレイ141の表示例を表す模式図である。
<4 コンピュータの基本ハードウェア構成>
図22は、コンピュータ90の基本的なハードウェア構成を示すブロック図である。コンピュータ90は、プロセッサ91、主記憶装置92、補助記憶装置93、通信IF99(インタフェース、Interface)を少なくとも備える。これらはバスにより相互に電気的に接続される。
プロセッサ91とは、プログラムに記述された命令セットを実行するためのハードウェアである。プロセッサ91は、演算装置、レジスタ、周辺回路等から構成される。
主記憶装置92とは、プログラム、及びプログラム等で処理されるデータ等を一時的に記憶するためのものである。例えば、DRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
補助記憶装置93とは、データ及びプログラムを保存するための記憶装置である。例えば、フラッシュメモリ、HDD(Hard Disc Drive)、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等である。
通信IF99とは、有線又は無線の通信規格を用いて、他のコンピュータとネットワークを介して通信するための信号を入出力するためのインタフェースである。
ネットワークは、インターネット、LAN、無線基地局等によって構築される各種移動通信システム等で構成される。例えば、ネットワークには、3G、4G、5G移動通信システム、LTE(Long Term Evolution)、所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が含まれる。無線で接続する場合、通信プロトコルとして例えば、Z-Wave(登録商標)、ZigBee(登録商標)、Bluetooth(登録商標)等が含まれる。有線で接続する場合は、ネットワークには、USB(Universal Serial Bus)ケーブル等により直接接続するものも含む。
なお、各ハードウェア構成の全部または一部を複数のコンピュータ90に分散して設け、ネットワークを介して相互に接続することによりコンピュータ90を仮想的に実現することができる。このように、コンピュータ90は、単一の筐体、ケースに収納されたコンピュータ90だけでなく、仮想化されたコンピュータシステムも含む概念である。
<コンピュータ90の基本機能構成>
図22に示すコンピュータ90の基本ハードウェア構成により実現されるコンピュータの機能構成を説明する。コンピュータは、制御部、記憶部、通信部の機能ユニットを少なくとも備える。
なお、コンピュータ90が備える機能ユニットは、それぞれの機能ユニットの全部または一部を、ネットワークで相互に接続された複数のコンピュータ90に分散して設けても実現することができる。コンピュータ90は、単一のコンピュータ90だけでなく、仮想化されたコンピュータシステムも含む概念である。
制御部は、プロセッサ91が補助記憶装置93に記憶された各種プログラムを読み出して主記憶装置92に展開し、当該プログラムに従って処理を実行することにより実現される。制御部は、プログラムの種類に応じて様々な情報処理を行う機能ユニットを実現することができる。これにより、コンピュータは情報処理を行う情報処理装置として実現される。
記憶部は、主記憶装置92、補助記憶装置93により実現される。記憶部は、データ、各種プログラム、各種データベースを記憶する。また、プロセッサ91は、プログラムに従って記憶部に対応する記憶領域を主記憶装置92または補助記憶装置93に確保することができる。また、制御部は、各種プログラムに従ってプロセッサ91に、記憶部に記憶されたデータの追加、更新、削除処理を実行させることができる。
データベースは、リレーショナルデータベースを指し、行と列によって構造的に規定された表形式のテーブルと呼ばれるデータ集合を、互いに関連づけて管理するためのものである。データベースでは、表をテーブル、表の列をカラム、表の行をレコードと呼ぶ。リレーショナルデータベースでは、テーブル同士の関係を設定し、関連づけることができる。
通常、各テーブルにはレコードを一意に特定するためのキーとなるカラムが設定されるが、カラムへのキーの設定は必須ではない。制御部は、各種プログラムに従ってプロセッサ91に、記憶部に記憶された特定のテーブルにレコードを追加、削除、更新を実行させることができる。
通信部は、通信IF99により実現される。通信部は、ネットワークを介して他のコンピュータ90と通信を行う機能を実現する。通信部は、他のコンピュータ90から送信された情報を受信し、制御部へ入力することができる。制御部は、各種プログラムに従ってプロセッサ91に、受信した情報に対する情報処理を実行させることができる。また、通信部は、制御部から出力された情報を他のコンピュータ90へ送信することができる。
以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
<付記>
以上の各実施形態で説明した事項を以下に付記する。
(付記1)
プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、プロセッサに、来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、第1領域について撮影した撮影データを取得するステップと、取得した撮影データに基づき、第2領域を検出するステップと、検出した第2領域に対応したオブジェクト画像を作成するステップと、作成した前記オブジェクト画像を、第2領域と対応する位置に表示させるステップとを実行させるプログラム。
(付記2)
オブジェクト画像を表示させるステップにおいて、撮影データに基づく画像を表示させ、画像中の第2領域に対応する位置にオブジェクト画像を重畳して表示する(付記1)に記載のプログラム。
(付記3)
検出するステップにおいて、列に並んでいる来店者を検出し、来店者の検出結果を利用して第2領域を検出し、オブジェクト画像を表示させるステップにおいて、来店者に対して列の形成方向後方の第2領域と対応する位置にオブジェクト画像を表示させる(付記1)又は(付記2)に記載のプログラム。
(付記4)
検出するステップにおいて、列の最後尾に並んでいる来店者を検出し、最後尾の来店者の検出結果を利用して第2領域を検出し、オブジェクト画像を表示させるステップにおいて、最後尾の来店者の後ろにオブジェクト画像を表示させる(付記3)に記載のプログラム。
(付記5)
オブジェクト画像を作成するステップにおいて、ユーザ情報に基づいてオブジェクト画像を作成する(付記1)乃至(付記4)のいずれかに記載のプログラム。
(付記6)
オブジェクト画像を作成するステップにおいて、ユーザ情報に含まれる来店ログ、購入ログ、特別な日、又はお気に入りに関する情報に基づいてオブジェクト画像を作成する(付記5)に記載のプログラム。
(付記7)
オブジェクト画像を作成するステップにおいて、環境情報に基づいてオブジェクト画像を作成する(付記1)乃至(付記4)のいずれかに記載のプログラム。
(付記8)
オブジェクト画像を作成するステップにおいて、環境情報に含まれる暦、又は天気に関する情報に基づいてオブジェクト画像を作成する(付記7)に記載のプログラム。
(付記9)
演出発生の要件を満たすか否かを判断するステップをプロセッサに実行させ、オブジェクト画像を表示させるステップにおいて、満たした要件に応じた演出をオブジェクト画像に行わせる(付記1)乃至(付記8)のいずれかに記載のプログラム。
(付記10)
判断するステップにおいて、列に加わった来店者を検出し、オブジェクト画像を表示させるステップにおいて、列に加わる演出をオブジェクト画像に行わせる(付記9)に記載のプログラム。
(付記11)
判断するステップにおいて、列に沿って先に進む来店者を検出し、オブジェクト画像を表示させるステップにおいて、列に沿って進む演出をオブジェクト画像に行わせる(付記9)に記載のプログラム。
(付記12)
判断するステップにおいて、列から外れた来店者を検出し、オブジェクト画像を表示させるステップにおいて、列から外れる演出をオブジェクト画像に行わせる(付記9)に記載のプログラム。
(付記13)
判断するステップにおいて、オブジェクト画像への干渉を検出し、オブジェクト画像を表示させるステップにおいて、干渉に応じた動作をオブジェクト画像に行わせる(付記9)に記載のプログラム。
(付記14)
プロセッサと、メモリとを備えるコンピュータに実行される方法であって、プロセッサが、来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、第1領域について撮影した撮影データを取得するステップと、取得した撮影データに基づき、第2領域を検出するステップと、検出した第2領域に対応したオブジェクト画像を作成するステップと、作成したオブジェクト画像を、第2領域と対応する位置に表示させるステップとを実行する方法。
(付記15)
制御部と、記憶部とを備える情報処理装置であって、制御部が、来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、第1領域について撮影した撮影データを取得するステップと、取得した撮影データに基づき、第2領域を検出するステップと、検出した第2領域に対応したオブジェクト画像を作成するステップと、作成したオブジェクト画像を、第2領域と対応する位置に表示させるステップとを実行する情報処理装置。
(付記16)
来店者による列が形成され得る第1領域と、第1領域内に所定間隔毎に複数配置される、拡張現実によるオブジェクト画像を発生させるための第2領域とを具備するシステム。
(付記17)
第1領域には、来店者が停止する位置を表す印が、第2領域とは別に配置される(付記16)に記載のシステム。
(付記18)
第1領域において、前記印と、第2領域とは交互に配置される(付記17)に記載のシステム。
(付記19)
第1領域について撮影した撮影データを取得する手段と、取得した撮影データに基づき、第2領域を検出する手段と、検出した第2領域に対応したオブジェクト画像を作成する手段と、作成したオブジェクト画像を、第2領域と対応する位置に表示させる手段とを具備する(付記16)乃至(付記18)のいずれかに記載のシステム。
1…システム
10…端末装置
12…通信IF
120…通信部
13…入力装置
131…タッチ・センシティブ・デバイス
14…出力装置
141…ディスプレイ
15…メモリ
150…位置情報センサ
16…ストレージ
160…カメラ
17…音声処理部
171…マイク
172…スピーカー
180…記憶部
19…プロセッサ
190…制御部
20…サーバ

Claims (16)

  1. プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
    来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、前記第1領域について撮影した撮影データを取得するステップと、
    取得した前記撮影データに基づき、前記第2領域を検出するステップと、
    検出した前記第2領域に対応したオブジェクト画像を作成するステップと、
    作成した前記オブジェクト画像を、前記第2領域と対応する位置に表示させるステップと
    を実行させるプログラム。
  2. 前記オブジェクト画像を表示させるステップにおいて、前記撮影データに基づく画像を表示させ、画像中の第2領域に対応する位置にオブジェクト画像を重畳して表示する請求項1記載のプログラム。
  3. 前記検出するステップにおいて、列に並んでいる来店者を検出し、来店者の検出結果を利用して前記第2領域を検出し、
    前記オブジェクト画像を表示させるステップにおいて、来店者に対して列の形成方向後方の前記第2領域と対応する位置に前記オブジェクト画像を表示させる請求項1又は2に記載のプログラム。
  4. 前記検出するステップにおいて、列の最後尾に並んでいる来店者を検出し、前記最後尾の来店者の検出結果を利用して前記第2領域を検出し、
    前記オブジェクト画像を表示させるステップにおいて、最後尾の来店者の後ろにオブジェクト画像を表示させる請求項3記載のプログラム。
  5. 前記オブジェクト画像を作成するステップにおいて、ユーザ情報に基づいて前記オブジェクト画像を作成する請求項1乃至4のいずれかに記載のプログラム。
  6. 前記オブジェクト画像を作成するステップにおいて、前記ユーザ情報に含まれる来店ログ、購入ログ、特別な日、又はお気に入りに関する情報に基づいて前記オブジェクト画像を作成する請求項5記載のプログラム。
  7. 前記オブジェクト画像を作成するステップにおいて、環境情報に基づいて前記オブジェクト画像を作成する請求項1乃至4のいずれかに記載のプログラム。
  8. 前記オブジェクト画像を作成するステップにおいて、前記環境情報に含まれる暦、又は天気に関する情報に基づいて前記オブジェクト画像を作成する請求項7記載のプログラム。
  9. 演出発生の要件を満たすか否かを判断するステップを前記プロセッサに実行させ、
    前記オブジェクト画像を表示させるステップにおいて、満たした要件に応じた演出を前記オブジェクト画像に行わせる請求項1乃至8のいずれかに記載のプログラム。
  10. 前記判断するステップにおいて、列に加わった来店者を検出し、
    前記オブジェクト画像を表示させるステップにおいて、列に加わる演出を前記オブジェクト画像に行わせる請求項9記載のプログラム。
  11. 前記判断するステップにおいて、列に沿って先に進む来店者を検出し、
    前記オブジェクト画像を表示させるステップにおいて、列に沿って進む演出を前記オブジェクト画像に行わせる請求項9記載のプログラム。
  12. 前記判断するステップにおいて、列から外れた来店者を検出し、
    前記オブジェクト画像を表示させるステップにおいて、列から外れる演出を前記オブジェクト画像に行わせる請求項9記載のプログラム。
  13. 前記判断するステップにおいて、前記オブジェクト画像への干渉を検出し、
    前記オブジェクト画像を表示させるステップにおいて、干渉に応じた動作を前記オブジェクト画像に行わせる請求項9記載のプログラム。
  14. プロセッサと、メモリとを備えるコンピュータに実行される方法であって、前記プロセッサが、
    来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、前記第1領域について撮影した撮影データを取得するステップと、
    取得した前記撮影データに基づき、前記第2領域を検出するステップと、
    検出した前記第2領域に対応したオブジェクト画像を作成するステップと、
    作成した前記オブジェクト画像を、前記第2領域と対応する位置に表示させるステップと
    を実行する方法。
  15. 制御部と、記憶部とを備える情報処理装置であって、前記制御部が、
    来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、前記第1領域について撮影した撮影データを取得するステップと、
    取得した前記撮影データに基づき、前記第2領域を検出するステップと、
    検出した前記第2領域に対応したオブジェクト画像を作成するステップと、
    作成した前記オブジェクト画像を、前記第2領域と対応する位置に表示させるステップと
    を実行する情報処理装置。
  16. 来店者による列が形成され得る第1領域に、拡張現実によるオブジェクト画像を発生させるための第2領域が所定間隔毎に複数配置されており、前記第1領域について撮影した撮影データを取得する手段と、
    取得した前記撮影データに基づき、前記第2領域を検出する手段と、
    検出した前記第2領域に対応したオブジェクト画像を作成する手段と、
    作成した前記オブジェクト画像を、前記第2領域と対応する位置に表示させる手段と
    を備えるシステム。
JP2022049005A 2022-03-24 2022-03-24 プログラム、方法、情報処理装置、システム Active JP7403568B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022049005A JP7403568B2 (ja) 2022-03-24 2022-03-24 プログラム、方法、情報処理装置、システム
JP2023208977A JP2024019501A (ja) 2022-03-24 2023-12-12 プログラム、方法、情報処理装置、システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022049005A JP7403568B2 (ja) 2022-03-24 2022-03-24 プログラム、方法、情報処理装置、システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023208977A Division JP2024019501A (ja) 2022-03-24 2023-12-12 プログラム、方法、情報処理装置、システム

Publications (2)

Publication Number Publication Date
JP2023142228A JP2023142228A (ja) 2023-10-05
JP7403568B2 true JP7403568B2 (ja) 2023-12-22

Family

ID=88205405

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022049005A Active JP7403568B2 (ja) 2022-03-24 2022-03-24 プログラム、方法、情報処理装置、システム
JP2023208977A Pending JP2024019501A (ja) 2022-03-24 2023-12-12 プログラム、方法、情報処理装置、システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023208977A Pending JP2024019501A (ja) 2022-03-24 2023-12-12 プログラム、方法、情報処理装置、システム

Country Status (1)

Country Link
JP (2) JP7403568B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021575A1 (ja) 2017-07-27 2019-01-31 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体
JP2022517252A (ja) 2019-01-14 2022-03-07 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 娯楽用乗り物用の拡張現実システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019021575A1 (ja) 2017-07-27 2019-01-31 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、および記録媒体
JP2022517252A (ja) 2019-01-14 2022-03-07 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 娯楽用乗り物用の拡張現実システム

Also Published As

Publication number Publication date
JP2023142228A (ja) 2023-10-05
JP2024019501A (ja) 2024-02-09

Similar Documents

Publication Publication Date Title
US11568620B2 (en) Augmented reality-assisted methods and apparatus for assessing fit of physical objects in three-dimensional bounded spaces
US20210304510A1 (en) Three-dimensional virtual environment
US20200334906A9 (en) Sharing links in an augmented reality environment
US11023106B2 (en) Digital supplement association and retrieval for visual search
US10475224B2 (en) Reality-augmented information display method and apparatus
US10636207B1 (en) Systems and methods for generating a three-dimensional map
WO2012007764A1 (en) Augmented reality system
WO2019099912A1 (en) Integrated operating environment
US11640431B2 (en) Digital supplement association and retrieval for visual search
US9607094B2 (en) Information communication method and information communication apparatus
JP7179808B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2022189955A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20150095214A1 (en) Electronic gifting process and apparatus
US10475097B2 (en) Systems and methods for providing an interactive virtual environment
JP2022062254A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7403568B2 (ja) プログラム、方法、情報処理装置、システム
US20220164812A1 (en) Information processing device, information processing method, and recording medium
JP2024097939A (ja) プログラム、方法、情報処理装置、システム
WO2017047081A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
KR102523507B1 (ko) 사운드 맵 서비스 제공 장치 및 방법
KR102610112B1 (ko) 페이지를 제공하는 전자 장치의 동작 방법 및 이를 지원하는 전자 장치
KR102630629B1 (ko) 아이템 그룹 정보 제공을 위한 동작 방법 및 이를 지원하는 전자 장치
JP7351030B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7431204B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7145997B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150