JP7212215B2 - 映像処理システム及び映像処理方法 - Google Patents

映像処理システム及び映像処理方法 Download PDF

Info

Publication number
JP7212215B2
JP7212215B2 JP2020116792A JP2020116792A JP7212215B2 JP 7212215 B2 JP7212215 B2 JP 7212215B2 JP 2020116792 A JP2020116792 A JP 2020116792A JP 2020116792 A JP2020116792 A JP 2020116792A JP 7212215 B2 JP7212215 B2 JP 7212215B2
Authority
JP
Japan
Prior art keywords
video processing
data
image data
map
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020116792A
Other languages
English (en)
Other versions
JP2022014487A (ja
Inventor
湧 牛尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PRETIA TECHNOLOGIES, INC.
Original Assignee
PRETIA TECHNOLOGIES, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PRETIA TECHNOLOGIES, INC. filed Critical PRETIA TECHNOLOGIES, INC.
Priority to JP2020116792A priority Critical patent/JP7212215B2/ja
Publication of JP2022014487A publication Critical patent/JP2022014487A/ja
Application granted granted Critical
Publication of JP7212215B2 publication Critical patent/JP7212215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、映像処理システム及び映像処理方法、特に、ユーザが保有するユーザ端末によって実時間で取得された現実空間の映像とサーバに予め格納された現実空間の画像データによって構成されるマップとに基づいて実時間で取得した現実空間の映像に仮想オブジェクトを配置して拡張現実空間を生成する映像処理プログラムを備える映像処理システム及び映像処理方法に関する。
近年、ユーザが知覚可能な現実空間の映像にコンピュータグラフィックスによる映像を重ね合わせて現実空間と映像との調和を楽しむことが可能な、現実空間が拡張された拡張現実空間を提供する映像処理技術が提案されている。
特許文献1には、カメラで取得した複数のマーカに基づいて生成された複数の仮想オブジェクトが配置された拡張現実空間において、複数の仮想オブジェクトの間の近接の程度に応じてこれらの仮想オブジェクトの間に生じる相互作用を演出する映像処理装置が開示されている。
一方、仮想オブジェクトを配置する際の設計の自由度を確保する等の観点から、マーカに基づかないで、任意の地域で取得された現実空間の映像に所望の仮想オブジェクトを重ね合わせる映像処理技術も提案されている。
特開2016-131031
ところで、マーカを必要としないこの種の映像処理技術において、現実空間の映像に仮想オブジェクトを配置することが可能な任意の地域を拡張する観点からは、仮想オブジェクトを配置することが可能となっていない地域において、より多くの現実空間の画像データを取得することが必要となる場合がある。
一方、任意の地域において、ユーザの要望するような仮想オブジェクトを配置する観点からは、ユーザの要望を予め取得できることが好ましい。
本発明は、上記事情に鑑みてなされたものであり、ユーザの要望する拡張現実空間を広範に生成することができる映像処理システム及び映像処理方法を提供することを課題とするものである。
上記目的を達成するための本発明に係る映像処理システムは、ユーザが保有するユーザ端末によって実時間で取得された現実空間の映像とサーバに予め格納された現実空間の画像データによって構成されるマップとに基づいて実時間で取得した現実空間の映像に仮想オブジェクトを配置して拡張現実空間を生成する映像処理プログラムを備える映像処理システムであって、ユーザ端末は、マップとして構成されていない現実空間の新たな画像データ及びユーザの行動に関する行動データを取得して新たな画像データ及び行動データをサーバに送信し、サーバは、画像データによって構成されるマップに新たな画像データを付加してマップを更新するとともに行動データに基づいてユーザの行動を分析して分析データを生成するものである。
これによれば、サーバに送信されたユーザの行動データに基づいて、ユーザの要望に応じた拡張現実空間を提供することができる。
一方、マップとして構成されていない現実空間の新たな画像データが付加されてマップが更新されることによって、拡張現実空間を生成することが可能な地域を広範に生成することができる。
この映像処理システムのサーバは、映像処理プログラムに付加されて映像処理プログラムに任意の機能を追加するアプリケーションソフトウェアを作成する開発環境を提供するものである。
さらに、映像処理システムは、サーバを介して行動データを取得する開発者端末を備え、開発者端末を介してアクセスされた開発環境において行動データが利用されてアプリケーションソフトウェアが作成されるものである。
この映像処理システムで処理される行動データは、ユーザ端末を介して取得可能なユーザの行動の属性に関する行動属性データとユーザ端末の位置及び向きに関する状態データとを少なくとも有するものである。
しかも、映像処理システムは、新たな画像データをサーバに送信したユーザ端末に報酬を付与するものであってもよいし、サーバがクラウド環境で実装されるものであってもよい。
上記目的を達成するための本発明に係る映像処理方法は、ユーザが保有するユーザ端末によって実時間で取得された現実空間の映像とサーバに予め格納された現実空間の画像データによって構成されるマップとに基づいて実時間で取得した現実空間の映像に仮想オブジェクトを配置して拡張現実空間を生成する映像処理プログラムを備える映像処理システムを用いた映像処理方法であって、ユーザ端末が、マップとして構成されていない現実空間の新たな画像データ及びユーザの行動に関する行動データを取得して新たな画像データ及び行動データをサーバに送信し、サーバが、画像データによって構成されるマップに新たな画像データを付加してマップを更新するとともに行動データに基づいてユーザの行動を分析して分析データを生成するものである。
この発明によれば、ユーザの要望する拡張現実空間を広範に生成することができる。
本発明の実施の形態に係る映像処理システムの構成の概略を説明する図である。 同じく、本実施の形態に係る映像処理システムのユーザ端末の構成の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムで処理される現実空間の映像の概略を説明する図である。 同じく、本実施の形態に係る映像処理システムで処理される現実空間の画像データの概略を説明する図である。 同じく、本実施の形態に係る映像処理システムで処理される行動データの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムのクラウドサーバの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムのクラウドサーバのストレージの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムのクラウドサーバのストレージに格納されるソフトウェア開発キットの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムのクラウドサーバのストレージに格納されるソフトウェア開発キットの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムで処理される仮想オブジェクトデータの概略を説明する図である。 同じく、本実施の形態に係る映像処理システムで生成される拡張現実空間の一例を示す図である。 同じく、本実施の形態に係る映像処理システムのマップ更新プログラムの処理の概略を説明する図である。 同じく、本実施の形態に係る映像処理システムの分析プログラムの処理の概略を説明するブロック図である。 同じく、本実施の形態に係る映像処理システムの開発者端末での処理の概略を説明するブロック図である。
次に、図1~図14に基づいて、本発明の実施の形態に係る映像処理システムについて説明する。
図1は、本実施の形態に係る映像処理システムの構成の概略を説明する図である。図示のように、映像処理システム10は、複数のユーザ端末20a~20n、サーバであるクラウドサーバ30及び複数の開発者端末40a~40nを備え、これらがインターネット網等のネットワークを介して互いにアクセス可能に接続される。
本実施の形態では、ユーザ端末20a~20nは、次述するサービス事業者2が提供する映像処理システム10を用いたサービスを利用するユーザ1a~1nに保有され、クラウドサーバ0は、映像処理システム10を用いたサービスを提供するサービス事業者2に管理される。
開発者端末40a~40nは、本実施の形態では、アプリケーションソフトウェアを作成する開発者3a~3nに配備される。
次に、本実施の形態に係る映像処理システム10の各部の構成について説明する。
ユーザ端末20a~20nは、本実施の形態では、携帯型情報端末であるスマートフォンあるいはタブレット型のコンピュータによって実装される。
図2は、ユーザ端末20a~20nの構成の概略を説明するブロック図である。図示のように、ユーザ端末20a~20nは、制御部21、カメラ22、ディスプレイ23及びセンサ類24を主要構成として備える。
制御部21は、カメラ22、ディスプレイ23、センサ類24等のユーザ端末20a~20nの各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信部等によって構成される。
カメラ22は、任意のあらゆる事物を被写体として撮像して映像あるいは画像として取得するものであって、本実施の形態では、現実空間の映像を実時間で取得するとともに、現実空間の画像に関する画像データを取得する。
図3は、現実空間の映像の概略を説明する図である。図示のように、映像M1は、例えば任意の地域の街中や施設といった現実空間のロケーション映像によって構成されるものであって、本実施の形態では、ユーザ1a~1nによって取得されたショッピングモールの映像である。
図4は、現実空間の画像データの概略を説明する図である。図示のように、画像データPは、例えば任意の地域の街中や施設等といった現実空間のロケーション画像によって構成されるものであって、本実施の形態では、ユーザ1a~1nによって取得された任意の地域の屋外の画像である。
ディスプレイ23は、カメラ22で取得した映像、画像やユーザ端末20a~20nに格納されるアプリケーションプログラムのインターフェース等が表示され、本実施の形態では、現実空間の映像M1や後述する拡張現実空間の映像が表示される。
このディスプレイ23は、本実施の形態では、表示面への接触によって情報の入力を受け付けるものであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。
センサ類24は、本実施の形態では、ジャイロセンサや加速度センサ等によって構成され、現実空間におけるユーザ端末20a~20nの位置や向きを検知する。
このユーザ端末20a~20nで取得した映像M1、画像データP、ユーザ端末20a~20nの位置や向きといった各種の情報によって、本実施の形態では、行動データが構成される
図5は、行動データの構成の概略を説明するブロック図である。図示のように、行動データD1は、行動属性データd1a及び状態データd1bによって構成される。
行動属性データd1aは、ユーザ1a~1nの行動の属性に関するデータであって、本実施の形態では、映像M1や画像データPに付加される位置情報や日付情報といった付帯情報によって構成される。
状態データd1bは、本実施の形態では、ユーザ端末20a~20nのセンサ類24が取得したユーザ端末20a~20nの位置や向きに関する情報によって構成される。
図1で示すクラウドサーバ30は、本実施の形態では、例えばデスクトップ型あるいはノート型のコンピュータによって実装される。
図6は、クラウドサーバ30の構成の概略を説明するブロック図である。図示のように、クラウドサーバ30は、プロセッサ31、メモリ32、ストレージ33、送受信部34、及び入出力部35を主要構成として備え、これらが互いにバス36を介して電気的に接続される。
プロセッサ31は、クラウドサーバ30の動作を制御し、各要素間におけるデータの送受信の制御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
このプロセッサ31は、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ33に格納されてメモリ32に展開されたアプリケーションプログラムを実行して各処理を行う。
メモリ32は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。
このメモリ32は、プロセッサ31の作業領域として使用される一方、コンピュータの起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。
ストレージ33は、アプリケーションプログラムや各種の処理に用いられるデータ等が格納されている。
送受信部34は、クラウドサーバ30をネットワークに接続する。この送受信部34は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。
入出力部35には、必要に応じて、キーボードやマウスといった情報入力機器やディスプレイ等の出力機器が接続される。本実施の形態では、キーボード、マウス及びディスプレイがそれぞれ接続される。
バス36は、接続したプロセッサ31、メモリ32、ストレージ33、送受信部34及び入出力部35の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。
図7は、クラウドサーバ30のストレージ33の構成の概略を説明するブロック図である。図示のように、ストレージ33は、ストレージ33の記憶領域によって実現されるデータベース51、映像処理プログラム52、マップ更新プログラム53、報酬付与プログラム54及び分析プログラム55を備える。
データベース51には、本実施の形態では、ソフトウェア開発キットD2及び仮想オブジェクトデータD3が格納される。
図8は、ソフトウェア開発キットD2の構成の概略を説明するブロック図である。このソフトウェア開発キットD2は、本実施の形態では、映像処理プログラム52に付加されて映像処理プログラム52に任意の機能を追加するアプリケーションソフトウェアを作成するものであって、開発者端末40a~40nに開発環境として提供される。
図示のように、ソフトウェア開発キットD2は、本実施の形態では、例えば、マップd2a、2D物体認識キットd2b、3D物体認識キットd2c及び3Dメッシュ生成キットd2d等によって構成される。
マップd2aは、クラウドサーバ30に予め格納された現実空間の画像データによって構成されるものであって、本実施の形態では、サービス事業者2によって予め取得されてクラウドサーバ30に格納された画像データ、及びユーザ1a~1nによって予め取得された図4で示したような画像データPによって構成される。
図9は、マップd2aの構成の概略を説明する図である。図示のように、マップd2aは、直感的に視認可能な図形データ等で表示されるものであってもよく、例えば東京都の地図を基準として、サービス事業者2によって予め取得された東京都内の任意の地域の街中や施設といった現実空間の画像データ、及びユーザ1a~1nによって予め取得された東京都内の任意の地域の街中や施設といった現実空間の画像データPによって構成される。
このマップd2aには、本実施の形態では、東京都の地図を基準とした場合に、サービス事業者2によって予め取得されてクラウドサーバ30に格納された画像データあるいはユーザ1a~1nに予め取得された画像データによってマップd2aが構成されていない任意の地域に、アノテーションAが付与される。
図8で示す2D物体認識キットd2b、3D物体認識キットd2c及び3Dメッシュ生成キットd2は、映像処理プログラム52が生成する後述の拡張現実空間の映像に処理を施すキットである。
図10は、仮想オブジェクトデータD3の概略を説明する図である。図示のように、仮想オブジェクトデータD3は、本実施の形態では、識別番号がそれぞれ割り当てられた複数のモンスター型の任意の仮想オブジェクトO1~O5等によって構成され、識別番号を介してマップd2aの任意の座標と関連づけられる。
図7で示す映像処理プログラム52は、ユーザ端末20a~20nで取得した映像M1とクラウドサーバ30に格納されたマップd2aとを照合して、ユーザ端末20a~20nが実時間で取得した映像M1に任意の仮想オブジェクトO1~O5を配置して拡張現実空間を生成するプログラムである。
この映像処理プログラム52は、本実施の形態では、映像M1から抽出した特徴量とマップd2aを構成する画像データから抽出した特徴量とが一致するか否かを照合する。
図11は、拡張現実空間の一例を示す図であり、本実施の形態では、拡張現実空間M2に仮想オブジェクトO1、O3、O4及びO5が配置される。
図7で示すマップ更新プログラム53は、マップd2aとして構成されていない現実空間の画像データに基づいて、マップd2aを更新するプログラムである。
具体的には、例えば図4で示したような、マップd2aとして構成されていない現実空間の新たな画像データPがユーザ1aのユーザ端末20aで取得され、この新たな画像データPがクラウドサーバ30に送信されると、新たな画像データPがマップd2aに付加されてマップd2aが更新される。
図12は、マップ更新プログラム53の処理の概略を説明する図である。マップ更新プログラム53は、図12(a)で示す更新される前のマップd2aにおいて、マップd2aとして構成されていない現実空間の新たな画像データPがマップd2aに付加されてマップd2aが更新されると、図12(b)で示すように、更新によって付加された新たな画像データPに対応する地域におけるマップd2aに付与されていたアノテーションAが消去される。
図7で示す報酬付与プログラム54は、マップd2aとして構成されていない現実空間の新たな画像データPをクラウドサーバ30に送信したユーザ端末20a~20nに、予め設定された報酬を報酬データとして付与するプログラムである。
報酬付与プログラム54で付与する報酬データは、例えば、映像処理システム10を用いたサービスを導入する事業者(例えばショッピングモールの運営を行う事業者)がユーザ1a~1nに提供するサービスに関するクーポンや割引券等が想定される。
分析プログラム55は、ユーザ端末20a~20nで構成されてクラウドサーバ30に送信された行動データD1に基づいて、ユーザ1a~1nの行動を分析して分析データを生成するプログラムである。
図13は、分析プログラム55の処理の概略を説明するブロック図である。図示のように、分析プログラム55は、本実施の形態では、例えば、映像処理システム10を用いたサービスで提供される拡張現実空間におけるユーザエクスペリエンス(UX)の改善に関する分析や広告配信の最適化等の分析に関する分析データD4を生成する。
図1で示す開発者端末40a~40nは、本実施の形態では、例えばデスクトップ型あるいはノート型のコンピュータによって実装され、例えばプロセッサ、メモリ、ストレージ、送受信部等によって構成される。
図14は、開発者端末40a~40nでの処理の概略を説明するブロック図である。図示のように、開発者端末40a~40nは、クラウドサーバ30を介して行動データD1を取得するとともに、開発環境として提供されるソフトウェア開発キットD2にアクセスする。
本実施の形態では、ソフトウェア開発キットD2にアクセスした開発者端末40a~40nにおいて、例えば拡張現実空間M2におけるユーザエクスペリエンス(UX)の改善の観点から行動データD1が利用されて、映像処理プログラム52に任意の機能を追加するアプリケーションソフトウェア52aが作成される。
このアプリケーションソフトウェア52aは、本実施の形態では例えば、拡張現実空間M2における仮想オブジェクトO1~O5の動作を任意に変更する、新たな仮想オブジェクトを生成する等といった種々のものが想定される。
次に、本実施の形態に係る映像処理システム10の運用について説明する。
なお、本実施の形態では、映像処理システム10を用いたサービスを、ショッピングモールの運営を行う事業者が導入し、ショッピングモール内という現実空間において、ユーザ端末20a~20n上で生成される拡張現実空間M2でモンスター型の任意の仮想オブジェクトO1~O5等を探すゲームに興じる場合を例として説明する。
まず、ユーザ1a~1nがそれぞれ保有するユーザ端末20a~20nにおいて、ユーザ端末20a~20nに格納されて映像処理システム10にアクセス可能なアプリケーションソフトウェアを起動して、ユーザ端末20a~20nのカメラ22によって、現実空間の映像M1を実時間で取得する。
続いて、ユーザ端末20a~20nで取得した映像M1とクラウドサーバ30に格納されたマップd2aとを照合して、ユーザ端末20a~20nが実時間で取得した映像M1に任意の仮想オブジェクトO1~O5を配置して、ユーザ端末20a~20nのディスプレイ23において拡張現実空間M2を生成する。
これにより、ユーザ1a~1nは、ユーザ端末20a~20n上で生成される拡張現実空間M2において、モンスター型の仮想オブジェクトトO1~O5等を探すゲームに興じることができる。
ここで、ユーザ端末20a~20nは、本実施の形態では、ショッピングモール内におけるユーザ1a~1nの行動に関する行動データD1を取得し、取得した行動データD1をクラウドサーバ30に送信する。
クラウドサーバ30は、送信された行動データD1に基づいて、ユーザ1a~1nの行動を分析した分析データD4を生成する。生成された分析データD4は、本実施の形態では、例えば、拡張現実空間M2におけるユーザエクスペリエンス(UX)の改善や広告配信の最適化に用いられる。
これにより、映像処理システム10を用いたサービスを導入する、ショッピングモールの運営を行う事業者は、ユーザ1a~1nの要望に応じた拡張現実空間M2を提供することができる。
一方、開発者端末40a~40nにおいては、クラウドサーバ30から取得した行動データD1が利用されて、開発者端末40a~40nは、開発環境として提供されるソフトウェア開発キットD2にアクセスして、映像処理プログラム52に任意の機能を追加するアプリケーションソフトウェア52aを作成する。
このように、ソフトウェア開発キットD2が開発環境として提供されることから、開発者端末40a~40nを介した開発者3a~3nによるアプリケーションソフトウェア52aの作成が容易になるとともに、開発者3a~3nが増加することが想定される。
アプリケーションソフトウェア52aの作成が容易になって開発者3a~3nが増加すると、アプリケーションソフトウェア52aの質が向上する。
アプリケーションソフトウェア52aの質が向上すると、拡張現実空間M2で実行されるゲームの興趣が向上することから、このゲームがサービスとして提供されるショッピングモールへの来客数が増加することが想定され、これに伴ってユーザ1a~1nが増加することが想定される。
ところで、映像処理システム10では、図4で示したような、マップd2aとして構成されていない現実空間の新たな画像データPが例えばユーザ1xのユーザ端末20xで取得され、この新たな画像データPがクラウドサーバ30に送信されると、新たな画像データPがマップd2aに付加されてマップd2aが更新される。
マップd2aが更新されると、更新によって付加された新たな画像データに対応する地域におけるマップd2aに付与されていたアノテーションAが消去される。
このように、マップd2aとして構成されていない現実空間の新たな画像データPが付加されてマップd2aが更新されることによって、ユーザ端末20a~20nが実時間で取得した映像M1に任意の仮想オブジェクトO1~O5を配置して拡張現実空間M2を生成することが可能な地域を広範に生成することができる。
一方、本実施の形態では、マップd2aとして構成されていない現実空間の新たな画像データPをクラウドサーバ30に送信したユーザ端末20xに報酬データを付与する。
したがって、マップd2aとして構成されていない現実空間の新たな画像データPを取得するインセンティブを、ユーザ1a~1nに与えることができる。
このように、本実施の形態の映像処理システム10によれば、クラウドサーバ30に送信された行動データD1に基づいて、ユーザ1a~1nの要望に応じた拡張現実空間M2を提供することができる。
一方、マップd2aとして構成されていない現実空間の新たな画像データPが付加されてマップd2aが更新されることによって、拡張現実空間M2を生成することが可能な地域を広範に生成することができる。
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。
上記実施の形態では、映像処理プログラム52が、映像M1から抽出した特徴量とマップd2aを構成する画像データから抽出した特徴量とが一致するか否かを照合する場合を説明したが、映像M1を構成する各フレームの解像度が低下されるとともにマップd2aを構成する画像データの解像度が低下されて、これらが照合されるものであってもよい。
上記実施の形態では、ユーザ1a~1nが、ショッピングモールにおいてユーザ端末20a~20n上で生成される拡張現実空間M2で実行される、モンスター型の任意の仮想オブジェクトO1~O5等を探すゲームに興じる場合を説明したが、その他のアクションゲームやアドベンチャーゲーム、ロールプレイングゲーム、あるいはバーチャルキャラクタによるライブ等、種々のコンテンツに適用することができる。
この場合において、仮想オブジェクトはコンテンツに応じて種々のものが採用可能であることはいうまでもない。
更には、大規模な店舗内における顧客の案内、屋外における広告、あるいは作業現場における作業管理等、種々の目的に適用することができる。
上記実施の形態では、拡張現実空間M2がショッピングモール内で生成される場合を説明したが、拡張現実空間M2が生成される地域等はマップd2a上の任意の地域である限り、特に限定されることはない。
上記実施の形態では、サーバがサービス事業者2に管理されるクラウドサーバ30である場合を説明したが、サービス事業者2に配備されるサーバであってもよい。
1a~1n ユーザ
3a~3n 開発者
10 映像処理システム
20a~20n ユーザ端末
30 クラウドサーバ(サーバ)
40a~40n 開発者端末
52 映像処理プログラム
53 マップ更新プログラム
54 報酬付与プログラム
55 分析プログラム
D1 行動データ
D2 ソフトウェア開発キット
d2a マップ
D3 仮想オブジェクトデータ
D4 分析データ
M2 拡張現実空間
O1~O5 仮想オブジェクト
P 画像データ

Claims (7)

  1. ユーザが保有するユーザ端末によって実時間で取得された現実空間の映像の特徴量とサーバに予め格納された前記現実空間の画像データによって構成されるマップの特徴量を照合して実時間で取得した前記現実空間の前記映像に仮想オブジェクトを配置して拡張現実空間を生成する映像処理プログラムを備える映像処理システムであって、
    前記ユーザ端末は、
    前記マップとして構成されていない現実空間の新たな画像データ及び前記ユーザの行動に関する行動データを取得して新たな前記画像データ及び前記行動データを前記サーバに送信し、
    前記サーバは、
    前記画像データによって構成される前記マップに新たな前記画像データを付加して前記マップを更新するとともに前記行動データに基づいて前記ユーザの行動を分析して分析データを生成する、
    映像処理システム。
  2. 前記サーバは、
    前記映像処理プログラムに付加されて該映像処理プログラムに任意の機能を追加するアプリケーションソフトウェアを作成する開発環境を提供する、
    請求項1に記載の映像処理システム。
  3. 前記サーバを介して前記行動データを取得する開発者端末を備え、
    該開発者端末を介してアクセスされた前記開発環境において前記行動データが利用されて前記アプリケーションソフトウェアが作成される、
    請求項2に記載の映像処理システム。
  4. 前記行動データは、
    前記ユーザ端末を介して取得可能な前記ユーザの行動の属性に関する行動属性データと前記ユーザ端末の位置及び向きに関する状態データとを少なくとも有する、
    請求項1~3のいずれか1項に記載の映像処理システム。
  5. 新たな前記画像データを前記サーバに送信した前記ユーザ端末に報酬を付与する、請求項1~4のいずれか1項に記載の映像処理システム。
  6. 前記サーバがクラウド環境で実装される、請求項1~5のいずれか1項に記載の映像処理システム。
  7. ユーザが保有するユーザ端末によって実時間で取得された現実空間の映像の特徴量とサーバに予め格納された前記現実空間の画像データによって構成されるマップの特徴量を照合して実時間で取得した前記現実空間の前記映像に仮想オブジェクトを配置して拡張現実空間を生成する映像処理プログラムを備える映像処理システムを用いた映像処理方法であって、
    前記ユーザ端末が、前記マップとして構成されていない現実空間の新たな画像データ及び前記ユーザの行動に関する行動データを取得して新たな前記画像データ及び前記行動データを前記サーバに送信し、
    前記サーバが、前記画像データによって構成される前記マップに新たな前記画像データを付加して前記マップを更新するとともに前記行動データに基づいて前記ユーザの行動を分析して分析データを生成する、
    映像処理方法。
JP2020116792A 2020-07-07 2020-07-07 映像処理システム及び映像処理方法 Active JP7212215B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020116792A JP7212215B2 (ja) 2020-07-07 2020-07-07 映像処理システム及び映像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020116792A JP7212215B2 (ja) 2020-07-07 2020-07-07 映像処理システム及び映像処理方法

Publications (2)

Publication Number Publication Date
JP2022014487A JP2022014487A (ja) 2022-01-20
JP7212215B2 true JP7212215B2 (ja) 2023-01-25

Family

ID=80120256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020116792A Active JP7212215B2 (ja) 2020-07-07 2020-07-07 映像処理システム及び映像処理方法

Country Status (1)

Country Link
JP (1) JP7212215B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065399A (ja) 2006-09-05 2008-03-21 Nec Biglobe Ltd 画像管理システム、画像管理方法、プログラム
WO2018008394A1 (ja) 2016-07-05 2018-01-11 ソニー株式会社 情報処理システム、記録媒体、および情報処理方法
JP2020013550A (ja) 2018-05-24 2020-01-23 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065399A (ja) 2006-09-05 2008-03-21 Nec Biglobe Ltd 画像管理システム、画像管理方法、プログラム
WO2018008394A1 (ja) 2016-07-05 2018-01-11 ソニー株式会社 情報処理システム、記録媒体、および情報処理方法
JP2020013550A (ja) 2018-05-24 2020-01-23 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法

Also Published As

Publication number Publication date
JP2022014487A (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
US10991165B2 (en) Interactive virtual thematic environment
US10147239B2 (en) Content creation tool
CN108885521A (zh) 跨环境共享
CN102113003A (zh) 用于交互式环境的辅助内容资产的基于提示的流式传输
US20120259712A1 (en) Advertising in a virtual environment
KR101725008B1 (ko) 가상현실 광고 관리서버 및 이를 이용한 광고 시스템
KR20210126919A (ko) 아바타 아이템을 추천하는 방법, 시스템, 및 컴퓨터 프로그램
JP7212215B2 (ja) 映像処理システム及び映像処理方法
KR102188592B1 (ko) 스팟 정보를 공유하는 방법 및 시스템
JP7215752B2 (ja) コンテンツ提供システム及びコンテンツ提供方法
WO2005092028A2 (en) Interactive software application platform
KR102316189B1 (ko) 지도 상에 동적인 정보를 제공하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
JP7470466B1 (ja) ブロックオブジェクトの設計図を生成する方法
KR102368953B1 (ko) 가상 현실 공간 제공 방법 및 시스템
JP7162795B2 (ja) 映像処理システム
KR102622354B1 (ko) 결제 방법 및 시스템
KR20140036497A (ko) 광고기능을 갖는 위치정보기반 게임장치 및 방법과 이를 위한 위치정보기반 게임어플장치
KR102246664B1 (ko) 폰트 스티커를 제공하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
JP5160200B2 (ja) 仮想空間システム、方法及びプログラム
JP2023003489A (ja) 映像処理システム、映像処理プログラム及び映像処理方法
KR20210078141A (ko) 결제 서비스 제공 방법 및 장치
CN117830567A (zh) 针对虚拟场景的位置更新方法、设备、介质和程序产品
KR20190072409A (ko) 공간 메시징과 컨텐츠 공유를 위한 방법 및 그 시스템
JP2005234636A (ja) 通信ネットワークを介してパラメータ入力を行わせるためのサーバ装置及びクライアント端末装置並びにそのプログラム
Maleshkov et al. Service oriented product data customization through visual markers on mobile devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R150 Certificate of patent or registration of utility model

Ref document number: 7212215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150