JP7296164B1 - 情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム - Google Patents

情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム Download PDF

Info

Publication number
JP7296164B1
JP7296164B1 JP2022128569A JP2022128569A JP7296164B1 JP 7296164 B1 JP7296164 B1 JP 7296164B1 JP 2022128569 A JP2022128569 A JP 2022128569A JP 2022128569 A JP2022128569 A JP 2022128569A JP 7296164 B1 JP7296164 B1 JP 7296164B1
Authority
JP
Japan
Prior art keywords
camera
person
orientation
display area
visual content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022128569A
Other languages
English (en)
Other versions
JP2024025261A (ja
Inventor
恒一郎 藏岡
紘一 倉部
肇 川口
Original Assignee
株式会社MuuMu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社MuuMu filed Critical 株式会社MuuMu
Priority to JP2022128569A priority Critical patent/JP7296164B1/ja
Priority to JP2023023986A priority patent/JP2024025633A/ja
Priority to PCT/JP2023/021282 priority patent/WO2024034248A1/ja
Application granted granted Critical
Publication of JP7296164B1 publication Critical patent/JP7296164B1/ja
Publication of JP2024025261A publication Critical patent/JP2024025261A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

Figure 0007296164000001
【課題】視覚的コンテンツの利用を促す。
【解決手段】本開示の一態様のコンテンツ作成プログラムは、コンピュータを、カメラによって撮影された人物の画像と、当該人物の撮影時におけるカメラの位置および姿勢を特定可能な情報とを取得する手段、人物の画像に基づく視覚的コンテンツを作成する手段、実空間または仮想空間において視覚的コンテンツを表示するための表示領域のサイズを、人物の画像と、カメラの内部パラメータと、カメラと人物との間の距離に関する情報とに基づいて決定する手段、表示領域の位置および向きを、カメラの位置および姿勢に基づいて決定する手段、として機能させる。
【選択図】図5

Description

本開示は、情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラムに関する。
AR(Augmented Reality)/VR(Virtual Reality)技術は、様々な分野で利用されている。
特許文献1では、人物などの仮想画像の位置や角度を時間に応じて変化させる制御を行うことで、より自然なAR画像の表示の実現を試みている。
国際公開第2013/187130号公報
特許文献1では、AR画像のサイズをどのように設定すべきかについて特段の記載または示唆がない。また、特許文献1に記載の技術では、ユーザは能動的にAR画像を再生するトリガとなる有体物(ポスター等)を撮影することが必須であり、事前知識がなければAR画像を容易には再生できない。
本開示の目的は、視覚的コンテンツの利用を促す技術を提供することである。
本開示の一態様のコンテンツ作成プログラムは、第1コンピュータを、第1カメラによって撮影された人物の画像と、当該人物の撮影時における第1カメラの位置および姿勢を特定可能な情報とを取得する手段、人物の画像に基づく第1視覚的コンテンツを作成する手段、実空間または仮想空間において第1視覚的コンテンツを表示するための表示領域のサイズを、人物の画像と、第1カメラの内部パラメータと、第1カメラと人物との間の距離に関する情報とに基づいて決定する手段、表示領域の位置および向きを、第1カメラの位置および姿勢に基づいて決定する手段、として機能させる。
本実施形態の情報処理システムの構成を示すブロック図である。 本実施形態の収録用端末の構成を示すブロック図である。 本実施形態のサーバの構成を示すブロック図である。 本実施形態の再生用端末の構成を示すブロック図である。 本実施形態の一態様の説明図である。 本実施形態のコンテンツデータベースのデータ構造を示す図である。 本実施形態のコンテンツ作成処理のフローチャートである。 表示領域のサイズの決定方法の説明図である。 表示領域のサイズの決定方法の説明図である。 本実施形態のコンテンツ再生処理のフローチャートである。 本実施形態の情報処理において表示される画面例を示す図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
図1に示すように、情報処理システム1は、収録用端末10と、サーバ30と、再生用端末50とを備える。
収録用端末10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。再生用端末50及びサーバ30は、ネットワークNWを介して接続される。
収録用端末10は、サーバ30にリクエストを送信する情報処理装置の一例である。収録用端末10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。収録用端末10は、視覚的コンテンツの素材となる人物の画像を撮影するために用いられる。視覚的コンテンツは、例えばARコンテンツまたはVRコンテンツを構成する画像(例えば、2次元または3次元の静止画、または動画)を含む。また、視覚的コンテンツは、画像の撮影時に録音された音声をさらに含むことができる。
再生用端末50は、サーバ30にリクエストを送信する情報処理装置の一例である。再生用端末50は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。再生用端末50は、視覚的コンテンツを再生するために用いられる。
サーバ30は、クライアント装置(具体的には、収録用端末10または再生用端末50)から送信されたリクエストに応じたレスポンスをクライアント装置に提供する情報処理装置の一例である。サーバ30は、例えば、サーバコンピュータである。サーバ30は、収録用端末10から取得した情報に基づいて視覚的コンテンツを作成する。また、サーバ30は、視覚的コンテンツの再生に必要な情報を再生用端末50に提供する。
(1-1)収録用端末の構成
収録用端末の構成について説明する。図2は、本実施形態の収録用端末の構成を示すブロック図である。
図2に示すように、収録用端末10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。収録用端末10は、ディスプレイ21、カメラ22、および計測部23に接続される。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ、視覚的コンテンツの作成用アプリケーション)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、収録用端末10の機能を実現するコンピュータである。プロセッサ12は、例えば、以下の少なくとも1つである。
・CPU(Central Processing Unit)
・GPU(Graphic Processing Unit)
・ASIC(Application Specific Integrated Circuit)
・FPGA(Field Programmable Array)
入出力インタフェース13は、収録用端末10に接続される入力デバイスから情報(例えば、ユーザの指示、センシング信号、画像信号、音声信号)を取得し、かつ、収録用端末10に接続される出力デバイスに情報(例えば画像信号、制御信号)を出力するように構成される。
入力デバイスは、例えば、カメラ22、計測部23、マイクロホン、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ21、スピーカ、又は、それらの組合せである。
通信インタフェース14は、収録用端末10と外部装置(例えばサーバ30)との間の通信を制御するように構成される。
ディスプレイ21は、画像(静止画、または動画)を表示するように構成される。ディスプレイ21は、例えば、液晶ディスプレイ、または有機ELディスプレイである。
カメラ22は、収録用端末10からの制御に応じて画像(静止画、または動画)を撮影するように構成される。カメラ22は、典型的には人物を含む被写体の静止画または動画を撮影する(つまり、被写体の色情報を取得する)。さらに、カメラ22(例えばステレオカメラ)または図示しない他のセンサ(例えば、Lidar(light detection and ranging))が、被写体の深度情報を取得してもよい。色情報に加えて深度情報を用いることで、3次元の静止画または動画を含む視覚的コンテンツを作成することができる(つまり、視覚的コンテンツの立体化)。
計測部23は、所定の計測を行う。一例として、計測部23は、GPS(Global Positioning System)モジュールを含む。収録用端末10は、GPSモジュールによって計測された位置情報に基づいて、カメラ22の位置を特定してもよい。
(1-2)サーバの構成
サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
図3に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するコンピュータである。プロセッサ32は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
入出力インタフェース33は、サーバ30に接続される入力デバイスから情報(例えばユーザの指示)を取得し、かつ、サーバ30に接続される出力デバイスに情報(例えば画像信号)を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース34は、サーバ30と外部装置(例えば収録用端末10または再生用端末50)との間の通信を制御するように構成される。
(1-3)再生用端末の構成
再生用端末の構成について説明する。図4は、本実施形態の再生用端末の構成を示すブロック図である。
図4に示すように、再生用端末50は、記憶装置51と、プロセッサ52と、入出力インタフェース53と、通信インタフェース54とを備える。再生用端末50は、ディスプレイ61、カメラ62、および計測部63に接続される。
記憶装置51は、プログラム及びデータを記憶するように構成される。記憶装置51は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ、視覚的コンテンツの再生用アプリケーション)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ52は、記憶装置51に記憶されたプログラムを起動することによって、再生用端末50の機能を実現するコンピュータである。プロセッサ52は、例えば、以下の少なくとも1つである。
・CPU
・GPU
・ASIC
・FPGA
入出力インタフェース53は、再生用端末50に接続される入力デバイスから情報(例えば、ユーザの指示、センシング信号、画像信号)を取得し、かつ、再生用端末50に接続される出力デバイスに情報(例えば画像信号、制御信号、音声信号)を出力するように構成される。
入力デバイスは、例えば、カメラ62、計測部63、マイクロホン、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ61、スピーカ、又は、それらの組合せである。
通信インタフェース54は、再生用端末50と外部装置(例えばサーバ30)との間の通信を制御するように構成される。
ディスプレイ61は、画像(静止画、または動画)を表示するように構成される。ディスプレイ61は、例えば、液晶ディスプレイ、または有機ELディスプレイである。
カメラ62は、再生用端末50からの制御に応じて画像(静止画、または動画)を撮影するように構成される。カメラ62は、典型的には人物を含む被写体の静止画または動画を撮影する(つまり、被写体の色情報を取得する)。さらに、カメラ62(例えばステレオカメラ)または図示しない他のセンサ(例えば、Lidar)が、被写体の深度情報を取得してもよい。
計測部63は、所定の計測を行う。一例として、計測部63は、GPSモジュールを含む。再生用端末50は、GPSモジュールによって計測された位置情報に基づいて、カメラ62の位置を特定してもよい。
(2)実施形態の一態様
本実施形態の一態様について説明する。図5は、本実施形態の一態様の説明図である。
図5に示すように、収録用端末10は、カメラ22が人物を撮影することで生成した画像IM10を取得する。収録用端末10は、画像IM10を記憶装置11に保存する。
画像IM10には、人物に対応する被写体領域OB10aを含む。カメラ22は、人物が、例えば展示物、商品、などの傍で案内を行う様子を撮影し得る。収録用端末10は、図示しないマイクロホンによって受信された人物の音声をさらに取得してもよい。この場合に、収録用端末10は、取得した音声を画像IM10とともに、視覚的コンテンツを作成するための素材として記憶装置11に保存する。
また、収録用端末10は、計測部23から位置情報を取得し、当該位置情報に基づいてカメラ22の位置を特定する。収録用端末10は、カメラ22の位置情報を記憶装置11に保存する。
収録用端末10は、ユーザからの指示に応じて視覚的コンテンツの作成をサーバ30に要求する。作成要求には、例えば以下の情報が含まれる。
・視覚的コンテンツの素材(少なくとも画像IM10を含み、さらに、深度情報、または音声の少なくとも1つを含み得る)
・カメラ22の位置を特定可能な情報(例えば、カメラ22の位置情報、画像IM10、または画像IM10を解析することで得られる空間特徴量の少なくとも1つ)
・カメラ22の姿勢を特定可能な情報(例えば、画像IM10、または画像IM10を解析することで得られる空間特徴量の少なくとも1つ)
サーバ30は、収録用端末10から取得した素材に基づいて視覚的コンテンツを作成する。一例として、サーバ30は、画像IM10のうち被写体領域OB10aを抽出することで、視覚的コンテンツVC11を作成する。
サーバ30は、実空間または仮想空間において視覚的コンテンツVC11を表示するための表示領域のサイズを、画像IM10と、カメラ22と人物との間の距離に関する情報(例えば画像IM10に対応する深度情報、手入力された距離の値、または撮影環境におけるデフォルト値)と、カメラ22の内部パラメータとに基づいて決定する。表示領域は、視覚的コンテンツを表示するための2次元の領域である。なお、視覚的コンテンツが3次元の静止画または動画に相当する場合に、表示領域の法線方向が視覚的コンテンツの奥行方向として定められる。後述するように、サーバ30は、表示領域において再生された視覚的コンテンツVC11によって表現される人物のサイズが、画像IM10の被写体であった人物の実サイズを再現するように表示領域のサイズを決定する。表示領域は、例えば水平面に対して略直交する平面として定義される。なお、表示領域が仮想空間に設置され、かつ実空間におけるスケールと仮想空間におけるスケールとの間の対応関係が一定に定められている場合に、仮想空間において人物の実サイズを再現するとは、当該実サイズに対応する仮想空間内のサイズを再現することを意味する。
サーバ30は、収録用端末10から取得した情報に基づいて、画像IM10の撮影時におけるカメラ22の位置および姿勢を特定する。一例として、サーバ30は、計測部23に含まれるGPSモジュールによって計測された位置情報に基づいてカメラ22の位置を特定する。また、サーバ30は、画像IM10を解析することで得られる空間特徴量に基づいて、上記位置でのカメラ22の姿勢を特定する。サーバ30は、特定した位置および姿勢に基づいて、表示領域の位置および向きを決定する。表示領域の向きは、例えばロール角、ピッチ角、およびヨー角の組み合わせとして表現可能である。
サーバ30は、表示領域における視覚的コンテンツVC11の再生を開始するために再生側の実カメラ(つまり、カメラ62)の位置および姿勢が満たすべき条件(以下、「再生開始条件」という)を、前述のように特定したカメラ22の位置および姿勢に基づいて設定する。なお、表示領域が仮想空間に設置される場合には、実カメラの代わりに仮想カメラの仮想空間における位置および姿勢について再生開始条件の成立/不成立が判定されることになる。
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3-1)コンテンツデータベース
本実施形態のコンテンツデータベースについて説明する。図6は、本実施形態のコンテンツデータベースのデータ構造を示す図である。
コンテンツデータベースには、コンテンツ情報が格納される。コンテンツ情報は、サーバ30によって作成された視覚的コンテンツに関する情報である。
図6に示すように、コンテンツデータベースは、「コンテンツID」フィールドと、「コンテンツファイル」フィールドと、「位置」フィールドと、「向き」フィールドと、「サイズ」フィールドと、「再生開始条件」フィールドとを含む。各フィールドは、互いに関連付けられている。
「コンテンツID」フィールドには、コンテンツIDが格納される。コンテンツIDは、視覚的コンテンツを識別する情報である。
「コンテンツファイル」フィールドには、コンテンツファイル情報が格納される。コンテンツファイル情報は、視覚的コンテンツを再生するためのコンテンツファイルに関する情報である。一例として、コンテンツファイル情報は、コンテンツファイルにアクセスするためのアドレス情報であってもよいし、コンテンツファイルのデータであってもよい。
「位置」フィールドには、位置情報が格納される。位置情報は、視覚的コンテンツを再生するための表示領域の位置に関する情報である。位置情報は、例えば、現実空間または仮想空間における表示領域の設置位置を示す地理的座標情報であってよい。
「向き」フィールドには、向き情報が格納される。向き情報は、視覚的コンテンツを再生するための表示領域の向きに関する情報である。向き情報は、例えば、現実空間または仮想空間における表示領域の正面方向(つまり、表示領域の法線方向)を示す角度(例えば、ロール角、ヨー角、ピッチ角、またはそれらの組み合わせ)情報であってよい。
「サイズ」フィールドには、サイズ情報が格納される。サイズ情報は、視覚的コンテンツを再生するための表示領域のサイズに関する情報である。サイズ情報は、例えば、鉛直方向のサイズと水平方向のサイズとを示す情報であってよい。
「再生開始条件」フィールドには、再生開始条件情報が格納される。再生開始条件情報は、視覚的コンテンツの再生を開始するための条件(再生開始条件)に関する情報である。再生開始条件情報は、例えば、再生側の実カメラまたは仮想カメラが満たすべき位置および姿勢を定義する。一例として、再生開始条件情報は、再生側の実カメラまたは仮想カメラについて許容される位置情報の範囲を特定可能な情報と、再生側の実カメラまたは仮想カメラによって撮影された画像について許容される空間特徴量の範囲を特定可能な情報とを含むことができる。
(4)情報処理
本実施形態の情報処理について説明する。
(4-1)コンテンツ作成処理
本実施形態のコンテンツ作成処理について説明する。図7は、本実施形態のコンテンツ作成処理のフローチャートである。図8は、表示領域のサイズの決定方法の説明図である。図9は、表示領域のサイズの決定方法の説明図である。
本実施形態のコンテンツ作成処理は、例えば、ユーザが収録用端末10上でコンテンツ作成用のアプリケーションを起動し、例えば所定のオブジェクト(一例として、視覚的コンテンツの作成を開始するためのユーザ指示を受け付けるオブジェクト)を選択することで、開始し得る。
図7に示すように、サーバ30は、情報の取得(S130)を実行する。
具体的には、サーバ30は、収録用端末10から視覚的コンテンツの作成要求を受信する。サーバ30は、受信した作成要求に基づいて以下の情報を取得する。
・視覚的コンテンツの素材(少なくともカメラ22の撮影画像を含み、さらに、深度情報、または音声の少なくとも1つを含み得る)
・カメラ22の位置を特定可能な情報(例えば、カメラ22の位置情報、撮影画像、または撮影画像を解析することで得られる空間特徴量の少なくとも1つ)
・カメラ22の姿勢を特定可能な情報(例えば、撮影画像、または撮影画像を解析することで得られる空間特徴量の少なくとも1つ)
ステップS130の後に、サーバ30は、視覚的コンテンツの作成(S131)を実行する。
具体的には、サーバ30は、ステップS130において取得した素材に基づいて、視覚的コンテンツを作成する。
第1例として、サーバ30は、撮影画像から人物が写っている領域を抽出し、残りの領域(つまり背景部分)を破棄する。これにより、サーバ30は、人物以外の視覚要素を実質的に含まない画像(静止画または動画)を作成することができる。サーバ30は、かかる画像を2次元の視覚的コンテンツとして扱ってもよい。
なお第1のオプションとして、サーバ30は、抽出した領域の輪郭に沿って所定の色かつ太さの曲線または直線の少なくとも1つを付加することで、輪郭の凹凸をなめらかに見せることができる。第2のオプションとして、サーバ30は、抽出した領域の下部に影に相当するエフェクトを付加することで、視覚的コンテンツのリアリティを高めることができる。
第2例として、サーバ30は、第1例に示した2次元の視覚的コンテンツに対して深度情報を付加することで、3次元の視覚的コンテンツを作成する。
第3例として、サーバ30は、第1例に示した2次元の視覚的コンテンツ、または第2例に示した3次元の視覚的コンテンツに対して、音声を付加することで、音声付きの視覚的コンテンツを作成する。
ステップS131の後に、サーバ30は、表示領域のサイズの決定(S132)を実行する。
具体的には、サーバ30は、ステップS130において取得した情報に基づいて、ステップS131において作成した視覚的コンテンツが表示領域において再生された場合に当該視覚的コンテンツによって表現される人物のサイズが当該人物の実サイズを再現するように、表示領域のサイズを決定する。
一例として、サーバ30は、カメラ22による撮影画像と、カメラ22から人物の基準点までの距離に関する情報(一例として、当該撮影画像に対応する深度情報)と、カメラ22の内部パラメータとに基づいて、表示領域のサイズを決定する。カメラ22の内部パラメータは、ステップS130において取得されてもよいし、予め収録用端末10からサーバ30に通知されていてもよい。
以下、図8および図9を用いて、表示サイズの決定例について説明する。
サーバ30は、カメラ22から人物の基準点までの距離に関する情報に基づいて、カメラ22(例えばレンズ中心)から撮影画像に含まれる人物HMの基準点(例えば腰の部位)までの距離Dhを特定する。サーバ30は、この基準点の撮影画像平面IPにおける座標(画像座標)と、カメラ22の内部パラメータとに基づいて、カメラ座標系の原点からカメラ座標点(つまりカメラ座標系で表現した基準点の位置)に向かう方向(以下、「カメラ座標ベクトル」という)を計算する。サーバ30は、カメラ22の光軸に直交し、かつ人物HMの基準点を通る平面(以下、「対象平面」という)TPからカメラ22までの距離Dtを、距離Dhと、カメラ座標ベクトルとに基づいて計算する。なお、図9の例では、対象平面TPは、水平方向に対して直交するように描かれているが、水平方向に対して直交しなくてもよい。対象平面TPのうちカメラ22の撮影範囲に含まれる(つまり、カメラ22の画角に収められる)矩形領域の水平方向のサイズHtおよび垂直方向のサイズVtが、表示領域の目標サイズとなる。カメラ22の備えるイメージセンサの水平方向のサイズをHsとし、垂直方向のサイズをVsとし、カメラ22の焦点距離をfとすると、サーバ30は、表示領域のサイズを以下のように決定する。
Ht=Hs*Dt/f
Vt=Vs*Dt/f
ステップS132の後に、サーバ30は、表示領域の位置および向きの決定(S133)を実行する。
具体的には、サーバ30は、ステップS130において取得した情報に基づいて、表示領域の位置および向きを決定する。一例として、サーバ30は、カメラ座標系における前述の対象平面の位置および向きを、カメラ22の外部パラメータ(つまり、カメラ22の位置および姿勢)に基づいて世界座標系に変換することで、表示領域の位置および向きを決定する。
ステップS133の後に、サーバ30は、再生開始条件の設定(S134)を実行する。
具体的には、サーバ30は、ステップS130において取得した情報に基づいて、再生開始条件を設定する。第1例として、サーバ30は、世界座標系におけるカメラ22の位置(座標)に基づく所定の範囲を再生側の実カメラの位置が満たすべき条件として設定する。第2例として、サーバ30は、世界座標系におけるカメラ22の位置(座標)に対応する仮想空間の座標基づく所定の範囲を再生側の仮想カメラの位置が満たすべき条件として設定する。第3例として、サーバ30は、カメラ22の撮影画像を解析することで得られた空間特徴量に基づく所定の範囲を再生側の実カメラまたは仮想カメラの姿勢が満たすべき条件として設定する。
ステップS134の後に、サーバ30は、作成した視覚的コンテンツの各種情報をコンテンツデータベース(図6)に保存し、本実施形態のコンテンツ作成処理を終了する。
或いは、サーバ30は、ステップS131において作成した視覚的コンテンツに対応する誘導コンテンツをさらに作成してもよい。誘導コンテンツは、対応する視覚的コンテンツを視聴可能な場所を示す。サーバ30は、視覚的コンテンツ毎に異なる2次元または3次元の画像を備える誘導コンテンツを作成してもよいし、視覚的コンテンツ間で共通の2次元または3次元の画像を備える誘導コンテンツを作成してもよい。また、誘導コンテンツは、音声付きの画像であってもよい。
サーバ30は、誘導コンテンツの表示領域のサイズを、対応する視覚的コンテンツの表示領域のサイズと独立に決定してもよいし、対応する視覚的コンテンツの表示領域のサイズに基づいて決定してもよい。
サーバ30は、誘導コンテンツの表示領域の位置および向きを、対応する視覚的コンテンツの表示領域の位置および向きと同一に決定してもよい。
サーバ30は、誘導コンテンツの再生開始条件を、対応する視覚的コンテンツの再生開始条件に基づいて決定してもよい。例えば、サーバ30は、対応する視覚的コンテンツの再生を開始するために再生側の実カメラまたは仮想カメラの位置および姿勢が満たすべき範囲よりも広い範囲を、誘導コンテンツの再生開始条件として決定してもよい。或いは、サーバ30は、誘導コンテンツの再生を開始するために再生側の実カメラまたは仮想カメラの位置および姿勢の少なくとも1つが満たすべき条件を定めなくてもよい。
サーバ30は、作成した誘導コンテンツの各種情報をコンテンツデータベース(図6)に保存し、本実施形態のコンテンツ作成処理を終了する。
(4-2)コンテンツ再生処理
本実施形態のコンテンツ再生処理について説明する。図10は、本実施形態のコンテンツ再生処理のフローチャートである。図11は、本実施形態の情報処理において表示される画面例を示す図である。
本実施形態のコンテンツ再生処理は、例えば、ユーザが再生用端末50上でコンテンツ再生用のアプリケーション(コンテンツがWebベースで再生される場合にはWebブラウザを含み得る)を起動することで、開始し得る。コンテンツ再生用のアプリケーションが実行されている間、再生用端末50は、カメラ62によって撮影された画像を、ディスプレイ61に表示させる。なお、視覚的コンテンツを仮想空間上で再生する場合には、下記説明におけるカメラ62を仮想カメラとして適宜読み替えればよい。
図11に示すように、再生用端末50は、カメラの位置および姿勢の特定(S150)を実行する。
具体的には、再生用端末50は、カメラ62の位置および姿勢を特定する。例えば、再生用端末50は、計測部63に含まれるGPSモジュールから位置情報を取得し、当該位置情報に基づいてカメラ62の位置を特定する。また、再生用端末50は、カメラ62によって撮影された画像を解析して空間特徴量(カメラ62の姿勢を特定可能な情報の一例)を得ることで、当該カメラ62の姿勢を特定する。
ステップS150の後に、再生用端末50は、再生開始条件の判定(S151)を実行する。
具体的には、再生用端末50は、ステップS150において特定した位置および姿勢が、いずれかの視覚的コンテンツの再生開始条件を満たしているか否かを判定する。再生用端末50は、サーバ30から例えばコンテンツデータベース(図6)に登録されている再生開始条件情報を予め取得しておき、各条件について成立または不成立を判定してもよい。或いは、再生用端末50は、カメラ62の位置および姿勢を特定可能な情報をサーバ30へ送信し、当該サーバ30に判定を行わせてもよい。
ステップS151においていずれかの視覚的コンテンツに対応する再生開始条件が成立すると判定した場合に、再生用端末50は、視覚的コンテンツの再生(S152)を実行する。
具体的には、再生用端末50は、ユーザからの追加の操作を要することなく、成立すると判定された再生開始条件に対応する視覚的コンテンツの再生を自動的に開始する。一例として、再生用端末50は、成立すると判定された再生開始条件に対応する視覚的コンテンツのコンテンツファイルと、位置情報と、向き情報と、サイズ情報とをサーバ30から取得する。なお、これらの情報は予め取得することもできる。
再生用端末50は、位置情報、向き情報、サイズ情報、ならびにカメラ62の位置および姿勢に基づいて、当該カメラ62の撮影画像に、視覚的コンテンツを再生するための表示領域をどのように重畳するか(例えば、ディスプレイ61の画面上での表示領域の位置、向き、サイズ、および形状)を計算する。そして、再生用端末50は、撮影画像に重畳した表示領域において、視覚的コンテンツの再生を開始する。
なお、ステップS152において、再生を開始する対象となる視覚的コンテンツに対応する誘導コンテンツが再生中であった場合に、再生用端末50は、当該誘導コンテンツの再生を終了し、代わりに当該視覚的コンテンツの再生を開始してもよい。
一例として、図11に示すように、視覚的コンテンツVC11に対応する(例えば、視覚的コンテンツVC11を視聴可能な場所を示す)誘導コンテンツVC12について再生開始条件が成立する場合に、再生用端末50は画面SC20上で当該誘導コンテンツVC12の再生を開始する。再生用端末50のユーザが誘導コンテンツVC12に接近すると、視覚的コンテンツVC11について再生開始条件が成立する。この場合に、再生用端末50は、誘導コンテンツVC12の再生を終了し、再生用端末50は画面SC21上で視覚的コンテンツVC11の再生を開始する。これにより、ユーザは、どうすれば視覚的コンテンツVC11を再生できるかについて事前知識がなかったとしても、画面を見ながら直感的にカメラ62を移動させることで、視覚的コンテンツVC11を再生することができる。
ステップS152の後に、再生用端末50は、カメラの位置および姿勢の特定(S150)を再実行する。なお、再生用端末50は、ステップS150において、カメラの位置および姿勢の変化を検出した場合に、以下の処理の少なくとも1つを行うことができる。
・再生中の視覚的コンテンツの表示領域をカメラ62の撮影画像にどのように重畳するかの再決定(つまり、ディスプレイ61の画面上での表示領域の位置、向き、サイズ、または形状の少なくとも1つの変更)
・視覚的コンテンツの再生の中断、または終了(例えば、視覚的コンテンツの表示領域がカメラ62の撮影範囲に含まれなくなった場合)
ステップS151においていずれの視覚的コンテンツに対応する再生開始条件も成立しないと判定した場合に、再生用端末50は、カメラの位置および姿勢の特定(S150)を再実行してもよい。
(5)小括
以上説明したように、サーバ30は、カメラ22によって撮影された人物の画像と、当該人物の撮影時におけるカメラ22の位置および姿勢を特定可能な情報とを取得し、当該画像に基づく視覚的コンテンツを作成する。サーバ30は、作成した視覚的コンテンツを実空間または仮想空間において表示するための表示領域のサイズを、上記人物の画像と、人物とカメラ22との距離に関する情報と、カメラ22の内部パラメータとに基づいて決定し、表示領域の位置および向きを、当該画像の撮影時におけるカメラ22の位置および姿勢に基づいて決定する。このようにして作成された視覚的コンテンツを実空間または仮想空間において再生することで、当該コンテンツを視聴したユーザに、画像の被写体となった人物の存在をリアルに感じさせることができる。他方、作成側のユーザは、専門的な知識や複雑な加工を必要とすることなく、人物の動画を撮影するだけで容易にかかる視覚的コンテンツを作成することができる。要するに、本実施形態によれば、視覚的コンテンツの利用を促すことができる。
サーバ30は、表示領域において再生される視覚的コンテンツによって表現される上記人物のサイズ(特に身長)が、当該人物の実サイズを再現するように表示領域のサイズを決定してもよい。これにより、画像の被写体となった人物に対して等身大の視覚的コンテンツを再生できるので、当該コンテンツを視聴したユーザは、当該人物の存在をよりリアルに感じることができる。
サーバ30は、カメラ22から上記人物の基準点までの距離と、カメラ22の内部パラメータとに応じた表示領域のサイズを決定してもよい。具体的には、サーバ30は、カメラ22の光軸に直交し、かつ上記人物の基準点を通る平面と当該カメラ22との間の距離と、カメラ22の焦点距離との比率に応じた表示領域のサイズを決定してもよい。これにより、撮影時の人物を等身大で再現可能な表示領域のサイズを決定することができる。
サーバ30は、表示領域において視覚的コンテンツの作成を開始するためにカメラ62(または再生側の仮想カメラ)の位置および姿勢が満たすべき再生開始条件を、上記人物の画像の撮影時におけるカメラ22の位置および姿勢に基づいて設定してもよい。これにより、現実世界または仮想世界にトリガ等を設置することなく視覚的コンテンツを再生可能とすることができる。
サーバ30は、視覚的コンテンツの再生開始条件を満たすことのできる場所を可視化する誘導コンテンツを作成してもよい。サーバ30は、誘導コンテンツの再生を開始するためにカメラ62(または再生側の仮想カメラ)が満たすべき再生開始条件を、対応する視覚的コンテンツの再生開始条件に基づいて設定してもよい。これにより、再生側のユーザは、どうすれば視覚的コンテンツを再生できるかについて事前知識がなかったとしても、画面を見ながら直感的にカメラ62を移動させることで、視覚的コンテンツを再生することができる。
サーバ30は、人物の画像から当該人物が写っている領域を抽出し、抽出した領域の輪郭に沿って所定の色かつ太さの曲線または直線の少なくとも1つを付加することで、視覚的コンテンツを作成してもよい。これにより、輪郭の凹凸をなめらかに見せることができる。
サーバ30は、人物の画像から当該人物が写っている領域を抽出し、抽出した領域の下部に影に相当するエフェクトを付加することで、視覚的コンテンツを作成してもよい。これにより、視覚的コンテンツのリアリティを高めることができる。
本実施形態の再生用端末50は、カメラ62(または、再生用端末50上で実行されているアプリケーションによって生成されている仮想カメラ)の位置および姿勢を特定する。再生用端末50は、特定した位置および姿勢について、前述の視覚的コンテンツの再生開始条件が成立する場合に、カメラ62(または仮想カメラ)の撮影画像に前述の表示領域を重畳し、当該表示領域において当該視覚的コンテンツの再生を開始する。これにより、ユーザは、画像の被写体となった人物の存在をリアルに感じることができる。
再生用端末50は、前述の視覚的コンテンツの再生開始条件の成立の検知に応じて、ユーザからの追加の操作によらずに、当該視覚的コンテンツの再生を開始してもよい。これにより、ユーザは、ディスプレイ61を見ながら移動するだけで、視覚的コンテンツを視聴することができる。
再生用端末50は、カメラ62(または仮想カメラ)の位置および姿勢について、視覚的コンテンツの再生開始条件が成立せず、かつ誘導コンテンツの再生開始条件が成立する場合に、カメラ62(または仮想カメラ)の撮影画像に重畳して、当該視覚的コンテンツの再生開始条件を満たすことのできる場所を可視化する誘導コンテンツの再生を開始してもよい。これにより、ユーザは、視覚的コンテンツを視聴できる場所を直感的に理解することができる。
(6)その他の変形例
記憶装置11は、ネットワークNWを介して、収録用端末10と接続されてもよい。ディスプレイ21、カメラ22、または計測部23の少なくとも1つは、収録用端末10と一体化されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。記憶装置51は、ネットワークNWを介して、再生用端末50と接続されてもよい。ディスプレイ61、カメラ62、または計測部63の少なくとも1つは、再生用端末50と一体化されてもよい。
上記説明では、各処理において各ステップを特定の順序で実行する例を示したが、各ステップの実行順序は、依存関係がない限りは説明した例に制限されない。上記の処理の各ステップは、収録用端末10、サーバ30、および再生用端末50の何れでも実行可能である。例えば、再生開始条件の判定(S151)は、再生用端末50がサーバ30に行わせてもよい。また、本実施形態ではサーバ30がコンテンツ作成処理を実行する例を示したが、収録用端末10が、コンテンツ作成処理を実行し、実行結果をサーバ30にアップロードしてもよい。収録用端末10とサーバ30との間の処理の分担、またはサーバ30と再生用端末50との間の処理の分担は任意に定めることができる。
上記説明では、対象平面とカメラ22との間の距離と、カメラ22の焦点距離との間の比率に基づいて表示領域のサイズを計算する例を示した。しかしながら、サーバ30は、撮影画像と、カメラ22から人物の基準点までの距離に関する情報と、カメラ22の内部パラメータとに基づいて、人物の身体の部位間の位置の差を計算し、当該差に応じて表示領域のサイズを決定してもよい。つまり、サーバ30は、人物の身体の第1部位(例えば頭部)の位置(高さ)と、人物の身体の第2部位(例えば足)の位置(高さ)とをそれぞれ、撮影画像と、カメラ22から第1部位および第2部位までの距離に関する情報と、内部パラメータとに基づいて計算(推定)する。一例として、サーバ30は、撮影画像における第1部位および第2部位の座標を特定し、対応するカメラ座標ベクトルをそれぞれ計算する。さらに、サーバ30は、カメラ座標ベクトルと、カメラ22から第1部位および第2部位までの距離とに基づいて、両者の位置の差を計算する。これにより、人物の身長(部位間の高さの差)に応じた表示サイズを決定することができる。
上記説明では、再生用端末50が、視覚的コンテンツの位置情報、向き情報、サイズ情報、ならびにカメラ62の位置および姿勢に基づいて、当該カメラ62の撮影画像に、視覚的コンテンツを再生するための表示領域をどのように重畳するかを計算する例を示した。しかしながら、再生用端末50は、視覚的コンテンツの再生中に亘って、カメラ62(または仮想カメラ)の位置または姿勢にかかわらず、視覚的コンテンツが所定の方向(例えば正面)を向くように制御してもよい。これにより、カメラ62(または仮想カメラ)の位置または姿勢が多少ずれたとしてもユーザは所定の方向向きの視覚的コンテンツを視聴することができる。また、表示領域の向きの制御に関する演算量を抑えることができる。なお、カメラ62(または仮想カメラ)の位置または姿勢のずれが許容範囲を超えた場合(例えば、視覚的コンテンツの再生開始条件が成立しなくなった場合)に、再生用端末50は、視覚的コンテンツの再生を中断または終了してもよい。これにより、例えば撮影時に人物が視線、指、または手などを使って指し示した方向と、視覚的コンテンツで表現される人物が指し示す方向とが乖離し、ユーザに違和感を与えるのを防止することができる。
上記説明では、再生開始条件が成立すると判定された場合に、対応する視覚的コンテンツの再生が、ユーザからの追加の操作を要することなく、自動的に開始される例を示した。しかしながら、再生開始条件が成立し、かつユーザが所定の操作(例えばタップ操作)を行ったことを条件に、再生用端末50が、対応する視覚的コンテンツを再生してもよい。
上記説明では、計測部23が、GPSモジュールを備える例について説明した。しかしながら、計測部23は、GPSモジュールに加えて、またはGPSモジュールに代えて他の構成要素を備え得る。例えば、計測部23は、加速度センサ、地磁気センサ、またはジャイロセンサの少なくとも1つを含んでもよい。この場合に、かかるセンサからのセンシング信号に基づいてカメラ22の姿勢を特定し、または当該センシング信号と画像の空間特徴量との組み合わせに基づいてカメラ22の姿勢を特定することができる。或いは、VPS(Visual Positioning Service/System)のように、画像の空間特徴量のみに基づいてカメラ22の位置または姿勢を特定することもできる。この場合に、計測部23は省略可能である。
同様に、計測部63が、GPSモジュールを備える例について説明した。しかしながら、計測部63は、GPSモジュールに加えて、またはGPSモジュールに代えて他の構成要素を備え得る。例えば、計測部63は、加速度センサ、地磁気センサ、またはジャイロセンサの少なくとも1つを含んでもよい。この場合に、かかるセンサからのセンシング信号に基づいてカメラ62の姿勢を特定し、または当該センシング信号と画像の空間特徴量との組み合わせに基づいてカメラ62の姿勢を特定することができる。或いは、VPSのように、画像の空間特徴量のみに基づいてカメラ62の位置または姿勢を特定することもできる。この場合に、計測部63は省略可能である。
上記説明では、視覚的コンテンツの再生を開始するために再生側のカメラの位置および姿勢が満たすべき再生開始条件を、収録側のカメラの位置および姿勢に基づいて設定する例を示した。しかしながら、再生開始条件は、この例に限られず、例えば現実世界または仮想世界に設置されたトリガを設定されてもよい。トリガは、例えば、商品または展示物等の物体であってもよいし、QRコード(登録商標)などのコードであってもよい。トリガが物体である場合に撮影画像から当該物体が物体認識モデルにより認識されることが再生開始条件として定められてよいし、トリガがコードである場合に撮影画像に基づいて当該コードの情報が復号されることが再生開始条件として定められてよい。また、同一の視覚的コンテンツについて、複数種類の再生開始条件が設定され、いずれかの再生開始条件が成立した場合に当該視覚的コンテンツの再生が開始されてもよい。
上記説明では、視覚的コンテンツを再生する例を示した。しかしながら、視覚的コンテンツは様々な補助情報と組み合わせてユーザに提示されてよい。第1例として、視覚的コンテンツには、特定のWebページ(例えば、特定のEC(Electronic Commerce)サイトのトップページもしくは特定の商品が掲載されたページ、または展示物の詳細情報が掲載された解説用のWebページ)のリンクが埋め込まれていてもよい。ユーザが視覚的コンテンツを選択(例えばタップ操作等)した場合に、再生用端末50は、自動的に、またはユーザの承認を条件に、リンク先のWebページを表示してもよい。第2例として、視覚的コンテンツとともに、または視覚的コンテンツの再生終了後に、特定のWebページにアクセスするためのリンク情報を表示するオブジェクトが画面に配置されてもよい。ユーザがこのオブジェクトを選択(例えばタップ操作等)した場合に、再生用端末50は、自動的に、またはユーザの承認を条件に、リンク先のWebページを表示してもよい。第3例として、視覚的コンテンツとともに、または視覚的コンテンツの再生終了後に、特定のECサイトにおいて特定の商品の購入に関する操作を受け付けるオブジェクトが画面に配置されてもよい。ユーザがこのオブジェクトを選択(例えばタップ操作等)した場合に、再生用端末50は、自動的に、またはユーザの承認を条件に、特定の商品の購入に関する要求(例えば、ユーザアカウントに紐付けられるカートに特定の商品を追加する要求、または特定の商品の決済画面を開く要求)を特定のECサイトのサーバへ送信してもよい。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :情報処理システム
10 :収録用端末
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
21 :ディスプレイ
22 :カメラ
23 :計測部
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :再生用端末
51 :記憶装置
52 :プロセッサ
53 :入出力インタフェース
54 :通信インタフェース
61 :ディスプレイ
62 :カメラ
63 :計測部

Claims (10)

  1. 第1コンピュータを、
    第1カメラによって撮影された人物の画像と、当該人物の撮影時における前記第1カメラの位置および姿勢を特定可能な情報とを取得する手段、
    前記人物の画像に基づく第1視覚的コンテンツを作成する手段、
    実空間または仮想空間において前記第1視覚的コンテンツを表示するための表示領域のサイズを、前記人物の画像と、前記第1カメラの内部パラメータと、前記第1カメラと前記人物との間の距離に関する情報とに基づいて決定する手段、
    前記表示領域の位置および向きを、前記第1カメラの位置および姿勢に基づいて決定する手段、
    として機能させ、
    前記表示領域のサイズを決定する手段は、前記第1カメラから前記人物の基準点までの距離と、前記第1カメラの内部パラメータとに応じた前記表示領域のサイズを決定する、
    コンテンツ作成プログラム。
  2. 前記表示領域のサイズを決定する手段は、前記第1カメラの光軸に直交し、かつ前記人物の基準点を通る平面と前記第1カメラとの間の距離と、前記第1カメラの焦点距離との比率に応じた前記表示領域のサイズを決定する、
    請求項1に記載のコンテンツ作成プログラム。
  3. 第1コンピュータを、
    第1カメラによって撮影された人物の画像と、当該人物の撮影時における前記第1カメラの位置および姿勢を特定可能な情報とを取得する手段、
    前記人物の画像に基づく第1視覚的コンテンツを作成する手段、
    実空間または仮想空間において前記第1視覚的コンテンツを表示するための表示領域のサイズを、前記人物の画像と、前記第1カメラの内部パラメータと、前記第1カメラと前記人物との間の距離に関する情報とに基づいて決定する手段、
    前記表示領域の位置および向きを、前記第1カメラの位置および姿勢に基づいて決定する手段、
    前記表示領域において前記第1視覚的コンテンツの再生を開始するために再生側の実カメラまたは仮想カメラの位置および姿勢が満たすべき第1条件を、前記人物の撮影時における前記第1カメラの位置および姿勢に基づいて設定する手段、
    として機能させる、コンテンツ作成プログラム。
  4. 前記第1コンピュータを、
    前記第1条件を満たすことのできる場所を可視化する第2視覚的コンテンツを作成する手段、
    前記第2視覚的コンテンツの再生を開始するために前記再生側の実カメラまたは仮想カメラの位置および姿勢が満たすべき第2条件を、前記第1条件に基づいて設定する手段、
    として機能させる、請求項3に記載のコンテンツ作成プログラム。
  5. 請求項3に記載のコンテンツ作成プログラムによって作成された視覚的コンテンツを表示可能なコンテンツ再生プログラムであって、
    第2コンピュータを、
    実カメラまたは仮想カメラである第2カメラの位置および姿勢を特定する手段、
    前記第2カメラの位置および姿勢について前記第1条件が成立する場合に、前記第2カメラの撮影画像に前記表示領域を重畳し、当該表示領域において前記第1視覚的コンテンツの再生を開始する手段、
    として機能させるコンテンツ再生プログラム。
  6. 前記第1視覚的コンテンツの再生を開始する手段は、前記第1条件の成立の検知に応じて、前記第2コンピュータのユーザからの追加の操作によらずに、前記第1視覚的コンテンツの再生を開始する、
    請求項5に記載のコンテンツ再生プログラム。
  7. 前記第2コンピュータを、前記第2カメラの位置および姿勢について前記第1条件が成立せず、かつ第2条件が成立する場合に、前記第2カメラの撮影画像に重畳して、前記第1条件を満たすことのできる場所を可視化する第2視覚的コンテンツの再生を開始する手段、として機能させる、
    請求項5に記載のコンテンツ再生プログラム。
  8. 第1カメラによって撮影された人物の画像と、当該人物の撮影時における前記第1カメラの位置および姿勢を特定可能な情報とを取得する手段と、
    前記人物の画像に基づく視覚的コンテンツを作成する手段と、
    実空間または仮想空間において前記視覚的コンテンツを表示するための表示領域のサイズを、前記人物の画像と、前記第1カメラの内部パラメータと、前記第1カメラと前記人物との間の距離に関する情報とに基づいて決定する手段と、
    前記表示領域の位置および向きを、前記第1カメラの位置および姿勢に基づいて決定する手段と、
    を具備し、
    前記表示領域のサイズを決定する手段は、前記第1カメラから前記人物の基準点までの距離と、前記第1カメラの内部パラメータとに応じた前記表示領域のサイズを決定する、
    情報処理装置。
  9. 第1カメラによって撮影された人物の画像と、当該人物の撮影時における前記第1カメラの位置および姿勢を特定可能な情報とを取得する手段と、
    前記人物の画像に基づく第1視覚的コンテンツを作成する手段と、
    実空間または仮想空間において前記第1視覚的コンテンツを表示するための表示領域のサイズを、前記人物の画像と、前記第1カメラの内部パラメータと、前記第1カメラと前記人物との間の距離に関する情報とに基づいて決定する手段と、
    前記表示領域の位置および向きを、前記第1カメラの位置および姿勢に基づいて決定する手段と、
    前記表示領域において前記第1視覚的コンテンツの再生を開始するために再生側の実カメラまたは仮想カメラの位置および姿勢が満たすべき第1条件を、前記人物の撮影時における前記第1カメラの位置および姿勢に基づいて設定する手段と、
    を具備する、情報処理装置。
  10. コンピュータが、
    第1カメラによって撮影された人物の画像と、当該人物の撮影時における前記第1カメラの位置および姿勢を特定可能な情報とを取得するステップと、
    前記人物の画像に基づく視覚的コンテンツを作成するステップと、
    実空間または仮想空間において前記視覚的コンテンツを表示するための表示領域のサイズを、前記人物の画像と、前記第1カメラの内部パラメータと、前記第1カメラと前記人物との間の距離に関する情報とに基づいて決定するステップと、
    前記表示領域の位置および向きを、前記第1カメラの位置および姿勢に基づいて決定するステップと、
    を実行し、
    前記表示領域のサイズを決定するステップにおいて、前記コンピュータは、前記第1カメラから前記人物の基準点までの距離と、前記第1カメラの内部パラメータとに応じた前記表示領域のサイズを決定する、
    方法。
JP2022128569A 2022-08-12 2022-08-12 情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム Active JP7296164B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022128569A JP7296164B1 (ja) 2022-08-12 2022-08-12 情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム
JP2023023986A JP2024025633A (ja) 2022-08-12 2023-02-20 情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラム
PCT/JP2023/021282 WO2024034248A1 (ja) 2022-08-12 2023-06-08 情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022128569A JP7296164B1 (ja) 2022-08-12 2022-08-12 情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023023986A Division JP2024025633A (ja) 2022-08-12 2023-02-20 情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラム

Publications (2)

Publication Number Publication Date
JP7296164B1 true JP7296164B1 (ja) 2023-06-22
JP2024025261A JP2024025261A (ja) 2024-02-26

Family

ID=86772796

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022128569A Active JP7296164B1 (ja) 2022-08-12 2022-08-12 情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム
JP2023023986A Pending JP2024025633A (ja) 2022-08-12 2023-02-20 情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023023986A Pending JP2024025633A (ja) 2022-08-12 2023-02-20 情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラム

Country Status (2)

Country Link
JP (2) JP7296164B1 (ja)
WO (1) WO2024034248A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252523A (ja) * 1998-03-05 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想空間画像の生成装置および仮想空間システム
JP2003263631A (ja) * 2002-03-07 2003-09-19 Seiko Epson Corp 画像合成方法、画像合成装置及び画像合成プログラム
JP2004297274A (ja) * 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd 人物画像処理方法及び装置並びにシステム
JP2006339696A (ja) * 2005-05-31 2006-12-14 Ims:Kk 写真シール払出装置及びその画像処理方法
JP2009246799A (ja) * 2008-03-31 2009-10-22 Secom Co Ltd 画像監視装置
JP2011128643A (ja) * 2011-02-04 2011-06-30 Casio Computer Co Ltd 撮像装置、自動焦点調整方法、およびプログラム
JP2018084890A (ja) * 2016-11-22 2018-05-31 サイジニア株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252523A (ja) * 1998-03-05 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想空間画像の生成装置および仮想空間システム
JP2003263631A (ja) * 2002-03-07 2003-09-19 Seiko Epson Corp 画像合成方法、画像合成装置及び画像合成プログラム
JP2004297274A (ja) * 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd 人物画像処理方法及び装置並びにシステム
JP2006339696A (ja) * 2005-05-31 2006-12-14 Ims:Kk 写真シール払出装置及びその画像処理方法
JP2009246799A (ja) * 2008-03-31 2009-10-22 Secom Co Ltd 画像監視装置
JP2011128643A (ja) * 2011-02-04 2011-06-30 Casio Computer Co Ltd 撮像装置、自動焦点調整方法、およびプログラム
JP2018084890A (ja) * 2016-11-22 2018-05-31 サイジニア株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2024025633A (ja) 2024-02-26
JP2024025261A (ja) 2024-02-26
WO2024034248A1 (ja) 2024-02-15

Similar Documents

Publication Publication Date Title
US10893219B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
JP4878083B2 (ja) 画像合成装置及び方法、プログラム
US9728011B2 (en) System and method for implementing augmented reality via three-dimensional painting
US9392248B2 (en) Dynamic POV composite 3D video system
CN110892364A (zh) 扩展现实虚拟助手
WO2015122108A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11042730B2 (en) Method, apparatus and device for determining an object, and storage medium for the same
JP2017505933A (ja) 実在の物体上に固定された仮想画像を生成する方法及びシステム
WO2010038693A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP6523493B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP6656382B2 (ja) マルチメディア情報を処理する方法及び装置
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
CN108431871A (zh) 在三维模型上显示对象的方法
JP7296164B1 (ja) 情報処理装置、方法、コンテンツ作成プログラム、およびコンテンツ再生プログラム
CN113194329B (zh) 直播互动方法、装置、终端及存储介质
US11474677B2 (en) Assisting users in visualizing dimensions of a product
JP7445348B1 (ja) 情報処理装置、方法、プログラム、およびシステム
JP2017123006A (ja) 携帯情報端末及びプログラム
KR102635477B1 (ko) 증강현실 기반의 공연 콘텐츠 제공장치 및 방법
JP7439042B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5066047B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US10866688B2 (en) Augmented reality tour guide
JP2019512173A (ja) マルチメディア情報を表示する方法及び装置
CN117274548A (zh) 一种基于ar眼镜的虚拟方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7296164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150