JP2018077644A - 情報処理システム及びプログラム - Google Patents

情報処理システム及びプログラム Download PDF

Info

Publication number
JP2018077644A
JP2018077644A JP2016218417A JP2016218417A JP2018077644A JP 2018077644 A JP2018077644 A JP 2018077644A JP 2016218417 A JP2016218417 A JP 2016218417A JP 2016218417 A JP2016218417 A JP 2016218417A JP 2018077644 A JP2018077644 A JP 2018077644A
Authority
JP
Japan
Prior art keywords
image data
virtual image
attribute
unit
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016218417A
Other languages
English (en)
Inventor
山内 昭人
Akito Yamauchi
昭人 山内
嘉彦 根本
Yoshihiko Nemoto
嘉彦 根本
努 木村
Tsutomu Kimura
努 木村
佐藤 雅弘
Masahiro Sato
雅弘 佐藤
賢吾 得地
Kengo Tokuchi
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016218417A priority Critical patent/JP2018077644A/ja
Priority to US15/486,610 priority patent/US10593114B2/en
Priority to CN201710432607.0A priority patent/CN108062158A/zh
Publication of JP2018077644A publication Critical patent/JP2018077644A/ja
Priority to US16/782,208 priority patent/US11430188B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Abstract

【課題】現実空間に存在する対象物の情報に対して処理を行う場合に、対象物の属性を取得しない構成と比較して、臨場感のある演出を行う。【解決手段】操作端末100は、現実空間に存在する対象物の撮像情報から対象物の属性を取得する領域属性認識部113と、領域属性認識部113により取得された属性に対応する仮想の画像であって、対象物の画像に合成される画像を特定する仮想画像取得部115とを備える。【選択図】図3

Description

本発明は、情報処理システム及びプログラムに関する。
例えば、特許文献1には、ネットワーク上において、バーチャル構成物と当該バーチャル構成物を構成するパーツ等を閲覧し、選択可能とする閲覧選択手段と、前記バーチャル構成物とバーチャル構成物を構成するパーツ等を合成若しくは組み合わせることにより変化するバーチャル構成物の形態、性能、特徴等を確認することが可能な確認手段を有しているとともに、前記ネットワークに接続された販売装置または他の端末装置を介して前記バーチャル構成物、若しくはバーチャル構成物を構成するパーツ等に関する電子データをユーザに対して提供するデータ提供手段を有している販売提供システムが開示されている。
特開2002−169980号公報
従来、例えば、現実空間に情報を付加して現実世界を拡張する拡張現実(AR(Augmented Reality))のように、現実空間の情報と仮想空間の情報とを合成したり、現実空間の情報を仮想空間の情報として取り込んだりする場合がある。このような場合に、現実空間の情報と仮想空間の情報との関連性が高ければ、臨場感のある演出を行うことができる。
本発明の目的は、現実空間に存在する対象物の情報に対して処理を行う場合に、対象物の属性を取得しない構成と比較して、臨場感のある演出を行うことにある。
請求項1に記載の発明は、現実空間に存在する対象物の撮像情報から当該対象物の属性を取得する属性情報取得手段と、前記属性情報取得手段により取得された属性に対応する仮想の画像であって、前記対象物の画像に合成される画像を特定する特定手段とを備える情報処理システムである。
請求項2に記載の発明は、前記特定手段により特定される画像と前記対象物の画像とを合成した合成画像を表示する表示手段をさらに備えることを特徴とする請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記対象物が存在している現実空間の場所の属性と仮想の画像とを対応付けた対応関係を記憶する記憶手段をさらに備え、前記特定手段は、前記対象物の画像に合成される画像として、前記対応関係において、前記属性情報取得手段により取得された属性に対応付けられた仮想の画像を特定することを特徴とする請求項1又は2に記載の情報処理システムである。
請求項4に記載の発明は、現実空間に存在する対象物の撮像情報から、当該対象物に相当する仮想画像を特定する特定手段と、前記対象物の性能を示す性能情報を取得する性能情報取得手段と、取得した前記性能情報と前記対象物に相当する仮想画像とを関連付けて仮想空間に取り込む取込手段とを備える情報処理システムである。
請求項5に記載の発明は、現実空間に存在する対象物が発する音から、当該対象物に相当する仮想画像を特定する特定手段と、前記対象物の性能を示す性能情報を取得する性能情報取得手段と、取得した前記性能情報と前記対象物に相当する仮想画像とを関連付けて仮想空間に取り込む取込手段とを備える情報処理システムである。
請求項6に記載の発明は、現実空間を撮像して得られた画像を取得する画像取得手段と、前記画像取得手段により取得された画像に対して予め定められた画像を合成する場合に、当該予め定められた画像の属性に基づいて、当該予め定められた画像を合成する位置を特定する位置特定手段とを備える情報処理システムである。
請求項1記載の発明によれば、現実空間に存在する対象物の情報に対して処理を行う場合に、対象物の属性を取得しない構成と比較して、臨場感のある演出を行うことができる。
請求項2記載の発明によれば、対象物の画像に対して他の画像を合成する場合に、ユーザが合成結果を確認できるようになる。
請求項3記載の発明によれば、現実空間に存在する対象物の情報に対して処理を行う場合に、対象物が存在している現実空間の場所の属性を取得しない構成と比較して、臨場感のある演出を行うことができる。
請求項4記載の発明によれば、現実空間に存在する対象物の情報に対して処理を行う場合に、対象物に相当する仮想画像を特定しない構成と比較して、臨場感のある演出を行うことができる。
請求項5記載の発明によれば、現実空間に存在する対象物の情報に対して処理を行う場合に、対象物に相当する仮想画像を特定しない構成と比較して、臨場感のある演出を行うことができる。
請求項6記載の発明によれば、現実空間を撮像して得られた画像に対して他の画像を合成する場合に、他の画像の属性を考慮しない構成と比較して、臨場感のある演出を行うことができる。
本実施の形態に係る情報処理システムの全体構成例を示した図である。 本実施の形態に係る操作端末のハードウェア構成例を示す図である。 実施の形態1に係る操作端末の機能構成例を示したブロック図である。 実施の形態1に係る仮想画像DBの一例を示す図である。 実施の形態1に係る操作端末による処理の手順の一例を示したフローチャートである。 (a)〜(c)は、実施の形態1に係る操作端末による一連の処理の流れの一例を説明するための図である。 実施の形態1に係る操作端末による処理の他の例の手順を示したフローチャートである。 実施の形態2に係る操作端末の機能構成例を示したブロック図である。 実施の形態2に係る仮想画像DBの一例を示す図である。 実施の形態2に係る操作端末による処理の手順の一例を示したフローチャートである。 (a),(b)は、実施の形態2に係る操作端末による一連の処理の流れの一例を説明するための図である。 実施の形態3に係る操作端末の機能構成例を示したブロック図である。 実施の形態3に係る仮想画像DBの一例を示す図である。 実施の形態3に係る操作端末による処理の手順の一例を示したフローチャートである。 (a),(b)は、実施の形態3に係る操作端末による一連の処理の流れの一例を説明するための図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<システム構成>
まず、本実施の形態に係る情報処理システム1の全体構成について説明する。図1は、本実施の形態に係る情報処理システム1の全体構成例を示した図である。図示するように、この情報処理システム1は、操作端末100と管理サーバ200とがネットワーク300を介して接続されることにより構成されている。
操作端末100は、所謂AR機能を備えたコンピュータ装置である。操作端末100としては、例えば、携帯ゲーム機や、携帯情報端末(いわゆる、スマートフォンやタブレット端末等)、PC(Personal Computer)などを例示することができる。また、操作端末100として、例えば、眼鏡型などのウェアラブルコンピュータを用いても良い。この操作端末100は、ユーザの操作を基にアプリケーション等の各種プログラムを実行し、現実空間の情報に仮想空間の情報を追加したり、現実空間の情報を仮想空間に取り込んだりする処理を行う。ここで、現実空間とは、実空間として現実に存在する空間である。また、仮想空間とは、実際の空間としては存在しないが、操作端末100上で表示、操作可能な仮想的な空間である。
管理サーバ200は、操作端末100に対して各種の情報を提供するコンピュータ装置である。管理サーバ200としては、例えば、PC、ワークステーション等が例示される。この管理サーバ200は、操作端末100に対して、例えば、仮想空間にて使用される各種データを提供する。
ネットワーク300は、操作端末100と管理サーバ200との間の情報通信に用いられる通信手段であり、例えば、インターネット、公衆回線、LAN(Local Area Network)等である。
<操作端末のハードウェア構成>
次に、本実施の形態に係る操作端末100のハードウェア構成について説明する。図2は、本実施の形態に係る操作端末100のハードウェア構成例を示す図である。
図示するように、操作端末100は、演算手段であるCPU(Central Processing Unit)101と、記憶手段であるメインメモリ102及び磁気ディスク装置103とを備える。ここで、CPU101は、OS(Operating System)やアプリケーション等の各種プログラムを実行し、操作端末100の各種機能を実現する。また、メインメモリ102は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域である。さらに、磁気ディスク装置103は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
また、操作端末100は、外部との通信を行うためのインタフェースである通信部104と、ビデオメモリやディスプレイ等を含み、画面を表示する表示部105と、ユーザによって操作可能な入力装置である操作部106とを備える。ここで、操作部106はどのような入力装置であっても良いが、例えば、操作ボタン、キーボード、マウス等を例示することができる。また、画面を表示してユーザからの操作を受け付けるタッチパネル等により、表示部105と操作部106とが一体に構成されてもよい。さらに、操作端末100は、被写体を撮像して静止画又は動画の画像データを得るカメラ等の撮像部107と、外部の音を検知するマイク等の音検知部108とを備える。
なお、図2は、本実施の形態が適用されるのに好適な操作端末100のハードウェア構成を例示するに過ぎず、図示の構成においてのみ本実施の形態が実現されるのではない。
[実施の形態1]
<操作端末の機能構成>
次に、実施の形態1に係る操作端末100の機能構成について説明する。実施の形態1において、操作端末100は、ユーザの操作により撮像部107にて現実空間で撮影された画像の画像データ(以下、現実空間で撮影した画像の画像データを「現実画像データ」と称する)を取得する。また、操作端末100は、取得した現実画像データを、それぞれのオブジェクト(対象物)の領域に分割する。さらに、操作端末100は、分割した領域が有する属性(即ち、オブジェクトの属性)を特定する。そして、操作端末100は、分割した領域に対して、その領域の属性に対応する仮想空間の画像の画像データ(以下、仮想空間の画像の画像データを「仮想画像データ」と称する)を合成する。
図3は、実施の形態1に係る操作端末100の機能構成例を示したブロック図である。本実施の形態に係る操作端末100は、現実画像取得部111、領域分割部112、領域属性認識部113、仮想画像格納部114、仮想画像取得部115、合成部116を備える。
現実画像取得部111は、撮像部107によって現実空間を撮影(撮像)して得られた画像の画像データである現実画像データを取得する。
領域分割部112は、現実画像取得部111が取得した現実画像データから抽出される特徴量に基づき、現実画像データをそれぞれのオブジェクトの領域に分割する。この領域分割には、既存の技術を利用でき、例えば、既存の領域分割アルゴリズム(領域拡張法、グラフカット法など)を利用する。また、特徴量としては、例えば、画像内の各画素の画素値(輝度、色情報など)、画像の周波数(空間周波数)等が用いられる。
領域属性認識部113は、領域分割部112にて分割された各領域の属性を認識する。この属性の認識にも、既存の技術を利用できる。
例えば、領域属性認識部113は、領域分割部112にて分割された領域の特徴量と、各属性にて予め定められた基準特徴量とを比較する。そして、分割された領域の特徴量に最も近い基準特徴量の属性を、その領域の属性として認識する。
また、例えば、領域属性認識部113は、機械学習により、各属性の画像のパターンや判別ルールを抽出することによって、各領域の属性を認識しても良い。この場合、例えば、ユーザは、学習用の画像として、各属性の画像を複数用意する。そして、領域属性認識部113は、用意された学習用の画像から特徴量を抽出し、抽出した特徴量とその画像の属性とを対応付けて学習を行う。このような学習を行うことにより、領域属性認識部113は、分割された領域の特徴量に最も近い特徴量の属性を、その領域の属性として認識する。
仮想画像格納部114は、仮想空間で用いられる画像データである仮想画像データが定められたデータベース(以下、仮想画像DBと称する)を格納する。この仮想画像DBは、対応関係の一例であり、仮想画像データのそれぞれには属性が対応付けられている。この属性は、仮想画像データの示すオブジェクトが存在している現実空間の場所を表すものである。より具体的には、例えば、「鳥」の仮想画像データは、「鳥」が現実空間で存在する場所である「空」の属性に対応付けられている。また、例えば、「鹿」の仮想画像データは、「鹿」が現実空間で存在する場所である「山」の属性に対応付けられている。
仮想画像取得部115は、現実画像データに合成する画像データとして、仮想画像格納部114から仮想画像データを取得する。ここで、仮想画像取得部115は、まず、予め定められた条件に従って、領域分割部112にて分割された現実画像データ内の領域(オブジェクト)のうち、1又は複数の領域を選択する。そして、仮想画像取得部115は、選択した1又は複数の領域について、それぞれの領域の属性に対応する仮想画像データを仮想画像格納部114から取得する。
なお、予め定められた条件としては、例えば、事前に付与された属性の優先度や順番に従って1又は複数の領域を選択したり、ランダム(無作為)に1又は複数の領域を選択したりすること等が挙げられる。
合成部116は、現実画像データ内の領域に対して、その領域の属性に対応する仮想画像データを合成する。そして、合成部116は、合成して得られる画像データ(以下、合成画像データと称する)を、表示部105の画面に表示する制御を行う。
本実施の形態では、画像取得手段の一例として、現実画像取得部111が用いられる。属性情報手段の一例として、領域属性認識部113が用いられる。特定手段の一例として、仮想画像取得部115が用いられる。表示手段の一例として、合成部116、表示部105が用いられる。記憶手段の一例として、仮想画像格納部114が用いられる。
なお、図3に示す操作端末100を構成する各機能部は、ソフトウェアとハードウェア資源とが協働することにより実現される。具体的には、操作端末100を図2に示したハードウェア構成にて実現した場合、例えば、磁気ディスク装置103に格納されているOSのプログラムやアプリケーション・プログラムが、メインメモリ102に読み込まれてCPU101に実行されることにより、現実画像取得部111、領域分割部112、領域属性認識部113、仮想画像取得部115、合成部116等の各機能が実現される。また、仮想画像格納部114は、磁気ディスク装置103等の記憶手段により実現される。
<仮想画像DBの説明>
次に、仮想画像DBについて説明する。図4は、実施の形態1に係る仮想画像DBの一例を示す図である。
「属性」は、仮想画像データに対して予め対応付けられている属性を示す。例えば、「空」の属性に対応付けられている仮想画像データとして、「鳥」が示されている。また、例えば、「山」の属性に対応付けられている仮想画像データとして、「鹿」が示されている。また、各属性に対応付けられる仮想画像データは複数であっても良い。図示の例では、「海」の属性に対応付けられている仮想画像データとして、「魚」、「鯨」が示されている。
<操作端末の処理手順>
次に、本実施の形態に係る操作端末100による処理の手順について説明する。図5は、実施の形態1に係る操作端末100による処理の手順の一例を示したフローチャートである。
まず、ユーザが操作端末100を操作し、撮像部107によって被写体を撮影すると、現実画像取得部111は、撮像部107の撮影により得られた現実画像データを取得する(ステップ101)。次に、領域分割部112は、現実画像データから抽出される特徴量に基づき、現実画像データに対して領域分割を実行する(ステップ102)。次に、領域属性認識部113は、領域分割部112にて分割された各領域(各オブジェクト)の属性を認識する(ステップ103)。
次に、仮想画像取得部115は、予め定められた条件に従って、分割された現実画像データ内の領域のうち、1又は複数の領域を選択する(ステップ104)。次に、仮想画像取得部115は、選択した1又は複数の領域について、それぞれの領域の属性に対応する仮想画像データを、仮想画像格納部114から取得する(ステップ105)。次に、合成部116は、選択された1又は複数の領域のそれぞれに対して、仮想画像格納部114が取得した仮想画像データを合成して、合成画像データを生成する(ステップ106)。次に、合成部116は、合成画像データを表示部105の画面に表示する(ステップ107)。そして、本処理フローは終了する。
より具体的には、例えば、ステップ104において、仮想画像取得部115により「空」の画像と「山」の画像とが選択される。また、ステップ105において、それぞれの領域の属性に対応する仮想画像データとして、「鳥」の仮想画像データと「鹿」の仮想画像データとが取得される。この場合、ステップ106において、合成部116は、「空」の画像に対して「鳥」の仮想画像データを合成し、「山」の画像に対して「鹿」の仮想画像データを合成して、合成画像データを生成する。
ここで、ユーザが撮像部107によって動画を撮影する場合について特に説明する。動画の撮影では、ユーザが撮影する被写体が時間とともに変化する。そのため、図5に示す処理フローは、例えば、1フレームの時間(例えば60fpsの場合、約17msec)毎に繰り返し実行される。その際、ステップ104では、1度取得した領域と同一の領域(又は、1度取得した領域が含まれる領域)を繰り返し取得して、ステップ105でも、1度取得した仮想画像データと同一の仮想画像データを繰り返し取得することにより、動画に対して仮想画像データが連続して合成されることになる。
<操作端末による一連の処理>
次に、本実施の形態に係る操作端末100による一連の処理の流れについて説明する。図6(a)〜(c)は、実施の形態1に係る操作端末100による一連の処理の流れの一例を説明するための図である。
まず、図6(a)は、撮像部107の撮影により得られた現実画像データ11Aの一例を示す図である。ここでは、例えば、ユーザが操作端末100を操作して、撮像部107により被写体の撮影を行う。その結果、現実画像取得部111は、撮像部107の撮影により得られた画像データとして、図6(a)に示す現実画像データ11Aを取得する。図示の現実画像データ11Aは、ユーザが「空」と「山」とを撮影したものであり、「空」の画像である画像データ11Bと、「山」の画像である画像データ11Cとを含んでいる。
現実画像取得部111が現実画像データ11Aを取得すると、領域分割部112は、現実画像データ11Aから抽出される特徴量に基づき、現実画像データ11Aに対して領域分割を行う。ここで、領域分割部112は、現実画像データ11Aを、画像データ11Bと画像データ11Cとに分割する。次に、領域属性認識部113は、分割された画像データ11Bと画像データ11Cとの属性を認識する。より具体的には、領域属性認識部113は、例えば、画像データ11Bの特徴量と、各属性にて予め定められた基準特徴量とを比較して、画像データ11Bの属性を認識する。ここでは、画像データ11Bの属性は、「空」の属性として認識される。また、画像データ11Cの属性は、「山」の属性として認識される。
次に、仮想画像取得部115は、予め定められた条件に従って、領域分割部112にて分割された現実画像データ内の領域のうち、1又は複数の領域を選択する。図示の例では、「空」の属性を有する領域である画像データ11Bを選択したものとする。次に、仮想画像取得部115は、仮想画像格納部114から、「空」の属性に対応付けられた「鳥」の仮想画像データを取得する。次に、合成部116は、「空」の属性を有する画像データ11Bに対して、「鳥」の仮想画像データを合成し、合成画像データを生成する。
図6(b)は、合成画像データ11Dの一例を示す図である。図示の合成画像データ11Dでは、上述したように、「空」の属性を有する画像データ11Bに対して、「鳥」の仮想画像データ11Eが合成されている。
ここで、例えば、現実画像データ内の領域の属性を把握することなく、例えばGPS(Global Positioning System)などから取得可能な現実空間の位置情報を基に仮想画像データを合成することも考えられる。現実空間の位置情報を基に仮想画像データを合成する場合には、現実空間で撮像された画像がどのようなものであるかに関わらず、位置情報によって仮想画像データが合成される。そのため、図6(c)に示すように、「山」の属性を有する画像データ11Cに対して、「鳥」の仮想画像データ11Eが合成される場合がある。この場合、「鳥」は、現実空間では「空」に存在するにも関わらず、「山」に存在するように表示されることとなり、ユーザが違和感を持つような不自然な合成結果になり、臨場感に欠けることになる。
一方、本実施の形態では、合成部116は、現実画像データ内の領域の属性を基に仮想画像データを合成するため、ユーザが違和感を持ちにくい自然な合成結果になり、臨場感のある演出が行われることとなる。
また、ユーザが撮像部107によって動画を撮影する場合、「空」の画像や「山」の画像は、その位置や大きさが時間とともに変化する。そのため、例えば、仮想画像取得部115が「鳥」の仮想画像データ11Eを取得した場合、合成部116は、時間的に変化する「空」の画像データ11Bに対して、「鳥」の仮想画像データ11Eを合成する。付言すると、例えば、ユーザによる撮影の過程で「空」を撮影していない時間があれば、その時間には「鳥」の仮想画像データ11Eは現実画像データ11Aに合成されない。
<操作端末の処理の他の例>
次に、操作端末100の処理の他の例について説明する。上述の例では、仮想画像取得部115が、現実画像データ内の領域を選択し、合成部116が、その領域に対して仮想画像データを合成した。一方、他の例では、仮想画像取得部115が、予め定められた条件に従って、仮想画像データ(予め定められた画像のデータ)を取得する。そして、合成部116が、取得された仮想画像データの属性を特定し、特定した属性に基づいて、仮想画像データを合成する現実画像データ内の領域(位置)を決定する。なお、本実施の形態において、合成部116は、位置特定手段の一例として用いられる。
図7は、実施の形態1に係る操作端末100による処理の他の例の手順を示したフローチャートである。
ステップ201〜203の処理は、図5のステップ101〜103の処理と同様であるため、ここでは説明を省略する。ステップ203において、領域属性認識部113が分割された現実画像データ内の各領域の属性を認識した後、仮想画像取得部115は、予め定められた条件に従って、仮想画像格納部114から仮想画像データを取得する(ステップ204)。予め定められた条件としては、例えば、各仮想画像データに事前に付与された優先度や順番に従って取得したり、ランダム(無作為)に取得したりすること等が挙げられる。
次に、合成部116は、仮想画像格納部114に格納されている情報を基に、仮想画像取得部115により取得された仮想画像データに対応する属性を特定する。そして、合成部116は、特定した属性を有する領域が、現実画像データ内に存在するか否かを判定する(ステップ205)。特定した属性を有する領域が存在しないと判定された場合(ステップ205でNo)、仮想画像データは合成されずに本処理フローは終了する。
一方、特定した属性を有する領域が存在すると判定された場合(ステップ205でYes)、合成部116は、その領域に対して仮想画像データを合成して、合成画像データを生成する(ステップ206)。付言すると、ステップ205及びステップ206は、仮想画像データの属性に基づいて仮想画像データを合成する位置を特定する処理として捉えることができる。次に、合成部116は、合成画像データを表示部105の画面に表示する(ステップ207)。そして、本処理フローは終了する。
より具体的には、例えば、ステップ204において、仮想画像取得部115は、「鳥」の仮想画像データを取得する。また、ステップ205において、合成部116は、「鳥」の仮想画像データに対応付けられた属性が「空」であることを特定する。そして、「空」の属性を有する領域が存在する場合には(ステップ205でYes)、合成部116は、「空」の画像に対して「鳥」の仮想画像データを合成して、合成画像データを生成する。そして、本処理フローは終了する。
なお、ステップ204において、仮想画像取得部115は、複数の仮想画像データを取得しても良い。この場合、ステップ205及びステップ206では、各仮想画像データについて、その仮想画像データの属性を有する領域が存在するか否かの判定が行われ、合成が行われる。
このように、本実施の形態において、操作端末100は、撮像部107の撮影により得られた現実画像データ内の領域に対して、この領域の属性に対応する仮想画像データを合成する。そのため、例えば、現実画像データ内の領域の属性や仮想画像データの属性を考慮せずに合成する構成と比較して、ユーザが違和感を持ちにくい自然な合成結果になり、臨場感のある演出が行われる。
[実施の形態2]
<操作端末の機能構成>
次に、実施の形態2に係る操作端末100の機能構成について説明する。実施の形態1では、操作端末100は、現実画像データに対して仮想画像データを合成して合成画像データを生成した。一方、実施の形態2において、操作端末100は、現実画像データからオブジェクト(対象物)の属性を認識し、その属性に対応する仮想画像データを用いて、オブジェクトの情報を仮想空間に取り込む処理を行う。
図8は、実施の形態2に係る操作端末100の機能構成例を示したブロック図である。本実施の形態に係る操作端末100は、現実画像取得部121、オブジェクト認識部122、仮想画像格納部123、性能情報取得部124、仮想画像取込部125を備える。
現実画像取得部121は、撮像部107によって現実空間を撮影(撮像)して得られた画像の画像データである現実画像データを取得する。
オブジェクト認識部122は、現実画像取得部121が取得した現実画像データに含まれる予め定められたオブジェクトの画像から、オブジェクトの属性を認識する。この属性の認識には、既存の技術を利用できる。ユーザは、例えば、各種のオブジェクトを実際に撮影することにより、オブジェクトの画像データを用意しておく。そして、オブジェクト認識部122は、例えば、現実画像データに対してパターンマッチング等の画像処理を行うことによって、オブジェクトの属性を認識する。
仮想画像格納部123は、仮想空間で用いられる画像データである仮想画像データが定められたデータベースである仮想画像DBを格納する。この仮想画像DBには、予め定められたオブジェクトの属性毎に、オブジェクトに相当する仮想画像データが定められている。さらに、予め定められたオブジェクトの属性毎に、そのオブジェクトを例えば実際に撮影して得られた画像データも格納される。より具体的には、例えば仮想空間がレースゲームの場合、仮想画像DBには、オートバイの排気マフラ−、タイヤ、ハンドル等のオートバイ用品の属性毎に、仮想画像データが格納される。また、オートバイ用品の属性毎に、そのオートバイ用品を実際に撮影して得られた画像データが格納される。
性能情報取得手段124は、オブジェクト認識部122により認識されたオブジェクトの性能を示す情報(以下、性能情報と称する)を取得する。ここで、性能情報取得手段124は、ネットワーク300を介して、管理サーバ200等の外部装置からオブジェクトの性能情報を取得する。より具体的には、性能情報取得手段124は、例えば、インターネット経由でオブジェクトを検索することにより、オブジェクトの性能情報を取得する。
仮想画像取込部125は、性能情報取得手段124が取得したオブジェクトの性能情報を、オブジェクトに相当する仮想画像データと共に仮想空間に取り込む処理を行う。ここで、仮想画像取込部125は、オブジェクト認識部122により認識されたオブジェクトに相当する仮想画像データ、言い換えると、オブジェクトの属性に対応する仮想画像データを仮想画像格納部123から取得する。そして、仮想画像取込部125は、性能情報と仮想画像データとを関連付けて仮想空間に取り込む。仮想空間に取り込むことにより、仮想画像データは、仮想空間において性能情報の性能を有する画像として機能する。
より具体的には、例えばレースゲームの場合に、オブジェクト認識部122によりオブジェクトの属性として排気マフラ−が認識されたとする。この場合、性能情報取得手段124は、インターネット経由で排気マフラ−を検索して、排気マフラ―の性能情報を取得する。また、仮想画像取込部125は、排気マフラ―に相当する仮想画像データを仮想画像格納部123から取得する。そして、仮想画像取込部125は、性能情報と仮想画像データとを関連付けてレースゲームに取り込む。レースゲームに取り込むことにより、ユーザは、性能情報の性能を有する排気マフラ−をレースゲーム上で利用することができる。
本実施の形態では、性能情報取得手段の一例として、性能情報取得手段124が用いられる。特定手段、取込手段の一例として、仮想画像取込部125が用いられる。
なお、図3に示す操作端末100を構成する各機能部と同様に、図8に示す操作端末100を構成する各機能部は、ソフトウェアとハードウェア資源とが協働することにより実現される。具体的には、操作端末100を図2に示したハードウェア構成にて実現した場合、例えば、磁気ディスク装置103に格納されているOSのプログラムやアプリケーション・プログラムが、メインメモリ102に読み込まれてCPU101に実行されることにより、現実画像取得部121、オブジェクト認識部122、性能情報取得手段124、仮想画像取込部125等の各機能が実現される。また、仮想画像格納部123は、磁気ディスク装置103等の記憶手段により実現される。
<仮想画像DBの説明>
次に、仮想画像DBについて説明する。図9は、実施の形態2に係る仮想画像DBの一例を示す図である。
「オブジェクトの属性」は、予め定められたオブジェクトの属性を示す。図示の例では、オートバイ用品として、A社製排気マフラ−、B社製排気マフラ−、C社製タイヤが示されている。「撮影画像データ」は、各オブジェクトを実際に撮影して得られた画像データを示す。「仮想画像データ」は、オブジェクトをレースゲーム等の仮想空間内で用いる場合の画像データを示す。
<操作端末の処理手順>
次に、本実施の形態に係る操作端末100による処理の手順について説明する。図10は、実施の形態2に係る操作端末100による処理の手順の一例を示したフローチャートである。
まず、ユーザが操作端末100を操作し、撮像部107によって被写体を撮影すると、現実画像取得部121は、撮像部107の撮影により得られた現実画像データを取得する(ステップ301)。次に、オブジェクト認識部122は、仮想画像格納部123に格納されている情報を基に、現実画像データ内に予め定められたオブジェクトの属性が含まれているか否かを判定する(ステップ302)。予め定められたオブジェクトの属性が含まれていないと判定された場合(ステップ302でNo)、本処理フローは終了する。
一方、予め定められたオブジェクトの属性が含まれていると判定された場合(ステップ302でYes)、性能情報取得部124は、予め定められたオブジェクトに対応する性能情報を取得する(ステップ303)。また、仮想画像取込部125は、予め定められたオブジェクトに対応する仮想画像データを仮想画像格納部123から取得する(ステップ304)。次に、仮想画像取込部125は、性能情報を仮想画像データに関連付けて、仮想空間に取り込む(ステップ305)。そして、本処理フローは終了する。
<操作端末による一連の処理>
次に、本実施の形態に係る操作端末100による一連の処理の流れについて説明する。図11(a),(b)は、実施の形態2に係る操作端末100による一連の処理の流れの一例を説明するための図である。ここでは、仮想空間がレースゲームの場合を例に挙げて説明する。
まず、図11(a)は、撮像部107の撮影により得られた現実画像データ21Aの一例を示す図である。ここでは、例えば、ユーザが操作端末100を操作して、撮像部107により被写体の撮影を行う。その結果、現実画像取得部111は、撮像部107の撮影により得られた画像データとして、図11(a)に示す現実画像データ21Aを取得する。図示の現実画像データ21Aは、ユーザがオートバイの排気マフラ−を撮影したものであり、排気マフラ−の画像である画像データ21Bを含んでいる。
現実画像取得部121が現実画像データ21Aを取得すると、オブジェクト認識部122は、仮想画像格納部123に格納されている情報を基に、現実画像データ21A内に予め定められたオブジェクトの属性が含まれているか否かを判定する。ここで、例えば、画像データ21Bが、図9に示す「A社製排気マフラ−」の撮影画像データと同一(又は類似)の画像データであれば、オブジェクト認識部122は、パターンマッチング等により、現実画像データ21A内に「A社製排気マフラ−」の属性が含まれていると判定する。
次に、性能情報取得手段124は、現実画像データ21A内に含まれていると判定した「A社製排気マフラ−」に対応する性能情報を、ネットワーク300を介して管理サーバ200等の外部装置から取得する。例えば、A社製排気マフラ−の性能情報として、パワー296ps、トルク38kgmであることが取得される。また、仮想画像取込部125は、「A社製排気マフラ−」に対応する仮想画像データを仮想画像格納部123から取得する。次に、仮想画像取込部125は、性能情報を仮想画像データに関連付けて、レースゲームに取り込む。
図11(b)は、レースゲームに取り込まれた結果、表示部105の画面に表示される画像データ21Cの一例を示す図である。図示の例では、表示部105において、ユーザが撮影した排気マフラ−に対応する画像データとして、「A社製排気マフラ−」の仮想画像データ21Dがオートバイに搭載された状態で表示されている。そして、ユーザは、性能情報の性能を有する「A社製排気マフラ−」をレースゲーム上で利用することができる。
このように、本実施の形態において、操作端末100は、撮像部107の撮影により得られた現実画像データからオブジェクトの属性を認識する。そして、認識したオブジェクトに対応する仮想画像データ及び性能情報を仮想空間に取り込む。仮想画像データ及び性能情報を仮想空間に取り込むことにより、ユーザは、撮影された被写体のオブジェクトの情報を仮想空間上で利用することができるようになる。
なお、本実施の形態において、仮想画像取込部125は、ネットワーク300を介して管理サーバ200等の外部装置から性能情報を取得することとしたが、性能情報が仮想画像DBに定められていることとしても良い。この場合、図9に示す仮想画像DBでは、A社製排気マフラ−、B社製排気マフラ−、C社製タイヤ等のオブジェクトの属性毎に、性能情報も格納される。
また、本実施の形態において、現実画像取得部121は、撮像部107にて実際に撮像して得られた画像を取得することとしたが、このような構成に限られるものではない。例えば、現実画像取得部121は、他の撮像部により撮像して得られた画像データを、ネットワーク300を介して管理サーバ200から取得したりCD−ROM等の記録媒体から取得したりしても良い。
[実施の形態3]
<操作端末の機能構成>
次に、実施の形態3に係る操作端末100の機能構成について説明する。実施の形態2では、操作端末100は、現実画像データからオブジェクトの属性を認識し、認識したオブジェクトの性能情報を仮想空間に取り込む処理を行った。一方、実施の形態3において、操作端末100は、音(音データ)からオブジェクトの属性を認識し、認識したオブジェクトの性能情報を仮想空間に取り込む処理を行う。
図12は、実施の形態3に係る操作端末100の機能構成例を示したブロック図である。本実施の形態に係る操作端末100は、音収集部131、オブジェクト認識部132、仮想画像格納部133、性能情報取得部134、仮想画像取込部135を備える。
音収集部131は、音検知部108によって現実空間で検知された音(音データ)を収集して、収集した音を磁気ディスク装置103等の記憶手段に録音する。
オブジェクト認識部132は、音収集部131が収集した音に含まれる予め定められたオブジェクトの音(オブジェクトが発する音)からオブジェクトの属性を認識する。この認識には、既存の技術を利用できる。例えば、ユーザは、各種のオブジェクトに対応する音を用意しておく。そして、オブジェクト認識部132は、例えば、音収集部131が収集した音の波形に対してパターンマッチング等の処理を行うことによって、オブジェクトの属性を認識する。
仮想画像格納部133は、仮想空間で用いられる画像データである仮想画像データが定められたデータベースである仮想画像DBを格納する。この仮想画像DBには、予め定められたオブジェクト毎に、オブジェクトに相当する仮想画像データが定められている。さらに、予め定められたオブジェクト毎に、そのオブジェクトに対応する音も格納される。より具体的には、例えば仮想空間がレースゲームの場合、仮想画像DBには、A社製自動車、B社製自動車等の自動車の属性毎に、仮想画像データが格納される。また、自動車の属性毎に、その自動車に対応する音として、例えば、自動車のエンジン音やドアを閉めた際の音が格納される。
性能情報取得手段134は、オブジェクト認識部132により認識されたオブジェクトの性能を示す性能情報を取得する。ここで、性能情報取得手段134は、ネットワーク300を介して、管理サーバ200等の外部装置からオブジェクトの性能情報を取得する。より具体的には、性能情報取得手段134は、例えば、インターネット経由でオブジェクトを検索することにより、オブジェクトの性能情報を取得する。
仮想画像取込部135は、性能情報取得手段134が取得したオブジェクトの性能情報を、オブジェクトに相当する仮想画像データと共に仮想空間に取り込む処理を行う。ここで、仮想画像取込部135は、オブジェクト認識部132により認識されたオブジェクトに相当する仮想画像データ、言い換えると、オブジェクトの属性に対応する仮想画像データを仮想画像格納部133から取得する。そして、仮想画像取込部135は、性能情報と仮想画像データとを関連付けて仮想空間に取り込む。仮想空間に取り込むことにより、仮想画像データは、仮想空間において性能情報の性能を有する画像として機能する。
より具体的には、例えばレースゲームの場合、オブジェクト認識部132によりオブジェクトの属性としてA社製自動車が認識されたとする。この場合、性能情報取得手段134は、インターネット経由でA社製自動車を検索して、A社製自動車の性能情報を取得する。また、仮想画像取込部135は、A社製自動車に相当する仮想画像データを仮想画像格納部133から取得する。そして、仮想画像取込部135は、性能情報と仮想画像データとを関連付けてレースゲームに取り込む。レースゲームに取り込むことにより、ユーザは、性能情報の性能を有するA社製自動車をレースゲーム上で利用することができる。
本実施の形態では、性能情報取得手段の一例として、性能情報取得手段134が用いられる。特定手段、取込手段の一例として、仮想画像取込部135が用いられる。
なお、図3に示す操作端末100を構成する各機能部と同様に、図12に示す操作端末100を構成する各機能部は、ソフトウェアとハードウェア資源とが協働することにより実現される。具体的には、操作端末100を図2に示したハードウェア構成にて実現した場合、例えば、磁気ディスク装置103に格納されているOSのプログラムやアプリケーション・プログラムが、メインメモリ102に読み込まれてCPU101に実行されることにより、音収集部131、オブジェクト認識部132、性能情報取得手段134、仮想画像取込部135等の各機能が実現される。また、仮想画像格納部133は、磁気ディスク装置103等の記憶手段により実現される。
<仮想画像DBの説明>
次に、仮想画像DBについて説明する。図13は、実施の形態3に係る仮想画像DBの一例を示す図である。
「オブジェクトの属性」は、予め定められたオブジェクトの属性を示す。図示の例では、自動車として、A社製自動車、B社製自動車、C社製自動車が示されている。「音」は、オブジェクトに対応する音を示す。例えば、A社製自動車の音として、A社製自動車のエンジン音、A社製自動車のドアを閉めた際の音が示されている。なお、図示の例では、「エンジン音」、「ドアを閉めた際の音」というように文字で示しているが、仮想画像DBには、実際のエンジン音のデータ、実際にドアを閉めた際の音のデータなど、音のデータが格納される。「仮想画像データ」は、オブジェクトをレースゲーム等の仮想空間内で用いる場合の画像データを示す。
<操作端末の処理手順>
次に、本実施の形態に係る操作端末100による処理の手順について説明する。図14は、実施の形態3に係る操作端末100による処理の手順の一例を示したフローチャートである。
まず、ユーザが操作端末100を操作し、音検知部108によって音を検知すると、音収集部131は、検知された音を収集して記憶手段に録音する(ステップ401)。次に、オブジェクト認識部132は、仮想画像格納部123に格納されている情報を基に、音収集部131が収集した音に予め定められたオブジェクトの属性が含まれているか否かを判定する(ステップ402)。予め定められたオブジェクトの属性が含まれていないと判定された場合(ステップ402でNo)、本処理フローは終了する。
一方、予め定められたオブジェクトの属性が含まれていると判定された場合(ステップ402でYes)、性能情報取得部134は、予め定められたオブジェクトに対応する性能情報を取得する(ステップ403)。また、仮想画像取込部135は、予め定められたオブジェクトに対応する仮想画像データを仮想画像格納部133から取得する(ステップ404)。次に、仮想画像取込部135は、性能情報を仮想画像データに関連付けて、仮想空間に取り込む(ステップ405)。そして、本処理フローは終了する。
<操作端末による一連の処理>
次に、本実施の形態に係る操作端末100による一連の処理の流れについて説明する。図15(a),(b)は、実施の形態3に係る操作端末100による一連の処理の流れの一例を説明するための図である。ここでは、仮想空間がレースゲームの場合を例に挙げて説明する。
まず、図15(a)は、音検知部108により得られる音の一例を説明するための図である。ここでは、例えば、ユーザが実際に自動車のエンジンを動かして、そのエンジン音を音検知部108により検知する。その結果、音収集部131は、音検知部108によって検知された音を収集する。
音収集部131がエンジン音を収集すると、オブジェクト認識部132は、仮想画像格納部133に格納されている情報を基に、収集されたエンジン音に予め定められたオブジェクトの属性が含まれているか否かを判定する。ここで、例えば、収集したエンジン音が、図13に示すA社製自動車のエンジン音と同一(又は類似)の音であれば、オブジェクト認識部132は、パターンマッチング等により、収集したエンジン音に「A社製自動車」の属性が含まれていると判定する。
次に、性能情報取得手段134は、収集したエンジン音に含まれていると判定した「A社製自動車」に対応する性能情報を、ネットワーク300を介して管理サーバ200等の外部装置から取得する。例えば、A社製自動車の性能情報として、排気量が5000CC、馬力が280PS(pferde starke)、最高速度が200km/hであることが取得される。また、仮想画像取込部125は、「A社製自動車」に対応する仮想画像データを仮想画像格納部133から取得する。次に、仮想画像取込部135は、性能情報を仮想画像データに関連付けて、レースゲームに取り込む。
図15(b)は、レースゲームに取り込まれた結果、表示部105の画面に表示される画像データ31Aの一例を示す図である。図示の例では、表示部105において、収集したエンジン音に対応する画像データとして、「A社製自動車」の仮想画像データ31Bが表示されている。また、性能情報は、排気量が5000CC、馬力が280PS、最高速度が200km/hであることが示されている。そして、ユーザは、性能情報の性能を有する「A社製自動車」をレースゲーム上で利用することができる。
このように、本実施の形態において、操作端末100は、音収集部131が収集した音からオブジェクトの属性を認識する。そして、認識したオブジェクトに対応する仮想画像データ及び性能情報を仮想空間に取り込む。仮想画像データ及び性能情報を仮想空間に取り込むことにより、ユーザは、収集した音に対応するオブジェクトの情報を仮想空間上で利用することができるようになる。
なお、本実施の形態において、仮想画像取込部135は、ネットワーク300を介して管理サーバ200等の外部装置から性能情報を取得することとしたが、実施の形態2と同様に、性能情報が仮想画像DBに定められていることとしても良い。この場合、図13に示す仮想画像DBでは、A社製自動車、B社製自動車、C社製自動車等のオブジェクトの属性毎に、性能情報も格納される。
また、本実施の形態において、音収集部131は、音検知部108にて実際に検知された音を収集することとしたが、このような構成に限られるものではない。例えば、音収集部131は、ネットワーク300を介して管理サーバ200から受信した音のデータや、CD−ROM等の記録媒体に格納して提供された音のデータを収集しても良い。
そして、実施の形態1〜実施の形態3に係る操作端末100の処理を、1台の操作端末100で行うのではなく、他の装置と分担して行うこととしても良い。例えば、実施の形態1において、操作端末100が現実画像取得部111、合成部116の機能を有し、管理サーバ200が領域分割部112、領域属性認識部113、仮想画像格納部114、仮想画像取得部115の機能を有することとしても良い。この場合、例えば、操作端末100は、現実画像データを取得した後、取得した現実画像データを管理サーバ200へ送信する。そして、管理サーバ200は、現実画像データに合成する仮想画像データを特定し、特定した仮想画像データを操作端末100に送信する。これにより、操作端末100は、現実画像データに仮想画像データを合成して、合成画像データを生成する。
さらに、本発明の実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。
なお、上記では、実施の形態1〜実施の形態3として、種々の実施形態および変形例を説明したが、これらの実施形態や変形例どうしを組み合わせて構成してももちろんよい。即ち、例えば、実施の形態1〜実施の形態3を全て組み合わせて操作端末100を構成しても良いし、実施の形態1〜実施の形態3のうちの何れか2つの実施の形態を組み合わせて操作端末100を構成しても良い。また、例えば、実施の形態1〜実施の形態3のうちの何れか1つの実施の形態を実現する操作端末100を構成しても良い。
また、本開示は上記の実施形態に何ら限定されるものではなく、本開示の要旨を逸脱しない範囲で種々の形態で実施することができる。
100…操作端末、105…表示部、111…現実画像取得部、112…領域分割部、113…領域属性認識部、114…仮想画像格納部、115…仮想画像取得部、116…合成部、121…現実画像取得部、122…オブジェクト認識部、123…仮想画像格納部、124…性能情報取得部、125…仮想画像取込部、131…音収集部、132…オブジェクト認識部、133…仮想画像格納部、134…性能情報取得部、135…仮想画像取込部、200…管理サーバ

Claims (6)

  1. 現実空間に存在する対象物の撮像情報から当該対象物の属性を取得する属性情報取得手段と、
    前記属性情報取得手段により取得された属性に対応する仮想の画像であって、前記対象物の画像に合成される画像を特定する特定手段と
    を備える情報処理システム。
  2. 前記特定手段により特定される画像と前記対象物の画像とを合成した合成画像を表示する表示手段をさらに備えること
    を特徴とする請求項1に記載の情報処理システム。
  3. 前記対象物が存在している現実空間の場所の属性と仮想の画像とを対応付けた対応関係を記憶する記憶手段をさらに備え、
    前記特定手段は、前記対象物の画像に合成される画像として、前記対応関係において、前記属性情報取得手段により取得された属性に対応付けられた仮想の画像を特定すること
    を特徴とする請求項1又は2に記載の情報処理システム。
  4. 現実空間に存在する対象物の撮像情報から、当該対象物に相当する仮想画像を特定する特定手段と、
    前記対象物の性能を示す性能情報を取得する性能情報取得手段と、
    取得した前記性能情報と前記対象物に相当する仮想画像とを関連付けて仮想空間に取り込む取込手段と
    を備える情報処理システム。
  5. 現実空間に存在する対象物が発する音から、当該対象物に相当する仮想画像を特定する特定手段と、
    前記対象物の性能を示す性能情報を取得する性能情報取得手段と、
    取得した前記性能情報と前記対象物に相当する仮想画像とを関連付けて仮想空間に取り込む取込手段と
    を備える情報処理システム。
  6. 現実空間を撮像して得られた画像を取得する画像取得手段と、
    前記画像取得手段により取得された画像に対して予め定められた画像を合成する場合に、当該予め定められた画像の属性に基づいて、当該予め定められた画像を合成する位置を特定する位置特定手段と
    を備える情報処理システム。
JP2016218417A 2016-11-08 2016-11-08 情報処理システム及びプログラム Pending JP2018077644A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016218417A JP2018077644A (ja) 2016-11-08 2016-11-08 情報処理システム及びプログラム
US15/486,610 US10593114B2 (en) 2016-11-08 2017-04-13 Information processing system
CN201710432607.0A CN108062158A (zh) 2016-11-08 2017-06-09 信息处理系统和信息处理方法
US16/782,208 US11430188B2 (en) 2016-11-08 2020-02-05 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218417A JP2018077644A (ja) 2016-11-08 2016-11-08 情報処理システム及びプログラム

Publications (1)

Publication Number Publication Date
JP2018077644A true JP2018077644A (ja) 2018-05-17

Family

ID=62064049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218417A Pending JP2018077644A (ja) 2016-11-08 2016-11-08 情報処理システム及びプログラム

Country Status (3)

Country Link
US (2) US10593114B2 (ja)
JP (1) JP2018077644A (ja)
CN (1) CN108062158A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068195A (ja) * 2019-10-24 2021-04-30 克己 横道 情報処理システム、情報処理方法およびプログラム
CN113176867A (zh) * 2020-01-24 2021-07-27 丰田自动车株式会社 信息处理设备、信息处理方法和信息处理系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10930038B2 (en) 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US10026226B1 (en) * 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US10997410B2 (en) * 2018-08-31 2021-05-04 Ricoh Company, Ltd. Information processing device and information processing system
CN113168732A (zh) * 2018-12-03 2021-07-23 麦克赛尔株式会社 增强现实显示装置和增强现实显示方法
CN111815782A (zh) * 2020-06-30 2020-10-23 北京市商汤科技开发有限公司 Ar场景内容的显示方法、装置、设备及计算机存储介质
CN112422812B (zh) * 2020-09-01 2022-03-29 华为技术有限公司 图像处理方法、移动终端及存储介质
CN117291912A (zh) * 2023-11-24 2023-12-26 江西中汇云链供应链管理有限公司 一种基于深度学习和激光雷达的铝棒仓储盘点方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2009509363A (ja) * 2005-08-29 2009-03-05 エブリックス・テクノロジーズ・インコーポレイテッド モバイル画像認識を介した双方向性
JP2011062390A (ja) * 2009-09-18 2011-03-31 Azuraito:Kk ゲーム装置の制御プログラム
US20130278633A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Method and system for generating augmented reality scene
US20130328927A1 (en) * 2011-11-03 2013-12-12 Brian J. Mount Augmented reality playspaces with adaptive game rules
US20160189397A1 (en) * 2014-12-29 2016-06-30 Brian Mullins Sample based color extraction for augmented reality

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5625765A (en) * 1993-09-03 1997-04-29 Criticom Corp. Vision systems including devices and methods for combining images for extended magnification schemes
US5963670A (en) * 1996-02-12 1999-10-05 Massachusetts Institute Of Technology Method and apparatus for classifying and identifying images
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
JP2001230972A (ja) * 1999-12-09 2001-08-24 Canon Inc 撮像装置、画像合成方法、画像処理装置及び画像処理方法
JP4236372B2 (ja) * 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 空間情報利用システムおよびサーバシステム
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US7565008B2 (en) * 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP2002169980A (ja) 2000-12-01 2002-06-14 Bandai Co Ltd 販売提供システム、販売物、端末装置およびサーバ装置
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
US7274834B2 (en) * 2003-05-21 2007-09-25 Konica Minolta Holdings, Inc. Searching device, searching method and program
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
US7479967B2 (en) * 2005-04-11 2009-01-20 Systems Technology Inc. System for combining virtual and real-time environments
EP1826723B1 (en) * 2006-02-28 2015-03-25 Microsoft Corporation Object-level image editing
JP4847184B2 (ja) * 2006-04-06 2011-12-28 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US8189864B2 (en) * 2007-08-29 2012-05-29 Casio Computer Co., Ltd. Composite image generating apparatus, composite image generating method, and storage medium
US8902227B2 (en) * 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
DE102007045835B4 (de) * 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) * 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
DE112008003959T5 (de) * 2008-07-31 2011-06-01 Hewlett-Packard Development Co., L.P., Houston Wahrnehmungssegmentierung von Bildern
US9824495B2 (en) * 2008-09-11 2017-11-21 Apple Inc. Method and system for compositing an augmented reality scene
US20100199166A1 (en) * 2009-02-04 2010-08-05 Fisk Iii Charles Mario Image Component WEB/PC Repository
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
JP5664215B2 (ja) * 2010-12-21 2015-02-04 日本電気株式会社 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
JP5845797B2 (ja) * 2011-03-18 2016-01-20 株式会社リコー 画像処理装置、画像処理方法およびプログラム
CN103208244A (zh) * 2012-01-17 2013-07-17 冠捷投资有限公司 结合增强现实与无线识别技术的透明显示器
JP5932476B2 (ja) * 2012-05-17 2016-06-08 キヤノン株式会社 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
US20140063063A1 (en) * 2012-08-30 2014-03-06 Christopher G. Scott Spatial Calibration System for Augmented Reality Display
US9129404B1 (en) * 2012-09-13 2015-09-08 Amazon Technologies, Inc. Measuring physical objects and presenting virtual articles
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
KR102179154B1 (ko) * 2013-11-27 2020-11-16 한국전자통신연구원 투명 디스플레이를 이용한 전자기기 제어방법 및 이를 이용한 장치
US9240077B1 (en) * 2014-03-19 2016-01-19 A9.Com, Inc. Real-time visual effects for a live camera view
US9761049B2 (en) * 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
US20160343173A1 (en) * 2015-05-20 2016-11-24 Daqri, Llc Acousto-optical display for augmented reality
US20170085964A1 (en) * 2015-09-17 2017-03-23 Lens Entertainment PTY. LTD. Interactive Object Placement in Virtual Reality Videos
US10587834B2 (en) * 2016-03-07 2020-03-10 Disney Enterprises, Inc. Systems and methods for tracking objects for augmented reality
US10037465B2 (en) * 2016-03-18 2018-07-31 Disney Enterprises, Inc. Systems and methods for generating augmented reality environments
US10191541B2 (en) * 2016-06-30 2019-01-29 Sony Interactive Entertainment Inc. Augmenting virtual reality content with real world content

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009509363A (ja) * 2005-08-29 2009-03-05 エブリックス・テクノロジーズ・インコーポレイテッド モバイル画像認識を介した双方向性
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2011062390A (ja) * 2009-09-18 2011-03-31 Azuraito:Kk ゲーム装置の制御プログラム
US20130328927A1 (en) * 2011-11-03 2013-12-12 Brian J. Mount Augmented reality playspaces with adaptive game rules
US20130278633A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Method and system for generating augmented reality scene
US20160189397A1 (en) * 2014-12-29 2016-06-30 Brian Mullins Sample based color extraction for augmented reality

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068195A (ja) * 2019-10-24 2021-04-30 克己 横道 情報処理システム、情報処理方法およびプログラム
JP7023005B2 (ja) 2019-10-24 2022-02-21 克己 横道 情報処理システム、情報処理方法およびプログラム
CN113176867A (zh) * 2020-01-24 2021-07-27 丰田自动车株式会社 信息处理设备、信息处理方法和信息处理系统
JP2021117318A (ja) * 2020-01-24 2021-08-10 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
JP7264837B2 (ja) 2020-01-24 2023-04-25 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
CN113176867B (zh) * 2020-01-24 2024-03-19 丰田自动车株式会社 信息处理设备、信息处理方法和信息处理系统

Also Published As

Publication number Publication date
US20200175770A1 (en) 2020-06-04
US10593114B2 (en) 2020-03-17
US20180130258A1 (en) 2018-05-10
CN108062158A (zh) 2018-05-22
US11430188B2 (en) 2022-08-30

Similar Documents

Publication Publication Date Title
JP2018077644A (ja) 情報処理システム及びプログラム
CN109688451B (zh) 摄像机效应的提供方法及系统
US10628673B2 (en) Fast recognition algorithm processing, systems and methods
US11127210B2 (en) Touch and social cues as inputs into a computer
KR101535579B1 (ko) 증강 현실 인터액션 구현 방법 및 시스템
US9679416B2 (en) Content creation tool
TWI615776B (zh) 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
US10339715B2 (en) Virtual reality system
US20190156558A1 (en) Virtual reality system
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
CN109087376B (zh) 图像处理方法、装置、存储介质及电子设备
WO2019114328A1 (zh) 一种基于增强现实的视频处理方法及其装置
WO2021098338A1 (zh) 一种模型训练的方法、媒体信息合成的方法及相关装置
TW202009682A (zh) 基於擴增實境的互動方法及裝置
US20220319230A1 (en) Facial synthesis in augmented reality content for online communities
EP4315256A1 (en) Facial synthesis in augmented reality content for third party applications
TW201814552A (zh) 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置
Di Benedetto et al. Learning safety equipment detection using virtual worlds
WO2022212171A1 (en) Facial synthesis in augmented reality content for advertisements
JP2020127194A (ja) コンピュータシステムおよびプログラム
US20230091214A1 (en) Augmented reality items based on scan
WO2022212257A1 (en) Facial synthesis in overlaid augmented reality content
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP7333027B2 (ja) 情報処理装置、情報処理方法及びプログラム
AU2018279783B2 (en) Systems and methods for displaying and interacting with a dynamic real-world environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210525