JP2024001477A - 画像処理システム、画像処理方法、及びプログラム - Google Patents
画像処理システム、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2024001477A JP2024001477A JP2022100154A JP2022100154A JP2024001477A JP 2024001477 A JP2024001477 A JP 2024001477A JP 2022100154 A JP2022100154 A JP 2022100154A JP 2022100154 A JP2022100154 A JP 2022100154A JP 2024001477 A JP2024001477 A JP 2024001477A
- Authority
- JP
- Japan
- Prior art keywords
- image
- real space
- detailed
- region
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 82
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 239000000284 extract Substances 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims abstract description 6
- 230000009466 transformation Effects 0.000 claims description 44
- 239000011159 matrix material Substances 0.000 claims description 43
- 239000002131 composite material Substances 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000012423 maintenance Methods 0.000 abstract description 5
- 239000000047 product Substances 0.000 description 36
- 238000004891 communication Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 230000008859 change Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Abstract
【課題】メンテナンスにかかる労力とコストを低減することが可能な画像処理システム、画像処理方法、及びプログラムを提供する。【解決手段】実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得部と、前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出部と、前記対応領域に対して前記詳細画像を対応付ける対応付け部と、前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示部と、を備える画像処理システム。【選択図】図7
Description
本発明は、画像処理システム、画像処理方法、及びプログラムに関する。
近年、仮想現実(VR:Virtual Reality)の技術を利用して、店舗の売り場や博物館の展示物などを実際に見て回っているかのような見方を提供するサービスが注目されている。このサービスでは、例えば店舗内を撮像した画像を用いて生成された仮想空間がユーザへ提供される。ユーザは、当該仮想空間内を回遊しながら商品を購入することができる。
最近では、ユーザがよりリアルな体験することが可能な技術が各種提案されている。例えば、下記特許文献1には、仮想空間に用いる画像に対してリンクを付けることで、実店舗に設けられたウェブカメラへアクセス可能とする技術が開示されている。これにより、ユーザは、リンクからアクセスすることで店舗内のライブ映像を見ることができ、よりリアルなショッピングを体験できる。
しかしながら、上記特許文献1の技術では、仮想空間に用いる画像に対して直接リンク情報が付与される。このため、商品配置の変更などによってリンク情報を変更する必要がある場合、画像に付与されたリンク情報を1つ1つ手動で変更しなければならない。よって、店舗の規模に比例して、リンク情報のメンテナンスに労力とコストがかかってしまう。
上述の課題を鑑み、本発明の目的は、メンテナンスにかかる労力とコストを低減することが可能な画像処理システム、画像処理方法、及びプログラムを提供することにある。
上述の課題を解決するために、本発明の一態様に係る画像処理システムは、実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得部と、前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出部と、前記対応領域に対して前記詳細画像を対応付ける対応付け部と、前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示部と、を備える。
本発明の一態様に係る画像処理方法は、画像取得部が、実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得過程と、領域抽出部が、前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出過程と、対応付け部が、前記対応領域に対して前記詳細画像を対応付ける対応付け過程と、画像表示部が、前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示過程と、を含む。
本発明の一態様に係るプログラムは、コンピュータを、実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得手段と、前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出手段と、前記対応領域に対して前記詳細画像を対応付ける対応付け手段と、前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示手段と、として機能させる。
本発明によれば、メンテナンスにかかる労力とコストを低減することができる。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
<1.画像処理システムの概略構成>
図1から図6を参照して、本実施形態に係る画像処理システムの概略構成について説明する。図1は、本実施形態に係る画像処理システムの概略構成の一例を示す図である。
図1に示すように、画像処理システム1は、実空間画像撮影装置10と、詳細画像撮影装置20と、ユーザ端末30と、サーバ装置40とを備える。なお、実空間画像撮影装置10は第1撮影装置の一例であり、詳細画像撮影装置20は第2撮影装置の一例である。
図1から図6を参照して、本実施形態に係る画像処理システムの概略構成について説明する。図1は、本実施形態に係る画像処理システムの概略構成の一例を示す図である。
図1に示すように、画像処理システム1は、実空間画像撮影装置10と、詳細画像撮影装置20と、ユーザ端末30と、サーバ装置40とを備える。なお、実空間画像撮影装置10は第1撮影装置の一例であり、詳細画像撮影装置20は第2撮影装置の一例である。
(1)画像処理システム1
画像処理システム1は、仮想現実(VR:Virtual Reality)の技術を利用して、対象空間や対象物を仮想的に再現した仮想空間を提供する。対象空間は、例えば、店舗の売り場や博物館の展示場などの実空間である。対象物は、例えば、店舗の商品や博物館の展示物など実空間にある物体である。
仮想空間では、例えばウォークスルー型の画像が提示され、ユーザは実空間における動作と近い動作で周囲を観察することができる。ウォークスルー型の画像は、実空間が広範囲で撮影された複数のパノラマ画像(以下、「実空間画像」とも称される)によって構成される。
また、画像処理システム1は、実空間の一部を詳細に表示するために、実空間の一部が実空間画像よりも狭い画角で撮影された画像である詳細画像も表示する。例えば、ユーザに対して商品や展示物などの対象物をより詳細に提示するために、実空間画像とは別に撮影された詳細画像が用意される。詳細画像は、例えば、対象物が実空間画像の撮影位置よりも近い位置で撮影された画像である。即ち、詳細画像では、対象物が実空間画像よりも拡大して表示される。
画像処理システム1は、仮想現実(VR:Virtual Reality)の技術を利用して、対象空間や対象物を仮想的に再現した仮想空間を提供する。対象空間は、例えば、店舗の売り場や博物館の展示場などの実空間である。対象物は、例えば、店舗の商品や博物館の展示物など実空間にある物体である。
仮想空間では、例えばウォークスルー型の画像が提示され、ユーザは実空間における動作と近い動作で周囲を観察することができる。ウォークスルー型の画像は、実空間が広範囲で撮影された複数のパノラマ画像(以下、「実空間画像」とも称される)によって構成される。
また、画像処理システム1は、実空間の一部を詳細に表示するために、実空間の一部が実空間画像よりも狭い画角で撮影された画像である詳細画像も表示する。例えば、ユーザに対して商品や展示物などの対象物をより詳細に提示するために、実空間画像とは別に撮影された詳細画像が用意される。詳細画像は、例えば、対象物が実空間画像の撮影位置よりも近い位置で撮影された画像である。即ち、詳細画像では、対象物が実空間画像よりも拡大して表示される。
ここで、図2及び図3を参照して、画像処理システム1が提供する仮想空間について具体的に説明する。図2は、本実施形態に係る実空間画像の一例を示す図である。図3は、本実施形態に係る詳細画像の一例を示す図である。
画像処理システム1は、例えば、仮想空間の一部として図2に示すような実空間画像50を表示する。ユーザは、実空間画像50において、より詳細に確認したい位置を選択することで、選択した位置の詳細画像を確認することができる。例えば、ユーザは、図2に示す位置SPを選択したとする。この場合、画像処理システム1は、位置SPに対応する詳細画像として、図3に示す詳細画像51を表示する。このため、ユーザは、選択した位置の詳細画像を確認することができる。
(1)実空間画像撮影装置10
実空間画像撮影装置10は、実空間画像を撮影するカメラである。実空間画像撮影装置10は、対象空間の天井、壁、床などに固定して設置されて撮影するカメラ、対象空間内を移動可能なロボットなどの移動体に設けられて撮影するカメラ、又は人が手動で操作して撮影するカメラなどのいずれであってもよい。実空間画像は、例えば、全天周カメラ又は全天球カメラによって撮影される。
実空間画像撮影装置10は、ネットワークNWを介して、サーバ装置40と通信可能に接続されている。実空間画像撮影装置10は、ネットワークNWを介して、撮影した実空間画像をサーバ装置40へ送信する。
実空間画像撮影装置10は、実空間画像を撮影するカメラである。実空間画像撮影装置10は、対象空間の天井、壁、床などに固定して設置されて撮影するカメラ、対象空間内を移動可能なロボットなどの移動体に設けられて撮影するカメラ、又は人が手動で操作して撮影するカメラなどのいずれであってもよい。実空間画像は、例えば、全天周カメラ又は全天球カメラによって撮影される。
実空間画像撮影装置10は、ネットワークNWを介して、サーバ装置40と通信可能に接続されている。実空間画像撮影装置10は、ネットワークNWを介して、撮影した実空間画像をサーバ装置40へ送信する。
(2)詳細画像撮影装置20
詳細画像撮影装置20は、詳細画像を撮影するカメラである。詳細画像撮影装置20は、対象空間の天井、壁、床などに固定して設置されて撮影するカメラ、対象空間内を移動可能なロボットなどの移動体に設けられて撮影するカメラ、又は人が手動で操作して撮影するカメラなどのいずれであってもよい。詳細画像は、例えば、デジタルカメラ、スマートフォン、タブレット端末、ウェブカメラなどによって撮影される。
詳細画像撮影装置20は、ネットワークNWを介して、サーバ装置40と通信可能に接続されている。詳細画像撮影装置20は、ネットワークNWを介して、撮影した詳細画像をサーバ装置40へ送信する。
詳細画像撮影装置20は、詳細画像を撮影するカメラである。詳細画像撮影装置20は、対象空間の天井、壁、床などに固定して設置されて撮影するカメラ、対象空間内を移動可能なロボットなどの移動体に設けられて撮影するカメラ、又は人が手動で操作して撮影するカメラなどのいずれであってもよい。詳細画像は、例えば、デジタルカメラ、スマートフォン、タブレット端末、ウェブカメラなどによって撮影される。
詳細画像撮影装置20は、ネットワークNWを介して、サーバ装置40と通信可能に接続されている。詳細画像撮影装置20は、ネットワークNWを介して、撮影した詳細画像をサーバ装置40へ送信する。
ここで、図4から図6を参照して、実空間画像撮影装置10と詳細画像撮影装置20の関係について説明する。図4は、本実施形態に係る実空間画像撮影装置10と詳細画像撮影装置20との関係の一例を示す図である。図5は、本実施形態に係る実空間画像撮影装置10によって撮影される実空間画像の一例を示す図である。図6は、本実施形態に係る詳細画像撮影装置20によって撮影される詳細画像の一例を示す図である。
本実施形態では、実空間画像撮影装置10には広範囲を撮影可能な画角を有する撮影装置が用いられ、詳細画像撮影装置20には実空間画像撮影装置10よりも狭範囲であるが拡大して撮影可能な画角を有する撮影装置が用いられる。
例えば、図4に示すように、実空間画像撮影装置10には画角θ1の撮影装置が用いられ、詳細画像撮影装置20には画角θ1よりも狭い画角θ2の撮影装置が用いられる。図4に示す例では、実空間画像撮影装置10と詳細画像撮影装置20は、それぞれ対象物OBを含むように画像を撮影している。図5には、図4に示す実空間画像撮影装置10が撮影した実空間画像60が示されている。図6には、図4に示す詳細画像撮影装置20が撮影した詳細画像61が示されている。実空間画像60と詳細画像61を比較すると、詳細画像の方が撮影範囲は狭いが、対象物OBが拡大して表示されている。
本実施形態では、実空間画像撮影装置10には広範囲を撮影可能な画角を有する撮影装置が用いられ、詳細画像撮影装置20には実空間画像撮影装置10よりも狭範囲であるが拡大して撮影可能な画角を有する撮影装置が用いられる。
例えば、図4に示すように、実空間画像撮影装置10には画角θ1の撮影装置が用いられ、詳細画像撮影装置20には画角θ1よりも狭い画角θ2の撮影装置が用いられる。図4に示す例では、実空間画像撮影装置10と詳細画像撮影装置20は、それぞれ対象物OBを含むように画像を撮影している。図5には、図4に示す実空間画像撮影装置10が撮影した実空間画像60が示されている。図6には、図4に示す詳細画像撮影装置20が撮影した詳細画像61が示されている。実空間画像60と詳細画像61を比較すると、詳細画像の方が撮影範囲は狭いが、対象物OBが拡大して表示されている。
(3)ユーザ端末30
ユーザ端末30は、ユーザが使用する端末である。ユーザ端末30は、例えば、スマートフォン、タブレット端末、PC(Personal Computer)などのいずれによって実現されてもよい。
ユーザ端末30は、ネットワークNWを介して、サーバ装置40と通信可能に接続されている。ユーザ端末30は、ネットワークNWを介して、ユーザによる操作内容を示す操作情報をサーバ装置40へ送信し、表示する画像をサーバ装置40から受信する。
ユーザ端末30は、ユーザが使用する端末である。ユーザ端末30は、例えば、スマートフォン、タブレット端末、PC(Personal Computer)などのいずれによって実現されてもよい。
ユーザ端末30は、ネットワークNWを介して、サーバ装置40と通信可能に接続されている。ユーザ端末30は、ネットワークNWを介して、ユーザによる操作内容を示す操作情報をサーバ装置40へ送信し、表示する画像をサーバ装置40から受信する。
ユーザ端末30は、アプリケーション(以下、「アプリ」とも称される)を介して、ユーザへ仮想空間を提示する。当該アプリケーションは、例えば、ユーザ端末30にインストールすることで使用可能なものであってもよいし、Web(Webブラウザ)からアクセスすることで使用可能なものであってもよい。
ユーザは、ユーザ端末30に対して各種の操作を入力することで、各操作に応じた処理をアプリで実行することができる。例えば、ユーザは、ログイン操作を入力することで、アプリにログインして仮想空間を利用できる。
また、ユーザは、実空間画像を表示する操作を入力することで、ユーザ端末30に実空間画像を表示させることができる。
また、ユーザは、実空間画像内を回遊する操作を入力することで、ユーザ端末30に表示された実空間画像内を回遊することができる。実空間画像が店舗内の画像である場合、ユーザは、店舗の売り場を見て回ることができる。
また、ユーザは、詳細画像を表示する操作を入力することで、ユーザ端末30に詳細画像を表示することができる。詳細画像が商品の画像である場合、ユーザは、商品をより詳細に確認することができる。詳細画像を表示する操作は、例えば、タッチ、スワイプ、クリック、ハンドジェスチャ、首振りなどの操作である。
また、ユーザは、実空間画像を表示する操作を入力することで、ユーザ端末30に実空間画像を表示させることができる。
また、ユーザは、実空間画像内を回遊する操作を入力することで、ユーザ端末30に表示された実空間画像内を回遊することができる。実空間画像が店舗内の画像である場合、ユーザは、店舗の売り場を見て回ることができる。
また、ユーザは、詳細画像を表示する操作を入力することで、ユーザ端末30に詳細画像を表示することができる。詳細画像が商品の画像である場合、ユーザは、商品をより詳細に確認することができる。詳細画像を表示する操作は、例えば、タッチ、スワイプ、クリック、ハンドジェスチャ、首振りなどの操作である。
また、ユーザは、注文に関する操作を入力することで、商品を注文することができる。注文に関する操作には、具体的に商品を選択する操作、商品を注文する操作、注文を確定する操作などが含まれる。
ユーザ端末30は、ユーザによって商品を選択する操作が入力された場合、選択された商品に関する情報を示す選択商品情報を一時的に記憶する。また、ユーザ端末30は、ユーザによって商品を注文する操作が入力された場合、一時的に記憶していた選択商品情報を取得し、取得した選択商品情報に基づく注文画面を表示する。また、また、ユーザ端末30は、ユーザによって注文を確定する操作が入力された場合、選択された商品の注文に関する情報を示す注文情報をサーバ装置40へ送信する。
ユーザ端末30は、ユーザによって商品を選択する操作が入力された場合、選択された商品に関する情報を示す選択商品情報を一時的に記憶する。また、ユーザ端末30は、ユーザによって商品を注文する操作が入力された場合、一時的に記憶していた選択商品情報を取得し、取得した選択商品情報に基づく注文画面を表示する。また、また、ユーザ端末30は、ユーザによって注文を確定する操作が入力された場合、選択された商品の注文に関する情報を示す注文情報をサーバ装置40へ送信する。
また、各画像の撮影者は、ユーザ端末30に対して幾何情報を入力し、サーバ装置40に予め登録する。幾何情報は、実空間画像を撮影した実空間画像撮影装置10と詳細画像を撮影した詳細画像撮影装置20の幾何学的な情報を示す情報である。幾何学的な情報は、例えば、実空間画像撮影装置10が実空間画像を撮影した位置を示す位置情報や、詳細画像撮影装置20が詳細画像を撮影した位置を示す位置情報などである。
また、店舗の関係者は、ユーザ端末30に対して店舗情報や商品情報を入力し、サーバ装置40に予め登録する。店舗情報は、店舗に関する詳細を示す情報であり、実空間画像と詳細画像と対応付けて管理される。商品情報は、商品に関する詳細を示す情報であり、詳細画像と対応付けて管理される。
(4)サーバ装置40
サーバ装置40は、アプリの動作を制御する装置である。サーバ装置40は、例えば、PCやサーバなどによって実現される。サーバ装置40は、ネットワークNWを介して、実空間画像撮影装置10と、詳細画像撮影装置20と、ユーザ端末30と通信可能に接続されている。サーバ装置40は、実空間画像撮影装置10から受信する実空間画像と詳細画像撮影装置20から受信する詳細画像に基づき、仮想空間を生成する。また、サーバ装置40は、ユーザ端末30から受信する操作情報に基づき、仮想空間における各種の画像をユーザ端末30に表示するための処理を実行する。また、サーバ装置40は、ユーザ端末30から受信する操作情報に基づき、商品の注文処理を実行する。
サーバ装置40の機能の詳細は、後述する。
サーバ装置40は、アプリの動作を制御する装置である。サーバ装置40は、例えば、PCやサーバなどによって実現される。サーバ装置40は、ネットワークNWを介して、実空間画像撮影装置10と、詳細画像撮影装置20と、ユーザ端末30と通信可能に接続されている。サーバ装置40は、実空間画像撮影装置10から受信する実空間画像と詳細画像撮影装置20から受信する詳細画像に基づき、仮想空間を生成する。また、サーバ装置40は、ユーザ端末30から受信する操作情報に基づき、仮想空間における各種の画像をユーザ端末30に表示するための処理を実行する。また、サーバ装置40は、ユーザ端末30から受信する操作情報に基づき、商品の注文処理を実行する。
サーバ装置40の機能の詳細は、後述する。
<2.サーバ装置の機能構成>
以上、本実施形態に係る画像処理システム1の概略構成について説明した。続いて、図7及び図8を参照して、本実施形態に係るサーバ装置40の機能構成について説明する。図7は、本実施形態に係るサーバ装置40の機能構成の一例を示すブロック図である。
図7に示すように、サーバ装置40は、通信部410と、記憶部420と、制御部430とを備える。
以上、本実施形態に係る画像処理システム1の概略構成について説明した。続いて、図7及び図8を参照して、本実施形態に係るサーバ装置40の機能構成について説明する。図7は、本実施形態に係るサーバ装置40の機能構成の一例を示すブロック図である。
図7に示すように、サーバ装置40は、通信部410と、記憶部420と、制御部430とを備える。
(1)通信部410
通信部410は、各種情報の送受信を行う機能を有する。例えば、通信部410は、実空間画像撮影装置10と、詳細画像撮影装置20と、ユーザ端末30と通信を行う。
実空間画像撮影装置10との通信において、通信部410は、実空間画像を受信する。
詳細画像撮影装置20との通信において、通信部410は、詳細画像を受信する。
ユーザ端末30との通信において、通信部410は、操作情報、幾何情報、又は注文情報を受信し、実空間画像や詳細画像などの表示画像を送信する。
通信部410は、各種情報の送受信を行う機能を有する。例えば、通信部410は、実空間画像撮影装置10と、詳細画像撮影装置20と、ユーザ端末30と通信を行う。
実空間画像撮影装置10との通信において、通信部410は、実空間画像を受信する。
詳細画像撮影装置20との通信において、通信部410は、詳細画像を受信する。
ユーザ端末30との通信において、通信部410は、操作情報、幾何情報、又は注文情報を受信し、実空間画像や詳細画像などの表示画像を送信する。
(2)記憶部420
記憶部420は、各種情報を記憶する機能を有する。記憶部420は、記憶媒体、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成される。
記憶部420は、例えば、実空間画像、詳細画像、幾何情報、店舗情報、商品情報、注文情報などを記憶する。
記憶部420は、各種情報を記憶する機能を有する。記憶部420は、記憶媒体、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access read/write Memory)、ROM(Read Only Memory)、またはこれらの記憶媒体の任意の組み合わせによって構成される。
記憶部420は、例えば、実空間画像、詳細画像、幾何情報、店舗情報、商品情報、注文情報などを記憶する。
(3)制御部430
制御部430は、サーバ装置40の動作全般を制御する機能を有する。制御部430は、例えば、サーバ装置40がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。
図7に示すように、制御部430は、操作情報取得部431と、画像取得部432と、幾何情報取得部433と、領域抽出部434と、対応付け部435と、ログイン処理部436と、変換行列生成部437と、画像生成部438と、画像表示部439と、注文処理部440とを備える。
制御部430は、サーバ装置40の動作全般を制御する機能を有する。制御部430は、例えば、サーバ装置40がハードウェアとして備えるCPU(Central Processing Unit)にプログラムを実行させることによって実現される。
図7に示すように、制御部430は、操作情報取得部431と、画像取得部432と、幾何情報取得部433と、領域抽出部434と、対応付け部435と、ログイン処理部436と、変換行列生成部437と、画像生成部438と、画像表示部439と、注文処理部440とを備える。
(3-1)操作情報取得部431
操作情報取得部431は、操作情報を取得する機能を有する。操作情報取得部431は、操作情報をユーザの入力に基づき取得する。具体的に、操作情報取得部431は、ユーザがユーザ端末30へ入力するログイン操作、実空間画像を表示する操作、詳細画像を表示する操作、又は注文に関する操作のいずれかを示す操作情報を、通信部410を介してユーザ端末30から取得する。
操作情報取得部431は、操作情報を取得する機能を有する。操作情報取得部431は、操作情報をユーザの入力に基づき取得する。具体的に、操作情報取得部431は、ユーザがユーザ端末30へ入力するログイン操作、実空間画像を表示する操作、詳細画像を表示する操作、又は注文に関する操作のいずれかを示す操作情報を、通信部410を介してユーザ端末30から取得する。
(3-2)画像取得部432
画像取得部432は、各種画像を取得する機能を有する。画像取得部432は、通信部410を介して、実空間画像撮影装置10が撮影した実空間画像を取得する。画像取得部432は、取得した実空間画像を記憶部420に書き込んで記憶させる。また、画像取得部432は、通信部410を介して、詳細画像撮影装置20が撮影した詳細画像を取得する。画像取得部432は、取得した詳細画像を記憶部420に書き込んで記憶させる。
画像取得部432は、各種画像を取得する機能を有する。画像取得部432は、通信部410を介して、実空間画像撮影装置10が撮影した実空間画像を取得する。画像取得部432は、取得した実空間画像を記憶部420に書き込んで記憶させる。また、画像取得部432は、通信部410を介して、詳細画像撮影装置20が撮影した詳細画像を取得する。画像取得部432は、取得した詳細画像を記憶部420に書き込んで記憶させる。
画像取得部432は、操作情報取得部431によって取得された操作情報に基づき、実空間画像と詳細画像とを取得する。
操作情報が実空間画像を表示する操作である場合、画像取得部432は、操作に対応する実空間画像を記憶部420から取得する。また、操作情報が詳細画像を表示する操作である場合、画像取得部432は、操作(選択位置)に対応する詳細画像を記憶部420から取得する。
操作情報が実空間画像を表示する操作である場合、画像取得部432は、操作に対応する実空間画像を記憶部420から取得する。また、操作情報が詳細画像を表示する操作である場合、画像取得部432は、操作(選択位置)に対応する詳細画像を記憶部420から取得する。
(3-3)幾何情報取得部433
幾何情報取得部433は、幾何情報を取得する機能を有する。幾何情報取得部433は、画像取得部432によって実空間画像と詳細画像が取得された場合、各画像に対応する幾何情報を記憶部420から取得する。
幾何情報取得部433は、幾何情報を取得する機能を有する。幾何情報取得部433は、画像取得部432によって実空間画像と詳細画像が取得された場合、各画像に対応する幾何情報を記憶部420から取得する。
(3-4)領域抽出部434
領域抽出部434は、複数の画像から特徴が類似している領域を抽出する機能を有する。領域抽出部434は、実空間画像から、詳細画像が示す実空間の一部と対応する領域を示す対応領域を抽出する。例えば、領域抽出部434は、実空間画像を撮影した実空間画像撮影装置10と、詳細画像を撮影した詳細画像撮影装置20との位置関係に基づき、対応領域を抽出する。具体的に、領域抽出部434は、幾何情報取得部433によって取得された幾何情報が示す各撮影装置の位置情報から各撮影装置の位置関係を導出し、導出した位置関係から対応領域を抽出する。
領域抽出部434は、複数の画像から特徴が類似している領域を抽出する機能を有する。領域抽出部434は、実空間画像から、詳細画像が示す実空間の一部と対応する領域を示す対応領域を抽出する。例えば、領域抽出部434は、実空間画像を撮影した実空間画像撮影装置10と、詳細画像を撮影した詳細画像撮影装置20との位置関係に基づき、対応領域を抽出する。具体的に、領域抽出部434は、幾何情報取得部433によって取得された幾何情報が示す各撮影装置の位置情報から各撮影装置の位置関係を導出し、導出した位置関係から対応領域を抽出する。
また、領域抽出部434は、詳細画像から抽出する第1領域と、実空間画像から抽出する第1領域と類似した特徴を有する第2領域とに基づき、対応領域を抽出してもよい。具体的に、領域抽出部434は、詳細画像と実空間画像との間で、特徴が類似している位置(以下、「対応点」とも称される)を抽出する。領域抽出部434は、詳細画像において対応点が密集している領域を第1領域として抽出し、実空間画像において第1領域と対応する対応点が密集している領域を第2領域として抽出する。
ここで、図8を参照して、第1領域と第2領域の抽出について説明する。図8は、本実施形態に係る第1領域と第2領域の一例を示す図である。
領域抽出部434は、例えば図8に示すように、詳細画像61において対象物OBにある領域FA1を第1領域として抽出し、実空間画像60において対象物OBにある領域SA1を領域FA1と対応する第2領域として抽出する。
領域抽出部434は、幾何情報又は第1領域と第2領域に基づき、図8に示すように実空間画像において詳細画像と対応する対応領域CAを抽出する。
領域抽出部434は、例えば図8に示すように、詳細画像61において対象物OBにある領域FA1を第1領域として抽出し、実空間画像60において対象物OBにある領域SA1を領域FA1と対応する第2領域として抽出する。
領域抽出部434は、幾何情報又は第1領域と第2領域に基づき、図8に示すように実空間画像において詳細画像と対応する対応領域CAを抽出する。
(3-5)対応付け部435
対応付け部435は、対応領域に対して詳細画像を対応付ける機能を有する。例えば、対応付け部435は、領域抽出部434によって抽出された実空間画像の対応領域に対して、詳細画像を対応付ける。そして、対応付け部435は、記憶部420に対して、実空間画像の対応領域と詳細画像とを対応付けて記憶させる。
対応付け部435は、対応領域に対して詳細画像を対応付ける機能を有する。例えば、対応付け部435は、領域抽出部434によって抽出された実空間画像の対応領域に対して、詳細画像を対応付ける。そして、対応付け部435は、記憶部420に対して、実空間画像の対応領域と詳細画像とを対応付けて記憶させる。
(3-6)ログイン処理部436
ログイン処理部436は、ログイン処理を行う機能を有する。例えば、ログイン処理部436は、操作情報取得部431によって取得された操作情報に基づき、ログイン処理を行う。この時、ログイン処理部436は、ユーザがログインする店舗を特定し、当該店舗の店舗情報を記憶部420から取得する。ログイン処理部436が取得した店舗情報は、ユーザ端末30に表示される。
ログイン処理部436は、ログイン処理を行う機能を有する。例えば、ログイン処理部436は、操作情報取得部431によって取得された操作情報に基づき、ログイン処理を行う。この時、ログイン処理部436は、ユーザがログインする店舗を特定し、当該店舗の店舗情報を記憶部420から取得する。ログイン処理部436が取得した店舗情報は、ユーザ端末30に表示される。
(3-7)変換行列生成部437
変換行列生成部437は、変換行列を生成する機能を有する。変換行列は、実空間画像を合成画像に変換するための行列である。変換行列は、例えば、ホモグラフィ行列である。合成画像は、詳細画像の第1領域が実空間画像の第2領域に重なるよう、実空間画像記対応領域の部分を変形させた合成画像である。
変換行列生成部437は、変換行列を生成する機能を有する。変換行列は、実空間画像を合成画像に変換するための行列である。変換行列は、例えば、ホモグラフィ行列である。合成画像は、詳細画像の第1領域が実空間画像の第2領域に重なるよう、実空間画像記対応領域の部分を変形させた合成画像である。
変換行列の生成についてより具体的に説明する。例えば、変換行列生成部437は、第1領域及び第2領域において特徴が類似している位置を示す複数の対応点に基づき、変換行列を生成する。この時、変換行列生成部437は、実空間画像又は詳細画像における複数の対応点の密度に応じて、複数の対応点から一部の対応点を選択し、当該一部の対応点のみから変換行列を生成してもよい。例えば、変換行列生成部437は、対応点の密度が高い領域にある対応点を計算に用い、対応点の密度が低い領域にある対応点を計算から除外する。これにより、変換行列生成部437は、より特徴が類似している領域に基づき変換行列を生成できるため、変換行列の生成精度を向上することができる。また、変換行列の生成に用いる対応点の数を減らすことができ、変換行列生成における処理速度を向上することもできる。
(3-8)画像生成部438
画像生成部438は、画像を生成する機能を有する。例えば、画像生成部438は、実空間画像の対応領域の部分を変形させた合成画像を生成する。具体的に、画像生成部438は、変換行列生成部437によって生成された変換行列に基づき、実空間画像の対応領域の部分を変形させることで、合成画像を生成する。これにより、画像生成部438は、実空間画像の対応領域の部分と詳細画像との間を補う画像として合成画像を生成することができる。
画像生成部438は、画像を生成する機能を有する。例えば、画像生成部438は、実空間画像の対応領域の部分を変形させた合成画像を生成する。具体的に、画像生成部438は、変換行列生成部437によって生成された変換行列に基づき、実空間画像の対応領域の部分を変形させることで、合成画像を生成する。これにより、画像生成部438は、実空間画像の対応領域の部分と詳細画像との間を補う画像として合成画像を生成することができる。
(3-9)画像表示部439
画像表示部439は、画像の表示を制御する機能を有する。画像表示部439は、操作情報取得部431によって取得された操作情報に基づいて、画像の表示を制御する。
操作情報が実空間画像を表示する操作である場合、画像表示部439は、当該操作情報に基づいて実空間画像の表示を行う。例えば、画像表示部439は、画像取得部432によって取得された実空間画像をユーザ端末30に表示させる。
画像表示部439は、画像の表示を制御する機能を有する。画像表示部439は、操作情報取得部431によって取得された操作情報に基づいて、画像の表示を制御する。
操作情報が実空間画像を表示する操作である場合、画像表示部439は、当該操作情報に基づいて実空間画像の表示を行う。例えば、画像表示部439は、画像取得部432によって取得された実空間画像をユーザ端末30に表示させる。
また、操作情報が詳細画像を表示する操作である場合、画像表示部439は、当該操作情報に基づいて詳細画像の表示を行う。詳細画像を表示する操作は、例えば、対応領域に対して行われる。この場合、画像表示部439は、画像取得部432によって取得される、対応領域に対応付けられている詳細画像を、ユーザ端末30に表示する。この時、画像表示部439は、実空間画像上に詳細画像を重畳表示させてもよいし、合成画像を用いて詳細画像の切り替え表示を行ってもよい。
合成画像を用いて詳細画像の切り替え表示を行う場合、画像表示部439は、合成画像を表示させる際に、合成画像と切り替え先の画像である詳細画像の対応する領域(特徴が類似する領域)が重なり合うように、詳細画像の上に合成画像を表示する。
合成画像の表示後、画像表示部439は、合成画像を消して、詳細画像を表示させる。この時、画像表示部439は、例えば合成画像をフェードアウトさせて詳細画像をフェードインさせることや、モーフィングの適用を行ってもよい。これにより、画像表示部439は、視覚的な連続性を保ったまま画像を切り替えることができる。
合成画像の表示後、画像表示部439は、合成画像を消して、詳細画像を表示させる。この時、画像表示部439は、例えば合成画像をフェードアウトさせて詳細画像をフェードインさせることや、モーフィングの適用を行ってもよい。これにより、画像表示部439は、視覚的な連続性を保ったまま画像を切り替えることができる。
(3-10)注文処理部440
注文処理部440は、注文処理を実行する機能を有する。例えば、注文処理部440は、通信部410がユーザ端末30から注文情報を受信した場合、当該注文情報に基づき注文処理を実行する。
注文処理部440は、注文処理を実行する機能を有する。例えば、注文処理部440は、通信部410がユーザ端末30から注文情報を受信した場合、当該注文情報に基づき注文処理を実行する。
<3.処理の流れ>
以上、本実施形態に係るサーバ装置40の機能構成について説明した。続いて、図9から図12を参照して、本実施形態に係る処理の流れについて説明する。
以上、本実施形態に係るサーバ装置40の機能構成について説明した。続いて、図9から図12を参照して、本実施形態に係る処理の流れについて説明する。
(1)画像の対応付けに関する処理の流れ
図9を参照して、本実施形態に係る画像の対応付けに関する処理の流れについて説明する。図9は、本実施形態に係る画像の対応付けに関する処理の流れの一例を示すシーケンス図である。
図9を参照して、本実施形態に係る画像の対応付けに関する処理の流れについて説明する。図9は、本実施形態に係る画像の対応付けに関する処理の流れの一例を示すシーケンス図である。
図9に示すように、まず、実空間画像撮影装置10は、実空間画像を撮影する(ステップS101)。撮影後、実空間画像撮影装置10は、撮影した実空間画像をサーバ装置40へ送信する(ステップS102)。
サーバ装置40では、通信部410が実空間画像撮影装置10から実空間画像を受信し、当該実空間画像を画像取得部432が取得し、当該実空間画像を記憶部420が記憶する(ステップS103)。
サーバ装置40では、通信部410が実空間画像撮影装置10から実空間画像を受信し、当該実空間画像を画像取得部432が取得し、当該実空間画像を記憶部420が記憶する(ステップS103)。
また、詳細画像撮影装置20は、詳細画像を撮影する(ステップS104)。撮影後、詳細画像撮影装置20は、撮影した詳細画像をサーバ装置40へ送信する(ステップS105)。
サーバ装置40では、通信部410が詳細画像撮影装置20から詳細画像を受信し、当該詳細画像を画像取得部432が取得し、当該詳細画像を記憶部420が記憶する(ステップS106)。
サーバ装置40では、通信部410が詳細画像撮影装置20から詳細画像を受信し、当該詳細画像を画像取得部432が取得し、当該詳細画像を記憶部420が記憶する(ステップS106)。
ユーザは、実空間画像撮影装置10と詳細画像撮影装置20の幾何情報をユーザ端末30へ入力する(ステップS107)。ユーザ端末30は、ユーザによって入力された幾何情報をサーバ装置40へ送信する(ステップS108)。
サーバ装置40では、通信部410がユーザ端末30から幾何情報を受信し、当該幾何情報を幾何情報取得部433が取得し、当該幾何情報を記憶部420が記憶する(ステップS109)。
サーバ装置40では、通信部410がユーザ端末30から幾何情報を受信し、当該幾何情報を幾何情報取得部433が取得し、当該幾何情報を記憶部420が記憶する(ステップS109)。
サーバ装置40の領域抽出部434は、幾何情報取得部433によって取得された幾何情報に基づき、画像取得部432によって取得された実空間画像及び詳細画像における対応領域を抽出する(ステップS110)。
そして、サーバ装置40の対応付け部435は、領域抽出部434によって抽出された対応領域に基づき、実空間画像と詳細画像を対応付け、記憶部420に記憶させる(ステップS111)。
そして、サーバ装置40の対応付け部435は、領域抽出部434によって抽出された対応領域に基づき、実空間画像と詳細画像を対応付け、記憶部420に記憶させる(ステップS111)。
(2)詳細画像の表示に関する処理の流れ
図10を参照して、本実施形態に係る詳細画像の表示に関する処理の流れについて説明する。図10は、本実施形態に係る詳細画像の表示に関する処理の流れの一例を示すシーケンス図である。
図10を参照して、本実施形態に係る詳細画像の表示に関する処理の流れについて説明する。図10は、本実施形態に係る詳細画像の表示に関する処理の流れの一例を示すシーケンス図である。
図10に示すように、まず、ユーザは、アプリにログインする操作をユーザ端末30に入力する(ステップS201)。
ユーザ端末30は、アプリにログインする操作を示す操作情報をサーバ装置40へ送信する(ステップS202)。
ユーザ端末30から受信した操作情報がアプリにログインする操作を示すため、サーバ装置40のログイン処理部436は、ログイン処理を行う(ステップS203)。また、画像取得部432は、ユーザがログインする店舗の実空間画像を記憶部420から取得し、通信部410を介してユーザ端末30へ送信する(ステップS204)。
ユーザ端末30は、サーバ装置40から受信した実空間画像を表示する(ステップS205)。
ユーザ端末30は、アプリにログインする操作を示す操作情報をサーバ装置40へ送信する(ステップS202)。
ユーザ端末30から受信した操作情報がアプリにログインする操作を示すため、サーバ装置40のログイン処理部436は、ログイン処理を行う(ステップS203)。また、画像取得部432は、ユーザがログインする店舗の実空間画像を記憶部420から取得し、通信部410を介してユーザ端末30へ送信する(ステップS204)。
ユーザ端末30は、サーバ装置40から受信した実空間画像を表示する(ステップS205)。
次いで、ユーザは、実空間画像内を回遊する操作をユーザ端末30に入力する(ステップS301)。
ユーザ端末30は、実空間画像内を回遊する操作を示す操作情報をサーバ装置40へ送信する(ステップS302)。
ユーザ端末30から受信した操作情報が実空間画像内を回遊する操作を示すため、画像取得部432は、回遊先の実空間画像を記憶部420から取得し、通信部410を介してユーザ端末30へ送信する(ステップS303)。
ユーザ端末30は、サーバ装置40から受信した回遊先の実空間画像を表示する(ステップS304)。
ユーザ端末30は、実空間画像内を回遊する操作を示す操作情報をサーバ装置40へ送信する(ステップS302)。
ユーザ端末30から受信した操作情報が実空間画像内を回遊する操作を示すため、画像取得部432は、回遊先の実空間画像を記憶部420から取得し、通信部410を介してユーザ端末30へ送信する(ステップS303)。
ユーザ端末30は、サーバ装置40から受信した回遊先の実空間画像を表示する(ステップS304)。
次いで、ユーザは、詳細画像を表示する操作をユーザ端末30に入力する(ステップS401)。
ユーザ端末30は、詳細画像を表示する操作を示す操作情報をサーバ装置40へ送信する(ステップS402)。
ユーザ端末30から受信した操作情報が詳細画像を表示する操作を示すため、サーバ装置40は、詳細画像表示処理を行う(ステップS403)。詳細画像表示処理の詳細については後述する。
ユーザ端末30は、サーバ装置40による詳細画像表示処理によって受信した詳細画像を表示する(ステップS404)。
ユーザ端末30は、詳細画像を表示する操作を示す操作情報をサーバ装置40へ送信する(ステップS402)。
ユーザ端末30から受信した操作情報が詳細画像を表示する操作を示すため、サーバ装置40は、詳細画像表示処理を行う(ステップS403)。詳細画像表示処理の詳細については後述する。
ユーザ端末30は、サーバ装置40による詳細画像表示処理によって受信した詳細画像を表示する(ステップS404)。
(3)詳細画像表示処理の流れ
図11を参照して、本実施形態に係る詳細画像表示処理の流れについて説明する。図11は、本実施形態に係る詳細画像表示処理の流れの一例を示すフローチャートである。
図11を参照して、本実施形態に係る詳細画像表示処理の流れについて説明する。図11は、本実施形態に係る詳細画像表示処理の流れの一例を示すフローチャートである。
図11に示すように、まず、操作情報取得部431は、操作情報を取得する(ステップS501)。
次いで、画像取得部432は、操作情報取得部431によって取得された操作情報に基づき、ユーザによる選択位置に対応する詳細画像を記憶部420から取得する(ステップS502)。
次いで、領域抽出部434は、画像取得部432によって取得された詳細画像から第1領域を抽出し、実空間画像の対応領域から第2領域を抽出する(ステップS503)。
次いで、変換行列生成部437は、領域抽出部434によって抽出された第1領域及び第2領域における複数の対応点に基づき、変換行列を生成する(ステップS504)。
次いで、画像生成部438は、変換行列生成部437によって生成された変換行列に基づき、実空間画像の対応領域の部分を変形させた合成画像を生成する(ステップS505)。
そして、画像表示部439は、合成画像及び詳細画像をユーザ端末30へ送信し、各画像の切り替え表示を実行する(ステップS506)。
次いで、画像取得部432は、操作情報取得部431によって取得された操作情報に基づき、ユーザによる選択位置に対応する詳細画像を記憶部420から取得する(ステップS502)。
次いで、領域抽出部434は、画像取得部432によって取得された詳細画像から第1領域を抽出し、実空間画像の対応領域から第2領域を抽出する(ステップS503)。
次いで、変換行列生成部437は、領域抽出部434によって抽出された第1領域及び第2領域における複数の対応点に基づき、変換行列を生成する(ステップS504)。
次いで、画像生成部438は、変換行列生成部437によって生成された変換行列に基づき、実空間画像の対応領域の部分を変形させた合成画像を生成する(ステップS505)。
そして、画像表示部439は、合成画像及び詳細画像をユーザ端末30へ送信し、各画像の切り替え表示を実行する(ステップS506)。
(4)注文に関する処理の流れ
図12を参照して、本実施形態に係る注文に関する処理の流れについて説明する。図12は、本実施形態に係る商品の注文に関する処理の流れの一例を示すシーケンス図である。
図12を参照して、本実施形態に係る注文に関する処理の流れについて説明する。図12は、本実施形態に係る商品の注文に関する処理の流れの一例を示すシーケンス図である。
図12に示すように、まず、ユーザは、商品を選択する操作をユーザ端末30に入力する(ステップS601)。ユーザ端末30は、ユーザによって商品を選択する操作が入力されたため、選択された商品について選択商品情報を一時的に記憶する。(ステップS602)。
商品選択の完了後、ユーザは、商品を注文する操作をユーザ端末30に入力する(ステップS603)。ユーザ端末30は、商品を注文する操作が入力されたため、一時的に記憶していた選択商品情報を取得する(ステップS604)。また、ユーザ端末30は、取得した選択商品情報に基づく注文画面を表示する(ステップS605)。
注文画面の確認後、ユーザは、注文を確定する操作をユーザ端末30に入力する(ステップS606)。ユーザ端末30は、ユーザによって注文を確定する操作が入力されたため、選択された商品の注文情報をサーバ装置40へ送信する(ステップS607)。
サーバ装置40の注文処理部440は、通信部410がユーザ端末30から受信した注文情報に基づき、注文処理を実行する(ステップS608)。
サーバ装置40の注文処理部440は、通信部410がユーザ端末30から受信した注文情報に基づき、注文処理を実行する(ステップS608)。
以上説明したように、本実施形態に係る画像処理システム1は、実空間が撮影された実空間画像と、実空間の一部を詳細に表示するために実空間の一部が実空間画像よりも狭い画角で撮影された詳細画像とを取得し、実空間画像から詳細画像が示す実空間の一部と対応する領域を示す対応領域を抽出し、対応領域に対して詳細画像を対応付け、対応領域に対して詳細画像を表示するための操作が行われた場合、対応領域に対応付けられている詳細画像を表示する。
かかる構成により、実空間画像と詳細画像が撮影される度に、実空間画像と詳細画像とが画像処理システム1によって対応付けられる。この実空間画像と詳細画像の対応付けは、選択された対応領域に対応する詳細画像を表示可能とするように行われる。これにより、仮想空間に用いる実空間画像に対して直接リンク情報を付与する必要がなくなるため、リンク情報の付与にかかっていた労力とコストを低減することができる。
また、商品配置の変更が生じた場合であっても各画像を新しく撮影するだけで画像処理システム1によって対応付けが行われる。これにより、画像に付与されたリンク情報を1つ1つ手動で変更する必要がなくなるため、リンク情報の変更にかかっていた労力とコストを低減することができる。
よって、本実施形態に係る画像処理システム1は、メンテナンスにかかる労力とコストを低減することを可能とする。
また、商品配置の変更が生じた場合であっても各画像を新しく撮影するだけで画像処理システム1によって対応付けが行われる。これにより、画像に付与されたリンク情報を1つ1つ手動で変更する必要がなくなるため、リンク情報の変更にかかっていた労力とコストを低減することができる。
よって、本実施形態に係る画像処理システム1は、メンテナンスにかかる労力とコストを低減することを可能とする。
<4.変形例>
以上、本発明の実施形態について説明した。続いて、本発明の実施形態の変形例について説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
以上、本発明の実施形態について説明した。続いて、本発明の実施形態の変形例について説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
(1)第1の変形例
上述の実施形態で説明した画像処理システム1は、詳細画像の表示範囲の変更、即ち別の視点の詳細画像への切り替えを行うことが可能な構成を有してもよい。この場合、ユーザは、ユーザ端末30に表示された詳細画像に対して、別の視点の詳細画像に切り替える操作を入力することで、詳細画像を切り替えることができる。例えば、ユーザが詳細画像をスワイプする操作を入力したとする。この場合、画像処理システム1は、スワイプ方向とは反対側にある詳細画像を表示する。これにより、ユーザは、例えば詳細画像に表示された商品を別の視点から確認することができるため、ユーザビリティを向上することができる。
上述の実施形態で説明した画像処理システム1は、詳細画像の表示範囲の変更、即ち別の視点の詳細画像への切り替えを行うことが可能な構成を有してもよい。この場合、ユーザは、ユーザ端末30に表示された詳細画像に対して、別の視点の詳細画像に切り替える操作を入力することで、詳細画像を切り替えることができる。例えば、ユーザが詳細画像をスワイプする操作を入力したとする。この場合、画像処理システム1は、スワイプ方向とは反対側にある詳細画像を表示する。これにより、ユーザは、例えば詳細画像に表示された商品を別の視点から確認することができるため、ユーザビリティを向上することができる。
画像表示部439は、詳細画像の切り替え表示において合成画像が生成されている場合、切り替え元の詳細画像から合成画像へ表示を切り替えてから、合成画像から切り替え先の詳細画像へ表示を切り替える。この時、画像表示部439は、合成画像を表示させる際に、合成画像と切り替え先の詳細画像の対応する領域(特徴が類似する領域)が重なり合うように、切り替え先の詳細画像の上に合成画像を表示する。合成画像の表示後、画像表示部439は、合成画像を消して、切り替え先の詳細画像を表示させる。この時、画像表示部439は、例えば合成画像をフェードアウトさせて切り替え先の詳細画像をフェードインさせることや、モーフィングの適用を行ってもよい。これにより、画像表示部439は、視覚的な連続性を保ったままシーンを変化させることができる。
(2)第2の変形例
また、上述の実施形態で説明した画像処理システム1は、画像のパースを補正することが可能な構成を有してもよい。例えば、画像処理システム1は、詳細画像のパースを補正することで、領域抽出部434による領域抽出の精度を向上することができる。
また、上述の実施形態で説明した画像処理システム1は、画像のパースを補正することが可能な構成を有してもよい。例えば、画像処理システム1は、詳細画像のパースを補正することで、領域抽出部434による領域抽出の精度を向上することができる。
(3)第3の変形例
また、上述の実施形態で説明した画像処理システム1は、詳細画像を撮影した詳細画像撮影装置20と被写体との幾何学的関係を示す幾何情報に応じて、複数の対応点から一部の対応点を選択し、当該一部の対応点のみから変換行列を生成することが可能な構成を有してもよい。この場合、画像処理システム1は、まず、距離センサ(例えばLiDAR(Light Detection and Ranging))や傾きセンサ(例えば傾斜センサや慣性センサなど)などのセンサ装置によって距離情報や傾き情報を幾何情報として取得する。
距離情報は、詳細画像撮影装置20から被写体までの距離を示す情報である。例えば、距離センサは、詳細画像撮影装置20が詳細画像を撮影した位置から、詳細画像に写る各被写体(例えば商品)までの距離を測定する。傾き情報は、被写体を撮影している詳細画像撮影装置20の傾きを示す情報である。例えば、傾きセンサは、詳細画像撮影装置20を被写体と正対させるために傾けた角度を測定する。
また、上述の実施形態で説明した画像処理システム1は、詳細画像を撮影した詳細画像撮影装置20と被写体との幾何学的関係を示す幾何情報に応じて、複数の対応点から一部の対応点を選択し、当該一部の対応点のみから変換行列を生成することが可能な構成を有してもよい。この場合、画像処理システム1は、まず、距離センサ(例えばLiDAR(Light Detection and Ranging))や傾きセンサ(例えば傾斜センサや慣性センサなど)などのセンサ装置によって距離情報や傾き情報を幾何情報として取得する。
距離情報は、詳細画像撮影装置20から被写体までの距離を示す情報である。例えば、距離センサは、詳細画像撮影装置20が詳細画像を撮影した位置から、詳細画像に写る各被写体(例えば商品)までの距離を測定する。傾き情報は、被写体を撮影している詳細画像撮影装置20の傾きを示す情報である。例えば、傾きセンサは、詳細画像撮影装置20を被写体と正対させるために傾けた角度を測定する。
なお、距離センサや傾きセンサは、詳細画像撮影装置20の内部に設けられていてもよいし、詳細画像撮影装置20の外部に設けられていてもよい。距離センサや傾きセンサが詳細画像撮影装置20の外部に設けられる場合、距離センサは詳細画像撮影装置20から被写体までの距離を測定し、傾きセンサは詳細画像撮影装置20の傾きを測定する。傾きセンサによる傾き情報の取得は、例えば、詳細画像撮影装置20の筐体の外部や詳細画像を撮影する移動体に設けることで可能である。
また、幾何情報は、幾何情報を取得するために設けられた撮影装置によって撮影された画像に基づき取得されてもよい。例えば、画像処理システム1は、詳細画像撮影装置20の外部に設けられたカメラによって詳細画像撮影装置20が詳細画像を撮影している様子を撮影し、撮影した画像を解析することで距離情報や傾き情報を幾何情報として取得する。
また、幾何情報は、詳細画像撮影装置20によって撮影された詳細画像の解析、ユーザによる入力、ユーザの視線位置や操作情報などに基づき取得されてもよい。
また、幾何情報は、詳細画像撮影装置20によって撮影された詳細画像の解析、ユーザによる入力、ユーザの視線位置や操作情報などに基づき取得されてもよい。
変換行列生成部437は、上述のようにして取得された幾何情報に基づき、例えば詳細画像撮影装置20の撮影位置から距離が近い位置にある対応点を計算に用い、距離が離れた位置にある対応点を計算から除外する。これは、詳細画像撮影装置20の撮影位置から近い位置ほど、ユーザに注目してもらいたい場合が多いためである。これにより、変換行列生成部437は、ユーザに注目してもらいたい位置にフォーカスした合成画像を生成するための変換行列を生成することができる。
(4)第4の変形例
また、上述の実施形態で説明した画像処理システム1は、実空間画像の対応領域の部分と合成画像との間を補う画像を生成することが可能な構成を有してもよい。例えば、変換行列生成部437が補間変換行列を生成し、画像生成部438が補間変換行列によって補間画像を生成する構成である。補間変換行列は、空間画像の対応領域の部分と合成画像との間を補う画像である補間画像を生成するための変換行列である。例えば、変換行列生成部437は、実空間画像の対応領域の部分の頂点と合成画像の頂点とに基づき、補間変換行列を生成する。
また、上述の実施形態で説明した画像処理システム1は、実空間画像の対応領域の部分と合成画像との間を補う画像を生成することが可能な構成を有してもよい。例えば、変換行列生成部437が補間変換行列を生成し、画像生成部438が補間変換行列によって補間画像を生成する構成である。補間変換行列は、空間画像の対応領域の部分と合成画像との間を補う画像である補間画像を生成するための変換行列である。例えば、変換行列生成部437は、実空間画像の対応領域の部分の頂点と合成画像の頂点とに基づき、補間変換行列を生成する。
具体的に、変換行列生成部437は、実空間画像の対応領域の部分と合成画像との対応する頂点間を等分し、等分における分割位置ごとに補間変換行列を生成する。例えば、n点補間するためにはn個の補間変換行列を生成する必要ある。このため、分割位置もn個必要であるため、頂点間を(n+1)等分する必要がある。
(n+1)等分した場合、変換行列生成部437は、分割した1番目からn番目までの各分割位置を示す位置情報に基づき、補間変換行列(ホモグラフィ行列)H1~Hnを生成する。
(n+1)等分した場合、変換行列生成部437は、分割した1番目からn番目までの各分割位置を示す位置情報に基づき、補間変換行列(ホモグラフィ行列)H1~Hnを生成する。
画像生成部438は、実空間画像の対応領域の部分と補間変換行列H1~Hnを用いた変換によって、補間画像I1~Inを生成する。
画像表示部439は、実空間画像の対応領域の部分を詳細画像へ切り替える際に、補間画像I1~In、合成画像、詳細画像の順に画像を表示する。
これにより、実空間画像の対応領域の部分から詳細画像への切り替えがより滑らかに行われる。よって、画像の切り替え前後で構図が大きく変わる場合であっても、シーンの連続性のズレの発生が低減され、ユーザビリティの低下を防ぐことができる。
画像表示部439は、実空間画像の対応領域の部分を詳細画像へ切り替える際に、補間画像I1~In、合成画像、詳細画像の順に画像を表示する。
これにより、実空間画像の対応領域の部分から詳細画像への切り替えがより滑らかに行われる。よって、画像の切り替え前後で構図が大きく変わる場合であっても、シーンの連続性のズレの発生が低減され、ユーザビリティの低下を防ぐことができる。
以上、本発明の実施形態について説明した。なお、上述した実施形態における画像処理システム1又はサーバ装置40の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
1…画像処理システム、10…実空間画像撮影装置、20…詳細画像撮影装置、30…ユーザ端末、40…サーバ装置、50…実空間画像、51…詳細画像、60…実空間画像、61…詳細画像、410…通信部、420…記憶部、430…制御部、431…操作情報取得部、432…画像取得部、433…幾何情報取得部、434…領域抽出部、435…対応付け部、436…ログイン処理部、437…変換行列生成部、438…画像生成部、439…画像表示部、440…注文処理部、NW…ネットワーク
Claims (7)
- 実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得部と、
前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出部と、
前記対応領域に対して前記詳細画像を対応付ける対応付け部と、
前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示部と、
を備える画像処理システム。 - 前記領域抽出部は、前記実空間画像を撮影した第1撮影装置と、前記詳細画像を撮影した第2撮影装置との位置関係に基づき、前記対応領域を抽出する、
請求項1に記載の画像処理システム。 - 前記領域抽出部は、前記詳細画像から抽出する第1領域と、前記実空間画像から抽出する前記第1領域と類似した特徴を有する第2領域とに基づき、前記対応領域を抽出する、
請求項1又は請求項2に記載の画像処理システム。 - 前記第1領域が前記第2領域に重なるよう、前記実空間画像の前記対応領域の部分を変形させた合成画像を生成する画像生成部、
をさらに備え、
前記画像表示部は、前記合成画像と前記詳細画像の切り替え表示を行う、
請求項3に記載の画像処理システム。 - 前記第1領域及び前記第2領域において特徴が類似している位置を示す複数の対応点に基づき、変換行列を生成する変換行列生成部、
をさらに備え、
前記画像生成部は、前記変換行列に基づき、前記実空間画像の前記対応領域の部分を変形させる、
請求項4に記載の画像処理システム。 - 画像取得部が、実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得過程と、
領域抽出部が、前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出過程と、
対応付け部が、前記対応領域に対して前記詳細画像を対応付ける対応付け過程と、
画像表示部が、前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示過程と、
を含む画像処理方法。 - コンピュータを、
実空間が撮影された実空間画像と、前記実空間の一部を詳細に表示するために前記実空間の一部が前記実空間画像よりも狭い画角で撮影された詳細画像とを取得する画像取得手段と、
前記実空間画像から、前記詳細画像が示す前記実空間の一部と対応する領域を示す対応領域を抽出する領域抽出手段と、
前記対応領域に対して前記詳細画像を対応付ける対応付け手段と、
前記対応領域に対して前記詳細画像を表示するための操作が行われた場合、前記対応領域に対応付けられている前記詳細画像を表示する画像表示手段と、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022100154A JP2024001477A (ja) | 2022-06-22 | 2022-06-22 | 画像処理システム、画像処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022100154A JP2024001477A (ja) | 2022-06-22 | 2022-06-22 | 画像処理システム、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024001477A true JP2024001477A (ja) | 2024-01-10 |
Family
ID=89455069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022100154A Pending JP2024001477A (ja) | 2022-06-22 | 2022-06-22 | 画像処理システム、画像処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024001477A (ja) |
-
2022
- 2022-06-22 JP JP2022100154A patent/JP2024001477A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10699481B2 (en) | Augmentation of captured 3D scenes with contextual information | |
US9760987B2 (en) | Guiding method and information processing apparatus | |
US9723203B1 (en) | Method, system, and computer program product for providing a target user interface for capturing panoramic images | |
US20180048809A1 (en) | Method, system, and computer program product for gamifying the process of obtaining panoramic images | |
JP6167703B2 (ja) | 表示制御装置、プログラム及び記録媒体 | |
US20170310936A1 (en) | Situation awareness system and method for situation awareness in a combat vehicle | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
US11044398B2 (en) | Panoramic light field capture, processing, and display | |
KR20150071660A (ko) | 제어장치, 촬상 시스템, 제어방법, 및 기록 매체 | |
CN107851069B (zh) | 图像管理系统、图像管理方法及程序 | |
WO2021168804A1 (zh) | 图像处理方法、图像处理装置和图像处理系统 | |
US10187610B2 (en) | Controlling display based on an object position in an imaging space | |
WO2015072091A1 (ja) | 画像処理装置、画像処理方法及びプログラム記憶媒体 | |
JP2016194783A (ja) | 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム | |
JP2016194784A (ja) | 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム | |
JP6617547B2 (ja) | 画像管理システム、画像管理方法、プログラム | |
JP5847591B2 (ja) | 情報処理装置、情報処理装置の情報処理方法およびプログラム | |
JP2024001477A (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP2016096482A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2019144958A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2024001476A (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP2002042158A (ja) | 画像合成装置および画像合成方法およびプログラムを記録した媒体 | |
JP2021040231A (ja) | 画像処理装置およびプログラム | |
WO2024001849A1 (zh) | 视觉定位的位姿确定方法、装置以及电子设备 | |
JP2017182843A (ja) | プログラム、表示制御装置及び表示制御方法 |