JP2015080199A - 画像処理装置および方法 - Google Patents
画像処理装置および方法 Download PDFInfo
- Publication number
- JP2015080199A JP2015080199A JP2014174173A JP2014174173A JP2015080199A JP 2015080199 A JP2015080199 A JP 2015080199A JP 2014174173 A JP2014174173 A JP 2014174173A JP 2014174173 A JP2014174173 A JP 2014174173A JP 2015080199 A JP2015080199 A JP 2015080199A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- viewpoint
- furniture
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
- G06Q30/0635—Processing of requisition or of purchase orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
1.第1の実施の形態(多視点画像利用サービスプラットフォーム)
2.第2の実施の形態(多視点画像の管理)
3.第3の実施の形態(アプリケーション販売)
4.第4の実施の形態(仮想レンズ処理)
5.第5の実施の形態(物販支援)
6.その他
<多視点画像利用サービスプラットフォーム>
図1は、多視点画像利用サービスプラットフォームの例を説明する図である。図1に示される多視点画像利用サービスプラットフォーム100は、視点が互いに異なる複数の画像からなる多視点画像を用いたサービスをユーザに提供する基礎的な構造・環境である。多視点画像利用サービスプラットフォーム100は、例えば、クラウドストレージ101、アプリケーションマーケット102等の機能を有する。
<多視点画像の管理>
第1の実施の形態において説明したように、多視点画像利用サービスプラットフォーム100は、例えば、クラウドストレージ101の機能を有し、多視点画像データを記憶し、管理するサービスを提供することができる。本実施の形態において、この多視点画像の管理について説明する。
図3は、多視点画像利用サービス提供システムの主な構成例を示す図である。図3に示される多視点画像利用サービス提供システム200は、本技術を適用したシステムの一例であり、サーバ202が、ネットワーク210を介して接続される端末装置201に対して、多視点画像を利用したサービスを提供するシステムである。つまり、多視点画像利用サービス提供システム200は、多視点画像利用サービスプラットフォーム100を実現する構成の一例である。
図4は、端末装置201の主な構成例を示すブロック図である。図4に示されるように、端末装置201において、CPU(Central Processing Unit)221、ROM(Read Only Memory)222、RAM(Random Access Memory)223は、バス224を介して相互に接続されている。
図6は、サーバ202の主な構成例を示すブロック図である。図6に示されるように、サーバ202において、CPU251、ROM252、RAM253は、バス254を介して相互に接続されている。
端末装置201は、CPU221が所定のプログラムを実行することにより、図7Aに機能ブロックとして示される機能を有する。図7Aに示されるように、CPU221は、撮像制御部281、メタデータ生成部282、符号化部283、および伝送制御部284等の機能ブロックを有する。
以上のような構成の多視点画像利用サービス提供システムの端末装置201およびサーバ202は、多視点画像利用サービス提供処理を実行することにより、多視点画像を利用するサービスの提供、本実施の形態の場合、多視点画像の管理等のサービスの提供を行う。図9のフローチャートを参照して、これらの装置が実行する多視点画像利用サービス提供処理の流れの例を説明する。
次に、図14のフローチャートを参照して、図9のステップS113において実行されるデプス検出処理の流れの例を説明する。
<アプリケーション販売>
第1の実施の形態において説明したように、多視点画像利用サービスプラットフォーム100は、例えば、アプリケーションマーケット102において、アプリケーション112を販売するサービスを提供することができる。本実施の形態において、このアプリケーションの販売について説明する。
図15は、多視点画像利用サービス提供システムの主な構成例を示す図である。図15に示される多視点画像利用サービス提供システム200は、本技術を適用したシステムの一例であり、サーバ202が、ネットワーク210を介して接続される端末装置201に対して、多視点画像を利用したサービスを提供するシステムである。つまり、多視点画像利用サービス提供システム200は、多視点画像利用サービスプラットフォーム100を実現する構成の一例である。
図16は、アプリケーション提供サーバ402の主な構成例を示すブロック図である。図16に示されるように、アプリケーション提供サーバ402において、CPU411、ROM412、RAM413は、バス414を介して相互に接続されている。
端末装置401は、CPU221が所定のプログラムを実行することにより、図17Aに機能ブロックとして示される機能を有する。図17Aに示されるように、CPU221は、アプリケーション購入処理部441等の機能ブロックを有する。
以上のような構成の多視点画像利用サービス提供システムの端末装置401、サーバ202、およびアプリケーション提供サーバ402は、多視点画像利用サービス提供処理を実行することにより、多視点画像を利用するサービスの提供、本実施の形態の場合、アプリケーションの販売等のサービスの提供を行う。図18のフローチャートを参照して、これらの装置が実行する多視点画像利用サービス提供処理の流れの例を説明する。
<仮想レンズ処理>
以上のようにユーザに提供されるアプリケーションを実行することにより、多視点画像利用サービスプラットフォーム100は、様々な多視点画像を利用するサービスをユーザに提供することができる。
図20は、多視点画像利用サービス提供システムの主な構成例を示す図である。図20に示される多視点画像利用サービス提供システム200は、本技術を適用したシステムの一例であり、サーバ202が、ネットワーク210を介して接続される端末装置201に対して、多視点画像を利用したサービスを提供するシステムである。つまり、多視点画像利用サービス提供システム200は、多視点画像利用サービスプラットフォーム100を実現する構成の一例である。
次に、仮想レンズ処理の概要について説明する。仮想レンズ処理においては、図2Aに示されるような、ユーザにより指定された仮想のレンズ150が設定され、その仮想のレンズ150に入射する被写体からの入射光である光線ベクトル151、仮想のレンズ150を透過した後の入射光である光線ベクトル152、および、光線ベクトル152から仮想の撮像画像を得る仮想のイメージセンサ153等がシミュレーション(模擬的に現出)され、そのシミュレーションに基づいて、多視点画像から仮想の撮像画像が生成される。
端末装置401は、CPU221が所定のプログラムを実行することにより、図22Aに機能ブロックとして示される機能を有する。図22Aに示されるように、CPU221は、ユーザ指示受付処理部511、表示制御部512、および伝送制御部513等の機能ブロックを有する。
以上のような構成の多視点画像利用サービス提供システムの端末装置401およびサーバ202、多視点画像利用サービス提供処理を実行することにより、多視点画像を利用するサービスの提供、本実施の形態の場合、レンズシミュレーションのサービスの提供を行う。図23のフローチャートを参照して、これらの装置が実行する多視点画像利用サービス提供処理の流れの例を説明する。
図24は、表示部531に表示される設定GUIの例を示す模式図である。
次に、図25のフローチャートを参照して、図23のステップS229において実行される仮想レンズ処理の詳細な流れの例について説明する。
<物販支援>
本実施の形態においては、そのアプリケーションの他の例として、第1の実施の形態において説明した物販支援を行うアプリケーションの実行の様子について説明する。なお、本実施の形態においては、物販支援の一例として、第1の実施の形態において説明したような、家具の販売を支援するアプリケーションについて説明する。
図27は、多視点画像利用サービス提供システムの主な構成例を示す図である。図27に示される多視点画像利用サービス提供システム200は、本技術を適用したシステムの一例であり、サーバ202が、ネットワーク210を介して接続される端末装置201に対して、多視点画像を利用したサービスを提供するシステムである。つまり、多視点画像利用サービス提供システム200は、多視点画像利用サービスプラットフォーム100を実現する構成の一例である。
次に、以上のような多視点画像利用サービス提供システム200により提供される家具販売支援サービスにおける販売の支援方法について、より具体的に説明する。本技術を適用した多視点画像利用サービスプラットフォーム100により提供される物販支援サービスは、販売支援対象の物品の画像であるオブジェクトを、所望の背景画像に仮想的に配置させることにより、ユーザに、その物品を使用した時の状態を想定させるサービスである。図27の多視点画像利用サービス提供システム200により提供される家具販売支援サービスは、販売支援対象の家具の画像(家具画像)をオブジェクトの一例として採用し、仮想撮像画像を背景画像の一例として採用する。すなわち、この家具販売支援サービスは、仮想撮像画像に家具画像を配置することにより、ユーザに、その家具を部屋等に配置した時の状態を想定させるサービスである。なお、その際、家具販売支援サービスは、単に仮想撮像画像に家具画像を合成するだけでなく、仮想撮像画像のデプスデータを用いて、家具画像の大きさや向きを、その家具画像の配置位置に応じて設定する。これにより、ユーザにより正確な状態を想定させることができる。
端末装置201は、CPU221が所定のプログラムを実行することにより、図30Aに機能ブロックとして示される機能を有する。図30Aに示されるように、CPU221は、ユーザ指示受付処理部651、表示制御部652、撮像制御部653、メタデータ生成部654、デプス検出部655、仮想撮像画像生成部656、家具画像配置処理部657、購入処理部658、ファイル生成部659、合成画像データ生成部660、アプリケーションパラメータ生成部661、および伝送制御部662等の機能ブロックを有する。
以上のような構成の多視点画像利用サービス提供システムの端末装置201、サーバ202、および家具販売サーバ601は、多視点画像利用サービス提供処理を実行することにより、多視点画像を利用するサービスの提供、本実施の形態の場合、物販支援のサービスの提供を行う。図31乃至図33のフローチャートを参照して、これらの装置が実行する多視点画像利用サービス提供処理の流れの例を説明する。
次に、図34のフローチャートを参照して、図32のステップS333において実行される家具画像配置処理の詳細な流れの例について説明する。
以上のような物販支援のアプリケーションにおいて、配置位置指定が更新されたら、その更新に応じて、家具画像の合成位置を変更するようにしてもよい。例えば、図35Aに示されるように、仮想撮像画像701に配置された家具画像702Aの配置位置指定を点線矢印703のように更新した場合、家具画像702Aは、その更新後の配置位置に応じて大きさや向きが再設定される(家具画像702B)。
また、家具画像の配置において、家具画像が仮想撮像画像の床等に接地しているか否かを判定するようにしてもよい。例えば、図37Aに示される仮想撮像画像711において、ライトスタンド712が、図37Aに示されるような位置に配置指定されたとする。この場合、ライトスタンド712は、点線両矢印713に示されるように、床714から離れており、空中に浮いた状態で配置されることになり、現実的な配置位置ではなく、家具配置のシミュレーションとしては不適切であり、望ましくない。
また、仮想撮像画像上で長さを計測することができるようにしてもよい。例えば、図39に示されるように、仮想撮像画像721において、点線両矢印722のように窓の横幅を計測するとする。仮想撮像画像721内において、窓の大きさは、その窓の奥行き方向の距離等によって変化する。そこで、多視点画像のデプスデータや基線長情報等を用いて、計測された長さを、その奥行き方向の距離に応じて補正するようにしてもよい。
また、仮想撮像画像上で照明(光線)の当たり方を再現するようにしてもよい。例えば、図41にしめされるように、仮想撮像画像731にライトスタンド732を配置したとき、このライトスタンド732の照明を点灯させた状態を再現するようにしてもよい。
また、仮想撮像画像上において、動線となる部分を強調表示するようにしてもよい。例えば、図43にしめされるように、仮想撮像画像741上にテーブル742を配置した状態において、動線としての条件を満たす部分743を特定し、その部分を案内するようにしてもよい。図43の例の場合、その動線としての条件を満たす部分743が斜線模様等で強調されるように表示されている。動線としての条件は、任意であるが、例えば、床等の人が立つことができること、人が通れる程度の幅が確保されていること等が考えられる。
また、家具を配置する際に、仮想撮像画像上に人物画像を配置するようにしてもよい。例えば、図45に示されるように、仮想撮像画像751に椅子752を配置し、その近傍に、人物画像753を配置することができるようにしてもよい。この人物画像は、実際の人物の撮像画像であってもよいし、架空の人物の画像であってもよい。いずれにしても、この人物画像には、家具画像と同様の3Dモデリングデータが関連付けられている。
また、上述したように、ユーザが配置する家具を選択する際に、家具のリストが提示されるが、その際、仮想撮像画像内に配置可能な家具のみをリストにしてユーザに提示するようにしてもよい。つまり、配置不可能な家具をリストから省略するようにし、ユーザ等が、配置可能な家具画像(オブジェクト)の中から仮想撮像画像(背景画像)に配置する家具画像を選択するようにしてもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
(1) 背景画像における奥行き方向の距離を示すデプスデータと、前記背景画像における長さの基準となる情報である基線長情報と、オブジェクトをモデリングする際に用いるモデリングデータとに基づいて、前記背景画像に前記オブジェクトを配置する位置に連動した前記オブジェクトのモデリング状態で、前記オブジェクトを前記背景画像に配置する配置処理部
を備える画像処理装置。
(2) 前記配置処理部は、前記オブジェクトを第1の位置から第2の位置に配置した場合、前記第1の位置に対応するオブジェクトの状態から前記第2の位置に対応するオブジェクトの状態に変更する
(1)に記載の画像処理装置。
(3) 前記配置処理部は、前記背景画像の視点の位置が第1の視点位置から第2の視点位置に変化した場合、前記第1の視点位置に対応するオブジェクトの状態から前記第2の視点位置に対応するオブジェクトの状態に変更する
(1)または(2)に記載の画像処理装置。
(4) 前記配置処理部は、前記背景画像の視点の向きが第1の向きから第2の向きに変化した場合、前記第1の向きに対応するオブジェクトの状態から前記第2の向きに対応するオブジェクトの状態に変更する
(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記配置処理部は、オブジェクトの状態が前記背景画像又は他のオブジェクトと接する状態となるように、前記オブジェクトを移動させる
(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記オブジェクトの状態は、前記オブジェクトの位置と向きの状態である
(2)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記配置処理部は、光源に関するパラメータである光源パラメータ、および、前記デプスデータに基づいて、前記背景画像における光の当たり方を模擬的に現出した前記光の当たり方を、前記背景画像に反映させる
(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記配置処理部は、前記オブジェクトが配置された前記背景画像において、動線としての条件を満たす部分を強調して表示する
(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記配置処理部は、前記デプスデータと、前記基線長情報と、人物の画像のモデリングデータとに基づいて、前記オブジェクトが配置された前記背景画像に前記人物の画像を配置する位置における前記人物のモデリング状態で、前記人物の画像を前記背景画像に配置する
(1)乃至(8)のいずれかに記載の画像処理装置。
(10) 前記配置処理部は、前記デプスデータと、前記基線長情報と、オブジェクトの候補の中から選択されたオブジェクトのモデリングデータとに基づいて、前記背景画像に前記オブジェクトの候補の中から選択された前記オブジェクトを配置する位置における、前記オブジェクトの候補の中から選択された前記オブジェクトのモデリング状態で、前記オブジェクトの候補の中から選択された前記オブジェクトを、前記背景画像に配置する
(1)乃至(9)のいずれかに記載の画像処理装置。
(11) 前記配置処理部は、前記デプスデータと、前記基線長情報と、前記モデリングデータとに基づいて、前記背景画像に配置可能なオブジェクトの中から、前記背景画像に配置するオブジェクトを選択する
(10)に記載の画像処理装置。
(12) 被写体を撮像し、撮像画像を前記背景画像として得る撮像部と、
前記撮像部により得られた前記撮像画像のデプスデータを生成するデプスデータ生成部と
をさらに備える(1)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記撮像画像は、視点が互いに異なる複数の画像からなる多視点画像であり、
前記デプスデータ生成部は、前記多視点画像のデプスデータを生成し、
前記多視点画像と前記デプスデータに基づいて、前記多視点画像の被写体を撮像して得られる仮想の撮像画像を、前記背景画像として生成する仮想撮像画像生成部をさらに備える
(12)に記載の画像処理装置。
(14) 前記オブジェクトは家具の画像である
(1)乃至(13)のいずれかに記載の画像処理装置。
(15) 前記配置処理部により前記背景画像に配置された前記家具を購入する購入処理を行う購入処理部をさらに備える
(14)に記載の画像処理装置。
(16) 前記背景画像の生成に用いられる、視点が互いに異なる複数の画像からなる多視点画像のデータである多視点画像データと、前記多視点画像のデプスデータとを伝送する伝送部をさらに備える
(1)乃至(15)のいずれかに記載の画像処理装置。
(17) 前記配置処理部により前記オブジェクトが配置された前記背景画像の画像データを生成する合成画像データ生成部をさらに備え、
前記伝送部は、前記合成画像データ生成部により生成された前記合成画像データをさらに伝送する
(16)に記載の画像処理装置。
(18) 前記背景画像と前記オブジェクトの合成に関するパラメータであるアプリケーションパラメータを生成するアプリケーションパラメータ生成部をさらに備え、
前記伝送部は、前記アプリケーションパラメータ生成部により生成された前記アプリケーションパラメータをさらに伝送する
(16)または(17)に記載の画像処理装置。
(19) 前記多視点画像に関するメタデータを生成するメタデータ生成部をさらに備え、
前記伝送部は、前記メタデータ生成部により生成された前記メタデータをさらに伝送する
(16)乃至(18)のいずれかに記載の画像処理装置。
(20) 前記メタデータは、前記基線長情報を含む
(19)に記載の画像処理装置。
(21) 背景画像における奥行き方向の距離を示すデプスデータと、前記背景画像における長さの基準となる情報である基線長情報と、オブジェクトをモデリングする際に用いるモデリングデータとに基づいて、前記背景画像に前記オブジェクトを配置する位置に連動した前記オブジェクトのモデリング状態で、前記オブジェクトを前記背景画像に配置する
画像処理方法。
Claims (21)
- 背景画像における奥行き方向の距離を示すデプスデータと、前記背景画像における長さの基準となる情報である基線長情報と、オブジェクトをモデリングする際に用いるモデリングデータとに基づいて、前記背景画像に前記オブジェクトを配置する位置に連動した前記オブジェクトのモデリング状態で、前記オブジェクトを前記背景画像に配置する配置処理部
を備える画像処理装置。 - 前記配置処理部は、前記オブジェクトを第1の位置から第2の位置に配置した場合、前記第1の位置に対応するオブジェクトの状態から前記第2の位置に対応するオブジェクトの状態に変更する
請求項1に記載の画像処理装置。 - 前記配置処理部は、前記背景画像の視点の位置が第1の視点位置から第2の視点位置に変化した場合、前記第1の視点位置に対応するオブジェクトの状態から前記第2の視点位置に対応するオブジェクトの状態に変更する
請求項1に記載の画像処理装置。 - 前記配置処理部は、前記背景画像の視点の向きが第1の向きから第2の向きに変化した場合、前記第1の向きに対応するオブジェクトの状態から前記第2の向きに対応するオブジェクトの状態に変更する
請求項1に記載の画像処理装置。 - 前記配置処理部は、オブジェクトの状態が前記背景画像又は他のオブジェクトと接する状態となるように、前記オブジェクトを移動させる
請求項1に記載の画像処理装置。 - 前記オブジェクトの状態は、前記オブジェクトの位置と向きの状態である
請求項2乃至請求項5に記載の画像処理装置。 - 前記配置処理部は、光源に関するパラメータである光源パラメータ、および、前記デプスデータに基づいて、前記背景画像における光の当たり方を模擬的に現出した前記光の当たり方を、前記背景画像に反映させる
請求項1に記載の画像処理装置。 - 前記配置処理部は、前記オブジェクトが配置された前記背景画像において、動線としての条件を満たす部分を強調して表示する
請求項1に記載の画像処理装置。 - 前記配置処理部は、前記デプスデータと、前記基線長情報と、人物の画像のモデリングデータとに基づいて、前記オブジェクトが配置された前記背景画像に前記人物の画像を配置する位置における前記人物のモデリング状態で、前記人物の画像を前記背景画像に配置する
請求項1に記載の画像処理装置。 - 前記配置処理部は、前記デプスデータと、前記基線長情報と、オブジェクトの候補の中から選択されたオブジェクトのモデリングデータとに基づいて、前記背景画像に前記オブジェクトの候補の中から選択された前記オブジェクトを配置する位置における、前記オブジェクトの候補の中から選択された前記オブジェクトのモデリング状態で、前記オブジェクトの候補の中から選択された前記オブジェクトを、前記背景画像に配置する
請求項1に記載の画像処理装置。 - 前記配置処理部は、前記デプスデータと、前記基線長情報と、前記モデリングデータとに基づいて、前記背景画像に配置可能なオブジェクトの中から、前記背景画像に配置するオブジェクトを選択する
請求項10に記載の画像処理装置。 - 被写体を撮像し、撮像画像を前記背景画像として得る撮像部と、
前記撮像部により得られた前記撮像画像のデプスデータを生成するデプスデータ生成部と
をさらに備える請求項1に記載の画像処理装置。 - 前記撮像画像は、視点が互いに異なる複数の画像からなる多視点画像であり、
前記デプスデータ生成部は、前記多視点画像のデプスデータを生成し、
前記多視点画像と前記デプスデータに基づいて、前記多視点画像の被写体を撮像して得られる仮想の撮像画像を、前記背景画像として生成する仮想撮像画像生成部をさらに備える
請求項12に記載の画像処理装置。 - 前記オブジェクトは家具の画像である
請求項1に記載の画像処理装置。 - 前記配置処理部により前記背景画像に配置された前記家具を購入する購入処理を行う購入処理部をさらに備える
請求項14に記載の画像処理装置。 - 前記背景画像の生成に用いられる、視点が互いに異なる複数の画像からなる多視点画像のデータである多視点画像データと、前記多視点画像のデプスデータとを伝送する伝送部をさらに備える
請求項1に記載の画像処理装置。 - 前記配置処理部により前記オブジェクトが配置された前記背景画像の画像データを生成する合成画像データ生成部をさらに備え、
前記伝送部は、前記合成画像データ生成部により生成された前記合成画像データをさらに伝送する
請求項16に記載の画像処理装置。 - 前記背景画像と前記オブジェクトの合成に関するパラメータであるアプリケーションパラメータを生成するアプリケーションパラメータ生成部をさらに備え、
前記伝送部は、前記アプリケーションパラメータ生成部により生成された前記アプリケーションパラメータをさらに伝送する
請求項16に記載の画像処理装置。 - 前記多視点画像に関するメタデータを生成するメタデータ生成部をさらに備え、
前記伝送部は、前記メタデータ生成部により生成された前記メタデータをさらに伝送する
請求項16に記載の画像処理装置。 - 前記メタデータは、前記基線長情報を含む
請求項19に記載の画像処理装置。 - 背景画像における奥行き方向の距離を示すデプスデータと、前記背景画像における長さの基準となる情報である基線長情報と、オブジェクトをモデリングする際に用いるモデリングデータとに基づいて、前記背景画像に前記オブジェクトを配置する位置に連動した前記オブジェクトのモデリング状態で、前記オブジェクトを前記背景画像に配置する
画像処理方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014174173A JP6476658B2 (ja) | 2013-09-11 | 2014-08-28 | 画像処理装置および方法 |
CN201480046754.9A CN105493138A (zh) | 2013-09-11 | 2014-09-02 | 图像处理装置和方法 |
EP14767157.2A EP3039642B1 (en) | 2013-09-11 | 2014-09-02 | Image processing device and method |
PCT/JP2014/004507 WO2015037211A1 (en) | 2013-09-11 | 2014-09-02 | Image processing device and method |
EP18154027.9A EP3349175A1 (en) | 2013-09-11 | 2014-09-02 | Image processing device and method |
US14/903,115 US10587864B2 (en) | 2013-09-11 | 2014-09-02 | Image processing device and method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013188409 | 2013-09-11 | ||
JP2013188409 | 2013-09-11 | ||
JP2014174173A JP6476658B2 (ja) | 2013-09-11 | 2014-08-28 | 画像処理装置および方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015080199A true JP2015080199A (ja) | 2015-04-23 |
JP2015080199A5 JP2015080199A5 (ja) | 2017-02-23 |
JP6476658B2 JP6476658B2 (ja) | 2019-03-06 |
Family
ID=51570815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014174173A Active JP6476658B2 (ja) | 2013-09-11 | 2014-08-28 | 画像処理装置および方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10587864B2 (ja) |
EP (2) | EP3039642B1 (ja) |
JP (1) | JP6476658B2 (ja) |
CN (1) | CN105493138A (ja) |
WO (1) | WO2015037211A1 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170044811A (ko) * | 2015-10-15 | 2017-04-26 | 삼성전자주식회사 | 이미지 장치 및 그것의 뎁쓰 계산 방법 |
WO2019198557A1 (ja) | 2018-04-09 | 2019-10-17 | ソニー株式会社 | 信号処理装置、信号処理方法および信号処理プログラム |
WO2020054203A1 (ja) * | 2018-09-10 | 2020-03-19 | 富士フイルム株式会社 | 表示装置、方法およびプログラム |
JP2020522926A (ja) * | 2017-05-31 | 2020-07-30 | ベライゾン・パテント・アンド・ライセンシング・インコーポレイテッドVerizon Patent And Licensing Inc. | 取り込まれた2d風景画像を使用して仮想現実コンテンツを提供するための方法およびシステム |
JP2021009495A (ja) * | 2019-06-28 | 2021-01-28 | Line株式会社 | 情報処理方法、プログラム、端末 |
WO2021161719A1 (ja) * | 2020-02-12 | 2021-08-19 | パナソニックIpマネジメント株式会社 | 介護用品提案支援システム、介護用品提案支援方法及びプログラム |
KR20210153199A (ko) * | 2020-06-10 | 2021-12-17 | 주식회사 엘지유플러스 | 부가 오브젝트를 포함하는 영상 출력 방법 및 장치 |
US11257476B2 (en) | 2018-03-16 | 2022-02-22 | Sony Corporation | Signal processing apparatus and signal processing method |
JP2022526053A (ja) * | 2019-04-01 | 2022-05-23 | グーグル エルエルシー | ダイナミックデプス画像を撮影して編集するための手法 |
JP2022540934A (ja) * | 2019-07-15 | 2022-09-20 | リアルシー・(ベイジン)・テクノロジー・カンパニー・リミテッド | インテリアデザインのための人工知能システム及び方法 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10298834B2 (en) | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
US9858649B2 (en) | 2015-09-30 | 2018-01-02 | Lytro, Inc. | Depth-based image blurring |
EP2877155B1 (en) | 2012-07-26 | 2020-10-28 | Camurus AB | Opioid formulations |
US10334151B2 (en) | 2013-04-22 | 2019-06-25 | Google Llc | Phase detection autofocus using subaperture images |
US20230156350A1 (en) * | 2013-09-30 | 2023-05-18 | Duelight Llc | Systems, methods, and computer program products for digital photography |
US10134082B2 (en) * | 2014-10-13 | 2018-11-20 | Paypal, Inc. | Virtual display device for an interactive merchant sales environment |
US10565734B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline |
US10275898B1 (en) | 2015-04-15 | 2019-04-30 | Google Llc | Wedge-based light-field video capture |
US10440407B2 (en) | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US10341632B2 (en) | 2015-04-15 | 2019-07-02 | Google Llc. | Spatial random access enabled video system with a three-dimensional viewing volume |
US11328446B2 (en) | 2015-04-15 | 2022-05-10 | Google Llc | Combining light-field data with active depth data for depth map generation |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US10085005B2 (en) * | 2015-04-15 | 2018-09-25 | Lytro, Inc. | Capturing light-field volume image and video data using tiled light-field cameras |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US9979909B2 (en) | 2015-07-24 | 2018-05-22 | Lytro, Inc. | Automatic lens flare detection and correction for light-field images |
WO2017039348A1 (en) * | 2015-09-01 | 2017-03-09 | Samsung Electronics Co., Ltd. | Image capturing apparatus and operating method thereof |
WO2017043331A1 (ja) | 2015-09-09 | 2017-03-16 | ソニー株式会社 | 画像処理装置、及び、画像処理方法 |
US9992477B2 (en) | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
DE102016208210A1 (de) * | 2016-05-12 | 2017-11-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3d-multiaperturabbildungsvorrichtungen, multiaperturabbildungsvorrichtung, verfahren zum bereitstellen eines ausgangssignals einer 3d-multiaperturabbildungsvorrichtung und verfahren zum erfassen eines gesamtgesichtsfeldes |
US10275892B2 (en) | 2016-06-09 | 2019-04-30 | Google Llc | Multi-view scene segmentation and propagation |
US10009536B2 (en) | 2016-06-12 | 2018-06-26 | Apple Inc. | Applying a simulated optical effect based on data received from multiple camera sensors |
US10679361B2 (en) | 2016-12-05 | 2020-06-09 | Google Llc | Multi-view rotoscope contour propagation |
US10594945B2 (en) | 2017-04-03 | 2020-03-17 | Google Llc | Generating dolly zoom effect using light field image data |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
US10354399B2 (en) | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
US11334762B1 (en) * | 2017-09-07 | 2022-05-17 | Aurora Operations, Inc. | Method for image analysis |
US10545215B2 (en) | 2017-09-13 | 2020-01-28 | Google Llc | 4D camera tracking and optical stabilization |
KR102609767B1 (ko) * | 2017-11-08 | 2023-12-05 | 엘지전자 주식회사 | 디지털 사이니지를 제어하기 위한 방법, 장치 및 기록 매체 |
CN108198129A (zh) * | 2017-12-26 | 2018-06-22 | 努比亚技术有限公司 | 一种图像合成方法、终端及计算机可读存储介质 |
US10965862B2 (en) | 2018-01-18 | 2021-03-30 | Google Llc | Multi-camera navigation interface |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
KR102640581B1 (ko) * | 2018-11-23 | 2024-02-27 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR20200061279A (ko) | 2018-11-23 | 2020-06-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
EP3863277A4 (en) * | 2018-11-23 | 2022-05-04 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND ITS CONTROL METHOD |
CN109739574A (zh) * | 2018-12-29 | 2019-05-10 | 上海创功通讯技术有限公司 | 数据获取方法与电子设备、标定方法及装置 |
JP7388751B2 (ja) * | 2019-03-12 | 2023-11-29 | 日本電気株式会社 | 学習データ生成装置、学習データ生成方法および学習データ生成プログラム |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11054973B1 (en) | 2020-06-01 | 2021-07-06 | Apple Inc. | User interfaces for managing media |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
WO2023132455A1 (ko) * | 2022-01-07 | 2023-07-13 | 삼성전자 주식회사 | 웨어러블 장치와 모바일 장치를 통한 증강현실 컨텐츠 출력 시스템 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336703A (ja) * | 1997-05-27 | 1998-12-18 | Canon Inc | 画像合成装置、方法および記憶媒体 |
JP2000011204A (ja) * | 1998-06-22 | 2000-01-14 | Sega Enterp Ltd | 画像処理方法及び画像処理プログラムを記録した記録媒体 |
US20100208057A1 (en) * | 2009-02-13 | 2010-08-19 | Peter Meier | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
JP2013149219A (ja) * | 2012-01-23 | 2013-08-01 | Canon Inc | 映像処理装置及びその制御方法 |
JP2013152683A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7062722B1 (en) * | 2000-08-22 | 2006-06-13 | Bruce Carlin | Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of promotion and procurement |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US20050131776A1 (en) * | 2003-12-15 | 2005-06-16 | Eastman Kodak Company | Virtual shopper device |
KR100603601B1 (ko) | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
US7907166B2 (en) | 2005-12-30 | 2011-03-15 | Intuitive Surgical Operations, Inc. | Stereo telestration for robotic surgery |
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
JP5387856B2 (ja) | 2010-02-16 | 2014-01-15 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 |
CN102860014A (zh) | 2010-02-19 | 2013-01-02 | 汤姆森特许公司 | 立体徽标插入 |
US9098873B2 (en) * | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US9406132B2 (en) | 2010-07-16 | 2016-08-02 | Qualcomm Incorporated | Vision-based quality metric for three dimensional video |
JP5002047B2 (ja) * | 2010-11-05 | 2012-08-15 | シャープ株式会社 | 立体画像データ再生装置 |
US20120162372A1 (en) * | 2010-12-22 | 2012-06-28 | Electronics And Telecommunications Research Institute | Apparatus and method for converging reality and virtuality in a mobile environment |
GB201102794D0 (en) * | 2011-02-17 | 2011-03-30 | Metail Ltd | Online retail system |
US9164723B2 (en) * | 2011-06-30 | 2015-10-20 | Disney Enterprises, Inc. | Virtual lens-rendering for augmented reality lens |
CN103988226B (zh) * | 2011-08-31 | 2017-09-26 | Metaio有限公司 | 用于估计摄像机运动以及用于确定实境三维模型的方法 |
CN102447934B (zh) | 2011-11-02 | 2013-09-04 | 吉林大学 | 稀疏镜头采集的组合立体图像系统中立体元的合成方法 |
US9443353B2 (en) | 2011-12-01 | 2016-09-13 | Qualcomm Incorporated | Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects |
EP2817757B1 (en) * | 2012-02-24 | 2017-06-07 | Nant Holdings IP LLC | Content activation via interaction-based authentication, systems and method |
US9846960B2 (en) * | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9303982B1 (en) * | 2013-05-08 | 2016-04-05 | Amazon Technologies, Inc. | Determining object depth information using image data |
-
2014
- 2014-08-28 JP JP2014174173A patent/JP6476658B2/ja active Active
- 2014-09-02 US US14/903,115 patent/US10587864B2/en active Active
- 2014-09-02 CN CN201480046754.9A patent/CN105493138A/zh active Pending
- 2014-09-02 WO PCT/JP2014/004507 patent/WO2015037211A1/en active Application Filing
- 2014-09-02 EP EP14767157.2A patent/EP3039642B1/en active Active
- 2014-09-02 EP EP18154027.9A patent/EP3349175A1/en not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336703A (ja) * | 1997-05-27 | 1998-12-18 | Canon Inc | 画像合成装置、方法および記憶媒体 |
JP2000011204A (ja) * | 1998-06-22 | 2000-01-14 | Sega Enterp Ltd | 画像処理方法及び画像処理プログラムを記録した記録媒体 |
US20100208057A1 (en) * | 2009-02-13 | 2010-08-19 | Peter Meier | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
JP2013149219A (ja) * | 2012-01-23 | 2013-08-01 | Canon Inc | 映像処理装置及びその制御方法 |
JP2013152683A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102316448B1 (ko) | 2015-10-15 | 2021-10-25 | 삼성전자주식회사 | 이미지 장치 및 그것의 뎁쓰 계산 방법 |
KR20170044811A (ko) * | 2015-10-15 | 2017-04-26 | 삼성전자주식회사 | 이미지 장치 및 그것의 뎁쓰 계산 방법 |
JP2020522926A (ja) * | 2017-05-31 | 2020-07-30 | ベライゾン・パテント・アンド・ライセンシング・インコーポレイテッドVerizon Patent And Licensing Inc. | 取り込まれた2d風景画像を使用して仮想現実コンテンツを提供するための方法およびシステム |
US11257476B2 (en) | 2018-03-16 | 2022-02-22 | Sony Corporation | Signal processing apparatus and signal processing method |
WO2019198557A1 (ja) | 2018-04-09 | 2019-10-17 | ソニー株式会社 | 信号処理装置、信号処理方法および信号処理プログラム |
WO2020054203A1 (ja) * | 2018-09-10 | 2020-03-19 | 富士フイルム株式会社 | 表示装置、方法およびプログラム |
CN112655028A (zh) * | 2018-09-10 | 2021-04-13 | 富士胶片株式会社 | 显示装置、方法及程序 |
JPWO2020054203A1 (ja) * | 2018-09-10 | 2021-09-16 | 富士フイルム株式会社 | 表示装置、方法およびプログラム |
JP2022526053A (ja) * | 2019-04-01 | 2022-05-23 | グーグル エルエルシー | ダイナミックデプス画像を撮影して編集するための手法 |
JP7247327B2 (ja) | 2019-04-01 | 2023-03-28 | グーグル エルエルシー | ダイナミックデプス画像を撮影して編集するための手法 |
US11949848B2 (en) | 2019-04-01 | 2024-04-02 | Google Llc | Techniques to capture and edit dynamic depth images |
JP2021009495A (ja) * | 2019-06-28 | 2021-01-28 | Line株式会社 | 情報処理方法、プログラム、端末 |
JP7417690B2 (ja) | 2019-06-28 | 2024-01-18 | Lineヤフー株式会社 | プログラム、情報処理方法、端末 |
JP2022540934A (ja) * | 2019-07-15 | 2022-09-20 | リアルシー・(ベイジン)・テクノロジー・カンパニー・リミテッド | インテリアデザインのための人工知能システム及び方法 |
JP7325602B2 (ja) | 2019-07-15 | 2023-08-14 | リアルシー・(ベイジン)・テクノロジー・カンパニー・リミテッド | インテリアデザインのための人工知能システム及び方法 |
WO2021161719A1 (ja) * | 2020-02-12 | 2021-08-19 | パナソニックIpマネジメント株式会社 | 介護用品提案支援システム、介護用品提案支援方法及びプログラム |
KR20210153199A (ko) * | 2020-06-10 | 2021-12-17 | 주식회사 엘지유플러스 | 부가 오브젝트를 포함하는 영상 출력 방법 및 장치 |
KR102368825B1 (ko) * | 2020-06-10 | 2022-02-28 | 주식회사 엘지유플러스 | 부가 오브젝트를 포함하는 영상 출력 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP3039642A1 (en) | 2016-07-06 |
US10587864B2 (en) | 2020-03-10 |
EP3039642B1 (en) | 2018-03-28 |
JP6476658B2 (ja) | 2019-03-06 |
EP3349175A1 (en) | 2018-07-18 |
CN105493138A (zh) | 2016-04-13 |
WO2015037211A1 (en) | 2015-03-19 |
US20160381348A1 (en) | 2016-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6476658B2 (ja) | 画像処理装置および方法 | |
JP6497321B2 (ja) | 画像処理装置および方法 | |
WO2015037473A1 (ja) | 画像処理装置および方法 | |
JP6669063B2 (ja) | 画像処理装置および方法 | |
US9420253B2 (en) | Presenting realistic designs of spaces and objects | |
WO2018081176A1 (en) | Systems and methods for contextual three-dimensional staging | |
JP2013506226A (ja) | 仮想環境との相互作用のためのシステム及び方法 | |
CN108475180A (zh) | 在多个显示区域之间分布视频 | |
WO2016002578A1 (ja) | 画像処理装置および方法 | |
WO2019088273A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
US20230334803A1 (en) | Image processing method, recording medium, and image processing system | |
Lee | Wand: 360∘ video projection mapping using a 360∘ camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190121 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6476658 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |