JP7074056B2 - 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、画像処理システム、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP7074056B2 JP7074056B2 JP2018516900A JP2018516900A JP7074056B2 JP 7074056 B2 JP7074056 B2 JP 7074056B2 JP 2018516900 A JP2018516900 A JP 2018516900A JP 2018516900 A JP2018516900 A JP 2018516900A JP 7074056 B2 JP7074056 B2 JP 7074056B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- subject
- display mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Description
昨今では、高精細の大型ディスプレイが多く利用され、また、ネットワークを介して通信される画像、音声の品質も向上しており、ディスプレイに表示された遠隔のユーザとのコミュニケーションを、同じ会議室で行っているような感覚で行うことが可能となっている。
表示部に表示する人物の大きさを実際の大きさで表示することで、表示部に表示されるコミュニケーション相手が、あたかもその場にいるような感覚で対話を行うことを可能としたシステムである。
また、視聴ユーザが立っている場合と、座っている場合とでは、視聴ユーザの眼線の位置が大きく異なってくる。
表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理装置にある。
ネットワークにより接続された第1画像処理装置と第2画像処理装置との間で画像送受信を実行する画像処理システムであり、
前記第1画像処理装置は、
表示部の表示領域情報を取得する表示領域情報取得部と、
前記第2画像処理装置から、表示部に表示する被写体を含む入力画像を受信する通信部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理システムにある。
画像処理装置において実行する画像処理方法であり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行する画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行させるプログラムにある。
具体的には、表示領域情報取得部が、表示部の表示領域情報を取得し、画像取得部が、表示部に表示する被写体を含む入力画像を取得する。さらに、画像情報解析部が、入力画像解析処理を実行し、表示態様決定部が、解析結果を適用して表示部に表示する被写体の表示態様を決定し、決定した表示態様に従って生成した出力画像を表示部に表示する。実物大表示を行った場合の被写体欠落部に対する処理や、視線位置の修正等を実行し、自然な被写体表示を実行する。
本構成により、例えば双方向コミュニケーションを実行する画像処理装置に表示する被写体画像を、表示部や、被写体、あるいは視聴者等の各情報に応じた最適な表示画像とする構成が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
1.双方向コミュニケーション処理の概要について
2.画像処理装置のハードウェア構成例について
3.画像処理装置の機能的構成例について
4.画像処理装置の実行する処理シーケンスと具体的表示例について
5.本開示の構成のまとめ
まず、双方向コミュニケーション処理の概要について説明する。
図1は、双方向コミュニケーションシステム構成の一例を示す図である。
(1)第1ロケーション
(2)第2ロケーション
これらの2つのロケーションの構成例を示している。
これら2つのロケーションは、各々離れた遠隔地にあり、各ロケーションにいるユーザ同士が、双方向コミュニケーションを行う。各ロケーションのシステム同士がネットワーク30を介して接続されている。
また、第1ロケーションには、表示部(ディスプレイ)11、カメラ12、音声入出力部(マイク&スピーカ)13a~bを備えた画像処理装置10がある。
一方、第2ロケーションには、ユーザBがいる。
また、第2ロケーションには、表示部(ディスプレイ)21、カメラ22、音声入出力部(マイク&スピーカ)23a~bを備えた画像処理装置20がある。
第2ロケーションの画像処理装置20は、第1ロケーションの画像処理装置10から送信されたユーザAの画像を表示部21に表示する。
この表示処理に際して、表示ユーザであるユーザAの実物大(等身大)表示を行う。
第2ロケーションの画像処理装置20は、第1ロケーションからの受信音声を、音声入出力部(マイク&スピーカ)23a,bを介して出力する。
第1ロケーションの画像処理装置10は、第2ロケーションの画像処理装置20から送信されたユーザBの画像を表示部11に表示する。
この表示処理に際して、表示ユーザであるユーザBの実物大(等身大)表示を行う。
第1ロケーションの画像処理装置10は、第2ロケーションからの受信音声を、音声入出力部(マイク&スピーカ)13a,bを介して出力する。
次に、図2を参照して図1に示す画像処理装置10や、画像処理装置20のハードウェア構成例について説明する。
図2には、図1に示す画像処理装置10や、画像処理装置20に相当する画像処理装置100のハードウェア構成例を示している。
画像処理装置100は、本実施形態において、情報処理装置として構成され得る。画像処理装置100は、具体的には、PC(Personal Computer)、タブレットPC、スマートフォン、タブレット端末、ゲーム機器、プロジェクタ、ポータブルプロジェクタ等の情報処理装置であってもよい。
なお、撮像部106による撮影画像は、撮像部106側の表示部107の表示領域107aの位置やサイズを解析するための情報としても利用される。
次に、図3を参照して画像処理装置100の機能的構成例について説明する。
図3は、画像処理装置100の機能的構成を示すブロック図である。同図に示すように、画像処理装置100は、表示領域情報取得部201と、画像取得部202と、画像情報解析部203と、表示態様決定部204と、出力画像生成部205と、再生部206を備える。
表示領域情報取得部201は、図4に示すように表示部107について、以下の各情報を取得する。
(a)表示領域横サイズ221、
(b)表示領域縦サイズ222、
(c)床、または地面から、表示領域下端までの高さ223、
(d)解像度224、
(e)ピクセルピッチ225、
これらの体部位検出は、入力画像(表示用画像)に含まれる表示ユーザ(被写体)である人体の画像解析いわゆるモーションキャプチャ技術を適用して実行される。
体部位検出部203aは、人体の頭部、手、足等の部位、肘、肩、膝等の関節など、撮影画像に含まれる被写体としての人体を構成する各部位を識別する。
なお、体部位検出部203a、被写体情報取得部203bは入力画像に記録されたメタデータから体部位検出結果、被写体情報を取得してもよい。
例えば、表示領域情報取得部201によって取得された表示領域107aの仕様と入力画像の情報とに基づいて、被写体が表示領域107aに実物大で表示されるように入力画像を拡大または縮小し、被写体を実物大表示するための画像データを生成する。
(a)表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理
(b)表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
(c)表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
(d)表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
なお、具体的処理シーケンスについては、後段においてフローチャートを参照して説明する。
表示画像サイズ調整部205aは、最適表示態様決定部204bにおいて決定した最適表示画像の表示を行うための表示画像のサイズ調整を実行する。
最適表示態様決定部204bにおいて決定した最適表示画像が実物大サイズである場合は、実物大画像生成部204aの生成した画像を利用する。
また、最適表示態様決定部204bにおいて決定した最適表示画像が実物大サイズでない場合は、実物大画像生成部204aの生成した画像の縮小、または拡大等を実行して、最適表示態様決定部204bにおいて決定した最適表示画像に適合した画像サイズの表示画像を生成する。
図6は、表示部107に、3Dモデル画像241を背景として表示し、平面の被写体(表示ユーザ)242を重畳表示した例を示す図である。
次に、画像処理装置の実行する処理シーケンスと具体的表示例について説明する。
なお、図7、図8に示すフローチャートに従った処理は、例えば、画像処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を持つCPU等を備えたコントローラからなるデータ処理部の制御の下に実行される。
図7以下のフローの各ステップの処理について、順次、説明する。
まず、ステップS101~102において、画像処理装置の表示領域情報取得部201が表示部107の表示領域107aに関する情報を取得する。
これは、先に図4を参照して説明した処理であり、表示領域情報取得部201は、図4に示すように表示部107について、以下の各情報を取得する。
(b)表示領域縦サイズ222、
(c)床、または地面から、表示領域下端までの高さ223、
(d)解像度224、
(e)ピクセルピッチ225、
次に、ステップS103において、画像取得部102が、表示部107の表示領域107aに表示する入力画像(表示用画像)を取得する。
また、ディスプレイなど物理的に壁に設置され固定されている表示領域107を利用する場合、上記のステップS101~S102の表示領域情報取得処理は、表示処理の開始前に一度行うだけでよい。
続いて、ステップS104において、画像情報解析部203の体部位検出部203aが、入力画像(表示用画像)内の被写体人物の頭部、足首などの部位を検出する。
この処理は、先に図5を参照して説明した処理である。
体部位検出部203aは、人体の頭部、手、足等の部位、肘、肩、膝等の関節など、撮影画像に含まれる被写体としての人体を構成する各部位を識別する。
図9には、以下の3つの体部位検出例を示している。
(1)体部位検出例1
(2)体部位検出例2
(3)体部位検出例3
(2)体部位検出例2は、人体全体の被写体画像が入力画像として入力されている場合の体部位検出例である。
(3)体部位検出例3は、首から下の被写体画像が入力画像として入力されている場合の体部位検出例である。
続いて、ステップS105において、画像情報解析部203の被写体情報取得部203bが、入力画像内の被写体人物の実サイズ(身長)を測定する。
被写体情報取得部203bは、まず、ステップS105aにおいて、被写体の設置面(床)を検出する。
その後、ステップS105bにおいて、体部位検出結果を利用して被写体の身長を算出する。具体的には、例えば、頭部~床までの長さを算出する。
次に、ステップS106において、表示態様決定部204の実物大画像生成部204aが、表示領域107aのサイズと画像解像度、ピクセルピッチ、被写体人物の実サイズ(身長)等から、被写体を等身大で表示するための実物大表示画像の生成処理を実行する。
身長=Hr(mm)=Phr(pixel)×pp(mm/pixel)・・・(1)
実際は、このように被写体全体が表示部に表示可能になるとは限らない。
図8のフローに示すステップS107以下の処理において、最適表示態様決定部204bが、表示領域仕様取得部201が取得した表示領域107aの仕様や、画像情報解析部203において解析された被写体情報を適用して、予め規定された最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。
図8のフローに示すステップS107~ステップS109の判定処理は、図3に示す表示態様決定部204の最適表示態様決定部204bが実行する処理である。
最適表示態様決定部204bは、表示領域仕様取得部201が取得した表示領域107aの仕様や、画像情報解析部203において解析された被写体情報を適用して、予め規定された最適表示態様判定アルゴリズムを実行し、最適な表示態様を決定する。具体的には、例えば、以下のような判定処理を実行する。
(判定b)表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
(判定c)表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
(判定d)表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
(判定a)表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理、
上記判定処理を実行する。
具体的には、図4に示す、
(a)表示領域縦サイズ222と、
(b)床、または地面から、表示領域下端までの高さ223、
上記(a),(b)の合計が、表示領域107aの上端の高さとして算出される。
表示領域の上端高さと、
被写体身長、
これらを比較する。すなわち、以下の判定式が成立するか否かを判定する。
表示領域の上端高さ≧被写体身長
一方、上記判定式が不成立、すなわち、表示領域の上端高が、被写体身長未満であれば、ステップS107の判定はNoとなり、ステップS124に進む。
この場合、被写体(表示ユーザ)の顔を含む頭部は、表示領域に全て表示される。なお、表示部に表示される被写体(表示ユーザ)は実物大であり、被写体(表示ユーザ)の高さは、被写体の身長に一致することになる。
この場合、被写体(表示ユーザ)の顔を含む頭部は、少なくともその一部が表示領域に表示できない。
ステップS107の判定処理において、表示領域の上端高が、被写体身長以上であれば、ステップS107の判定はYesとなり、ステップS108に進む。
最適表示態様決定部204bは、ステップS108において、上記(判定b)の判定処理を行なう。すなわち、
(判定b)表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
上記判定処理を実行する。
この欠落部分の判定処理は、例えば画像情報解析部203の体部位検出部203aにおいて検出された体部位に基づいて判定することができる。
この図15(b)には、例えば画像情報解析部203の体部位検出部203aにおいて、入力画像から検出された体部位として足部分に欠落部位があり、表示できない体の部分が存在すると判定される。
一方、欠落領域があると判定した場合は、ステップS108の判定結果がNoとなり、ステップS110に進む。
ステップS108において、表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域がないと判定した場合は、ステップS108の判定結果がYesとなり、ステップS109に進む。
最適表示態様決定部204bは、ステップS109において、上記(判定c)の判定処理を行なう。すなわち、
(判定c)表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
上記判定処理を実行する。
なお、上記しきい値は、予め規定されたしきい値である。
図16は、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値以下である場合の例を示す図である。
一方、図17は、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が大きく、予め設定したしきい値より大である場合の例を示す図である。
一方、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値より大きいと判定した場合は、ステップS109の判定結果がNoとなり、ステップS122に進む。
ステップS109において、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が小さく、予め設定したしきい値以下であると判定した場合は、ステップS109の判定結果がYesとなり、ステップS121に進む。
ステップS121の処理は、被写体の画像表示処理である。
被写体表示処理-Aであり、
被写体を床から実物大で表示する処理を実行する。
図18~図20は、床からの実物大表示の例を示す図である。なお、被写体を表示する基準となる床は、視聴者側の床である。
一方、ステップS109において、被写体(表示ユーザ)の視点位置(高さ)と、視聴ユーザの視点位置(高さ)との差が大きく、予め設定したしきい値より大きいと判定した場合は、ステップS109の判定結果がNoとなり、ステップS122に進む。
ステップS122の処理は、被写体の画像表示処理である。
被写体表示処理-Bであり、
視聴ユーザと、被写体(表示ユーザ)の視点を近づけた表示画像を生成して表示する処理を実行する。なお、被写体画像は実物大の画像である。
図21~図22は、この処理によって生成された表示画像、すなわち、被写体(表示ユーザ)の視点を近づけた表示画像の例を示す図である。
図21には、以下の2つの図を示している。
(1a)視聴ユーザと、被写体(表示ユーザ)の視点の差分が大きい入力画像
(1b)視聴ユーザと、被写体(表示ユーザ)の視点を近づける画像処理を実行して生成した表示画像
図(1a)は、処理前の画像であり、図(1b)は処理後の画像である。図(1a)に示す画像に含まれる被写体(表示ユーザ)の表示位置を変更することで、図(1b)に示すように、視聴ユーザと、被写体(表示ユーザ)の視点を近づけた表示画像を生成している。
図22には、以下の2つの図を示している。
(2a)視聴ユーザと、被写体(表示ユーザ)の視点の差分が大きい入力画像
(2b)視聴ユーザと、被写体(表示ユーザ)の視点を近づける画像処理を実行して生成した表示画像
図(2a)は、処理前の画像であり、図(2b)は処理後の画像である。図(2a)に示す画像に含まれる被写体(表示ユーザ)の表示位置を変更するとともに、背景の3D画像モデルの視点位置を変更することで、視聴ユーザと、被写体(表示ユーザ)の視点を近づけるとともに、背景を含む全体の画像を自然な画像とした表示画像を生成している。
次に、ステップS108において、表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があると判定した場合のステップS110以下の処理について説明する。
最適表示態様決定部204bは、ステップS110において、上記(判定d)の判定処理を行なう。すなわち、
(判定d)表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
上記判定処理を実行する。
なお、上記しきい値は、予め規定されたしきい値である。
一方、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合より多いと判定した場合は、ステップS110の判定結果がNoとなり、ステップS124に進む。
ステップS110において、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下であると判定した場合は、ステップS110の判定結果がYesとなり、ステップS123に進む。
ステップS123の処理は、被写体の画像表示処理である。
被写体表示処理-Cであり、
被写体の欠落部位を隠す処理を実行して被写体を実物大で表示する処理を実行する。
図23~図24は、被写体の欠落部位を隠す処理を実行して被写体を実物大で表示した表示例を示す図である。
一方、ステップS110において、表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合より多いと判定した場合は、ステップS110の判定結果がNoとなり、ステップS124に進む。
ステップS124の処理は、被写体の画像表示処理である。
被写体表示処理-Dであり、
被写体の実物大表示は実行せず、構図を優先した表示処理を実行する。
図25には、以下の2つの図を示している。
(1a)欠落部位の大きい被写体の実物大表示例
(1b)欠落部位の大きい被写体の構図優先表示例
図(1a)は、処理前の画像であり、図(1b)は処理後の画像である。図(1a)に示す画像に含まれる被写体(表示ユーザ)は上半身しか含まれず、欠落部が大きい。
図(1b)に示す例は、被写体(表示ユーザ)を拡大して、実際の身長より高い被写体像を生成して表示した例であり、実物大表示にこだわることなく、構図を優先して表示画像を生成した例である。
(判定a(ステップS107))表示領域上端が表示対象となる被写体人物の身長より高いか否かの判定処理
(判定b(ステップS108))表示対象となる被写体人物の実物大表示により、表示部に表示できない欠落領域があるか否かの判定処理、
(判定c(ステップS109))表示対象となる被写体人物の視点位置と、視聴ユーザの視点位置の差が予め規定したしきい値以下か否かの判定処理、
(判定d(ステップS110))表示対象となる被写体画像に頭部が含まれ、頭部以外の欠落部分は予め規定したしきい値割合以下か否かの判定処理、
((表示処理A(ステップS121)):床(視聴ユーザの立ち位置)から実物大の被写体を表示する。
((表示処理B)(ステップS122)):視聴ユーザと被写体の視点を近づける画像処理を実行して被写体表示を実行する。
((表示処理C)(ステップS123)):被写体の欠落部位を隠す画像処理を実行して被写体の実物大表示を実行する。
((表示処理D)(ステップS124)):被写体の実物大表示にこだわることなく構図を優先した画像を生成して被写体表示を実行する。
従って、例えば双方向コミュニケーションを行う場合に、表示部に表示された被写体を見ながらコミュニケーションを実行する視聴ユーザは、違和感のないコミュニケーションを行うことが可能となる。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理装置。
表示領域の上端が、被写体人物の身長より高いか否かを判定し、
前記出力画像生成部は、
表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する(1)に記載の画像処理装置。
被写体人物を実物大表示する場合に、欠落領域が発生するか否かを判定し、
前記出力画像生成部は、
欠落領域が発生すると判定された場合、欠落領域に対するマスク処理を行なった出力画像、または、構図優先の出力画像を生成する(1)~(3)いずれかに記載の画像処理装置。
被写体人物を実物大表示する場合に、欠落領域が発生するか否かを判定し、
欠落領域が発生すると判定された場合、さらに、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下か否かを判定し、
前記出力画像生成部は、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定された場合には、欠落領域に対するマスク処理を行なった出力画像を生成し、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定されなかった場合には、構図優先の出力画像を生成する(1)~(5)いずれかに記載の画像処理装置。
表示部に表示される被写体の視線高さと、前記表示部を見る視聴ユーザの視線高さとの視線高さ差分がしきい値以下か否かを判定し、
前記出力画像生成部は、
前記視線高さ差分がしきい値以下でない場合、前記視線高さ差分を小さくした出力画像を生成する(1)~(6)いずれかに記載の画像処理装置。
前記視線高さ差分がしきい値以下でない場合、前記被写体の表示位置を変更して前記視線高さ差分を小さくした出力画像を生成する(7)に記載の画像処理装置。
前記視線高さ差分がしきい値以下でない場合、観察視点位置を変更した背景画像上に表示位置を変更した被写体画像を重畳した出力画像を生成する(7)に記載の画像処理装置。
データ通信を実行する通信部を有し、
前記画像情報解析部は、
前記通信部が受信した入力画像の解析処理を実行する(1)~(9)いずれかに記載の画像処理装置。
撮像部を有し、
前記表示態様決定部は、
前記撮像部の撮影した視聴ユーザの情報を適用して表示部に表示する被写体の表示態様を決定する(1)~(10)いずれかに記載の画像処理装置。
前記第1画像処理装置は、
表示部の表示領域情報を取得する表示領域情報取得部と、
前記第2画像処理装置から、表示部に表示する被写体を含む入力画像を受信する通信部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有する画像処理システム。
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行する画像処理方法。
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行させるプログラム。
具体的には、表示領域情報取得部が、表示部の表示領域情報を取得し、画像取得部が、表示部に表示する被写体を含む入力画像を取得する。さらに、画像情報解析部が、入力画像解析処理を実行し、表示態様決定部が、解析結果を適用して表示部に表示する被写体の表示態様を決定し、決定した表示態様に従って生成した出力画像を表示部に表示する。実物大表示を行った場合の被写体欠落部に対する処理や、視線位置の修正等を実行し、自然な被写体表示を実行する。
本構成により、例えば双方向コミュニケーションを実行する画像処理装置に表示する被写体画像を、表示部や、被写体、あるいは視聴者等の各情報に応じた最適な表示画像とする構成が実現される。
11,21 表示部(ディスプレイ)
12,22 カメラ
13,23 スピーカ
30 ネットワーク
100 画像処理装置
101 コントローラ
102 ROM
103 RAM
104 バス
105 入出力インタフェース
106 撮像部
107 表示部
107a 表示領域
108 操作受付部
109 記憶部
110 通信部
201 表示領域情報取得部
202画像取得部
203 画像情報解析部
203a 体部位検出部
203b 被写体情報取得部
204 表示態様決定部
204a 実物大画像生成部
204b 最適表示態様決定部
205 出力画像生成部
205a 表示画像サイズ調整部
205b 画像表示位置決定部
206 再生部
Claims (11)
- 表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
前記表示態様決定部は、
表示領域の上端が、被写体人物の身長より高いか否かを判定し、
前記出力画像生成部は、
表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する画像処理装置。 - 前記構図優先の出力画像は、被写体の顔領域を含む出力画像である請求項1に記載の画像処理装置。
- 表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
前記画像情報解析部は、
前記入力画像から被写体人物の体の部位を検出する体部位検出部を有し、
前記表示態様決定部は、
被写体人物を実物大表示する場合に、前記体部位検出部が検出した前記入力画像に含まれる前記被写体人物の体の部位情報に基づいて欠落領域が発生するか否か、および発生する欠落領域の部位を判定し、
前記出力画像生成部は、
欠落領域が発生すると判定された場合、欠落領域の部位に応じて欠落領域に対するマスク処理を行なった出力画像、または、構図優先の出力画像を生成する画像処理装置。 - 前記マスク処理を行なった出力画像は、前記欠落領域が隠れるマスク用のオブジェクトを被写体画像上に重畳した画像である請求項3に記載の画像処理装置。
- 前記表示態様決定部は、
被写体人物を実物大表示する場合に、前記体部位検出部が検出した前記入力画像に含まれる前記被写体人物の体の部位情報に基づいて欠落領域が発生するか否か、および発生する欠落領域の部位を判定し、
欠落領域が発生すると判定された場合、さらに、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下か否かを判定し、
前記出力画像生成部は、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定された場合には、欠落領域に対するマスク処理を行なった出力画像を生成し、
入力画像に頭部が含まれ、かつ欠落領域が一定割合以下であると判定されなかった場合には、構図優先の出力画像を生成する請求項3に記載の画像処理装置。 - 表示部の表示領域情報を取得する表示領域情報取得部と、
表示部に表示する被写体を含む入力画像を取得する画像取得部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
前記表示態様決定部は、
表示部に表示される被写体の視線高さと、前記表示部を見る視聴ユーザの視線高さとの視線高さ差分がしきい値以下か否かを判定し、
前記出力画像生成部は、
前記視線高さ差分がしきい値以下でない場合、観察視点位置を変更した背景画像上に表示位置を変更した被写体画像を重畳した出力画像を生成する画像処理装置。 - 前記画像処理装置は、さらに、
データ通信を実行する通信部を有し、
前記画像情報解析部は、
前記通信部が受信した入力画像の解析処理を実行する請求項1~6いずれかに記載の画像処理装置。 - 前記画像処理装置は、さらに、
撮像部を有し、
前記表示態様決定部は、
前記撮像部の撮影した視聴ユーザの情報を適用して表示部に表示する被写体の表示態様を決定する請求項1~7いずれかに記載の画像処理装置。 - ネットワークにより接続された第1画像処理装置と第2画像処理装置との間で画像送受信を実行する画像処理システムであり、
前記第1画像処理装置は、
表示部の表示領域情報を取得する表示領域情報取得部と、
前記第2画像処理装置から、表示部に表示する被写体を含む入力画像を受信する通信部と、
前記入力画像を解析する画像情報解析部と、
前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定部と、
前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成部を有し、
前記表示態様決定部は、
表示領域の上端が、被写体人物の身長より高いか否かを判定し、
前記出力画像生成部は、
表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する画像処理システム。 - 画像処理装置において実行する画像処理方法であり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行し、
前記表示態様決定部は、
表示領域の上端が、被写体人物の身長より高いか否かを判定し、
前記出力画像生成部は、
表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行し、
表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
表示領域情報取得部が、表示部の表示領域情報を取得する表示領域情報取得ステップと、
画像取得部が、表示部に表示する被写体を含む入力画像を取得する画像取得ステップと、
画像情報解析部が、前記入力画像を解析する画像情報解析ステップと、
表示態様決定部が、前記画像情報解析部の解析結果を適用して表示部に表示する被写体の表示態様を決定する表示態様決定ステップと、
出力画像生成部が、前記表示態様決定部の決定した表示態様に従って表示部に表示する出力画像を生成する出力画像生成ステップを実行させ、
前記プログラムは、さらに、
前記表示態様決定部に、
表示領域の上端が、被写体人物の身長より高いか否かを判定させ、
前記出力画像生成部に、
表示領域の上端が、被写体人物の身長より高い場合、被写体の実物大画像を含む出力画像の生成処理を実行させ、
表示領域の上端が、被写体人物の身長より高くない場合、構図優先の出力画像を生成させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016096697 | 2016-05-13 | ||
JP2016096697 | 2016-05-13 | ||
PCT/JP2017/014550 WO2017195514A1 (ja) | 2016-05-13 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017195514A1 JPWO2017195514A1 (ja) | 2019-03-22 |
JP7074056B2 true JP7074056B2 (ja) | 2022-05-24 |
Family
ID=60267010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018516900A Active JP7074056B2 (ja) | 2016-05-13 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10986401B2 (ja) |
JP (1) | JP7074056B2 (ja) |
WO (1) | WO2017195514A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958482B (zh) * | 2016-10-17 | 2021-06-18 | 杭州海康威视数字技术股份有限公司 | 一种三维场景模型构建方法及装置 |
US10951859B2 (en) * | 2018-05-30 | 2021-03-16 | Microsoft Technology Licensing, Llc | Videoconferencing device and method |
CN111277786B (zh) * | 2020-02-28 | 2021-07-09 | 中国科学院上海微系统与信息技术研究所 | 正确传达人脸视线方向的影像显示系统及影像显示方法 |
CN112619143B (zh) * | 2020-12-23 | 2023-03-21 | 上海米哈游天命科技有限公司 | 一种角色标识显示方法、装置、设备及存储介质 |
JP7410523B1 (ja) | 2022-08-19 | 2024-01-10 | 株式会社ブイキューブ | 表示装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011023886A (ja) | 2009-07-14 | 2011-02-03 | Panasonic Corp | テレビ会議装置及び映像表示処理方法 |
JP2012169949A (ja) | 2011-02-16 | 2012-09-06 | Brother Ind Ltd | 通信端末、通信システム、通信方法、及び通信プログラム |
JP2014086774A (ja) | 2012-10-19 | 2014-05-12 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
JP2014194675A (ja) | 2013-03-29 | 2014-10-09 | Brother Ind Ltd | プログラム、通信装置 |
WO2015194075A1 (ja) | 2014-06-18 | 2015-12-23 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016500954A (ja) | 2012-10-10 | 2016-01-14 | マイクロソフト コーポレーション | 制御された三次元通信エンドポイント |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572248A (en) * | 1994-09-19 | 1996-11-05 | Teleport Corporation | Teleconferencing method and system for providing face-to-face, non-animated teleconference environment |
KR101433157B1 (ko) * | 2007-10-26 | 2014-08-22 | 삼성전자주식회사 | 휴대 단말기 및 그 이미지 전송 방법 |
US8320461B2 (en) * | 2008-02-20 | 2012-11-27 | Gil Hoon Chang | Remote resource access interface apparatus |
JP5139339B2 (ja) | 2009-01-22 | 2013-02-06 | 日本電信電話株式会社 | テレビ会議装置および表示撮像方法 |
CN102025891B (zh) * | 2009-09-11 | 2012-11-07 | 华为终端有限公司 | 一种图像处理方法及装置 |
US8744420B2 (en) * | 2010-04-07 | 2014-06-03 | Apple Inc. | Establishing a video conference during a phone call |
KR20120064545A (ko) * | 2010-12-09 | 2012-06-19 | 한국전자통신연구원 | 시선일치 기능을 구비한 영상통화 장치 및 그 방법 |
JP5877351B2 (ja) * | 2010-12-15 | 2016-03-08 | パナソニックIpマネジメント株式会社 | 通信装置および通信方法 |
US9716858B2 (en) * | 2011-03-07 | 2017-07-25 | Ricoh Company, Ltd. | Automated selection and switching of displayed information |
TWI492629B (zh) * | 2011-11-02 | 2015-07-11 | Quanta Comp Inc | 視訊會議系統、視訊會議裝置及其方法 |
US9113033B2 (en) * | 2012-08-28 | 2015-08-18 | Microsoft Technology Licensing, Llc | Mobile video conferencing with digital annotation |
US9325939B2 (en) * | 2014-08-14 | 2016-04-26 | Verizon Patent And Licensing Inc. | Method and system for providing gaze-directed correction during a video conferencing session |
US9628754B2 (en) * | 2015-04-02 | 2017-04-18 | Telepresence Technologies, Llc | TelePresence architectural systems and methods therefore |
US10917611B2 (en) * | 2015-06-09 | 2021-02-09 | Avaya Inc. | Video adaptation in conferencing using power or view indications |
JP5965030B2 (ja) | 2015-06-17 | 2016-08-03 | ホリー株式会社 | 制振装置 |
JPWO2017094543A1 (ja) * | 2015-12-02 | 2018-09-20 | セイコーエプソン株式会社 | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法 |
US9743040B1 (en) * | 2015-12-03 | 2017-08-22 | Symantec Corporation | Systems and methods for facilitating eye contact during video conferences |
US9538130B1 (en) * | 2015-12-10 | 2017-01-03 | Dell Software, Inc. | Dynamic gaze correction for video conferencing |
-
2017
- 2017-04-07 WO PCT/JP2017/014550 patent/WO2017195514A1/ja active Application Filing
- 2017-04-07 US US16/098,702 patent/US10986401B2/en active Active
- 2017-04-07 JP JP2018516900A patent/JP7074056B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011023886A (ja) | 2009-07-14 | 2011-02-03 | Panasonic Corp | テレビ会議装置及び映像表示処理方法 |
JP2012169949A (ja) | 2011-02-16 | 2012-09-06 | Brother Ind Ltd | 通信端末、通信システム、通信方法、及び通信プログラム |
JP2016500954A (ja) | 2012-10-10 | 2016-01-14 | マイクロソフト コーポレーション | 制御された三次元通信エンドポイント |
JP2014086774A (ja) | 2012-10-19 | 2014-05-12 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
JP2014194675A (ja) | 2013-03-29 | 2014-10-09 | Brother Ind Ltd | プログラム、通信装置 |
WO2015194075A1 (ja) | 2014-06-18 | 2015-12-23 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190138803A1 (en) | 2019-05-09 |
US10986401B2 (en) | 2021-04-20 |
WO2017195514A1 (ja) | 2017-11-16 |
JPWO2017195514A1 (ja) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7074056B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム | |
WO2017215295A1 (zh) | 一种摄像机参数调整方法、导播摄像机及系统 | |
US9628755B2 (en) | Automatically tracking user movement in a video chat application | |
US9473741B2 (en) | Teleconference system and teleconference terminal | |
US20210037116A1 (en) | Method and apparatus for synchronizing viewing angles in virtual reality live streaming | |
JP7191853B2 (ja) | ヘッドマウントディスプレイおよび方法 | |
WO2015194075A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10600218B2 (en) | Display control system, display control apparatus, display control method, and storage medium | |
JP5793975B2 (ja) | 画像処理装置、画像処理方法、プログラム、記録媒体 | |
WO2011081036A1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
TW201707444A (zh) | 視線校正(一) | |
JP2016213677A (ja) | 遠隔コミュニケーションシステム、その制御方法、及びプログラム | |
WO2017141584A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
CN111163280B (zh) | 非对称性视频会议系统及其方法 | |
US20160267801A1 (en) | Image display method and apparatus | |
JP6700672B2 (ja) | 遠隔コミュニケーションシステム、その制御方法、及びプログラム | |
WO2021065694A1 (ja) | 情報処理システム及び方法 | |
WO2020184316A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2022054192A (ja) | リモート会議システム、サーバ、写真撮影装置、音声出力方法、及びプログラム | |
JP5656809B2 (ja) | 会話映像表示システム | |
TW201639347A (zh) | 視線校正(二) | |
JP2020530218A (ja) | 没入型視聴覚コンテンツを投影する方法 | |
JP7118383B1 (ja) | 表示システム、表示方法、及び表示プログラム | |
JP2016144071A (ja) | 位置制御装置、プログラム、画像表示装置および画像表示方法 | |
JP2023154542A (ja) | 画像処理システム、画像処理方法、及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7074056 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |